JP2017187850A - Image processing system, information processing device, and program - Google Patents

Image processing system, information processing device, and program Download PDF

Info

Publication number
JP2017187850A
JP2017187850A JP2016074388A JP2016074388A JP2017187850A JP 2017187850 A JP2017187850 A JP 2017187850A JP 2016074388 A JP2016074388 A JP 2016074388A JP 2016074388 A JP2016074388 A JP 2016074388A JP 2017187850 A JP2017187850 A JP 2017187850A
Authority
JP
Japan
Prior art keywords
image
information
classification
protected
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016074388A
Other languages
Japanese (ja)
Inventor
浩太 永井
Kota Nagai
浩太 永井
太一 山本
Taichi Yamamoto
太一 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016074388A priority Critical patent/JP2017187850A/en
Publication of JP2017187850A publication Critical patent/JP2017187850A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system that suppresses the deterioration of recognition accuracy and thereby can protect confidential information captured in image data.SOLUTION: An image processing system 200 which has a first information processing device 4 for obtaining image data captured by an imaging device 1 includes: protection means that generates a protection image by performing protection processing of confidential information for the image data, and associates the image data with the protection image; classification information acquisition means 43 that transmits the protection image to a second information processing device and obtains classification information on the classification of the protection image from the second information processing device; and learning means 45 that performs mechanical learning by using the image data associated with the protection image and the classification information.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理システム、情報処理装置及びプログラムに関する。   The present invention relates to an image processing system, an information processing apparatus, and a program.

画像データに各種の解析を施して有用な解析情報を抽出する技術が知られている。例えば、周囲を定期的に撮像する撮像装置が配置されている場合、撮像装置が撮像した画像データを情報処理装置などが解析して人を検知する技術が知られている。人を検知できれば、情報処理装置が人の撮像範囲を切り取ったり、人数をカウントするなどの処理が容易になる。このように、画像データを解析することでより高度に加工された解析情報が得られる。   A technique for extracting useful analysis information by performing various analyzes on image data is known. For example, when an imaging device that periodically captures the surroundings is arranged, a technique is known in which an information processing device or the like analyzes image data captured by the imaging device to detect a person. If a person can be detected, the information processing apparatus can easily perform processing such as cutting out a person's imaging range or counting the number of people. As described above, by analyzing the image data, more highly processed analysis information can be obtained.

ところで、画像データに人が撮像されている場合、人の顔も撮像されている場合ある。そこで、人の顔に着目して画像を解析する技術がある(例えば、特許文献1参照。)。特許文献1には、顔画像の特徴を損なわない程度まで画像特徴量の次元圧縮を行ってから顔を認識する装置が開示されている。   By the way, when a person is captured in the image data, a person's face may also be captured. Therefore, there is a technique for analyzing an image by paying attention to a human face (for example, see Patent Document 1). Patent Document 1 discloses an apparatus that recognizes a face after performing dimensional compression of an image feature amount to such an extent that the feature of the face image is not impaired.

しかしながら、従来の技術のように画像データに認識可能な程度に顔が撮像されていることが必ずしも好ましくない場合があるという問題がある。例えば、人の検知精度を向上させるために機械学習が利用される場合がある。機械学習は、主に、教師あり学習、教師なし学習、及び、強化学習の3つに分類されるが、教師あり学習では学習用の画像データを人間(以下、担当者という)がラベリングする必要がある。   However, there is a problem that it is not always preferable that the face is imaged to such an extent that the image data can be recognized as in the prior art. For example, machine learning may be used to improve human detection accuracy. Machine learning is mainly classified into three classes: supervised learning, unsupervised learning, and reinforcement learning. In supervised learning, it is necessary for humans (hereinafter referred to as responsible personnel) to label learning image data. There is.

例えば、店舗に設置された撮像装置が周囲を撮像して画像データを生成し、情報処理装置が画像データを教師データに使用して、人を認識する識別器を機械学習により作成する場合を例にして説明する。教師データをつくる担当者は、店舗に設置された撮像装置が撮像した画像を1枚1枚目視して、人が写っている部分及び写っていない部分をトリミングし、「人である」又は「人ではない」というラベリングを行う。このラベリングの作業の際、画像に個人の顔が写っていると、担当者がその個人を特定できてしまう可能性がある。   For example, an example in which an imaging device installed in a store captures the surroundings to generate image data, and the information processing device uses the image data as teacher data to create a classifier that recognizes a person by machine learning. I will explain. The person in charge of creating the teacher data looks at each of the images captured by the imaging device installed in the store, trims the portion where the person is shown and the portion where the person is not shown, and “is a person” or “ The label is “not a person”. During the labeling work, if an individual's face is shown in the image, the person in charge may be able to identify the individual.

担当者に守秘義務を課すことも可能だが、守秘義務が守られる保証がなく、守秘義務を有していても学習用の画像データが漏洩するおそれが生じうる。このようなリスクがあると、画像処理システムの顧客が撮像装置1の設置を躊躇せざるを得なくなってしまう。   Although it is possible to impose confidentiality on the person in charge, there is no guarantee that the confidentiality will be protected, and there is a possibility that image data for learning may be leaked even if confidentiality is held. When there is such a risk, the customer of the image processing system is forced to hesitate to install the imaging device 1.

一方で、個人を特定できないように、学習用の画像データに対し情報処理装置がぼかす又はモザイクをかけるなどの処理を行うと、画像の鮮明さが失われ、作成された識別器の精度が低下してしまう。   On the other hand, if the information processing device performs processing such as blurring or mosaicing the image data for learning so that individuals cannot be identified, the clarity of the image is lost and the accuracy of the created discriminator decreases. Resulting in.

このように従来の機械学習では、識別器の認識精度を落とさないで、画像データに写っている個人のプライバシーなどの秘匿情報を保護することが困難であるという問題があった。   As described above, in the conventional machine learning, there is a problem that it is difficult to protect confidential information such as an individual's privacy shown in the image data without reducing the recognition accuracy of the classifier.

本発明は、上記課題に鑑み、認識精度の低下を抑制して、画像データに写った秘匿情報を保護できる画像処理システムを提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an image processing system capable of protecting confidential information captured in image data while suppressing a decrease in recognition accuracy.

本発明は、撮像装置が撮像した画像データを取得する第一の情報処理装置を有する画像処理システムであって、前記画像データに秘匿情報の保護処理を施して保護画像を生成し、前記保護画像と前記画像データを関連付ける保護手段と、前記保護画像を第二の情報処理装置に送信して、前記第二の情報処理装置から前記保護画像の分類に関する分類情報を取得する分類情報取得手段と、前記保護画像と関連付けられた前記画像データ及び前記分類情報を用いて機械学習を行う学習手段と、を有する。   The present invention is an image processing system having a first information processing device that acquires image data captured by an imaging device, wherein the image data is subjected to a confidential information protection process to generate a protected image, and the protected image And a protection means for associating the image data, a classification information acquisition means for transmitting the protection image to a second information processing apparatus and acquiring classification information relating to the classification of the protection image from the second information processing apparatus; Learning means for performing machine learning using the image data associated with the protected image and the classification information.

認識精度の低下を抑制して、画像データに写った秘匿情報を保護できる画像処理システムを提供することができる。   It is possible to provide an image processing system capable of protecting confidential information captured in image data while suppressing a decrease in recognition accuracy.

機械学習のプロセスを説明する図の一例である。It is an example of the figure explaining the process of machine learning. 画像処理システムの全体的な動作を説明する図の一例である。It is an example of the figure explaining the whole operation | movement of an image processing system. 画像処理システムの概略構成図の一例である。1 is an example of a schematic configuration diagram of an image processing system. 撮像装置のハードウェア構成図の一例である。It is an example of the hardware block diagram of an imaging device. 無線通信機能を有したクレードルの場合の通信端末のハードウェア構成図の一例である。It is an example of the hardware block diagram of the communication terminal in the case of the cradle with a wireless communication function. 画像管理装置、画像処理サーバ、情報端末、管理者PC、担当者PCのハードウェア構成図の一例である。FIG. 2 is an example of a hardware configuration diagram of an image management apparatus, an image processing server, an information terminal, an administrator PC, and a person-in-charge PC. 画像処理システムが有する、撮像装置、通信端末、画像管理装置、及び情報端末の各機能ブロック図の一例である。It is an example of each functional block diagram of an imaging device, a communication terminal, an image management device, and an information terminal that the image processing system has. 画像処理システムが有する画像処理サーバ、管理者PC及び担当者PCの各機能ブロック図の一例である。It is an example of each functional block diagram of an image processing server, an administrator PC, and a person-in-charge PC that the image processing system has. ニューラルネットワークの一例を模式的に示す図である。It is a figure which shows an example of a neural network typically. CNNの構造を模式的に示す図の一例である。It is an example of the figure which shows the structure of CNN typically. 画像処理システムの全体的な動作の流れを示すフローチャート図の一例である。It is an example of the flowchart figure which shows the flow of the whole operation | movement of an image processing system. 保護処理部が保護処理を行うシーケンス図の一例である。It is an example of the sequence diagram in which a protection process part performs a protection process. 画像分類部が分類処理を行うシーケンス図の一例である。It is an example of the sequence diagram in which an image classification part performs a classification process. 画像分類部が編集処理を行うシーケンス図の一例である。It is an example of the sequence diagram in which an image classification part performs an edit process. 学習部が学習処理を行うシーケンス図の一例である。It is an example of the sequence diagram in which a learning part performs a learning process. 分析部が分類処理を行うシーケンス図の一例である。It is an example of the sequence diagram in which an analysis part performs a classification process. 分類画面の一例を示す図である。It is a figure which shows an example of a classification screen. 編集画面の一例を示す図である。It is a figure which shows an example of an edit screen. オリジナル画像からの人認識領域の切り出しを説明する図の一例である。It is an example of the figure explaining extraction of a person recognition field from an original picture. 分析結果画面の一例を示す図である。It is a figure which shows an example of an analysis result screen. 分析結果詳細画面の一例を示す図である。It is a figure which shows an example of an analysis result detailed screen.

以下、本発明を実施するための形態について図面を参照しながら説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

始めに、図1を用いて、機械学習について簡単に説明する。図1は、機械学習のプロセスを説明する図の一例である。本実施形態では画像認識のための機械学習について説明するが、画像認識以外でも機械学習のプロセスは同じである。機械学習のプロセスは、学習フェーズと認識フェーズの2つを有している。学習フェーズでは、情報処理装置に認識させたい画像を学習させる処理、すなわち識別器を作成する処理を行い、認識フェーズでは情報処理装置が識別器を用いて識別対象の画像から人などの認識対象を認識する処理が行われる。
(1)学習フェーズ
学習フェーズでは、まず、情報処理装置が画像になんらかの処理を施して特徴量の抽出を行う。すなわち、ピクセル(画素)のデータ列からより学習に適したデータ列(特徴量データ)へと変換を行う。例えば、二値化した場合の黒画素の数、連続した黒画素の数と方向などが特徴量データとなりうる。
First, machine learning will be briefly described with reference to FIG. FIG. 1 is an example of a diagram illustrating a machine learning process. In the present embodiment, machine learning for image recognition will be described, but the machine learning process is the same except for image recognition. The machine learning process has two phases, a learning phase and a recognition phase. In the learning phase, a process for learning an image to be recognized by the information processing apparatus, that is, a process for creating a classifier is performed. In the recognition phase, the information processing apparatus uses the classifier to identify a recognition target such as a person from the image to be identified. Recognition processing is performed.
(1) Learning Phase In the learning phase, first, the information processing apparatus performs some processing on the image to extract feature amounts. That is, conversion is performed from a pixel data string to a data string (feature data) that is more suitable for learning. For example, the number of black pixels when binarized, the number and direction of continuous black pixels, and the like can be feature amount data.

次に、情報処理装置は機械学習と呼ばれる学習方法で特徴量データを学習する。入力された特徴量データの中から共通のパターンや判別ルールなどを抽出し、これにより未知の画像データに対しても、共通のパターンや判別ルールに基づいたなんらかの判断ができるようになる。学習によって得られた共通のパターンや判別ルールなどを学習データという。   Next, the information processing apparatus learns feature amount data by a learning method called machine learning. A common pattern, discrimination rule, or the like is extracted from the input feature quantity data, so that it is possible to make some judgment based on the common pattern or discrimination rule even for unknown image data. A common pattern or discrimination rule obtained by learning is called learning data.

なお、機械学習は、教師あり学習、教師なし学習及び強化学習の3つに大別される。教師あり学習は、問題(入力)と答え(出力)がセットで入力データとして与えられる学習方法である。例えば、ラベリングの担当者が入力画像それぞれに画像の答えとしてラベル(例えば、食事、花、人、風景など)を与える。情報処理装置はラベルに基づいて認識結果が正しいか否かを判断し、正しくない場合は学習データにフィードバックすることで学習精度を高めていく。
(2)認識フェーズ
認識フェーズでも同様に特徴量の抽出が行われる。情報処理装置は学習フェーズで用いたものと同様の手法で入力画像から特徴量データへ抽出する。そして、変換された特徴量データを機械学習で抽出された学習データを用いて、入力データが何を表しているかを判別する。
Machine learning is roughly classified into three types: supervised learning, unsupervised learning, and reinforcement learning. Supervised learning is a learning method in which a problem (input) and an answer (output) are given as input data. For example, a person in charge of labeling gives a label (for example, meal, flower, person, landscape, etc.) to each input image as an answer to the image. The information processing apparatus determines whether or not the recognition result is correct based on the label. If the recognition result is not correct, the information processing apparatus feeds back to the learning data to improve learning accuracy.
(2) Recognition phase In the recognition phase, feature quantities are extracted in the same manner. The information processing apparatus extracts feature data from the input image using the same method as that used in the learning phase. Then, using the learning data extracted from the converted feature data by machine learning, it is determined what the input data represents.

本実施形態では、主に教師あり学習について説明する。このため、情報処理装置が例えば人や人の動作を画像認識により検出する場合、学習フェーズにおいて、画像データに対し、人である、人でない、座っている、又は、手を伸ばしているなどのラベリングを担当者が行う。   In this embodiment, the supervised learning will be mainly described. For this reason, when the information processing apparatus detects a person or a person's movement by image recognition, for example, in the learning phase, the image data is a person, not a person, sitting, or reaching out. The person in charge performs the labeling.

教師あり学習のアルゴリズムとしてニューラルネットワーク、SVM(サポートベクターマシン)、ディープラーニングなどが知られている。近年では、GPU(Graphic Processor Unit)のように高速演算処理を可能とする汎用的なハードウェアが登場したこと、大量のデジタルデータを大量に扱えるようになったこと等を理由に、ディープラーニングが注目されている。ディープラーニングとは、ニューラルネットワークの構成(入力層、中間層、出力層)のうち中間層が所定数以上のものをいう。中間層が多いため、各層で学習するべきパラメータ数が大幅に増え、学習には時間がかかる。しかし、ディープラーニングは、従来の機械学習の手法よりも高い精度を誇り、応用範囲も広いことが実証されている。   Neural networks, SVM (support vector machine), deep learning, and the like are known as supervised learning algorithms. In recent years, because of the emergence of general-purpose hardware that enables high-speed arithmetic processing, such as GPU (Graphic Processor Unit), and because it has become possible to handle a large amount of digital data, deep learning has been implemented. Attention has been paid. Deep learning refers to a neural network configuration (input layer, intermediate layer, output layer) having a predetermined number of intermediate layers or more. Since there are many intermediate layers, the number of parameters to be learned in each layer greatly increases, and learning takes time. However, deep learning has proven to be more accurate and has a wider range of applications than traditional machine learning techniques.

<本実施形態の概略>
図2は、本実施形態の画像処理システムの全体的な動作を説明する図の一例である。
(1)まず、撮像装置1は店舗内などに設置されており、定期的に周囲を撮像して画像データを画像処理サーバ4に送信する。この画像データは所定以上の解像度を有する鮮明な画像(以下、オリジナル画像という)であり、機械学習に適している。
(2)画像処理サーバ4は機械学習したり画像認識を行う装置である。画像処理サーバ4はオリジナル画像に対し秘匿情報の保護処理を施す。秘匿情報の保護処理は、個人の顔、住所、電話番号などの個人の特定に結びつく秘匿情報を人が視認困難な程度に変更する処理である。具体的には、ぼかし、モザイク処理又は平滑化などを行う。
(3)画像管理装置5は、担当者6aと閲覧者Yからの要求を処理する装置である。まず、担当者6aが担当者PC6を操作して保護画像を画像管理装置5に要求する。画像管理装置5は画像処理サーバ4に保護画像を要求するので、画像処理サーバ4はオリジナル画像と保護画像を対応付け、保護画像のみを画像管理装置5に送信する。担当者6aは、保護画像を視認して人の有無や、人の動作に関し保護画像にラベリングを行う。保護画像では秘匿情報が保護されているので担当者6aが個人を特定することを防止できる。
(4)担当者PC6は保護画像を分類することで保護画像のラベルを画像管理装置5に送信する。これにより、画像管理装置5では保護画像(具体的には保護画像の人認識領域)ごとにラベルが付与される。
(5)画像管理装置5は保護画像のラベルを画像処理サーバ4に送信する。これにより、画像処理サーバ4ではオリジナル画像にラベルが対応付けられた状態となる。
(6)画像処理サーバ4は学習部45を有しており、この学習部45はオリジナル画像とラベルを使用して例えばディープラーニングによる機械学習を行う。オリジナル画像が使用されるので、認識の精度を低下させずに学習することができる。学習により学習データが作成される。ここまでが学習フェーズである。
(7)次に、認識部46は、例えば閲覧者Yからの要求によって、学習によって得られた学習データを用いて撮像装置1から送信されるオリジナル画像を認識する。例えば、人の有無や人の動作を認識する。そして、認識結果(人が認識されたか、人である場合にどのような動作をおこなっているか)と共に保護画像を画像管理装置5に送信する。
(8)閲覧者Yは撮像装置1が配置された店舗等の例えば運営者である。閲覧者Yは情報端末7を操作して保護画像を表示させる。保護画像では、認識部46による画像認識により人が矩形枠で強調されていたりその動作内容がタグなどで表示されている。あるいは、ある時間内で特定の動作を行った人の数などを情報端末7が解析して表示したりすることもできる。
<Outline of this embodiment>
FIG. 2 is an example of a diagram illustrating the overall operation of the image processing system according to the present embodiment.
(1) First, the imaging device 1 is installed in a store or the like, periodically images the surroundings, and transmits image data to the image processing server 4. This image data is a clear image (hereinafter referred to as an original image) having a predetermined resolution or higher, and is suitable for machine learning.
(2) The image processing server 4 is a device that performs machine learning or image recognition. The image processing server 4 performs confidential information protection processing on the original image. The confidential information protection process is a process of changing the confidential information associated with the identification of the individual such as the individual's face, address, and telephone number so that it is difficult for a person to visually recognize the confidential information. Specifically, blurring, mosaic processing or smoothing is performed.
(3) The image management device 5 is a device that processes requests from the person in charge 6a and the viewer Y. First, the person in charge 6 a operates the person in charge PC 6 to request a protected image from the image management apparatus 5. Since the image management apparatus 5 requests the protected image from the image processing server 4, the image processing server 4 associates the original image with the protected image and transmits only the protected image to the image managing apparatus 5. The person in charge 6a visually recognizes the protected image and labels the protected image with respect to the presence / absence of a person and the operation of the person. Since the confidential information is protected in the protected image, the person in charge 6a can be prevented from specifying an individual.
(4) The person-in-charge PC 6 classifies the protected image and transmits the label of the protected image to the image management apparatus 5. As a result, the image management apparatus 5 assigns a label to each protected image (specifically, the human recognition area of the protected image).
(5) The image management apparatus 5 transmits the label of the protected image to the image processing server 4. As a result, the image processing server 4 enters a state in which the label is associated with the original image.
(6) The image processing server 4 has a learning unit 45, and the learning unit 45 performs machine learning by deep learning, for example, using the original image and the label. Since the original image is used, learning can be performed without reducing the recognition accuracy. Learning data is created by learning. This is the learning phase.
(7) Next, the recognition part 46 recognizes the original image transmitted from the imaging device 1 using the learning data obtained by learning by the request | requirement from the viewer Y, for example. For example, it recognizes the presence of a person and the movement of a person. Then, the protection image is transmitted to the image management apparatus 5 together with the recognition result (whether the person is recognized or what kind of operation is performed when the person is a person).
(8) The viewer Y is, for example, an operator such as a store where the imaging device 1 is disposed. The viewer Y operates the information terminal 7 to display the protected image. In the protected image, a person is emphasized by a rectangular frame by image recognition by the recognition unit 46, and the operation content is displayed by a tag or the like. Alternatively, the information terminal 7 can analyze and display the number of people who have performed a specific operation within a certain time.

このように本実施形態の画像処理システムは、担当者6aがラベリングに使用する画像データが保護されているため秘匿情報の漏えいを抑制できる。また、認識フェーズではオリジナル画像が使用されるので認識の精度が低下しにくい。   As described above, the image processing system according to this embodiment can suppress leakage of confidential information because the image data used by the person in charge 6a for labeling is protected. Also, since the original image is used in the recognition phase, recognition accuracy is unlikely to decrease.

<用語について>
秘匿情報とは秘匿されることが好ましい情報をいう。あるいは、個人や個人に関する組織などを特定できる情報である。具体的には、個人の顔、住所、電話番号、電子メールアドレス、特定のサイトのアカウント(ログインID)、パスワード、又はポスターや写真などの肖像、などであるがこれらには限られない。
<Terminology>
The secret information means information that is preferably concealed. Or it is information which can specify an individual or an organization related to the individual. Specific examples include, but are not limited to, an individual's face, address, telephone number, e-mail address, account (login ID) of a specific site, password, or portrait such as a poster or photo.

分類情報とは、画像に写っている情報に基づいて画像が分類された場合の類別である。類別の内容や数は分類の目的に応じて決定される。本実施形態では、画像における人の有無、及び、人が写っている場合は画像に写っている人の動作に応じて分類され、動作内容を分類情報として説明する。   The classification information is a classification when an image is classified based on information included in the image. The contents and number of categories are determined according to the purpose of classification. In the present embodiment, classification is performed according to the presence / absence of a person in the image and the action of the person in the image when the person is shown, and the operation content will be described as classification information.

機械学習とは、データから反復的に学習し、そこに潜むパターンを見つけ出すことである。学習結果を新たなデータにあてはめることで情報処理装置がパターンにしたがって人間と同様に判断することが可能になる。具体例については後述される。   Machine learning is to iteratively learn from data and to find out the patterns hidden in it. By applying the learning result to new data, the information processing apparatus can make a determination in the same manner as a human being according to the pattern. Specific examples will be described later.

また、本実施形態において画像と画像データという用語は厳密には区別されずに使用される。   In the present embodiment, the terms image and image data are used without being strictly distinguished.

<画像処理システムのシステム構成>
図3は、画像処理システム200の概略構成図の一例である。画像処理システム200は、通信ネットワーク9を介して接続された画像管理装置5、画像処理サーバ4、撮像装置1、通信端末3、担当者PC6、管理者PC8、及び、情報端末7を有している。撮像装置1は設置者Xにより店舗内に設置されている。情報端末7は閲覧者Yにより操作され、担当者PC6は担当者6aにより操作され、管理者PC8はシステム管理者8aにより操作される。
<System configuration of image processing system>
FIG. 3 is an example of a schematic configuration diagram of the image processing system 200. The image processing system 200 includes an image management device 5, an image processing server 4, an imaging device 1, a communication terminal 3, a person in charge PC 6, an administrator PC 8, and an information terminal 7 connected via a communication network 9. Yes. The imaging device 1 is installed in the store by the installer X. The information terminal 7 is operated by the viewer Y, the person in charge PC6 is operated by the person in charge 6a, and the administrator PC8 is operated by the system administrator 8a.

通信ネットワーク9は、店舗内や閲覧者Yの所属先の企業のLAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等の少なくとも1つを含んで構築されている。通信端末3や情報端末7がLANを介さずに直接、回線電話網や携帯電話網に接続する場合は、LANを介さずにプロバイダネットワークに接続することができる。また、通信ネットワークにはWANやインターネットが含まれる。通信ネットワークは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。   The communication network 9 is constructed to include at least one of the LAN of the company to which the store Y or the viewer Y belongs, the provider network of the provider that connects the LAN to the Internet, and the line provided by the line operator. Yes. When the communication terminal 3 or the information terminal 7 is directly connected to the line telephone network or the mobile phone network without going through the LAN, it can be connected to the provider network without going through the LAN. The communication network includes a WAN and the Internet. The communication network may be constructed by either wired or wireless, and wired and wireless may be combined.

撮像装置1は、1度の撮像で周囲360度を撮像し全天球画像を作成するカメラである。デジタルスチルカメラ又はデジタルビデオカメラと呼ばれる場合がある。また、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために撮像装置1は全天球画像を得るためのデジタルカメラとして説明を行う。撮像装置1は定期的に周囲360を撮像する。必ずしも定期的である必要はなく、不定期に撮像してもよいし、設置者Xの操作により撮像してもよいし、閲覧者Yが画像管理装置5に要求することで画像管理装置5からの命令で撮像してもよい。   The imaging device 1 is a camera that captures 360 degrees around by one imaging and creates an omnidirectional image. Sometimes called a digital still camera or a digital video camera. Further, when the communication terminal 3 has a camera, the communication terminal 3 can be a digital camera. In the present embodiment, in order to make the explanation easy to understand, the imaging apparatus 1 will be described as a digital camera for obtaining an omnidirectional image. The imaging device 1 periodically images the surrounding 360. It does not necessarily need to be regular, and may be taken irregularly, may be taken by the operation of the installer X, or the viewer Y requests the image management apparatus 5 to request from the image management apparatus 5. You may take an image with the command.

なお、撮像装置1は、視線が異なる何枚かの風景を自動的に撮像し、複数の画像データを合成することで全天球画像を作成してもよい。   Note that the imaging apparatus 1 may automatically capture several landscapes with different lines of sight and synthesize a plurality of image data to create an omnidirectional image.

通信端末3は、撮像装置1の代わりに通信ネットワーク9に接続する通信機能を有している。通信端末3は、撮像装置1への電力供給や店舗への固定を行うためのクレードル(Cradle)である。クレードルとは、撮像装置1の機能を拡張する拡張機器をいう。通信端末3は撮像装置1と接続するためのインタフェースを有し、これにより撮像装置1は通信端末3の機能を利用できる。通信端末3は、このインタフェースを介して撮像装置1とデータ通信を行なう。そして、無線ルータ9a及び通信ネットワーク9を介して画像管理装置5とデータ通信を行なう。   The communication terminal 3 has a communication function for connecting to the communication network 9 instead of the imaging device 1. The communication terminal 3 is a cradle for supplying power to the imaging apparatus 1 and fixing it to a store. The cradle refers to an expansion device that expands the function of the imaging device 1. The communication terminal 3 has an interface for connecting to the imaging device 1, and thus the imaging device 1 can use the function of the communication terminal 3. The communication terminal 3 performs data communication with the imaging device 1 via this interface. Then, data communication is performed with the image management apparatus 5 via the wireless router 9a and the communication network 9.

なお、撮像装置1が無線ルータ9aや通信ネットワーク9と直接、データ通信する機能を有する場合、通信端末3はなくてもよい。あるいは、撮像装置1と通信端末3が一体に構成されていてもよい。   Note that when the imaging device 1 has a function of directly performing data communication with the wireless router 9a and the communication network 9, the communication terminal 3 may be omitted. Or the imaging device 1 and the communication terminal 3 may be comprised integrally.

画像処理サーバ4は、例えば、サーバとして機能する情報処理装置であり、通信ネットワーク9を介して、通信端末3及び画像管理装置5とデータ通信を行うことができる。画像処理サーバ4は、撮像装置1から送信された画像データ(オリジナル画像)と、秘匿情報の保護処理が行われた画像データ(保護画像)を対応付けて管理する。その他、画像処理サーバ4は機械学習に関する処理を行う。画像処理サーバ4はオリジナル画像を保持するが、担当者PC6、管理者PC8及び情報端末7とは通信しないので、オリジナル画像が漏洩することを抑制しやすい。   The image processing server 4 is an information processing apparatus that functions as a server, for example, and can perform data communication with the communication terminal 3 and the image management apparatus 5 via the communication network 9. The image processing server 4 associates and manages the image data (original image) transmitted from the imaging device 1 and the image data (protected image) on which the confidential information is protected. In addition, the image processing server 4 performs processing related to machine learning. Although the image processing server 4 holds the original image, it does not communicate with the person-in-charge PC 6, the administrator PC 8, and the information terminal 7, so that it is easy to suppress the leakage of the original image.

画像管理装置5は、例えば、サーバとして機能する情報処理装置であり、通信ネットワーク9を介して、通信端末3及び情報端末7とデータ通信を行なうことができる。画像管理装置5には、OpenGL ES(3Dグラフィックス用のAPI:Application Interface)がインストールされている。OpenGL ESを呼び出すことでメルカトル画像から全天球画像を作成したり、全天球画像の一部の画像(所定領域画像)のサムネイル画像を作成したりすることができる。   The image management apparatus 5 is an information processing apparatus that functions as a server, for example, and can perform data communication with the communication terminal 3 and the information terminal 7 via the communication network 9. In the image management apparatus 5, OpenGL ES (API: Application Interface for 3D graphics) is installed. By calling OpenGL ES, an omnidirectional image can be created from a Mercator image, or a thumbnail image of a part of the omnidirectional image (predetermined area image) can be created.

なお、画像管理装置5及び画像処理サーバ4にはクラウドコンピューティングが適用されていることが好ましい。クラウドコンピューティングの物理的な構成に厳密な定義はないが、情報処理装置を構成するCPU、RAM、ストレージなどのリソースが負荷に応じて動的に接続・切断されることで情報処理装置の構成や設置場所が柔軟に変更される構成が知られている。また、クラウドコンピューティングでは、画像管理装置5が仮想化されることが一般的である。1台の情報処理装置が仮想化によって複数の画像管理装置5としての機能を提供することや、複数の情報処理装置が仮想化によって一台の画像管理装置5としての機能を提供することができる。なお、画像管理装置5がクラウドコンピューティングとしてではなく単独の情報処理装置により提供されることも可能である。   Note that cloud computing is preferably applied to the image management apparatus 5 and the image processing server 4. Although there is no strict definition of the physical configuration of cloud computing, the configuration of the information processing device is configured by dynamically connecting and disconnecting resources such as the CPU, RAM, and storage that make up the information processing device according to the load. In addition, a configuration in which the installation location is flexibly changed is known. In cloud computing, the image management apparatus 5 is generally virtualized. One information processing apparatus can provide a function as a plurality of image management apparatuses 5 by virtualization, or a plurality of information processing apparatuses can provide a function as one image management apparatus 5 by virtualization. . Note that the image management apparatus 5 can be provided not by cloud computing but by a single information processing apparatus.

情報端末7は、例えば、ノートPC(Personal Computer)であり、通信ネットワーク9を介して、画像管理装置5とデータ通信を行う。情報端末7は、ノートPCの他、タブレット端末、PC、PDA(Personal Digital Assistant)、電子黒板、テレビ会議端末、ウェアラブルPC、ゲーム機、携帯電話、カーナビゲーションシステム、スマートフォンなどでもよい。また、これらに限られるものではない。   The information terminal 7 is a notebook PC (Personal Computer), for example, and performs data communication with the image management apparatus 5 via the communication network 9. The information terminal 7 may be a notebook PC, a tablet terminal, a PC, a PDA (Personal Digital Assistant), an electronic blackboard, a video conference terminal, a wearable PC, a game machine, a mobile phone, a car navigation system, a smartphone, or the like. Moreover, it is not restricted to these.

担当者PC6は担当者6aが保護画像をラベリングする際に使用される情報処理装置である。担当者PC6の具体的な例は情報端末7と同様でよい。より好ましくは、担当者6aが移動中などの空き時間にラベリングできるように、スマートフォンなど可搬性の情報処理装置である。担当者6aは保護画像にラベリングを行う者である。担当者6aは例えばアルバイト(学生など)、派遣社員、契約社員、パート、又は、正社員などであるがこれらには限られない。   The person-in-charge PC6 is an information processing apparatus used when the person-in-charge 6a labels the protected image. A specific example of the person in charge PC 6 may be the same as that of the information terminal 7. More preferably, it is a portable information processing device such as a smartphone so that the person in charge 6a can label it during idle time such as moving. The person in charge 6a is a person who labels the protected image. The person in charge 6a is, for example, a part-time worker (such as a student), a temporary employee, a contract employee, a part, or a regular employee, but is not limited thereto.

管理者PC8は、画像処理システム200を管理・運営するシステム管理者8aが操作するための情報処理装置である。また、管理・運営の一環としてシステム管理者8aは機械学習に関する作業を行う。システム管理者8aと設置者Xとが同じ者でもよい。システム管理者8aは、機械学習の精度を向上させるために、保護画像を参照して画像処理サーバ4が機械学習に使用するか否かを保護画像ごとに決定する。   The administrator PC 8 is an information processing apparatus that is operated by a system administrator 8 a that manages and operates the image processing system 200. In addition, as part of management and operation, the system administrator 8a performs work related to machine learning. The system administrator 8a and the installer X may be the same person. In order to improve the accuracy of machine learning, the system administrator 8a determines whether or not the image processing server 4 uses the machine learning for each protected image with reference to the protected image.

撮像装置1、通信端末3、及び無線ルータ9aは、店舗等の各販売拠点で設置者Xによって所定の位置に設置される。情報端末7は、各販売拠点を統括する本社等に設置され、画像管理装置5を介して送られて来る各拠点の状況を表した画像を表示することで、閲覧者Yが各拠点の状況を表した画像を閲覧することができる。ただし、情報端末7は本社以外の場所からも画像管理装置5と通信可能である。画像管理装置5は、各拠点の通信端末3から送られて来た画像データやその解析結果を情報端末7に送信する。   The imaging device 1, the communication terminal 3, and the wireless router 9a are installed at predetermined positions by the installer X at each sales base such as a store. The information terminal 7 is installed in the head office that supervises each sales base and displays an image showing the situation of each base sent via the image management device 5 so that the viewer Y can check the situation of each base. Can be viewed. However, the information terminal 7 can communicate with the image management apparatus 5 from a place other than the head office. The image management device 5 transmits the image data sent from the communication terminal 3 at each base and the analysis result thereof to the information terminal 7.

画像処理サーバ4は通信ネットワーク9上にあればよいが、管理者PC8、担当者PC6及び情報端末7からは通信が困難状態に隔離されることが好ましい。画像処理サーバ4はオリジナル画像を有しているためである。また、管理者PC8及び担当者PC6は通信ネットワーク9に接続可能な任意の場所に配置されるが、固定されている必要はなく移動可能であることが想定される。また、システム管理者8aが使用する情報処理装置が便宜上、管理者PC8と呼ばれ、担当者6aが使用する情報処理装置が便宜上、担当者PC6と呼ばれるに過ぎない。   The image processing server 4 may be on the communication network 9, but it is preferable that communication is isolated from the administrator PC 8, the person-in-charge PC 6, and the information terminal 7 in a difficult state. This is because the image processing server 4 has an original image. Further, the administrator PC 8 and the person-in-charge PC 6 are arranged at arbitrary locations that can be connected to the communication network 9, but it is assumed that they are not fixed and can be moved. Further, the information processing apparatus used by the system administrator 8a is referred to as an administrator PC 8 for convenience, and the information processing apparatus used by the person in charge 6a is merely referred to as a person in charge PC 6 for convenience.

<実施形態のハードウェア構成>
次に、図4〜図6を用いて、本実施形態の撮像装置1、通信端末3,情報端末7、画像処理サーバ4、担当者PC6,管理者PC8及び画像管理装置5のハードウェア構成を説明する。
<Hardware Configuration of Embodiment>
Next, the hardware configuration of the imaging apparatus 1, the communication terminal 3, the information terminal 7, the image processing server 4, the person in charge PC 6, the administrator PC 8, and the image management apparatus 5 according to the present embodiment will be described with reference to FIGS. explain.

<<撮像装置1>>
図4は、撮像装置1のハードウェア構成図の一例である。以下では、撮像装置1は、2つの撮像素子を使用した全方位の撮像装置1とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に撮像装置1と同じ機能を有するようにしてもよい。
<< Imaging device 1 >>
FIG. 4 is an example of a hardware configuration diagram of the imaging apparatus 1. Hereinafter, the imaging apparatus 1 is the omnidirectional imaging apparatus 1 using two imaging elements, but the number of imaging elements may be three or more. Further, it is not always necessary to use an apparatus dedicated to omnidirectional imaging, and it may have substantially the same function as the imaging apparatus 1 by attaching a retrofit omnidirectional imaging unit to a normal digital camera, smartphone, or the like. .

図4に示されているように、撮像装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。   As shown in FIG. 4, the imaging device 1 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, a ROM (Read Only Memory). ) 112, SRAM (Static Random Access Memory) 113, DRAM (Dynamic Random Access Memory) 114, operation unit 115, network I / F 116, communication unit 117, and antenna 117a.

このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。   Among these, the imaging unit 101 includes wide-angle lenses (so-called fish-eye lenses) 102a and 102b each having an angle of view of 180 ° or more for forming a hemispherical image, and two imaging units provided corresponding to the wide-angle lenses. Elements 103a and 103b are provided. The image sensors 103a and 103b are image sensors such as a CMOS (Complementary Metal Oxide Semiconductor) sensor and a CCD (Charge Coupled Device) sensor that convert an optical image obtained by a fisheye lens into image data of an electric signal and output the image data. A timing generation circuit for generating a vertical synchronization signal, a pixel clock, and the like, and a register group in which various commands and parameters necessary for the operation of the image sensor are set.

撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。更に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。   The imaging elements 103a and 103b of the imaging unit 101 are each connected to the image processing unit 104 via a parallel I / F bus. On the other hand, the imaging elements 103 a and 103 b of the imaging unit 101 are connected to a serial I / F bus (I2C bus or the like) separately from the imaging control unit 105. The image processing unit 104 and the imaging control unit 105 are connected to the CPU 111 via the bus 110. Further, ROM 112, SRAM 113, DRAM 114, operation unit 115, network I / F 116, communication unit 117, and electronic compass 118 are connected to the bus 110.

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、メルカトル画像のデータを作成する。   The image processing unit 104 takes in the image data output from the image sensors 103a and 103b through the parallel I / F bus, performs predetermined processing on the respective image data, and then combines these image data. Create data for Mercator images.

撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。   In general, the imaging control unit 105 sets a command or the like in a register group of the imaging elements 103a and 103b using the I2C bus with the imaging control unit 105 as a master device and the imaging elements 103a and 103b as slave devices. Necessary commands and the like are received from the CPU 111. The imaging control unit 105 also uses the I2C bus to capture status data of the register groups of the imaging elements 103a and 103b and send it to the CPU 111.

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮像装置1によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。   The imaging control unit 105 instructs the imaging elements 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Some imaging devices 1 may have a preview display function using a display or a function corresponding to moving image display. In this case, output of image data from the image sensors 103a and 103b is continuously performed at a predetermined frame rate (frame / min).

また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置1には表示部が設けられていないが、表示部を設けてもよい。   Further, as will be described later, the imaging control unit 105 also functions as a synchronization control unit that synchronizes the output timing of image data of the imaging elements 103a and 103b in cooperation with the CPU 111. In the present embodiment, the imaging device 1 is not provided with a display unit, but may be provided with a display unit.

マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。   The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in the sound data output from the microphone 108 through the I / F bus and performs predetermined processing on the sound data.

CPU111は、撮像装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。   The CPU 111 controls the overall operation of the imaging apparatus 1 and executes necessary processing. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and the DRAM 114 are work memories, and store programs executed by the CPU 111, data being processed, and the like. In particular, the DRAM 114 stores image data being processed by the image processing unit 104 and processed Mercator image data.

操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮像モードや撮像条件などを入力する。   The operation unit 115 is a general term for various operation buttons, a power switch, a shutter button, a touch panel that has both display and operation functions, and the like. The user inputs various imaging modes, imaging conditions, and the like by operating the operation buttons.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインタフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。   The network I / F 116 is a generic name for an interface circuit (USB I / F or the like) with an external medium such as an SD card or a personal computer. Further, the network I / F 116 may be a network interface regardless of wireless or wired. The data of the Mercator image stored in the DRAM 114 is recorded on an external medium via the network I / F 116 or the communication terminal 3 or the like via the network I / F 116 which becomes a network I / F as necessary. Or sent to an external device.

通信部117は、撮像装置1に設けられたアンテナ117aを介して、Wi−Fi(wireless fidelity)、NFC(Near Filed Communication)、又はLTE(Long Term Evolution)等の離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを通信端末3の外部装置に送信することができる。   The communication unit 117 is connected to the communication terminal 3 via a wireless communication technology such as Wi-Fi (wireless fidelity), NFC (Near Filed Communication), or LTE (Long Term Evolution) via an antenna 117a provided in the imaging device 1. Communicate with external devices such as. The communication unit 117 can also transmit Mercator image data to an external device of the communication terminal 3.

電子コンパス118は、地球の磁気から撮像装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。   The electronic compass 118 calculates the azimuth and tilt (Roll rotation angle) of the imaging device 1 from the earth's magnetism, and outputs azimuth / tilt information. This azimuth / tilt information is an example of related information (metadata) along Exif, and is used for image processing such as image correction of a captured image. The related information includes each data of the image capturing date and time and the data capacity of the image data.

<<通信端末>>
次に、図5を用いて、通信端末3のハードウェア構成を説明する。なお、図5は、無線通信機能を有したクレードルの場合の通信端末3のハードウェア構成図である。
<< Communication terminal >>
Next, the hardware configuration of the communication terminal 3 will be described with reference to FIG. FIG. 5 is a hardware configuration diagram of the communication terminal 3 in the case of a cradle having a wireless communication function.

図5に示されているように、通信端末3は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)304、Wi−Fi、NFC、LTE等でデータ通信する通信部305、撮像装置1と有線で通信するためのUSB I/F303、カレンダーや時間情報を保持するRTC(Real Time Clock)306を有している。   As shown in FIG. 5, the communication terminal 3 includes a CPU 301 that controls the operation of the entire communication terminal 3, a ROM 302 that stores basic input / output programs, and a RAM (Random Access Memory) 304 that is used as a work area for the CPU 301. , Wi-Fi, NFC, LTE, etc., a communication unit 305 for data communication, a USB I / F 303 for communicating with the imaging device 1 by wire, and an RTC (Real Time Clock) 306 for holding calendar and time information. Yes.

また、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。   In addition, a bus line 310 such as an address bus or a data bus for electrically connecting the above-described units is provided.

なお、ROM302には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。   The ROM 302 stores an operating system (OS) executed by the CPU 301, other programs, and various data.

通信部305は、アンテナ305aを利用して無線通信信号により、無線ルータ9a等と通信を行う。   The communication unit 305 communicates with the wireless router 9a and the like by a wireless communication signal using the antenna 305a.

図示する他、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、及び高度)を含んだGPS信号を受信するGPS受信部を備えていてもよい。   In addition to the figure, a GPS receiving unit is provided that receives GPS signals including position information (latitude, longitude, and altitude) of the communication terminal 3 by a GPS (Global Positioning Systems) satellite or IMES (Indoor Messaging System) as an indoor GPS. It may be.

<<画像管理装置5、画像処理サーバ4、情報端末7、管理者PC8、担当者PC6>>
図6(a)を用いて、画像管理装置5、情報端末7、管理者PC8、担当者PC6のハードウェア構成を説明する。なお、図6(a)は、画像管理装置5、情報端末7、管理者PC8、担当者PC6のハードウェア構成図である。画像管理装置5、情報端末7、管理者PC8、担当者PC6はいずれも情報処理装置(コンピュータ)であるため、以下では、画像管理装置5の構成について説明する。情報端末7、管理者PC8、担当者PC6の構成は画像管理装置5と同様であるとし、相違があるとしても本実施形態の説明に関し支障がないものとする。
<< Image management device 5, image processing server 4, information terminal 7, administrator PC8, person in charge PC6 >>
The hardware configuration of the image management apparatus 5, the information terminal 7, the administrator PC 8, and the person in charge PC 6 will be described with reference to FIG. 6A is a hardware configuration diagram of the image management apparatus 5, the information terminal 7, the administrator PC 8, and the person-in-charge PC 6. Since the image management apparatus 5, the information terminal 7, the administrator PC 8, and the person in charge PC 6 are all information processing apparatuses (computers), the configuration of the image management apparatus 5 will be described below. The configuration of the information terminal 7, the administrator PC 8, and the person-in-charge PC 6 is the same as that of the image management apparatus 5, and even if there is a difference, there is no problem with the description of the present embodiment.

画像管理装置5は、画像管理装置5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503を有する。また、画像管理装置5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505を有する。また、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508を有する。ディスプレイ508にはタッチパネルが装着されていることが好ましい。また、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512を有する。また、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514を有する。また、上記各構成要素を図5に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。   The image management apparatus 5 includes a CPU 501 that controls the operation of the entire image management apparatus 5, a ROM 502 that stores a program used to drive the CPU 501 such as an IPL, and a RAM 503 that is used as a work area for the CPU 501. Also, an HD 504 that stores various data such as a program for the image management apparatus 5 and an HDD (Hard Disk Drive) 505 that controls reading or writing of various data to the HD 504 according to the control of the CPU 501. In addition, it has a media drive 507 for controlling reading or writing (storage) of data with respect to a recording medium 506 such as a flash memory, and a display 508 for displaying various information such as a cursor, menu, window, character, or image. The display 508 is preferably equipped with a touch panel. In addition, a network I / F 509 for data communication using the communication network 9, a keyboard 511 having a plurality of keys for inputting characters, numerical values, and various instructions, selection and execution of various instructions, and a processing target A mouse 512 for selecting, moving a cursor, and the like is included. Further, it has a CD-ROM drive 514 that controls reading or writing of various data with respect to a CD-ROM (Compact Disc Read Only Memory) 513 as an example of a removable recording medium. Further, as shown in FIG. 5, a bus line 510 such as an address bus or a data bus is provided for electrically connecting the above components.

図6(b)は、画像処理サーバ4のハードウェア構成図の一例である。画像処理サーバ4は情報処理装置であるため、基本的な構成は画像管理装置5と同様である。ただし、ディープラーニングに関する処理を行う画像処理サーバ4はGPU515を有することが好ましい。GPU515は画像処理で多く見られる、単純だが数の多い処理を並列に行うプロセッサである。複数のタスクを同時に並列に実行できるよう数百から数千以上のコアを有している。この他の構成は画像管理装置5と同様であるものとして説明する。   FIG. 6B is an example of a hardware configuration diagram of the image processing server 4. Since the image processing server 4 is an information processing apparatus, the basic configuration is the same as that of the image management apparatus 5. However, the image processing server 4 that performs processing related to deep learning preferably includes the GPU 515. The GPU 515 is a processor that performs simple but many processes in parallel, which are often seen in image processing. It has hundreds to thousands of cores so that a plurality of tasks can be executed simultaneously in parallel. The other configuration will be described assuming that it is the same as that of the image management apparatus 5.

<画像処理システムの機能について>
図7は、本実施形態の画像処理システム200が有する、撮像装置1、通信端末3、画像管理装置5、及び情報端末7の各機能ブロック図の一例である。図8は、本実施形態の画像処理システム200が有する画像処理サーバ4、管理者PC8及び担当者PC6の各機能ブロック図の一例である。
<Functions of image processing system>
FIG. 7 is an example of functional block diagrams of the imaging device 1, the communication terminal 3, the image management device 5, and the information terminal 7 included in the image processing system 200 of the present embodiment. FIG. 8 is an example of a functional block diagram of the image processing server 4, the administrator PC 8, and the person-in-charge PC 6 that the image processing system 200 of this embodiment has.

<<撮像装置1の機能構成>>
撮像装置1は、受付部12、撮像部13、集音部14、接続部15、及び記憶・読出部19を有している。これら各部は、図4に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮像装置1用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of imaging device 1 >>
The imaging apparatus 1 includes a reception unit 12, an imaging unit 13, a sound collection unit 14, a connection unit 15, and a storage / readout unit 19. Each of these units is a function realized by any one of the constituent elements shown in FIG. 4 being operated by a command from the CPU 111 according to the program for the imaging device 1 developed from the SRAM 113 onto the DRAM 114, or Means.

また、撮像装置1は、図4に示されているROM112、SRAM113、及びDRAM114の1つ以上によって構築される記憶部1000を有している。記憶部1000には撮像装置1用のプログラム及び端末IDが記憶されている。   In addition, the imaging apparatus 1 includes a storage unit 1000 configured by one or more of the ROM 112, the SRAM 113, and the DRAM 114 illustrated in FIG. The storage unit 1000 stores a program for the imaging device 1 and a terminal ID.

撮像装置1の受付部12は、主に、図4に示されている操作部115及びCPU111の処理によって実現され、ユーザ(図2では、設置者X)からの操作入力を受け付ける。なお、撮像装置1は設置者Xによる撮像のための操作がなくても自動的かつ定期的に周囲を撮像する。定期の間隔は、設置者Xが撮像装置1に設定してもよいし、閲覧者Yが画像管理装置5を介して設定してもよい。   The reception unit 12 of the imaging apparatus 1 is mainly realized by the processing of the operation unit 115 and the CPU 111 illustrated in FIG. 4 and receives an operation input from a user (installer X in FIG. 2). Note that the imaging device 1 automatically and regularly images the surroundings without an operation for imaging by the installer X. The regular interval may be set by the installer X in the imaging device 1 or by the viewer Y via the image management device 5.

撮像部13は、主に、図4に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、及びCPU111の処理によって実現され、風景等を撮像し、画像データを作成する。   The imaging unit 13 is mainly realized by the processing of the imaging unit 101, the image processing unit 104, the imaging control unit 105, and the CPU 111 shown in FIG. 4, and images a landscape or the like and creates image data.

集音部14は、主に、図4に示されているマイク108及び音処理ユニット109、及び、CPU111の処理によって実現され、撮像装置1の周囲の音を収音する。   The sound collection unit 14 is mainly realized by processing of the microphone 108 and the sound processing unit 109 and the CPU 111 shown in FIG. 4 and collects sounds around the imaging device 1.

接続部15は、主に、ネットワークI/F116及びCPU111の処理によって実現され、通信端末3からの電力供給を受けると共に、通信端末3とデータ通信を行う。   The connection unit 15 is mainly realized by the processing of the network I / F 116 and the CPU 111, receives power supply from the communication terminal 3, and performs data communication with the communication terminal 3.

記憶・読出部19は、主に、図4に示されているCPU111の処理によって実現され、記憶部1000に各種データを記憶したり、記憶部1000から各種データを読み出したりする。なお、以下では、撮像装置1が記憶部1000から読み書きする場合でも「記憶・読出部19を介して」という記載を省略する場合がある。   The storage / reading unit 19 is realized mainly by the processing of the CPU 111 illustrated in FIG. 4, and stores various data in the storage unit 1000 and reads various data from the storage unit 1000. In the following description, the description “via the storage / reading unit 19” may be omitted even when the imaging apparatus 1 reads / writes data from / from the storage unit 1000.

<<通信端末3の機能構成>>
通信端末3は、送受信部31、受付部32、接続部33、及び記憶・読出部39を有している。これら各部は、図5に示されている各構成要素のいずれかが、ROM302からRAM304上に展開された通信端末用のプログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of communication terminal 3 >>
The communication terminal 3 includes a transmission / reception unit 31, a reception unit 32, a connection unit 33, and a storage / reading unit 39. Each of these units is a function or means realized by any one of the constituent elements shown in FIG. 5 operating according to a command from the CPU 301 according to a communication terminal program developed from the ROM 302 to the RAM 304. It is.

また、通信端末3は、図5に示されているROM302及びRAM304によって構築される記憶部3000を有している。記憶部3000には通信端末用のプログラムが記憶されている。   Further, the communication terminal 3 has a storage unit 3000 constructed by the ROM 302 and the RAM 304 shown in FIG. The storage unit 3000 stores a program for communication terminals.

(通信端末3の各機能構成)
通信端末3の送受信部31は、主に、図5に示されている通信部305及びCPU301の処理によって実現され、無線ルータ9a及び通信ネットワーク9を介して、画像管理装置5と各種データの送受信を行う。なお、以下では、通信端末3が画像管理装置5と通信する場合でも、「送受信部31を介して」という記載を省略する場合がある。
(Each functional configuration of the communication terminal 3)
The transmission / reception unit 31 of the communication terminal 3 is mainly realized by the processing of the communication unit 305 and the CPU 301 shown in FIG. 5 and transmits / receives various data to / from the image management apparatus 5 via the wireless router 9a and the communication network 9. I do. In the following description, even when the communication terminal 3 communicates with the image management apparatus 5, the description “via the transmission / reception unit 31” may be omitted.

接続部33は、主に、図5に示されているUSB I/F303、及びCPU301の処理によって実現され、撮像装置1に電力供給すると共に、データ通信を行う。   The connection unit 33 is realized mainly by the processing of the USB I / F 303 and the CPU 301 illustrated in FIG. 5, and supplies power to the imaging apparatus 1 and performs data communication.

記憶・読出部39は、主に、図5に示されているCPU301の処理によって実現され、記憶部3000に各種データを記憶したり、記憶部3000から各種データを読み出したりする。なお、以下では、通信端末3が記憶部3000から読み書きする場合でも「記憶・読出部39を介して」という記載を省略する場合がある。   The storage / reading unit 39 is realized mainly by the processing of the CPU 301 shown in FIG. 5, and stores various data in the storage unit 3000 and reads various data from the storage unit 3000. Hereinafter, even when the communication terminal 3 reads / writes data from / from the storage unit 3000, the description “through the storage / reading unit 39” may be omitted.

<<画像管理装置5の機能構成>>
画像管理装置5は、送受信部51、サムネイル作成部52、画面作成部53、分析部54、要求処理部55、及び記憶・読出部59を有している。これら各部は、図6(a)に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理装置5用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of image management device 5 >>
The image management apparatus 5 includes a transmission / reception unit 51, a thumbnail creation unit 52, a screen creation unit 53, an analysis unit 54, a request processing unit 55, and a storage / reading unit 59. Each of these units is realized by any one of the constituent elements shown in FIG. 6A operating according to a command from the CPU 501 according to the program for the image management apparatus 5 expanded from the HD 504 onto the RAM 503. Function or means to be performed.

また、画像管理装置5は、図6(a)に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、拠点管理DB5001、撮像管理DB5002、画像管理DB5003、サムネイル管理DB5004、及び、解析情報管理DB5005、が構築されている。以下、各データベースについて説明する。   Further, the image management apparatus 5 includes a storage unit 5000 constructed by the RAM 503 and the HD 504 shown in FIG. In the storage unit 5000, a base management DB 5001, an imaging management DB 5002, an image management DB 5003, a thumbnail management DB 5004, and an analysis information management DB 5005 are constructed. Hereinafter, each database will be described.

Figure 2017187850
表1は、拠点管理DB5001に記憶される各情報をテーブル状に示す拠点管理テーブルを示す。拠点管理テーブルでは、地域ID、地域名、拠点ID、拠点名、拠点レイアウトマップ、及び、装置IDの各フィールドが関連付けて記憶されている。また、拠点管理テーブルの1つの行をレコードという場合がある。以下の各テーブルでも同様である。このうち、地域IDは、地域を識別するための識別情報である。地域IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。
Figure 2017187850
Table 1 shows a base management table that shows each piece of information stored in the base management DB 5001 in the form of a table. In the base management table, fields of area ID, area name, base ID, base name, base layout map, and device ID are stored in association with each other. In addition, one row of the base management table may be referred to as a record. The same applies to the following tables. Of these, the region ID is identification information for identifying the region. An example of the area ID is a combination of a number and an alphabet that do not overlap.

地域名は、例えば、関東、東京、渋谷区、ニューヨーク州、ニューヨーク市等、土地の区域又は範囲を示す。地域名称と言ってもよい。なお、識別情報とは、複数の対象からある特定の対象を一意的に区別するために用いられる名称、符号、文字列、数値又はこれらのうち2つ以上の組み合わせをいう。以下のID又は識別情報についても同じである。   The area name indicates an area or range of land such as Kanto, Tokyo, Shibuya Ward, New York State, New York City. It may be said that it is an area name. Note that the identification information refers to a name, a code, a character string, a numerical value, or a combination of two or more of these used to uniquely distinguish a specific target from a plurality of targets. The same applies to the following IDs or identification information.

拠点IDは、拠点を識別するための識別情報の一例である。拠点IDは拠点名に対し重複しないように付与される。拠点固有情報と称してもよい。拠点IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。拠点とは撮像装置1が設置され周囲を撮像するよりどころとなる所を言う。拠点の一例が店舗である。   The base ID is an example of identification information for identifying the base. The site ID is assigned to the site name so as not to overlap. It may be referred to as site-specific information. An example of the base ID is a combination of numbers and alphabets that do not overlap. The base is a place where the imaging apparatus 1 is installed and is a place to image the surroundings. An example of a base is a store.

拠点名は、渋谷店等の店舗名や、渋谷会場等の会場名等であり、拠点の名称である。拠点レイアウトマップには、各拠点のレイアウトや地図を示す画像データなどのファイル名が登録される。拠点レイアウトマップにより拠点における撮像装置1や取扱商品などの位置が2次元座標で特定される。   The base name is a store name such as Shibuya store, a venue name such as Shibuya venue, and the name of the base. In the site layout map, file names such as image data indicating the layout and map of each site are registered. The position of the imaging device 1 and the handling product at the base is specified by the two-dimensional coordinates by the base layout map.

端末IDは、撮像装置1を識別するための識別情報である。端末固有情報と称してもよい。端末IDは、例えば、撮像装置1の例えばシリアル番号、製造番号、型番と重複しない数値、IPアドレス、又は、MACアドレスなどであるがこれらには限定されない。表1に示すように、1つの拠点には1つ以上の撮像装置1(端末ID)が設置されており、それらの位置が拠点レイアウトマップに登録されている。   The terminal ID is identification information for identifying the imaging device 1. It may be referred to as terminal-specific information. The terminal ID is, for example, a serial number, a serial number, a numerical value that does not overlap with the model number, an IP address, a MAC address, or the like of the imaging apparatus 1, but is not limited thereto. As shown in Table 1, one or more imaging devices 1 (terminal IDs) are installed at one site, and their positions are registered in the site layout map.

拠点管理テーブルは、設置者X又は閲覧者Yが登録してもよいし、画像処理システム200のサプライヤーが登録してもよい。   The site management table may be registered by the installer X or the viewer Y, or may be registered by the supplier of the image processing system 200.

Figure 2017187850
表2は、撮像管理DB5002に記憶される各情報をテーブル状に示す撮像管理テーブルである。撮像管理テーブルでは、拠点IDごとに、撮像タイトル、撮像開始日時、及び撮像終了日時の各フィールドが関連付けて記憶されている。撮像タイトルは、閲覧者Yが入力したイベントのタイトルである。つまり、閲覧者Yが消費者の行動を監視したい何らかのイベントが店舗で催される場合に、このイベントの名称が撮像タイトルとなる。当然ながら、イベントの名称は閲覧者Yが任意に付与できるためイベントの名称でなくてもよい。例えば、単に撮像年月日とすることもできる。閲覧者Yは、画像データの複数のファイルから所望の画像データを抽出する際に、撮像タイトルを参照することができる。なお、1回の撮像イベントで複数の画像データが時系列に(定期的に)撮像される。撮像開始日時は、閲覧者Yによって入力された日時であり、撮像装置1が撮像を開始する(又は開始した)日時を示す。撮像終了日時は、閲覧者Yによって入力された日時であり、撮像装置1が撮像を終了する(又は終了した)日時を示す。閲覧者Yは撮像開始日時と撮像終了日時を事前に登録しておくこともできる(予約撮像)。撮像管理テーブルは、主に画像管理装置5が登録する。
Figure 2017187850
Table 2 is an imaging management table that shows each piece of information stored in the imaging management DB 5002 in a table form. In the imaging management table, fields of imaging title, imaging start date and time, and imaging end date and time are stored in association with each base ID. The imaging title is an event title input by the viewer Y. That is, when an event that the viewer Y wants to monitor the behavior of the consumer is held at the store, the name of this event becomes the imaging title. Of course, the name of the event may not be the name of the event because the viewer Y can arbitrarily assign it. For example, it may be simply the imaging date. The viewer Y can refer to the imaging title when extracting desired image data from a plurality of files of image data. Note that a plurality of image data are captured in time series (periodically) in one imaging event. The imaging start date and time is the date and time input by the viewer Y and indicates the date and time when the imaging apparatus 1 starts (or starts) imaging. The imaging end date and time is the date and time input by the viewer Y and indicates the date and time when the imaging apparatus 1 ends (or ends) imaging. The viewer Y can also register the imaging start date and time and imaging end date and time in advance (reserved imaging). The imaging management table is mainly registered by the image management apparatus 5.

Figure 2017187850
表3は、画像管理DB5003に記憶される各情報をテーブル状に示す画像管理テーブルである。画像管理テーブルでは、端末IDごとに、保護画像ID、画像データのファイル名、及び撮像日時が関連付けて記憶されている。保護画像IDは、保護画像の画像データを一意に識別するための識別情報の一例である。画像固有情報と称してもよい。画像データのファイル名は、保護画像IDで特定される画像データのファイル名である。撮像日時は画像データが端末IDで示される撮像装置1で撮像された日時である。画像データも、記憶部5000に記憶されている。
Figure 2017187850
Table 3 is an image management table showing each piece of information stored in the image management DB 5003 in the form of a table. In the image management table, a protection image ID, a file name of image data, and an imaging date and time are stored in association with each terminal ID. The protected image ID is an example of identification information for uniquely identifying the image data of the protected image. It may be referred to as image specific information. The file name of the image data is the file name of the image data specified by the protected image ID. The imaging date and time is the date and time when the image data is captured by the imaging device 1 indicated by the terminal ID. Image data is also stored in the storage unit 5000.

例えば、情報端末7で画像管理装置5にアクセスし、表2の撮像管理テーブルから拠点名と撮像タイトルを選ぶ。画像管理装置5は拠点IDに対応付けられている端末IDを表1の拠点管理テーブルから読み出すことができる。端末IDが明らかになるので、画像管理テーブルの端末IDに対応付けられた画像データのうち撮像日時が撮像開始日時から撮像終了日時に含まれる画像データを画像管理装置5が特定できる。   For example, the information terminal 7 accesses the image management apparatus 5 and selects a site name and an imaging title from the imaging management table in Table 2. The image management apparatus 5 can read out the terminal ID associated with the base ID from the base management table in Table 1. Since the terminal ID becomes clear, the image management apparatus 5 can specify image data in which the imaging date / time is included in the imaging end date / time from the imaging start date / time among the image data associated with the terminal ID in the image management table.

当然ながら、閲覧者Yは端末IDや拠点IDを直接指定することもできる。本実施形態では、簡単のため閲覧者Yが端末IDを指定して閲覧する態様を主に説明する。なお、画像管理テーブルは、主に画像管理装置5が登録する。   Of course, the viewer Y can also directly specify the terminal ID and the base ID. In the present embodiment, for the sake of simplicity, a mode in which the viewer Y browses by specifying a terminal ID will be mainly described. The image management table is mainly registered by the image management apparatus 5.

Figure 2017187850
表4は、サムネイル管理DB5004に記憶される各情報をテーブル状に示すサムネイル管理テーブルである。サムネイルとは親指程度のという意味であり、サムネイル画像は縮小した、画素数を低減した又は一覧用のイメージデータという意味になる。
Figure 2017187850
Table 4 is a thumbnail management table showing each piece of information stored in the thumbnail management DB 5004 in a table form. The thumbnail means a thumb level, and the thumbnail image means reduced, reduced number of pixels, or image data for a list.

サムネイル管理テーブルでは、保護画像IDごとに、サムネイルID、サムネイル画像のファイル名、及び所定領域情報が関連付けて記憶されている。サムネイルIDは、保護画像IDで示される画像データに基づいて作成されたサムネイル画像を一意に識別するための識別情報の一例である。サムネイル固有情報と称してもよい。サムネイル画像のファイル名は、サムネイルIDで示されるサムネイル画像のファイル名である。サムネイル画像のファイル名は画像管理装置5が付与する。所定領域情報は、保護画像IDで示される画像データにおいて、サムネイル画像が作成された所定領域を示す。サムネイル管理テーブルは、主に画像管理装置5が登録する。   In the thumbnail management table, a thumbnail ID, a thumbnail image file name, and predetermined area information are stored in association with each protected image ID. The thumbnail ID is an example of identification information for uniquely identifying a thumbnail image created based on the image data indicated by the protected image ID. It may be referred to as thumbnail specific information. The file name of the thumbnail image is the file name of the thumbnail image indicated by the thumbnail ID. The image name is assigned by the image management apparatus 5. The predetermined area information indicates a predetermined area where a thumbnail image is created in the image data indicated by the protected image ID. The thumbnail management table is mainly registered by the image management apparatus 5.

Figure 2017187850
表5は、解析情報管理DB5005に記憶される各情報をテーブル状に示す解析情報テーブルである。解析情報テーブルでは、保護画像IDごとに、領域ID、人認識領域、及び、分類が関連付けて記憶されている。保護画像IDについては上記のとおりである。人認識領域は、機械学習により認識された来客者(人)の画像データにおける外接矩形の位置である。領域IDは、人認識領域を一意に識別するための識別情報の一例である。領域番号や領域固有情報と称してもよい。例えば、画像ごとに1から始まる連番がareanの"n"に設定される。
Figure 2017187850
Table 5 is an analysis information table showing each piece of information stored in the analysis information management DB 5005 in the form of a table. In the analysis information table, the area ID, the person recognition area, and the classification are stored in association with each other for each protected image ID. The protected image ID is as described above. The person recognition area is a position of a circumscribed rectangle in the image data of a visitor (person) recognized by machine learning. The area ID is an example of identification information for uniquely identifying the person recognition area. It may be referred to as an area number or area specific information. For example, a serial number starting from 1 for each image is set to “n” of arean.

人認識領域は人が撮像されている位置を特定するための情報であり、来客者が検出される領域は矩形であるものとして、例えば、左上頂点の座標(x,y)と幅(width)と高さ(height)が領域範囲となる。対角の2点の座標で領域が特定されてもよい。なお、領域範囲は、全天球に画像が貼り付けられる前の平面の状態の平面画像の座標系に基づいて決定されている。補足すると、撮像装置1は当初、平面画像を出力するが、閲覧時には全天球に平面画像が貼り付けられ全天球画像が作成されている。分類は、画像認識により人認識領域の人がどのような動作をしていると分類されたかを示す。このように、解析情報管理DB5005には画像認識されたオリジナル画像に関連付けられた保護画像と認識結果が記憶されている。   The person recognition area is information for specifying the position where the person is imaged, and the area where the visitor is detected is assumed to be rectangular, for example, the coordinates (x, y) and width (width) of the upper left vertex The height is the area range. An area may be specified by coordinates of two diagonal points. Note that the area range is determined based on the coordinate system of the planar image in a planar state before the image is pasted on the omnidirectional sphere. Supplementally, the imaging apparatus 1 initially outputs a planar image, but when browsing, the planar image is pasted on the omnidirectional sphere to create an omnidirectional image. The classification indicates how the person in the person recognition area is classified as performing the image recognition. Thus, the analysis information management DB 5005 stores the protected image associated with the original image that has been image-recognized and the recognition result.

(画像管理装置5の各機能構成)
画像管理装置5の送受信部51は、主に、図6(a)に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して通信端末3、又は情報端末7と各種データの送受信を行う。なお、以下では、画像管理装置5が情報端末7と通信する場合でも、「送受信部51を介して」という記載を省略する場合がある。
(Each functional configuration of the image management device 5)
The transmission / reception unit 51 of the image management apparatus 5 is realized mainly by the processing of the network I / F 509 and the CPU 501 shown in FIG. 6A, and communicates with the communication terminal 3 or the information terminal 7 via the communication network 9. Send and receive various data. In the following, even when the image management apparatus 5 communicates with the information terminal 7, the description “through the transmission / reception unit 51” may be omitted.

サムネイル作成部52は、主に、図6(a)に示されているCPU501の処理によって実現され、全天球画像の所定領域の画像のサムネイル画像を作成する。   The thumbnail creation unit 52 is mainly realized by the processing of the CPU 501 shown in FIG. 6A, and creates a thumbnail image of an image of a predetermined area of the omnidirectional image.

画面作成部53は、画像データを情報端末7に送信する際に、HTMLデータ、JavaScript(登録商標)及びCSSなどで情報端末7が画像データを表示するための画面情報を作成する。   The screen creation unit 53 creates screen information for the information terminal 7 to display the image data using HTML data, JavaScript (registered trademark), CSS, or the like when transmitting the image data to the information terminal 7.

分析部54は、図6(a)に示されているCPU501の処理によって実現され、情報端末7から画像データの分析を受け付け、画像処理サーバ4に対し閲覧者Yから指定された画像データの認識を依頼する。また、認識結果を情報端末7に送信する。   The analysis unit 54 is realized by the processing of the CPU 501 shown in FIG. 6A, accepts image data analysis from the information terminal 7, and recognizes image data designated by the viewer Y with respect to the image processing server 4. Request. In addition, the recognition result is transmitted to the information terminal 7.

要求処理部55は、図6(a)に示されているCPU501の処理によって実現され、担当者PC6又は管理者PC8から保護画像の要求を取得すると、画像処理サーバ4に保護画像を要求し、担当者PC6又は管理者PC8へ送信する。すなわち、担当者PC6及び管理者PC8がオリジナル画像を有する画像処理サーバ4と直接、通信しなくても、担当者PC6及び管理者PC8が保護画像を得られるように通信を中継する。   The request processing unit 55 is realized by the processing of the CPU 501 shown in FIG. 6A. When the request processing unit 55 acquires a request for a protected image from the person-in-charge PC 6 or the administrator PC 8, it requests the image processing server 4 for a protected image, It transmits to the person-in-charge PC6 or the administrator PC8. That is, even if the person-in-charge PC6 and the administrator PC8 do not directly communicate with the image processing server 4 having the original image, the person-in-charge PC6 and the administrator PC8 relay the communication so that the protected image can be obtained.

記憶・読出部59は、主に、図6(a)に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データを記憶したり、記憶部5000から各種データを読み出したりする。なお、以下では、画像管理装置5が記憶部5000から読み書きする場合でも「記憶・読出部59を介して」という記載を省略する場合がある。   The storage / reading unit 59 is realized mainly by the processing of the HDD 505 and the CPU 501 shown in FIG. 6A, and stores various data in the storage unit 5000 and reads various data from the storage unit 5000. To do. Hereinafter, even when the image management apparatus 5 reads and writes from the storage unit 5000, the description “through the storage / reading unit 59” may be omitted.

<情報端末7の機能構成>
情報端末7は、送受信部71、受付部72、表示制御部73、及び、記憶・読出部79を有している。これら各部は、図6(a)に示されている各構成要素のいずれかが、HD504からRAM503上に展開された情報端末7用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of information terminal 7>
The information terminal 7 includes a transmission / reception unit 71, a reception unit 72, a display control unit 73, and a storage / readout unit 79. Each of these units is realized by any one of the constituent elements shown in FIG. 6A operating according to a command from the CPU 501 according to the program for the information terminal 7 expanded from the HD 504 onto the RAM 503. Function or means.

また、情報端末7は、図6(a)に示されているRAM503、及びHD504によって構築される記憶部7000を有している。記憶部7000には情報端末7用のプログラムが記憶されている。情報端末7用のプログラムは、例えばブラウザソフトウェアであるが、ブラウザソフトウェアのような通信機能を備えたアプリケーションソフトウェアでもよい。また、画像管理装置5から情報端末7に送信されるHTMLやスクリプト言語で記述された情報も情報端末7用のプログラムとなる。   Further, the information terminal 7 has a storage unit 7000 constructed by the RAM 503 and the HD 504 shown in FIG. The storage unit 7000 stores a program for the information terminal 7. The program for the information terminal 7 is, for example, browser software, but may be application software having a communication function such as browser software. Information described in HTML or script language transmitted from the image management apparatus 5 to the information terminal 7 is also a program for the information terminal 7.

(情報端末7の各機能構成)
情報端末7の送受信部71は、主に、図6(a)に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して画像管理装置5と各種データの送受信を行う。なお、以下では、情報端末7が画像管理装置5と通信する場合でも、「送受信部71を介して」という記載を省略する場合がある。
(Each functional configuration of the information terminal 7)
The transmission / reception unit 71 of the information terminal 7 is realized mainly by the processing of the network I / F 509 and the CPU 501 shown in FIG. 6A, and transmits / receives various data to / from the image management apparatus 5 via the communication network 9. Do. In the following description, even when the information terminal 7 communicates with the image management device 5, the description “via the transmission / reception unit 71” may be omitted.

受付部72は、主に、図6(a)に示されているキーボード511及びマウス512、並びにCPU501の処理によって実現され、ユーザ(図2では、閲覧者Y)からの操作入力を受け付ける。   The accepting unit 72 is mainly realized by the processing of the keyboard 511 and the mouse 512 and the CPU 501 shown in FIG. 6A, and accepts an operation input from the user (browser Y in FIG. 2).

表示制御部73は、主に、図6(a)に示されているCPU501の処理によって実現され、画像管理装置5から送信された画面情報を解釈して情報端末7のディスプレイ508に各種画面を表示させるための制御を行なう。   The display control unit 73 is realized mainly by the processing of the CPU 501 shown in FIG. 6A, interprets the screen information transmitted from the image management apparatus 5, and displays various screens on the display 508 of the information terminal 7. Control to display.

記憶・読出部79は、主に、図6(a)に示されているHD504、及びCPU501の処理によって実現され、記憶部7000に各種データを記憶したり、記憶部7000から各種データを読み出したりする。なお、以下では、情報端末7が記憶部7000から読み書きする場合でも「記憶・読出部79を介して」という記載を省略する場合がある。   The storage / reading unit 79 is realized mainly by the processing of the HD 504 and the CPU 501 shown in FIG. 6A, and stores various data in the storage unit 7000 and reads various data from the storage unit 7000. To do. Hereinafter, even when the information terminal 7 reads / writes data from / from the storage unit 7000, the description “through the storage / readout unit 79” may be omitted.

<<画像処理サーバ4の機能構成>>
画像処理サーバ4は、送受信部41、保護処理部42、画像分類部43、編集受付部44、学習部45、認識部46、及び記憶・読出部49を有している。これら各部は、図6(b)に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像処理サーバ4用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of image processing server 4 >>
The image processing server 4 includes a transmission / reception unit 41, a protection processing unit 42, an image classification unit 43, an edit reception unit 44, a learning unit 45, a recognition unit 46, and a storage / reading unit 49. Each of these units is realized by any one of the constituent elements shown in FIG. 6B being operated by a command from the CPU 501 according to the program for the image processing server 4 expanded from the HD 504 onto the RAM 503. Function or means to be performed.

また、画像処理サーバ4は、図6(b)に示されているRAM503、及びHD504によって構築される記憶部4000を有している。この記憶部4000には、オリジナル画像DB4001、保護画像DB4002、関連付け管理DB4003、分類管理DB4004、分類結果DB4005、及び、学習結果DB4006、が構築されている。以下、各データベースについて説明する。   Further, the image processing server 4 has a storage unit 4000 constructed by the RAM 503 and the HD 504 shown in FIG. In the storage unit 4000, an original image DB 4001, a protected image DB 4002, an association management DB 4003, a classification management DB 4004, a classification result DB 4005, and a learning result DB 4006 are constructed. Hereinafter, each database will be described.

Figure 2017187850
表6は、オリジナル画像DB4001に記憶される各情報をテーブル状に示すオリジナル画像管理テーブルである。オリジナル画像管理テーブルは、オリジナル画像を管理するためのテーブルである。表5の画像管理テーブルには、オリジナル画像管理テーブルのオリジナル画像から変換された保護画像が管理されている。表6のオリジナル画像管理テーブルは、画像管理テーブルと同様の構成を有するため、主に相違点を説明する。オリジナル画像管理テーブルには、端末IDごとに、オリジナル画像ID、画像データのファイル名、及び撮像日時が関連付けて記憶されている。オリジナル画像IDは、オリジナル画像を一意に識別するための識別情報の一例である。画像固有情報と称してもよい。画像データのファイル名は、オリジナル画像IDで特定されるオリジナル画像のファイル名である。撮像日時は画像管理テーブルと同様である。
Figure 2017187850
Table 6 is an original image management table showing each piece of information stored in the original image DB 4001 in a table form. The original image management table is a table for managing original images. In the image management table of Table 5, protected images converted from the original images in the original image management table are managed. Since the original image management table in Table 6 has the same configuration as the image management table, differences will be mainly described. In the original image management table, for each terminal ID, an original image ID, a file name of image data, and an imaging date and time are stored in association with each other. The original image ID is an example of identification information for uniquely identifying the original image. It may be referred to as image specific information. The file name of the image data is the file name of the original image specified by the original image ID. The imaging date and time is the same as in the image management table.

Figure 2017187850
表7は、保護画像DB4002に記憶される各情報をテーブル状に示す保護画像管理テーブルである。保護画像管理テーブルは、保護画像を管理するためのテーブルである。保護画像管理テーブルは、端末IDごとに、保護画像ID、画像データのファイル名、及び撮像日時が関連付けて記憶されている。したがって、オリジナル画像管理テーブルと同様の構成でよい。また、本実施形態では説明のため、表7の保護画像DB4002を示したが、画像管理装置5が有する表5の画像管理テーブルで代用してもよい。
Figure 2017187850
Table 7 is a protected image management table showing each piece of information stored in the protected image DB 4002 in a table form. The protected image management table is a table for managing protected images. The protected image management table stores, for each terminal ID, a protected image ID, a file name of image data, and an imaging date and time associated with each other. Accordingly, the configuration may be the same as that of the original image management table. Further, in the present embodiment, the protected image DB 4002 of Table 7 is shown for explanation, but the image management table of Table 5 included in the image management apparatus 5 may be substituted.

Figure 2017187850
表8は、関連付け管理DB4003に記憶される各情報をテーブル状に示す関連付け管理テーブルである。関連付け管理テーブルは、オリジナル画像IDと保護画像IDとを関連付けるテーブルである。後述する保護処理部42は保護処理を行い保護画像を生成すると、保護画像IDを採番して関連付け管理DB4003に登録する。これにより、関連付け管理テーブルが生成される。関連付け管理テーブルがあることにより、保護画像とオリジナル画像を関連付けることができ、保護画像のラベルを教師データにして学習部45がオリジナル画像で機械学習することができる。
Figure 2017187850
Table 8 is an association management table showing each piece of information stored in the association management DB 4003 in a table form. The association management table is a table that associates the original image ID and the protected image ID. When a protection processing unit 42 described later performs protection processing and generates a protection image, the protection processing unit 42 numbers the protection image ID and registers it in the association management DB 4003. Thereby, an association management table is generated. By providing the association management table, the protected image and the original image can be associated with each other, and the learning unit 45 can perform machine learning with the original image using the label of the protected image as teacher data.

Figure 2017187850
表9は、分類管理DB4004に記憶される各情報をテーブル状に示す分類管理テーブルである。分類管理テーブルは、人であるかどうか、及び、人の動作がいくつに分類された場合の分類名(動作内容)が登録されている。担当者6aは保護画像を見てこの分類のいずれかに人認識領域を分類する(いずれにも該当しない場合もある)。この保護画像(正確には人認識領域)の分類結果がラベルとなる。学習部45はこの分類(ラベル)を教師データにして学習する。
Figure 2017187850
Table 9 is a classification management table showing each piece of information stored in the classification management DB 4004 in the form of a table. In the classification management table, whether or not a person is a person, and the classification name (operation contents) when a person's actions are classified are registered. The person in charge 6a looks at the protected image and classifies the person recognition area into one of these classifications (there may not be any of them). The classification result of this protected image (more accurately, the human recognition area) becomes a label. The learning unit 45 learns using this classification (label) as teacher data.

表9の動作内容は、保護画像に写った店舗内の人を閲覧者Yが分析するためのものなので、撮像装置1の設置目的によって分類管理テーブルには種々の分類名が設定され得る。例えば、店舗では表9の他、手に取る動作、身体に衣服を当てる動作などが動作内容となりうる。また、例えば、防犯用途では家に侵入する動作、商品を鞄にいる動作などが動作内容となりうる。表9のように分類管理テーブルが用意されることで、例えばシステム管理者8aが分類管理テーブルを編集すれば、分類名を容易に増減できる。したがって、担当者のラベリングの対象を容易に増減できる。   Since the operation content of Table 9 is for the viewer Y to analyze the person in the store reflected in the protection image, various classification names can be set in the classification management table depending on the installation purpose of the imaging device 1. For example, in the store, in addition to Table 9, an action taken by a hand, an action of placing clothes on the body, and the like can be the action content. Further, for example, in crime prevention applications, an operation content that enters a house, an operation that puts a product in a bag, and the like can be the operation content. By preparing the classification management table as shown in Table 9, for example, if the system administrator 8a edits the classification management table, the classification names can be easily increased or decreased. Therefore, it is possible to easily increase or decrease the labeling targets of the person in charge.

Figure 2017187850
表10は、分類結果DB4005に記憶される各情報をテーブル状に示す分類結果テーブルである。分類結果テーブルは、システム管理者8a及び担当者6aが保護画像を分類した結果を示すテーブルである。すなわち、保護画像に関連付けられているオリジナル画像IDに対し、分類、人認識領域及び学習データとしての使用有無が登録されている。分類は、担当者6aがラベリングにより与えた表9のいずれかの分類名である。人認識領域は、担当者6aが保護画像から人を判別した場合の人の外接矩形の位置を示す。厳密には、認識部46が認識した人認識領域とは異なるが、説明の便宜上、担当者6aが判別した場合も人認識領域と称する。使用有無は、オリジナル画像IDで特定されるオリジナル画像を学習部45が学習に使用するか否かを示す。後述するようにシステム管理者8aにより設定される。これは、担当者6aのラベリングが不適切であったり、必ずしも学習に適切でないオリジナル画像を排除して、認識部46の認識の精度を向上させるためである。
Figure 2017187850
Table 10 is a classification result table showing each piece of information stored in the classification result DB 4005 in a table form. The classification result table is a table showing the result of classification of protected images by the system administrator 8a and the person in charge 6a. In other words, the classification, the person recognition area, and the presence / absence of use as learning data are registered for the original image ID associated with the protected image. The classification is one of the classification names in Table 9 given by the person in charge 6a through labeling. The person recognition area indicates the position of the circumscribed rectangle of the person when the person in charge 6a determines the person from the protected image. Strictly speaking, it is different from the person recognition area recognized by the recognition unit 46, but for the sake of convenience of explanation, the case where the person in charge 6a discriminates is also referred to as a person recognition area. Use / non-use indicates whether or not the learning unit 45 uses the original image specified by the original image ID for learning. As will be described later, it is set by the system administrator 8a. This is to improve the recognition accuracy of the recognition unit 46 by excluding original images that are not properly labeled by the person in charge 6a or that are not necessarily suitable for learning.

Figure 2017187850
表11は、学習結果DB4006に記憶される各情報をテーブル状に示す学習結果テーブルである。学習結果テーブルは、学習により作成された学習データを管理するためのテーブルである。学習結果テーブルには、学習データID、学習データのファイル名、学習日時、使用データID、及び正答率が登録されている。学習データIDは学習データを一意に特定するための識別情報である。学習データのファイル名は、後述する学習結果(フィルターや重み値)が格納されている。学習日時は学習データが作成された日時である。使用データIDは学習に使用された一まとまりのオリジナル画像のオリジナル画像IDを特定するための識別情報である。正答率は、認識部46が学習に用いたオリジナル画像を、学習データを用いて認識した場合に正しく認識する比率である。学習データは1つあればよいが、学習結果DB4006にて管理されることで、ある学習データに不具合があった場合にシステム管理者8aは過去の学習データに戻すことができる。
Figure 2017187850
Table 11 is a learning result table showing each piece of information stored in the learning result DB 4006 in a table form. The learning result table is a table for managing learning data created by learning. In the learning result table, a learning data ID, a learning data file name, a learning date and time, a usage data ID, and a correct answer rate are registered. The learning data ID is identification information for uniquely identifying the learning data. The learning data file name stores learning results (filters and weight values) to be described later. The learning date and time is the date and time when learning data was created. The use data ID is identification information for specifying the original image ID of a group of original images used for learning. The correct answer rate is a ratio of correctly recognizing the original image used for learning by the recognition unit 46 using the learning data. Although only one learning data is required, the system administrator 8a can return to the past learning data when there is a defect in certain learning data by being managed in the learning result DB 4006.

(画像処理サーバ4の各機能構成)
画像処理サーバ4の送受信部41は、主に、図6(b)に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して画像管理装置5と各種データの送受信を行う。なお、以下では、画像処理サーバ4が画像管理装置5と通信する場合でも、「送受信部41を介して」という記載を省略する場合がある。
(Each functional configuration of the image processing server 4)
The transmission / reception unit 41 of the image processing server 4 is realized mainly by the processing of the network I / F 509 and the CPU 501 shown in FIG. 6B and transmits / receives various data to / from the image management apparatus 5 via the communication network 9. I do. In the following description, even when the image processing server 4 communicates with the image management device 5, the description “through the transmission / reception unit 41” may be omitted.

保護処理部42は、主に図6(b)に示されているCPU501の処理によって実現され、オリジナル画像に保護処理を行って保護画像を生成する。保護画像は保護画像DB4002に登録される。また、保護処理部42は関連付け管理DB4003にオリジナル画像ID、保護画像ID及び撮像日時を登録する。   The protection processing unit 42 is realized mainly by the processing of the CPU 501 shown in FIG. 6B, and performs protection processing on the original image to generate a protected image. The protected image is registered in the protected image DB 4002. Further, the protection processing unit 42 registers the original image ID, the protected image ID, and the imaging date / time in the association management DB 4003.

画像分類部43は、主に図6(b)に示されているCPU501の処理によって実現され、担当者PC6に担当者がラベリングするための分類画面を作成して担当者PCに送信し、また、担当者6aからのラベリングを受け付ける。   The image classification unit 43 is realized mainly by the processing of the CPU 501 shown in FIG. 6B, creates a classification screen for the person in charge to label the person in charge PC 6 and transmits it to the person in charge PC, The labeling from the person in charge 6a is accepted.

編集受付部44は、主に図6(b)に示されているCPU501の処理によって実現され、システム管理者8aがオリジナル画像の使用有無を編集するための編集画面を作成して管理者PC8に送信し、また、システム管理者8aから編集を受け付ける。なお、この編集処理はなくてもよく、その場合、全てのオリジナル画像が学習に使用される。また、編集画面では学習に「使用する」又は「使用しない」のいずれかに初期設定されている。   The edit accepting unit 44 is realized mainly by the processing of the CPU 501 shown in FIG. 6B, and creates an edit screen for the system administrator 8a to edit whether or not the original image is used, and sends it to the administrator PC 8. And receives editing from the system administrator 8a. Note that this editing process is not necessary, and in this case, all original images are used for learning. On the editing screen, the learning screen is initially set to “use” or “not use” for learning.

学習部45は、主に図6(b)に示されているCPU501やGPU515の処理によって実現され、オリジナル画像を用いて機械学習を行い、学習データを生成する。学習データを生成すると学習結果DB4006に学習結果テーブルを登録する。   The learning unit 45 is realized mainly by the processing of the CPU 501 and the GPU 515 shown in FIG. 6B, performs machine learning using the original image, and generates learning data. When learning data is generated, a learning result table is registered in the learning result DB 4006.

認識部46は、主に図6(b)に示されているCPU501ややGPU515の処理によって実現され、学習データを用いて画像認識を行い認識結果を出力する。   The recognition unit 46 is realized mainly by the processing of the CPU 501 and the GPU 515 shown in FIG. 6B, performs image recognition using learning data, and outputs a recognition result.

記憶・読出部49は、主に、図6(b)に示されているHD504、及びCPU501の処理によって実現され、記憶部4000に各種データを記憶したり、記憶部4000から各種データを読み出したりする。なお、以下では、情報端末7が記憶部4000から読み書きする場合でも「記憶・読出部49を介して」という記載を省略する場合がある。   The storage / reading unit 49 is realized mainly by the processing of the HD 504 and the CPU 501 shown in FIG. 6B, and stores various data in the storage unit 4000 and reads various data from the storage unit 4000. To do. Hereinafter, even when the information terminal 7 reads / writes data from / from the storage unit 4000, the description “through the storage / reading unit 49” may be omitted.

<管理者PC,担当者PCの機能構成>
管理者PC8は、送受信部81、受付部82、表示制御部83、及び、記憶・読出部89を有している。担当者PC6は、送受信部61、受付部62、表示制御部63、及び、記憶・読出部69を有している。これらの機能は情報端末7と同様であるため、説明は省略する。
<Functional configuration of administrator PC and person-in-charge PC>
The administrator PC 8 includes a transmission / reception unit 81, a reception unit 82, a display control unit 83, and a storage / reading unit 89. The person in charge PC 6 includes a transmission / reception unit 61, a reception unit 62, a display control unit 63, and a storage / reading unit 69. Since these functions are the same as those of the information terminal 7, the description thereof is omitted.

<ディープラーニングについて>
ディープラーニングはニューラルネットワーク向けの機械学習の手法である。まず、ニューラルネットワークについて説明する。なお、ニューラルネットワークやディープラーニングについては各種の文献に説明が記載されている。以下の説明は公知の文献を参照して記載した(例えば、非特許文献1参照)。
<About deep learning>
Deep learning is a machine learning method for neural networks. First, the neural network will be described. The neural network and deep learning are described in various documents. The following description was described with reference to known documents (for example, see Non-Patent Document 1).

図9は、ニューラルネットワークの一例を模式的に示す図である。図9のニューラルネットワークは多層型と呼ばれる。多層型の他、ニューラルネットワークには相互結合型がある。   FIG. 9 is a diagram schematically illustrating an example of a neural network. The neural network in FIG. 9 is called a multilayer type. In addition to the multilayer type, the neural network includes an interconnection type.

学習用に入力されたデータ624は、入力層601、中間層602、出力層603の順に流れていく。ディープラーニングに厳密な定義はないが中間層602が2層以上となった多層型のネットワークを呼ぶことが多い。このようなニューラルネットワークが(DNN:Deep Neural Network)と呼ばれる 。図9では層の数がN個、各層のノードの数がL個である。   Data 624 input for learning flows in the order of the input layer 601, the intermediate layer 602, and the output layer 603. Although there is no strict definition for deep learning, it is often referred to as a multilayer network in which the intermediate layer 602 has two or more layers. Such a neural network is called (DNN: Deep Neural Network). In FIG. 9, the number of layers is N, and the number of nodes in each layer is L.

入力層601に入力されたデータは初期設定が与えられている重み値と乗算され、次の層の各ノードNodeに入力される。例えば、中間層602のノードNode2−L2へ入力される値(合計値)は以下のようになる。式(1)のL1は入力層のノードの数、jは入力層の各ノードである。   The data input to the input layer 601 is multiplied by the weight value given the initial setting, and input to each node Node of the next layer. For example, values (total values) input to the node Node2-L2 of the intermediate layer 602 are as follows. In Expression (1), L1 is the number of nodes in the input layer, and j is each node in the input layer.

Figure 2017187850
このように、各ノードには、直前の層の全てのノードへの入力と重み値の乗算の合計値が入力される。各ノードはこの合計値を活性化関数に入れて次の層の各ノードに出力する。活性化関数は合計値に対しノードが発火(後段の層にデータを伝えるかどうか)するかどうかを決定する関数である。例えば、シグモイド関数(出力は0〜1)やtanh関数(出力は−1〜+1)等が使用されるが、これらに限られない。活性化関数により合計値が閾値未満では0(又は−1)が、閾値以上では1が出力される。したがって、合計値が0に変換される場合は後段の層にデータが伝えられない。
Figure 2017187850
Thus, the total value of the multiplication of the input to all the nodes in the immediately preceding layer and the weight value is input to each node. Each node puts this total value in the activation function and outputs it to each node in the next layer. The activation function is a function that determines whether or not the node is ignited (whether to transmit data to a subsequent layer) with respect to the total value. For example, a sigmoid function (output is 0 to 1) or a tanh function (output is −1 to +1) is used, but is not limited thereto. The activation function outputs 0 (or -1) if the total value is less than the threshold value, and 1 if the total value is greater than or equal to the threshold value. Therefore, when the total value is converted to 0, data is not transmitted to the subsequent layer.

出力層603までデータが伝わると出力層603の各ノードが同様に活性化関数による値を出力する(認識フェーズの場合)。出力層603は、分類(ラベル)の種類と同じ数のノードを有する。分類(ラベル)は例えば、人である、手を伸ばしている、かがんでいる、又は見つめている、などであり、出力層603の各ノードがいずれかに対応する。   When data is transmitted to the output layer 603, each node of the output layer 603 similarly outputs a value based on the activation function (in the recognition phase). The output layer 603 has the same number of nodes as the classification (label) type. The classification (label) is, for example, a person, reaching out, crouching, or staring, and each node of the output layer 603 corresponds to one of them.

学習フェーズでは、入力されたデータが手を伸ばしている人の画像であれば、「人である」に対応するノードと「手を伸ばしている」に対応するノードが1を出力する可能性が高くなるように学習される。このような正しい分類を認識部46が行えるように、学習用のオリジナル画像は教師データとして分類(ラベル)を有する。学習部45は、人である、手を伸ばしている、かがんでいる、又は見つめているという分類がある学習用のオリジナル画像に教師データとして"1"を与え、そうでない画像に教師データとして("0"(又は−1))を与える。出力層603のノードの出力と教師データの1又は0との差が誤差であるため、学習部45は式(2)(3)に示す誤差逆伝播法で入力層601から出力層603に至までの重み値を修正する。誤差逆伝播法では修正後の重み値は以下のように算出される。   In the learning phase, if the input data is an image of a person reaching out, there is a possibility that a node corresponding to “I am a person” and a node corresponding to “stretching a hand” output “1”. Learn to be higher. The original image for learning has a classification (label) as teacher data so that the recognition unit 46 can perform such correct classification. The learning unit 45 gives “1” as the teacher data to the original image for learning that is classified as being a person, reaching out, crouching, or staring, and as the teacher data for the other images. ("0" (or -1)) is given. Since the difference between the output of the node of the output layer 603 and 1 or 0 of the teacher data is an error, the learning unit 45 reaches the output layer 603 from the input layer 601 by the error back propagation method shown in equations (2) and (3). Correct the weight value up to. In the error back propagation method, the corrected weight value is calculated as follows.

Figure 2017187850
式(3)のEは誤差の大きさであり、tjは出力層のj番目の教師データであり、yjはj番目のノードの出力値である。したがって、教師データと出力層のノードの差の二乗を出力層のノードで合計した値が誤差Eである。式(2)はこの誤差Eがゼロに近づくように重み値wを更新することを意味する。なお、εは正の微小値である。
Figure 2017187850
In Equation (3), E is the magnitude of the error, tj is the jth teacher data of the output layer, and yj is the output value of the jth node. Therefore, the error E is a value obtained by summing the square of the difference between the teacher data and the output layer node at the output layer node. Equation (2) means that the weight value w is updated so that the error E approaches zero. Note that ε is a positive minute value.

式(4)と式(5)は重み値の具体的な算出方法を示す。まず、出力層では、式(4)を用いて、出力層の各ノードの出力値 yj N と教師データtjとの誤差からΔj N を計算する。また、中間層では、式(5)を使って誤差信号Δj (n <N ) を計算する。式(5)のΔj n+1の初期値がΔj Nである。なお、Ln+1は後段の層のノードの数であり、Δj n+1は後段の層の誤差信号であり、値wk,j n+1,nは第n層のj番目のノードと第n+1層のk番目のノードの間の重み値である。第n層のj番目のノードと第n−1層のi番目のノードの間の重み値の修正量は式(6)で表される。 Equations (4) and (5) show a specific method for calculating the weight value. First, in the output layer, Δ j N is calculated from the error between the output value y j N of each node in the output layer and the teacher data tj using Equation (4). In the intermediate layer, the error signal Δ j n (n <N) is calculated using Equation (5). The initial value of Δ j n + 1 in Equation (5) is Δ j N. Ln + 1 is the number of nodes in the subsequent layer, Δ j n + 1 is an error signal in the subsequent layer, and the value w k, j n + 1, n is the jth node in the nth layer. And the k-th node in the (n + 1) th layer. The correction amount of the weight value between the j-th node in the n-th layer and the i-th node in the (n−1) -th layer is expressed by Expression (6).

本実施形態ではディープラーニングの一形態であるCNN(Convolutional Neural Network)を説明する。CNNは画像認識において精度が高いことが知られている。また、CNNにおいても上記のニューラルネットワークの学習が適用されている。   In this embodiment, a CNN (Convolutional Neural Network), which is a form of deep learning, will be described. CNN is known to have high accuracy in image recognition. The learning of the neural network is also applied to the CNN.

図10は、CNNの構造を模式的に示す図の一例である。図10(a)は畳み込み層611とプーリング層612の処理を示し、図10(b)はCNNの全体的な構造を示す。CNNは、入力層601と教師データ614の間に畳み込み層611とプーリング層612の2種類の層が交互に積み重ねられた構造を有する。入力層601にはオリジナル画像の各画素の値が入力される。カラーの場合、RGBごとに画像データが入力される。   FIG. 10 is an example of a diagram schematically illustrating the structure of CNN. FIG. 10A shows the processing of the convolution layer 611 and the pooling layer 612, and FIG. 10B shows the overall structure of the CNN. The CNN has a structure in which two types of layers of a convolution layer 611 and a pooling layer 612 are alternately stacked between the input layer 601 and the teacher data 614. A value of each pixel of the original image is input to the input layer 601. In the case of color, image data is input for each RGB.

畳み込み層611はいわばフィルター621であり、オリジナル画像のエッジなどの特徴を抽出するために使用される。フィルター621は例えば3×3や4×4の要素を有し、オリジナル画像の3×3や4×4の画素にフィルター演算を行う。フィルター621は1画素ずつずらしてオリジナル画像の全体に行われる。これにより、オリジナル画像の画素数よりも小さい畳み込み結果622が得られる。   The convolution layer 611 is a so-called filter 621 and is used to extract features such as edges of the original image. The filter 621 has, for example, 3 × 3 or 4 × 4 elements, and performs a filter operation on 3 × 3 or 4 × 4 pixels of the original image. The filter 621 is shifted on the entire original image by shifting one pixel at a time. Thereby, a convolution result 622 smaller than the number of pixels of the original image is obtained.

プーリングは畳み込み結果622の位置への依存を減らすために行われる処理である。例えば、畳み込み結果622から最大値を取り出したり、平均値を取り出して画素を間引くことでより小さな画素数のプーリング結果623を出力する。この畳み込みとプーリングを繰り返すことで、徐々にオリジナル画像の特徴が抽出される。   Pooling is a process performed to reduce the dependence of the convolution result 622 on the position. For example, the pooling result 623 having a smaller number of pixels is output by extracting the maximum value from the convolution result 622 or extracting the average value and thinning out the pixels. By repeating this convolution and pooling, the features of the original image are gradually extracted.

CNNでは、畳み込み層611とプーリング層612の後段にフル結合層613が配置される。フル結合層613は図9のような多層パーセプトロンであり、特徴が抽出された微小サイズ(例えば、3×3や4×4)の複数の画像が画素毎に入力される。最も手前のフル結合層613aのノード数は微小サイズの画像の数×画素数である。画素の画素値は図9と同様に重み値と乗算され、後段のフル結合層613bに順次入力される。後段のフル結合層613bになるほど微小サイズの画像が結合されていき、最後のフル結合層613cは分類(ラベル)と同じ数のノードを有する。   In the CNN, a full coupling layer 613 is disposed after the convolution layer 611 and the pooling layer 612. The full coupling layer 613 is a multilayer perceptron as shown in FIG. 9, and a plurality of images of minute sizes (for example, 3 × 3 or 4 × 4) from which features are extracted are input for each pixel. The number of nodes in the foremost full coupling layer 613a is the number of minute images × the number of pixels. The pixel value of the pixel is multiplied by the weight value in the same manner as in FIG. 9 and is sequentially input to the subsequent full coupling layer 613b. As the full coupling layer 613b in the subsequent stage is reached, an image of a minute size is coupled, and the last full coupling layer 613c has the same number of nodes as the classification (label).

学習部45が分類(ラベル)を教師データとする場合、ニューラルネットワークで説明したように誤差逆伝播法で重み値及びフィルターの値が更新(学習)される。フィルター621の値は一律に更新されても一部が更新されてもよい。フィルター621の値が学習結果によって自動的に更新されることで、人間がフィルター621の値を決定しなくても特徴を抽出するために適切なフィルター621が徐々に得られる。これがCNNの特徴の1つとなっている。   When the learning unit 45 uses the classification (label) as teacher data, the weight value and the filter value are updated (learned) by the error back propagation method as described in the neural network. The value of the filter 621 may be updated uniformly or partly. The value of the filter 621 is automatically updated according to the learning result, so that an appropriate filter 621 can be gradually obtained for extracting features without the human being determining the value of the filter 621. This is one of the features of CNN.

学習部45は、このようにして学習した各畳み込み層のフィルター621の値及びフル結合層613の重み値を学習データとして記憶する。   The learning unit 45 stores the value of the filter 621 of each convolution layer and the weight value of the full coupling layer 613 learned as described above as learning data.

なお、ディープラーニングにはDNN,CNNの他、RNN(Recurrent Neural Network)等も知られており、本実施形態は教師あり学習を使用する機械学習に好適に適用可能である。   In addition to DNN and CNN, RNN (Recurrent Neural Network) and the like are known for deep learning, and this embodiment can be suitably applied to machine learning using supervised learning.

<動作手順>
以下、図11〜図21を用いて画像処理システム200の全体的な動作手順を説明する。図11は、画像処理システム200の全体的な動作の流れを示すフローチャート図の一例である。
<Operation procedure>
The overall operation procedure of the image processing system 200 will be described below with reference to FIGS. FIG. 11 is an example of a flowchart showing an overall operation flow of the image processing system 200.

S1:保護処理は画像処理サーバ4の保護処理部42がオリジナル画像に秘匿情報の保護処理を施す処理である。この処理は、真夜中などの予め定められた時刻になると実行される。あるいは、システム管理者8aからの指示により実行されてもよい。   S1: Protection processing is processing in which the protection processing unit 42 of the image processing server 4 performs processing for protecting confidential information on the original image. This process is executed at a predetermined time such as midnight. Alternatively, it may be executed according to an instruction from the system administrator 8a.

S2:分類処理は、画像管理装置5から担当者PC6に送信された保護画像に対し担当者6aがラベリングを行い(分類する)、画像管理装置5が保護画像の分類を取得してオリジナル画像に対応付ける処理である(分類結果DB4005に登録する)。   S2: In the classification process, the person in charge 6a labels (classifies) the protected image transmitted from the image management apparatus 5 to the person in charge PC 6, and the image management apparatus 5 acquires the classification of the protected image to obtain the original image. This is a process of associating (registering in the classification result DB 4005).

S3:編集処理は、画像管理装置5から管理者PC8に送信された保護画像に対しシステム管理者8aが保護画像を使用するか否かを入力し、画像管理装置5が保護画像の使用の有無を取得してオリジナル画像に対応付ける処理である(分類結果DB4005に登録する)。   S3: In the editing process, the system administrator 8a inputs whether or not the protected image transmitted from the image management apparatus 5 to the administrator PC 8 is to be used, and the image management apparatus 5 determines whether or not the protected image is used. Is acquired and associated with the original image (registered in the classification result DB 4005).

S4:学習処理は、画像処理サーバ4の学習部45がオリジナル画像を使って学習データを作成する処理である。この処理は、真夜中などの予め定められた時刻になると実行される。あるいは、閲覧者Yからの要求により実行される。   S4: The learning process is a process in which the learning unit 45 of the image processing server 4 creates learning data using the original image. This process is executed at a predetermined time such as midnight. Alternatively, it is executed by a request from the viewer Y.

S5:分析処理は、情報端末7を介して画像管理装置5に閲覧者Yが要求した分析要求に対し、画像管理装置5が画像処理サーバ4と通信して、画像処理サーバ4の認識部46がオリジナル画像を認識し、画像管理装置5が認識結果を分析する処理である。   S5: In the analysis process, the image management apparatus 5 communicates with the image processing server 4 in response to the analysis request requested by the viewer Y to the image management apparatus 5 via the information terminal 7, and the recognition unit 46 of the image processing server 4 Is a process in which the original image is recognized and the image management apparatus 5 analyzes the recognition result.

以下、図11の各処理について説明する。   Hereinafter, each process of FIG. 11 is demonstrated.

<<保護処理>>
図12は、保護処理部42が保護処理を行うシーケンス図の一例である。
S1-1:例えば、予め定められた時刻になると、保護処理部42は関連付け管理DB4003からすでに保護処理を行ったオリジナル画像のリストを取得する。関連付け管理テーブルには保護処理が終わったオリジナル画像のオリジナル画像IDが登録されているので、関連付け管理テーブルのオリジナル画像IDを取得する。
S1-2:次に、保護処理部42はオリジナル画像DB4001から全てのオリジナル画像のリストを取得する。すなわち、オリジナル画像管理テーブルのオリジナル画像IDを取得する。
S1-3:保護処理部42は、未処理のオリジナル画像を特定する。ステップS1-2のオリジナル画像からステップS1-1のオリジナル画像を除いたオリジナル画像が未処理のオリジナル画像である。
<< Protection processing >>
FIG. 12 is an example of a sequence diagram in which the protection processing unit 42 performs protection processing.
S1-1: For example, at a predetermined time, the protection processing unit 42 acquires a list of original images that have already been protected from the association management DB 4003. Since the original image ID of the original image that has undergone the protection process is registered in the association management table, the original image ID of the association management table is acquired.
S1-2: Next, the protection processing unit 42 acquires a list of all original images from the original image DB 4001. That is, the original image ID of the original image management table is acquired.
S1-3: The protection processing unit 42 identifies an unprocessed original image. An original image obtained by removing the original image of step S1-1 from the original image of step S1-2 is an unprocessed original image.

以下の処理は、未処理のオリジナル画像に対しそれぞれ行われる。
S1-4:保護処理部42は、未処理のオリジナル画像をオリジナル画像DB4001から取得する。
S1-5:保護処理部42はオリジナル画像に対し秘匿情報の保護処理を施す。すなわち、ぼかし、モザイク又は平滑化(例えば、周囲の画素の平均を求める平均フィルターなど)などを行う。過度に保護処理を行うと担当者6aも分類が困難になるので、保護処理の強度は予め定められている。なお、画像認識により簡易的な人物検出を行い、人物検出された場所にだけ平滑化を施すなど局所的に平滑化してもよい。
S1-6:保護処理部42は、保護処理を施した保護画像を保護画像DB4002に記憶する。この時、重複しない保護画像IDを採番する。
S1-7:保護処理部42は、オリジナル画像IDと保護画像IDを関連付けて関連付け管理DB4003に登録する。
The following processing is performed for each unprocessed original image.
S1-4: The protection processing unit 42 acquires an unprocessed original image from the original image DB 4001.
S1-5: The protection processing unit 42 performs confidential information protection processing on the original image. That is, blurring, mosaicing or smoothing (for example, an average filter for obtaining an average of surrounding pixels) is performed. If the protection process is excessively performed, the person in charge 6a becomes difficult to classify, so the strength of the protection process is determined in advance. It should be noted that simple person detection may be performed by image recognition, and smoothing may be performed locally, for example, by performing smoothing only on the place where the person is detected.
S1-6: The protection processing unit 42 stores the protected image subjected to the protection process in the protected image DB 4002. At this time, the protection image ID which does not overlap is numbered.
S1-7: The protection processing unit 42 associates the original image ID with the protected image ID and registers them in the association management DB 4003.

以上のようにして、保護画像が得られ、保護処理部42はオリジナル画像と保護画像を関連付けられることができる。   As described above, a protected image is obtained, and the protection processing unit 42 can associate the original image with the protected image.

<<分類処理>>
図13は、画像分類部43が分類処理を行うシーケンス図の一例である。
S2-1:担当者6aは担当者PC6を操作して画像管理装置5との通信を開始する。担当者PC6は分類画面の表示要求を画像管理装置5に送信する。画像管理装置5の送受信部51は分類画面の表示要求を受信する。
S2-2:画像管理装置5の要求処理部55は分類画面の表示要求を画像処理サーバ4に送信する。これにより、画像処理サーバ4の画像分類部43が分類処理を開始する。
<< Classification process >>
FIG. 13 is an example of a sequence diagram in which the image classification unit 43 performs classification processing.
S2-1: The person in charge 6a operates the person in charge PC 6 to start communication with the image management apparatus 5. The person-in-charge PC 6 transmits a display request for the classification screen to the image management apparatus 5. The transmission / reception unit 51 of the image management apparatus 5 receives the display request for the classification screen.
S2-2: The request processing unit 55 of the image management apparatus 5 transmits a display request for the classification screen to the image processing server 4. Thereby, the image classification unit 43 of the image processing server 4 starts the classification process.

ステップS2-3〜S2-6は、分類されていない保護画像を特定するための処理である。
S2-3:画像分類部43は全ての保護画像のリストを保護画像DB4002から取得する。
S2-4:画像分類部43は分類済みの保護画像のリストを分類結果DB4005から取得する。分類結果テーブルに登録されているオリジナル画像IDに関連付けられた保護画像は分類が済んでいる。
S2-5:画像分類部43は、分類されていない未処理の保護画像のリストを作成する。すなわち、ステップS2-3の全ての保護画像のリストのうちステップS2-4の保護画像のリストに登録されていない保護画像が分類されていない保護画像である。
S2-6:次に、画像分類部43は、分類されていない保護画像を保護画像DB4002から取得する。ここでは、1つずつ保護画像を取得するものとする。
S2-7:画像分類部43は分類管理DB4004から分類管理テーブルを取得する。担当者6aが分類を選択できる分類画面を担当者PC6に表示させるためである。
Steps S2-3 to S2-6 are processes for specifying unclassified protected images.
S2-3: The image classification unit 43 acquires a list of all protected images from the protected image DB 4002.
S2-4: The image classification unit 43 acquires a list of classified protected images from the classification result DB 4005. The protected image associated with the original image ID registered in the classification result table has been classified.
S2-5: The image classification unit 43 creates a list of unprocessed protected images that are not classified. That is, the protected images that are not registered in the list of protected images in step S2-4 among the list of all protected images in step S2-3 are unclassified protected images.
S2-6: Next, the image classification unit 43 acquires a protected image that is not classified from the protected image DB 4002. Here, it is assumed that protected images are acquired one by one.
S2-7: The image classification unit 43 acquires a classification management table from the classification management DB 4004. This is because the person in charge PC 6 displays a classification screen on which the person in charge 6 a can select a classification.

ステップS2-8〜S2-11は、分類の初期設定(デフォルト値)を決定するための処理である。
S2-8:画像分類部43は、保護画像を送出して画像認識を認識部46に要求する。
S2-9:認識部46は、まず学習結果DB4006から学習データを取得する。複数ある場合は、最新の学習データが取得される。
S2-10:認識部46は学習データを用いてオリジナル画像に対し画像認識を行う。すなわち、人であるかどうか、及び、人である場合は動作内容を分類する。認識部46は認識結果を画像分類部43に送出する。なお、簡易的な画像認識なので認識部46はオリジナル画像でなく保護画像で画像認識を行ってもよい。初期設定が設定されることで担当者6aの作業効率を上げることができる。
S2-11:画像分類部43は、分類画面における分類の初期設定を認識部46の認識結果に基づいて決定する。すなわち、オリジナル画像における人の座標が分かるので、この座標(例えば外接矩形の座標)と認識部46による分類を初期設定とする。
S2-12:画像分類部43は分類画面の画面情報をHTMLやスクリプト言語で作成する。なお、画面には保護画像が含まれる。すなわち、画像分類部43は保護画像に人認識領域の矩形枠を作成し、分類の初期設定が選択された状態のラジオボタンを作成する。また、人認識領域を含む所定領域がディスプレイ508が表示されるように全天球画像の向きを設定する。全天球画像は360度の全方位が撮像されているので、どこに人が写っているかを担当者がすぐに見つけられない場合があるためである。したがって、担当者PC6が分類画面を表示した時点で人認識領域も表示される。
S2-13:画像分類部43は送受信部41を介して画像管理装置5に分類画面を送信する。
S2-14:画像管理装置5の送受信部51は分類画面を受信すると、担当者PC6に送信する。これにより、担当者PC6は分類画面をディスプレイ508に表示できる。分類画面の一例を図17に示す。
S2-15:担当者6aは人を探して人認識領域を変更したり新たに設定したりする。また、人認識領域ごとに分類を変更したり新たに分類を設定したりする。担当者PC6の受付部62はこれらの操作を受け付ける。
S2-16:担当者PC6の送受信部61は担当者6aの操作により、分類結果(人認識領域、分類)を画像管理装置5に送信する。
S2-17:画像管理装置5の送受信部51は分類結果を受信して、分類結果を画像処理サーバ4に送信する。
S2-18:画像分類部43は、担当者PC6から送信された分類結果の分類を取得する。
S2-19:また、画像分類部43は、担当者PC6から送信された分類結果の人認識領域を取得する。
S2-20:画像分類部43は、分類と人認識領域を分類結果DB4005に登録する。すなわち、ステップS2-6で取得した保護画像の保護画像IDに関連付いたオリジナル画像IDに対応付けて、分類、人認識領域を登録する。なお、使用有無は編集処理で設定される。
Steps S2-8 to S2-11 are processes for determining the initial setting (default value) of the classification.
S2-8: The image classification unit 43 sends a protected image and requests the recognition unit 46 to perform image recognition.
S2-9: First, the recognition unit 46 acquires learning data from the learning result DB 4006. If there are a plurality of pieces, the latest learning data is acquired.
S2-10: The recognition unit 46 performs image recognition on the original image using the learning data. That is, whether or not the user is a person and if it is a person, the operation content is classified. The recognition unit 46 sends the recognition result to the image classification unit 43. Since the image recognition is simple, the recognition unit 46 may perform image recognition using a protected image instead of the original image. By setting the initial settings, the work efficiency of the person in charge 6a can be increased.
S2-11: The image classification unit 43 determines the initial setting of the classification on the classification screen based on the recognition result of the recognition unit 46. That is, since the coordinates of the person in the original image are known, the coordinates (for example, the coordinates of the circumscribed rectangle) and the classification by the recognition unit 46 are set as initial settings.
S2-12: The image classification unit 43 creates screen information of the classification screen in HTML or script language. The screen includes a protected image. That is, the image classification unit 43 creates a rectangular frame of the human recognition area in the protected image, and creates a radio button in a state where the initial setting of the classification is selected. Further, the orientation of the omnidirectional image is set so that the display 508 is displayed in a predetermined area including the human recognition area. This is because the omnidirectional image is taken in all directions of 360 degrees, and the person in charge may not be able to immediately find out where the person is shown. Therefore, the person recognition area is also displayed when the person in charge PC 6 displays the classification screen.
S2-13: The image classification unit 43 transmits a classification screen to the image management apparatus 5 via the transmission / reception unit 41.
S2-14: Upon receiving the classification screen, the transmission / reception unit 51 of the image management apparatus 5 transmits the classification screen to the person in charge PC 6. Thereby, the person in charge PC 6 can display the classification screen on the display 508. An example of the classification screen is shown in FIG.
S2-15: The person in charge 6a searches for a person and changes or sets a new person recognition area. Also, the classification is changed for each person recognition area or a new classification is set. The accepting unit 62 of the person in charge PC 6 accepts these operations.
S2-16: The transmission / reception unit 61 of the person-in-charge PC 6 transmits the classification result (person recognition area, classification) to the image management apparatus 5 by the operation of the person in charge 6a.
S2-17: The transmission / reception unit 51 of the image management apparatus 5 receives the classification result and transmits the classification result to the image processing server 4.
S2-18: The image classification unit 43 acquires the classification of the classification result transmitted from the person in charge PC 6.
S2-19: Further, the image classification unit 43 acquires the person recognition area of the classification result transmitted from the person in charge PC6.
S2-20: The image classification unit 43 registers the classification and the person recognition area in the classification result DB 4005. That is, the classification and the person recognition area are registered in association with the original image ID associated with the protected image ID of the protected image acquired in step S2-6. Note that the presence or absence of use is set in the editing process.

図17を用いて分類画面について説明する。図17は分類画面701の一例を示す図である。分類画面701は、保護画像702、人入力欄703、分類欄704、登録ボタン705、及び、次の画像ボタン706を有する。保護画像702は、ステップS2-6で取得されたものである。人入力欄703は、人認識領域に人が写っているかどうかを担当者6aが選択するための欄である。分類欄704は、人認識領域の人の動作内容を担当者6aが選択するための欄である。登録ボタン705は、担当者6aによる分類を画像処理サーバ4に登録するためのボタンであり、次の画像ボタン706は画像処理サーバ4に分類を登録することなく次の保護画像を取得するためのボタンである。   The classification screen will be described with reference to FIG. FIG. 17 is a diagram illustrating an example of the classification screen 701. The classification screen 701 includes a protected image 702, a person input field 703, a classification field 704, a registration button 705, and a next image button 706. The protected image 702 is obtained in step S2-6. The person input field 703 is a field for the person in charge 6a to select whether a person is shown in the person recognition area. The classification column 704 is a column for the person in charge 6a to select the action content of the person in the person recognition area. The registration button 705 is a button for registering the classification by the person in charge 6 a in the image processing server 4, and the next image button 706 is for acquiring the next protected image without registering the classification in the image processing server 4. Button.

分類画面701がディスプレイ508に表示された時点で、画像分類部43が初期設定した人認識領域がディスプレイ508に表示されるので、担当者6aは人を探す手間を省ける場合があり、作業効率が向上する。また、担当者6aは全天球画像を回転させて、他の人認識領域を含むように全天球画像の表示範囲を決定する。受付部62は担当者6aの操作を受け付け、表示制御部63が人認識領域を含む全天球画像の表示範囲をディスプレイ508に表示させる。これにより、認識されていない人を表示させたりすることができる。   When the classification screen 701 is displayed on the display 508, the person recognition area initially set by the image classification unit 43 is displayed on the display 508. Therefore, the person in charge 6a may save time and effort for searching for people. improves. Further, the person in charge 6a rotates the omnidirectional image to determine the display range of the omnidirectional image so as to include other person recognition areas. The receiving unit 62 receives the operation of the person in charge 6a, and the display control unit 63 causes the display 508 to display the display range of the omnidirectional image including the person recognition area. Thereby, a person who is not recognized can be displayed.

保護画像702には、初期設定された人認識領域が矩形枠707などで表示される。担当者6aはマウスや指などのポインティングデバイスで矩形枠707を選択する。担当者PC6の受付部62は操作を受け付け、表示制御部63は矩形枠707の色を変えるなどして強調する。この状態で、担当者6aは人入力欄703と分類欄704に入力する。受付部62は人入力欄703と分類欄704への入力を受け付け、人認識領域と対応付けて保持する。担当者6aは全ての矩形枠707で同じ処理を行う。ポインティングデバイスでこの矩形枠707を変更することもできる。また、人がいるが矩形枠707がない場合、新たに矩形枠707を作成し、人入力欄703と分類欄704に入力する。   In the protected image 702, the initially set human recognition area is displayed in a rectangular frame 707 or the like. The person in charge 6a selects the rectangular frame 707 with a pointing device such as a mouse or a finger. The reception unit 62 of the person in charge PC 6 receives the operation, and the display control unit 63 emphasizes the color by changing the color of the rectangular frame 707. In this state, the person in charge 6a inputs in the person input field 703 and the classification field 704. The accepting unit 62 accepts inputs to the person input field 703 and the classification field 704 and holds them in association with the person recognition area. The person in charge 6a performs the same processing for all the rectangular frames 707. The rectangular frame 707 can be changed with a pointing device. If there is a person but there is no rectangular frame 707, a new rectangular frame 707 is created and input to the person input field 703 and the classification field 704.

このように、担当者6aが見る画像は保護画像702なので、担当者6aが個人を特定してしまうおそれが少ない。   Thus, since the image seen by the person in charge 6a is the protected image 702, the person in charge 6a is less likely to specify an individual.

<<編集処理>>
図14は、画像分類部43が分類処理を行うシーケンス図の一例である。
S3-1:システム管理者8aは管理者PC8を操作して画像管理装置5との通信を開始する。管理者PC8は編集画面の表示要求を画像管理装置5に送信する。画像管理装置5の送受信部51は編集画面の表示要求を受信する。
S3-2:画像管理装置5の要求処理部55は編集画面の表示要求を画像処理サーバ4に送信する。これにより、画像処理サーバ4の編集受付部44が編集処理を開始する。
S3-3:編集受付部44は分類結果テーブルを分類結果DB4005から取得する。
S3-4:次に、編集受付部44は分類結果テーブルにおいてオリジナル画像IDに関連付けられている保護画像IDを関連付け管理DB4003から取得する。
S3-5:編集受付部44は、関連付け管理DB4003から取得した保護画像IDの保護画像を保護画像DB4002から取得する。
S3-6:次に、編集受付部44はいくつかのサムネイル画像を作成する。全天球画像のサムネイル画像は、全天球画像のサイズが縮小された画像、又は、人認識領域を含む平面領域の画像である。1つの編集画面がいくつのサムネイル画像を含むかは予め定められているが、システム管理者8aが指定することができるとなお好ましい。
S3-7:編集受付部44はサムネイル画像を用いて編集画面の画面情報をHTMLやスクリプト言語で作成する。すなわち、サムネイル画像ごとに使用有無を受け付ける編集画面を作成する。
S3-8:編集受付部44は送受信部41を介して画像管理装置5に編集画面を送信する。
S3-9:画像管理装置5の送受信部51は編集画面を受信すると、管理者PC8に送信する。これにより、管理者PC8は編集画面をディスプレイ508に表示できる。編集画面の一例を図18に示す。
S3-10:システム管理者8aはサムネイル画像を見て、学習用の画像として使用するか否か(使用有無)どうかを設定する。管理者PC8の受付部82はシステム管理者8aの設定を受け付ける。
S3-11:管理者PC8の送受信部81はシステム管理者8aの操作により保護画像IDと共に編集結果(使用有無)を画像管理装置5に送信する。
S3-12:画像管理装置5の送受信部51は編集結果を受信して、編集結果を画像処理サーバ4に送信する。
S3-13:編集受付部44は、管理者PC8から送信された編集結果を分類結果DB4005に登録する。すなわち、保護画像IDと関連付けられたオリジナル画像IDの使用有無を分類結果DB4005に登録する。
<< Edit processing >>
FIG. 14 is an example of a sequence diagram in which the image classification unit 43 performs classification processing.
S3-1: The system administrator 8a operates the administrator PC 8 to start communication with the image management apparatus 5. The administrator PC 8 transmits an edit screen display request to the image management apparatus 5. The transmission / reception unit 51 of the image management apparatus 5 receives the edit screen display request.
S3-2: The request processing unit 55 of the image management apparatus 5 transmits an edit screen display request to the image processing server 4. Thereby, the edit reception part 44 of the image processing server 4 starts an edit process.
S3-3: The edit reception unit 44 acquires a classification result table from the classification result DB 4005.
S3-4: Next, the edit reception unit 44 acquires the protected image ID associated with the original image ID in the classification result table from the association management DB 4003.
S3-5: The edit reception unit 44 acquires the protected image with the protected image ID acquired from the association management DB 4003 from the protected image DB 4002.
S3-6: Next, the edit receiving unit 44 creates several thumbnail images. The thumbnail image of the omnidirectional image is an image obtained by reducing the size of the omnidirectional image or an image of a planar area including the human recognition area. The number of thumbnail images included in one editing screen is determined in advance, but it is more preferable that the system administrator 8a can specify it.
S3-7: The edit reception unit 44 uses the thumbnail image to create screen information of the edit screen in HTML or script language. That is, an edit screen for accepting use / nonuse is created for each thumbnail image.
S3-8: The edit reception unit 44 transmits an edit screen to the image management apparatus 5 via the transmission / reception unit 41.
S3-9: When the transmission / reception unit 51 of the image management apparatus 5 receives the editing screen, it transmits it to the administrator PC 8. Thereby, the administrator PC 8 can display the editing screen on the display 508. An example of the editing screen is shown in FIG.
S3-10: The system administrator 8a looks at the thumbnail image and sets whether to use it as a learning image (whether it is used). The reception unit 82 of the administrator PC 8 receives the setting of the system administrator 8a.
S3-11: The transmission / reception unit 81 of the administrator PC 8 transmits the editing result (use / non-use) together with the protected image ID to the image management apparatus 5 by the operation of the system administrator 8a.
S3-12: The transmission / reception unit 51 of the image management apparatus 5 receives the editing result and transmits the editing result to the image processing server 4.
S3-13: The edit reception unit 44 registers the edit result transmitted from the administrator PC 8 in the classification result DB 4005. That is, whether or not the original image ID associated with the protected image ID is used is registered in the classification result DB 4005.

図18を用いて編集画面について説明する。図18は編集画面の一例を示す図である。編集画面711は、使用有無欄712、サムネイル画像欄713、ファイル名欄714、及び登録ボタン715を有する。使用有無欄712はシステム管理者8aがサムネイル画像で表示される保護画像を学習に使用するか否かを入力するための欄である。サムネイル画像欄713には保護画像のサムネイル画像が表示される。ファイル名欄714にはオリジナル画像のファイル名が表示されるが、ファイル名はなくてもよい。登録ボタン715は、システム管理者8aによる編集結果を画像処理サーバ4に登録するためのボタンである。   The editing screen will be described with reference to FIG. FIG. 18 is a diagram showing an example of the editing screen. The edit screen 711 includes a use / non-use column 712, a thumbnail image column 713, a file name column 714, and a registration button 715. The use presence / absence column 712 is a column for the system administrator 8a to input whether or not to use a protected image displayed as a thumbnail image for learning. In the thumbnail image column 713, thumbnail images of protected images are displayed. Although the file name of the original image is displayed in the file name column 714, the file name may not be present. The registration button 715 is a button for registering the editing result by the system administrator 8 a in the image processing server 4.

システム管理者8aはサムネイル画像を見て学習に適切か否かを判断し使用有無欄712に入力する。例えば、周囲の照度が十分でない場合、画像が極度にぼやけている場合、人が多すぎる場合、学習に適切でないと判断する。初期状態で全てのチェックボックス716のマークが表示されている場合、システム管理者8aはポインティングデバイスでチェックボックス716のマークを外す。初期状態で全てのチェックボックス716のマークが表示されていない場合、システム管理者8aはポインティングデバイスでチェックボックス716のマークを表示させる。管理者PC8の受付部82は操作を受け付け、表示制御部83がチェックボックス716にマークを表示する。   The system administrator 8a looks at the thumbnail image to determine whether it is appropriate for learning and inputs it to the use / non-use column 712. For example, when the surrounding illuminance is insufficient, when the image is extremely blurred, or when there are too many people, it is determined that it is not suitable for learning. When all the check boxes 716 are marked in the initial state, the system administrator 8a unmarks the check boxes 716 with the pointing device. When all the check boxes 716 are not displayed in the initial state, the system administrator 8a displays the check box 716 with the pointing device. The reception unit 82 of the administrator PC 8 receives the operation, and the display control unit 83 displays a mark in the check box 716.

なお、1つの編集画面711のサムネイル画像が4つであるのは一例であり、システム管理者8aがスクロールして閲覧できるようにより多くのサムネイル画像を送信してもよい。   Note that there are four thumbnail images on one editing screen 711, and more thumbnail images may be transmitted so that the system administrator 8a can scroll and view them.

このように、サムネイル画像は保護画像から作成され、しかも縮小されているのでシステム管理者8aが個人を特定してしまうおそれが少ない。   As described above, since the thumbnail image is created from the protected image and is reduced, the system administrator 8a is less likely to specify an individual.

<<学習処理>>
図15は、学習部45が学習処理を行うシーケンス図の一例である。
S4-1:例えば、予め定められた時刻になると、学習部45は分類結果DB4005から分類結果テーブルを取得する。
S4-2:次に、学習部45は分類管理DB4004から分類を取得する。
<< Learning process >>
FIG. 15 is an example of a sequence diagram in which the learning unit 45 performs the learning process.
S4-1: For example, at a predetermined time, the learning unit 45 acquires a classification result table from the classification result DB 4005.
S4-2: Next, the learning unit 45 acquires a classification from the classification management DB 4004.

ステップS4-3〜S4-8は分類ごとに繰り返し実行される。
S4-3:学習部45は、ある分類を有するオリジナル画像IDを全て分類結果DB4005から取得する。
S4-4:次に、学習部45はオリジナル画像IDに対応付けられた使用有無が「Yes」となっているオリジナル画像IDを特定する。
Steps S4-3 to S4-8 are repeatedly executed for each classification.
S4-3: The learning unit 45 acquires all original image IDs having a certain classification from the classification result DB 4005.
S4-4: Next, the learning unit 45 specifies the original image ID whose use status associated with the original image ID is “Yes”.

ステップS4-5〜S4-8は、オリジナル画像ごとに繰り返し実行される。
S4-5:学習部45は、オリジナル画像DB4001からオリジナル画像を取得する。
S4-6:学習部45は上記したようにオリジナル画像に基づく学習を行う。オリジナル画像に畳み込みとプーリングが繰り返し実行され、フル結合層で各ノードから最終的な合計値が出力される。学習部45は分類結果テーブルの分類を教師データとして合計値との誤差を用いてフィルターと重み値を学習する。
S4-7:学習部45は学習データ(フィルターと重み値)を学習結果DB4006に保存する。学習部45はステップS4-4で取得した全てのオリジナル画像に対しステップS4-5〜S4-7を実行する。
Steps S4-5 to S4-8 are repeatedly executed for each original image.
S4-5: The learning unit 45 acquires an original image from the original image DB 4001.
S4-6: The learning unit 45 performs learning based on the original image as described above. The original image is repeatedly convolved and pooled, and the final total value is output from each node in the fully connected layer. The learning unit 45 learns a filter and a weight value using an error from the total value using the classification of the classification result table as teacher data.
S4-7: The learning unit 45 stores the learning data (filter and weight value) in the learning result DB 4006. The learning unit 45 executes steps S4-5 to S4-7 for all the original images acquired in step S4-4.

なお、学習部45はオリジナル画像の全てを学習に用いなくてもよい。分類結果DB4005には人認識領域が登録されているため、学習部45は人認識領域のみを学習に用いることができる。   Note that the learning unit 45 may not use all of the original image for learning. Since the person recognition area is registered in the classification result DB 4005, the learning unit 45 can use only the person recognition area for learning.

図19は、オリジナル画像からの人認識領域721の切り出しを説明する図の一例である。図19では3つの人認識領域721がオリジナル画像から切り出されている(トリミングされている)。学習部45はこの人認識領域721のみを学習に使用する。こうすることで、1つオリジナル画像から、複数の学習用の素材を得ることができる。また、学習精度が向上し、学習の時間が短縮される。   FIG. 19 is an example of a diagram illustrating the extraction of the person recognition area 721 from the original image. In FIG. 19, three person recognition regions 721 are cut out (trimmed) from the original image. The learning unit 45 uses only the person recognition area 721 for learning. In this way, a plurality of learning materials can be obtained from one original image. In addition, learning accuracy is improved and learning time is shortened.

<<分析処理>>
図16は、分析部54が分類処理を行うシーケンス図の一例である。
S5-1:閲覧者Yは情報端末7を操作して画像管理装置5との通信を開始する。ここでは閲覧者Yは時間範囲と分類を指定したものとする。情報端末7は分析要求を画像管理装置5に送信する。画像管理装置5の送受信部51は分析要求を受信する。
S5-2:画像管理装置5の分析部54は画像認識要求を画像処理サーバ4に送信する。画像処理サーバ4の送受信部41は画像認識要求を受信する。
S5-3:認識部46はまず、オリジナル画像DB4001から閲覧者Yにより指定された時間範囲に撮像されたオリジナル画像を取得する。
S5-4:次に、認識部46は学習結果DB4006から学習データを取得する。
S5-5:認識部46は、取得したオリジナル画像に対し画像認識を行う。したがって、人認識領域及び分類が得られる。各オリジナル画像の人認識領域及び分類は画像管理装置5の分析部54に送信される。なお、画像認識は、画像認識が行われていないオリジナル画像にだけ行われればよい。画像管理装置5の解析情報管理DB5005には画像認識されたオリジナル画像に関連付いた保護画像の分類が登録されているので、認識部46はこの情報を利用して画像認識が行われていないオリジナル画像だけを画像認識できる。
S5-6:分析部54は、オリジナル画像の撮像時刻、及び分類を用いて分析結果画面を作成する。
S5-7:画像管理装置5の送受信部51は情報端末7に分析結果画面を送信する。情報端末7の表示制御部73はディスプレイ508に分析結果画面を表示する。分析結果画面の一例を図20に示す。
<< Analysis process >>
FIG. 16 is an example of a sequence diagram in which the analysis unit 54 performs the classification process.
S5-1: The viewer Y operates the information terminal 7 to start communication with the image management apparatus 5. Here, it is assumed that the viewer Y designates a time range and a classification. The information terminal 7 transmits an analysis request to the image management apparatus 5. The transmission / reception unit 51 of the image management apparatus 5 receives the analysis request.
S5-2: The analysis unit 54 of the image management apparatus 5 transmits an image recognition request to the image processing server 4. The transmission / reception unit 41 of the image processing server 4 receives the image recognition request.
S5-3: First, the recognition unit 46 acquires an original image captured in the time range specified by the viewer Y from the original image DB 4001.
S5-4: Next, the recognition unit 46 acquires learning data from the learning result DB 4006.
S5-5: The recognition unit 46 performs image recognition on the acquired original image. Accordingly, the human recognition area and classification are obtained. The person recognition area and classification of each original image are transmitted to the analysis unit 54 of the image management apparatus 5. Note that image recognition only needs to be performed on an original image on which image recognition has not been performed. Since the analysis information management DB 5005 of the image management apparatus 5 stores the classification of the protected image associated with the original image that has been image-recognized, the recognition unit 46 uses this information to perform the original image recognition is not performed. Only images can be recognized.
S5-6: The analysis unit 54 creates an analysis result screen using the original image capturing time and classification.
S5-7: The transmission / reception unit 51 of the image management apparatus 5 transmits an analysis result screen to the information terminal 7. The display control unit 73 of the information terminal 7 displays the analysis result screen on the display 508. An example of the analysis result screen is shown in FIG.

図20を用いて分析結果画面について説明する。図20は分析結果画面731の一例を示す図である。分析結果画面731は、分類選択欄732、時間範囲指定欄733、人数グラフ欄734、及び、OKボタン735を有する。分類選択欄732は分類をプルダウン表示する。時間範囲指定欄733は閲覧者Yが指定した時間範囲を表示するための欄である。この時間範囲に撮像されたオリジナル画像が分析の対象となる。人数グラフ欄734は、時間に対する人数の推移を視覚的に示す欄である。すなわち、分類が「手を伸ばしている」である場合、手を伸ばしていると認識された人の数が時間ごとに棒グラフなどで表示される。このように、画像認識が行われたことで、どのような動作を行った人が時間ごとにどのくらいいたかを閲覧者Yが把握できる。手を伸ばしている人が多ければ売上も多くなると想定されるが、売上と人数に相関がない場合、商品に手を伸ばしたが購入しない客が多いなどの分析が可能になる。   The analysis result screen will be described with reference to FIG. FIG. 20 is a diagram showing an example of the analysis result screen 731. The analysis result screen 731 has a classification selection field 732, a time range designation field 733, a number of people graph field 734, and an OK button 735. The category selection field 732 displays a pull-down list of categories. The time range designation column 733 is a column for displaying the time range designated by the viewer Y. The original image captured in this time range is the object of analysis. The number-of-people graph column 734 is a column that visually shows the number of people over time. That is, when the classification is “stretching a hand”, the number of people recognized as reaching a hand is displayed as a bar graph or the like every time. As described above, the image recognition is performed, so that the viewer Y can understand how many people have performed each time. If there are many people reaching out, sales are expected to increase. However, if there is no correlation between sales and number of people, it will be possible to analyze that there are many customers who reach out to the product but do not purchase.

なお、図20では1時間当たりの人数が集計されているが、一例に過ぎず、例えば10分〜数時間などの時間スケールで集計されてよい。また図20では棒グラフで表示されているが、折れ線グラフなどでもよい。また、グラフでなく数値で表示してもよい。その他、人数の集計結果はどのように視覚化されてもよい。   In FIG. 20, the number of people per hour is tabulated, but this is only an example, and may be tabulated on a time scale such as 10 minutes to several hours. In FIG. 20, it is displayed as a bar graph, but it may be a line graph or the like. Moreover, you may display by a numerical value instead of a graph. In addition, the total number of people may be visualized in any way.

また、図20ではステップS5-1で閲覧者Yが分類を指定しているが、指定しなくてもよい。この場合、ステップS5-6で分析部54は分類ごとに人数をカウントしておく。図20で閲覧者Yが分類選択欄732から任意の分類を選択すると受付部72が受け付け、表示制御部73が人数グラフ欄734を書き換える。したがって、情報端末7と画像管理装置5が通信することなく、閲覧者Yが種々の分類について人数の推移を分析できる。また、表示制御部73は、全ての分類について時間ごとの人数を同時に人数グラフ欄734に表示してもよい。例えば、分類ごとに色が異なる棒グラフで表示したり、折れ線グラフで表示する。   In FIG. 20, the viewer Y designates the classification in step S5-1, but it may not be designated. In this case, in step S5-6, the analysis unit 54 counts the number of people for each classification. In FIG. 20, when the viewer Y selects an arbitrary category from the category selection field 732, the accepting unit 72 accepts, and the display control unit 73 rewrites the number of people graph field 734. Therefore, without the information terminal 7 and the image management apparatus 5 communicating, the browsing person Y can analyze the transition of the number of people about various classifications. Further, the display control unit 73 may display the number of people for each time for all the classifications in the number of people graph column 734 at the same time. For example, a bar graph with a different color for each classification is displayed, or a line graph is displayed.

また、閲覧者Yは任意の棒グラフをポインティングデバイス736で選択できる。この処理についてステップS5-8以降で説明する。図16に戻って説明する。
S5-8:閲覧者Yは任意の棒グラフをポインティングデバイス736で選択する。この操作は、この時間に撮像されたオリジナル画像をより詳細に分析するための操作である。受付部72は閲覧者Yがポインティングデバイス736で指定した時間を受け付ける。また、分類選択欄732で選択されている現在の分類を取得する。
S5-9:情報端末7の送受信部71は詳細分析要求を画像管理装置5に送信する。詳細分析要求には、閲覧者Yが選択した特定の時間と分類が含まれる。
S5-10:画像管理装置5の分析部54は指定された時間に撮像されているオリジナル画像IDを関連付け管理DB4003から取得する。詳細には、画像処理サーバ4にオリジナル画像IDを要求するが図16ではステップが省略されている。
S5-11:分析部54は、取得したオリジナル画像IDと共に画像認識を認識部46に要求する。詳細には、画像処理サーバ4の送受信部41と画像管理装置5の送受信部51が通信するが図16ではステップが省略されている。
S5-12:認識部46はまず、オリジナル画像DB4001から、オリジナル画像IDで指定されたオリジナル画像を取得する。
S5-13:次に、認識部46は学習結果DB4006から学習データを取得する。
S5-14:認識部46は、取得したオリジナル画像に対し画像認識を行う。したがって、人認識領域及び分類が得られる。各オリジナル画像の人認識領域及び分類は画像管理装置5の分析部54に送信される。
S5-15:次に、分析部54はオリジナル画像IDに関連付けられた保護画像を保護画像DB4002から取得する。
S5-16:分析部54は、保護画像、人認識領域、及び分類を用いて分析結果詳細画面を作成する。例えば、保護画像の人認識領域に矩形枠を配置し、人認識領域に関連付けて分類を吹き出しなどで表示させる分析結果詳細画面の画面情報を作成する。
S5-17:画像管理装置5の送受信部51は情報端末7に分析結果詳細画面を送信する。情報端末7の表示制御部73はディスプレイ508に分析結果詳細画面を表示する。分析結果詳細画面の一例を図21に示す。
Also, the viewer Y can select an arbitrary bar graph with the pointing device 736. This process will be described after step S5-8. Returning to FIG.
S5-8: The viewer Y selects an arbitrary bar graph with the pointing device 736. This operation is an operation for analyzing the original image captured at this time in more detail. The accepting unit 72 accepts the time designated by the viewer Y with the pointing device 736. Also, the current classification selected in the classification selection field 732 is acquired.
S5-9: The transmission / reception unit 71 of the information terminal 7 transmits a detailed analysis request to the image management apparatus 5. The detailed analysis request includes the specific time and classification selected by the viewer Y.
S5-10: The analysis unit 54 of the image management apparatus 5 acquires the original image ID captured at the designated time from the association management DB 4003. Specifically, the original image ID is requested from the image processing server 4, but the steps are omitted in FIG.
S5-11: The analysis unit 54 requests the recognition unit 46 to perform image recognition together with the acquired original image ID. Specifically, the transmission / reception unit 41 of the image processing server 4 and the transmission / reception unit 51 of the image management apparatus 5 communicate with each other, but the steps are omitted in FIG.
S5-12: First, the recognizing unit 46 acquires an original image specified by the original image ID from the original image DB 4001.
S5-13: Next, the recognition unit 46 acquires learning data from the learning result DB 4006.
S5-14: The recognition unit 46 performs image recognition on the acquired original image. Accordingly, the human recognition area and classification are obtained. The person recognition area and classification of each original image are transmitted to the analysis unit 54 of the image management apparatus 5.
S5-15: Next, the analysis unit 54 acquires a protected image associated with the original image ID from the protected image DB 4002.
S5-16: The analysis unit 54 creates an analysis result detail screen using the protected image, the person recognition area, and the classification. For example, a rectangular frame is arranged in the person recognition area of the protected image, and screen information of an analysis result detail screen that displays the classification in a balloon or the like in association with the person recognition area is created.
S5-17: The transmission / reception unit 51 of the image management apparatus 5 transmits an analysis result detail screen to the information terminal 7. The display control unit 73 of the information terminal 7 displays the analysis result detail screen on the display 508. An example of the analysis result detail screen is shown in FIG.

図21を用いて分析結果詳細画面について説明する。図21は分析結果詳細画面741の一例を示す図である。分析結果詳細画面741は、保護画像欄742、及び、戻るボタン743を有する。保護画像欄742には保護画像が表示され、保護画像の人認識領域ごとに矩形枠707及び吹き出し744が表示される。図21では吹き出し744に分類が表示されている。したがって、閲覧者Yは一目で動作内容を把握できる。吹き出し744は閲覧者Yの操作で表示のオンとオフが切り替わってもよいし、任意の吹き出し744のみを表示させることができてよい。また、吹き出し744には画像管理装置5又は画像処理サーバ4が保持している又は取得できる情報を情報端末7が表示できる。例えば、分類の確度(判別された分類がどの程度の確率で確かか)を表示してもよい。   The analysis result detail screen will be described with reference to FIG. FIG. 21 is a diagram showing an example of the analysis result detail screen 741. The analysis result detail screen 741 has a protected image column 742 and a return button 743. A protected image is displayed in the protected image column 742, and a rectangular frame 707 and a balloon 744 are displayed for each person recognition area of the protected image. In FIG. 21, classification is displayed in a balloon 744. Therefore, the viewer Y can grasp the operation content at a glance. The balloon 744 may be turned on or off by the operation of the viewer Y, or only an arbitrary balloon 744 may be displayed. In addition, the information terminal 7 can display information held or acquired by the image management apparatus 5 or the image processing server 4 in the balloon 744. For example, the accuracy of classification (how much probability the determined classification is certain) may be displayed.

戻るボタン743は、図20の分析結果画面731に戻るためのボタンである。複数の保護画像が送信された場合、閲覧者Yが所定の操作することで情報端末7の受付部72が操作を受け付け、別の保護画像を表示制御部73が切り替えて表示する。   The return button 743 is a button for returning to the analysis result screen 731 of FIG. When a plurality of protected images are transmitted, when the viewer Y performs a predetermined operation, the receiving unit 72 of the information terminal 7 receives the operation, and the display control unit 73 switches and displays another protected image.

したがって、閲覧者Yは画像ごとに各人の動作内容を確認して詳細に分析できるが、保護画像が表示されるので閲覧者Yが個人を識別してしまうおそれが少ない。   Therefore, although the viewer Y can confirm each person's operation | movement content for every image and analyze in detail, since a protection image is displayed, there is little possibility that the viewer Y will identify an individual.

<まとめ>
以上説明したように本実施形態の画像処理システム200は、担当者6aがラベリングに使用する画像データに秘匿情報の保護処理が施されているため個人の特定や秘匿情報の漏えいを抑制できる。また、初期設定として検出された人認識領域がディスプレイ508に表示されるので、ディスプレイ508が全天球画像の全体が表示できなくても担当者6aが分類しやすくなる。また、認識フェーズではオリジナル画像が使用されるので認識の精度が低下しにくい。
<Summary>
As described above, the image processing system 200 according to the present embodiment is capable of suppressing personal identification and leakage of confidential information because the confidential data is protected on the image data used by the person in charge 6a for labeling. Further, since the person recognition area detected as the initial setting is displayed on the display 508, the person in charge 6a can easily classify even if the entire celestial sphere image cannot be displayed on the display 508. Also, since the original image is used in the recognition phase, recognition accuracy is unlikely to decrease.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

例えば、上記の実施形態では、画像処理サーバ4と画像管理装置5が別々の情報処理装置であるとして説明されたが、画像処理サーバ4と画像管理装置5は一台の情報処理装置でもよい。また、画像管理装置5が有する機能の全て又は1以上を画像処理サーバ4が有していてよく、画像処理サーバ4が有する機能の全て又は1以上を画像管理装置5が有していてもよい。また、複数の画像処理サーバ4が存在してもよく、複数の画像管理装置5が存在してもよい。   For example, in the above embodiment, the image processing server 4 and the image management apparatus 5 are described as separate information processing apparatuses, but the image processing server 4 and the image management apparatus 5 may be a single information processing apparatus. The image processing server 4 may have all or one or more of the functions of the image management apparatus 5, and the image management apparatus 5 may have all or one or more of the functions of the image processing server 4. . In addition, a plurality of image processing servers 4 may exist, and a plurality of image management devices 5 may exist.

本実施形態では、機械学習により人や人の動作を分類したが、機械学習の対象は人や人の動作に限られない。例えば、全天球画像に写っていたりいなかったりする移動可能な事物の有無が機械学習の対象となりうる。例えば、自動車や自転車の有無などである。また、ドアのように形状が変化したり、ランプのように点灯又は消灯して変化する対象の状態も機械学習の対象となりうる。これらの場合も秘匿情報が保護されるのは同様である。   In this embodiment, humans and human actions are classified by machine learning. However, machine learning targets are not limited to humans and human actions. For example, the presence or absence of a movable thing that may or may not be reflected in the omnidirectional image can be an object of machine learning. For example, the presence or absence of a car or bicycle. In addition, a state of an object that changes its shape like a door, or changes as it is turned on or off like a lamp, can also be an object of machine learning. In these cases, the secret information is similarly protected.

また、担当者6aが分類した保護画像と関連付いたオリジナル画像を、認識部46が画像認識してもよい。これにより認識部46の正答率を算出できる。あるいは、担当者6a別に認識部46が画像認識してもよい。ある担当者6aが分類した保護画像と関連付いたオリジナル画像の正答率が、全ての担当者6aが分類した保護画像と関連付いたオリジナル画像の正答率よりも有意に低い場合、ある担当者6aの分類の信頼性が低い可能性をシステム管理者などが把握できる。   Further, the recognition unit 46 may recognize the image of the original image associated with the protected image classified by the person in charge 6a. Thereby, the correct answer rate of the recognition unit 46 can be calculated. Alternatively, the recognition unit 46 may perform image recognition for each person in charge 6a. If the correct answer rate of an original image associated with a protected image classified by a person in charge 6a is significantly lower than the correct answer rate of an original image associated with a protected image classified by all persons in charge 6a, the person in charge 6a The system administrator can grasp the possibility that the classification is not reliable.

また、本実施形態では教師あり学習としてディープラーニングを例に説明したが、教師あり学習であれば他のアルゴリズムに対しても本実施形態を適用できる。   Further, in the present embodiment, the deep learning is described as an example of supervised learning, but the present embodiment can be applied to other algorithms as long as supervised learning is performed.

また、以上の実施例で示した図7,8などの構成例は、撮像装置1、通信端末3、画像管理装置5、画像処理サーバ4、担当者PC6、管理者PC8及び情報端末7の処理の理解を容易にするために、主な機能に応じて分割したものである。しかし、各処理単位の分割の仕方や名称によって本願発明が制限されることはない。撮像装置1、通信端末3、画像管理装置5、画像処理サーバ4、担当者PC6、管理者PC8及び情報端末7の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。   7 and 8 shown in the above embodiments are the processing of the imaging device 1, the communication terminal 3, the image management device 5, the image processing server 4, the person-in-charge PC 6, the administrator PC 8, and the information terminal 7. In order to make it easier to understand, it is divided according to the main functions. However, the present invention is not limited by the way of dividing or the name of each processing unit. The processing of the imaging device 1, the communication terminal 3, the image management device 5, the image processing server 4, the person-in-charge PC 6, the administrator PC 8, and the information terminal 7 can be divided into more processing units according to the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes.

また、画像管理装置5の記憶部5000のデータベースは、画像管理装置5が直接有する他、画像管理装置5が読み書き可能な通信ネットワーク9上にあればよい。画像処理サーバ4の記憶部4000のデータベースは、画像処理サーバ4が直接有する他、画像処理サーバ4が読み書き可能な通信ネットワーク9上にあればよい。   Further, the database of the storage unit 5000 of the image management apparatus 5 may be on the communication network 9 that the image management apparatus 5 can directly read / write in addition to the image management apparatus 5 directly having. The database of the storage unit 4000 of the image processing server 4 may be on the communication network 9 that the image processing server 4 can directly read / write in addition to the image processing server 4 directly having.

なお、保護処理部42は保護手段の一例であり、画像分類部43は分類情報取得手段の一例であり、学習部45は学習手段の一例である。画像処理サーバ4は第一の情報処理装置の一例であり、担当者PC6は第二の情報処理装置の一例であり、管理者PC8は第三の情報処理装置の一例であり、情報端末7は第四の情報処理装置の一例である。受付部82は使用受付手段の一例であり、受付部62は受付手段の一例であり、表示制御部63は表示制御手段の一例であり、認識部46は認識手段の一例であり、ディスプレイ508は表示装置の一例である。分析部54は集計手段の一例である。送受信部41は第一の送信手段の一例であり、送受信部51は第二の送信手段の一例であり、分類管理DB4004は分類情報記憶手段の一例であり、オリジナル画像DB4001は記憶装置の一例であり、記憶・読出部49は記憶手段の一例である。   The protection processing unit 42 is an example of a protection unit, the image classification unit 43 is an example of a classification information acquisition unit, and the learning unit 45 is an example of a learning unit. The image processing server 4 is an example of a first information processing apparatus, the person in charge PC 6 is an example of a second information processing apparatus, the administrator PC 8 is an example of a third information processing apparatus, and the information terminal 7 is It is an example of the 4th information processor. The receiving unit 82 is an example of a usage receiving unit, the receiving unit 62 is an example of a receiving unit, the display control unit 63 is an example of a display control unit, the recognition unit 46 is an example of a recognition unit, and the display 508 is It is an example of a display device. The analysis unit 54 is an example of a counting unit. The transmission / reception unit 41 is an example of a first transmission unit, the transmission / reception unit 51 is an example of a second transmission unit, the classification management DB 4004 is an example of a classification information storage unit, and the original image DB 4001 is an example of a storage device. The storage / reading unit 49 is an example of a storage unit.

1 撮像装置
3 通信端末
4 画像処理サーバ
5 画像管理装置
6 担当者PC
7 情報端末
8 管理者PC
42 保護処理部
43 画像分類部
44 編集受付部
45 学習部
46 認識部
54 分析部
55 要求処理部
200 :画像処理システム
DESCRIPTION OF SYMBOLS 1 Imaging device 3 Communication terminal 4 Image processing server 5 Image management device 6 Person in charge PC
7 Information terminal 8 Administrator PC
DESCRIPTION OF SYMBOLS 42 Protection processing part 43 Image classification part 44 Edit reception part 45 Learning part 46 Recognition part 54 Analysis part 55 Request processing part 200: Image processing system

特開2005‐190400号公報JP 2005-190400 A

「日経エレクトロニクス」,日経BP社出版、2015年5月20日発行(No.1156)、P.29〜57“Nikkei Electronics”, published by Nikkei BP, published on May 20, 2015 (No. 1156), p. 29-57

Claims (13)

撮像装置が撮像した画像データを取得する第一の情報処理装置を有する画像処理システムであって、
前記画像データに秘匿情報の保護処理を施して保護画像を生成し、前記保護画像と前記画像データを関連付ける保護手段と、
前記保護画像を第二の情報処理装置に送信して、前記第二の情報処理装置から前記保護画像の分類に関する分類情報を取得する分類情報取得手段と、
前記保護画像と関連付けられた前記画像データ及び前記分類情報を用いて機械学習を行う学習手段と、
を有する画像処理システム。
An image processing system having a first information processing apparatus that acquires image data captured by an imaging apparatus,
A protection unit that performs processing for protecting confidential information on the image data, generates a protected image, and associates the protected image with the image data;
Classification information acquisition means for transmitting the protected image to a second information processing apparatus and acquiring classification information relating to the classification of the protected image from the second information processing apparatus;
Learning means for performing machine learning using the image data and the classification information associated with the protected image;
An image processing system.
前記保護画像を第三の情報処理装置に送信して、前記第三の情報処理装置から前記保護画像を機械学習に使用するか否かの情報を取得する使用受付手段、を有し、
前記学習手段は、前記使用受付手段が機械学習に使用することを受け付けた、前記保護画像と関連付けられた前記画像データ及び前記分類情報を用いて機械学習を行う請求項1に記載の画像処理システム。
Use acceptance means for transmitting the protected image to a third information processing apparatus and obtaining information on whether to use the protected image for machine learning from the third information processing apparatus;
The image processing system according to claim 1, wherein the learning unit performs machine learning using the image data and the classification information associated with the protected image that the use receiving unit has received for use in machine learning. .
前記分類情報取得手段は、予め定められた複数の分類情報が記憶されている分類情報記憶手段から前記複数の分類情報を前記保護画像と共に前記第二の情報処理装置に送信し、前記第二の情報処理装置は前記複数の分類情報から選択を受け付けた前記分類情報を取得する請求項1又は2に記載の画像処理システム。   The classification information acquisition means transmits the plurality of classification information together with the protection image from the classification information storage means in which a plurality of predetermined classification information is stored, to the second information processing apparatus, The image processing system according to claim 1, wherein the information processing apparatus acquires the classification information that has received a selection from the plurality of classification information. 前記第二の情報処理装置は、前記保護画像において認識対象が写っている範囲の指定を受け付ける受付手段を有し、
前記学習手段は、前記画像データから前記範囲を切り出して機械学習を行う請求項1〜3のいずれか1項に記載の画像処理システム。
The second information processing apparatus includes a receiving unit that receives designation of a range in which the recognition target is shown in the protected image,
The image processing system according to claim 1, wherein the learning unit performs machine learning by cutting out the range from the image data.
前記画像データは周囲360度が撮像された全天球画像であり、
前記受付手段は、全天球画像の表示範囲の指定を受け付け、
前記第二の情報処理装置は、前記受付手段が受け付けた前記表示範囲を表示装置に表示する表示制御手段、を有し、
前記受付手段は、前記表示装置が表示した全天球画像の前記表示範囲から前記範囲の指定を受け付ける請求項4に記載の画像処理システム。
The image data is a celestial sphere image captured around 360 degrees,
The accepting means accepts designation of the display range of the omnidirectional image,
The second information processing apparatus includes display control means for displaying the display range received by the receiving means on a display device,
The image processing system according to claim 4, wherein the accepting unit accepts designation of the range from the display range of the omnidirectional image displayed by the display device.
前記学習手段が機械学習により作成した学習データを用いて前記画像データを認識し前記画像データの前記分類情報を生成する認識手段を有し、
前記分類情報取得手段は、前記第二の情報処理装置に送信する前記保護画像に関連付けられた前記画像データの認識を前記認識手段に対して要求し、
前記認識手段が生成した前記画像データの前記分類情報を初期設定として前記保護画像と共に前記第二の情報処理装置に送信する請求項1〜5のいずれか1項に記載の画像処理システム。
Recognizing means for recognizing the image data using learning data created by machine learning by the learning means and generating the classification information of the image data;
The classification information acquisition means requests the recognition means to recognize the image data associated with the protected image to be transmitted to the second information processing apparatus,
The image processing system according to claim 1, wherein the classification information of the image data generated by the recognition unit is transmitted to the second information processing apparatus together with the protected image as an initial setting.
認識手段は、更に前記学習データを用いて前記画像データから認識対象を認識するものであり、
前記分類情報取得手段は、前記認識手段が認識した前記認識対象の前記保護画像における位置情報を前記保護画像と共に前記第二の情報処理装置に送信し、
前記第二の情報処理装置は、前記保護画像を表示装置に表示する際、前記位置情報に基づいて前記認識対象が含まれるように前記保護画像を表示装置に表示する請求項6に記載の画像処理システム。
The recognition means further recognizes a recognition target from the image data using the learning data,
The classification information acquisition unit transmits position information in the protected image of the recognition target recognized by the recognition unit to the second information processing apparatus together with the protected image,
The image according to claim 6, wherein the second information processing device displays the protected image on the display device so that the recognition target is included based on the position information when the protected image is displayed on the display device. Processing system.
第四の情報処理装置から時間範囲の指定を受け付けた場合、前記認識手段が生成した前記画像データの分類情報に基づいて、前記時間範囲における同じ前記分類情報の前記画像データの数を集計する集計手段を有し、
前記集計手段は集計の結果を前記第四の情報処理装置に送信し、
前記第四の情報処理装置は、前記時間範囲における同じ分類情報の前記画像データの数を表示する請求項7に記載の画像処理システム。
When the designation of the time range is received from the fourth information processing apparatus, the totalization that counts the number of the image data of the same classification information in the time range based on the classification information of the image data generated by the recognition unit Having means,
The counting means transmits the result of counting to the fourth information processing apparatus,
The image processing system according to claim 7, wherein the fourth information processing apparatus displays the number of the image data of the same classification information in the time range.
前記認識手段は、前記認識対象ごとに前記認識対象の動作の分類を行い、
前記集計手段は、前記時間範囲において同じ動作に分類された前記認識対象の数を集計する請求項8に記載の画像処理システム。
The recognition means classifies the operation of the recognition object for each recognition object,
The image processing system according to claim 8, wherein the counting unit totals the number of recognition targets classified into the same operation in the time range.
前記集計手段は、前記認識手段が生成した前記画像データの分類情報が、前記保護画像における前記認識対象の周囲に配置される画面情報を前記第四の情報処理装置に送信し、
前記第四の情報処理装置は、前記保護画像の前記認識対象の周囲に前記分類情報を表示する請求項8又は9に記載の画像処理システム。
The aggregation unit transmits screen information in which the classification information of the image data generated by the recognition unit is arranged around the recognition target in the protected image to the fourth information processing device,
The image processing system according to claim 8 or 9, wherein the fourth information processing apparatus displays the classification information around the recognition target of the protected image.
撮像装置が撮像した画像データを取得する第一の情報処理装置と、前記第一の情報処理装置と通信可能な第二の情報処理装置と、を有する画像処理システムであって、
前記第一の情報処理装置は、
前記撮像装置から取得した前記画像データを記憶装置に記憶しておく記憶手段と、
前記画像データに秘匿情報の保護処理を施して保護画像を生成し、前記保護画像と前記画像データを関連付ける保護手段と、
前記保護画像を前記第二の情報処理装置に送信する第一の送信手段と、を有し、
前記第二の情報処理装置は、
前記第一の情報処理装置から受信した前記保護画像を第三の情報処理装置に送信して、前記第三の情報処理装置から前記保護画像の分類に関する分類情報を取得する分類情報取得手段と、
前記保護画像の分類情報を前記第一の情報処理装置に送信する第二の送信手段と、を有し、
前記第一の情報処理装置は、前記保護画像と関連付けられた前記画像データ及び前記分類情報を用いて機械学習を行う学習手段を有する、画像処理システム。
An image processing system comprising: a first information processing apparatus that acquires image data captured by an imaging apparatus; and a second information processing apparatus that can communicate with the first information processing apparatus,
The first information processing apparatus includes:
Storage means for storing the image data acquired from the imaging device in a storage device;
A protection unit that performs processing for protecting confidential information on the image data, generates a protected image, and associates the protected image with the image data;
First transmitting means for transmitting the protected image to the second information processing apparatus,
The second information processing apparatus
Classification information acquisition means for transmitting the protected image received from the first information processing apparatus to a third information processing apparatus and acquiring classification information relating to the classification of the protected image from the third information processing apparatus;
Second transmission means for transmitting classification information of the protected image to the first information processing apparatus,
The first information processing apparatus is an image processing system having learning means for performing machine learning using the image data and the classification information associated with the protected image.
撮像装置が撮像した画像データを取得する情報処理装置であって、
前記画像データに秘匿情報の保護処理を施して保護画像を生成し、前記保護画像と前記画像データを関連付ける保護手段と、
前記保護画像を第二の情報処理装置に送信して、前記第二の情報処理装置から前記保護画像の分類に関する分類情報を取得する分類情報取得手段と、
前記保護画像と関連付けられた前記画像データ及び前記分類情報を用いて機械学習を行う学習手段と、を有する情報処理装置。
An information processing apparatus that acquires image data captured by an imaging apparatus,
A protection unit that performs processing for protecting confidential information on the image data, generates a protected image, and associates the protected image with the image data;
Classification information acquisition means for transmitting the protected image to a second information processing apparatus and acquiring classification information relating to the classification of the protected image from the second information processing apparatus;
An information processing apparatus comprising: learning means for performing machine learning using the image data associated with the protected image and the classification information.
撮像装置が撮像した画像データを取得する情報処理装置を、
前記画像データに秘匿情報の保護処理を施して保護画像を生成し、前記保護画像と前記画像データを関連付ける保護手段と、
前記保護画像を第二の情報処理装置に送信して、前記第二の情報処理装置から前記保護画像の分類に関する分類情報を取得する分類情報取得手段と、
前記保護画像と関連付けられた前記画像データ及び前記分類情報を用いて機械学習を行う学習手段、として機能させるためのプログラム。
An information processing device that acquires image data captured by the imaging device,
A protection unit that performs processing for protecting confidential information on the image data, generates a protected image, and associates the protected image with the image data;
Classification information acquisition means for transmitting the protected image to a second information processing apparatus and acquiring classification information relating to the classification of the protected image from the second information processing apparatus;
A program for functioning as learning means for performing machine learning using the image data and the classification information associated with the protected image.
JP2016074388A 2016-04-01 2016-04-01 Image processing system, information processing device, and program Pending JP2017187850A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016074388A JP2017187850A (en) 2016-04-01 2016-04-01 Image processing system, information processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016074388A JP2017187850A (en) 2016-04-01 2016-04-01 Image processing system, information processing device, and program

Publications (1)

Publication Number Publication Date
JP2017187850A true JP2017187850A (en) 2017-10-12

Family

ID=60044903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016074388A Pending JP2017187850A (en) 2016-04-01 2016-04-01 Image processing system, information processing device, and program

Country Status (1)

Country Link
JP (1) JP2017187850A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019079357A (en) * 2017-10-26 2019-05-23 Kddi株式会社 Learning video selecting device, program and method for selecting, as learning video, shot video with predetermined image region masked
JP2019087072A (en) * 2017-11-08 2019-06-06 株式会社アクセル Processor, inference device, learning device, processing system, processing method, and processing program
CN110012582A (en) * 2017-12-25 2019-07-12 精工爱普生株式会社 Discharge lamp driven apparatus, light supply apparatus, projector and electric discharge lamp driving method
JP2020084614A (en) * 2018-11-28 2020-06-04 フジイコーポレーション株式会社 Snow remover
CN111742327A (en) * 2018-02-19 2020-10-02 博朗有限公司 Apparatus and method for implementing positioning of a movable processing device
JP2021504832A (en) * 2017-11-29 2021-02-15 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Model training system and method and storage medium
CN112703726A (en) * 2018-09-21 2021-04-23 索尼半导体解决方案公司 Solid-state imaging system, solid-state imaging device, information processing device, image processing method, information processing method, and program
KR102299564B1 (en) * 2020-08-21 2021-09-08 (주)와토시스 Method and system for ai learning using de-identified image data
KR20210119923A (en) * 2021-03-25 2021-10-06 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and apparatus for annotating data
JP2022529299A (en) * 2020-03-11 2022-06-20 シェンチェン センスタイム テクノロジー カンパニー リミテッド Operation identification methods and devices, electronic devices, computer readable storage media
JP2022128366A (en) * 2021-02-22 2022-09-01 Rsupport株式会社 Teleconferencing Method for Motion Recognition Using Artificial Neural Network
WO2023175848A1 (en) * 2022-03-17 2023-09-21 日本電気株式会社 Display assistance device, display assistance method, and recording medium
WO2024005073A1 (en) * 2022-06-30 2024-01-04 本田技研工業株式会社 Image processing device, image processing method, image processing system, and program
WO2024005160A1 (en) * 2022-06-30 2024-01-04 本田技研工業株式会社 Image processing device, image processing method, image processing system, and program
WO2024005074A1 (en) * 2022-06-30 2024-01-04 本田技研工業株式会社 Image processing device, image processing method, image processing system, and program
WO2024005051A1 (en) * 2022-06-30 2024-01-04 本田技研工業株式会社 Image processing device, image processing method, image processing system, and program
JP7438797B2 (en) 2020-03-12 2024-02-27 株式会社トヨタマップマスター Information processing device, industry estimation method, industry estimation program, and its storage medium
CN111771208B (en) * 2018-02-19 2024-05-28 博朗有限公司 Apparatus and method for implementing positioning of a movable processing device

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019079357A (en) * 2017-10-26 2019-05-23 Kddi株式会社 Learning video selecting device, program and method for selecting, as learning video, shot video with predetermined image region masked
JP2019087072A (en) * 2017-11-08 2019-06-06 株式会社アクセル Processor, inference device, learning device, processing system, processing method, and processing program
US11423297B2 (en) 2017-11-08 2022-08-23 Axell Corporation Processing apparatus, processing method, and nonvolatile recording medium
JP2021504832A (en) * 2017-11-29 2021-02-15 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Model training system and method and storage medium
JP7144117B2 (en) 2017-11-29 2022-09-29 ホアウェイ クラウド コンピューティング テクノロジーズ カンパニー リミテッド Model training system and method and storage medium
CN110012582A (en) * 2017-12-25 2019-07-12 精工爱普生株式会社 Discharge lamp driven apparatus, light supply apparatus, projector and electric discharge lamp driving method
CN111771208B (en) * 2018-02-19 2024-05-28 博朗有限公司 Apparatus and method for implementing positioning of a movable processing device
CN111742327B (en) * 2018-02-19 2024-05-28 博朗有限公司 Apparatus and method for implementing positioning of a movable processing device
CN111771208A (en) * 2018-02-19 2020-10-13 博朗有限公司 Apparatus and method for implementing positioning of a movable processing device
CN111742327A (en) * 2018-02-19 2020-10-02 博朗有限公司 Apparatus and method for implementing positioning of a movable processing device
CN112703726A (en) * 2018-09-21 2021-04-23 索尼半导体解决方案公司 Solid-state imaging system, solid-state imaging device, information processing device, image processing method, information processing method, and program
JP7235938B2 (en) 2018-11-28 2023-03-09 フジイコーポレーション株式会社 snowblower
JP2020084614A (en) * 2018-11-28 2020-06-04 フジイコーポレーション株式会社 Snow remover
JP2022529299A (en) * 2020-03-11 2022-06-20 シェンチェン センスタイム テクノロジー カンパニー リミテッド Operation identification methods and devices, electronic devices, computer readable storage media
JP7438797B2 (en) 2020-03-12 2024-02-27 株式会社トヨタマップマスター Information processing device, industry estimation method, industry estimation program, and its storage medium
WO2022039318A1 (en) * 2020-08-21 2022-02-24 (주)와토시스 Artificial intelligence training method and system using de-identified image data
KR102299564B1 (en) * 2020-08-21 2021-09-08 (주)와토시스 Method and system for ai learning using de-identified image data
JP2022128366A (en) * 2021-02-22 2022-09-01 Rsupport株式会社 Teleconferencing Method for Motion Recognition Using Artificial Neural Network
JP2021184316A (en) * 2021-03-25 2021-12-02 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Method and apparatus for labeling data, electronic device, computer-readable storage medium, and computer program
JP7284786B2 (en) 2021-03-25 2023-05-31 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Methods, apparatus, electronics, computer readable storage media and computer programs for labeling data
KR102583345B1 (en) * 2021-03-25 2023-09-27 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and apparatus for annotating data
KR20210119923A (en) * 2021-03-25 2021-10-06 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and apparatus for annotating data
WO2023175848A1 (en) * 2022-03-17 2023-09-21 日本電気株式会社 Display assistance device, display assistance method, and recording medium
WO2024005073A1 (en) * 2022-06-30 2024-01-04 本田技研工業株式会社 Image processing device, image processing method, image processing system, and program
WO2024005051A1 (en) * 2022-06-30 2024-01-04 本田技研工業株式会社 Image processing device, image processing method, image processing system, and program
WO2024005074A1 (en) * 2022-06-30 2024-01-04 本田技研工業株式会社 Image processing device, image processing method, image processing system, and program
WO2024005160A1 (en) * 2022-06-30 2024-01-04 本田技研工業株式会社 Image processing device, image processing method, image processing system, and program

Similar Documents

Publication Publication Date Title
JP2017187850A (en) Image processing system, information processing device, and program
US10839605B2 (en) Sharing links in an augmented reality environment
US10262356B2 (en) Methods and arrangements including data migration among computing platforms, e.g. through use of steganographic screen encoding
US20190333478A1 (en) Adaptive fiducials for image match recognition and tracking
CN104685494B (en) The function of text identification driving
US11158057B2 (en) Device, method, and graphical user interface for processing document
CN101354791B (en) User interface for editing photo tags
US10748000B2 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
CN110457571B (en) Method, device and equipment for acquiring interest point information and storage medium
JP6686547B2 (en) Image processing system, program, image processing method
US8941767B2 (en) Mobile device and method for controlling the same
US20180039715A1 (en) System and method for facilitating an inspection process
US8866953B2 (en) Mobile device and method for controlling the same
JP2017182681A (en) Image processing system, information processing device, and program
CN114296627B (en) Content display method, device, equipment and storage medium
JP2017108356A (en) Image management system, image management method and program
Kember The Becoming-Photographer in Technoculture
JP2017199343A (en) Calculation execution method for visualizing related document and person during document browsing in desktop camera-projector system, program, and calculation processing system
KR20100124952A (en) Ar contents providing system and method providing a portable terminal real-time by using letter recognition
CN109672798A (en) Information processing unit and storage media
Beera et al. The Yolo V5 Based Smart Cell phone Detector
JP7215621B1 (en) Information processing device, information processing system, device management method and program
US20210158595A1 (en) Information processing apparatus, information processing method, and information processing system
US20240146781A1 (en) Systems and methods for managing digital notes for collaboration
JP2023523764A (en) Systems and methods for managing digital records