JP2023119326A - Video image analysis apparatus and video image analysis method - Google Patents
Video image analysis apparatus and video image analysis method Download PDFInfo
- Publication number
- JP2023119326A JP2023119326A JP2022022167A JP2022022167A JP2023119326A JP 2023119326 A JP2023119326 A JP 2023119326A JP 2022022167 A JP2022022167 A JP 2022022167A JP 2022022167 A JP2022022167 A JP 2022022167A JP 2023119326 A JP2023119326 A JP 2023119326A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- image data
- video
- neural network
- analysis apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010191 image analysis Methods 0.000 title abstract description 5
- 238000003703 image analysis method Methods 0.000 title abstract 2
- 238000001514 detection method Methods 0.000 claims abstract description 172
- 238000013528 artificial neural network Methods 0.000 claims abstract description 39
- 238000005070 sampling Methods 0.000 claims abstract description 12
- 238000004458 analytical method Methods 0.000 claims description 82
- 238000000034 method Methods 0.000 description 21
- 241000220225 Malus Species 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000005856 abnormality Effects 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 4
- 235000021016 apples Nutrition 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002950 deficient Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
Description
実施形態は、映像、画像を解析する映像解析装置および映像解析方法に関する。 The embodiments relate to a video analysis apparatus and a video analysis method for analyzing videos and images.
ニューラルネットワークを用いた画像認識においては、画像の中から特定の情報を検出する際に、検出窓という一定のサイズ(画素数)の枠を用いる。例えば、映像フレームからデジタルサンプリングにより得た画像に対して、検出窓を用いて情報の検出をしようとした場合、画像の画角(撮影領域)が同一でも解像度が異なると、同じサイズの検出窓に含まれる情報には違いが出る(例えば低解像度の方がより広い領域の情報を拾うこととなる)。通常、画像を拡大したり縮小したりすることで、検出窓のサイズとのバランスが取られる。 In image recognition using a neural network, a frame of a certain size (the number of pixels) called a detection window is used to detect specific information from an image. For example, when trying to detect information using a detection window for an image obtained by digital sampling from a video frame, even if the angle of view (shooting area) of the image is the same but the resolution is different, the same size detection window differ in the information contained in (for example, a lower resolution picks up a wider area of information). The image is usually scaled up or down to balance the size of the detection window.
しかしながら、解像度の異なる複数の画像から、同様の大きさの対象物をニューラルネットワークで検出する場合、検出窓内の情報の違いにより、安定した学習を行うことが困難であり、また検出窓に合わせて画像のサイズを縮小すると特徴量が失われてしまう問題がある。 However, when using a neural network to detect objects of similar size from multiple images with different resolutions, it is difficult to perform stable learning due to differences in the information within the detection window. There is a problem that feature values are lost when the size of the image is reduced by using the method.
本発明が解決しようとする課題は、解像度の異なる複数の画像データを解析する映像解析装置処理、方法およびプログラムを提供することを目的とする。 An object of the present invention is to provide a video analysis device process, method, and program for analyzing a plurality of image data with different resolutions.
一実施形態に係る映像解析装置は、映像フレームをデジタルサンプリングして得た画像データの解像度に応じてニューラルネットワークの検出窓のサイズ及びモデルパラメータを切り替えて、前記画像データから検出対象を検出する。 A video analysis apparatus according to one embodiment switches the detection window size and model parameters of a neural network according to the resolution of image data obtained by digitally sampling a video frame, and detects a detection target from the image data.
以下、実施の形態について図面を参照して説明する。
(第1の実施形態)
例えば同じ場面を撮影した映像からデジタルサンプリングにより画像を取得する場合、デジタルサンプリングによっては画像の解像度が異なることがある。本実施形態においては、ニューラルネットワークを用いて、画角(撮影範囲)が同一もしくは同様であるが解像度の異なる複数の画像データからだいたい一定の大きさとなる対象(検出対象と称する)を検出する例を示す。
Hereinafter, embodiments will be described with reference to the drawings.
(First embodiment)
For example, when an image is obtained by digital sampling from a video of the same scene, the resolution of the image may differ depending on the digital sampling. In this embodiment, a neural network is used to detect an object (referred to as a detection object) of approximately a certain size from a plurality of image data having the same or similar angle of view (shooting range) but different resolutions. indicates
図1は、実施形態に係る映像解析装置の構成図である。 FIG. 1 is a configuration diagram of a video analysis device according to an embodiment.
映像解析装置1は、入力された映像や画像から検出対象を検出し、外部に出力する装置であり、CPUやメモリなどのコンピュータ、DSP(Digital Signal Processor)などのデジタル信号処理手段を備えていてもよい。 The video analysis device 1 is a device that detects a detection target from an input video or image and outputs it to the outside. good too.
映像入力部11は、外部からデジタルデータである画像データを映像解析装置1に取り込み、画像データを出力する。入力される画像データは、映像データの静止画像など任意の画像データであってよい。映像入力部11は、入力された画像データからメタ情報(画素数または解像度)を取り出して、画角取得部12に画角情報としてメタ情報を出力する。
また、映像入力部11は、画像データを出力する際に、例えば解析を実行しようとする画像データのサンプルを用いて、サンプルに合わせるように出力する画像データの画角(撮影範囲)を調整することでもよい。
The
Further, when outputting image data, the
画角取得部12は、映像入力部11から画角情報を取得する。
The angle-of-
検出用NN選択部13は、画角取得部12から入力される画角情報などに基づいて、画像データから検出対象を検出するためのニューラルネットワークNNを選択する。ニューラルネットワークNNは、例えばDeep Neural Network(DNN)であり、Convolutional Neural Network(CNN)を含んでもよい。また、ニューラルネットワークNNは、Recurrent Neural Network(RNN)、Long Term Short Memory(LTSM)など任意のニューラルネットワークを含めてもよい。各種ニューラルネットワークは一般的な技術であり、説明を省略する。
The detection
ニューラルネットワークNNは、検出窓サイズをパラメータとして備える。検出窓は、画像データから検出対象を検出するための画像データ上の領域を示し、検出窓サイズは、検出窓に含まれる画素数を示す。 The neural network NN has a detection window size as a parameter. A detection window indicates an area on image data for detecting a detection target from image data, and a detection window size indicates the number of pixels included in the detection window.
記憶部14は、メモリであり、テーブル141やNNモデルパラメータ142など各種情報が格納される。
The
テーブル141は、映像入力部11から入力された画像データの画角情報ごとに、紐づけられたニューラルネットワークNNの検出窓サイズ、NNモデルなどが格納されている。すなわち、画像データの画角情報ごとにニューラルネットワークNNを紐づけられたNNモデルに変えることを示す。例えば、データTB1は、映像入力部11から入力された画像データの解像度が720[画素数]×480[画素数]の場合、NNモデルを検出用NN1とし、検出用NN1の検出窓サイズは、16×16とするニューラルネットワークNNを用いて、画像データを処理することを示す。テーブル141は、出荷時に設定されていることでもよいし、また映像解析装置1がインターネット経由でサーバなどからダウンロードして取得することでもよい。その他任意の方法でテーブル141を記憶部14に設定できるようにしてもよい。
The table 141 stores the detection window size of the associated neural network NN, the NN model, and the like for each field angle information of the image data input from the
NNモデルパラメータ142は、ニューラルネットワークNNで用いられるパラメータであり、テーブル141における使用NNモデルに相当するニューラルネットワークNNのパラメータである。例えば、データTB1の検出用NN1のモデルパラメータは、MP1であり、データTB2の検出用NN2のモデルパラメータは、MP2であり、データTB2の検出用NN2のモデルパラメータは、MP3であることを示す。NNモデルパラメータ142は、テーブル141で設定される検出窓サイズのデータで学習されて得られているものとする。
The
画像認識部15は、映像入力部11が取り込んだ画像データに対して、検出用NN選択部13によって選択されたニューラルネットワークNNを実行する。
The
特徴検出部151は、画像認識部15の機能の一部としてニューラルネットワークNNによる特徴検出を実行する。特徴検出部151は、例えばCNNであってもよい。
The
領域計算部152は、映像入力部11が取り込んだ画像データに対して、画像認識による特定の物体の検出を実行する。領域計算部152は、一般的なオブジェクト認識手法を用いてもよいし、ニューラルネットワークであってもよい。
The
結果出力部16は、画像認識部15によって解析した結果を図示せぬモニタなどの外部装置へ出力する。
The
図2は、実施形態に係る映像解析装置が解析処理するデータフローの例を示す模式図である。本実施形態の映像解析装置1は、リンゴを解析対象AOとし、リンゴ上の虫食いなどのキズを検出する。虫食いなどのキズを検出対象DOと称する。 FIG. 2 is a schematic diagram illustrating an example of a data flow analyzed by the video analysis apparatus according to the embodiment; The video analysis apparatus 1 of the present embodiment uses an apple as an analysis target AO and detects scratches such as worm-eaten spots on the apple. A flaw such as worm-eaten is referred to as a detection target DO.
映像解析装置1は、解析対象AOであるリンゴの撮影データのデジタルサンプリングによって、低解像度の画像データSD1のデータを得たとする。 Assume that the video analysis apparatus 1 obtains low-resolution image data SD1 by digital sampling of photographed data of an apple, which is an analysis target AO.
画角取得部12は、低解像度の画像データSD1が入力されると、画角情報を取得し、検出用NN選択部13に入力する。検出用NN選択部13は、入力された画角情報の解像度に基づいて記憶部14から情報を取得し、検出窓サイズDW1を5×7、検出用NNのモデルを低解像度用のDNN(検出用のニューラルネットワークNN1)とする。画像認識部15は、ニューラルネットワークNN1で、画像データSD1を解析する。ここでニューラルネットワークNN1は、検出対象DOの含まれた検出窓サイズDW1のデータで学習されているものとする。画像認識部15の解析により、画像データSD1から検出対象DOが検出される。
When the low-resolution image data SD1 is input, the angle-of-
同様に、映像解析装置1は、解析対象AOであるリンゴの撮影データのデジタルサンプリングによって、高解像度の画像データSD2のデータを得た場合、画像認識部15は、検出窓サイズDW2を25×37、検出用NNのモデルを高解像度用のDNN(検出用のニューラルネットワークNN2)で、画像データSD2を解析する。画像データSD2の画角は画像データSD1と同様であるものとし、図2に示すように画像データSD1、SD2において、画像データSDの大きさに対する解析対象AOであるりんごの大きさは同様であるものとする。ニューラルネットワークNN2は、検出対象DOの含まれた検出窓サイズDW2のデータで学習されているものとし、画像認識部15の解析により、画像データSD2から検出対象DOが検出される。
Similarly, when the video analysis apparatus 1 obtains the high-resolution image data SD2 by digital sampling of the photographed data of the apple that is the analysis target AO, the
なお、画像データSD1またはSD2、検出窓サイズDW1またはDW2、ニューラルネットワークNN1またはNN2は、特に区別しない場合は、それぞれ画像データSD、検出窓サイズDW、ニューラルネットワークNNと称する。また、本実施形態において、映像解析装置1は、図1のテーブル141、NNモデルパラメータ142においてそれぞれ3つのデータを備える場合について示すが、3つ以上備えていてもよい。
The image data SD1 or SD2, detection window size DW1 or DW2, and neural network NN1 or NN2 are referred to as image data SD, detection window size DW, and neural network NN, respectively, unless otherwise distinguished. Further, in the present embodiment, the video analysis device 1 shows a case where each of the table 141 and the
図3は、実施形態に係る映像解析装置による解析処理を示すフローチャートである。 FIG. 3 is a flowchart showing analysis processing by the video analysis device according to the embodiment.
映像解析装置1において、映像入力部11は、解析対象AO(図2におけるりんごに相当する)を含む画像データSD(静止画像)を得ると、画角取得部12は、画像データSDの画角情報を取得する(ステップ101)。なお、画角取得部12は、静止画像を用いずに、別の経路で例えばユーザの設定などにより画角情報を取得してもよい。
In the video analysis device 1, when the
検出用NN選択部13は、記憶部14のテーブル141(画角と検出窓サイズおよびNNモデルの関係テーブル)の情報を利用して、ステップS101において取得された画角情報に紐づけられた使用NNモデルを選択する(ステップS102)。図1のTB1の例でより具体的に説明すると、検出用NN選択部13は、ステップS101において取得された解像度情報「720×480」に紐づけられた検出窓サイズDW「16×16」、検出用NNのモデル「検出用NN1」を選択する。
The detection
検出用NN選択部13は、選択したNN情報および検出窓サイズを画像認識部15に伝えると、画像認識部15は、映像入力部が出力した画像データから対象となる物体(検出対象DO)の検出処理を行う(ステップ103)。より具体的にステップ103においては、画像SD全体を画像認識部15のNNへの入力に使うのではなく、検出窓DWの単位でNNへ入力する。検出窓DWは画像SDのサイズより小さいため、画像認識部15は、例えばまず画像SD上にて検出窓位置(範囲1とする)を決定して、範囲1についてNN計算して解析する。範囲1の解析が終了したら、また別の検出窓位置(範囲2とする)を決定して、範囲2についてNN計算するという流れで解析を実行する。以降、検出窓位置を少しずつずらして画像全体に対する解析を実行することでもよい。
When the
NN計算の結果、検出対象が検出された場合、結果出力部16は、図示せぬモニタなどに出力することでもよい(ステップ104)。ステップ104における出力方法は、何かしらの映像を画面に出しても良いし、ログとして記憶部14などのファイルに保管する方法でもよい。
When a detection target is detected as a result of the NN calculation, the
以上の手順により、画角は同様だが解像度の異なる複数の画像データSDに対して、各画像SD中において一定の大きさである検出対象DOを検出することができる。 According to the above procedure, a detection target DO having a constant size can be detected in each image SD for a plurality of image data SD having the same angle of view but different resolutions.
図4は、実施形態に係る映像解析装置が解析処理する映像サンプリングデータの例を示す模式図である。映像入力部11への入力データの種類(映像、画像など)および検出対象DOなどの性質により、検出範囲DAを決定することが考えられる。
FIG. 4 is a schematic diagram showing an example of video sampling data analyzed by the video analysis device according to the embodiment. It is conceivable that the detection range DA is determined according to the type of input data (video, image, etc.) to the
図4(a)は、画像データSD1に複数の検出対象DO11、DO12が存在する場合の例である。映像解析装置1は、画像データSD1全体に検出窓DWを移動させながら図3の処理を実行することにより、検出対象DO11、DO12が検出できる。例えば、製品の品質チェックにおいて、製品の撮影映像を映像解析装置1に入力することにより、解析対象の製品にいくつの異常があるかを検出することができる。また例えば製品の良品検査においては、1つでも異常が検出された時点で不合格とする場合、結果出力部16などが結果を出力するとともに、画像認識部15における認識プロセスを終了させることでもよい。図4(b)以降については、以下の実施形態において説明する。
(第2の実施形態)
本実施形態は、図4(b)のケースにおいて検出対象DOを検出する例を示す。
FIG. 4A shows an example in which a plurality of detection targets DO11 and DO12 exist in the image data SD1. The video analysis apparatus 1 can detect the detection targets DO11 and DO12 by executing the process of FIG. 3 while moving the detection window DW over the entire image data SD1. For example, in the quality check of a product, by inputting a photographed image of the product to the image analysis device 1, it is possible to detect how many abnormalities are present in the product to be analyzed. Further, for example, in the non-defective product inspection of a product, if even one abnormality is detected and the product is rejected, the
(Second embodiment)
This embodiment shows an example of detecting a detection target DO in the case of FIG. 4(b).
図4(b)は、画像データSD2上の既知の特定領域に、1つもしくは複数の検出対象DOが存在する場合の例である。図4(b)のように、画像データSD2内において対象物が存在する領域DAが決まっている場合、映像解析装置1は、既知の特定領域を検出範囲DAとし、その検出範囲DAのみ認識を実行することでもよい。 FIG. 4(b) is an example in which one or a plurality of detection targets DO exist in a known specific area on the image data SD2. As shown in FIG. 4B, when the area DA where the object exists is determined in the image data SD2, the video analysis apparatus 1 sets the known specific area as the detection area DA, and recognizes only the detection area DA. can be executed.
図5は、第2の実施形態に係る映像解析装置による解析処理を示すフローチャートである。 FIG. 5 is a flowchart showing analysis processing by the video analysis device according to the second embodiment.
画角取得部12は、入力画像データSD2の画角情報を取得し、検出用NN選択部13に入力する(ステップS201)。検出用NN選択部13は、検出対象DO、検出範囲DAを取得する(ステップS202)。検出対象DO、検出範囲DAは、映像解析装置1に接続された例えばキーボードなどからユーザが設定してもよいし、図4(b)のようなイメージを映像解析装置1に接続した図示せぬモニタなどに表示して、ユーザが検出対象DO、検出範囲DAを設定できるようにしてもよい。
The angle-of-
検出用NN選択部13は、入力された画角情報、検出対象DO、検出範囲DAに従って、検出窓サイズおよびNNモデルを選択し、画像認識部15に設定する(ステップS202)。
The detection
図6は、第2の実施形態に係る映像解析装置が備えるテーブルデータの例である。 FIG. 6 is an example of table data provided in the video analysis apparatus according to the second embodiment.
テーブル1411は、記憶部14に備えられたデータであり、図1のテーブル141の内容に加え、入力画像の解像度に「検出対象」、「検出範囲」が紐づけられている。例えば、データTB11は、映像入力部11から入力された画像データの解像度が720×480の場合、解析に使用するニューラルネットワークNNのモデルを「検出用NN1」、検出用NN1の検出窓サイズを「16×16」(例えば図4(b)のDW21とする)、検出対象DOを「X部の異常」(例えば図4(b)のDO21とする)、検出範囲DAを「360x100+320x120」(例えば図4(b)のDA21とする)とすることを示す。検出対象DO21は、「X部の異常」として予めキズなどの異常の種類が決まっており、さらに検出範囲DA21が座標(x1、y1)=(360、100)、(x2、y2)=(320x120)の2点を対角とする四角であることを示す。本実施形態における検出用NN1は、検出対象DO21「X部の異常」を含む検出窓DW21「16×16」の画像データで学習がなされる。
A table 1411 is data provided in the
また例えば、データTB14は、映像入力部11から入力された画像データの解像度が720×480の場合、解析に使用するニューラルネットワークNNのモデルを「検出用NN1」、検出用NN1の検出窓サイズを「16×16」(例えば図4(b)のDW22とする)、検出対象DOを「Y部の異常」(例えば図4(b)のDO22とする)、検出範囲DAを「180x240+240x240」(例えば図4(b)のDA22とする)とすることを示す。本実施形態における検出用NN1は、データTB11による学習に加え、データTB14による学習もなされる。なお、図4(b)のDW21、DW22の例のように、検出対象DOの種類によって、検出窓DWのサイズを変更してもよい。この場合は、ニューラルネットワークNNは、それぞれの検出窓DWのサイズを用いて学習させ、異なるニューラルネットワークNNとすることでもよい。例えば図4(b)において、特に検出対象DO21(例えばX部異常とする)、検出対象DO21(例えばY部異常とする)の特徴が大きく異なるときには、それぞれ別に学習した専用のNNを使う方が、検出対象DOの認識精度が高くなることがある。
Further, for example, when the resolution of the image data input from the
図5に戻り、検出用NN選択部13は、記憶部14などに格納されたテーブル1411の情報から使用NNモデルを選択する(ステップS203)。画像認識部15は、検出範囲DAにおける検出窓DWの範囲について、ステップS203で選択したNNにより検出対象DOの検出処理を実行する(ステップS204)。ステップS204において検出対象DOが検出された場合(例えば図4(b)のDW21とする)、結果出力部16は、検出した検出対象DOの位置などの情報を記憶部14などに格納することでもよい(ステップS205のYes、ステップS206)。なお、ステップS206の代わりにステップS208に移り、結果出力部16に結果を出力することでもよい。
Returning to FIG. 5, the detection
ステップS204において検出対象DOが検出されなかった場合(例えば、図4(b)のDA23の例)、次の検出範囲DAに移り、ステップS203から同様の処理を繰り返す(ステップS205のNo、ステップS207のNo)。全ての検出範囲DAに対する処理が終了したら、ステップS206で格納した検出対象DOの情報を結果出力部16に結果を出力することでもよい(ステップS207のYes、ステップS208)。 If the detection target DO is not detected in step S204 (for example, the example of DA23 in FIG. 4B), the next detection range DA is entered, and the same processing is repeated from step S203 (No in step S205, step S207 No). When the processing for all detection ranges DA is completed, the information on the detection target DO stored in step S206 may be output to the result output unit 16 (Yes in step S207, step S208).
以上の手順により、複数の検出範囲DAに対する画像認識が可能となる。本実施形態においては、検出対象DOの認識範囲を映像全体ではなく、事前に設定した範囲(検出範囲DA)にのみ行うため、短時間で処理ができる。
(第3の実施形態)
本実施形態においては、図4(c)の例のように、映像内に映っているある物体(解析対象AO)の領域において検出対象DOを検出する例について示す。本実施形態の映像解析装置1は、例えば、食品検査において、映像(画像データSD)に映っている解析対象AOの異常を検査しようとした場合、まず解析対象AOの検出を行い、その解析対象AOの領域に対して検出対象DOの検出を行う。
The above procedure enables image recognition for a plurality of detection areas DA. In the present embodiment, the recognition range of the detection target DO is not the entire image, but only the range set in advance (detection range DA), so that the processing can be performed in a short time.
(Third embodiment)
In this embodiment, as in the example of FIG. 4C, an example of detecting a detection target DO in a region of an object (analysis target AO) appearing in an image will be described. For example, in a food inspection, the image analysis apparatus 1 of the present embodiment first detects an analysis target AO, and then detects an analysis target AO in a video (image data SD). A detection target DO is detected in the AO area.
図7は、第3の実施形態に係る映像解析装置による解析処理を示すフローチャートである。以下、図4(c)を例として説明する。 FIG. 7 is a flowchart showing analysis processing by the video analysis device according to the third embodiment. Hereinafter, FIG. 4C will be described as an example.
画角取得部12は、入力画像データSD3の画角情報を取得し、検出用NN選択部13に入力する(ステップS301)。また同時に画像認識部15においては、領域計算部152が画像データSD3に対して解析対象AOの検出処理をする(ステップS302)。ステップS302において、画像認識部15は、解析対象AOに関する情報(例えば、りんご)が予め設定されていることでもよい。例えば映像解析装置1に接続されたキーボードなどから、ユーザが画像認識部15に解析対象AOに関する情報を設定することでもよい。
The angle-of-
領域計算部152は、入力された画像データSD3から解析対象AOの検出およびその領域の特定を行う。例えばリンゴの品質管理を行う例において、画像データSD3内に複数のリンゴが存在した場合、それらリンゴの表示エリアを計算し、取得する。この特定には一般的なオブジェクト認識手法を用いる。表示エリアは、解析対象AOそのものの形としてもよいし、解析対象AOを含む矩形などとして表してもいいし、その他のフォーマットで表現しても良い。画像認識部15は、算出された表示エリアを検出範囲DAとする。図4(c)の例では、ステップS302において、解析対象AOとして解析対象AO3、解析対象AO31が検出される。
The
検出用NN選択部13は、入力された画角情報、検出対象DOを含む情報から、例えば図6のテーブル1411で紐づけられた検出窓サイズおよびNNモデルを選択し、画像認識部15に設定する(ステップS303)。画像認識部15は、入力映像の中の、領域計算部152から与えられた検出範囲DA(解析対象AOの表示エリアに相当)に対して、選択された検出用NNにより検出対象DOの検出処理を行う(ステップS304)。ステップS304における処理の結果はモニタなどに出力されることでもよい(ステップS305)。ステップS303からS305の手順を、ステップS302において検出された解析対象AOすべてに対して実行することでもよい。
The detection
本実施形態の映像解析装置1によれば、検出対象DOの認識範囲を映像全体ではなく、事前に取得した解析対象AOの表示エリアを検出範囲DAとすることで、短時間で検出対象DOの検出ができる。
(第4の実施形態)
本実施形態においては、図4(d)の例のように、画像データSD内に散らばっている検出対象DOを検出する例について示す。例えば、アナログデータである映像フィルム(フィルムの1枚1枚)には、フィルムグレインという現象が発生することがある。本実施形態の映像解析装置1は、例えば画像データSDにおいて、検出窓の位置をランダムに決めて、検出窓内の画像データに対してフィルムグレインの検出処理する例を示す。
According to the video analysis apparatus 1 of the present embodiment, the recognition range of the detection target DO is not the entire image, but the detection range DA is the display area of the analysis target AO obtained in advance. can be detected.
(Fourth embodiment)
In the present embodiment, as in the example of FIG. 4D, an example of detecting detection targets DO scattered in the image data SD will be described. For example, a phenomenon called film grain may occur in video film (one film at a time), which is analog data. The video analysis apparatus 1 of this embodiment randomly determines the position of the detection window in the image data SD, for example, and performs film grain detection processing on the image data within the detection window.
図8は、第4の実施形態に係る映像解析装置による解析処理を示すフローチャートである。以下、図4(d)を例として説明する。 FIG. 8 is a flowchart showing analysis processing by the video analysis device according to the fourth embodiment. Hereinafter, FIG. 4D will be described as an example.
画角取得部12は、入力画像データSD4の画角情報を取得し、検出用NN選択部13に入力する(ステップS401)。検出用NN選択部13は、検出対象DO(フィルムグレインに相当する)の情報を取得する(ステップS402)。検出対象DOの情報は、映像解析装置1に接続された例えばキーボードなどからユーザが検出用NN選択部13に設定してもよい。
The angle-of-
検出用NN選択部13は、取得した画角情報、検出対象DOに従って、例えば図6のテーブル1411から、紐づけられる検出窓サイズおよびNNモデルを選択し、画像認識部15に設定する(ステップS403)。ステップS403において選択されたニューラルネットワークNNは、例えば図6のテーブル1411における検出対象「フィルムグレイン」を含む検出窓サイズのデータで予めフィルムグレインが学習されている。
The detection
また、図6のテーブル1411において、検出対象「フィルムグレイン」に対してさらに紐づける項目を増やしてもよい。例えば、項目としてフィルムグレインを検出する映像フィルムの「撮影年代」、実写、アニメなどの「映像種類」が考えられる。また映像フィルムから画像データを取り出すプロセスの違い、例えば、アナログデータからデジタル化したデータか、デジタル化したデータをさらにサンプリングしたデータかなどの「デジタル化プロセス」、ブルーレイ、DVD、4K/2Kブルーレイなどの「データ源」、フィルムのサイズ(8mm、16mm、24mm、35mmなど)の「フィルムサイズ」などの項目も考えられる。これらの項目を考慮した場合には、それぞれに対してニューラルネットワークNNの検出窓サイズおよびNNモデルを設定することでもよい。また、項目の組み合わせによって、別々のNNモデルを設定することでもよく、組み合わせた項目に合致するデータを用いて紐づけられたNNモデルの学習を実施する。 Also, in the table 1411 of FIG. 6, the number of items linked to the detection target "film grain" may be increased. For example, the item may be the "filming age" of the video film whose film grain is to be detected, and the "video type" such as live action or animation. In addition, the difference in the process of extracting image data from video film, for example, "digitization process" such as data digitized from analog data or data further sampled from digitized data, Blu-ray, DVD, 4K / 2K Blu-ray, etc. Items such as "data source" for the size of the film (8mm, 16mm, 24mm, 35mm, etc.) and "film size" are also possible. If these items are considered, the detection window size of the neural network NN and the NN model may be set for each. Also, different NN models may be set depending on the combination of items, and learning of the associated NN model is performed using data matching the combined items.
画像認識部15は、検出窓DW4の位置を決定する(ステップS404)。ステップS204においては、画像データSD4中の任意の位置にランダムに検出窓DW4の位置を決定することでもよいし、ある規則に従って決定した画像データSD4中の位置を検出窓DW4の位置として決定することでもよい。
The
ステップS404において位置選択された検出窓DW4のデータに対して、図3のステップS103と同様に、ステップS403で選択したNNにより検出対象DOの検出処理を実行する(ステップS405)。検出対象DOが検出された場合(ステップS406のYes)、結果出力部16は、検出した検出対象DOの位置などの情報を、外部のモニタなどに出力することでもよい(ステップS407)。一方、検出対象DOが検出されなかった場合(ステップS406のNo)、ステップS404に戻り、検出窓DW4に対する次の位置を決定し、同様の処理を繰り返す。戻った場合のステップS404において画像認識部15は、前回までに決定された検出窓DW4の範囲に重ならないように検出窓DW4の位置を決定することが望ましい。
For the data of the detection window DW4 whose position is selected in step S404, the NN selected in step S403 performs detection processing of the detection target DO (step S405), as in step S103 of FIG. When the detection target DO is detected (Yes in step S406), the
以上の手順により、映像フィルムをデジタルサンプリングして得た画像データSDに発生するフィルムグレインの検出が可能となる。 By the above procedure, it is possible to detect the film grain occurring in the image data SD obtained by digitally sampling the video film.
以上に述べた少なくとも1つの実施形態によれば、解像度の異なる複数の画像データを解析する映像解析装置および映像解析方法を提供することができる。 According to at least one embodiment described above, it is possible to provide a video analysis apparatus and a video analysis method for analyzing a plurality of image data with different resolutions.
なお、図面に示した解析画面などに表示される条件パラメータやそれらに対する選択肢、値、評価指標などの名称や定義、種類などは、本実施形態において一例として示したものであり、本実施形態に示されるものに限定されるものではない。 It should be noted that the names, definitions, types, etc. of the conditional parameters, options, values, evaluation indices, etc. displayed on the analysis screens shown in the drawings are shown as examples in the present embodiment. It is not limited to what is shown.
本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。さらにまた、請求項の各構成要素において、構成要素を分割して表現した場合、或いは複数を合わせて表現した場合、或いはこれらを組み合わせて表現した場合であっても本発明の範疇である。また、複数の実施形態を組み合わせてもよく、この組み合わせで構成される実施例も発明の範疇である。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof. Furthermore, in each constituent element of the claims, even if the constituent element is divided and expressed, a plurality of constituent elements are expressed together, or a combination of these is expressed, it is within the scope of the present invention. Moreover, a plurality of embodiments may be combined, and examples configured by such combinations are also within the scope of the invention.
また、図面は、説明をより明確にするため、実際の態様に比べて、各部の幅、厚さ、形状等について模式的に表される場合がある。ブロック図においては、結線されていないブロック間もしくは、結線されていても矢印が示されていない方向に対してもデータや信号のやり取りを行う場合もある。フローチャートに示す処理は、ICチップ、デジタル信号処理プロセッサ(Digital Signal ProcessorまたはDSP)などのハードウェアもしくはマイクロコンピュータを含めたコンピュータなどで動作させるソフトウェア(プログラムなど)またはハードウェアとソフトウェアの組み合わせによって実現してもよい。また請求項を制御ロジックとして表現した場合、コンピュータを実行させるインストラクションを含むプログラムとして表現した場合、及び前記インストラクションを記載したコンピュータ読み取り可能な記録媒体として表現した場合でも本発明の装置を適用したものである。また、使用している名称や用語についても限定されるものではなく、他の表現であっても実質的に同一内容、同趣旨であれば、本発明に含まれるものである。 Also, in order to make the description clearer, the drawings may schematically show the width, thickness, shape, etc. of each part compared to the actual mode. In the block diagram, data and signals may be exchanged between unconnected blocks, or between connected blocks in directions not indicated by arrows. The processes shown in the flowcharts are implemented by hardware such as IC chips and digital signal processors (DSP), software (such as programs) operated by computers including microcomputers, or a combination of hardware and software. may In addition, when the claims are expressed as control logic, when expressed as a program including instructions to be executed by a computer, and when expressed as a computer-readable recording medium in which the instructions are written, the apparatus of the present invention is applied. be. Also, the names and terms used are not limited, and other expressions are included in the present invention as long as they have substantially the same content and the same meaning.
1…映像解析装置、11…映像入力部、12…画角取得部、13…検出用NN選択部、14…記憶部、15…画像認識部、16…結果出力部、141…テーブル、142…NNモデルパラメータ、151…特徴検出部、152…領域計算部。
DESCRIPTION OF SYMBOLS 1...
Claims (8)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022022167A JP2023119326A (en) | 2022-02-16 | 2022-02-16 | Video image analysis apparatus and video image analysis method |
PCT/CN2022/120835 WO2023155433A1 (en) | 2022-02-16 | 2022-09-23 | Video image analysis apparatus and video analysis method |
CN202280007640.8A CN116806347A (en) | 2022-02-16 | 2022-09-23 | Video analysis device and video analysis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022022167A JP2023119326A (en) | 2022-02-16 | 2022-02-16 | Video image analysis apparatus and video image analysis method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023119326A true JP2023119326A (en) | 2023-08-28 |
Family
ID=87577422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022022167A Pending JP2023119326A (en) | 2022-02-16 | 2022-02-16 | Video image analysis apparatus and video image analysis method |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2023119326A (en) |
CN (1) | CN116806347A (en) |
WO (1) | WO2023155433A1 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101807256B (en) * | 2010-03-29 | 2013-03-20 | 天津大学 | Object identification detection method based on multiresolution frame |
US8406470B2 (en) * | 2011-04-19 | 2013-03-26 | Mitsubishi Electric Research Laboratories, Inc. | Object detection in depth images |
JP5743742B2 (en) * | 2011-06-23 | 2015-07-01 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
CN112602091A (en) * | 2018-07-30 | 2021-04-02 | 优创半导体科技有限公司 | Object detection using multiple neural networks trained for different image fields |
CN110348531B (en) * | 2019-07-17 | 2022-12-30 | 沈阳亚视深蓝智能科技有限公司 | Deep convolution neural network construction method with resolution adaptability and application |
CN112884803B (en) * | 2020-08-18 | 2023-11-24 | 眸芯科技(上海)有限公司 | Real-time intelligent monitoring target detection method and device based on DSP |
-
2022
- 2022-02-16 JP JP2022022167A patent/JP2023119326A/en active Pending
- 2022-09-23 CN CN202280007640.8A patent/CN116806347A/en active Pending
- 2022-09-23 WO PCT/CN2022/120835 patent/WO2023155433A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2023155433A1 (en) | 2023-08-24 |
CN116806347A (en) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110378900B (en) | Method, device and system for detecting product defects | |
JP7004145B2 (en) | Defect inspection equipment, defect inspection methods, and their programs | |
US11176650B2 (en) | Data generation apparatus, data generation method, and data generation program | |
KR20230124713A (en) | Fault detection methods, devices and systems | |
US8145005B2 (en) | Method for discriminating textures regions and homogeneous or flat regions in an image and methods for estimating noise in an image sequence | |
JP5956814B2 (en) | Appearance inspection apparatus, appearance inspection method, and computer program | |
US20220375215A1 (en) | Image analysis and processing pipeline with real-time feedback and autocapture capabilities, and visualization and configuration system | |
US20210272272A1 (en) | Inspection support apparatus, inspection support method, and inspection support program for concrete structure | |
CN108156452B (en) | Method, device and equipment for detecting sensor and storage medium | |
CN110334768B (en) | Refrigerator display detection method and system and electronic equipment | |
US5208870A (en) | Image inspection methods and apparatus | |
CN113807378A (en) | Training data increment method, electronic device and computer readable recording medium | |
US20200219269A1 (en) | Image processing apparatus and method, and image processing system | |
JP2023119326A (en) | Video image analysis apparatus and video image analysis method | |
JP2020204835A (en) | Information processing apparatus, system, information processing method and program | |
US10631050B2 (en) | Determining and correlating visual context on a user device with user behavior using digital content on the user device | |
US11308342B2 (en) | Information processing apparatus, control method, and storage medium | |
US11244443B2 (en) | Examination apparatus, examination method, recording medium storing an examination program, learning apparatus, learning method, and recording medium storing a learning program | |
Perez-Daniel et al. | Rotten fruit detection using a one stage object detector | |
Le et al. | Statistical detector of resampled tiff images | |
JP4494424B2 (en) | Program and inspection device | |
US20230005120A1 (en) | Computer and Visual Inspection Method | |
EP3859667A1 (en) | Calculation program, calculation method, and calculation apparatus | |
EP1840823A1 (en) | Method for discriminating textures regions and homogeneous or flat regions in an image | |
KR102323602B1 (en) | Apparatus for outputting security image and method for the same |