JP7323841B1 - Abnormality detection method, abnormality detection system and program - Google Patents

Abnormality detection method, abnormality detection system and program Download PDF

Info

Publication number
JP7323841B1
JP7323841B1 JP2022192334A JP2022192334A JP7323841B1 JP 7323841 B1 JP7323841 B1 JP 7323841B1 JP 2022192334 A JP2022192334 A JP 2022192334A JP 2022192334 A JP2022192334 A JP 2022192334A JP 7323841 B1 JP7323841 B1 JP 7323841B1
Authority
JP
Japan
Prior art keywords
image
learning
abnormality
target
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022192334A
Other languages
Japanese (ja)
Other versions
JP2024079411A (en
Inventor
山下聖悟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2022192334A priority Critical patent/JP7323841B1/en
Application granted granted Critical
Publication of JP7323841B1 publication Critical patent/JP7323841B1/en
Publication of JP2024079411A publication Critical patent/JP2024079411A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】 AIモデルによる異常の検出精度の低下を抑制する。【解決手段】一実施形態に係る異常検出方法は、異常検出システムが実行する異常検出方法であって、正常画像を学習することにより画像から異常を検出するように学習された異常検出モデルを利用して、複数の対象画像から異常を検出する検出処理と、前記検出処理により異常が検出されなかった対象画像の中の少なくとも一部を第1再学習用画像として選択する選択処理と、前記第1再学習用画像を前記異常検出モデルに再学習させる再学習処理と、を含む。【選択図】図19An object of the present invention is to suppress deterioration in abnormality detection accuracy by an AI model. An anomaly detection method according to an embodiment is an anomaly detection method performed by an anomaly detection system, which uses an anomaly detection model trained to detect an anomaly from an image by learning a normal image. a detection process for detecting an abnormality from a plurality of target images; a selection process for selecting at least a portion of the target images in which no abnormality is detected by the detection process as a first re-learning image; and re-learning processing for re-learning the anomaly detection model with the 1 re-learning image. [Selection drawing] Fig. 19

Description

本発明は、異常検出方法、異常検出システム及びプログラムに関する。 The present invention relates to an anomaly detection method, an anomaly detection system, and a program.

近年、AIモデルにより画像から異常を検出する技術が広く利用されている。一般に、検出対象となる異常の画像を学習させたAIモデルに異常を検出する対象を撮影した画像を入力すると、AIモデルが画像に含まれる異常を検出する。例えば、引用文献1には、欠陥候補を学習した欠陥候補検出モデルを利用して、金属製品の表面画像から欠陥候補を検出する技術が開示されている。 In recent years, techniques for detecting anomalies from images using AI models have been widely used. In general, when an image of an abnormality to be detected is input to an AI model trained on an image of an abnormality to be detected, the AI model detects an abnormality contained in the image. For example, Patent Literature 1 discloses a technique of detecting defect candidates from a surface image of a metal product using a defect candidate detection model that has learned defect candidates.

特開2022-126620号公報Japanese Patent Application Laid-Open No. 2022-126620

上記従来技術では、異常を検出する対象となる画像の撮影環境が時間に応じて変化したり、異常を検出する対象が時期により外観が変化するもの(野菜など)であったりした場合、AIモデルによる異常の検出精度が経時的に低下するおそれがあった。 In the above-described conventional technology, when the shooting environment of the image for which an abnormality is to be detected changes with time, or when the object for which an abnormality is to be detected changes in appearance depending on the season (vegetables, etc.), the AI model There was a risk that the accuracy of detection of anomalies by the system would decline over time.

本発明は、上記の課題を鑑みてなされたものであり、AIモデルによる異常の検出精度の低下を抑制することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to suppress deterioration in the accuracy of abnormality detection by an AI model.

一実施形態に係る異常検出方法は、異常検出システムが実行する異常検出方法であって、正常画像を学習することにより画像から異常を検出するように学習された異常検出モデルを利用して、複数の対象画像から異常を検出する検出処理と、前記検出処理により異常が検出されなかった対象画像の中の少なくとも一部を第1再学習用画像として選択する選択処理と、前記第1再学習用画像を前記異常検出モデルに再学習させる再学習処理と、を含む。 An anomaly detection method according to an embodiment is an anomaly detection method executed by an anomaly detection system, wherein a plurality of A detection process for detecting an abnormality from the target image of, a selection process for selecting at least a part of the target image in which an abnormality was not detected by the detection process as a first relearning image, and the first relearning for and a retraining process for retraining images to the anomaly detection model.

一実施形態によれば、AIモデルによる異常の検出精度の低下を抑制することができる。 According to one embodiment, it is possible to suppress deterioration in the accuracy of abnormality detection by an AI model.

異常検出システム1000の構成の一例を示す図である。1 is a diagram showing an example of the configuration of an anomaly detection system 1000; FIG. 情報処理装置100のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of information processing apparatus 100; FIG. 異常検出装置1の機能構成の一例を示す図である。1 is a diagram showing an example of a functional configuration of an abnormality detection device 1; FIG. 対象画像情報121の一例を示す図である。4 is a diagram showing an example of target image information 121. FIG. 対象画像imの一例を示す図である。FIG. 4 is a diagram showing an example of a target image im; 第1学習用画像情報1221の一例を示す図である。FIG. 12 is a diagram showing an example of first learning image information 1221. FIG. 第1学習用画像imL1の一例を示す図である。It is a figure which shows an example of 1st image imL1 for learning. 第2学習用画像情報1222の一例を示す図である。FIG. 12 is a diagram showing an example of second learning image information 1222. FIG. 第2学習用画像imL2の一例を示す図である。FIG. 11 is a diagram showing an example of a second learning image imL2; 第1再学習用画像情報1231の一例を示す図である。FIG. 12 is a diagram showing an example of first relearning image information 1231. FIG. 第1再学習用画像imrL1の一例を示す図である。It is a figure which shows an example of the 1st re-learning image imrL1. 第2再学習用画像情報1232の一例を示す図である。FIG. 12 is a diagram showing an example of second relearning image information 1232. FIG. 第2再学習用画像imrL2の一例を示す図である。It is a figure which shows an example of the image imrL2 for 2nd relearning. 検出結果情報126の一例を示す図である。FIG. 11 is a diagram showing an example of detection result information 126; 学習処理の一例を示すフローチャートである。6 is a flowchart showing an example of learning processing; 選択画面の一例を示す図である。It is a figure which shows an example of a selection screen. 選択画面の一例を示す図である。It is a figure which shows an example of a selection screen. 選択画面の一例を示す図である。It is a figure which shows an example of a selection screen. 異常検出処理の一例を示すフローチャートである。5 is a flowchart showing an example of anomaly detection processing; クロッピング方法の一例を示す図である。FIG. 4 is a diagram showing an example of a cropping method;

以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。 Hereinafter, each embodiment of the present invention will be described with reference to the accompanying drawings. Regarding the descriptions of the specifications and drawings according to each embodiment, components having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description.

<システム構成>
まず、本実施形態に係る異常検出システム1000の概要について説明する。本実施形態に係る異常検出システム1000は、AIモデルを利用して、対象画像imから異常を検出する情報処理システムである。
<System configuration>
First, an outline of an abnormality detection system 1000 according to this embodiment will be described. An anomaly detection system 1000 according to this embodiment is an information processing system that detects an anomaly from a target image im using an AI model.

対象画像imは、異常検出対象tを撮影した画像である。異常検出対象tは、異常を検出する対象となる任意の物体である。異常は、欠陥、不良、異物などの、異常検出対象tの正常な状態とは異なる任意の状態又は物体である。情報処理システムは、ネットワークを介して接続された複数の情報処理装置からなるシステムである。 The target image im is a captured image of the abnormality detection target t. An anomaly detection target t is an arbitrary object whose anomaly is to be detected. An anomaly is any state or object that is different from the normal state of an anomaly detection target t, such as a defect, defect, or foreign matter. An information processing system is a system composed of a plurality of information processing devices connected via a network.

以下、対象画像imのうち、異常検出対象tが異常を含む画像を異常画像、異常検出対象tが異常を含まない画像を正常画像という。また、異常画像に含まれる異常の部分をクロッピングした(切り出した)画像を異常部分画像という。 Hereinafter, among the target images im, an image that includes an abnormality in the abnormality detection target t is referred to as an abnormal image, and an image that does not include an abnormality in the abnormality detection target t is referred to as a normal image. An image obtained by cropping (cutting out) an abnormal portion included in an abnormal image is called an abnormal partial image.

異常検出システム1000は、監視カメラの映像からの異常検出、工場に設置されたベルトコンベアの映像からの異常検出、製品の外観検査のために撮影された画像からの異常検出など、任意の画像からの異常検出に利用できる。 The anomaly detection system 1000 detects anomalies from images of surveillance cameras, anomalies from images of belt conveyors installed in factories, anomalies from images taken for visual inspection of products, etc. can be used for anomaly detection.

異常検出システム1000は、正常画像を学習させることにより、異常を検出するAIモデルを学習させる。また、異常検出システム1000は、所定のタイミングでAIモデルに新たな正常画像を再学習させる。これにより、異常検出システム1000は、異常検出対象tや撮影環境の経時的な変化に起因するAIモデルの異常の検出精度の経時的な低下を抑制することができる。 The anomaly detection system 1000 learns an AI model for detecting an anomaly by learning normal images. In addition, the anomaly detection system 1000 causes the AI model to re-learn new normal images at a predetermined timing. As a result, the abnormality detection system 1000 can suppress temporal deterioration in the abnormality detection accuracy of the AI model due to temporal changes in the abnormality detection target t and the imaging environment.

したがって、異常検出システム1000は、異常検出対象tや撮影環境が経時的に変化する場合に、好適に利用することができる。例えば、異常検出対象tが経時的に変化する場合として、異常検出対象tが野菜、果物、鮮魚、精肉などの生鮮食品である場合が挙げられる。また、撮影環境が経時的に変化する場合として、撮影環境が屋外であったり、日照のある屋内であったりする場合が挙げられる。 Therefore, the abnormality detection system 1000 can be suitably used when the abnormality detection target t and the shooting environment change over time. For example, when the abnormality detection target t changes over time, the abnormality detection target t may be perishable foods such as vegetables, fruits, fresh fish, and meat. Further, examples of the case where the shooting environment changes over time include the case where the shooting environment is outdoors or indoors with sunlight.

図1は、異常検出システム1000の構成の一例を示す図である。図1に示すように、異常検出システム1000は、ネットワークNを介して相互に通信可能に接続された、異常検出装置1と、ユーザ端末2と、撮影装置3と、を備える。ネットワークNは、例えば、有線LAN(Local Area Network)、無線LAN、インターネット、公衆回線網、モバイルデータ通信網、又はこれらの組み合わせである。図1の例では、異常検出システム1000は、異常検出装置1、ユーザ端末2及び撮影装置3をそれぞれ1つずつ備えるが、それぞれ複数備えてもよい。 FIG. 1 is a diagram showing an example of the configuration of an anomaly detection system 1000. As shown in FIG. As shown in FIG. 1, the anomaly detection system 1000 includes an anomaly detection device 1, a user terminal 2, and a photographing device 3, which are connected via a network N so as to be able to communicate with each other. The network N is, for example, a wired LAN (Local Area Network), a wireless LAN, the Internet, a public line network, a mobile data communication network, or a combination thereof. In the example of FIG. 1, the abnormality detection system 1000 includes one each of the abnormality detection device 1, the user terminal 2, and the imaging device 3, but may include a plurality of each.

異常検出装置1は、対象画像imから異常を検出する情報処理装置である。異常検出装置1は、例えば、PC(Personal Computer)、スマートフォン、タブレット端末、サーバ装置、又はマイクロコンピューであるが、これに限られない。異常検出装置1について、詳しくは後述する。 The anomaly detection device 1 is an information processing device that detects an anomaly from a target image im. The abnormality detection device 1 is, for example, a PC (Personal Computer), a smart phone, a tablet terminal, a server device, or a microcomputer, but is not limited thereto. Details of the abnormality detection device 1 will be described later.

ユーザ端末2は、異常検出システム1000のユーザが利用する情報処理装置である。ユーザ端末2は、例えば、PC、スマートフォン、タブレット端末、サーバ装置、又はマイクロコンピューであるが、これに限られない。ユーザ端末2は、撮影装置3と有線又は
無線により接続され、撮影装置3から対象画像imを受信し、ネットワークNを介して、対象画像imを異常検出装置1に送信する。ユーザ端末2は、撮影装置3とネットワークNを介して接続されてもよい。また、ユーザ端末2は、ネットワークNや記録メディアから対象画像imを取得し、対象画像imを異常検出装置1に送信してもよい。また、ユーザは、ユーザ端末2を操作して、正常画像及び異常画像のアノテーションや、異常部分画像のクリッピングなどを行ってもよい。
The user terminal 2 is an information processing device used by the user of the anomaly detection system 1000 . The user terminal 2 is, for example, a PC, smart phone, tablet terminal, server device, or microcomputer, but is not limited thereto. The user terminal 2 is wired or wirelessly connected to the imaging device 3 , receives the target image im from the imaging device 3 , and transmits the target image im to the abnormality detection device 1 via the network N. The user terminal 2 may be connected to the imaging device 3 via the network N. Also, the user terminal 2 may acquire the target image im from the network N or a recording medium and transmit the target image im to the abnormality detection device 1 . Also, the user may operate the user terminal 2 to annotate normal images and abnormal images, clip abnormal partial images, and the like.

撮影装置3は、異常検出対象tを撮影する情報処理装置である。撮影装置3は、デジタルカメラ、監視カメラ、スマートフォン、又はAIカメラであるが、これに限られない。撮影装置3は、異常検出対象tを撮影した対象画像imをユーザ端末2に送信する。図1の例では、ベルトコンベアで搬送されるじゃがいも(異常検出対象t)を、固定して設置された撮影装置3で撮影する場合を想定しているが、異常検出対象tも撮影装置3もこれに限られない。 The photographing device 3 is an information processing device that photographs an abnormality detection target t. The imaging device 3 is a digital camera, a surveillance camera, a smart phone, or an AI camera, but is not limited to this. The imaging device 3 transmits to the user terminal 2 a target image im obtained by capturing an abnormality detection target t. In the example of FIG. 1, it is assumed that a potato (abnormality detection target t) conveyed by a belt conveyor is photographed by an imaging device 3 that is fixedly installed. It is not limited to this.

<情報処理装置のハードウェア構成>
次に、情報処理装置100のハードウェア構成について説明する。図2は、情報処理装置100のハードウェア構成の一例を示す図である。図2に示すように、情報処理装置100は、バスBを介して相互に接続された、プロセッサ101と、メモリ102と、ストレージ103と、通信I/F104と、入出力I/F105と、ドライブ装置106と、を備える。
<Hardware Configuration of Information Processing Device>
Next, the hardware configuration of the information processing device 100 will be described. FIG. 2 is a diagram showing an example of the hardware configuration of the information processing apparatus 100. As shown in FIG. As shown in FIG. 2, the information processing apparatus 100 includes a processor 101, a memory 102, a storage 103, a communication I/F 104, an input/output I/F 105, and drives, which are interconnected via a bus B. a device 106;

プロセッサ101は、ストレージ103に記憶されたOS(Operating System)を含む各種のプログラムをメモリ102に展開して実行することにより、情報処理装置100の各構成を制御し、情報処理装置100の機能を実現する。プロセッサ101は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、又はこれらの組み合わせである。 The processor 101 expands various programs including an OS (Operating System) stored in the storage 103 into the memory 102 and executes them, thereby controlling each configuration of the information processing apparatus 100 and executing the functions of the information processing apparatus 100 . come true. The processor 101 is, for example, a CPU (Central Processing Unit), MPU (Micro Processing Unit), GPU (Graphics Processing Unit), ASIC (Application Specific Integrated Circuit), DSP (Digital Signal Processor), or a combination thereof.

メモリ102は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、又はこれらの組み合わせである。ROMは、例えば、PROM(Programmable ROM)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、又はこれらの組み合わせである。RAMは、例えば、DRAM(Dynamic RAM)、SRAM(Static RAM)、又はこれらの組み合わせである。 The memory 102 is, for example, ROM (Read Only Memory), RAM (Random Access Memory), or a combination thereof. ROM is, for example, PROM (Programmable ROM), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), or a combination thereof. RAM is, for example, DRAM (Dynamic RAM), SRAM (Static RAM), or a combination thereof.

ストレージ103は、OSを含む各種のプログラム及びデータを記憶する。ストレージ103は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SCM(Storage Class Memories)、又はこれらの組み合わせである。 The storage 103 stores various programs including an OS and data. The storage 103 is, for example, flash memory, HDD (Hard Disk Drive), SSD (Solid State Drive), SCM (Storage Class Memories), or a combination thereof.

通信I/F104は、情報処理装置100を、ネットワークNを介して外部装置に接続し、通信を制御するためのインタフェースである。通信I/F104は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)、Ethernet(登録商標)、又は光通信に準拠したアダプタであるが、これに限られない。 The communication I/F 104 is an interface for connecting the information processing device 100 to an external device via the network N and controlling communication. The communication I/F 104 is, for example, Bluetooth (registered trademark), Wi-Fi (registered trademark), ZigBee (registered trademark), Ethernet (registered trademark), or an adapter conforming to optical communication, but is not limited thereto. .

入出力I/F105は、情報処理装置100に入力装置107及び出力装置108を接続するためのインタフェースである。入力装置107は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、カメラ、各種センサ、操作ボタン、又はこれらの組み合わせである。出力装置108は、例えば、ディスプレイ、プロジェクタ、プリンタ、スピーカ、バイブレータ、又はこれらの組み合わせである。 The input/output I/F 105 is an interface for connecting the input device 107 and the output device 108 to the information processing apparatus 100 . The input device 107 is, for example, a mouse, keyboard, touch panel, microphone, scanner, camera, various sensors, operation buttons, or a combination thereof. Output device 108 is, for example, a display, projector, printer, speaker, vibrator, or a combination thereof.

ドライブ装置106は、記録メディア109のデータを読み書きする。ドライブ装置106は、例えば、磁気ディスクドライブ、光学ディスクドライブ、光磁気ディスクドライブ又はSDカードリーダである。記録メディア109は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、FD(Floppy Disk)、MO(Magneto-Optical disk)、BD(Blu-ray(登録商標) Disc)、USB(登録商標)メモリ、SDカード、又はこれらの組み合わせである。 The drive device 106 reads and writes data on the recording medium 109 . Drive device 106 is, for example, a magnetic disk drive, an optical disk drive, a magneto-optical disk drive, or an SD card reader. The recording media 109 are, for example, CD (Compact Disc), DVD (Digital Versatile Disc), FD (Floppy Disk), MO (Magneto-Optical disk), BD (Blu-ray (registered trademark) Disc), USB (registered trademark). ) memory, SD card, or a combination thereof.

なお、本実施形態において、プログラムは、情報処理装置100の製造段階でメモリ102又はストレージ103に書き込まれてもよいし、ネットワークNを介して情報処理装置100に提供されてもよいし、記録メディア109などの非一時的でコンピュータ読み取り可能な記録媒体を介して情報処理装置100に提供されてもよい。 In this embodiment, the program may be written in the memory 102 or the storage 103 at the manufacturing stage of the information processing device 100, may be provided to the information processing device 100 via the network N, or may be stored in a recording medium. 109 or other non-transitory computer-readable recording medium.

<機能構成>
次に、異常検出装置1の機能構成について説明する。図3は、異常検出装置1の機能構成の一例を示す図である。図3に示すように、異常検出装置1は、通信部11と、記憶部12と、制御部13と、を備える。
<Functional configuration>
Next, the functional configuration of the abnormality detection device 1 will be described. FIG. 3 is a diagram showing an example of the functional configuration of the abnormality detection device 1. As shown in FIG. As shown in FIG. 3 , the abnormality detection device 1 includes a communication section 11 , a storage section 12 and a control section 13 .

通信部11は、通信I/F104により実現される。通信部11は、ネットワークNを介して、ユーザ端末2との間で情報の送受信を行う。また、通信部11は、有線又は無線により、撮影装置3から対象画像imを受信する。 Communication unit 11 is implemented by communication I/F 104 . The communication unit 11 transmits and receives information to and from the user terminal 2 via the network N. FIG. Also, the communication unit 11 receives the target image im from the imaging device 3 by wire or wirelessly.

記憶部12は、メモリ102及びストレージ103により実現される。記憶部12は、対象画像情報121と、学習用画像情報122と、再学習用画像情報123と、異常検出モデル124と、異常分類モデル125と、検出結果情報126と、を記憶する。 The storage unit 12 is implemented by the memory 102 and storage 103 . The storage unit 12 stores target image information 121 , learning image information 122 , relearning image information 123 , anomaly detection model 124 , anomaly classification model 125 , and detection result information 126 .

対象画像情報121は、対象画像imに関する情報である。 The target image information 121 is information about the target image im.

図4は、対象画像情報121の一例を示す図である。図4の対象画像情報121は、情報項目として、「対象画像ID」と、「撮影日時」と、「画像データ」と、を含む。 FIG. 4 is a diagram showing an example of the target image information 121. As shown in FIG. The target image information 121 in FIG. 4 includes “target image ID”, “shooting date and time”, and “image data” as information items.

「対象画像ID」は、対象画像imの識別情報である。以下では、「対象画像ID」が「imXXX」である対象画像imを、対象画像imXXXと称する。 “Target image ID” is identification information of the target image im. Below, the target image im whose "target image ID" is "imXXX" is referred to as target image imXXX.

「撮影日時」は、対象画像imを撮影装置3が撮影した日時である。図4の例では、対象画像im001の「撮影日時」は「2022/8/22 15:00:54」である。これは、対象画像im001が2022/8/22の15:00:54に撮影されたことを示している。 “Photographing date and time” is the date and time when the target image im was captured by the imaging device 3 . In the example of FIG. 4, the "shooting date and time" of the target image im001 is "2022/8/22 15:00:54". This indicates that the target image im001 was captured at 15:00:54 on 8/22/2022.

「画像データ」は、対象画像imの画像データである。図4の例では、対象画像im001の「画像データ」は「im001.png」である。これは、対象画像im001の画像データのファイル名がim001.pngであることを示している。 "Image data" is image data of the target image im. In the example of FIG. 4, the "image data" of the target image im001 is "im001.png". This is because the file name of the image data of the target image im001 is im001. png.

なお、対象画像情報121は、図4の例に限られない。対象画像情報121は、上記の情報項目の一部を含まなくてもよいし、上記以外の情報項目を含んでもよい。例えば、対象画像情報121は、対象画像imを撮影した撮影装置3に関する情報や、その撮影環境に関する情報を含んでもよい。 Note that the target image information 121 is not limited to the example in FIG. The target image information 121 may not include some of the above information items, or may include information items other than the above. For example, the target image information 121 may include information about the imaging device 3 that captured the target image im and information about its imaging environment.

図5は、対象画像imの一例を示す図である。図5の例では、異常検出対象tは、じゃがいもであり、じゃがいもの異常として、芽、傷及び変色を想定している。対象画像im001は、正常な(異常のない)じゃがいもを撮影した正常画像である。対象画像im002は、異常な(芽がある)じゃがいもを撮影した異常画像である。対象画像im003は、異常な(変色がある)じゃがいもを撮影した異常画像である。対象画像情報121には、このように正常画像及び異常画像の対象画像情報121が含まれる。 FIG. 5 is a diagram showing an example of the target image im. In the example of FIG. 5, the abnormality detection target t is a potato, and buds, scratches, and discoloration are assumed as the abnormality of the potato. A target image im001 is a normal image obtained by photographing a normal (abnormal) potato. The target image im002 is an abnormal image of an abnormal potato (with buds). A target image im003 is an abnormal image of an abnormal (discolored) potato. The target image information 121 thus includes the target image information 121 of the normal image and the abnormal image.

学習用画像情報122は、AIモデルに学習させる学習用画像に関する情報である。学習用画像情報122は、第1学習用画像情報1221と、第2学習用画像情報1222と、を含む。 The learning image information 122 is information relating to a learning image for learning by the AI model. The learning image information 122 includes first learning image information 1221 and second learning image information 1222 .

第1学習用画像情報1221は、第1学習用画像imL1に関する情報である。第1学習用画像imL1は、異常検出モデル124に学習させるための学習用画像である。第1学習用画像imL1は、対象画像imの中から選択された正常画像である。 The first learning image information 1221 is information about the first learning image imL1. The first learning image imL1 is a learning image for making the abnormality detection model 124 learn. The first learning image imL1 is a normal image selected from the target images im.

図6は、第1学習用画像情報1221の一例を示す図である。図6の第1学習用画像情報1221は、情報項目として、「第1学習用画像ID」と、「対象画像ID」と、「撮影日時」と、「画像データ」と、を含む。 FIG. 6 is a diagram showing an example of the first learning image information 1221. As shown in FIG. The first learning image information 1221 in FIG. 6 includes “first learning image ID”, “target image ID”, “shooting date and time”, and “image data” as information items.

「第1学習用画像ID」は、第1学習用画像imL1の識別情報である。以下では、「第1学習用画像ID」が「imL1XX」である第1学習用画像imL1を、第1学習用画像imL1XXと称する。 “First learning image ID” is identification information of the first learning image imL1. Hereinafter, the first learning image imL1 whose “first learning image ID” is “imL1XX” will be referred to as a first learning image imL1XX.

「対象画像ID」は、第1学習用画像imL1に対応する対象画像imの識別情報である。図6の例では、第1学習用画像imL101と対象画像im001とが対応する。これは、対象画像im001が第1学習用画像imL1として選択され、「第1学習用画像ID」として「imL101」を割り当てられたことを示している。 The “target image ID” is identification information of the target image im corresponding to the first learning image imL1. In the example of FIG. 6, the first learning image imL101 and the target image im001 correspond. This indicates that the target image im001 has been selected as the first learning image imL1 and has been assigned "imL101" as the "first learning image ID".

「撮影日時」は、第1学習用画像imL1を撮影装置3が撮影した日時を示す情報である。図6の例では、第1学習用画像imL101の「撮影日時」は「2022/8/22 15:00:54」である。これは、第1学習用画像imL1が2022/8/22の15:00:54に撮影されたことを示している。第1学習用画像imL1の撮影日時は、対応する対象画像imの撮影日時と同じである。 “Photographing date and time” is information indicating the date and time when the first learning image imL1 was captured by the imaging device 3 . In the example of FIG. 6, the "shooting date and time" of the first learning image imL101 is "2022/8/22 15:00:54". This indicates that the first learning image imL1 was captured at 15:00:54 on 8/22/2022. The shooting date and time of the first learning image imL1 is the same as the shooting date and time of the corresponding target image im.

「画像データ」は、第1学習用画像imL1の画像データである。図6の例では、第1学習用画像imL101の「画像データ」は「imL101.png」である。これは、第1学習用画像imL101の画像データのファイル名がimL101.pngであることを示している。第1学習用画像imL1の画像自体は、対応する対象画像imと同じである。 “Image data” is image data of the first learning image imL1. In the example of FIG. 6, the "image data" of the first learning image imL101 is "imL101.png". This is because the file name of the image data of the first learning image imL101 is imL101. png. The image itself of the first learning image imL1 is the same as the corresponding target image im.

なお、第1学習用画像情報1221は、図6の例に限られない。第1学習用画像情報1221は、上記の情報項目の一部を含まなくてもよいし、上記以外の情報項目を含んでもよい。例えば、第1学習用画像情報1221は、第1学習用画像imL1を撮影した撮影装置3に関する情報や、その撮影環境に関する情報を含んでもよい。 Note that the first learning image information 1221 is not limited to the example in FIG. The first learning image information 1221 may not include some of the above information items, or may include information items other than the above. For example, the first learning image information 1221 may include information about the imaging device 3 that captured the first learning image imL1 and information about its imaging environment.

図7は、第1学習用画像imL1の一例を示す図である。図7の例では、異常検出対象tは、じゃがいもであり、じゃがいもの異常として、芽、傷及び変色を想定している。第1学習用画像imL101~imL103は、正常な(異常のない)じゃがいもを撮影した正常画像である。第1学習用画像情報1221には、このように複数の正常画像の第1学習用画像情報1221が含まれる。 FIG. 7 is a diagram showing an example of the first learning image imL1. In the example of FIG. 7, the abnormality detection target t is a potato, and buds, scratches, and discoloration are assumed as the abnormality of the potato. The first learning images imL101 to imL103 are normal images of normal (abnormal) potatoes. The first learning image information 1221 thus includes the first learning image information 1221 of a plurality of normal images.

第2学習用画像情報1222は、第2学習用画像imL2に関する情報である。第2学習用画像imL2は、異常分類モデル125に学習させるための学習用画像である。第2学習用画像imL2は、対象画像imの中から選択された異常画像から、異常の部分をクリッピングした異常部分画像である。 The second learning image information 1222 is information about the second learning image imL2. The second learning image imL2 is a learning image for making the abnormality classification model 125 learn. The second learning image imL2 is an abnormal partial image obtained by clipping an abnormal portion from an abnormal image selected from the target image im.

図8は、第2学習用画像情報1222の一例を示す図である。図8の第2学習用画像情報1222は、情報項目として、「第2学習用画像ID」と、「対象画像ID」と、「撮影日時」と、「画像データ」と、「異常種類」と、を含む。 FIG. 8 is a diagram showing an example of the second learning image information 1222. As shown in FIG. The second learning image information 1222 in FIG. 8 includes information items such as “second learning image ID”, “target image ID”, “photographing date and time”, “image data”, and “abnormality type”. ,including.

「第2学習用画像ID」は、第2学習用画像imL2の識別情報である。以下では、「第2学習用画像ID」が「imL2XX」である第2学習用画像imL2を、第2学習用画像imL2XXと称する。 “Second learning image ID” is identification information of the second learning image imL2. The second learning image imL2 whose “second learning image ID” is “imL2XX” is hereinafter referred to as a second learning image imL2XX.

「対象画像ID」は、第2学習用画像imL2に対応する対象画像imの識別情報である。図8の例では、第2学習用画像imL201と対象画像im002とが対応する。これは、対象画像im002が異常画像として選択され、その異常の部分をクリッピングした画像が第2学習用画像imL2であり、「第2学習用画像ID」として「imL201」を割り当てられたことを示している。 “Target image ID” is identification information of the target image im corresponding to the second learning image imL2. In the example of FIG. 8, the second learning image imL201 and the target image im002 correspond. This indicates that the target image im002 is selected as an abnormal image, the image obtained by clipping the abnormal portion is the second learning image imL2, and "imL201" is assigned as the "second learning image ID". ing.

「撮影日時」は、第2学習用画像imL2を撮影装置3が撮影した日時を示す情報である。図8の例では、第2学習用画像imL201の「撮影日時」は「2022/8/22 15:00:55」である。これは、第2学習用画像imL2が2022/8/22の15:00:55に撮影されたことを示している。第2学習用画像imL2の撮影日時は、対応する対象画像imの撮影日時と同じである。 “Photographing date and time” is information indicating the date and time when the imaging device 3 captured the second learning image imL2. In the example of FIG. 8, the "shooting date and time" of the second learning image imL201 is "2022/8/22 15:00:55". This indicates that the second learning image imL2 was captured at 15:00:55 on 8/22/2022. The shooting date and time of the second learning image imL2 is the same as the shooting date and time of the corresponding target image im.

「画像データ」は、第2学習用画像imL2の画像データである。図8の例では、第2学習用画像imL201の「画像データ」は「imL201.png」である。これは、第2学習用画像imL201の画像データのファイル名がimL201.pngであることを示している。第2学習用画像imL2の画像自体は、対応する対象画像imの異常部分と同じである。 “Image data” is image data of the second learning image imL2. In the example of FIG. 8, the "image data" of the second learning image imL201 is "imL201.png". This is because the file name of the image data of the second learning image imL201 is imL201. png. The image itself of the second learning image imL2 is the same as the abnormal portion of the corresponding target image im.

「異常種類」は、第2学習用画像imL2に含まれる異常の種類を示す情報である。図8の例では、第2学習用画像imL201の「異常種類」は「芽」である。これは、第2学習用画像imL201が、じゃがいもの芽の部分を撮影した画像であることを示している。 “Abnormality type” is information indicating the type of abnormality included in the second learning image imL2. In the example of FIG. 8, the "abnormal type" of the second learning image imL201 is "bud". This indicates that the second learning image imL201 is an image of a sprout of a potato.

なお、第2学習用画像情報1222は、図8の例に限られない。第2学習用画像情報1222は、上記の情報項目の一部を含まなくてもよいし、上記以外の情報項目を含んでもよい。例えば、第2学習用画像情報1222は、第2学習用画像imL2を撮影した撮影装置3に関する情報や、その撮影環境に関する情報を含んでもよい。 Note that the second learning image information 1222 is not limited to the example in FIG. The second learning image information 1222 may not include some of the above information items, or may include information items other than the above. For example, the second learning image information 1222 may include information about the imaging device 3 that captured the second learning image imL2 and information about its imaging environment.

図9は、第2学習用画像imL2の一例を示す図である。図9の例では、異常検出対象tは、じゃがいもであり、じゃがいもの異常として、芽、傷及び変色を想定している。第2学習用画像imL201は、じゃがいもの芽を撮影した異常部分画像である。第2学習用画像imL202は、じゃがいもの変色した部分を撮影した異常部分画像である。第2学習用画像imL203は、じゃがいもの傷を撮影した異常部分画像である。第2学習用画像情報1222には、このように複数の異常部分画像の第2学習用画像情報1222が含まれる。 FIG. 9 is a diagram showing an example of the second learning image imL2. In the example of FIG. 9, the abnormality detection target t is a potato, and buds, scratches, and discoloration are assumed as the abnormality of the potato. A second learning image imL201 is an abnormal partial image of a sprout of a potato. The second learning image imL202 is an image of an abnormal portion of a discolored portion of the potato. A second learning image imL203 is an abnormal partial image of a potato wound. The second learning image information 1222 thus includes the second learning image information 1222 of a plurality of abnormal partial images.

再学習用画像情報123は、AIモデルに再学習させる再学習用画像に関する情報である。再学習用画像情報123は、第1再学習用画像情報1231と、第2再学習用画像情報1232と、を含む。 The re-learning image information 123 is information related to the re-learning image for re-learning the AI model. The relearning image information 123 includes first relearning image information 1231 and second relearning image information 1232 .

第1再学習用画像情報1231は、第1再学習用画像imrL1に関する情報である。第1再学習用画像imrL1は、異常検出モデル124に再学習させるための再学習用画像である。第1再学習用画像imrL1は、前回の再学習処理(再学習処理がまだ1度も実行されていない場合は学習処理)の実行後に異常検出処理の対象となった対象画像imの中から選択された正常画像である。 The first relearning image information 1231 is information about the first relearning image imrL1. The first re-learning image imrL1 is a re-learning image for causing the abnormality detection model 124 to re-learn. The first re-learning image imrL1 is selected from target images im that have been subjected to anomaly detection processing after the previous re-learning process (learning process if the re-learning process has not been performed even once). normal image.

図10は、第1再学習用画像情報1231の一例を示す図である。図10の第1再学習用画像情報1231は、情報項目として、「第1再学習用画像ID」と、「対象画像ID」と、「撮影日時」と、「画像データ」と、を含む。 FIG. 10 is a diagram showing an example of the first re-learning image information 1231. As shown in FIG. The first relearning image information 1231 in FIG. 10 includes “first relearning image ID”, “target image ID”, “photographing date and time”, and “image data” as information items.

「第1再学習用画像ID」は、第1再学習用画像imrL1の識別情報である。以下では、「第1再学習用画像ID」が「imrL1XX」である第1再学習用画像imrL1を、第1再学習用画像imrL1XXと称する。 “First relearning image ID” is identification information of the first relearning image imrL1. Hereinafter, the first relearning image imrL1 whose “first relearning image ID” is “imrL1XX” is referred to as first relearning image imrL1XX.

「対象画像ID」は、第1再学習用画像imrL1に対応する対象画像imの識別情報である。図10の例では、第1再学習用画像imrL101と対象画像im102とが対応する。これは、対象画像im102が第1再学習用画像imrL1として選択され、「第1再学習用画像ID」として「imrL101」を割り当てられたことを示している。 “Target image ID” is identification information of the target image im corresponding to the first re-learning image imrL1. In the example of FIG. 10, the first relearning image imrL101 and the target image im102 correspond to each other. This indicates that the target image im102 has been selected as the first re-learning image imrL1, and "imrL101" has been assigned as the "first re-learning image ID".

「撮影日時」は、第1再学習用画像imrL1を撮影装置3が撮影した日時を示す情報である。図10の例では、第1再学習用画像imrL101の「撮影日時」は「2022/11/23 13:00:01」である。これは、第1再学習用画像imrL1が2022/11/23の13:00:01に撮影されたことを示している。第1再学習用画像imrL1の撮影日時は、対応する対象画像imの撮影日時と同じである。 “Photographing date and time” is information indicating the date and time when the imaging device 3 captured the first re-learning image imrL1. In the example of FIG. 10, the "shooting date and time" of the first relearning image imrL101 is "2022/11/23 13:00:01". This indicates that the first relearning image imrL1 was captured at 13:00:01 on 2022/11/23. The shooting date and time of the first relearning image imrL1 is the same as the shooting date and time of the corresponding target image im.

「画像データ」は、第1再学習用画像imrL1の画像データである。図10の例では、第1再学習用画像imrL101の「画像データ」は「imrL101.png」である。これは、第1再学習用画像imrL101の画像データのファイル名がimrL101.pngであることを示している。第1再学習用画像imrL1の画像自体は、対応する対象画像imと同じである。 "Image data" is the image data of the first relearning image imrL1. In the example of FIG. 10, the "image data" of the first re-learning image imrL101 is "imrL101.png". This is because the file name of the image data of the first re-learning image imrL101 is imrL101. png. The image itself of the first relearning image imrL1 is the same as the corresponding target image im.

なお、第1再学習用画像情報1231は、図10の例に限られない。第1再学習用画像情報1231は、上記の情報項目の一部を含まなくてもよいし、上記以外の情報項目を含んでもよい。例えば、第1再学習用画像情報1231は、第1再学習用画像imrL1を撮影した撮影装置3に関する情報や、その撮影環境に関する情報を含んでもよい。 Note that the first relearning image information 1231 is not limited to the example in FIG. The first relearning image information 1231 may not include some of the above information items, or may include information items other than the above. For example, the first relearning image information 1231 may include information about the imaging device 3 that captured the first relearning image imrL1 and information about its imaging environment.

図11は、第1再学習用画像imrL1の一例を示す図である。図11の例では、異常検出対象tは、じゃがいもであり、じゃがいもの異常として、芽、傷及び変色を想定している。第1再学習用画像imrL101~imrL103は、正常な(異常のない)じゃがいもを撮影した正常画像である。第1再学習用画像情報1231には、このように複数の正常画像の第1再学習用画像情報1231が含まれる。 FIG. 11 is a diagram showing an example of the first relearning image imrL1. In the example of FIG. 11, the abnormality detection target t is a potato, and buds, scratches, and discoloration are assumed as the abnormality of the potato. The first relearning images imrL101 to imrL103 are normal images of normal (abnormal) potatoes. The first relearning image information 1231 thus includes the first relearning image information 1231 of a plurality of normal images.

第2再学習用画像情報1232は、第2再学習用画像imrL2に関する情報である。第2再学習用画像imrL2は、異常分類モデル125に再学習させるための再学習用画像である。第2再学習用画像imrL2は、前回の学習処理又は再学習処理の実行後に異常検出処理の対象となった対象画像imの中から選択された異常画像から、異常の部分をクリッピングした異常部分画像である。 The second relearning image information 1232 is information about the second relearning image imrL2. The second re-learning image imrL2 is a re-learning image for causing the abnormality classification model 125 to re-learn. The second re-learning image imrL2 is an abnormal partial image obtained by clipping an abnormal portion from an abnormal image selected from the target image im that is the target of the abnormality detection process after the previous learning process or re-learning process is executed. is.

図12は、第2再学習用画像情報1232の一例を示す図である。図12の第2再学習用画像情報1232は、情報項目として、「第2再学習用画像ID」と、「対象画像ID」と、「撮影日時」と、「画像データ」と、「異常種類」と、を含む。 FIG. 12 is a diagram showing an example of the second relearning image information 1232. As shown in FIG. The second relearning image information 1232 in FIG. 12 includes information items of “second relearning image ID”, “target image ID”, “photographing date and time”, “image data”, and “abnormality type”. ", including.

「第2再学習用画像ID」は、第2再学習用画像imrL2の識別情報である。以下では、「第2再学習用画像ID」が「imrL2XX」である第2再学習用画像imrL2を、第2再学習用画像imrL2XXと称する。 “Second relearning image ID” is identification information of the second relearning image imrL2. Below, the second relearning image imrL2 whose “second relearning image ID” is “imrL2XX” is referred to as a second relearning image imrL2XX.

「対象画像ID」は、第2再学習用画像imrL2に対応する対象画像imの識別情報である。図12の例では、第2再学習用画像imrL201と対象画像im101とが対応する。これは、対象画像im101が異常画像として選択され、その異常の部分をクリッピングした画像が第2再学習用画像imrL2であり、「第2再学習用画像ID」として「imrL201」を割り当てられたことを示している。 “Target image ID” is identification information of the target image im corresponding to the second re-learning image imrL2. In the example of FIG. 12, the second relearning image imrL201 and the target image im101 correspond. This is because the target image im101 is selected as an abnormal image, the image obtained by clipping the abnormal portion is the second re-learning image imrL2, and "imrL201" is assigned as the "second re-learning image ID". is shown.

「撮影日時」は、第2再学習用画像imrL2を撮影装置3が撮影した日時を示す情報である。図12の例では、第2再学習用画像imrL201の「撮影日時」は「2022/11/23 13:00:00」である。これは、第2再学習用画像imrL2が2022/11/23の13:00:00に撮影されたことを示している。第2再学習用画像imrL2の撮影日時は、対応する対象画像imの撮影日時と同じである。 “Photographing date and time” is information indicating the date and time when the imaging device 3 captured the second relearning image imrL2. In the example of FIG. 12, the “picture date and time” of the second relearning image imrL201 is “2022/11/23 13:00:00”. This indicates that the second re-learning image imrL2 was captured at 13:00:00 on 2022/11/23. The shooting date and time of the second relearning image imrL2 is the same as the shooting date and time of the corresponding target image im.

「画像データ」は、第2再学習用画像imrL2の画像データである。図12の例では、第2再学習用画像imrL201の「画像データ」は「imrL201.png」である。これは、第2再学習用画像imrL201の画像データのファイル名がimrL201.pngであることを示している。第2再学習用画像imrL2の画像自体は、対応する対象画像imの異常部分と同じである。 "Image data" is the image data of the second relearning image imrL2. In the example of FIG. 12, the "image data" of the second re-learning image imrL201 is "imrL201.png". This is because the file name of the image data of the second re-learning image imrL201 is imrL201. png. The image itself of the second relearning image imrL2 is the same as the abnormal portion of the corresponding target image im.

「異常種類」は、第2再学習用画像imrL2に含まれる異常の種類を示す情報である。図12の例では、第2再学習用画像imrL201の「異常種類」は「変色」である。これは、第2再学習用画像imrL201が、じゃがいもの変色した部分を撮影した画像であることを示している。 “Abnormality type” is information indicating the type of abnormality included in the second re-learning image imrL2. In the example of FIG. 12, the "abnormal type" of the second re-learning image imrL201 is "discoloration". This indicates that the second re-learning image imrL201 is an image of a discolored portion of the potato.

なお、第2再学習用画像情報1232は、図12の例に限られない。第2再学習用画像情報1232は、上記の情報項目の一部を含まなくてもよいし、上記以外の情報項目を含んでもよい。例えば、第2再学習用画像情報1232は、第2再学習用画像imrL2を撮影した撮影装置3に関する情報や、その撮影環境に関する情報を含んでもよい。 Note that the second relearning image information 1232 is not limited to the example in FIG. 12 . The second relearning image information 1232 may not include some of the above information items, or may include information items other than the above. For example, the second relearning image information 1232 may include information about the imaging device 3 that captured the second relearning image imrL2 and information about its imaging environment.

図13は、第2再学習用画像imrL2の一例を示す図である。図13の例では、異常検出対象tは、じゃがいもであり、じゃがいもの異常として、芽、傷及び変色を想定している。第2再学習用画像imrL201は、じゃがいもの変色した部分を撮影した異常部分画像である。第2再学習用画像imrL202は、じゃがいもの芽の部分を撮影した異常部分画像である。第2再学習用画像imrL203は、じゃがいもの傷を撮影した異常部分画像である。第2再学習用画像情報1232には、このように複数の異常部分画像の第2再学習用画像情報1232が含まれる。 FIG. 13 is a diagram showing an example of the second relearning image imrL2. In the example of FIG. 13, the abnormality detection target t is a potato, and buds, scratches, and discoloration are assumed as the abnormality of the potato. The second relearning image imrL201 is an abnormal partial image obtained by photographing a discolored portion of the potato. The second re-learning image imrL202 is an abnormal partial image of a sprout of a potato. The second re-learning image imrL203 is an abnormal partial image of a potato flaw. The second relearning image information 1232 thus includes the second relearning image information 1232 of a plurality of abnormal partial images.

異常検出モデル124は、正常画像を学習することにより、対象画像imから異常検出対象tの異常を検出するように学習されたAIモデルである。異常検出モデル124は、対象画像imを入力されると、対象画像imに含まれる異常の有無を出力する。異常検出モデル124は、例えば、パッチコア(PatchCore)であるが、これに限られない。パッチコアについて、詳しくは後述する。異常検出モデル124として、正常画像を学習することにより異常を検出可能となる任意のAIモデルを利用できる。 The abnormality detection model 124 is an AI model trained to detect an abnormality in the abnormality detection target t from the target image im by learning normal images. When the target image im is input, the abnormality detection model 124 outputs the presence or absence of an abnormality included in the target image im. The anomaly detection model 124 is, for example, PatchCore, but is not limited to this. More on patch cores later. Any AI model that can detect anomalies by learning normal images can be used as the anomaly detection model 124 .

異常分類モデル125は、異常部分画像を学習することにより、異常部分画像から異常の種類を分類できるように学習されたAIモデルである。異常分類モデル125は、異常部分画像を入力されると、異常部分画像に含まれる異常の種類を出力する。異常分類モデル125は、例えば、CNN(Convolutional Neural Network)であるが、これに限られない。異常分類モデル125として、異常部分画像を学習することにより異常の種類を分類可能となる任意のAIモデルを利用できる。 The abnormality classification model 125 is an AI model trained so as to classify the type of abnormality from the abnormal partial image by learning the abnormal partial image. When the abnormal partial image is input, the abnormality classification model 125 outputs the type of abnormality included in the abnormal partial image. The abnormality classification model 125 is, for example, a CNN (Convolutional Neural Network), but is not limited to this. As the abnormality classification model 125, any AI model that can classify types of abnormality by learning abnormal partial images can be used.

検出結果情報126は、対象画像imに対する異常の検出処理及び分類処理の結果を示す情報である。 The detection result information 126 is information indicating the results of abnormality detection processing and classification processing for the target image im.

図14は、検出結果情報126の一例を示す図である。図14の検出結果情報126は、情報項目として、「対象画像ID」と、「撮影日時」と、「画像データ」と、「異常」と、「異常種類」と、を含む。 FIG. 14 is a diagram showing an example of the detection result information 126. As shown in FIG. The detection result information 126 of FIG. 14 includes “target image ID”, “shooting date and time”, “image data”, “abnormality”, and “abnormality type” as information items.

「対象画像ID」は、異常の検出対象となった対象画像imの識別情報である。 The “target image ID” is identification information of the target image im that is the abnormality detection target.

「撮影日時」は、対象画像imを撮影装置3が撮影した日時を示す情報である。図14の例では、対象画像im101の「撮影日時」は「2022/11/23 13:00:00」である。これは、対象画像im101が2022/11/23の13:00:00に撮影されたことを示している。 “Photographing date and time” is information indicating the date and time when the target image im was captured by the imaging device 3 . In the example of FIG. 14, the "shooting date and time" of the target image im101 is "2022/11/23 13:00:00". This indicates that the target image im101 was captured at 13:00:00 on 2022/11/23.

「画像データ」は、対象画像imの画像データである。図14の例では、対象画像im101の「画像データ」は「im101.png」である。これは、対象画像im101の画像データのファイル名がim101.pngであることを示している。 "Image data" is image data of the target image im. In the example of FIG. 14, the "image data" of the target image im101 is "im101.png". This is because the file name of the image data of the target image im101 is im101. png.

「異常」は、対象画像imに含まれる異常の有無を示す情報である。図14の例では、対象画像im101の「異常」は「有」である。これは、対象画像im101が異常を有する異常検出対象tを撮影した画像であることを示している。 "Abnormality" is information indicating the presence or absence of an abnormality included in the target image im. In the example of FIG. 14, the "abnormality" of the target image im101 is "presence". This indicates that the target image im101 is a photographed image of the abnormality detection target t having an abnormality.

「異常種類」は、対象画像imに含まれる異常の種類を示す情報である。図14の例では、対象画像im101の「異常種類」は「変色」である。これは、対象画像im101が、変色した部分を有する異常検出対象tを撮影した画像であることを示している。 "Abnormality type" is information indicating the type of abnormality included in the target image im. In the example of FIG. 14, the "abnormal type" of the target image im101 is "discoloration". This indicates that the target image im101 is a photographed image of the abnormality detection target t having a discolored portion.

なお、検出結果情報126は、図14の例に限られない。検出結果情報126は、上記の情報項目の一部を含まなくてもよいし、上記以外の情報項目を含んでもよい。例えば、検出結果情報126は、対象画像imを撮影した撮影装置3に関する情報や、その撮影環境に関する情報を含んでもよい。また、図14の例では、検出結果情報126は、対象画像情報121を含むが、対象画像情報121と検出結果情報126とは別個に保存されてもよい。 Note that the detection result information 126 is not limited to the example in FIG. 14 . The detection result information 126 may not include some of the above information items, or may include information items other than the above. For example, the detection result information 126 may include information about the imaging device 3 that captured the target image im and information about its imaging environment. Also, in the example of FIG. 14, the detection result information 126 includes the target image information 121, but the target image information 121 and the detection result information 126 may be stored separately.

制御部13は、プロセッサ101がメモリ102からプログラムを読み出して実行し、他のハードウェア構成と協働することにより実現される。制御部13は、異常検出装置1の動作全体を制御する。制御部13は、取得部131と、学習部132と、検出部133と、分類部134と、選択部135と、再学習部136と、を備える。 The control unit 13 is implemented by the processor 101 reading and executing a program from the memory 102 and cooperating with other hardware configurations. The control unit 13 controls the overall operation of the abnormality detection device 1 . The control unit 13 includes an acquisition unit 131 , a learning unit 132 , a detection unit 133 , a classification unit 134 , a selection unit 135 and a relearning unit 136 .

取得部131は、ユーザ端末2から対象画像imを取得し、対象画像情報121として記憶部12に保存する。 The acquisition unit 131 acquires the target image im from the user terminal 2 and stores it in the storage unit 12 as target image information 121 .

学習部132は、学習用画像をAIモデルに学習させる。具体的には、学習部132は、第1学習用画像imL1を異常検出モデル124に学習させる。また、学習部132は、第2学習用画像imL2を異常分類モデル125に学習させる。 The learning unit 132 causes the AI model to learn the learning images. Specifically, the learning unit 132 causes the abnormality detection model 124 to learn the first learning image imL1. The learning unit 132 also causes the abnormality classification model 125 to learn the second learning image imL2.

検出部133は、異常検出モデル124を利用して、対象画像imに含まれる異常を検出する。具体的には、検出部133は、異常検出モデル124に対象画像imを入力し、異常検出モデル124が出力した異常の有無を、検出結果として取得し、検出結果情報126として記憶部12に保存する。 The detection unit 133 uses the anomaly detection model 124 to detect an anomaly included in the target image im. Specifically, the detection unit 133 inputs the target image im to the abnormality detection model 124 , acquires the presence or absence of an abnormality output by the abnormality detection model 124 as a detection result, and stores it in the storage unit 12 as detection result information 126 . do.

分類部134は、検出部133により対象画像imに異常が検出された場合、異常分類モデル125を利用して、対象画像imに含まれる異常の種類を分類する。具体的には、分類部134は、異常が検出された対象画像imから異常の部分をクリッピングして異常部分画像を生成し、異常分類モデル125に異常部分画像を入力し、異常分類モデル125が出力した異常の種類を、分類結果として取得し、検出結果情報126として記憶部12に保存する。 When the detection unit 133 detects an abnormality in the target image im, the classification unit 134 uses the abnormality classification model 125 to classify the type of abnormality included in the target image im. Specifically, the classification unit 134 generates an abnormal partial image by clipping an abnormal portion from the target image im in which an abnormality is detected, inputs the abnormal partial image to the abnormality classification model 125, and the abnormality classification model 125 The output type of abnormality is acquired as a classification result and stored in the storage unit 12 as the detection result information 126 .

選択部135は、対象画像imの中から、第1学習用画像imL1と、第2学習用画像imL2と、第1再学習用画像imrL1と、第2再学習用画像imrL2と、を選択する。選択部135は、記憶部12に保存された対象画像imの中から自動的に第1学習用画像imL1を選択してもよいし、記憶部12に保存された対象画像imをユーザに提示し、ユーザにより選択された対象画像imを第1学習用画像imL1として選択してもよい。第2学習用画像imL2、第1再学習用画像imrL1及び第2再学習用画像imrL2についても同様である。 The selection unit 135 selects the first learning image imL1, the second learning image imL2, the first relearning image imrL1, and the second relearning image imrL2 from the target images im. The selection unit 135 may automatically select the first learning image imL1 from among the target images im stored in the storage unit 12, or present the target images im stored in the storage unit 12 to the user. , the target image im selected by the user may be selected as the first learning image imL1. The same applies to the second learning image imL2, the first relearning image imrL1, and the second relearning image imrL2.

再学習部136は、再学習用画像をAIモデルに再学習させる。具体的には、再学習部136は、第1再学習用画像imrL1を異常検出モデル124に再学習させる。また、再学習部136は、第2再学習用画像imrL2を異常分類モデル125に再学習させる。 The re-learning unit 136 causes the AI model to re-learn the images for re-learning. Specifically, the re-learning unit 136 causes the abnormality detection model 124 to re-learn the first re-learning image imrL1. In addition, the relearning unit 136 causes the abnormality classification model 125 to relearn the second relearning image imrL2.

なお、異常検出装置1の機能構成は、上記の例に限られない。例えば、異常検出装置1は、上記の機能構成の一部を備え、残りをユーザ端末2が備えてもよい。また、異常検出装置1は、上記以外の機能構成を備えてもよい。また、異常検出装置1の各機能構成は、上記の通り、ソフトウェアにより実現されてもよいし、ICチップ、SoC(System on Chip)、LSI(Large Scale Integration)、マイクロコンピュータ等のハードウェアによって実現されてもよい。 Note that the functional configuration of the abnormality detection device 1 is not limited to the above example. For example, the anomaly detection device 1 may include part of the above functional configuration, and the user terminal 2 may include the rest. Further, the abnormality detection device 1 may have functional configurations other than those described above. In addition, each functional configuration of the abnormality detection device 1 may be realized by software as described above, or by hardware such as an IC chip, SoC (System on Chip), LSI (Large Scale Integration), and microcomputer. may be

<異常検出システム1000が実行する学習処理>
次に、異常検出システム1000が実行する学習処理について説明する。図15は、学習処理の一例を示すフローチャートである。以下では、異常検出システム1000がベルトコンベアで搬送されるじゃがいも(異常検出対象t)の異常を検出する場合を例に説明する。じゃがいもの異常は、芽、傷及び変色の3種類であるものとするが、異常はこれに限られない。
<Learning Processing Executed by Abnormality Detection System 1000>
Next, learning processing executed by the abnormality detection system 1000 will be described. FIG. 15 is a flowchart illustrating an example of learning processing. In the following, an example will be described in which the abnormality detection system 1000 detects an abnormality in a potato (an abnormality detection target t) conveyed by a belt conveyor. Abnormalities of potatoes are assumed to be three types of sprouts, scars, and discoloration, but the abnormalities are not limited to these.

(ステップS101)
まず、ユーザ端末2が、撮影装置3が予め撮影した複数の対象画像imを取得する(ステップS101)。対象画像imは、ベルトコンベアで搬送されるじゃがいもを撮影装置3で撮影した画像である。ここで取得する対象画像imは、正常画像及び異常画像を含む。
(Step S101)
First, the user terminal 2 acquires a plurality of target images im previously captured by the imaging device 3 (step S101). A target image im is an image of a potato conveyed by a belt conveyor, which is captured by the imaging device 3 . The target image im acquired here includes a normal image and an abnormal image.

(ステップS102)
次に、ユーザ端末2は、ユーザからの操作に応じて、対象画像imを選択画面に一覧表示する(ステップS102)。この選択画面は、対象画像imの中から、第1学習用画像imL1及び第2学習用画像imL2を選択するための画面である。ユーザは、選択画面に表示された対象画像imを参照して、これらの中から第1学習用画像imL1及び第2学習用画像imL2を選択する。
(Step S102)
Next, the user terminal 2 displays a list of the target images im on the selection screen according to the user's operation (step S102). This selection screen is a screen for selecting the first learning image imL1 and the second learning image imL2 from among the target images im. The user refers to the target images im displayed on the selection screen and selects the first learning image imL1 and the second learning image imL2 from among them.

図16は、選択画面の一例を示す図である。図16の選択画面は、対象画像領域A1と、操作領域A2と、を有する。 FIG. 16 is a diagram showing an example of a selection screen. The selection screen in FIG. 16 has a target image area A1 and an operation area A2.

対象画像領域A1は、対象画像imを一覧表示する領域である。図16の例では、対象画像im001~im006が表示されている。対象画像im001,im004,im005は正常画像であり、対象画像im002,im003,im006は異常画像である。 The target image area A1 is an area for displaying a list of target images im. In the example of FIG. 16, target images im001 to im006 are displayed. The target images im001, im004, and im005 are normal images, and the target images im002, im003, and im006 are abnormal images.

操作領域A2は、選択画面の操作ボタンを表示する領域である。図16の例では、正常ボタンB1と、異常ボタンB2~B4と、送信ボタンB5と、が表示されている。 The operation area A2 is an area for displaying the operation buttons of the selection screen. In the example of FIG. 16, a normal button B1, abnormal buttons B2 to B4, and a send button B5 are displayed.

正常ボタンB1は、正常画像を選択するためのボタンである。異常ボタンB2は、芽があるじゃがいもの対象画像im(異常画像)を選択するためのボタンである。異常ボタンB3は、傷があるじゃがいもの対象画像im(異常画像)を選択するためのボタンである。異常ボタンB4は、変色があるじゃがいもの対象画像im(異常画像)を選択するためのボタンである。送信ボタンB5は、選択した対象画像imを異常検出装置1に送信するためのボタンである。 The normal button B1 is a button for selecting a normal image. The abnormal button B2 is a button for selecting a target image im (abnormal image) of a potato with sprouts. The abnormal button B3 is a button for selecting a target image im (abnormal image) of a potato with a flaw. The abnormal button B4 is a button for selecting a target image im of discolored potatoes (abnormal image). The send button B5 is a button for sending the selected target image im to the abnormality detection device 1 .

ユーザは、これらのボタンを操作して対象画像imをアノテーションし、第1学習用画像imL1及び第2学習用画像imL2を選択し、異常検出モデル124及び異常分類モデル125にそれぞれ学習させる。 The user operates these buttons to annotate the target image im, select the first learning image imL1 and the second learning image imL2, and make the abnormality detection model 124 and the abnormality classification model 125 learn respectively.

(ステップS103)
選択画面が表示されると、ユーザは、ユーザ端末2を操作して、対象画像領域A1に表示された対象画像imの中から正常画像を第1学習用画像imL1として選択する(ステップS103)。
(Step S103)
When the selection screen is displayed, the user operates the user terminal 2 to select a normal image from among the target images im displayed in the target image area A1 as the first learning image imL1 (step S103).

図17は、選択画面の一例を示す図である。図17の例では、正常ボタンB1が選択された状態で、対象画像im001,im004,im005が選択されている。これは、ユーザが、対象画像im001,im004,im005を正常画像と判断し、第1学習用画像imL1として選択したことを示している。この状態でユーザが送信ボタンB5を選択すると、ユーザ端末2は、対象画像im001,im004,im005を第1学習用画像imL1として異常検出装置1に送信する。 FIG. 17 is a diagram showing an example of the selection screen. In the example of FIG. 17, target images im001, im004, and im005 are selected with the normal button B1 selected. This indicates that the user has determined that the target images im001, im004, and im005 are normal images and has selected them as the first learning image imL1. When the user selects the send button B5 in this state, the user terminal 2 sends the target images im001, im004, and im005 to the abnormality detection device 1 as the first learning image imL1.

(ステップS104)
異常検出装置1の取得部131は、ユーザ端末2が送信した第1学習用画像imL1を取得すると(ステップS104)、取得した第1学習用画像imL1に撮影日時などの情報を対応づけて、学習用画像情報122として記憶部12に保存する(図6参照)。
(Step S104)
When acquiring the first learning image imL1 transmitted by the user terminal 2 (step S104), the acquisition unit 131 of the abnormality detection device 1 associates information such as the shooting date and time with the acquired first learning image imL1 to perform learning. The image information 122 is stored in the storage unit 12 (see FIG. 6).

(ステップS105)
その後、学習部132は、記憶部12に保存された第1学習用画像imL1を異常検出モデル124に学習させる(ステップS105)。
(Step S105)
After that, the learning unit 132 causes the abnormality detection model 124 to learn the first learning image imL1 stored in the storage unit 12 (step S105).

ここで、パッチコアについて説明する。パッチコアは、画像データセット(例えば、ImageNet)を学習済みの画像認識モデル(例えば、ResNet)に正常画像を入力し、得られた中間層の局所的な特徴量(以下「パッチ特徴量」という。)をメモリバンクに保存し、メモリバンクに保存されたパッチ特徴量と、画像認識モデルに対象画像を入力して得られたパッチ特徴量と、の距離に基づいて、対象画像の異常を検出するものである。パッチ特徴量は、画像における位置情報を保持しているため、対象画像のエリアごとに異常の検出が行われる。すなわち、パッチコアでは、対象画像のエリアごとにパッチ特徴量間の距離が算出され、距離が閾値以上であるエリアが、異常のあるエリアとして検出される。パッチ特徴量間の距離は、エリアの異常度に相当し、対象画像上に異常度のヒートマップを表示することができる。 Here, the patch core will be explained. The patch core inputs a normal image to an image recognition model (eg, ResNet) that has already learned an image data set (eg, ImageNet), and obtains a local feature value of the intermediate layer (hereinafter referred to as "patch feature value"). ) is stored in a memory bank, and anomalies in the target image are detected based on the distance between the patch feature stored in the memory bank and the patch feature obtained by inputting the target image into the image recognition model. It is. Since the patch feature value holds position information in the image, abnormality detection is performed for each area of the target image. That is, in the patch core, the distance between the patch feature amounts is calculated for each area of the target image, and areas where the distance is equal to or greater than a threshold value are detected as abnormal areas. The distance between the patch feature amounts corresponds to the degree of abnormality of the area, and a heat map of the degree of abnormality can be displayed on the target image.

異常検出モデル124がパッチコアである場合、まず、学習済みの画像認識モデルを用意する。既存の学習済みの画像認識モデルを用意してもよいし、既存の画像認識モデルに画像データセットを学習させてもよい。次に、複数の第1学習用画像imL1を画像認識モデルに入力し、各第1学習用画像imL1のパッチ特徴量を取得し、メモリバンクに保存する。以上の工程がパッチコアの学習処理に相当し、画像認識モデル及びメモリバンクがパッチコアのAIモデル(異常検出モデル124)に相当する。 When the anomaly detection model 124 is a patch core, first, a trained image recognition model is prepared. An existing trained image recognition model may be prepared, or an existing image recognition model may be trained on the image data set. Next, a plurality of first learning images imL1 are input to the image recognition model, patch feature values of each first learning image imL1 are acquired, and stored in a memory bank. The above process corresponds to the learning process of the patch core, and the image recognition model and memory bank correspond to the AI model (abnormality detection model 124) of the patch core.

学習部132は、こうして得られた学習済みの異常検出モデル124を、記憶部12に保存する。 The learning unit 132 stores the learned anomaly detection model 124 thus obtained in the storage unit 12 .

(ステップS106)
次に、ユーザは、ユーザ端末2を操作して、対象画像領域A1に表示された対象画像imの中から異常画像を異常種類ごとに選択する(ステップS106)。
(Step S106)
Next, the user operates the user terminal 2 to select an abnormal image for each abnormality type from the target image im displayed in the target image area A1 (step S106).

(ステップS107)
そして、ユーザは、選択した異常画像の中の、異常を含む少なくとも一部を、第2学習用画像imL2としてクロッピングする(ステップS107)。
(Step S107)
Then, the user crops at least a portion of the selected abnormal image including the abnormality as a second learning image imL2 (step S107).

図18は、選択画面の一例を示す図である。図18の例では、異常ボタンB2が選択された状態で、対象画像im002が選択され、対象画像im002におけるじゃがいもの芽の部分がクロッピングされている。これは、ユーザが、対象画像im002をじゃがいもに芽がある異常画像と判断し、対象画像im002の芽の部分の画像を、異常種類「芽」の第2学習用画像imL2(異常部分画像)として選択したことを示している。この状態でユーザが送信ボタンB5を選択すると、ユーザ端末2は、対象画像im002のクロッピングされた芽の部分の画像を、第2学習用画像imL2として異常検出装置1に送信する。 FIG. 18 is a diagram showing an example of the selection screen. In the example of FIG. 18, the target image im002 is selected with the abnormality button B2 selected, and the potato sprout portion in the target image im002 is cropped. This is because the user determines that the target image im002 is an abnormal image with sprouts of potatoes, and sets the image of the sprout portion of the target image im002 as the second learning image imL2 (abnormal partial image) of the abnormality type "bud". indicates that you have made a selection. When the user selects the send button B5 in this state, the user terminal 2 sends the image of the cropped bud portion of the target image im002 to the abnormality detection device 1 as the second learning image imL2.

(ステップS108)
異常検出装置1の取得部131は、ユーザ端末2が送信した第2学習用画像imL2を取得すると(ステップS108)、取得した第2学習用画像imL2に撮影日時や異常種類などの情報を対応づけて、学習用画像情報122として記憶部12に保存する(図8参照)。
(Step S108)
When the acquisition unit 131 of the abnormality detection device 1 acquires the second learning image imL2 transmitted by the user terminal 2 (step S108), it associates the acquired second learning image imL2 with information such as the shooting date and time and the type of abnormality. and stored in the storage unit 12 as the learning image information 122 (see FIG. 8).

(ステップS109)
その後、学習部132は、記憶部12に保存された第2学習用画像imL2(異常部分画像)を異常分類モデル125に学習させる(ステップS109)。具体的には、第2学習用画像imL2の第2学習用画像情報1222を利用して、第2学習用画像imL2を入力すると、その異常種類を出力するように、異常分類モデル125に教示有り学習させる。異常の種類が芽、傷及び変色の3種類である場合、異常分類モデル125は、3種類のいずれかを出力する。異常分類モデル125が分類する異常種類の数は、任意に設定可能である。
(Step S109)
After that, the learning unit 132 causes the abnormality classification model 125 to learn the second learning image imL2 (abnormal partial image) stored in the storage unit 12 (step S109). Specifically, when the second learning image imL2 is input using the second learning image information 1222 of the second learning image imL2, the abnormality classification model 125 is instructed to output the abnormality type. let them learn If there are three kinds of abnormalities, sprout, scar, and discoloration, the abnormality classification model 125 outputs one of the three types. The number of types of anomalies classified by the anomaly classification model 125 can be set arbitrarily.

<異常検出システム1000が実行する検出処理>
次に、異常検出システム1000が実行する検出処理について説明する。図19は、検出処理の一例を示すフローチャートである。以下では、異常検出システム1000がベルトコンベアで搬送されるじゃがいも(異常検出対象t)の異常を検出する場合を例に説明する。じゃがいもの異常は、芽、傷及び変色の3種類であるものとするが、異常はこれに限られない。また、記憶部12には、学習用画像を学習済みの異常検出モデル124及び異常分類モデル125が保存されているものとする。また、異常検出モデル124は、パッチコアであるものとする。
<Detection Processing Executed by Abnormality Detection System 1000>
Next, detection processing executed by the abnormality detection system 1000 will be described. FIG. 19 is a flowchart illustrating an example of detection processing. In the following, an example will be described in which the abnormality detection system 1000 detects an abnormality in a potato (an abnormality detection target t) conveyed by a belt conveyor. Abnormalities of potatoes are assumed to be three types of sprouts, scars, and discoloration, but the abnormalities are not limited to these. It is also assumed that the storage unit 12 stores an abnormality detection model 124 and an abnormality classification model 125 that have been trained using images for learning. It is also assumed that the anomaly detection model 124 is a patch core.

(ステップS201)
まず、ユーザ端末2が、撮影装置3から対象画像imを取得し(ステップS201)、異常検出装置1に送信する。対象画像imは、ベルトコンベアで搬送されるじゃがいもを撮影装置3でリアルタイムに撮影した画像である。ここで取得する対象画像imは、正常画像及び異常画像を含む。撮影装置3が1秒ごとに対象画像imを撮影する場合、ユーザ端末2は新たに撮影された対象画像imを1秒ごとに取得し、異常検出装置1に送信する。なお、対象画像imの撮影間隔は任意に設定可能である。
(Step S201)
First, the user terminal 2 acquires the target image im from the imaging device 3 (step S201) and transmits it to the abnormality detection device 1. FIG. The target image im is an image of a potato conveyed by a belt conveyor, which is captured in real time by the imaging device 3 . The target image im acquired here includes a normal image and an abnormal image. When the imaging device 3 captures a target image im every second, the user terminal 2 acquires a new captured target image im every second and transmits it to the abnormality detection device 1 . Note that the shooting interval of the target image im can be arbitrarily set.

(ステップS202)
異常検出装置1の取得部131は、ユーザ端末2が送信した対象画像imを取得すると(ステップS202)、取得した対象画像imに撮影日時などの情報を対応づけて、検出結果情報126として記憶部12に保存する(図14参照)。なお、この時点では、「異常」及び「異常種類」の項目は空欄となる。
(Step S202)
When acquiring the target image im transmitted by the user terminal 2 (step S202), the acquisition unit 131 of the abnormality detection device 1 associates the acquired target image im with information such as the shooting date and time, and stores it as the detection result information 126 in the storage unit. 12 (see FIG. 14). At this point, the items "abnormality" and "abnormality type" are blank.

(ステップS203)
新たな対象画像imが保存されると、検出部133は、異常検出モデル124を利用して、この対象画像imから異常を検出する(ステップS203)。具体的には、検出部133は、パッチコアの画像認識モデルに対象画像imを入力し、この対象画像imのパッチ特徴量を取得する。次に、検出部133は、対象画像imのパッチ特徴量と、メモリバンクに保存されたパッチ特徴量と、の距離を、対象画像imのエリアごとに算出する。そして、検出部133は、パッチ特徴量間の距離が予め設定された閾値以上のエリアが存在する場合、対象画像imに異常があると判定する。すなわち、対象画像imの異常が検出される。距離が閾値以上のエリアが、対象画像imにおける異常の部分に相当する。
(Step S203)
When the new target image im is saved, the detection unit 133 detects an abnormality from this target image im using the abnormality detection model 124 (step S203). Specifically, the detection unit 133 inputs the target image im to the image recognition model of the patch core, and acquires the patch feature amount of the target image im. Next, the detection unit 133 calculates the distance between the patch feature amount of the target image im and the patch feature amount stored in the memory bank for each area of the target image im. Then, when there is an area where the distance between the patch feature amounts is equal to or greater than a preset threshold value, the detection unit 133 determines that the target image im is abnormal. That is, an abnormality in the target image im is detected. An area whose distance is equal to or greater than the threshold corresponds to an abnormal portion in the target image im.

(ステップS204)
対象画像imに異常が検出されなかった場合(ステップS204:NO)、処理はステップS206に進む。対象画像imに異常が検出された場合(ステップS204:YES)、処理はステップS205に進む。
(Step S204)
If no abnormality is detected in the target image im (step S204: NO), the process proceeds to step S206. If an abnormality is detected in the target image im (step S204: YES), the process proceeds to step S205.

(ステップS205)
分類部134は、異常分類モデル125を利用して、異常が検出された対象画像imに含まれる異常の種類を分類する(ステップS205)。まず、分類部134は、異常が検出された対象画像imの中から異常部分画像をクロッピングする。分類部134は、例えば、ステップS203で異常と判定されたエリアを覆う矩形の領域を、異常部分画像としてクロッピングすればよい。
(Step S205)
The classification unit 134 uses the abnormality classification model 125 to classify the type of abnormality included in the target image im in which the abnormality is detected (step S205). First, the classification unit 134 crops an abnormal partial image from the target image im in which an abnormality has been detected. For example, the classification unit 134 may crop a rectangular region covering the area determined to be abnormal in step S203 as an abnormal partial image.

図20は、異常部分画像のクロッピング方法の一例を示す図である。図20の左図は異常として芽を含む対象画像im、中図はステップS203で算出された距離(異常度)をヒートマップとして可視化した図、右図は異常部分画像を示す図である。 FIG. 20 is a diagram showing an example of a cropping method for an abnormal partial image. In FIG. 20, the left diagram is a target image im including buds as an abnormality, the middle diagram is a diagram visualizing the distance (abnormality degree) calculated in step S203 as a heat map, and the right diagram is a diagram showing an abnormal partial image.

図20に示すように、芽を含む対象画像imに対して異常検出処理が実行されると、芽を含む部分の距離(異常度)が高くなり、対象画像imから異常が検出される。中図では、芽を含む部分の色が濃く表示されている。分類部134は、異常として検出された部分、すなわち、中図の色が濃く表示された部分を含む矩形の領域を、異常部分画像としてクロッピングする(左図)。これにより、分類部134は、異常が検出された対象画像imから自動的に異常部分画像をクロッピングすることができる。なお、中図では、芽以外の部分の色も濃くなっているが、これらの距離(異常度)は閾値以下であり、異常としては検出されていない。 As shown in FIG. 20, when the abnormality detection process is performed on the target image im including the sprout, the distance (abnormality degree) of the portion including the sprout increases, and an abnormality is detected from the target image im. In the middle diagram, the color of the part containing the bud is dark. The classification unit 134 crops, as an abnormal partial image, a rectangular area that includes the portion detected as abnormal, that is, the dark colored portion in the middle diagram (left diagram). Thereby, the classification unit 134 can automatically crop the abnormal partial image from the target image im in which the abnormality is detected. In the middle diagram, the color of the part other than the bud is also dark, but the distance (abnormality degree) is below the threshold and is not detected as an abnormality.

分類部134は、こうして得られた異常部分画像を異常分類モデル125に入力し、異常分類モデル125が出力した異常種類を対象画像imの異常の種類として取得する。これにより、対象画像imの異常が分類される。図20の例では、異常種類は芽に分類される。分類部134は、 The classification unit 134 inputs the abnormal partial image thus obtained to the abnormality classification model 125, and acquires the abnormality type output by the abnormality classification model 125 as the abnormality type of the target image im. As a result, anomalies in the target image im are classified. In the example of FIG. 20, anomaly types are classified as buds. The classification unit 134

(ステップS206)
その後、検出部133及び分類部134は、異常の検出結果及び分類結果を検出結果情報126として記憶部12に保存する(ステップS206)。これにより、図14のような検出結果情報126が生成される。
(Step S206)
After that, the detection unit 133 and the classification unit 134 store the abnormality detection result and the classification result in the storage unit 12 as the detection result information 126 (step S206). As a result, detection result information 126 as shown in FIG. 14 is generated.

(ステップS207)
次に、再学習部136は、異常検出モデル124及び異常分類モデル125の再学習タイミングが到来したか判定する(ステップS207)。再学習タイミングは、異常検出モデル124及び異常分類モデル125の再学習処理を実行するタイミングである。ここでは、異常検出モデル124及び異常分類モデル125の再学習タイミングが同じである場合を想定しているが、異なってもよい。再学習タイミングは、例えば、所定時間(例えば1時間、1日、1週間)ごとであってもよいし、対象画像imに対する異常検出処理を所定回数実行するごとであってもよいし、ユーザにより指定されたタイミングでもよいし、異常な対象画像imの割合又は各異常種類の割合が変化したタイミングであってもよい。割合が変化したタイミングは、例えば、過去の複数の期間でそれぞれ算出された複数の割合に基づいて設定された割合の範囲(以下「標準範囲」という。)を逸脱したタイミングである。例えば、過去の異常な対象画像imの割合に基づいて、異常な対象画像imの割合の標準範囲が10%~20%に設定された場合、ある期間の異常な対象画像imの割合が10%未満又は20%を超えると、再学習タイミングとなる。なお、標準範囲の設定方法は任意である。
(Step S207)
Next, the re-learning unit 136 determines whether or not it is time to re-learn the anomaly detection model 124 and the anomaly classification model 125 (step S207). The re-learning timing is the timing at which the anomaly detection model 124 and the anomaly classification model 125 are re-learned. Here, it is assumed that the anomaly detection model 124 and the anomaly classification model 125 are re-learned at the same timing, but they may be different. The re-learning timing may be, for example, every predetermined time (for example, 1 hour, 1 day, 1 week), every time the abnormality detection process for the target image im is executed a predetermined number of times, or depending on the user. It may be a specified timing, or a timing when the ratio of abnormal target images im or the ratio of each type of abnormality changes. The timing at which the ratio changes is, for example, the timing outside the ratio range (hereinafter referred to as “standard range”) set based on a plurality of ratios calculated in a plurality of past periods. For example, when the standard range of the ratio of abnormal target images im is set to 10% to 20% based on the ratio of past abnormal target images im, the ratio of abnormal target images im in a certain period is 10%. When it is less than or exceeds 20%, it is time to re-learn. Note that the method for setting the standard range is arbitrary.

再学習タイミングが到来していない場合(ステップS207:NO)、処理は終了する。再学習タイミングが到来した場合(ステップS207:YES)、処理はステップS208に進む。 If the re-learning timing has not arrived (step S207: NO), the process ends. If the re-learning timing has arrived (step S207: YES), the process proceeds to step S208.

(ステップS208)
再学習タイミングが到来した場合、選択部135は、検出結果情報126を参照して、第1再学習用画像imrL1及び第2再学習用画像imrL2を選択する(ステップS208)。
(Step S208)
When the re-learning timing arrives, the selection unit 135 refers to the detection result information 126 and selects the first re-learning image imrL1 and the second re-learning image imrL2 (step S208).

選択部135は、前回の再学習処理(再学習処理がまだ1度も実行されていない場合は学習処理)の実行後に異常検出処理の対象となった対象画像imのうち、異常が検出されなかった対象画像im(正常画像)の中から少なくとも一部を第1再学習用画像imrL1として選択する。図14の例では、対象画像im102,im105,im106の中から第1再学習用画像imrL1が選択される。選択部135は、全ての正常画像を第1再学習用画像imrL1として選択してもよいし、一部を第1再学習用画像imrL1として選択してもよい。例えば、選択部135は、その対象画像imの異常度(パッチ特徴量間の距離)の最大値が閾値以下である対象画像imを、第1再学習用画像imrL1として選択する。 The selection unit 135 determines whether an abnormality is not detected in the target image im subjected to the abnormality detection process after the previous relearning process (learning process if the relearning process has not been executed even once). At least a part of the obtained target images im (normal images) is selected as the first relearning image imrL1. In the example of FIG. 14, the first relearning image imrL1 is selected from the target images im102, im105, and im106. The selection unit 135 may select all normal images as the first relearning images imrL1, or may select some of them as the first relearning images imrL1. For example, the selection unit 135 selects, as the first relearning image imrL1, a target image im whose maximum value of the degree of abnormality (distance between patch feature amounts) of the target image im is equal to or less than a threshold.

また、選択部135は、前回の再学習処理(再学習処理がまだ1度も実行されていない場合は学習処理)の実行後に異常検出処理の対象となった対象画像imのうち、異常が検出された対象画像im(異常画像)の中から少なくとも一部からクロッピングした異常部分画像を第2再学習用画像imrL2として選択する。図14の例では、対象画像im101,im103,im104からクロッピングした異常部分画像が第2再学習用画像imrL2として選択される。選択部135は、全ての異常画像からクロッピングした異常部分画像を第2再学習用画像imrL2として選択してもよいし、一部を第2再学習用画像imrL2として選択してもよい。異常部分画像をクロッピングする方法は上述の通りである(図20参照)。 In addition, the selection unit 135 detects an abnormality in the target image im that has been subjected to the abnormality detection process after the previous relearning process (learning process if the relearning process has not been executed even once). An abnormal partial image obtained by cropping at least a part of the target image im (abnormal image) is selected as a second relearning image imrL2. In the example of FIG. 14, an abnormal partial image cropped from the target images im101, im103, and im104 is selected as the second re-learning image imrL2. The selection unit 135 may select an abnormal partial image cropped from all abnormal images as the second relearning image imrL2, or may select a part of the abnormal images as the second relearning image imrL2. The method of cropping the abnormal partial image is as described above (see FIG. 20).

選択部135は、こうして選択した第1再学習用画像imrL1及び第2再学習用画像imrL2に撮影日時などの情報を対応づけて、再学習画像情報123として記憶部12に保存する。 The selection unit 135 associates the first relearning image imrL1 and the second relearning image imrL2 thus selected with information such as the shooting date and time, and stores the information as the relearning image information 123 in the storage unit 12 .

(ステップS209)
再学習部136は、第1再学習用画像imrL1を異常検出モデル124に再学習させる(ステップS209)。具体的には、再学習部136は、複数の第1再学習用画像imrL1を異常検出モデル124の画像認識モデルに入力し、各第1再学習用画像imrL1のパッチ特徴量を取得し、メモリバンクに追加する。以上の工程が異常検出モデル124の再学習に相当し、これにより、異常検出モデル124が更新される。再学習部136は、再学習された異常検出モデル124を記憶部12に保存する。
(Step S209)
The re-learning unit 136 causes the abnormality detection model 124 to re-learn the first re-learning image imrL1 (step S209). Specifically, the relearning unit 136 inputs the plurality of first relearning images imrL1 to the image recognition model of the abnormality detection model 124, acquires the patch feature amount of each first relearning image imrL1, Add to bank. The above process corresponds to re-learning of the abnormality detection model 124, and thereby the abnormality detection model 124 is updated. The re-learning unit 136 stores the re-learned anomaly detection model 124 in the storage unit 12 .

(ステップS210)
また、再学習部136は、第2再学習用画像imrL2を異常分類モデル125に再学習させる(ステップS210)。具体的には、再学習部136は、複数の第2再学習用画像imrL2と異常種類の組みを異常分類モデル125に再学習させる。これにより、異常分類モデル125が更新される。再学習部136は、再学習された異常分類モデル125を記憶部12に保存する。
(Step S210)
In addition, the relearning unit 136 causes the abnormality classification model 125 to relearn the second relearning image imrL2 (step S210). Specifically, the re-learning unit 136 causes the abnormality classification model 125 to re-learn groups of a plurality of second re-learning images imrL2 and abnormality types. This updates the anomaly classification model 125 . The relearning unit 136 stores the relearned abnormality classification model 125 in the storage unit 12 .

<まとめ>
以上説明した通り、本実施形態によれば、異常検出システム1000は、正常画像(第1学習用画像imL1)を学習することにより対象画像imから異常を検出するように学習された異常検出モデル124を利用して、複数の対象画像imから異常を検出する検出処理と、検出処理により異常が検出されなかった対象画像imの中の少なくとも一部を第1再学習用画像imrL1として選択する選択処理と、第1再学習用画像imrL1を異常検出モデル124に再学習させる再学習処理と、を含む異常検出処理を実行する。これにより、異常検出モデル124が常に新しい第1再学習用画像imrL1により再学習されるため、対象画像imの撮影環境が時間に応じて変化したり、異常検出対象tが時期により外観が変化するもの(野菜など)であったりした場合であっても、異常検出モデル124による異常の検出精度の経時的な低下を抑制することができる。
<Summary>
As described above, according to the present embodiment, the abnormality detection system 1000 uses the abnormality detection model 124 learned to detect an abnormality from the target image im by learning a normal image (first learning image imL1). A detection process for detecting an abnormality from a plurality of target images im, and a selection process for selecting at least a part of the target images im in which no abnormality is detected by the detection process as a first re-learning image imrL1. and re-learning processing for causing the abnormality detection model 124 to re-learn the first re-learning image imrL1. As a result, the abnormality detection model 124 is constantly re-learned with the new first re-learning image imrL1, so that the imaging environment of the target image im changes with time, and the appearance of the abnormality detection target t changes with time. Even in the case of things (vegetables, etc.), it is possible to suppress deterioration in accuracy of abnormality detection by the abnormality detection model 124 over time.

例えば、図7の第1学習用画像imL1と、図11の第1再学習用画像imrL1と、はじゃがいもの色が全体的に異なっている。じゃがいものような野菜の場合、収穫する時期により、同じ品種であってもこのような色の変化が生じる場合がある。また、季節によって撮影環境の日照が変化し、このような色の変化が生じることもある。さらに、1日の間でも、時間帯によって日照条件などが変化し、色の変化が生じることもある。このような場合、図7の第1学習用画像imL1を学習した異常検出モデル124を利用し続けると、経時的に異常の検出精度が低下するおそれがある。 For example, the first learning image imL1 in FIG. 7 and the first re-learning image imrL1 in FIG. 11 have entirely different colors of potatoes. In the case of vegetables such as potatoes, such a change in color may occur depending on the time of harvest even for the same variety. In addition, the sunlight in the shooting environment changes depending on the season, and such a change in color may occur. Furthermore, even during one day, the sunshine conditions and the like change depending on the time of day, and the color may change. In such a case, if the abnormality detection model 124 that has learned the first learning image imL1 in FIG. 7 is continuously used, the abnormality detection accuracy may decrease over time.

一方で、このような外観の変化は、徐々に進行することが多い。言い換えると、短時間で急激に異常の検出精度が低下する可能性は低い。このため、本実施形態のように、異常検出モデル124を、常に新しい第1再学習用画像imrL1で再学習することにより、このような外観の変化に応じた異常の検出精度の低下を抑制することができる。 On the other hand, such changes in appearance often progress gradually. In other words, it is unlikely that the abnormality detection accuracy will suddenly drop in a short period of time. Therefore, as in the present embodiment, by constantly re-learning the abnormality detection model 124 using the new first re-learning image imrL1, deterioration in the abnormality detection accuracy due to such changes in appearance can be suppressed. be able to.

なお、本実施形態では、対象画像imから異常が検出された場合、その異常の種類を分類したが、異常の種類の分類は行わなくてもよい。 In this embodiment, when an abnormality is detected from the target image im, the type of abnormality is classified, but the classification of the type of abnormality may not be performed.

また、本実施形態では、第1再学習用画像imrL1及び第2再学習用画像imrL2は、異常検出装置1により自動的に選択されたが、第1学習用画像imL1及び第2学習用画像imL2と同様に、ユーザにより選択されてもよい。 Further, in the present embodiment, the first relearning image imrL1 and the second relearning image imrL2 were automatically selected by the abnormality detection device 1, but the first learning image imL1 and the second learning image imL2 may be selected by the user as well.

例えば、ユーザ端末2は、ユーザからの操作に応じて、前回の再学習処理(再学習処理がまだ1度も実行されていない場合は学習処理)の実行後に異常検出処理の対象となった対象画像imを選択画面に一覧表示する。この選択画面は、対象画像imの中から、第1再学習用画像imrL1及び第2再学習用画像imrL2を選択するための画面である。ユーザは、選択画面に表示された対象画像imを参照して、これらの中から第1再学習用画像imrL1及び第2再学習用画像imrL2を選択すればよい(図16~図18参照)。選択部135は、ユーザにより選択された第1再学習用画像imrL1及び第2再学習用画像imrL2を、第1再学習用画像imrL1及び第2再学習用画像imrL2として選択し、記憶部12に保存する。これにより、第1再学習用画像imrL1及び第2再学習用画像imrL2をユーザが選択することができる。 For example, the user terminal 2, in response to an operation from the user, after the execution of the previous re-learning process (learning process if the re-learning process has not been executed even once) target that has been subjected to the abnormality detection process A list of images im is displayed on the selection screen. This selection screen is a screen for selecting the first relearning image imrL1 and the second relearning image imrL2 from among the target images im. The user can select the first relearning image imrL1 and the second relearning image imrL2 from among the target images im displayed on the selection screen (see FIGS. 16 to 18). The selection unit 135 selects the first relearning image imrL1 and the second relearning image imrL2 selected by the user as the first relearning image imrL1 and the second relearning image imrL2, and stores them in the storage unit 12. save. This allows the user to select the first relearning image imrL1 and the second relearning image imrL2.

<付記>
本実施形態は、以下の開示を含む。
<Appendix>
This embodiment includes the following disclosure.

(付記1)
異常検出システムが実行する異常検出方法であって、
正常画像を学習することにより画像から異常を検出するように学習された異常検出モデルを利用して、複数の対象画像から異常を検出する検出処理と、
前記検出処理により異常が検出されなかった対象画像の中の少なくとも一部を第1再学習用画像として選択する選択処理と、
前記第1再学習用画像を前記異常検出モデルに再学習させる再学習処理と、
を含む異常検出方法。
(Appendix 1)
An anomaly detection method performed by an anomaly detection system,
detection processing for detecting anomalies from a plurality of target images using an anomaly detection model trained to detect anomalies from images by learning normal images;
a selection process of selecting at least a part of the target images in which no abnormality was detected by the detection process as a first re-learning image;
a re-learning process for re-learning the anomaly detection model with the first re-learning image;
anomaly detection methods including;

(付記2)
前記選択処理は、前回の再学習処理の実行後に検出処理の対象となった対象画像の中から前記第1再学習用画像を選択する
付記1に記載の異常検出方法。
(Appendix 2)
The anomaly detection method according to Supplementary Note 1, wherein the selection process selects the first relearning image from target images that have been subjected to the detection process after execution of the previous relearning process.

(付記3)
前記選択処理は、異常度が閾値以下の正常画像を前記第1再学習用画像として選択する
付記1に記載の異常検出方法。
(Appendix 3)
The abnormality detection method according to Supplementary Note 1, wherein the selection process selects a normal image having a degree of abnormality equal to or less than a threshold as the first re-learning image.

(付記4)
前記選択処理は、対象画像を一覧表示し、一覧表示された対象画像の中からユーザにより選択された対象画像を前記第1再学習用画像として選択する
付記1に記載の異常検出方法。
(Appendix 4)
The abnormality detection method according to Supplementary Note 1, wherein the selection process displays a list of target images, and selects a target image selected by a user from among the target images displayed in the list as the first re-learning image.

(付記5)
前記再学習処理は、所定時間ごとに実行される
付記1に記載の異常検出方法。
(Appendix 5)
The anomaly detection method according to appendix 1, wherein the re-learning process is performed at predetermined time intervals.

(付記6)
検出処理により対象画像から異常が検出された場合、異常部分画像を学習することにより異常画像に含まれる異常を分類するように学習された異常分類モデルを利用して、検出された異常を分類する分類処理を更に含む
付記1に記載の異常検出方法。
(Appendix 6)
When an abnormality is detected from the target image by the detection process, the detected abnormality is classified by using an abnormality classification model trained to classify the abnormality contained in the abnormal image by learning the abnormal partial image. 2. The anomaly detection method according to claim 1, further comprising a classification process.

(付記7)
前記選択処理は、前記検出処理により異常が検出された対象画像の中の少なくとも一部からクロッピングした異常部分画像を第2再学習用画像として選択し、
前記再学習処理は、前記第2再学習用画像を前記異常分類モデルに再学習させる
付記6に記載の異常検出方法。
(Appendix 7)
The selection process selects, as a second relearning image, an abnormal partial image obtained by cropping from at least a part of the target image in which the abnormality is detected by the detection process,
The anomaly detection method according to appendix 6, wherein the re-learning process causes the anomaly classification model to re-learn the second re-learning image.

(付記8)
コンピュータに、
正常画像を学習することにより画像から異常を検出するように学習された異常検出モデルを利用して、複数の対象画像から異常を検出する検出処理と、
前記検出処理により異常が検出されなかった対象画像の中の少なくとも一部を第1再学習用画像として選択する選択処理と、
前記第1再学習用画像を前記異常検出モデルに再学習させる再学習処理と、
を含む異常検出方法を実行させるためのプログラム。
(Appendix 8)
to the computer,
detection processing for detecting anomalies from a plurality of target images using an anomaly detection model trained to detect anomalies from images by learning normal images;
a selection process of selecting at least a part of the target images in which no abnormality was detected by the detection process as a first re-learning image;
a re-learning process for re-learning the anomaly detection model with the first re-learning image;
A program for executing an anomaly detection method including

(付記9)
正常画像を学習することにより画像から異常を検出するように学習された異常検出モデルを利用して、複数の対象画像から異常を検出する検出部と、
前記検出部により異常が検出されなかった対象画像の中の少なくとも一部を第1再学習用画像として選択する選択部と、
前記第1再学習用画像を前記異常検出モデルに再学習させる再学習部と、
を含む異常検出システム。
(Appendix 9)
a detection unit that detects anomalies from a plurality of target images using an anomaly detection model trained to detect anomalies from images by learning normal images;
a selection unit that selects, as a first relearning image, at least a portion of the target images in which no abnormality was detected by the detection unit;
a re-learning unit that causes the anomaly detection model to re-learn the first re-learning image;
anomaly detection system including;

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。また、本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The embodiments disclosed this time are illustrative in all respects and should be considered not restrictive. The scope of the present invention is indicated by the scope of the claims rather than the above-described meaning, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims. In addition, the present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. Embodiments are also included in the technical scope of the present invention.

1:異常検出装置
2:ユーザ端末
3:撮影装置
11:通信部
12:記憶部
13:制御部
121:対象画像情報
122:学習用画像情報
123:再学習用画像情報
124:異常検出モデル
125:異常分類モデル
126:検出結果情報
131:取得部
132:学習部
133:検出部
134:分類部
135:選択部
136:再学習部
1: Abnormality detection device 2: User terminal 3: Imaging device 11: Communication unit 12: Storage unit 13: Control unit 121: Target image information 122: Learning image information 123: Re-learning image information 124: Abnormality detection model 125: Abnormal classification model 126: Detection result information 131: Acquisition unit 132: Learning unit 133: Detection unit 134: Classification unit 135: Selection unit 136: Re-learning unit

Claims (8)

異常検出システムが実行する異常検出方法であって、
正常画像を学習することにより画像から異常を検出するように学習された異常検出モデルを利用して、複数の対象画像から異常を検出する検出処理と、
前記検出処理により異常が検出されなかった対象画像の中の少なくとも一部を第1再学習用画像として選択する選択処理と、
前記第1再学習用画像を前記異常検出モデルに再学習させる再学習処理と、
を含み、
前記選択処理は、前回の再学習処理の実行後に検出処理の対象となった対象画像の中から前記第1再学習用画像を選択する
異常検出方法。
An anomaly detection method performed by an anomaly detection system,
detection processing for detecting anomalies from a plurality of target images using an anomaly detection model trained to detect anomalies from images by learning normal images;
a selection process of selecting at least a part of the target images in which no abnormality was detected by the detection process as a first re-learning image;
a re-learning process for re-learning the anomaly detection model with the first re-learning image;
including
In the abnormality detection method, the selection process selects the first re-learning image from among the target images subjected to the detection process after the execution of the previous re-learning process.
前記選択処理は、異常度が閾値以下の正常画像を前記第1再学習用画像として選択する
請求項1に記載の異常検出方法。
2. The abnormality detection method according to claim 1, wherein the selection process selects a normal image whose degree of abnormality is equal to or less than a threshold as the first re-learning image.
前記選択処理は、対象画像を一覧表示し、一覧表示された対象画像の中からユーザにより選択された対象画像を前記第1再学習用画像として選択する
請求項1に記載の異常検出方法。
2. The anomaly detection method according to claim 1, wherein the selection process displays a list of target images, and selects a target image selected by a user from among the target images displayed in the list as the first re-learning image.
前記再学習処理は、所定時間ごとに実行される
請求項1に記載の異常検出方法。
2. The abnormality detection method according to claim 1, wherein said re-learning process is executed at predetermined time intervals.
検出処理により対象画像から異常が検出された場合、異常部分画像を学習することにより異常画像に含まれる異常を分類するように学習された異常分類モデルを利用して、検出された異常を分類する分類処理を更に含む
請求項1に記載の異常検出方法。
When an abnormality is detected from the target image by the detection process, the detected abnormality is classified by using an abnormality classification model trained to classify the abnormality contained in the abnormal image by learning the abnormal partial image. 2. The anomaly detection method according to claim 1, further comprising a classification process.
前記選択処理は、前記検出処理により異常が検出された対象画像の中の少なくとも一部からクロッピングした異常部分画像を第2再学習用画像として選択し、
前記再学習処理は、前記第2再学習用画像を前記異常分類モデルに再学習させる
請求項に記載の異常検出方法。
The selection process selects, as a second relearning image, an abnormal partial image obtained by cropping from at least a part of the target image in which the abnormality is detected by the detection process,
6. The abnormality detection method according to claim 5 , wherein the re-learning process causes the abnormality classification model to re-learn the second re-learning image.
コンピュータに、
正常画像を学習することにより画像から異常を検出するように学習された異常検出モデルを利用して、複数の対象画像から異常を検出する検出処理と、
前記検出処理により異常が検出されなかった対象画像の中の少なくとも一部を第1再学習用画像として選択する選択処理と、
前記第1再学習用画像を前記異常検出モデルに再学習させる再学習処理と、
を含み、
前記選択処理は、前回の再学習処理の実行後に検出処理の対象となった対象画像の中から前記第1再学習用画像を選択する
異常検出方法を実行させるためのプログラム。
to the computer,
detection processing for detecting anomalies from a plurality of target images using an anomaly detection model trained to detect anomalies from images by learning normal images;
a selection process of selecting at least a part of the target images in which no abnormality was detected by the detection process as a first re-learning image;
a re-learning process for re-learning the anomaly detection model with the first re-learning image;
including
The selection process is a program for executing an anomaly detection method of selecting the first re-learning image from among the target images subjected to the detection process after execution of the previous re-learning process.
正常画像を学習することにより画像から異常を検出するように学習された異常検出モデルを利用して、複数の対象画像から異常を検出する検出部と、
前記検出部により異常が検出されなかった対象画像の中の少なくとも一部を第1再学習用画像として選択する選択部と、
前記第1再学習用画像を前記異常検出モデルに再学習させる再学習部と、
を含み、
前記選択部は、前回の再学習処理の実行後に検出処理の対象となった対象画像の中から前記第1再学習用画像を選択する
異常検出システム。
a detection unit that detects anomalies from a plurality of target images using an anomaly detection model trained to detect anomalies from images by learning normal images;
a selection unit that selects, as a first relearning image, at least a portion of the target images in which no abnormality was detected by the detection unit;
a re-learning unit that causes the anomaly detection model to re-learn the first re-learning image;
including
The anomaly detection system, wherein the selection unit selects the first re-learning image from among the target images subjected to the detection processing after the execution of the previous re-learning processing.
JP2022192334A 2022-11-30 2022-11-30 Abnormality detection method, abnormality detection system and program Active JP7323841B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022192334A JP7323841B1 (en) 2022-11-30 2022-11-30 Abnormality detection method, abnormality detection system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022192334A JP7323841B1 (en) 2022-11-30 2022-11-30 Abnormality detection method, abnormality detection system and program

Publications (2)

Publication Number Publication Date
JP7323841B1 true JP7323841B1 (en) 2023-08-09
JP2024079411A JP2024079411A (en) 2024-06-11

Family

ID=87519487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022192334A Active JP7323841B1 (en) 2022-11-30 2022-11-30 Abnormality detection method, abnormality detection system and program

Country Status (1)

Country Link
JP (1) JP7323841B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020030565A (en) 2018-08-22 2020-02-27 株式会社Ye Digital Image determination method, image determination device and image determination program
JP2021140739A (en) 2020-02-28 2021-09-16 株式会社Pros Cons Program, method for creating learned model, information processing method and information processing device
JP2022126620A (en) 2021-02-18 2022-08-30 トピー工業株式会社 Surface defect detection device, surface defect detection method, and surface defect detection program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020030565A (en) 2018-08-22 2020-02-27 株式会社Ye Digital Image determination method, image determination device and image determination program
JP2021140739A (en) 2020-02-28 2021-09-16 株式会社Pros Cons Program, method for creating learned model, information processing method and information processing device
JP2022126620A (en) 2021-02-18 2022-08-30 トピー工業株式会社 Surface defect detection device, surface defect detection method, and surface defect detection program

Also Published As

Publication number Publication date
JP2024079411A (en) 2024-06-11

Similar Documents

Publication Publication Date Title
US10737385B2 (en) Machine learning device, robot system, and machine learning method
CN106164980B (en) Information processing apparatus and information processing method
US20150262068A1 (en) Event detection apparatus and event detection method
JP2016109495A (en) Classifier generation device, appearance inspection device, classifier generation method, and program
JP2017211259A (en) Inspection device, inspection method and program
JP2011123742A (en) Intruding object detector
JP2016173682A (en) Abnormality determination device and abnormality determination method
CN112101115A (en) Temperature control method and device based on thermal imaging, electronic equipment and medium
CN114981836A (en) Electronic device and control method of electronic device
JP2010121970A (en) Moving body recognition system and moving body recognition method
KR102476496B1 (en) Method for identify product through artificial intelligence-based barcode restoration and computer program recorded on record-medium for executing method therefor
JP7323841B1 (en) Abnormality detection method, abnormality detection system and program
JP2019079167A (en) Information processing apparatus, information processing system, information processing method and program
US20190104222A1 (en) Information processing apparatus, control method, and storage medium
JP2021007055A (en) Discriminator learning device, discriminator learning method, and computer program
CN113361469A (en) Method, device and equipment for identifying coverage state and storage medium
JP2019192169A (en) Determination device, determination method, and object determination program
CN116363753A (en) Tumble detection method and device based on motion history image and electronic equipment
US20210397881A1 (en) Image processing apparatus and image processing method
EP3244293B1 (en) Selection option information presentation system and method
JP2010087937A (en) Video detection device, video detection method and video detection program
KR20210079823A (en) Electronic device and Method for controlling the electronic device thereof
JP7477764B2 (en) Information processing program, information processing method, and information processing device
JP7223194B1 (en) Information processing method, computer program, information processing device and information processing system
WO2024142888A1 (en) Ripeness determination system and ripeness determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221206

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230710

R150 Certificate of patent or registration of utility model

Ref document number: 7323841

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150