JP2024079411A - Anomaly detection method, anomaly detection system, and program - Google Patents

Anomaly detection method, anomaly detection system, and program Download PDF

Info

Publication number
JP2024079411A
JP2024079411A JP2022192334A JP2022192334A JP2024079411A JP 2024079411 A JP2024079411 A JP 2024079411A JP 2022192334 A JP2022192334 A JP 2022192334A JP 2022192334 A JP2022192334 A JP 2022192334A JP 2024079411 A JP2024079411 A JP 2024079411A
Authority
JP
Japan
Prior art keywords
image
learning
images
relearning
anomaly
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022192334A
Other languages
Japanese (ja)
Other versions
JP7323841B1 (en
Inventor
山下聖悟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2022192334A priority Critical patent/JP7323841B1/en
Application granted granted Critical
Publication of JP7323841B1 publication Critical patent/JP7323841B1/en
Publication of JP2024079411A publication Critical patent/JP2024079411A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】 AIモデルによる異常の検出精度の低下を抑制する。【解決手段】一実施形態に係る異常検出方法は、異常検出システムが実行する異常検出方法であって、正常画像を学習することにより画像から異常を検出するように学習された異常検出モデルを利用して、複数の対象画像から異常を検出する検出処理と、前記検出処理により異常が検出されなかった対象画像の中の少なくとも一部を第1再学習用画像として選択する選択処理と、前記第1再学習用画像を前記異常検出モデルに再学習させる再学習処理と、を含む。【選択図】図19[Problem] Suppressing a decrease in the accuracy of anomaly detection by an AI model. [Solution] An anomaly detection method according to one embodiment is an anomaly detection method executed by an anomaly detection system, and includes a detection process for detecting anomalies from a plurality of target images using an anomaly detection model trained to detect anomalies from images by learning normal images, a selection process for selecting at least some of the target images in which no anomaly was detected by the detection process as first relearning images, and a relearning process for relearning the first relearning images to the anomaly detection model. [Selected Figure] Figure 19

Description

本発明は、異常検出方法、異常検出システム及びプログラムに関する。 The present invention relates to an anomaly detection method, an anomaly detection system, and a program.

近年、AIモデルにより画像から異常を検出する技術が広く利用されている。一般に、検出対象となる異常の画像を学習させたAIモデルに異常を検出する対象を撮影した画像を入力すると、AIモデルが画像に含まれる異常を検出する。例えば、引用文献1には、欠陥候補を学習した欠陥候補検出モデルを利用して、金属製品の表面画像から欠陥候補を検出する技術が開示されている。 In recent years, technology that uses AI models to detect anomalies from images has come into widespread use. In general, when an image of a target for which anomalies are to be detected is input to an AI model that has been trained with images of the anomalies to be detected, the AI model detects the anomalies contained in the image. For example, Cited Document 1 discloses a technology that uses a defect candidate detection model that has been trained with defect candidates to detect defect candidates from surface images of metal products.

特開2022-126620号公報JP 2022-126620 A

上記従来技術では、異常を検出する対象となる画像の撮影環境が時間に応じて変化したり、異常を検出する対象が時期により外観が変化するもの(野菜など)であったりした場合、AIモデルによる異常の検出精度が経時的に低下するおそれがあった。 In the above conventional technology, if the shooting environment of the image for which anomalies are to be detected changes over time, or if the object for which anomalies are to be detected is an object whose appearance changes over time (such as vegetables), there is a risk that the accuracy of anomaly detection by the AI model will decrease over time.

本発明は、上記の課題を鑑みてなされたものであり、AIモデルによる異常の検出精度の低下を抑制することを目的とする。 The present invention was made in consideration of the above problems, and aims to prevent a decline in the accuracy of anomaly detection by AI models.

一実施形態に係る異常検出方法は、異常検出システムが実行する異常検出方法であって、正常画像を学習することにより画像から異常を検出するように学習された異常検出モデルを利用して、複数の対象画像から異常を検出する検出処理と、前記検出処理により異常が検出されなかった対象画像の中の少なくとも一部を第1再学習用画像として選択する選択処理と、前記第1再学習用画像を前記異常検出モデルに再学習させる再学習処理と、を含む。 An anomaly detection method according to one embodiment is an anomaly detection method executed by an anomaly detection system, and includes a detection process for detecting anomalies from a plurality of target images using an anomaly detection model trained to detect anomalies from images by learning normal images, a selection process for selecting at least some of the target images in which no anomalies were detected by the detection process as first relearning images, and a relearning process for relearning the first relearning images to the anomaly detection model.

一実施形態によれば、AIモデルによる異常の検出精度の低下を抑制することができる。 According to one embodiment, it is possible to suppress a decrease in the accuracy of anomaly detection by the AI model.

異常検出システム1000の構成の一例を示す図である。FIG. 1 illustrates an example of the configuration of an anomaly detection system 1000. 情報処理装置100のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of an information processing device 100. 異常検出装置1の機能構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a functional configuration of the abnormality detection device 1. 対象画像情報121の一例を示す図である。FIG. 2 is a diagram showing an example of target image information 121. 対象画像imの一例を示す図である。FIG. 2 is a diagram showing an example of a target image im. 第1学習用画像情報1221の一例を示す図である。A figure showing an example of first learning image information 1221. 第1学習用画像imL1の一例を示す図である。A figure showing an example of a first learning image imL1. 第2学習用画像情報1222の一例を示す図である。A figure showing an example of second learning image information 1222. 第2学習用画像imL2の一例を示す図である。A figure showing an example of a second learning image imL2. 第1再学習用画像情報1231の一例を示す図である。FIG. 12 is a diagram showing an example of first relearning image information 1231. 第1再学習用画像imrL1の一例を示す図である。FIG. 13 is a diagram showing an example of a first relearning image imrL1. 第2再学習用画像情報1232の一例を示す図である。FIG. 12 is a diagram showing an example of second relearning image information 1232. 第2再学習用画像imrL2の一例を示す図である。FIG. 13 is a diagram showing an example of a second relearning image imrL2. 検出結果情報126の一例を示す図である。FIG. 13 is a diagram showing an example of detection result information 126. 学習処理の一例を示すフローチャートである。13 is a flowchart illustrating an example of a learning process. 選択画面の一例を示す図である。FIG. 13 illustrates an example of a selection screen. 選択画面の一例を示す図である。FIG. 13 illustrates an example of a selection screen. 選択画面の一例を示す図である。FIG. 13 illustrates an example of a selection screen. 異常検出処理の一例を示すフローチャートである。13 is a flowchart illustrating an example of an abnormality detection process. クロッピング方法の一例を示す図である。FIG. 13 is a diagram illustrating an example of a cropping method.

以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。 Each embodiment of the present invention will be described below with reference to the accompanying drawings. Note that in the description of the specification and drawings relating to each embodiment, components having substantially the same functional configuration are designated by the same reference numerals, and redundant description will be omitted.

<システム構成>
まず、本実施形態に係る異常検出システム1000の概要について説明する。本実施形態に係る異常検出システム1000は、AIモデルを利用して、対象画像imから異常を検出する情報処理システムである。
<System Configuration>
First, an overview of an anomaly detection system 1000 according to this embodiment will be described. The anomaly detection system 1000 according to this embodiment is an information processing system that uses an AI model to detect an anomaly from a target image im.

対象画像imは、異常検出対象tを撮影した画像である。異常検出対象tは、異常を検出する対象となる任意の物体である。異常は、欠陥、不良、異物などの、異常検出対象tの正常な状態とは異なる任意の状態又は物体である。情報処理システムは、ネットワークを介して接続された複数の情報処理装置からなるシステムである。 The target image im is an image of the abnormality detection target t. The abnormality detection target t is any object for which an abnormality is to be detected. An abnormality is any state or object that differs from the normal state of the abnormality detection target t, such as a defect, failure, or foreign object. The information processing system is a system consisting of multiple information processing devices connected via a network.

以下、対象画像imのうち、異常検出対象tが異常を含む画像を異常画像、異常検出対象tが異常を含まない画像を正常画像という。また、異常画像に含まれる異常の部分をクロッピングした(切り出した)画像を異常部分画像という。 Hereinafter, among the target images im, an image in which the anomaly detection target t contains an abnormality will be referred to as an abnormal image, and an image in which the anomaly detection target t does not contain an abnormality will be referred to as a normal image. In addition, an image in which the abnormal part contained in the abnormal image has been cropped (cut out) will be referred to as an abnormal part image.

異常検出システム1000は、監視カメラの映像からの異常検出、工場に設置されたベルトコンベアの映像からの異常検出、製品の外観検査のために撮影された画像からの異常検出など、任意の画像からの異常検出に利用できる。 The anomaly detection system 1000 can be used to detect anomalies from any image, such as from surveillance camera footage, from footage of a conveyor belt installed in a factory, or from images taken for the visual inspection of a product.

異常検出システム1000は、正常画像を学習させることにより、異常を検出するAIモデルを学習させる。また、異常検出システム1000は、所定のタイミングでAIモデルに新たな正常画像を再学習させる。これにより、異常検出システム1000は、異常検出対象tや撮影環境の経時的な変化に起因するAIモデルの異常の検出精度の経時的な低下を抑制することができる。 The anomaly detection system 1000 trains an AI model to detect anomalies by learning normal images. The anomaly detection system 1000 also causes the AI model to re-learn new normal images at a predetermined timing. This allows the anomaly detection system 1000 to suppress deterioration over time in the detection accuracy of anomalies of the AI model caused by changes over time in the anomaly detection target t or the shooting environment.

したがって、異常検出システム1000は、異常検出対象tや撮影環境が経時的に変化する場合に、好適に利用することができる。例えば、異常検出対象tが経時的に変化する場合として、異常検出対象tが野菜、果物、鮮魚、精肉などの生鮮食品である場合が挙げられる。また、撮影環境が経時的に変化する場合として、撮影環境が屋外であったり、日照のある屋内であったりする場合が挙げられる。 The anomaly detection system 1000 can therefore be suitably used in cases where the anomaly detection target t or the shooting environment changes over time. For example, an example of a case where the anomaly detection target t changes over time is when the anomaly detection target t is fresh food such as vegetables, fruits, fresh fish, or meat. In addition, an example of a case where the shooting environment changes over time is when the shooting environment is outdoors or indoors in a sunny location.

図1は、異常検出システム1000の構成の一例を示す図である。図1に示すように、異常検出システム1000は、ネットワークNを介して相互に通信可能に接続された、異常検出装置1と、ユーザ端末2と、撮影装置3と、を備える。ネットワークNは、例えば、有線LAN(Local Area Network)、無線LAN、インターネット、公衆回線網、モバイルデータ通信網、又はこれらの組み合わせである。図1の例では、異常検出システム1000は、異常検出装置1、ユーザ端末2及び撮影装置3をそれぞれ1つずつ備えるが、それぞれ複数備えてもよい。 FIG. 1 is a diagram showing an example of the configuration of an anomaly detection system 1000. As shown in FIG. 1, the anomaly detection system 1000 includes an anomaly detection device 1, a user terminal 2, and an image capture device 3, which are communicatively connected to each other via a network N. The network N is, for example, a wired LAN (Local Area Network), a wireless LAN, the Internet, a public line network, a mobile data communication network, or a combination of these. In the example of FIG. 1, the anomaly detection system 1000 includes one each of the anomaly detection device 1, the user terminal 2, and the image capture device 3, but may include multiple of each.

異常検出装置1は、対象画像imから異常を検出する情報処理装置である。異常検出装置1は、例えば、PC(Personal Computer)、スマートフォン、タブレット端末、サーバ装置、又はマイクロコンピューであるが、これに限られない。異常検出装置1について、詳しくは後述する。 The abnormality detection device 1 is an information processing device that detects abnormalities from a target image im. The abnormality detection device 1 is, for example, but is not limited to, a PC (Personal Computer), a smartphone, a tablet terminal, a server device, or a microcomputer. The abnormality detection device 1 will be described in detail later.

ユーザ端末2は、異常検出システム1000のユーザが利用する情報処理装置である。ユーザ端末2は、例えば、PC、スマートフォン、タブレット端末、サーバ装置、又はマイクロコンピューであるが、これに限られない。ユーザ端末2は、撮影装置3と有線又は
無線により接続され、撮影装置3から対象画像imを受信し、ネットワークNを介して、対象画像imを異常検出装置1に送信する。ユーザ端末2は、撮影装置3とネットワークNを介して接続されてもよい。また、ユーザ端末2は、ネットワークNや記録メディアから対象画像imを取得し、対象画像imを異常検出装置1に送信してもよい。また、ユーザは、ユーザ端末2を操作して、正常画像及び異常画像のアノテーションや、異常部分画像のクリッピングなどを行ってもよい。
The user terminal 2 is an information processing device used by a user of the anomaly detection system 1000. The user terminal 2 is, for example, a PC, a smartphone, a tablet terminal, a server device, or a microcomputer, but is not limited thereto. The user terminal 2 is connected to the photographing device 3 by wire or wirelessly, receives a target image im from the photographing device 3, and transmits the target image im to the anomaly detection device 1 via the network N. The user terminal 2 may be connected to the photographing device 3 via the network N. The user terminal 2 may also acquire a target image im from the network N or a recording medium, and transmit the target image im to the anomaly detection device 1. The user may also operate the user terminal 2 to perform annotation of normal images and abnormal images, clipping of abnormal part images, and the like.

撮影装置3は、異常検出対象tを撮影する情報処理装置である。撮影装置3は、デジタルカメラ、監視カメラ、スマートフォン、又はAIカメラであるが、これに限られない。撮影装置3は、異常検出対象tを撮影した対象画像imをユーザ端末2に送信する。図1の例では、ベルトコンベアで搬送されるじゃがいも(異常検出対象t)を、固定して設置された撮影装置3で撮影する場合を想定しているが、異常検出対象tも撮影装置3もこれに限られない。 The photographing device 3 is an information processing device that photographs the abnormality detection target t. The photographing device 3 is, but is not limited to, a digital camera, a surveillance camera, a smartphone, or an AI camera. The photographing device 3 transmits a target image im of the abnormality detection target t to the user terminal 2. In the example of FIG. 1, it is assumed that potatoes (abnormality detection target t) transported on a conveyer belt are photographed by a fixedly installed photographing device 3, but neither the abnormality detection target t nor the photographing device 3 are limited to this.

<情報処理装置のハードウェア構成>
次に、情報処理装置100のハードウェア構成について説明する。図2は、情報処理装置100のハードウェア構成の一例を示す図である。図2に示すように、情報処理装置100は、バスBを介して相互に接続された、プロセッサ101と、メモリ102と、ストレージ103と、通信I/F104と、入出力I/F105と、ドライブ装置106と、を備える。
<Hardware configuration of information processing device>
Next, a description will be given of the hardware configuration of the information processing device 100. Fig. 2 is a diagram showing an example of the hardware configuration of the information processing device 100. As shown in Fig. 2, the information processing device 100 includes a processor 101, a memory 102, a storage 103, a communication I/F 104, an input/output I/F 105, and a drive device 106, which are connected to each other via a bus B.

プロセッサ101は、ストレージ103に記憶されたOS(Operating System)を含む各種のプログラムをメモリ102に展開して実行することにより、情報処理装置100の各構成を制御し、情報処理装置100の機能を実現する。プロセッサ101は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、又はこれらの組み合わせである。 The processor 101 controls each component of the information processing device 100 and realizes the functions of the information processing device 100 by expanding into the memory 102 and executing various programs including an OS (Operating System) stored in the storage 103. The processor 101 is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a DSP (Digital Signal Processor), or a combination of these.

メモリ102は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、又はこれらの組み合わせである。ROMは、例えば、PROM(Programmable ROM)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、又はこれらの組み合わせである。RAMは、例えば、DRAM(Dynamic RAM)、SRAM(Static RAM)、又はこれらの組み合わせである。 The memory 102 is, for example, a read only memory (ROM), a random access memory (RAM), or a combination of these. The ROM is, for example, a programmable ROM (PROM), an erasable programmable ROM (EPROM), an electrically erasable programmable ROM (EEPROM), or a combination of these. The RAM is, for example, a dynamic RAM (DRAM), a static RAM (SRAM), or a combination of these.

ストレージ103は、OSを含む各種のプログラム及びデータを記憶する。ストレージ103は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SCM(Storage Class Memories)、又はこれらの組み合わせである。 Storage 103 stores various programs and data, including the OS. Storage 103 is, for example, a flash memory, a hard disk drive (HDD), a solid state drive (SSD), a storage class memory (SCM), or a combination of these.

通信I/F104は、情報処理装置100を、ネットワークNを介して外部装置に接続し、通信を制御するためのインタフェースである。通信I/F104は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)、Ethernet(登録商標)、又は光通信に準拠したアダプタであるが、これに限られない。 The communication I/F 104 is an interface for connecting the information processing device 100 to an external device via the network N and controlling communication. The communication I/F 104 is, for example, an adapter conforming to Bluetooth (registered trademark), Wi-Fi (registered trademark), ZigBee (registered trademark), Ethernet (registered trademark), or optical communication, but is not limited to these.

入出力I/F105は、情報処理装置100に入力装置107及び出力装置108を接続するためのインタフェースである。入力装置107は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、カメラ、各種センサ、操作ボタン、又はこれらの組み合わせである。出力装置108は、例えば、ディスプレイ、プロジェクタ、プリンタ、スピーカ、バイブレータ、又はこれらの組み合わせである。 The input/output I/F 105 is an interface for connecting an input device 107 and an output device 108 to the information processing device 100. The input device 107 is, for example, a mouse, a keyboard, a touch panel, a microphone, a scanner, a camera, various sensors, an operation button, or a combination of these. The output device 108 is, for example, a display, a projector, a printer, a speaker, a vibrator, or a combination of these.

ドライブ装置106は、記録メディア109のデータを読み書きする。ドライブ装置106は、例えば、磁気ディスクドライブ、光学ディスクドライブ、光磁気ディスクドライブ又はSDカードリーダである。記録メディア109は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、FD(Floppy Disk)、MO(Magneto-Optical disk)、BD(Blu-ray(登録商標) Disc)、USB(登録商標)メモリ、SDカード、又はこれらの組み合わせである。 The drive device 106 reads and writes data from and to the recording medium 109. The drive device 106 is, for example, a magnetic disk drive, an optical disk drive, a magneto-optical disk drive, or an SD card reader. The recording medium 109 is, for example, a CD (Compact Disc), a DVD (Digital Versatile Disc), a FD (Floppy Disk), an MO (Magneto-Optical disk), a BD (Blu-ray (registered trademark) Disc), a USB (registered trademark) memory, an SD card, or a combination of these.

なお、本実施形態において、プログラムは、情報処理装置100の製造段階でメモリ102又はストレージ103に書き込まれてもよいし、ネットワークNを介して情報処理装置100に提供されてもよいし、記録メディア109などの非一時的でコンピュータ読み取り可能な記録媒体を介して情報処理装置100に提供されてもよい。 In this embodiment, the program may be written to the memory 102 or storage 103 during the manufacturing stage of the information processing device 100, or may be provided to the information processing device 100 via the network N, or may be provided to the information processing device 100 via a non-transitory computer-readable recording medium such as the recording medium 109.

<機能構成>
次に、異常検出装置1の機能構成について説明する。図3は、異常検出装置1の機能構成の一例を示す図である。図3に示すように、異常検出装置1は、通信部11と、記憶部12と、制御部13と、を備える。
<Functional configuration>
Next, a description will be given of the functional configuration of the abnormality detection device 1. Fig. 3 is a diagram showing an example of the functional configuration of the abnormality detection device 1. As shown in Fig. 3, the abnormality detection device 1 includes a communication unit 11, a storage unit 12, and a control unit 13.

通信部11は、通信I/F104により実現される。通信部11は、ネットワークNを介して、ユーザ端末2との間で情報の送受信を行う。また、通信部11は、有線又は無線により、撮影装置3から対象画像imを受信する。 The communication unit 11 is realized by the communication I/F 104. The communication unit 11 transmits and receives information to and from the user terminal 2 via the network N. The communication unit 11 also receives the target image im from the image capture device 3 via a wired or wireless connection.

記憶部12は、メモリ102及びストレージ103により実現される。記憶部12は、対象画像情報121と、学習用画像情報122と、再学習用画像情報123と、異常検出モデル124と、異常分類モデル125と、検出結果情報126と、を記憶する。 The memory unit 12 is realized by the memory 102 and the storage 103. The memory unit 12 stores target image information 121, learning image information 122, re-learning image information 123, anomaly detection model 124, anomaly classification model 125, and detection result information 126.

対象画像情報121は、対象画像imに関する情報である。 Target image information 121 is information about the target image im.

図4は、対象画像情報121の一例を示す図である。図4の対象画像情報121は、情報項目として、「対象画像ID」と、「撮影日時」と、「画像データ」と、を含む。 Figure 4 is a diagram showing an example of target image information 121. The target image information 121 in Figure 4 includes the following information items: "target image ID," "photographed date and time," and "image data."

「対象画像ID」は、対象画像imの識別情報である。以下では、「対象画像ID」が「imXXX」である対象画像imを、対象画像imXXXと称する。 "Target image ID" is identification information for the target image im. In the following, a target image im whose "target image ID" is "imXXX" will be referred to as target image imXXX.

「撮影日時」は、対象画像imを撮影装置3が撮影した日時である。図4の例では、対象画像im001の「撮影日時」は「2022/8/22 15:00:54」である。これは、対象画像im001が2022/8/22の15:00:54に撮影されたことを示している。 The "photographing date and time" is the date and time when the target image im was photographed by the photographing device 3. In the example of FIG. 4, the "photographing date and time" of the target image im001 is "2022/8/22 15:00:54." This indicates that the target image im001 was photographed at 2022/8/22 15:00:54.

「画像データ」は、対象画像imの画像データである。図4の例では、対象画像im001の「画像データ」は「im001.png」である。これは、対象画像im001の画像データのファイル名がim001.pngであることを示している。 "Image data" is the image data of the target image im. In the example of Figure 4, the "image data" of the target image im001 is "im001.png". This indicates that the file name of the image data of the target image im001 is im001.png.

なお、対象画像情報121は、図4の例に限られない。対象画像情報121は、上記の情報項目の一部を含まなくてもよいし、上記以外の情報項目を含んでもよい。例えば、対象画像情報121は、対象画像imを撮影した撮影装置3に関する情報や、その撮影環境に関する情報を含んでもよい。 Note that the target image information 121 is not limited to the example in FIG. 4. The target image information 121 may not include some of the above information items, or may include information items other than those described above. For example, the target image information 121 may include information about the imaging device 3 that captured the target image im, and information about the imaging environment.

図5は、対象画像imの一例を示す図である。図5の例では、異常検出対象tは、じゃがいもであり、じゃがいもの異常として、芽、傷及び変色を想定している。対象画像im001は、正常な(異常のない)じゃがいもを撮影した正常画像である。対象画像im002は、異常な(芽がある)じゃがいもを撮影した異常画像である。対象画像im003は、異常な(変色がある)じゃがいもを撮影した異常画像である。対象画像情報121には、このように正常画像及び異常画像の対象画像情報121が含まれる。 Figure 5 is a diagram showing an example of a target image im. In the example of Figure 5, the abnormality detection target t is a potato, and potato abnormalities are assumed to be sprouts, scratches, and discoloration. Target image im001 is a normal image of a normal (abnormal) potato. Target image im002 is an abnormal image of an abnormal potato (with sprouts). Target image im003 is an abnormal image of an abnormal potato (with discoloration). In this way, target image information 121 includes target image information 121 of normal images and abnormal images.

学習用画像情報122は、AIモデルに学習させる学習用画像に関する情報である。学習用画像情報122は、第1学習用画像情報1221と、第2学習用画像情報1222と、を含む。 The learning image information 122 is information about learning images to be trained by the AI model. The learning image information 122 includes first learning image information 1221 and second learning image information 1222.

第1学習用画像情報1221は、第1学習用画像imL1に関する情報である。第1学習用画像imL1は、異常検出モデル124に学習させるための学習用画像である。第1学習用画像imL1は、対象画像imの中から選択された正常画像である。 The first learning image information 1221 is information related to the first learning image imL1. The first learning image imL1 is a learning image for training the anomaly detection model 124. The first learning image imL1 is a normal image selected from the target image im.

図6は、第1学習用画像情報1221の一例を示す図である。図6の第1学習用画像情報1221は、情報項目として、「第1学習用画像ID」と、「対象画像ID」と、「撮影日時」と、「画像データ」と、を含む。 Figure 6 is a diagram showing an example of first learning image information 1221. The first learning image information 1221 in Figure 6 includes the following information items: "first learning image ID", "target image ID", "photographed date and time", and "image data".

「第1学習用画像ID」は、第1学習用画像imL1の識別情報である。以下では、「第1学習用画像ID」が「imL1XX」である第1学習用画像imL1を、第1学習用画像imL1XXと称する。 The "first learning image ID" is identification information for the first learning image imL1. Hereinafter, the first learning image imL1 whose "first learning image ID" is "imL1XX" will be referred to as the first learning image imL1XX.

「対象画像ID」は、第1学習用画像imL1に対応する対象画像imの識別情報である。図6の例では、第1学習用画像imL101と対象画像im001とが対応する。これは、対象画像im001が第1学習用画像imL1として選択され、「第1学習用画像ID」として「imL101」を割り当てられたことを示している。 "Target image ID" is identification information of the target image im corresponding to the first learning image imL1. In the example of FIG. 6, the first learning image imL101 corresponds to the target image imL001. This indicates that the target image imL01 has been selected as the first learning image imL1 and has been assigned "imL101" as the "first learning image ID."

「撮影日時」は、第1学習用画像imL1を撮影装置3が撮影した日時を示す情報である。図6の例では、第1学習用画像imL101の「撮影日時」は「2022/8/22 15:00:54」である。これは、第1学習用画像imL1が2022/8/22の15:00:54に撮影されたことを示している。第1学習用画像imL1の撮影日時は、対応する対象画像imの撮影日時と同じである。 "Photographing date and time" is information indicating the date and time when the first learning image imL1 was photographed by the photographing device 3. In the example of FIG. 6, the "Photographing date and time" of the first learning image imL101 is "2022/8/22 15:00:54." This indicates that the first learning image imL1 was photographed on 2022/8/22 at 15:00:54. The photographing date and time of the first learning image imL1 is the same as the photographing date and time of the corresponding target image im.

「画像データ」は、第1学習用画像imL1の画像データである。図6の例では、第1学習用画像imL101の「画像データ」は「imL101.png」である。これは、第1学習用画像imL101の画像データのファイル名がimL101.pngであることを示している。第1学習用画像imL1の画像自体は、対応する対象画像imと同じである。 "Image data" is the image data of the first learning image imL1. In the example of FIG. 6, the "image data" of the first learning image imL101 is "imL101.png". This indicates that the file name of the image data of the first learning image imL101 is imL101.png. The image of the first learning image imL1 itself is the same as the corresponding target image im.

なお、第1学習用画像情報1221は、図6の例に限られない。第1学習用画像情報1221は、上記の情報項目の一部を含まなくてもよいし、上記以外の情報項目を含んでもよい。例えば、第1学習用画像情報1221は、第1学習用画像imL1を撮影した撮影装置3に関する情報や、その撮影環境に関する情報を含んでもよい。 The first learning image information 1221 is not limited to the example of FIG. 6. The first learning image information 1221 may not include some of the above information items, or may include information items other than those described above. For example, the first learning image information 1221 may include information about the imaging device 3 that captured the first learning image imL1, and information about the imaging environment.

図7は、第1学習用画像imL1の一例を示す図である。図7の例では、異常検出対象tは、じゃがいもであり、じゃがいもの異常として、芽、傷及び変色を想定している。第1学習用画像imL101~imL103は、正常な(異常のない)じゃがいもを撮影した正常画像である。第1学習用画像情報1221には、このように複数の正常画像の第1学習用画像情報1221が含まれる。 Figure 7 is a diagram showing an example of the first learning image imL1. In the example of Figure 7, the target t for abnormality detection is a potato, and potato abnormalities are assumed to be sprouts, scratches, and discoloration. The first learning images imL101 to imL103 are normal images of normal (abnormal) potatoes. The first learning image information 1221 thus includes first learning image information 1221 of multiple normal images.

第2学習用画像情報1222は、第2学習用画像imL2に関する情報である。第2学習用画像imL2は、異常分類モデル125に学習させるための学習用画像である。第2学習用画像imL2は、対象画像imの中から選択された異常画像から、異常の部分をクリッピングした異常部分画像である。 The second learning image information 1222 is information related to the second learning image imL2. The second learning image imL2 is a learning image for training the anomaly classification model 125. The second learning image imL2 is an abnormal portion image obtained by clipping the abnormal portion from an abnormal image selected from the target image im.

図8は、第2学習用画像情報1222の一例を示す図である。図8の第2学習用画像情報1222は、情報項目として、「第2学習用画像ID」と、「対象画像ID」と、「撮影日時」と、「画像データ」と、「異常種類」と、を含む。 Figure 8 is a diagram showing an example of second learning image information 1222. The second learning image information 1222 in Figure 8 includes the following information items: "second learning image ID", "target image ID", "photographed date and time", "image data", and "type of abnormality".

「第2学習用画像ID」は、第2学習用画像imL2の識別情報である。以下では、「第2学習用画像ID」が「imL2XX」である第2学習用画像imL2を、第2学習用画像imL2XXと称する。 The "second learning image ID" is identification information for the second learning image imL2. Hereinafter, the second learning image imL2 whose "second learning image ID" is "imL2XX" will be referred to as the second learning image imL2XX.

「対象画像ID」は、第2学習用画像imL2に対応する対象画像imの識別情報である。図8の例では、第2学習用画像imL201と対象画像im002とが対応する。これは、対象画像im002が異常画像として選択され、その異常の部分をクリッピングした画像が第2学習用画像imL2であり、「第2学習用画像ID」として「imL201」を割り当てられたことを示している。 "Target image ID" is identification information of the target image im corresponding to the second learning image imL2. In the example of FIG. 8, the second learning image imL201 corresponds to the target image im002. This indicates that the target image imL02 was selected as an abnormal image, the image obtained by clipping the abnormal portion is the second learning image imL2, and "imL201" has been assigned as the "second learning image ID."

「撮影日時」は、第2学習用画像imL2を撮影装置3が撮影した日時を示す情報である。図8の例では、第2学習用画像imL201の「撮影日時」は「2022/8/22 15:00:55」である。これは、第2学習用画像imL2が2022/8/22の15:00:55に撮影されたことを示している。第2学習用画像imL2の撮影日時は、対応する対象画像imの撮影日時と同じである。 "Photographing date and time" is information indicating the date and time when the second learning image imL2 was photographed by the photographing device 3. In the example of FIG. 8, the "Photographing date and time" of the second learning image imL201 is "2022/8/22 15:00:55." This indicates that the second learning image imL2 was photographed at 2022/8/22 15:00:55. The photographing date and time of the second learning image imL2 is the same as the photographing date and time of the corresponding target image im.

「画像データ」は、第2学習用画像imL2の画像データである。図8の例では、第2学習用画像imL201の「画像データ」は「imL201.png」である。これは、第2学習用画像imL201の画像データのファイル名がimL201.pngであることを示している。第2学習用画像imL2の画像自体は、対応する対象画像imの異常部分と同じである。 "Image data" is the image data of the second learning image imL2. In the example of FIG. 8, the "image data" of the second learning image imL201 is "imL201.png". This indicates that the file name of the image data of the second learning image imL201 is imL201.png. The image of the second learning image imL2 itself is the same as the abnormal part of the corresponding target image im.

「異常種類」は、第2学習用画像imL2に含まれる異常の種類を示す情報である。図8の例では、第2学習用画像imL201の「異常種類」は「芽」である。これは、第2学習用画像imL201が、じゃがいもの芽の部分を撮影した画像であることを示している。 "Anomaly type" is information indicating the type of anomaly contained in the second learning image imL2. In the example of FIG. 8, the "anomaly type" of the second learning image imL201 is "sprout." This indicates that the second learning image imL201 is an image of the sprout portion of a potato.

なお、第2学習用画像情報1222は、図8の例に限られない。第2学習用画像情報1222は、上記の情報項目の一部を含まなくてもよいし、上記以外の情報項目を含んでもよい。例えば、第2学習用画像情報1222は、第2学習用画像imL2を撮影した撮影装置3に関する情報や、その撮影環境に関する情報を含んでもよい。 The second learning image information 1222 is not limited to the example in FIG. 8. The second learning image information 1222 may not include some of the above information items, or may include information items other than those described above. For example, the second learning image information 1222 may include information about the imaging device 3 that captured the second learning image imL2, and information about the imaging environment.

図9は、第2学習用画像imL2の一例を示す図である。図9の例では、異常検出対象tは、じゃがいもであり、じゃがいもの異常として、芽、傷及び変色を想定している。第2学習用画像imL201は、じゃがいもの芽を撮影した異常部分画像である。第2学習用画像imL202は、じゃがいもの変色した部分を撮影した異常部分画像である。第2学習用画像imL203は、じゃがいもの傷を撮影した異常部分画像である。第2学習用画像情報1222には、このように複数の異常部分画像の第2学習用画像情報1222が含まれる。 Figure 9 is a diagram showing an example of the second learning image imL2. In the example of Figure 9, the target t for abnormality detection is a potato, and potato abnormalities are assumed to be sprouts, blemishes, and discoloration. The second learning image imL201 is an abnormal portion image of a potato sprout. The second learning image imL202 is an abnormal portion image of a discolored portion of a potato. The second learning image imL203 is an abnormal portion image of a blemish on a potato. The second learning image information 1222 thus includes second learning image information 1222 of multiple abnormal portion images.

再学習用画像情報123は、AIモデルに再学習させる再学習用画像に関する情報である。再学習用画像情報123は、第1再学習用画像情報1231と、第2再学習用画像情報1232と、を含む。 The relearning image information 123 is information about relearning images to be re-learned by the AI model. The relearning image information 123 includes first relearning image information 1231 and second relearning image information 1232.

第1再学習用画像情報1231は、第1再学習用画像imrL1に関する情報である。第1再学習用画像imrL1は、異常検出モデル124に再学習させるための再学習用画像である。第1再学習用画像imrL1は、前回の再学習処理(再学習処理がまだ1度も実行されていない場合は学習処理)の実行後に異常検出処理の対象となった対象画像imの中から選択された正常画像である。 The first relearning image information 1231 is information related to the first relearning image imrL1. The first relearning image imrL1 is a relearning image for re-learning the anomaly detection model 124. The first relearning image imrL1 is a normal image selected from the target images im that were the subject of the anomaly detection process after the previous relearning process (or the learning process if the relearning process has not yet been performed even once).

図10は、第1再学習用画像情報1231の一例を示す図である。図10の第1再学習用画像情報1231は、情報項目として、「第1再学習用画像ID」と、「対象画像ID」と、「撮影日時」と、「画像データ」と、を含む。 Figure 10 is a diagram showing an example of first relearning image information 1231. The first relearning image information 1231 in Figure 10 includes the following information items: "first relearning image ID", "target image ID", "capture date and time", and "image data".

「第1再学習用画像ID」は、第1再学習用画像imrL1の識別情報である。以下では、「第1再学習用画像ID」が「imrL1XX」である第1再学習用画像imrL1を、第1再学習用画像imrL1XXと称する。 The "first relearning image ID" is identification information for the first relearning image imrL1. Hereinafter, the first relearning image imrL1 whose "first relearning image ID" is "imrL1XX" will be referred to as the first relearning image imrL1XX.

「対象画像ID」は、第1再学習用画像imrL1に対応する対象画像imの識別情報である。図10の例では、第1再学習用画像imrL101と対象画像im102とが対応する。これは、対象画像im102が第1再学習用画像imrL1として選択され、「第1再学習用画像ID」として「imrL101」を割り当てられたことを示している。 "Target image ID" is identification information of the target image im that corresponds to the first relearning image imrL1. In the example of FIG. 10, the first relearning image imrL101 corresponds to the target image imrL102. This indicates that the target image im102 has been selected as the first relearning image imrL1, and "imrL101" has been assigned as the "first relearning image ID."

「撮影日時」は、第1再学習用画像imrL1を撮影装置3が撮影した日時を示す情報である。図10の例では、第1再学習用画像imrL101の「撮影日時」は「2022/11/23 13:00:01」である。これは、第1再学習用画像imrL1が2022/11/23の13:00:01に撮影されたことを示している。第1再学習用画像imrL1の撮影日時は、対応する対象画像imの撮影日時と同じである。 The "photographing date and time" is information indicating the date and time when the first relearning image imrL1 was photographed by the photographing device 3. In the example of FIG. 10, the "photographing date and time" of the first relearning image imrL101 is "2022/11/23 13:00:01." This indicates that the first relearning image imrL1 was photographed on 2022/11/23 13:00:01. The photographing date and time of the first relearning image imrL1 is the same as the photographing date and time of the corresponding target image im.

「画像データ」は、第1再学習用画像imrL1の画像データである。図10の例では、第1再学習用画像imrL101の「画像データ」は「imrL101.png」である。これは、第1再学習用画像imrL101の画像データのファイル名がimrL101.pngであることを示している。第1再学習用画像imrL1の画像自体は、対応する対象画像imと同じである。 "Image data" is the image data of the first relearning image imrL1. In the example of FIG. 10, the "image data" of the first relearning image imrL101 is "imrL101.png". This indicates that the file name of the image data of the first relearning image imrL101 is imrL101.png. The image of the first relearning image imrL1 itself is the same as the corresponding target image im.

なお、第1再学習用画像情報1231は、図10の例に限られない。第1再学習用画像情報1231は、上記の情報項目の一部を含まなくてもよいし、上記以外の情報項目を含んでもよい。例えば、第1再学習用画像情報1231は、第1再学習用画像imrL1を撮影した撮影装置3に関する情報や、その撮影環境に関する情報を含んでもよい。 The first relearning image information 1231 is not limited to the example in FIG. 10. The first relearning image information 1231 may not include some of the above information items, or may include information items other than those described above. For example, the first relearning image information 1231 may include information about the imaging device 3 that captured the first relearning image imrL1, and information about the imaging environment.

図11は、第1再学習用画像imrL1の一例を示す図である。図11の例では、異常検出対象tは、じゃがいもであり、じゃがいもの異常として、芽、傷及び変色を想定している。第1再学習用画像imrL101~imrL103は、正常な(異常のない)じゃがいもを撮影した正常画像である。第1再学習用画像情報1231には、このように複数の正常画像の第1再学習用画像情報1231が含まれる。 Figure 11 is a diagram showing an example of the first relearning image imrL1. In the example of Figure 11, the abnormality detection target t is a potato, and potato abnormalities are assumed to be sprouts, scratches, and discoloration. The first relearning images imrL101 to imrL103 are normal images of normal (abnormal) potatoes. The first relearning image information 1231 thus includes first relearning image information 1231 of multiple normal images.

第2再学習用画像情報1232は、第2再学習用画像imrL2に関する情報である。第2再学習用画像imrL2は、異常分類モデル125に再学習させるための再学習用画像である。第2再学習用画像imrL2は、前回の学習処理又は再学習処理の実行後に異常検出処理の対象となった対象画像imの中から選択された異常画像から、異常の部分をクリッピングした異常部分画像である。 The second relearning image information 1232 is information related to the second relearning image imrL2. The second relearning image imrL2 is a relearning image for re-learning the anomaly classification model 125. The second relearning image imrL2 is an abnormal portion image obtained by clipping the abnormal portion from an abnormal image selected from the target images im that were the subject of the anomaly detection process after the previous learning process or the relearning process was executed.

図12は、第2再学習用画像情報1232の一例を示す図である。図12の第2再学習用画像情報1232は、情報項目として、「第2再学習用画像ID」と、「対象画像ID」と、「撮影日時」と、「画像データ」と、「異常種類」と、を含む。 Figure 12 is a diagram showing an example of second relearning image information 1232. The second relearning image information 1232 in Figure 12 includes the following information items: "second relearning image ID", "target image ID", "photographed date and time", "image data", and "type of abnormality".

「第2再学習用画像ID」は、第2再学習用画像imrL2の識別情報である。以下では、「第2再学習用画像ID」が「imrL2XX」である第2再学習用画像imrL2を、第2再学習用画像imrL2XXと称する。 The "second relearning image ID" is identification information for the second relearning image imrL2. Hereinafter, the second relearning image imrL2 whose "second relearning image ID" is "imrL2XX" will be referred to as the second relearning image imrL2XX.

「対象画像ID」は、第2再学習用画像imrL2に対応する対象画像imの識別情報である。図12の例では、第2再学習用画像imrL201と対象画像im101とが対応する。これは、対象画像im101が異常画像として選択され、その異常の部分をクリッピングした画像が第2再学習用画像imrL2であり、「第2再学習用画像ID」として「imrL201」を割り当てられたことを示している。 "Target image ID" is identification information of the target image im that corresponds to the second relearning image imrL2. In the example of FIG. 12, the second relearning image imrL201 corresponds to the target image im101. This indicates that the target image im101 was selected as an abnormal image, the image obtained by clipping the abnormal portion is the second relearning image imrL2, and "imrL201" has been assigned as the "second relearning image ID."

「撮影日時」は、第2再学習用画像imrL2を撮影装置3が撮影した日時を示す情報である。図12の例では、第2再学習用画像imrL201の「撮影日時」は「2022/11/23 13:00:00」である。これは、第2再学習用画像imrL2が2022/11/23の13:00:00に撮影されたことを示している。第2再学習用画像imrL2の撮影日時は、対応する対象画像imの撮影日時と同じである。 The "photographing date and time" is information indicating the date and time when the second relearning image imrL2 was photographed by the photographing device 3. In the example of FIG. 12, the "photographing date and time" of the second relearning image imrL201 is "2022/11/23 13:00:00." This indicates that the second relearning image imrL2 was photographed at 2022/11/23 13:00:00. The photographing date and time of the second relearning image imrL2 is the same as the photographing date and time of the corresponding target image im.

「画像データ」は、第2再学習用画像imrL2の画像データである。図12の例では、第2再学習用画像imrL201の「画像データ」は「imrL201.png」である。これは、第2再学習用画像imrL201の画像データのファイル名がimrL201.pngであることを示している。第2再学習用画像imrL2の画像自体は、対応する対象画像imの異常部分と同じである。 "Image data" is the image data of the second relearning image imrL2. In the example of FIG. 12, the "image data" of the second relearning image imrL201 is "imrL201.png". This indicates that the file name of the image data of the second relearning image imrL201 is imrL201.png. The image of the second relearning image imrL2 itself is the same as the abnormal part of the corresponding target image im.

「異常種類」は、第2再学習用画像imrL2に含まれる異常の種類を示す情報である。図12の例では、第2再学習用画像imrL201の「異常種類」は「変色」である。これは、第2再学習用画像imrL201が、じゃがいもの変色した部分を撮影した画像であることを示している。 "Anomaly type" is information indicating the type of anomaly contained in the second relearning image imrL2. In the example of FIG. 12, the "anomaly type" of the second relearning image imrL201 is "discoloration." This indicates that the second relearning image imrL201 is an image of a discolored part of a potato.

なお、第2再学習用画像情報1232は、図12の例に限られない。第2再学習用画像情報1232は、上記の情報項目の一部を含まなくてもよいし、上記以外の情報項目を含んでもよい。例えば、第2再学習用画像情報1232は、第2再学習用画像imrL2を撮影した撮影装置3に関する情報や、その撮影環境に関する情報を含んでもよい。 Note that the second relearning image information 1232 is not limited to the example in FIG. 12. The second relearning image information 1232 may not include some of the above information items, or may include information items other than those described above. For example, the second relearning image information 1232 may include information about the imaging device 3 that captured the second relearning image imrL2, and information about the imaging environment.

図13は、第2再学習用画像imrL2の一例を示す図である。図13の例では、異常検出対象tは、じゃがいもであり、じゃがいもの異常として、芽、傷及び変色を想定している。第2再学習用画像imrL201は、じゃがいもの変色した部分を撮影した異常部分画像である。第2再学習用画像imrL202は、じゃがいもの芽の部分を撮影した異常部分画像である。第2再学習用画像imrL203は、じゃがいもの傷を撮影した異常部分画像である。第2再学習用画像情報1232には、このように複数の異常部分画像の第2再学習用画像情報1232が含まれる。 Figure 13 is a diagram showing an example of the second relearning image imrL2. In the example of Figure 13, the abnormality detection target t is a potato, and potato abnormalities are assumed to be sprouts, blemishes, and discoloration. The second relearning image imrL201 is an abnormal portion image obtained by photographing a discolored portion of a potato. The second relearning image imrL202 is an abnormal portion image obtained by photographing a potato sprout. The second relearning image imrL203 is an abnormal portion image obtained by photographing a blemish on a potato. The second relearning image information 1232 thus includes second relearning image information 1232 of multiple abnormal portion images.

異常検出モデル124は、正常画像を学習することにより、対象画像imから異常検出対象tの異常を検出するように学習されたAIモデルである。異常検出モデル124は、対象画像imを入力されると、対象画像imに含まれる異常の有無を出力する。異常検出モデル124は、例えば、パッチコア(PatchCore)であるが、これに限られない。パッチコアについて、詳しくは後述する。異常検出モデル124として、正常画像を学習することにより異常を検出可能となる任意のAIモデルを利用できる。 The anomaly detection model 124 is an AI model trained to detect anomalies in the anomaly detection target t from the target image im by learning normal images. When the target image im is input, the anomaly detection model 124 outputs the presence or absence of anomalies contained in the target image im. The anomaly detection model 124 is, for example, a PatchCore, but is not limited to this. PatchCore will be described in detail later. Any AI model that can detect anomalies by learning normal images can be used as the anomaly detection model 124.

異常分類モデル125は、異常部分画像を学習することにより、異常部分画像から異常の種類を分類できるように学習されたAIモデルである。異常分類モデル125は、異常部分画像を入力されると、異常部分画像に含まれる異常の種類を出力する。異常分類モデル125は、例えば、CNN(Convolutional Neural Network)であるが、これに限られない。異常分類モデル125として、異常部分画像を学習することにより異常の種類を分類可能となる任意のAIモデルを利用できる。 The anomaly classification model 125 is an AI model that is trained to be able to classify the type of anomaly from an image of an abnormal part by learning from the image of the abnormal part. When an image of an abnormal part is input, the anomaly classification model 125 outputs the type of anomaly contained in the image of the abnormal part. The anomaly classification model 125 is, for example, a CNN (Convolutional Neural Network), but is not limited to this. Any AI model that can classify the type of anomaly by learning from an image of an abnormal part can be used as the anomaly classification model 125.

検出結果情報126は、対象画像imに対する異常の検出処理及び分類処理の結果を示す情報である。 The detection result information 126 is information that indicates the results of the abnormality detection process and classification process for the target image im.

図14は、検出結果情報126の一例を示す図である。図14の検出結果情報126は、情報項目として、「対象画像ID」と、「撮影日時」と、「画像データ」と、「異常」と、「異常種類」と、を含む。 Figure 14 is a diagram showing an example of detection result information 126. The detection result information 126 in Figure 14 includes the following information items: "target image ID", "photographed date and time", "image data", "abnormality", and "abnormality type".

「対象画像ID」は、異常の検出対象となった対象画像imの識別情報である。 "Target image ID" is the identification information of the target image im in which an abnormality was detected.

「撮影日時」は、対象画像imを撮影装置3が撮影した日時を示す情報である。図14の例では、対象画像im101の「撮影日時」は「2022/11/23 13:00:00」である。これは、対象画像im101が2022/11/23の13:00:00に撮影されたことを示している。 The "photographing date and time" is information indicating the date and time when the target image im was photographed by the photographing device 3. In the example of FIG. 14, the "photographing date and time" of the target image im101 is "2022/11/23 13:00:00." This indicates that the target image im101 was photographed at 13:00:00 on 2022/11/23.

「画像データ」は、対象画像imの画像データである。図14の例では、対象画像im101の「画像データ」は「im101.png」である。これは、対象画像im101の画像データのファイル名がim101.pngであることを示している。 "Image data" is the image data of the target image im. In the example of FIG. 14, the "image data" of the target image im101 is "im101.png". This indicates that the file name of the image data of the target image im101 is im101.png.

「異常」は、対象画像imに含まれる異常の有無を示す情報である。図14の例では、対象画像im101の「異常」は「有」である。これは、対象画像im101が異常を有する異常検出対象tを撮影した画像であることを示している。 "Abnormality" is information indicating whether or not there is an abnormality contained in the target image im. In the example of FIG. 14, the "abnormality" of the target image im101 is "present." This indicates that the target image im101 is an image of an abnormality detection target t that has an abnormality.

「異常種類」は、対象画像imに含まれる異常の種類を示す情報である。図14の例では、対象画像im101の「異常種類」は「変色」である。これは、対象画像im101が、変色した部分を有する異常検出対象tを撮影した画像であることを示している。 "Anomaly type" is information indicating the type of anomaly contained in the target image im. In the example of FIG. 14, the "anomaly type" of the target image im101 is "discoloration." This indicates that the target image im101 is an image of an anomaly detection target t that has a discolored part.

なお、検出結果情報126は、図14の例に限られない。検出結果情報126は、上記の情報項目の一部を含まなくてもよいし、上記以外の情報項目を含んでもよい。例えば、検出結果情報126は、対象画像imを撮影した撮影装置3に関する情報や、その撮影環境に関する情報を含んでもよい。また、図14の例では、検出結果情報126は、対象画像情報121を含むが、対象画像情報121と検出結果情報126とは別個に保存されてもよい。 The detection result information 126 is not limited to the example in FIG. 14. The detection result information 126 may not include some of the above information items, or may include information items other than those described above. For example, the detection result information 126 may include information about the imaging device 3 that captured the target image im, and information about the imaging environment. In the example in FIG. 14, the detection result information 126 includes the target image information 121, but the target image information 121 and the detection result information 126 may be stored separately.

制御部13は、プロセッサ101がメモリ102からプログラムを読み出して実行し、他のハードウェア構成と協働することにより実現される。制御部13は、異常検出装置1の動作全体を制御する。制御部13は、取得部131と、学習部132と、検出部133と、分類部134と、選択部135と、再学習部136と、を備える。 The control unit 13 is realized by the processor 101 reading and executing a program from the memory 102 and working in cooperation with other hardware configurations. The control unit 13 controls the overall operation of the anomaly detection device 1. The control unit 13 includes an acquisition unit 131, a learning unit 132, a detection unit 133, a classification unit 134, a selection unit 135, and a relearning unit 136.

取得部131は、ユーザ端末2から対象画像imを取得し、対象画像情報121として記憶部12に保存する。 The acquisition unit 131 acquires the target image im from the user terminal 2 and stores it in the storage unit 12 as target image information 121.

学習部132は、学習用画像をAIモデルに学習させる。具体的には、学習部132は、第1学習用画像imL1を異常検出モデル124に学習させる。また、学習部132は、第2学習用画像imL2を異常分類モデル125に学習させる。 The learning unit 132 trains the AI model on the training images. Specifically, the learning unit 132 trains the first training image imL1 in the anomaly detection model 124. The learning unit 132 also trains the second training image imL2 in the anomaly classification model 125.

検出部133は、異常検出モデル124を利用して、対象画像imに含まれる異常を検出する。具体的には、検出部133は、異常検出モデル124に対象画像imを入力し、異常検出モデル124が出力した異常の有無を、検出結果として取得し、検出結果情報126として記憶部12に保存する。 The detection unit 133 detects anomalies contained in the target image im using the anomaly detection model 124. Specifically, the detection unit 133 inputs the target image im to the anomaly detection model 124, obtains the presence or absence of anomalies output by the anomaly detection model 124 as a detection result, and stores the result in the storage unit 12 as detection result information 126.

分類部134は、検出部133により対象画像imに異常が検出された場合、異常分類モデル125を利用して、対象画像imに含まれる異常の種類を分類する。具体的には、分類部134は、異常が検出された対象画像imから異常の部分をクリッピングして異常部分画像を生成し、異常分類モデル125に異常部分画像を入力し、異常分類モデル125が出力した異常の種類を、分類結果として取得し、検出結果情報126として記憶部12に保存する。 When the detection unit 133 detects an abnormality in the target image im, the classification unit 134 classifies the type of abnormality contained in the target image im using the anomaly classification model 125. Specifically, the classification unit 134 generates an image of the abnormal part by clipping the abnormal part from the target image im in which the abnormality is detected, inputs the image of the abnormal part to the anomaly classification model 125, obtains the type of abnormality output by the anomaly classification model 125 as a classification result, and stores it in the storage unit 12 as detection result information 126.

選択部135は、対象画像imの中から、第1学習用画像imL1と、第2学習用画像imL2と、第1再学習用画像imrL1と、第2再学習用画像imrL2と、を選択する。選択部135は、記憶部12に保存された対象画像imの中から自動的に第1学習用画像imL1を選択してもよいし、記憶部12に保存された対象画像imをユーザに提示し、ユーザにより選択された対象画像imを第1学習用画像imL1として選択してもよい。第2学習用画像imL2、第1再学習用画像imrL1及び第2再学習用画像imrL2についても同様である。 The selection unit 135 selects the first learning image imL1, the second learning image imL2, the first relearning image imrL1, and the second relearning image imrL2 from the target images im. The selection unit 135 may automatically select the first learning image imL1 from the target images im stored in the storage unit 12, or may present the target images im stored in the storage unit 12 to the user and select the target image im selected by the user as the first learning image imL1. The same applies to the second learning image imL2, the first relearning image imrL1, and the second relearning image imrL2.

再学習部136は、再学習用画像をAIモデルに再学習させる。具体的には、再学習部136は、第1再学習用画像imrL1を異常検出モデル124に再学習させる。また、再学習部136は、第2再学習用画像imrL2を異常分類モデル125に再学習させる。 The relearning unit 136 causes the AI model to relearn the relearning image. Specifically, the relearning unit 136 causes the anomaly detection model 124 to relearn the first relearning image imrL1. The relearning unit 136 also causes the anomaly classification model 125 to relearn the second relearning image imrL2.

なお、異常検出装置1の機能構成は、上記の例に限られない。例えば、異常検出装置1は、上記の機能構成の一部を備え、残りをユーザ端末2が備えてもよい。また、異常検出装置1は、上記以外の機能構成を備えてもよい。また、異常検出装置1の各機能構成は、上記の通り、ソフトウェアにより実現されてもよいし、ICチップ、SoC(System on Chip)、LSI(Large Scale Integration)、マイクロコンピュータ等のハードウェアによって実現されてもよい。 The functional configuration of the anomaly detection device 1 is not limited to the above example. For example, the anomaly detection device 1 may have part of the functional configuration described above, with the user terminal 2 having the rest. The anomaly detection device 1 may also have functional configurations other than those described above. Each functional configuration of the anomaly detection device 1 may be realized by software, as described above, or by hardware such as an IC chip, a SoC (System on Chip), an LSI (Large Scale Integration), or a microcomputer.

<異常検出システム1000が実行する学習処理>
次に、異常検出システム1000が実行する学習処理について説明する。図15は、学習処理の一例を示すフローチャートである。以下では、異常検出システム1000がベルトコンベアで搬送されるじゃがいも(異常検出対象t)の異常を検出する場合を例に説明する。じゃがいもの異常は、芽、傷及び変色の3種類であるものとするが、異常はこれに限られない。
<Learning process executed by anomaly detection system 1000>
Next, a learning process executed by the anomaly detection system 1000 will be described. Fig. 15 is a flowchart showing an example of the learning process. In the following, a case where the anomaly detection system 1000 detects anomalies in potatoes (anomaly detection target t) transported on a belt conveyor will be described as an example. Potato anomalies are assumed to be of three types: sprouts, scratches, and discoloration, but the anomalies are not limited to these.

(ステップS101)
まず、ユーザ端末2が、撮影装置3が予め撮影した複数の対象画像imを取得する(ステップS101)。対象画像imは、ベルトコンベアで搬送されるじゃがいもを撮影装置3で撮影した画像である。ここで取得する対象画像imは、正常画像及び異常画像を含む。
(Step S101)
First, the user terminal 2 acquires a plurality of target images im captured in advance by the photographing device 3 (step S101). The target images im are images of potatoes being transported on a conveyer belt captured by the photographing device 3. The target images im acquired here include normal images and abnormal images.

(ステップS102)
次に、ユーザ端末2は、ユーザからの操作に応じて、対象画像imを選択画面に一覧表示する(ステップS102)。この選択画面は、対象画像imの中から、第1学習用画像imL1及び第2学習用画像imL2を選択するための画面である。ユーザは、選択画面に表示された対象画像imを参照して、これらの中から第1学習用画像imL1及び第2学習用画像imL2を選択する。
(Step S102)
Next, the user terminal 2 displays a list of the target images imL on a selection screen in response to an operation by the user (step S102). This selection screen is a screen for selecting the first learning image imL1 and the second learning image imL2 from among the target images imL. The user refers to the target images imL displayed on the selection screen and selects the first learning image imL1 and the second learning image imL2 from among them.

図16は、選択画面の一例を示す図である。図16の選択画面は、対象画像領域A1と、操作領域A2と、を有する。 Figure 16 is a diagram showing an example of a selection screen. The selection screen in Figure 16 has a target image area A1 and an operation area A2.

対象画像領域A1は、対象画像imを一覧表示する領域である。図16の例では、対象画像im001~im006が表示されている。対象画像im001,im004,im005は正常画像であり、対象画像im002,im003,im006は異常画像である。 The target image area A1 is an area that displays a list of target images im. In the example of FIG. 16, target images im001 to im006 are displayed. Target images im001, im004, and im005 are normal images, and target images im002, im003, and im006 are abnormal images.

操作領域A2は、選択画面の操作ボタンを表示する領域である。図16の例では、正常ボタンB1と、異常ボタンB2~B4と、送信ボタンB5と、が表示されている。 The operation area A2 is an area that displays the operation buttons of the selection screen. In the example of FIG. 16, a normal button B1, abnormal buttons B2 to B4, and a send button B5 are displayed.

正常ボタンB1は、正常画像を選択するためのボタンである。異常ボタンB2は、芽があるじゃがいもの対象画像im(異常画像)を選択するためのボタンである。異常ボタンB3は、傷があるじゃがいもの対象画像im(異常画像)を選択するためのボタンである。異常ボタンB4は、変色があるじゃがいもの対象画像im(異常画像)を選択するためのボタンである。送信ボタンB5は、選択した対象画像imを異常検出装置1に送信するためのボタンである。 The normal button B1 is a button for selecting a normal image. The abnormal button B2 is a button for selecting a target image im (abnormal image) of a potato with a sprout. The abnormal button B3 is a button for selecting a target image im (abnormal image) of a potato with a blemish. The abnormal button B4 is a button for selecting a target image im (abnormal image) of a potato with discoloration. The send button B5 is a button for sending the selected target image im to the abnormality detection device 1.

ユーザは、これらのボタンを操作して対象画像imをアノテーションし、第1学習用画像imL1及び第2学習用画像imL2を選択し、異常検出モデル124及び異常分類モデル125にそれぞれ学習させる。 The user operates these buttons to annotate the target image im, select the first learning image imL1 and the second learning image imL2, and train the anomaly detection model 124 and the anomaly classification model 125, respectively.

(ステップS103)
選択画面が表示されると、ユーザは、ユーザ端末2を操作して、対象画像領域A1に表示された対象画像imの中から正常画像を第1学習用画像imL1として選択する(ステップS103)。
(Step S103)
When the selection screen is displayed, the user operates the user terminal 2 to select a normal image as the first learning image imL1 from among the target images im displayed in the target image area A1 (step S103).

図17は、選択画面の一例を示す図である。図17の例では、正常ボタンB1が選択された状態で、対象画像im001,im004,im005が選択されている。これは、ユーザが、対象画像im001,im004,im005を正常画像と判断し、第1学習用画像imL1として選択したことを示している。この状態でユーザが送信ボタンB5を選択すると、ユーザ端末2は、対象画像im001,im004,im005を第1学習用画像imL1として異常検出装置1に送信する。 Figure 17 is a diagram showing an example of a selection screen. In the example of Figure 17, the normal button B1 is selected, and the target images im001, im004, and im005 are selected. This indicates that the user has determined that the target images im001, im004, and im005 are normal images, and selected them as the first learning image imL1. When the user selects the send button B5 in this state, the user terminal 2 sends the target images im001, im004, and im005 to the anomaly detection device 1 as the first learning image imL1.

(ステップS104)
異常検出装置1の取得部131は、ユーザ端末2が送信した第1学習用画像imL1を取得すると(ステップS104)、取得した第1学習用画像imL1に撮影日時などの情報を対応づけて、学習用画像情報122として記憶部12に保存する(図6参照)。
(Step S104)
When the acquisition unit 131 of the anomaly detection device 1 acquires the first learning image imL1 sent by the user terminal 2 (step S104), it associates information such as the shooting date and time with the acquired first learning image imL1 and stores it in the memory unit 12 as learning image information 122 (see Figure 6).

(ステップS105)
その後、学習部132は、記憶部12に保存された第1学習用画像imL1を異常検出モデル124に学習させる(ステップS105)。
(Step S105)
After that, the learning unit 132 causes the anomaly detection model 124 to learn the first learning image imL1 stored in the storage unit 12 (step S105).

ここで、パッチコアについて説明する。パッチコアは、画像データセット(例えば、ImageNet)を学習済みの画像認識モデル(例えば、ResNet)に正常画像を入力し、得られた中間層の局所的な特徴量(以下「パッチ特徴量」という。)をメモリバンクに保存し、メモリバンクに保存されたパッチ特徴量と、画像認識モデルに対象画像を入力して得られたパッチ特徴量と、の距離に基づいて、対象画像の異常を検出するものである。パッチ特徴量は、画像における位置情報を保持しているため、対象画像のエリアごとに異常の検出が行われる。すなわち、パッチコアでは、対象画像のエリアごとにパッチ特徴量間の距離が算出され、距離が閾値以上であるエリアが、異常のあるエリアとして検出される。パッチ特徴量間の距離は、エリアの異常度に相当し、対象画像上に異常度のヒートマップを表示することができる。 Here, we will explain patch core. Patch core inputs a normal image to an image recognition model (e.g., ResNet) that has been trained on an image dataset (e.g., ImageNet), stores the obtained local features of the intermediate layer (hereinafter referred to as "patch features") in a memory bank, and detects abnormalities in the target image based on the distance between the patch features stored in the memory bank and the patch features obtained by inputting the target image to the image recognition model. Since the patch features hold position information in the image, abnormalities are detected for each area of the target image. In other words, in patch core, the distance between patch features is calculated for each area of the target image, and areas where the distance is equal to or greater than a threshold are detected as areas with abnormalities. The distance between patch features corresponds to the degree of abnormality of the area, and a heat map of the degree of abnormality can be displayed on the target image.

異常検出モデル124がパッチコアである場合、まず、学習済みの画像認識モデルを用意する。既存の学習済みの画像認識モデルを用意してもよいし、既存の画像認識モデルに画像データセットを学習させてもよい。次に、複数の第1学習用画像imL1を画像認識モデルに入力し、各第1学習用画像imL1のパッチ特徴量を取得し、メモリバンクに保存する。以上の工程がパッチコアの学習処理に相当し、画像認識モデル及びメモリバンクがパッチコアのAIモデル(異常検出モデル124)に相当する。 When the anomaly detection model 124 is a patch core, first, a trained image recognition model is prepared. An existing trained image recognition model may be prepared, or an existing image recognition model may be trained with an image dataset. Next, multiple first training images imL1 are input to the image recognition model, and patch features of each first training image imL1 are obtained and stored in a memory bank. The above process corresponds to the learning process of the patch core, and the image recognition model and memory bank correspond to the AI model (anomaly detection model 124) of the patch core.

学習部132は、こうして得られた学習済みの異常検出モデル124を、記憶部12に保存する。 The learning unit 132 stores the trained anomaly detection model 124 thus obtained in the memory unit 12.

(ステップS106)
次に、ユーザは、ユーザ端末2を操作して、対象画像領域A1に表示された対象画像imの中から異常画像を異常種類ごとに選択する(ステップS106)。
(Step S106)
Next, the user operates the user terminal 2 to select abnormal images for each abnormality type from among the target images im displayed in the target image area A1 (step S106).

(ステップS107)
そして、ユーザは、選択した異常画像の中の、異常を含む少なくとも一部を、第2学習用画像imL2としてクロッピングする(ステップS107)。
(Step S107)
Then, the user crops at least a portion of the selected abnormal image that includes the abnormality as a second learning image imL2 (step S107).

図18は、選択画面の一例を示す図である。図18の例では、異常ボタンB2が選択された状態で、対象画像im002が選択され、対象画像im002におけるじゃがいもの芽の部分がクロッピングされている。これは、ユーザが、対象画像im002をじゃがいもに芽がある異常画像と判断し、対象画像im002の芽の部分の画像を、異常種類「芽」の第2学習用画像imL2(異常部分画像)として選択したことを示している。この状態でユーザが送信ボタンB5を選択すると、ユーザ端末2は、対象画像im002のクロッピングされた芽の部分の画像を、第2学習用画像imL2として異常検出装置1に送信する。 Figure 18 is a diagram showing an example of a selection screen. In the example of Figure 18, with the abnormal button B2 selected, the target image im002 is selected, and the potato sprout portion in the target image im002 is cropped. This indicates that the user has determined that the target image im002 is an abnormal image in which a potato has a sprout, and has selected the image of the sprout portion of the target image im002 as the second learning image imL2 (abnormal portion image) of the abnormality type "sprout". When the user selects the send button B5 in this state, the user terminal 2 sends the image of the cropped sprout portion of the target image imL2 to the anomaly detection device 1 as the second learning image imL2.

(ステップS108)
異常検出装置1の取得部131は、ユーザ端末2が送信した第2学習用画像imL2を取得すると(ステップS108)、取得した第2学習用画像imL2に撮影日時や異常種類などの情報を対応づけて、学習用画像情報122として記憶部12に保存する(図8参照)。
(Step S108)
When the acquisition unit 131 of the anomaly detection device 1 acquires the second learning image imL2 sent by the user terminal 2 (step S108), it associates information such as the shooting date and time and the type of anomaly with the acquired second learning image imL2 and stores it in the memory unit 12 as learning image information 122 (see Figure 8).

(ステップS109)
その後、学習部132は、記憶部12に保存された第2学習用画像imL2(異常部分画像)を異常分類モデル125に学習させる(ステップS109)。具体的には、第2学習用画像imL2の第2学習用画像情報1222を利用して、第2学習用画像imL2を入力すると、その異常種類を出力するように、異常分類モデル125に教示有り学習させる。異常の種類が芽、傷及び変色の3種類である場合、異常分類モデル125は、3種類のいずれかを出力する。異常分類モデル125が分類する異常種類の数は、任意に設定可能である。
(Step S109)
Thereafter, the learning unit 132 causes the anomaly classification model 125 to learn the second learning image imL2 (image of an abnormal part) stored in the storage unit 12 (step S109). Specifically, by utilizing the second learning image information 1222 of the second learning image imL2, the anomaly classification model 125 is taught to learn so as to output the type of anomaly when the second learning image imL2 is input. When there are three types of anomalies, namely, buds, scratches, and discolorations, the anomaly classification model 125 outputs one of the three types. The number of types of anomalies classified by the anomaly classification model 125 can be set arbitrarily.

<異常検出システム1000が実行する検出処理>
次に、異常検出システム1000が実行する検出処理について説明する。図19は、検出処理の一例を示すフローチャートである。以下では、異常検出システム1000がベルトコンベアで搬送されるじゃがいも(異常検出対象t)の異常を検出する場合を例に説明する。じゃがいもの異常は、芽、傷及び変色の3種類であるものとするが、異常はこれに限られない。また、記憶部12には、学習用画像を学習済みの異常検出モデル124及び異常分類モデル125が保存されているものとする。また、異常検出モデル124は、パッチコアであるものとする。
<Detection process executed by anomaly detection system 1000>
Next, the detection process executed by the anomaly detection system 1000 will be described. FIG. 19 is a flowchart showing an example of the detection process. In the following, an example will be described in which the anomaly detection system 1000 detects anomalies in potatoes (anomaly detection target t) transported on a belt conveyor. Potato anomalies are assumed to be of three types: sprouts, scratches, and discoloration, but the anomalies are not limited to these. Also, it is assumed that the storage unit 12 stores an anomaly detection model 124 and an anomaly classification model 125 that have already learned learning images. Also, it is assumed that the anomaly detection model 124 is a patch core.

(ステップS201)
まず、ユーザ端末2が、撮影装置3から対象画像imを取得し(ステップS201)、異常検出装置1に送信する。対象画像imは、ベルトコンベアで搬送されるじゃがいもを撮影装置3でリアルタイムに撮影した画像である。ここで取得する対象画像imは、正常画像及び異常画像を含む。撮影装置3が1秒ごとに対象画像imを撮影する場合、ユーザ端末2は新たに撮影された対象画像imを1秒ごとに取得し、異常検出装置1に送信する。なお、対象画像imの撮影間隔は任意に設定可能である。
(Step S201)
First, the user terminal 2 acquires a target image im from the photographing device 3 (step S201) and transmits it to the abnormality detection device 1. The target image im is an image of potatoes transported on a conveyer belt photographed in real time by the photographing device 3. The target images im acquired here include normal images and abnormal images. When the photographing device 3 photographs a target image im every second, the user terminal 2 acquires a newly photographed target image im every second and transmits it to the abnormality detection device 1. The photographing interval of the target image im can be set arbitrarily.

(ステップS202)
異常検出装置1の取得部131は、ユーザ端末2が送信した対象画像imを取得すると(ステップS202)、取得した対象画像imに撮影日時などの情報を対応づけて、検出結果情報126として記憶部12に保存する(図14参照)。なお、この時点では、「異常」及び「異常種類」の項目は空欄となる。
(Step S202)
When the acquisition unit 131 of the anomaly detection device 1 acquires the target image im transmitted by the user terminal 2 (step S202), it associates information such as the shooting date and time with the acquired target image im, and stores the result as detection result information 126 in the storage unit 12 (see FIG. 14). At this point, the "Abnormality" and "Type of Abnormality" fields are left blank.

(ステップS203)
新たな対象画像imが保存されると、検出部133は、異常検出モデル124を利用して、この対象画像imから異常を検出する(ステップS203)。具体的には、検出部133は、パッチコアの画像認識モデルに対象画像imを入力し、この対象画像imのパッチ特徴量を取得する。次に、検出部133は、対象画像imのパッチ特徴量と、メモリバンクに保存されたパッチ特徴量と、の距離を、対象画像imのエリアごとに算出する。そして、検出部133は、パッチ特徴量間の距離が予め設定された閾値以上のエリアが存在する場合、対象画像imに異常があると判定する。すなわち、対象画像imの異常が検出される。距離が閾値以上のエリアが、対象画像imにおける異常の部分に相当する。
(Step S203)
When a new target image im is saved, the detection unit 133 detects an abnormality from this target image im using the anomaly detection model 124 (step S203). Specifically, the detection unit 133 inputs the target image im into an image recognition model of the patch core, and acquires the patch feature of this target image im. Next, the detection unit 133 calculates the distance between the patch feature of the target image im and the patch feature saved in the memory bank for each area of the target image im. Then, when there is an area where the distance between the patch features is equal to or greater than a preset threshold, the detection unit 133 determines that the target image im has an abnormality. That is, an abnormality in the target image im is detected. The area where the distance is equal to or greater than the threshold corresponds to an abnormal part in the target image im.

(ステップS204)
対象画像imに異常が検出されなかった場合(ステップS204:NO)、処理はステップS206に進む。対象画像imに異常が検出された場合(ステップS204:YES)、処理はステップS205に進む。
(Step S204)
If no abnormality is detected in the target image im (step S204: NO), the process proceeds to step S206. If an abnormality is detected in the target image im (step S204: YES), the process proceeds to step S205.

(ステップS205)
分類部134は、異常分類モデル125を利用して、異常が検出された対象画像imに含まれる異常の種類を分類する(ステップS205)。まず、分類部134は、異常が検出された対象画像imの中から異常部分画像をクロッピングする。分類部134は、例えば、ステップS203で異常と判定されたエリアを覆う矩形の領域を、異常部分画像としてクロッピングすればよい。
(Step S205)
The classification unit 134 classifies the type of abnormality contained in the target image im in which the abnormality is detected, using the anomaly classification model 125 (step S205). First, the classification unit 134 crops an abnormal portion image from the target image im in which the abnormality is detected. For example, the classification unit 134 may crop a rectangular region covering the area determined to be abnormal in step S203 as the abnormal portion image.

図20は、異常部分画像のクロッピング方法の一例を示す図である。図20の左図は異常として芽を含む対象画像im、中図はステップS203で算出された距離(異常度)をヒートマップとして可視化した図、右図は異常部分画像を示す図である。 Figure 20 shows an example of a cropping method for an image of an abnormal part. The left diagram in Figure 20 shows a target image im that contains a bud as an abnormality, the middle diagram shows a visualization of the distance (degree of abnormality) calculated in step S203 as a heat map, and the right diagram shows an image of the abnormal part.

図20に示すように、芽を含む対象画像imに対して異常検出処理が実行されると、芽を含む部分の距離(異常度)が高くなり、対象画像imから異常が検出される。中図では、芽を含む部分の色が濃く表示されている。分類部134は、異常として検出された部分、すなわち、中図の色が濃く表示された部分を含む矩形の領域を、異常部分画像としてクロッピングする(左図)。これにより、分類部134は、異常が検出された対象画像imから自動的に異常部分画像をクロッピングすることができる。なお、中図では、芽以外の部分の色も濃くなっているが、これらの距離(異常度)は閾値以下であり、異常としては検出されていない。 As shown in FIG. 20, when an anomaly detection process is performed on a target image im that includes a sprout, the distance (degree of anomaly) of the part that includes the sprout increases, and an anomaly is detected in the target image im. In the middle diagram, the part that includes the sprout is displayed in a dark color. The classification unit 134 crops the rectangular area that includes the part detected as an anomaly, i.e., the part displayed in a dark color in the middle diagram, as an abnormal part image (left diagram). This allows the classification unit 134 to automatically crop the abnormal part image from the target image im in which an anomaly was detected. Note that in the middle diagram, the parts other than the sprout are also displayed in a dark color, but the distance (degree of anomaly) of these is below the threshold and is not detected as an anomaly.

分類部134は、こうして得られた異常部分画像を異常分類モデル125に入力し、異常分類モデル125が出力した異常種類を対象画像imの異常の種類として取得する。これにより、対象画像imの異常が分類される。図20の例では、異常種類は芽に分類される。分類部134は、 The classification unit 134 inputs the abnormal part image thus obtained to the anomaly classification model 125, and obtains the anomaly type output by the anomaly classification model 125 as the type of anomaly in the target image im. In this way, the anomaly in the target image im is classified. In the example of FIG. 20, the anomaly type is classified as a bud. The classification unit 134

(ステップS206)
その後、検出部133及び分類部134は、異常の検出結果及び分類結果を検出結果情報126として記憶部12に保存する(ステップS206)。これにより、図14のような検出結果情報126が生成される。
(Step S206)
Thereafter, the detection unit 133 and the classification unit 134 store the abnormality detection result and classification result in the storage unit 12 as the detection result information 126 (step S206). As a result, the detection result information 126 as shown in FIG.

(ステップS207)
次に、再学習部136は、異常検出モデル124及び異常分類モデル125の再学習タイミングが到来したか判定する(ステップS207)。再学習タイミングは、異常検出モデル124及び異常分類モデル125の再学習処理を実行するタイミングである。ここでは、異常検出モデル124及び異常分類モデル125の再学習タイミングが同じである場合を想定しているが、異なってもよい。再学習タイミングは、例えば、所定時間(例えば1時間、1日、1週間)ごとであってもよいし、対象画像imに対する異常検出処理を所定回数実行するごとであってもよいし、ユーザにより指定されたタイミングでもよいし、異常な対象画像imの割合又は各異常種類の割合が変化したタイミングであってもよい。割合が変化したタイミングは、例えば、過去の複数の期間でそれぞれ算出された複数の割合に基づいて設定された割合の範囲(以下「標準範囲」という。)を逸脱したタイミングである。例えば、過去の異常な対象画像imの割合に基づいて、異常な対象画像imの割合の標準範囲が10%~20%に設定された場合、ある期間の異常な対象画像imの割合が10%未満又は20%を超えると、再学習タイミングとなる。なお、標準範囲の設定方法は任意である。
(Step S207)
Next, the re-learning unit 136 determines whether the timing for re-learning the anomaly detection model 124 and the anomaly classification model 125 has arrived (step S207). The re-learning timing is the timing for executing the re-learning process of the anomaly detection model 124 and the anomaly classification model 125. Here, it is assumed that the re-learning timing of the anomaly detection model 124 and the anomaly classification model 125 is the same, but may be different. The re-learning timing may be, for example, every predetermined time (for example, one hour, one day, one week), every time the anomaly detection process is executed a predetermined number of times on the target image im, a timing specified by the user, or a timing when the ratio of abnormal target images im or the ratio of each anomaly type has changed. The timing when the ratio has changed is, for example, the timing when the ratio deviates from a range of ratios (hereinafter referred to as a "standard range") set based on a plurality of ratios calculated in a plurality of past periods. For example, if the standard range of the ratio of abnormal target images im is set to 10% to 20% based on the ratio of abnormal target images im in the past, it is time to re-learn when the ratio of abnormal target images im in a certain period falls below 10% or exceeds 20%. Note that the method for setting the standard range is arbitrary.

再学習タイミングが到来していない場合(ステップS207:NO)、処理は終了する。再学習タイミングが到来した場合(ステップS207:YES)、処理はステップS208に進む。 If the time to re-learn has not arrived (step S207: NO), the process ends. If the time to re-learn has arrived (step S207: YES), the process proceeds to step S208.

(ステップS208)
再学習タイミングが到来した場合、選択部135は、検出結果情報126を参照して、第1再学習用画像imrL1及び第2再学習用画像imrL2を選択する(ステップS208)。
(Step S208)
When the relearning timing arrives, the selection unit 135 refers to the detection result information 126 and selects a first relearning image imrL1 and a second relearning image imrL2 (step S208).

選択部135は、前回の再学習処理(再学習処理がまだ1度も実行されていない場合は学習処理)の実行後に異常検出処理の対象となった対象画像imのうち、異常が検出されなかった対象画像im(正常画像)の中から少なくとも一部を第1再学習用画像imrL1として選択する。図14の例では、対象画像im102,im105,im106の中から第1再学習用画像imrL1が選択される。選択部135は、全ての正常画像を第1再学習用画像imrL1として選択してもよいし、一部を第1再学習用画像imrL1として選択してもよい。例えば、選択部135は、その対象画像imの異常度(パッチ特徴量間の距離)の最大値が閾値以下である対象画像imを、第1再学習用画像imrL1として選択する。 The selection unit 135 selects at least a portion of the target images im (normal images) in which no abnormality was detected, as the first relearning image imrL1, from among the target images im that were the subject of the anomaly detection process after the previous relearning process (the learning process if the relearning process has not yet been performed even once). In the example of FIG. 14, the first relearning image imrL1 is selected from the target images im102, im105, and im106. The selection unit 135 may select all normal images as the first relearning image imrL1, or may select a portion of the normal images as the first relearning image imrL1. For example, the selection unit 135 selects the target image im whose maximum value of the degree of anomaly (distance between patch features) is equal to or less than a threshold value, as the first relearning image imrL1.

また、選択部135は、前回の再学習処理(再学習処理がまだ1度も実行されていない場合は学習処理)の実行後に異常検出処理の対象となった対象画像imのうち、異常が検出された対象画像im(異常画像)の中から少なくとも一部からクロッピングした異常部分画像を第2再学習用画像imrL2として選択する。図14の例では、対象画像im101,im103,im104からクロッピングした異常部分画像が第2再学習用画像imrL2として選択される。選択部135は、全ての異常画像からクロッピングした異常部分画像を第2再学習用画像imrL2として選択してもよいし、一部を第2再学習用画像imrL2として選択してもよい。異常部分画像をクロッピングする方法は上述の通りである(図20参照)。 The selection unit 135 also selects, as the second relearning image imrL2, abnormal portion images cropped from at least a portion of the target images im (abnormal images) in which an abnormality was detected, among the target images im that were the subject of the anomaly detection process after the previous relearning process (learning process if the relearning process has not yet been performed). In the example of FIG. 14, abnormal portion images cropped from the target images im101, im103, and im104 are selected as the second relearning image imrL2. The selection unit 135 may select abnormal portion images cropped from all abnormal images as the second relearning image imrL2, or may select a portion of them as the second relearning image imrL2. The method of cropping the abnormal portion images is as described above (see FIG. 20).

選択部135は、こうして選択した第1再学習用画像imrL1及び第2再学習用画像imrL2に撮影日時などの情報を対応づけて、再学習画像情報123として記憶部12に保存する。 The selection unit 135 associates information such as the shooting date and time with the first relearning image imrL1 and the second relearning image imrL2 selected in this manner, and stores them in the storage unit 12 as relearning image information 123.

(ステップS209)
再学習部136は、第1再学習用画像imrL1を異常検出モデル124に再学習させる(ステップS209)。具体的には、再学習部136は、複数の第1再学習用画像imrL1を異常検出モデル124の画像認識モデルに入力し、各第1再学習用画像imrL1のパッチ特徴量を取得し、メモリバンクに追加する。以上の工程が異常検出モデル124の再学習に相当し、これにより、異常検出モデル124が更新される。再学習部136は、再学習された異常検出モデル124を記憶部12に保存する。
(Step S209)
The relearning unit 136 causes the anomaly detection model 124 to relearn the first relearning image imrL1 (step S209). Specifically, the relearning unit 136 inputs the first relearning images imrL1 into the image recognition model of the anomaly detection model 124, acquires patch features of each of the first relearning images imrL1, and adds them to the memory bank. The above process corresponds to the relearning of the anomaly detection model 124, and the anomaly detection model 124 is thereby updated. The relearning unit 136 stores the relearned anomaly detection model 124 in the storage unit 12.

(ステップS210)
また、再学習部136は、第2再学習用画像imrL2を異常分類モデル125に再学習させる(ステップS210)。具体的には、再学習部136は、複数の第2再学習用画像imrL2と異常種類の組みを異常分類モデル125に再学習させる。これにより、異常分類モデル125が更新される。再学習部136は、再学習された異常分類モデル125を記憶部12に保存する。
(Step S210)
The relearning unit 136 also causes the anomaly classification model 125 to relearn the second relearning images imrL2 (step S210). Specifically, the relearning unit 136 causes the anomaly classification model 125 to relearn pairs of the second relearning images imrL2 and the anomaly types. This updates the anomaly classification model 125. The relearning unit 136 stores the relearned anomaly classification model 125 in the storage unit 12.

<まとめ>
以上説明した通り、本実施形態によれば、異常検出システム1000は、正常画像(第1学習用画像imL1)を学習することにより対象画像imから異常を検出するように学習された異常検出モデル124を利用して、複数の対象画像imから異常を検出する検出処理と、検出処理により異常が検出されなかった対象画像imの中の少なくとも一部を第1再学習用画像imrL1として選択する選択処理と、第1再学習用画像imrL1を異常検出モデル124に再学習させる再学習処理と、を含む異常検出処理を実行する。これにより、異常検出モデル124が常に新しい第1再学習用画像imrL1により再学習されるため、対象画像imの撮影環境が時間に応じて変化したり、異常検出対象tが時期により外観が変化するもの(野菜など)であったりした場合であっても、異常検出モデル124による異常の検出精度の経時的な低下を抑制することができる。
<Summary>
As described above, according to this embodiment, the anomaly detection system 1000 executes anomaly detection processing including a detection processing for detecting anomalies from a plurality of target images im using the anomaly detection model 124 that has been trained to detect anomalies from the target image im by learning a normal image (first learning image imL1), a selection processing for selecting at least a part of the target images im in which no anomaly was detected by the detection processing as the first re-learning image imrL1, and a re-learning processing for re-learning the first re-learning image imrL1 to the anomaly detection model 124. As a result, since the anomaly detection model 124 is always re-learned using a new first re-learning image imrL1, even if the shooting environment of the target image im changes over time or the anomaly detection target t is an object whose appearance changes depending on the season (such as a vegetable), it is possible to suppress a decrease over time in the accuracy of anomaly detection by the anomaly detection model 124.

例えば、図7の第1学習用画像imL1と、図11の第1再学習用画像imrL1と、はじゃがいもの色が全体的に異なっている。じゃがいものような野菜の場合、収穫する時期により、同じ品種であってもこのような色の変化が生じる場合がある。また、季節によって撮影環境の日照が変化し、このような色の変化が生じることもある。さらに、1日の間でも、時間帯によって日照条件などが変化し、色の変化が生じることもある。このような場合、図7の第1学習用画像imL1を学習した異常検出モデル124を利用し続けると、経時的に異常の検出精度が低下するおそれがある。 For example, the potato colors are generally different in the first learning image imL1 in FIG. 7 and the first relearning image imrL1 in FIG. 11. In the case of vegetables such as potatoes, even if they are the same variety, such color changes may occur depending on the harvest time. In addition, such color changes may occur due to changes in sunlight in the shooting environment depending on the season. Furthermore, even within a single day, sunlight conditions may change depending on the time of day, causing color changes. In such cases, if the anomaly detection model 124 trained on the first learning image imL1 in FIG. 7 continues to be used, there is a risk that the accuracy of detecting anomalies will decrease over time.

一方で、このような外観の変化は、徐々に進行することが多い。言い換えると、短時間で急激に異常の検出精度が低下する可能性は低い。このため、本実施形態のように、異常検出モデル124を、常に新しい第1再学習用画像imrL1で再学習することにより、このような外観の変化に応じた異常の検出精度の低下を抑制することができる。 On the other hand, such changes in appearance often occur gradually. In other words, it is unlikely that the accuracy of detecting anomalies will suddenly decrease in a short period of time. For this reason, as in this embodiment, by always relearning the anomaly detection model 124 with a new first relearning image imrL1, it is possible to suppress a decrease in the accuracy of detecting anomalies due to such changes in appearance.

なお、本実施形態では、対象画像imから異常が検出された場合、その異常の種類を分類したが、異常の種類の分類は行わなくてもよい。 In this embodiment, when an abnormality is detected from the target image im, the type of the abnormality is classified, but classification of the type of abnormality is not required.

また、本実施形態では、第1再学習用画像imrL1及び第2再学習用画像imrL2は、異常検出装置1により自動的に選択されたが、第1学習用画像imL1及び第2学習用画像imL2と同様に、ユーザにより選択されてもよい。 In addition, in this embodiment, the first relearning image imrL1 and the second relearning image imrL2 are automatically selected by the anomaly detection device 1, but they may be selected by the user in the same manner as the first learning image imL1 and the second learning image imL2.

例えば、ユーザ端末2は、ユーザからの操作に応じて、前回の再学習処理(再学習処理がまだ1度も実行されていない場合は学習処理)の実行後に異常検出処理の対象となった対象画像imを選択画面に一覧表示する。この選択画面は、対象画像imの中から、第1再学習用画像imrL1及び第2再学習用画像imrL2を選択するための画面である。ユーザは、選択画面に表示された対象画像imを参照して、これらの中から第1再学習用画像imrL1及び第2再学習用画像imrL2を選択すればよい(図16~図18参照)。選択部135は、ユーザにより選択された第1再学習用画像imrL1及び第2再学習用画像imrL2を、第1再学習用画像imrL1及び第2再学習用画像imrL2として選択し、記憶部12に保存する。これにより、第1再学習用画像imrL1及び第2再学習用画像imrL2をユーザが選択することができる。 For example, the user terminal 2 displays a list of target images im that were the subject of the anomaly detection process after the previous relearning process (or the learning process if the relearning process has not yet been performed once) on a selection screen in response to an operation from the user. This selection screen is a screen for selecting the first relearning image imrL1 and the second relearning image imrL2 from the target images im. The user can refer to the target images im displayed on the selection screen and select the first relearning image imrL1 and the second relearning image imrL2 from among them (see Figures 16 to 18). The selection unit 135 selects the first relearning image imrL1 and the second relearning image imrL2 selected by the user as the first relearning image imrL1 and the second relearning image imrL2, and stores them in the storage unit 12. This allows the user to select the first relearning image imrL1 and the second relearning image imrL2.

<付記>
本実施形態は、以下の開示を含む。
<Additional Notes>
The present embodiment includes the following disclosure.

(付記1)
異常検出システムが実行する異常検出方法であって、
正常画像を学習することにより画像から異常を検出するように学習された異常検出モデルを利用して、複数の対象画像から異常を検出する検出処理と、
前記検出処理により異常が検出されなかった対象画像の中の少なくとも一部を第1再学習用画像として選択する選択処理と、
前記第1再学習用画像を前記異常検出モデルに再学習させる再学習処理と、
を含む異常検出方法。
(Appendix 1)
An anomaly detection method executed by an anomaly detection system, comprising:
A detection process for detecting anomalies from a plurality of target images using an anomaly detection model trained to detect anomalies from images by learning normal images;
a selection process of selecting, as a first relearning image, at least a part of the target images in which no abnormality is detected by the detection process;
a re-learning process for re-learning the first re-learning image into the anomaly detection model;
The anomaly detection method includes:

(付記2)
前記選択処理は、前回の再学習処理の実行後に検出処理の対象となった対象画像の中から前記第1再学習用画像を選択する
付記1に記載の異常検出方法。
(Appendix 2)
The anomaly detection method according to claim 1, wherein the selection process selects the first relearning image from among target images that were the subject of a detection process after a previous relearning process was executed.

(付記3)
前記選択処理は、異常度が閾値以下の正常画像を前記第1再学習用画像として選択する
付記1に記載の異常検出方法。
(Appendix 3)
The anomaly detection method according to claim 1, wherein the selection process selects normal images having an abnormality degree equal to or less than a threshold as the first relearning images.

(付記4)
前記選択処理は、対象画像を一覧表示し、一覧表示された対象画像の中からユーザにより選択された対象画像を前記第1再学習用画像として選択する
付記1に記載の異常検出方法。
(Appendix 4)
The anomaly detection method according to claim 1, wherein the selection process includes displaying a list of target images and selecting a target image selected by a user from the list of target images as the first re-learning image.

(付記5)
前記再学習処理は、所定時間ごとに実行される
付記1に記載の異常検出方法。
(Appendix 5)
2. The abnormality detection method according to claim 1, wherein the re-learning process is executed at predetermined time intervals.

(付記6)
検出処理により対象画像から異常が検出された場合、異常部分画像を学習することにより異常画像に含まれる異常を分類するように学習された異常分類モデルを利用して、検出された異常を分類する分類処理を更に含む
付記1に記載の異常検出方法。
(Appendix 6)
The anomaly detection method described in Appendix 1 further includes a classification process for classifying the detected anomaly using an anomaly classification model trained to classify anomalies contained in the abnormal image by learning images of abnormal parts when an anomaly is detected in the target image by the detection process.

(付記7)
前記選択処理は、前記検出処理により異常が検出された対象画像の中の少なくとも一部からクロッピングした異常部分画像を第2再学習用画像として選択し、
前記再学習処理は、前記第2再学習用画像を前記異常分類モデルに再学習させる
付記6に記載の異常検出方法。
(Appendix 7)
The selection process includes selecting, as a second re-learning image, an abnormal portion image cropped from at least a portion of a target image in which an abnormality has been detected by the detection process;
The anomaly detection method according to claim 6, wherein the re-learning process re-learns the second re-learning image to the anomaly classification model.

(付記8)
コンピュータに、
正常画像を学習することにより画像から異常を検出するように学習された異常検出モデルを利用して、複数の対象画像から異常を検出する検出処理と、
前記検出処理により異常が検出されなかった対象画像の中の少なくとも一部を第1再学習用画像として選択する選択処理と、
前記第1再学習用画像を前記異常検出モデルに再学習させる再学習処理と、
を含む異常検出方法を実行させるためのプログラム。
(Appendix 8)
On the computer,
A detection process for detecting anomalies from a plurality of target images using an anomaly detection model trained to detect anomalies from images by learning normal images;
a selection process of selecting, as a first relearning image, at least a part of the target images in which no abnormality is detected by the detection process;
a re-learning process for re-learning the first re-learning image into the anomaly detection model;
A program for executing an anomaly detection method including the steps of:

(付記9)
正常画像を学習することにより画像から異常を検出するように学習された異常検出モデルを利用して、複数の対象画像から異常を検出する検出部と、
前記検出部により異常が検出されなかった対象画像の中の少なくとも一部を第1再学習用画像として選択する選択部と、
前記第1再学習用画像を前記異常検出モデルに再学習させる再学習部と、
を含む異常検出システム。
(Appendix 9)
a detection unit that detects anomalies from a plurality of target images using an anomaly detection model that has been trained to detect anomalies from images by learning normal images;
a selection unit that selects at least a portion of target images in which no abnormality has been detected by the detection unit as first relearning images;
a re-learning unit that re-learns the first re-learning image into the anomaly detection model;
An anomaly detection system including:

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。また、本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The embodiments disclosed herein are illustrative in all respects and should not be considered restrictive. The scope of the present invention is indicated by the claims, not by the meaning described above, and is intended to include all modifications within the meaning and scope of the claims. Furthermore, the present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the claims, and embodiments obtained by appropriately combining the technical means disclosed in different embodiments are also included in the technical scope of the present invention.

1:異常検出装置
2:ユーザ端末
3:撮影装置
11:通信部
12:記憶部
13:制御部
121:対象画像情報
122:学習用画像情報
123:再学習用画像情報
124:異常検出モデル
125:異常分類モデル
126:検出結果情報
131:取得部
132:学習部
133:検出部
134:分類部
135:選択部
136:再学習部
1: Anomaly detection device 2: User terminal 3: Imaging device 11: Communication unit 12: Storage unit 13: Control unit 121: Target image information 122: Learning image information 123: Re-learning image information 124: Anomaly detection model 125: Anomaly classification model 126: Detection result information 131: Acquisition unit 132: Learning unit 133: Detection unit 134: Classification unit 135: Selection unit 136: Re-learning unit

Claims (9)

異常検出システムが実行する異常検出方法であって、
正常画像を学習することにより画像から異常を検出するように学習された異常検出モデルを利用して、複数の対象画像から異常を検出する検出処理と、
前記検出処理により異常が検出されなかった対象画像の中の少なくとも一部を第1再学習用画像として選択する選択処理と、
前記第1再学習用画像を前記異常検出モデルに再学習させる再学習処理と、
を含む異常検出方法。
An anomaly detection method executed by an anomaly detection system, comprising:
A detection process for detecting anomalies from a plurality of target images using an anomaly detection model trained to detect anomalies from images by learning normal images;
a selection process of selecting, as a first relearning image, at least a part of the target images in which no abnormality is detected by the detection process;
a re-learning process for re-learning the first re-learning image into the anomaly detection model;
The anomaly detection method includes:
前記選択処理は、前回の再学習処理の実行後に検出処理の対象となった対象画像の中から前記第1再学習用画像を選択する
請求項1に記載の異常検出方法。
The anomaly detection method according to claim 1 , wherein the selection process selects the first relearning image from among target images that have been the subject of detection processing after a previous execution of the relearning process.
前記選択処理は、異常度が閾値以下の正常画像を前記第1再学習用画像として選択する
請求項1に記載の異常検出方法。
The anomaly detection method according to claim 1 , wherein the selection process selects normal images whose degree of anomaly is equal to or less than a threshold as the first relearning images.
前記選択処理は、対象画像を一覧表示し、一覧表示された対象画像の中からユーザにより選択された対象画像を前記第1再学習用画像として選択する
請求項1に記載の異常検出方法。
The anomaly detection method according to claim 1 , wherein the selection process includes displaying a list of target images, and selecting a target image selected by a user from the list of target images as the first re-learning image.
前記再学習処理は、所定時間ごとに実行される
請求項1に記載の異常検出方法。
The abnormality detection method according to claim 1 , wherein the re-learning process is executed at predetermined time intervals.
検出処理により対象画像から異常が検出された場合、異常部分画像を学習することにより異常画像に含まれる異常を分類するように学習された異常分類モデルを利用して、検出された異常を分類する分類処理を更に含む
請求項1に記載の異常検出方法。
2. The anomaly detection method according to claim 1, further comprising a classification process for classifying the detected anomaly using an anomaly classification model trained to classify anomalies contained in the abnormal image by learning images of abnormal parts when an anomaly is detected in the target image by the detection process.
前記選択処理は、前記検出処理により異常が検出された対象画像の中の少なくとも一部からクロッピングした異常部分画像を第2再学習用画像として選択し、
前記再学習処理は、前記第2再学習用画像を前記異常分類モデルに再学習させる
請求項6に記載の異常検出方法。
The selection process includes selecting, as a second re-learning image, an abnormal portion image cropped from at least a portion of a target image in which an abnormality has been detected by the detection process;
The anomaly detection method according to claim 6 , wherein the re-learning process re-learns the second re-learning image to the anomaly classification model.
コンピュータに、
正常画像を学習することにより画像から異常を検出するように学習された異常検出モデルを利用して、複数の対象画像から異常を検出する検出処理と、
前記検出処理により異常が検出されなかった対象画像の中の少なくとも一部を第1再学習用画像として選択する選択処理と、
前記第1再学習用画像を前記異常検出モデルに再学習させる再学習処理と、
を含む異常検出方法を実行させるためのプログラム。
On the computer,
A detection process for detecting anomalies from a plurality of target images using an anomaly detection model trained to detect anomalies from images by learning normal images;
a selection process of selecting, as a first relearning image, at least a part of the target images in which no abnormality is detected by the detection process;
a re-learning process for re-learning the first re-learning image into the anomaly detection model;
A program for executing an anomaly detection method including the steps of:
正常画像を学習することにより画像から異常を検出するように学習された異常検出モデルを利用して、複数の対象画像から異常を検出する検出部と、
前記検出部により異常が検出されなかった対象画像の中の少なくとも一部を第1再学習用画像として選択する選択部と、
前記第1再学習用画像を前記異常検出モデルに再学習させる再学習部と、
を含む異常検出システム。
a detection unit that detects anomalies from a plurality of target images using an anomaly detection model that has been trained to detect anomalies from images by learning normal images;
a selection unit that selects at least a portion of target images in which no abnormality has been detected by the detection unit as first relearning images;
a re-learning unit that re-learns the first re-learning image into the anomaly detection model;
An anomaly detection system including:
JP2022192334A 2022-11-30 2022-11-30 Abnormality detection method, abnormality detection system and program Active JP7323841B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022192334A JP7323841B1 (en) 2022-11-30 2022-11-30 Abnormality detection method, abnormality detection system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022192334A JP7323841B1 (en) 2022-11-30 2022-11-30 Abnormality detection method, abnormality detection system and program

Publications (2)

Publication Number Publication Date
JP7323841B1 JP7323841B1 (en) 2023-08-09
JP2024079411A true JP2024079411A (en) 2024-06-11

Family

ID=87519487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022192334A Active JP7323841B1 (en) 2022-11-30 2022-11-30 Abnormality detection method, abnormality detection system and program

Country Status (1)

Country Link
JP (1) JP7323841B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020030565A (en) * 2018-08-22 2020-02-27 株式会社Ye Digital Image determination method, image determination device and image determination program
JP2021140739A (en) * 2020-02-28 2021-09-16 株式会社Pros Cons Program, method for creating learned model, information processing method and information processing device
JP2022126620A (en) * 2021-02-18 2022-08-30 トピー工業株式会社 Surface defect detection device, surface defect detection method, and surface defect detection program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020030565A (en) * 2018-08-22 2020-02-27 株式会社Ye Digital Image determination method, image determination device and image determination program
JP2021140739A (en) * 2020-02-28 2021-09-16 株式会社Pros Cons Program, method for creating learned model, information processing method and information processing device
JP2022126620A (en) * 2021-02-18 2022-08-30 トピー工業株式会社 Surface defect detection device, surface defect detection method, and surface defect detection program

Also Published As

Publication number Publication date
JP7323841B1 (en) 2023-08-09

Similar Documents

Publication Publication Date Title
US11501428B2 (en) Method, apparatus and system for detecting fundus image based on machine learning
US20150262068A1 (en) Event detection apparatus and event detection method
CN111587450A (en) Fresh agricultural product identification system of retail checkout terminal
JP2016109495A (en) Classifier generation device, appearance inspection device, classifier generation method, and program
JP2007264860A (en) Face area extraction device
JP2011123742A (en) Intruding object detector
JP2017211939A (en) Generation device, generation method, and generation program
US12002085B2 (en) Digital image ordering using object position and aesthetics
KR102476496B1 (en) Method for identify product through artificial intelligence-based barcode restoration and computer program recorded on record-medium for executing method therefor
JP7323841B1 (en) Abnormality detection method, abnormality detection system and program
CN108898163B (en) Information processing method and device, electronic equipment and computer readable storage medium
US20190104222A1 (en) Information processing apparatus, control method, and storage medium
JP2019192169A (en) Determination device, determination method, and object determination program
KR102469015B1 (en) Method for identify product using multiple camera with different wavelength ranges and computer program recorded on record-medium for executing method therefor
CN116363753A (en) Tumble detection method and device based on motion history image and electronic equipment
JP6784254B2 (en) Retained object detection system, retained object detection method and program
US20210397881A1 (en) Image processing apparatus and image processing method
US20230062764A1 (en) Method, system and computer program products for management of supply chains and/or inventory for perishable goods
KR20180112136A (en) Method for analyzing freshness of food and system using the same
JP2010087937A (en) Video detection device, video detection method and video detection program
WO2024142888A1 (en) Ripeness determination system and ripeness determination method
JP2021002270A (en) Image recognition learning device, image recognition learning method, image recognition learning program and terminal device
KR102476498B1 (en) Method for identify product through artificial intelligence-based complex recognition and computer program recorded on record-medium for executing method therefor
KR102476493B1 (en) Apparatus for product identification and method using the same
US11055834B2 (en) Information processing device, information processing method, and recording medium for processing synthesized images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221206

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230710

R150 Certificate of patent or registration of utility model

Ref document number: 7323841

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150