JP2023017169A - Film inspection apparatus, film inspection method and program - Google Patents

Film inspection apparatus, film inspection method and program Download PDF

Info

Publication number
JP2023017169A
JP2023017169A JP2021121221A JP2021121221A JP2023017169A JP 2023017169 A JP2023017169 A JP 2023017169A JP 2021121221 A JP2021121221 A JP 2021121221A JP 2021121221 A JP2021121221 A JP 2021121221A JP 2023017169 A JP2023017169 A JP 2023017169A
Authority
JP
Japan
Prior art keywords
film
processing
defect
light
inspection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021121221A
Other languages
Japanese (ja)
Inventor
翔太 畠沢
Shota Hatazawa
正悟 佐川
Shogo Sagawa
陽祐 河邑
Yosuke Kawamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2021121221A priority Critical patent/JP2023017169A/en
Priority to TW111114662A priority patent/TWI829143B/en
Priority to KR1020220058999A priority patent/KR20230016571A/en
Priority to CN202210870412.5A priority patent/CN115684189A/en
Publication of JP2023017169A publication Critical patent/JP2023017169A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N21/8901Optical details; Scanning details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N21/892Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles characterised by the flaw, defect or object feature examined
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8858Flaw counting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8883Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges involving the calculation of gauges, generating models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Immunology (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Textile Engineering (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

To easily detect defects having occurred in a film without requiring manual monitoring.SOLUTION: A film inspection apparatus that optically inspects defects having occurred in films in a mutually overlapping state, performs an inspection method comprising the steps of: irradiating, by a light source, an inspection area of the film with light (step S1); photographing, by a camera (optical sensor) the inspection area of the film, and detecting diffused light from light reflected on the inspection area (step S2); and performing, by a control unit, data processing on output signals from the camera so as to detect one or more defects (step S5).SELECTED DRAWING: Figure 6

Description

本発明は、フィルム検査装置、フィルム検査方法及びプログラムに関する。 The present invention relates to a film inspection device, a film inspection method, and a program.

長尺の樹脂フィルムをロール状に巻き取る際には、フィルムの状態(膜厚偏差、残留応力、温度、湿度)や巻き取りの条件(張力、速度、同伴空気)によって、様々な欠陥が発生する。フィルムにおける欠陥として、例えば、フィルム同士の張り付きによるロールの周方向における暗い筋状の不良(ゲージバンド)、周方向の筋状の変形(縦シワ)、斜め方向の変形(斜めシワ)等がある。 When winding a long resin film into a roll, various defects occur depending on the film state (film thickness deviation, residual stress, temperature, humidity) and winding conditions (tension, speed, entrained air). do. Defects in the film include, for example, dark streak defects in the circumferential direction of the roll due to film sticking (gauge band), streak deformation in the circumferential direction (vertical wrinkles), and diagonal deformation (diagonal wrinkles). .

欠陥が発生したロールは、不良品として検出する必要があるため、従来、人が目視でフィルムロールの巻き取りを監視している。具体的には、巻き取り中のフィルムロールに対して、作業員が数分ごとに監視を行い、ロールの状態を数十mm間隔で記録している。このように、フィルム上の欠陥の検出には人手が必要であるとともに、人によって判断にばらつきがある。 Since it is necessary to detect a defective roll as a defective product, people have conventionally visually monitored the winding of the film roll. Specifically, an operator monitors the film roll being wound every few minutes and records the state of the roll at intervals of several tens of millimeters. As described above, the detection of defects on the film requires manual labor, and the judgment varies from person to person.

これに対し、フィルムを読み取って得られた画像に対する画像処理技術を用いて、ロール状フィルムの巻き取り時に生じるシワや傷等の特定の欠陥を自動的に検出する試みがなされている。例えば、ロール状フィルムに光を照射して、カメラによりロールを撮影し、ロールからの反射光に基づいてシワを検出する技術が提案されている(特許文献1参照)。 In response to this, attempts have been made to automatically detect specific defects such as wrinkles and scratches that occur when a roll film is wound by using an image processing technique for images obtained by reading the film. For example, there has been proposed a technique of irradiating a roll-shaped film with light, photographing the roll with a camera, and detecting wrinkles based on light reflected from the roll (see Patent Document 1).

特開2002-365225号公報JP-A-2002-365225

しかしながら、特許文献1に記載された技術では、正反射光を用いているため、カメラにより得られた画像データからシワ(フィルム表面の凹凸)に起因する筋状の異常反射域は検出できるが、ゲージバンドのようなフィルム表面が略平らな欠陥については検出できないという問題があった。 However, since the technique described in Patent Document 1 uses specularly reflected light, streaky abnormal reflection areas caused by wrinkles (unevenness on the film surface) can be detected from the image data obtained by the camera. There is a problem that a defect such as a gauge band having a substantially flat film surface cannot be detected.

また、シワの強度(ランク)は、シワの形状だけなく、凹凸の度合いにも依存するが、特許文献1に記載された技術では、シワの凹凸以外の原因で、カメラが受ける光の強度が変動しやすく、画像データから正確な凹凸の度合いを検出できないため、欠陥を定量化することは困難であった。 The strength (rank) of a wrinkle depends not only on the shape of the wrinkle but also on the degree of unevenness. It has been difficult to quantify the defects because they tend to fluctuate and the degree of unevenness cannot be detected accurately from the image data.

そのため、シワ以外の欠陥が発生する場合や、欠陥を定量的に評価したい場合には、結局作業員の監視が必要であった。特に、欠陥が発生しない条件探索を行う場合には、現状の条件で欠陥を定量的に評価することが必要となる。 Therefore, when a defect other than wrinkles occurs, or when the defect is to be evaluated quantitatively, it is necessary to monitor the worker. In particular, when searching for conditions under which defects do not occur, it is necessary to quantitatively evaluate defects under current conditions.

本発明は、上記の従来技術における問題に鑑みてなされたものであって、人手による監視を必要とすることなく、フィルムに発生した欠陥の検出を容易に行うことを課題とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems in the prior art, and an object of the present invention is to easily detect defects occurring in a film without requiring manual monitoring.

上記課題を解決するために、請求項1に記載の発明は、重なった状態のフィルムに発生した欠陥を光学的に検査するフィルム検査装置であって、前記フィルムの検査領域に光を照射する光源と、前記フィルムの検査領域において反射された光のうち拡散光を検出する光学センサーと、前記光学センサーの出力信号に対してデータ処理を行うことで、前記欠陥を検出する制御部と、を備える。 In order to solve the above problems, the invention according to claim 1 is a film inspection apparatus for optically inspecting defects occurring in films in a state of being superimposed, wherein a light source for irradiating an inspection area of the film with light is provided. and an optical sensor that detects diffused light among the light reflected in the inspection area of the film, and a control unit that detects the defect by performing data processing on the output signal of the optical sensor. .

請求項2に記載の発明は、請求項1に記載のフィルム検査装置において、前記データ処理は、前記光学センサーの出力信号から得られた画像データに対する画像処理と、当該画像処理後のデータに基づいて前記欠陥を判定する欠陥判定処理と、を含む。 The invention according to claim 2 is the film inspection apparatus according to claim 1, wherein the data processing includes image processing of image data obtained from an output signal of the optical sensor, and image processing based on the data after the image processing. and a defect determination process for determining the defect with the

請求項3に記載の発明は、請求項2に記載のフィルム検査装置において、前記制御部は、前記欠陥判定処理において、前記画像処理後のデータを説明変数とし、人による前記欠陥の判定結果を目的変数として構築された機械学習モデルを用いる。 The invention according to claim 3 is the film inspection apparatus according to claim 2, wherein in the defect determination process, the control unit uses the data after the image processing as an explanatory variable, and the result of the defect determination by a person. We use a machine learning model constructed as the objective variable.

請求項4に記載の発明は、請求項2又は3に記載のフィルム検査装置において、前記データ処理は、さらに、前記画像処理後のデータに基づいて前記欠陥を定量評価する定量評価処理を含む。 According to a fourth aspect of the invention, in the film inspection apparatus according to the second or third aspect, the data processing further includes quantitative evaluation processing for quantitatively evaluating the defects based on the data after the image processing.

請求項5に記載の発明は、請求項4に記載のフィルム検査装置において、前記制御部は、前記定量評価処理において、前記画像処理後のデータを説明変数とし、人による前記欠陥の定量評価結果を目的変数として構築された機械学習モデルを用いる。 The invention according to claim 5 is the film inspection apparatus according to claim 4, wherein in the quantitative evaluation process, the control unit uses the data after the image processing as an explanatory variable, and a quantitative evaluation result of the defect by a person is used. is used as the objective variable.

請求項6に記載の発明は、請求項1から5のいずれか一項に記載のフィルム検査装置において、前記フィルムは、ロール状に巻き取られるものであり、当該フィルム検査装置は、前記フィルムの巻き取り中に発生した前記欠陥を検査対象とする。 The invention according to claim 6 is the film inspection apparatus according to any one of claims 1 to 5, wherein the film is wound into a roll, and the film inspection apparatus The defects that occur during winding are to be inspected.

請求項7に記載の発明は、請求項6に記載のフィルム検査装置において、前記光源は、前記ロール状のフィルムの幅方向において均一に光を照射するものである。 According to a seventh aspect of the invention, there is provided the film inspection apparatus according to the sixth aspect, wherein the light source radiates light uniformly in the width direction of the roll-shaped film.

請求項8に記載の発明は、請求項1から7のいずれか一項に記載のフィルム検査装置において、前記光学センサーの出力信号において、前記フィルム上の前記光源により光が照射される照射部に対応する信号値と、前記光源により光が照射されない非照射部に対応する信号値とのコントラストが所定値以上である。 The invention according to claim 8 is the film inspection apparatus according to any one of claims 1 to 7, wherein the output signal of the optical sensor is applied to an irradiation part irradiated with light from the light source on the film. A contrast between a corresponding signal value and a signal value corresponding to a non-illuminated portion not illuminated by the light source is equal to or greater than a predetermined value.

請求項9に記載の発明は、請求項1から8のいずれか一項に記載のフィルム検査装置において、前記フィルムの検査領域において反射された光のうち正反射光が前記光学センサーに入らないように、反射防止板が設けられている。 A ninth aspect of the invention is directed to the film inspection apparatus according to any one of the first to eighth aspects, wherein the specular light of the light reflected in the inspection area of the film is prevented from entering the optical sensor. is provided with an antireflection plate.

請求項10に記載の発明は、請求項1から9のいずれか一項に記載のフィルム検査装置において、前記光学センサーは、白黒カメラである。 The invention according to claim 10 is the film inspection apparatus according to any one of claims 1 to 9, wherein the optical sensor is a black-and-white camera.

請求項11に記載の発明は、重なった状態のフィルムに発生した欠陥を光学的に検査するフィルム検査方法であって、光源により、前記フィルムの検査領域に光を照射する工程と、光学センサーにより、前記フィルムの検査領域において反射された光のうち拡散光を検出する工程と、制御部により、前記光学センサーの出力信号に対してデータ処理を行うことで、前記欠陥を検出する工程と、を含む。 According to an eleventh aspect of the invention, there is provided a film inspection method for optically inspecting defects occurring in films in an overlapping state, comprising a step of irradiating an inspection area of the film with a light source, and an optical sensor. a step of detecting diffused light among the light reflected in the inspection area of the film; and a step of detecting the defect by performing data processing on the output signal of the optical sensor by a control unit. include.

請求項12に記載の発明は、重なった状態のフィルムの検査領域に光を照射する光源と、前記フィルムの検査領域において反射された光のうち拡散光を検出する光学センサーと、を備え、前記フィルムに発生した欠陥を光学的に検査するフィルム検査装置のコンピューターを、前記光学センサーの出力信号に対してデータ処理を行うことで、前記欠陥を検出する制御部として機能させるためのプログラムである。 The invention according to claim 12 comprises a light source that irradiates light onto an inspection area of films in an overlapping state, and an optical sensor that detects diffused light among the light reflected in the inspection area of the film, A program for causing a computer of a film inspection device that optically inspects defects occurring in a film to function as a control unit that detects the defects by performing data processing on the output signal of the optical sensor.

本発明によれば、人手による監視を必要とすることなく、フィルムに発生した欠陥の検出を容易に行うことができる。 According to the present invention, defects occurring in the film can be easily detected without the need for manual monitoring.

本発明の第1の実施の形態におけるフィルム検査装置の機能的構成を示す図である。It is a figure showing the functional composition of the film inspection device in a 1st embodiment of the present invention. 光源及びカメラの配置を説明するための図である。It is a figure for demonstrating arrangement|positioning of a light source and a camera. 実際のフィルム検査装置における光源及びカメラの配置例である。It is an example of arrangement of a light source and a camera in an actual film inspection device. ロール状のフィルムに対する光源及びカメラの位置関係を示す斜視図である。It is a perspective view which shows the positional relationship of the light source and camera with respect to a roll-shaped film. 反射防止板の配置を説明するための図である。It is a figure for demonstrating arrangement|positioning of an antireflection board. フィルム検査装置により実行されるフィルム欠陥検出処理を示すフローチャートである。4 is a flow chart showing film defect detection processing executed by the film inspection device; データ処理を示すフローチャートである。It is a flow chart which shows data processing. 第2の実施の形態のフィルム検査装置により実行されるフィルム欠陥学習処理を示すフローチャートである。9 is a flow chart showing film defect learning processing executed by the film inspection apparatus of the second embodiment; 説明変数の特徴量作成処理を示すフローチャートである。FIG. 10 is a flow chart showing a feature quantity creation process for an explanatory variable; FIG. 目的変数のラベル付け処理を示すフローチャートである。FIG. 10 is a flowchart showing a labeling process for objective variables; FIG. 学習用データセットの例である。It is an example of a training data set. 目視評価画面の例であるAn example of a visual evaluation screen 第2のデータ処理を示すフローチャートである。4 is a flowchart showing second data processing; 第2の実施の形態のフィルム検査装置により得られた評価結果の例である。It is an example of evaluation results obtained by the film inspection apparatus of the second embodiment. (a)は、フィルム検査装置においてフィルムを撮影して得られた画像データから算出された特徴量の例である。(b)は、官能評価結果である。(a) is an example of feature amounts calculated from image data obtained by photographing a film in a film inspection apparatus. (b) is a sensory evaluation result. フィルム上の照射部と非照射部とのコントラストの例である。It is an example of the contrast between the irradiated area and the non-irradiated area on the film.

以下、本発明に係るフィルム検査装置の実施の形態について、図面を参照しながら説明する。ただし、本発明の範囲は、図示例に限定されるものではない。 BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of a film inspection apparatus according to the present invention will be described below with reference to the drawings. However, the scope of the present invention is not limited to the illustrated examples.

[第1の実施の形態]
図1に、第1の実施の形態におけるフィルム検査装置10の機能的構成を示す。フィルム検査装置10は、光源11、光学センサーとしてのカメラ12、データ処理装置20を備える。フィルム検査装置10は、ロール状に巻き取られ、重なった状態のフィルムFに発生した欠陥を光学的に検査するものである。フィルム検査装置10は、長尺のフィルムFの巻き取り中に発生した欠陥を検査対象とする。
[First embodiment]
FIG. 1 shows the functional configuration of a film inspection apparatus 10 according to the first embodiment. A film inspection apparatus 10 includes a light source 11 , a camera 12 as an optical sensor, and a data processing device 20 . The film inspection apparatus 10 optically inspects defects that have occurred in the film F that has been rolled up and stacked. The film inspection apparatus 10 inspects defects that occur while the long film F is being wound.

フィルムFの素材としては、特に限定されないが、一般的には、ポリカーボネート樹脂、ポリスルホン樹脂、アクリル樹脂、ポリオレフィン樹脂、環状オレフィン系樹脂、ポリエーテル樹脂、ポリエステル樹脂、ポリアミド樹脂、ポリスルフィド樹脂、不飽和ポリエステル樹脂、エポキシ樹脂、メラミン樹脂、フェノール樹脂、ジアリルフタレート樹脂、ポリイミド樹脂、ウレタン樹脂、ポリ酢酸ビニル樹脂、ポリビニルアルコール樹脂、スチレン樹脂、酢酸セルロース樹脂、塩化ビニル樹脂等が挙げられる。
また、例えば、フィルムFの厚さは1~1000μm、フィルムFの幅は0.1~5mのものを使用する。
Materials for the film F are not particularly limited, but generally polycarbonate resins, polysulfone resins, acrylic resins, polyolefin resins, cyclic olefin resins, polyether resins, polyester resins, polyamide resins, polysulfide resins, and unsaturated polyesters. Resins, epoxy resins, melamine resins, phenol resins, diallyl phthalate resins, polyimide resins, urethane resins, polyvinyl acetate resins, polyvinyl alcohol resins, styrene resins, cellulose acetate resins, vinyl chloride resins, and the like.
Also, for example, the thickness of the film F is 1 to 1000 μm, and the width of the film F is 0.1 to 5 m.

フィルムFにおける欠陥としては、ゲージバンド、縦シワ、斜めシワ等が挙げられる。
ゲージバンドは、フィルムF同士の張り付きが原因となって周囲と比較して黒っぽく見える欠陥であり、ロールの周方向における暗い筋状の不良である。ゲージバンドは、ブラックバンド、コブともいう。
縦シワは、ロールの周方向の筋状の変形である。縦シワは、提灯座屈ともいう。
斜めシワは、ロールの周方向及び幅方向に対して斜め方向の変形であり、ピラミッド状、チェーン状の凹凸を有する。斜めシワは、ダイヤモンド座屈ともいう。
Defects in film F include gauge bands, vertical wrinkles, diagonal wrinkles, and the like.
A gauge band is a defect that appears darker than the surroundings due to sticking of the films F to each other, and is a dark streak-like defect in the circumferential direction of the roll. Gauge bands are also called black bands or bumps.
Vertical wrinkles are streaky deformations in the circumferential direction of the roll. Vertical wrinkles are also called lantern buckling.
Oblique wrinkles are deformations in a direction oblique to the circumferential and width directions of the roll, and have pyramid-like or chain-like unevenness. Oblique wrinkles are also called diamond buckling.

光源11は、フィルムFの検査領域に光を照射する。光源11は、ロール状のフィルムFの幅方向(フィルムFの長手方向と直交する方向であって、フィルム面に平行な方向)において均一に光を照射するものである。ここで、均一とは、フィルムFにおける照度が、フィルムFの幅方向に亘って略同一(最大値と最小値の差が所定値以下等)であることをいう。 The light source 11 irradiates the inspection area of the film F with light. The light source 11 radiates light uniformly in the width direction of the roll-shaped film F (the direction perpendicular to the longitudinal direction of the film F and parallel to the film surface). Here, "uniform" means that the illuminance on the film F is substantially the same across the width of the film F (the difference between the maximum value and the minimum value is a predetermined value or less, etc.).

カメラ12は、フィルムFの検査領域を光学的に読み取る光学センサーである。カメラ12は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子、レンズ等を備え、各撮像素子の出力信号から2次元の画像データを生成するエリアセンサーである。カメラ12は、光源11により照射され、フィルムFの検査領域において反射された光のうち拡散光を検出する。ここでは、カメラ12として、白黒カメラ(モノクロカメラ)を用いる。 The camera 12 is an optical sensor that optically reads the inspection area of the film F. The camera 12 is an area sensor that includes an imaging element such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor), a lens, and the like, and generates two-dimensional image data from the output signal of each imaging element. The camera 12 detects the diffuse light of the light illuminated by the light source 11 and reflected from the inspection area of the film F. As shown in FIG. Here, as the camera 12, a black-and-white camera (monochrome camera) is used.

カメラ12は、フィルムFの幅方向全体に亘る撮影範囲を有しており、1回の撮影で、フィルムFの幅方向における全範囲を同時に読み取る。カメラ12は、可視光領域の光を検出するものであってもよいし、赤外線領域の光を検出するものであってもよい。 The camera 12 has a photographing range covering the entire width direction of the film F, and simultaneously reads the entire width direction of the film F in one photographing. The camera 12 may detect light in the visible light range, or may detect light in the infrared range.

また、カメラ12の出力信号において、フィルムF上の光源11により光が照射される照射部に対応する信号値と、光源11により光が照射されない非照射部に対応する信号値とのコントラストが所定値以上であることが望ましい。つまり、フィルムF上の光源11からの光が当たっているところ(照射部)だけ、明るく見える状態が望ましい。
コントラストは、処理対象の二つの値(ここでは、照射部に対応する信号値と非照射部に対応する信号値)の差や比等で表され、二つの値が異なるほど、コントラストが大きくなる。照射部と非照射部とのコントラストを大きくするためには、強力で直進性の高い光源11を用いることが望ましい。
Further, in the output signal of the camera 12, the contrast between the signal value corresponding to the irradiated portion on the film F irradiated by the light source 11 and the signal value corresponding to the non-irradiated portion not irradiated by the light source 11 is predetermined. value or higher. In other words, it is desirable that only the portion of the film F illuminated by the light from the light source 11 (irradiated portion) looks bright.
Contrast is represented by a difference or ratio between two values to be processed (here, a signal value corresponding to an irradiated portion and a signal value corresponding to a non-irradiated portion), and the contrast increases as the two values differ. . In order to increase the contrast between the irradiated portion and the non-irradiated portion, it is desirable to use a powerful and highly rectilinear light source 11 .

ここで、「強力」とは、照射距離50mmにおける照度をE50としたときに、照度E50が50000lx以上であることをいう。
また、「直進性の高い」とは、照射距離50mmにおける照度をE50、照射距離100mmにおける照度をE100としたときに、(E50-E100)/E50<0.5を満たすことをいう。
Here, "strong" means that the illuminance E50 is 50000 lx or more when the illuminance at an irradiation distance of 50 mm is E50.
Further, "high linearity" means satisfying (E50-E100)/E50<0.5, where E50 is the illuminance at an irradiation distance of 50 mm and E100 is the illuminance at an irradiation distance of 100 mm.

データ処理装置20は、制御部21、I/F(Interface)22,23、通信部24、表示部25、操作部26、記憶部27、計時部28等を備えて構成されており、各部はバスにより接続されている。データ処理装置20は、PC(Personal Computer)等で構成されている。 The data processing device 20 includes a control unit 21, I/Fs (Interfaces) 22 and 23, a communication unit 24, a display unit 25, an operation unit 26, a storage unit 27, a timer unit 28, and the like. connected by a bus. The data processing device 20 is composed of a PC (Personal Computer) or the like.

制御部21は、CPU(Central Processing Unit)、RAM(Random Access Memory)等から構成され、データ処理装置20(フィルム検査装置10)の各部の処理動作を統括的に制御する。具体的には、CPUは、記憶部27に記憶されている各種処理プログラムを読み出してRAMに展開し、当該プログラムとの協働により各種処理を行う。 The control section 21 is composed of a CPU (Central Processing Unit), a RAM (Random Access Memory), etc., and controls the processing operations of each section of the data processing device 20 (film inspection device 10). Specifically, the CPU reads various processing programs stored in the storage unit 27, develops them in the RAM, and performs various processing in cooperation with the programs.

I/F22は、カメラ12と接続するためのインターフェースであり、カメラ12に対して制御信号を送信し、カメラ12からフィルムFを撮影して得られた画像データを受信する。
I/F23は、光源11と接続するためのインターフェースであり、光源11による光の照射を制御するための制御信号を光源11に対して送信する。
The I/F 22 is an interface for connecting with the camera 12 , transmits control signals to the camera 12 and receives image data obtained by photographing the film F from the camera 12 .
The I/F 23 is an interface for connecting with the light source 11 and transmits a control signal for controlling light irradiation by the light source 11 to the light source 11 .

通信部24は、ネットワークインターフェース等により構成され、LAN(Local Area Network)等の通信ネットワークを介して接続された外部機器との間でデータの送受信を行う。 The communication unit 24 is configured by a network interface or the like, and transmits and receives data to and from an external device connected via a communication network such as a LAN (Local Area Network).

表示部25は、LCD(Liquid Crystal Display)等のモニターを備えて構成されており、制御部21から入力される表示信号の指示に従って、各種画面を表示する。 The display unit 25 includes a monitor such as an LCD (Liquid Crystal Display), and displays various screens in accordance with display signal instructions input from the control unit 21 .

操作部26は、カーソルキー、文字・数字入力キー及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作により入力された操作信号を制御部21に出力する。 The operation unit 26 includes a keyboard having cursor keys, letter/number input keys, various function keys, etc., and a pointing device such as a mouse, and controls operation signals input by key operations on the keyboard and mouse operations. Output to unit 21 .

記憶部27は、HDD(Hard Disk Drive)、SSD(Solid State Drive)等により構成され、各種処理プログラム、当該プログラムの実行に必要なデータ等を記憶している。 The storage unit 27 is configured by a HDD (Hard Disk Drive), an SSD (Solid State Drive), etc., and stores various processing programs, data necessary for executing the programs, and the like.

計時部28は、計時回路(RTC:Real Time Clock)を有し、この計時回路により現在日時を計時して制御部21に出力する。 The timekeeping unit 28 has a timekeeping circuit (RTC: Real Time Clock).

制御部21は、カメラ12(光学センサー)の出力信号に対してデータ処理を行うことで、フィルムFの欠陥(種類・位置・強度)を検出する。
データ処理は、カメラ12の出力信号から得られた画像データに対する画像処理と、画像処理後のデータに基づいて欠陥を判定する欠陥判定処理と、画像処理後のデータに基づいて欠陥を定量評価する定量評価処理と、を含む。
The control unit 21 detects defects (type, position, intensity) of the film F by performing data processing on the output signal of the camera 12 (optical sensor).
The data processing includes image processing for image data obtained from the output signal of the camera 12, defect determination processing for determining defects based on data after image processing, and quantitative evaluation of defects based on data after image processing. and a quantitative evaluation process.

次に、図2を参照して、光源11及びカメラ12の配置について説明する。
光源11により照射され、検査対象物(ここではフィルムF)で反射された正反射光を観察する場合、光源11の輝度成分を観察することになる。出願人が検討した結果、人間が観察する場合、正反射光ではフィルムFの欠陥を検出しにくいことが分かっていた。
この検討結果は、カメラ12等のマシンビジョンにおいても同様である。光源11からの正反射光(輝度成分)を受ける位置P1にカメラ12を配置すると、カメラ12は、基本的に光源11が映り込んだ状態の検査対象物(光源11の姿と重なった検査対象物)を撮影することになるので、欠陥の検出には向いていないことが分かった。
Next, the arrangement of the light source 11 and the camera 12 will be described with reference to FIG.
When observing specularly reflected light emitted by the light source 11 and reflected by the inspection object (film F in this case), the luminance component of the light source 11 is observed. As a result of investigation by the applicant, it has been found that it is difficult for a human to detect defects in the film F using specularly reflected light.
This examination result is the same for machine vision such as the camera 12 . When the camera 12 is placed at a position P1 that receives the specularly reflected light (brightness component) from the light source 11, the camera 12 basically captures the inspection object in which the light source 11 is reflected (the inspection object overlapping the appearance of the light source 11). It turned out that it is not suitable for defect detection because it is used to photograph objects).

カメラ12の位置としては、光源11から照射される光の正反射光を受ける位置P1を避ける。また、位置P1の近傍である位置P2も、欠陥の検出に、あまり適さない。ここで、位置P1の近傍とは、光源11からの光の正反射光の影響を受け得る範囲である。
カメラ12は、位置P1及びその近傍(位置P2等)を除く位置(位置P3~P6等)、すなわち、検査対象物で反射された光のうち拡散光を受ける位置に配置されていればよい。
As for the position of the camera 12, the position P1 where the light emitted from the light source 11 is regularly reflected is avoided. Position P2, which is near position P1, is also not very suitable for defect detection. Here, the vicinity of the position P1 is a range that can be affected by specularly reflected light from the light source 11 .
The camera 12 may be arranged at positions (positions P3 to P6, etc.) excluding the position P1 and its vicinity (position P2, etc.), that is, positions receiving diffused light out of the light reflected by the inspection object.

なお、検査対象物の表面に対して低角度から撮影すると(位置P5,P6等)、収差の問題が発生しやすいため、カメラ12の撮影方向と検査対象面とがなす角度が所定値以上となる位置にカメラ12を設置することが望ましい。 If the surface of the object to be inspected is photographed at a low angle (positions P5, P6, etc.), the problem of aberration is likely to occur. It is desirable to install the camera 12 at a position where

次に、図3を参照して、実際のフィルム検査装置10における光源11及びカメラ12の配置例について説明する。
フィルム検査装置10は、フィルムFをロール状に巻き取る際に、カメラ12でフィルムFを撮影するものである。そのため、ロールは、巻き取り開始時と巻き取り終了時で巻き径が異なる。具体的には、図3に示すように、巻き取り開始直後のロール31から、巻き取り終了時のロール32まで、巻き径が徐々に大きくなっていく。フィルムFの巻き取り開始時から巻き取り終了時まで、カメラ12が安定して拡散光を受光することが好ましい。
Next, an example arrangement of the light source 11 and the camera 12 in the actual film inspection apparatus 10 will be described with reference to FIG.
The film inspection apparatus 10 is for taking pictures of the film F with a camera 12 when the film F is wound into a roll. Therefore, the roll has a different winding diameter at the start of winding and at the end of winding. Specifically, as shown in FIG. 3, the winding diameter gradually increases from the roll 31 immediately after the start of winding to the roll 32 at the end of winding. It is preferable that the camera 12 stably receive the diffused light from the start of winding of the film F to the end of winding.

そこで、光源11の照射方向及びカメラ12の撮影方向それぞれの延長線上に、巻き取り開始直後のロール31の検査領域が位置するような配置とし、かつ、光源11のからの正反射光がカメラ12に入らないような配置とする。
具体的には、少なくとも、光源11からの照射光33が巻き取り開始直後のロール31で反射された正反射光34を受ける位置から、光源11からの照射光35が巻き取り終了時のロール32で反射された正反射光36を受ける位置までを含むNG領域37には、カメラ12を配置しないこととする。
一方、NG領域37以外のOK領域38,39には、カメラ12を配置可能となっている。
Therefore, the inspection area of the roll 31 immediately after the start of winding is positioned on the respective extension lines of the irradiation direction of the light source 11 and the photographing direction of the camera 12. It should be arranged so that it does not enter.
Specifically, at least from the position where the irradiation light 33 from the light source 11 receives the specularly reflected light 34 reflected by the roll 31 immediately after the start of winding, the irradiation light 35 from the light source 11 reaches the roll 32 at the end of winding. The camera 12 is not arranged in the NG area 37 including the position where the specularly reflected light 36 reflected by is received.
On the other hand, the cameras 12 can be arranged in the OK areas 38 and 39 other than the NG area 37 .

最適な配置は図3に示す限りではないが、光源11とカメラ12を近くに配置することで、ロールの巻き取り開始時と巻き取り終了時で観察場所(カメラ12が撮影する場所)の変化が小さくなる。また、光源11とカメラ12を近くに配置すると、フィルム検査装置10の装置自体がコンパクトになるという利点もある。 Although the optimum arrangement is not limited to that shown in FIG. 3, by arranging the light source 11 and the camera 12 close to each other, the observation location (the location where the camera 12 shoots) changes at the start and end of winding the roll. becomes smaller. Also, if the light source 11 and the camera 12 are arranged close to each other, there is an advantage that the film inspection apparatus 10 itself can be made compact.

図4は、ロール状のフィルムFに対する光源11及びカメラ12の位置関係を示す斜視図である。光源11とカメラ12は、近くに配置されており、巻き取り中のフィルムFのロール表面(重なった状態のフィルムF)が検査対象とされる。 FIG. 4 is a perspective view showing the positional relationship of the light source 11 and the camera 12 with respect to the roll-shaped film F. As shown in FIG. The light source 11 and the camera 12 are arranged close to each other, and the roll surface of the film F being taken up (overlapping film F) is to be inspected.

また、フィルムFの検査領域において反射された光のうち正反射光がカメラ12に入らないように、フィルム検査装置10に反射防止板が設けられることとしてもよい。 Further, the film inspection apparatus 10 may be provided with an antireflection plate so that specularly reflected light out of the light reflected in the inspection area of the film F does not enter the camera 12 .

カメラ12の観察範囲のフィルム表面に背景が映り込むと、欠陥判定の精度が低下する要因となる。
図5に示すように、巻き取り開始直後のロール41は、巻き取り終了時のロール42まで巻き取られる間で、巻き径が最も小さいため、正反射による映り込みの対象となる領域(フィルム表面で正反射された光がカメラ12に入ってくる領域)は最も大きくなる。
カメラ12から、巻き取り開始直後のロール41の観察範囲の周方向における両端部41A,41Bのそれぞれに向かって直線43,44を引き、この2本の直線43,44がそれぞれフィルム表面で正反射する方向に直線(反射直線と呼ぶ。)45,46を引く。この2本の反射直線45,46の間の範囲47が、カメラ12の観察範囲に映り込むため、この範囲47に亘って反射防止板48があることが好ましい。
If the background is reflected on the surface of the film within the observation range of the camera 12, it becomes a factor that lowers the accuracy of defect determination.
As shown in FIG. 5, the roll 41 immediately after the start of winding has the smallest winding diameter among the rolls wound up to the roll 42 at the end of winding. The area where the specularly reflected light enters the camera 12 at ) becomes the largest.
Straight lines 43 and 44 are drawn from the camera 12 toward both ends 41A and 41B in the circumferential direction of the observation range of the roll 41 immediately after the start of winding, and these two straight lines 43 and 44 are specularly reflected on the film surface. Straight lines (referred to as reflection straight lines) 45 and 46 are drawn in the direction of the reflection. Since a range 47 between these two reflection straight lines 45 and 46 is reflected in the observation range of the camera 12, it is preferable that the anti-reflection plate 48 is provided over this range 47. FIG.

反射防止板48の色は、黒色が好ましい。また、反射防止板48の素材としては、一般的なプラスチック(ポリプロピレン、アクリル樹脂、ポリエチレンテレフタレート、ポリカーボネート等)、ゴム、フェルト、合成繊維、紙等が用いられる。 The color of the antireflection plate 48 is preferably black. As the material of the antireflection plate 48, general plastic (polypropylene, acrylic resin, polyethylene terephthalate, polycarbonate, etc.), rubber, felt, synthetic fiber, paper, etc. are used.

次に、フィルム検査装置10における動作について説明する。
図6は、フィルム検査装置10により実行されるフィルム欠陥検出処理を示すフローチャートである。フィルム欠陥検出処理は、巻き取り中の重なった状態のフィルムFから欠陥を検出する処理であり、制御部21と記憶部27に記憶されているプログラムとの協働によるソフトウェア処理によって実現される。フィルムFは、フィルムFの長手方向における搬送速度(線速)が一定となるように巻き取られる。
Next, the operation of the film inspection apparatus 10 will be described.
FIG. 6 is a flow chart showing film defect detection processing executed by the film inspection apparatus 10. As shown in FIG. The film defect detection process is a process for detecting defects in the stacked film F being wound, and is realized by software processing in cooperation with the program stored in the control unit 21 and the storage unit 27 . The film F is wound so that the transport speed (linear speed) in the longitudinal direction of the film F is constant.

まず、制御部21は、I/F23を介して光源11を制御し、フィルムFの検査領域に光を照射させる(ステップS1)。
次に、制御部21は、I/F22を介してカメラ12を制御し、フィルムFの検査領域を撮影させる(ステップS2)。カメラ12は、フィルムFの検査領域において反射された光のうち拡散光を検出する。
First, the control unit 21 controls the light source 11 via the I/F 23 to irradiate the inspection area of the film F with light (step S1).
Next, the control section 21 controls the camera 12 via the I/F 22 to photograph the inspection area of the film F (step S2). Camera 12 detects the diffuse light reflected from the film F inspection area.

次に、制御部21は、I/F22を介して、カメラ12により生成された2次元の画像データを取得し(ステップS3)、取得した画像データを記憶部27に保存する(ステップS4)。具体的には、制御部21は、計時部28から現在日時を取得して検査日時とし、この検査日時と対応付けて、画像データを記憶部27に記憶させる。1回の撮影で得られる画像データは、巻き取られるフィルムFの周方向における領域の一部を対象としたものであるから、画像データと対応付けられる検査日時は、フィルムFの長手方向における位置に相当する。 Next, the control unit 21 acquires two-dimensional image data generated by the camera 12 via the I/F 22 (step S3), and stores the acquired image data in the storage unit 27 (step S4). Specifically, the control unit 21 obtains the current date and time from the clock unit 28 as the inspection date and time, and stores the image data in the storage unit 27 in association with the inspection date and time. Since the image data obtained in one shooting is for a part of the area in the circumferential direction of the wound film F, the inspection date and time associated with the image data is the position in the longitudinal direction of the film F. corresponds to

次に、制御部21は、カメラ12から取得した画像データに対して、データ処理を行う(ステップS5)。 Next, the control unit 21 performs data processing on the image data acquired from the camera 12 (step S5).

ここで、図7を参照して、データ処理について説明する。
制御部21は、画像データをフィルムFの幅方向に複数の領域に分割する(ステップS11)。具体的には、制御部21は、画像データをn個の領域a1~anに分割する。
Data processing will now be described with reference to FIG.
The control section 21 divides the image data into a plurality of areas in the width direction of the film F (step S11). Specifically, the control unit 21 divides the image data into n areas a1 to an.

次に、制御部21は、領域a1の画像データを取得し(ステップS12)、領域a1の画像データに数学的処理を行う(ステップS13)。検出対象の欠陥の種類(ゲージバンド、縦シワ、斜めシワ等)に応じて、適した数学的処理が用意されている。 Next, the control unit 21 acquires the image data of the area a1 (step S12), and performs mathematical processing on the image data of the area a1 (step S13). Depending on the type of defect to be detected (gauge band, vertical wrinkles, diagonal wrinkles, etc.), suitable mathematical treatments are provided.

数学的処理には、前処理、強調処理、信号処理、画像特徴量抽出等が含まれる。
前処理として、画像のトリミング、ローパスフィルター、ハイパスフィルター、ガウシアンフィルター、メディアンフィルター、バイラテラルフィルター、モルフォロジー変換、色変換(L、sRGB、HSV、HSL)、コントラスト調整、ノイズ除去、ぼけ・ぶれ画像の復元、マスク処理、ハフ変換、射影変換等が挙げられる。
強調処理として、Sobelフィルター、Scharrフィルター、Laplacianフィルター、ガボールフィルター、キャニー法等が挙げられる。
信号処理として、基本統計量(最大値、最小値、平均値、中央値、標準偏差、分散、四分位点)、二乗和平方根、差分、和、積、比、距離行列を求める処理、微分積分、閾値処理(二値化、適応的二値化等)、フーリエ変換、ウェーブレット変換、ピーク検出(ピーク値、ピーク数、半値幅等)等が挙げられる。
画像特徴量抽出として、テンプレートマッチング、SIFT特徴量等が挙げられる。
ステップS13の数学的処理が、画像データに対する「画像処理」に相当する。
The mathematical processing includes preprocessing, enhancement processing, signal processing, image feature extraction, and the like.
As preprocessing, image trimming, low-pass filter, high-pass filter, Gaussian filter, median filter, bilateral filter, morphology conversion, color conversion (L * a * b * , sRGB, HSV, HSL), contrast adjustment, noise reduction, Restoration of blurred/blurred images, mask processing, Hough transform, projective transform, and the like can be mentioned.
Examples of enhancement processing include Sobel filter, Scharr filter, Laplacian filter, Gabor filter, Canny method, and the like.
Signal processing includes basic statistics (maximum value, minimum value, average value, median value, standard deviation, variance, quartile), root sum of squares, difference, sum, product, ratio, distance matrix processing, differentiation Examples include integration, threshold processing (binarization, adaptive binarization, etc.), Fourier transform, wavelet transform, peak detection (peak value, number of peaks, half width, etc.).
Image feature quantity extraction includes template matching, SIFT feature quantity, and the like.
The mathematical processing in step S13 corresponds to "image processing" for image data.

具体的には、ゲージバンドの検出には、前処理として、ローパスフィルター、ガウシアンフィルター、メディアンフィルター、モルフォロジー変換、マスク処理等の値が用いられ、信号処理には、基本統計量、閾値処理が用いられる。
縦シワ、斜めシワには、前処理として、ハイパスフィルターが用いられ、強調処理として、Sobelフィルター、ガボールフィルターが用いられ、信号処理として、二乗和平方根、フーリエ変換、基本統計量等が用いられる。
Specifically, values of low-pass filter, Gaussian filter, median filter, morphological transformation, mask processing, etc. are used as preprocessing for gauge band detection, and basic statistics and threshold processing are used for signal processing. be done.
For vertical wrinkles and oblique wrinkles, a high-pass filter is used as preprocessing, a Sobel filter or Gabor filter is used as enhancement processing, and a square root sum of squares, Fourier transform, basic statistics, etc. are used as signal processing.

次に、制御部21は、領域a1の画像データについて数学的処理により求められた値(特徴量)に対して、閾値処理を行う(ステップS14)。閾値処理は、検出対象の欠陥の種類ごとに予め定められている一又は複数の閾値に基づいて、検出対象の欠陥であるか否かを判定し、また、欠陥のランク(強度)を決定する処理である。
ステップS14の閾値処理において、欠陥の存在、欠陥の種類を判定することが「欠陥判定処理」に相当する。また、ステップS14の閾値処理において、閾値に従って欠陥を複数のランクに分類することが「定量評価処理」に相当する。
Next, the control unit 21 performs threshold processing on the value (feature amount) obtained by mathematical processing for the image data of the area a1 (step S14). In the threshold processing, based on one or more thresholds predetermined for each type of defect to be detected, it is determined whether or not the defect is a defect to be detected, and the rank (strength) of the defect is determined. processing.
Determining the presence of a defect and the type of defect in the threshold value processing in step S14 corresponds to "defect determination processing". Further, in the threshold processing in step S14, classifying defects into a plurality of ranks according to the threshold corresponds to "quantitative evaluation processing".

例えば、1~100の値をとるパラメーター(特徴量)に対して、パラメーターの値が1~10の場合にはランク1、11~30の場合にはランク2、31~60の場合にはランク3、61~100の場合にはランク4というように、欠陥を複数のランクに分類する。 For example, for a parameter (feature value) that takes a value from 1 to 100, rank 1 if the parameter value is 1 to 10, rank 2 if the parameter value is 11 to 30, and rank 31 to 60. 3. Defects are classified into multiple ranks, such as rank 4 for 61-100.

領域a1以外の領域に対しても同様に処理を行う。例えば、領域anの画像データに対して行われるステップS15~ステップS17の処理は、ステップS12~ステップS14の処理と同様である。 Areas other than the area a1 are similarly processed. For example, the processes of steps S15 to S17 performed on the image data of the area an are the same as the processes of steps S12 to S14.

各領域a1~anに対する処理の後、制御部21は、各領域a1~anに対する結果を統合し(ステップS18)、データ処理が終了する。具体的には、制御部21は、領域ごと(フィルムFの幅方向における位置ごと)に、検出された欠陥の種類及びランクを対応付けたデータを生成する。 After processing the areas a1 to an, the control unit 21 integrates the results for the areas a1 to an (step S18), and the data processing ends. Specifically, the control unit 21 generates data in which the types and ranks of detected defects are associated with each region (each position in the width direction of the film F).

図7に示したデータ処理において、フィルムFの幅方向に分割した各領域a1~anの画像データに対して数学的処理(ステップS13,S16)を行うことに加え、ステップS11の処理の前にも、領域分割前の画像データ全体に対して数学的処理を行うこととしてもよい。 In the data processing shown in FIG. 7, in addition to performing mathematical processing (steps S13 and S16) on the image data of each of the regions a1 to an divided in the width direction of the film F, before the processing of step S11 Alternatively, mathematical processing may be performed on the entire image data before segmentation.

データ処理の後、図6に戻り、制御部21は、データ処理の処理結果を記憶部27に保存し、処理結果を表示部25に表示させる(ステップS6)。制御部21は、ステップS4で保存された画像データに対するデータ処理で得られた処理結果(幅方向に分割された各領域において検出された欠陥の種類及びランク)を、当該画像データに対応する検査日時と対応付けて、記憶部27に記憶させる。
以上で、フィルム欠陥検出処理が終了する。
After the data processing, returning to FIG. 6, the control unit 21 saves the processing result of the data processing in the storage unit 27 and causes the display unit 25 to display the processing result (step S6). The control unit 21 applies the processing results (types and ranks of defects detected in each region divided in the width direction) obtained by data processing on the image data saved in step S4 to the inspection corresponding to the image data. It is stored in the storage unit 27 in association with the date and time.
With this, the film defect detection processing is completed.

なお、図6に示したフィルム欠陥検出処理は、1回の撮影に対応する範囲の検査を示す処理である。巻き取られるフィルムFの動きに伴い、フィルムFの長手方向における検査領域を変えて、フィルム欠陥検出処理を繰り返すことで、フィルムFの長手方向におけるそれぞれの位置での検査結果を取得する。
また、図6では、1回撮影する度に、データ処理(図7参照)を行うこととしたが、複数回の撮影で得られた画像データを保存しておき、その後、まとめてデータ処理を行うこととしてもよい。
The film defect detection process shown in FIG. 6 is a process for inspecting a range corresponding to one photographing. As the film F to be wound moves, the inspection area in the longitudinal direction of the film F is changed, and the film defect detection process is repeated to obtain inspection results at each position in the longitudinal direction of the film F.
In FIG. 6, data processing (see FIG. 7) is performed each time an image is captured. It may be done.

以上説明したように、第1の実施の形態によれば、フィルムFの検査領域において反射された拡散光を検出した出力信号に対してデータ処理を行うので、人手による監視を必要とすることなく、フィルムFに発生した欠陥の検出を容易に行うことができる。拡散光を用いることで、ゲージバンド等の略凹凸のないフィルム表面の明暗の差についても検出可能となり、従来は検出が困難であった種類の欠陥も検出することができる。 As described above, according to the first embodiment, data processing is performed on the output signal obtained by detecting the diffused light reflected in the inspection area of the film F. Therefore, manual monitoring is not required. , defects occurring in the film F can be easily detected. By using diffused light, it becomes possible to detect the difference in light and dark on a film surface with no unevenness, such as a gauge band.

具体的には、カメラ12(光学センサー)の出力信号から得られた画像データに対する画像処理と、画像処理後のデータに基づいて欠陥を判定する欠陥判定処理により、欠陥を検出することができる。
また、画像処理後のデータに基づいて欠陥を定量評価することで、欠陥を複数のランクに分けることができる。
Specifically, defects can be detected by performing image processing on image data obtained from the output signal of the camera 12 (optical sensor) and defect determination processing for determining defects based on data after the image processing.
Further, by quantitatively evaluating defects based on data after image processing, defects can be classified into a plurality of ranks.

例えば、検出対象の欠陥の種類に応じた数学的処理(画像処理)を用いることで、ゲージバンド、縦シワ、斜めシワ等の種類ごとに、欠陥を検出することができる。シワという欠陥の中でも、縦シワ、斜めシワのそれぞれを、区別して検出することができる。
また、数学的処理により求められた値(特徴量)に対して閾値処理を行うことで、検出対象の欠陥であるか否かを判定し、また、欠陥のランク(強度)を検出することができる。
For example, by using mathematical processing (image processing) according to the type of defect to be detected, defects can be detected for each type such as gauge bands, vertical wrinkles, and oblique wrinkles. Among defects such as wrinkles, vertical wrinkles and oblique wrinkles can be separately detected.
Moreover, by performing threshold processing on the value (feature value) obtained by mathematical processing, it is possible to determine whether or not the defect is a defect to be detected, and to detect the rank (strength) of the defect. can.

従来技術のような、正反射光を用いた欠陥の形状検出では、異常反射域の形状を捉えることはできるが、指向性が高い光を検出しているため、検出される光の強度は、シワの凹凸以外の形状や巻き取り時の動き等により、変化してしまう。
一方、拡散光を用いたフィルム検査装置10では、指向性が低い光を検出しているため、シワの凹凸以外の形状や巻き取り時の動きの影響は受けにくく、かつ、人間が評価しているときに近い状態の画像を得ることができる。拡散光を検出して得られた画像データに対する画像処理(数学的処理)を組み合わせることで、人間の評価指標に相関が高い数値(特徴量)を抽出することができ、結果として定量的に欠陥を評価することができる。
また、現状の条件において、フィルムFの巻き取り中に発生する欠陥の種類及び強度を知ることで、欠陥が発生しない条件を探ることができる。
In defect shape detection using specular reflection light, as in the conventional technology, the shape of the abnormal reflection area can be captured, but since light with high directivity is detected, the intensity of the detected light is It changes depending on the shape other than the unevenness of wrinkles and the movement during winding.
On the other hand, the film inspection apparatus 10 using diffused light detects light with low directivity. You can get a close-up image when you are By combining image processing (mathematical processing) on image data obtained by detecting diffused light, it is possible to extract numerical values (feature values) that are highly correlated with human evaluation indices, and as a result, defects can be detected quantitatively. can be evaluated.
In addition, by knowing the type and intensity of defects that occur during winding of the film F under the current conditions, it is possible to search for conditions under which defects do not occur.

また、光源11は、ロール状のフィルムFの幅方向において均一に光を照射するものであるから、幅方向の評価のばらつきを抑制し、欠陥の検出精度を向上させることができる。 In addition, since the light source 11 irradiates light uniformly in the width direction of the roll-shaped film F, it is possible to suppress variation in evaluation in the width direction and improve the detection accuracy of defects.

また、カメラ12(光学センサー)の出力信号において、フィルムF上の照射部に対応する信号値と、非照射部に対応する信号値とのコントラストが大きくなると、照射部内の正常部と異常部(欠陥)で得られる、画像処理後のデータの差が大きくなり、欠陥の判定精度が向上する。さらに、照射部と非照射部とのコントラストが大きくなると、周囲の映り込みの低減にも効果があり、その点でも欠陥の判定精度の向上に寄与することになる。
強力で直進性の高い光源11を用いて、フィルムF上の照射部と非照射部とのコントラストを所定値以上とし、照射部の拡散光を検出して得られた画像データを用いることにより、環境光等ではうまく観察することができなかった欠陥を検出することが可能になる。
In addition, in the output signal of the camera 12 (optical sensor), when the contrast between the signal value corresponding to the irradiated portion on the film F and the signal value corresponding to the non-irradiated portion on the film F increases, the normal portion and the abnormal portion ( The difference in the data after image processing obtained in the defect) becomes large, and the determination accuracy of the defect is improved. Furthermore, when the contrast between the irradiated portion and the non-irradiated portion increases, it is effective in reducing the reflection of the surroundings, which also contributes to the improvement of the defect determination accuracy.
Using the light source 11 that is strong and highly straight, the contrast between the irradiated portion and the non-irradiated portion on the film F is set to a predetermined value or more, and by using the image data obtained by detecting the diffused light of the irradiated portion, It becomes possible to detect defects that could not be observed well under ambient light or the like.

また、フィルムFの検査領域において反射された光のうち正反射光がカメラ12に入らないように、フィルム検査装置10に反射防止板48を設けることで、検査領域への映り込みによる欠陥の検出精度の低下を防止することができる。 In addition, by providing the film inspection apparatus 10 with an antireflection plate 48 so that specularly reflected light out of the light reflected in the inspection area of the film F does not enter the camera 12, defects due to reflection in the inspection area can be detected. A decrease in accuracy can be prevented.

また、カメラ12として白黒カメラを用いることで、欠陥の検出精度を確保しつつ、画像データのデータ量を削減することができる。 In addition, by using a monochrome camera as the camera 12, it is possible to reduce the amount of image data while ensuring the detection accuracy of defects.

[第2の実施の形態]
次に、本発明を適用した第2の実施の形態について説明する。
第2の実施の形態におけるフィルム検査装置は、第1の実施の形態に示したフィルム検査装置10と同様の構成であるため、図1を援用し、その構成については図示及び説明を省略する。以下、第2の実施の形態に特徴的な構成及び処理について説明する。
[Second embodiment]
Next, a second embodiment to which the present invention is applied will be described.
Since the film inspection apparatus according to the second embodiment has the same configuration as the film inspection apparatus 10 shown in the first embodiment, FIG. 1 is used, and illustration and description of the configuration are omitted. The configuration and processing that are characteristic of the second embodiment will be described below.

第2の実施の形態では、フィルム検査装置10の制御部21は、カメラ12により撮影された検査領域の画像データから欠陥を検出する際に、機械学習による学習結果を用いる。 In the second embodiment, the controller 21 of the film inspection apparatus 10 uses machine learning results when detecting defects from the image data of the inspection area captured by the camera 12 .

制御部21は、カメラ12の出力信号に対してデータ処理を行うことで、フィルムFの欠陥を検出する。
データ処理は、カメラ12の出力信号から得られた画像データに対する画像処理と、画像処理後のデータに基づいて欠陥を判定する欠陥判定処理と、画像処理後のデータに基づいて欠陥を定量評価する定量評価処理と、を含む。
The control unit 21 detects defects in the film F by performing data processing on the output signal of the camera 12 .
The data processing includes image processing for image data obtained from the output signal of the camera 12, defect determination processing for determining defects based on data after image processing, and quantitative evaluation of defects based on data after image processing. and a quantitative evaluation process.

制御部21は、欠陥判定処理において、画像処理後のデータを説明変数とし、人による欠陥の判定結果を目的変数として構築された機械学習モデルを用いる。 In the defect determination process, the control unit 21 uses a machine learning model constructed using image-processed data as an explanatory variable and a human defect determination result as an objective variable.

制御部21は、定量評価処理において、画像処理後のデータを説明変数とし、人による欠陥の定量評価結果を目的変数として構築された機械学習モデルを用いる。制御部21は、機械学習結果を用いて、画像処理後のデータに基づいて欠陥を定量評価することで、欠陥を複数のランクに分ける。
なお、実際は、欠陥判定処理と定量評価処理とを別々に実行する必要はなく、画像処理後のデータを入力データとし、人が評価した欠陥の種類とランクの組み合わせを出力データとして機械学習させた結果を用いて、欠陥判定処理と定量評価処理とをまとめて行うことができる。
In the quantitative evaluation process, the control unit 21 uses a machine learning model constructed using data after image processing as explanatory variables and quantitative evaluation results of defects by humans as objective variables. The control unit 21 classifies the defects into a plurality of ranks by quantitatively evaluating the defects based on the image-processed data using machine learning results.
In actuality, there is no need to execute the defect determination process and the quantitative evaluation process separately. Machine learning is performed using the data after image processing as input data and the combination of defect types and ranks evaluated by humans as output data. Using the result, defect determination processing and quantitative evaluation processing can be collectively performed.

機械学習モデルのアルゴリズムとしては、人による欠陥の判定結果は名義尺度であるため、クラス分類の機械学習モデルを用いることが好ましい。また、人による欠陥の定量評価結果は順序尺度であるため、同様にクラス分類の機械学習モデルを用いることが好ましい。具体的には、一般化線形モデル(ロジスティック、プロビット、ポアソン)、判別分析、正準判別分析、k近傍法、ガウシアンプロセス、ナイーブベイズ、決定木、アンサンブル学習(アダブースト、GBM、ランダムフォレスト)、SVM、ニューラルネットワーク等の機械学習モデルを用いることができる。 As the algorithm of the machine learning model, it is preferable to use a class classification machine learning model because the result of human defect judgment is a nominal scale. In addition, since the results of quantitative evaluation of defects by humans are ordinal scales, it is preferable to use a machine learning model for classification as well. Specifically, generalized linear models (logistic, probit, poisson), discriminant analysis, canonical discriminant analysis, k-nearest neighbors, Gaussian process, naive Bayes, decision trees, ensemble learning (adaboost, GBM, random forest), SVM , neural networks, and other machine learning models can be used.

また、名義尺度や順序尺度の評価結果をOne-hotベクトルに変換することで、回帰の機械学習モデルのアルゴリズムを用いることもできる。具体的には、線形モデル(重回帰、Lasso、Ridge、Elastic-Net等)、一般化線形モデル(ロジスティック、プロビット、ポアソン)、PLS、k近傍法、ガウシアンプロセス、決定木、アンサンブル学習(アダブースト、GBM、ランダムフォレスト)、SVR、ニューラルネットワーク等の機械学習モデルを用いることができる。 Also, by converting the evaluation results of nominal scale and ordinal scale into one-hot vectors, regression machine learning model algorithms can be used. Specifically, linear models (multiple regression, Lasso, Ridge, Elastic-Net, etc.), generalized linear models (logistic, probit, Poisson), PLS, k nearest neighbors, Gaussian process, decision tree, ensemble learning (Adaboost, Machine learning models such as GBM, random forest), SVR, neural networks, etc. can be used.

また、機械学習モデルによる学習を行う前に、次元圧縮(主成分分析、因子分析、多次元尺度法、正準相関分析)、変数変換(カーネル法、交互作用項等)、特徴量選択(正則化、AIC、BIC、ランダムフォレスト等)等の前処理を適宜用いることができる。 In addition, before training with a machine learning model, dimensionality reduction (principal component analysis, factor analysis, multidimensional scaling, canonical correlation analysis), variable transformation (kernel method, interaction term, etc.), feature selection (regular A pretreatment such as conversion, AIC, BIC, random forest, etc.) can be used as appropriate.

次に、第2の実施の形態のフィルム検査装置10における動作について説明する。
図8は、フィルム検査装置10により実行されるフィルム欠陥学習処理を示すフローチャートである。フィルム欠陥学習処理は、フィルムFの画像データから欠陥を検出するタスクを機械学習させる処理であり、制御部21と記憶部27に記憶されているプログラムとの協働によるソフトウェア処理によって実現される。
Next, the operation of the film inspection apparatus 10 of the second embodiment will be described.
FIG. 8 is a flow chart showing film defect learning processing executed by the film inspection apparatus 10 . The film defect learning process is a process of machine-learning a task of detecting defects from the image data of the film F, and is realized by software processing in cooperation with the program stored in the control unit 21 and the storage unit 27.

ステップS21~ステップS24の処理は、フィルム欠陥検出処理(図6参照)のステップS1~ステップS4の処理と同様であるため、説明を省略する。ステップS24において、制御部21は、画像データを検査日時と対応付けて記憶部27に記憶させる。 Since the processes of steps S21 to S24 are the same as the processes of steps S1 to S4 of the film defect detection process (see FIG. 6), description thereof is omitted. In step S24, the control unit 21 causes the storage unit 27 to store the image data in association with the inspection date and time.

ステップS24の処理の後、制御部21は、カメラ12から取得した画像データに対して、説明変数の特徴量作成処理(ステップS25)及び目的変数のラベル付け処理(ステップS26)を行う。 After the process of step S24, the control unit 21 performs the feature quantity creation process of explanatory variables (step S25) and the labeling process of objective variables (step S26) on the image data acquired from the camera 12. FIG.

ここで、図9を参照して、説明変数の特徴量作成処理について説明する。この処理は、機械学習において説明変数(入力データ)として用いる特徴量を作成する処理である。
制御部21は、画像データをフィルムFの幅方向に複数の領域に分割する(ステップS31)。具体的には、制御部21は、画像データをn個の領域a1~anに分割する。
Here, with reference to FIG. 9, the process of creating the feature quantity of explanatory variables will be described. This process is a process of creating a feature amount to be used as an explanatory variable (input data) in machine learning.
The control unit 21 divides the image data into a plurality of areas in the width direction of the film F (step S31). Specifically, the control unit 21 divides the image data into n areas a1 to an.

ステップS32及びステップS33の処理は、データ処理(図7参照)のステップS12及びステップS13の処理と同様であるため、説明を省略する。ステップS33の数学的処理において、画像データから求められる値が特徴量である。ステップS33では、検出対象の欠陥の種類ごとに、それぞれ適した数学的処理が行われる。 Since the processes of steps S32 and S33 are the same as the processes of steps S12 and S13 of the data processing (see FIG. 7), description thereof is omitted. In the mathematical processing of step S33, the value obtained from the image data is the feature amount. In step S33, a mathematical process suitable for each type of defect to be detected is performed.

領域a1以外の領域に対しても同様に処理を行う。例えば、領域anの画像データに対して行われるステップS34及びステップS35の処理は、ステップS32及びステップS33の処理と同様である。 Areas other than the area a1 are similarly processed. For example, the processes of steps S34 and S35 performed on the image data of the area an are the same as the processes of steps S32 and S33.

各領域a1~anに対する処理の後、制御部21は、各領域a1~anに対する結果を統合し(ステップS36)、説明変数の特徴量作成処理が終了する。具体的には、制御部21は、領域ごと(フィルムFの幅方向における位置ごと)に算出された各特徴量を、処理対象の画像データに対応する検査日時と対応付けて、記憶部27に記憶させる。 After processing the regions a1 to an, the control unit 21 integrates the results for the regions a1 to an (step S36), and the explanatory variable feature amount creation processing ends. Specifically, the control unit 21 associates each feature amount calculated for each region (for each position in the width direction of the film F) with the inspection date and time corresponding to the image data to be processed, and stores it in the storage unit 27. Memorize.

図9に示した説明変数の特徴量作成処理において、フィルムFの幅方向に分割した各領域a1~anの画像データに対して数学的処理(ステップS33,S35)を行うことに加え、ステップS31の処理の前にも、領域分割前の画像データ全体に対して数学的処理を行うこととしてもよい。 In the process of creating feature values for explanatory variables shown in FIG. Prior to the processing of , mathematical processing may be performed on the entire image data before segmentation.

次に、図10を参照して、目的変数のラベル付け処理について説明する。この処理は、機械学習において目的変数(出力データ)として用いるラベルを付与する処理である。
制御部21は、画像データをフィルムFの幅方向に複数の領域に分割する(ステップS41)。具体的には、制御部21は、画像データをn個の領域a1~anに分割する。
Next, with reference to FIG. 10, the labeling process for objective variables will be described. This process is a process of assigning a label to be used as an objective variable (output data) in machine learning.
The control unit 21 divides the image data into a plurality of areas in the width direction of the film F (step S41). Specifically, the control unit 21 divides the image data into n areas a1 to an.

次に、制御部21は、領域a1の画像データを取得する(ステップS42)。
次に、制御部21は、領域a1の画像データを表示部25に表示させ、操作部26からの操作により、領域a1の画像データに対するラベル付けを受け付ける(ステップS43)。ユーザーは、操作部26から操作することにより、領域a1に存在する欠陥の種類及びランクを入力する。
Next, the control section 21 acquires the image data of the area a1 (step S42).
Next, the control unit 21 causes the display unit 25 to display the image data of the area a1, and accepts the labeling of the image data of the area a1 by an operation from the operation unit 26 (step S43). By operating the operation unit 26, the user inputs the types and ranks of defects existing in the area a1.

領域a1以外の領域に対しても同様に処理を行う。例えば、領域anの画像データに対して行われるステップS44及びステップS45の処理は、ステップS42及びステップS43の処理と同様である。 Areas other than the area a1 are similarly processed. For example, the processes of steps S44 and S45 performed on the image data of the area an are the same as the processes of steps S42 and S43.

各領域a1~anに対する処理の後、制御部21は、各領域a1~anに対する結果を統合し(ステップS46)、目的変数のラベル付け処理が終了する。具体的には、制御部21は、領域ごと(フィルムFの幅方向における位置ごと)にユーザーが入力した欠陥の種類及びランクを、処理対象の画像データに対応する検査日時と対応付けて、記憶部27に記憶させる。 After the processing for each of the areas a1 to an, the control unit 21 integrates the results for each of the areas a1 to an (step S46), and the objective variable labeling process ends. Specifically, the control unit 21 stores the type and rank of the defect input by the user for each region (for each position in the width direction of the film F) in association with the inspection date and time corresponding to the image data to be processed. stored in the unit 27;

説明変数の特徴量作成処理(ステップS25)及び目的変数のラベル付け処理(ステップS26)の後、図8に戻り、制御部21は、学習用データの収集が終了したか否かを判断する(ステップS27)。例えば、制御部21は、学習用データの収集が終了したか否かを入力するようユーザーに促してもよいし、学習用データが所定量以上蓄積されたか否かを自動的に判断してもよい。
学習用データの収集が終了していない場合には(ステップS27;NO)、ステップS21に戻り、新たな検査領域、新たなロールを対象として、処理が繰り返される。
After the explanatory variable feature amount creation process (step S25) and the objective variable labeling process (step S26), returning to FIG. step S27). For example, the control unit 21 may prompt the user to input whether or not the collection of learning data has been completed, or may automatically determine whether or not a predetermined amount or more of learning data has been accumulated. good.
If the collection of learning data has not ended (step S27; NO), the process returns to step S21, and the process is repeated for a new inspection area and a new roll.

ステップS27において、学習用データの収集が終了した場合には(ステップS27;YES)、制御部21は、蓄積されたデータを用いて、機械学習モデルを作成する(ステップS28)。具体的には、制御部21は、フィルムFの各位置(検査日時、幅方向における領域)によって対応付けられている特徴量とラベル付けされた結果を用いて、機械学習を行う。つまり、制御部21は、数学的処理により得られた特徴量(画像処理後のデータ)を入力データとし、人による欠陥の判定結果(欠陥の種類)及び定量評価結果(欠陥のランク)を出力データとして、機械学習を行う。 In step S27, when the collection of learning data is completed (step S27; YES), the control unit 21 creates a machine learning model using the accumulated data (step S28). Specifically, the control unit 21 performs machine learning using the feature values and labeled results associated with each position on the film F (inspection date and time, area in the width direction). That is, the control unit 21 uses the feature amount (data after image processing) obtained by mathematical processing as input data, and outputs the result of human defect judgment (defect type) and the quantitative evaluation result (defect rank). Machine learning is performed as data.

次に、制御部21は、作成された機械学習モデルを記憶部27に保存する(ステップS29)。
以上で、フィルム欠陥学習処理が終了する。
Next, the control unit 21 stores the created machine learning model in the storage unit 27 (step S29).
With this, the film defect learning process is completed.

図11に、ステップS28で用いる学習用データセットの例を示す。検査日時t1,t2,・・・(フィルムFの長手方向の位置に相当する)ごとに、領域a1~anに対して、数学的処理で求められた特徴量1~kと、ラベル(欠陥判定結果)と、が対応付けられている。欠陥判定結果として、「ゲージバンド」、「縦シワ」、「斜めシワ」等の欠陥の種類や、「欠陥なし」というラベルが記録されている。 FIG. 11 shows an example of the learning data set used in step S28. (corresponding to the position in the longitudinal direction of the film F), feature values 1 to k obtained by mathematical processing and labels (defect judgment result) and are associated with each other. As the defect determination result, the type of defect such as "gauge band", "vertical wrinkle", "oblique wrinkle", and the label "no defect" are recorded.

なお、図11では、ラベルとして、欠陥判定結果(欠陥の種類)のみを用いているが、定量評価結果(欠陥のランク)を含んでいてもよい。 In FIG. 11, only defect determination results (defect types) are used as labels, but quantitative evaluation results (defect ranks) may also be included.

なお、フィルム欠陥学習処理では、説明を簡単にするために、1回撮影する度に、また、幅方向において分割した領域ごとに、ラベル付け(ステップS43,S45)を行うこととしたが、ラベル付けは、その都度行う必要はなく、機械学習モデルを作成するステップS28の前までに、終了していればよい。実際、人によるラベル付けは、複数回の撮影分、複数の領域分の画像データについて、或る程度まとめて行うことが現実的であるし、効率も良い。 In the film defect learning process, for the sake of simplicity, labeling (steps S43 and S45) is performed each time photographing is performed and each region divided in the width direction is labeled. The attachment need not be performed each time, and may be completed before step S28 for creating the machine learning model. In fact, it is realistic and efficient to perform the labeling by a person collectively to some extent for the image data for a plurality of shots and for a plurality of regions.

図12に、ラベル付けをまとめて行う場合に表示部25に表示される目視評価画面251の例を示す。目視評価画面251は、ロール1周分のフィルムFに対する目視評価を記録するための画面である。目視評価画面251には、幅方向位置欄51、ラベル入力欄52、合成画像欄53が含まれる。 FIG. 12 shows an example of a visual evaluation screen 251 displayed on the display unit 25 when collectively labeling. The visual evaluation screen 251 is a screen for recording the visual evaluation of the film F for one round of the roll. The visual evaluation screen 251 includes a width direction position field 51 , a label input field 52 and a composite image field 53 .

幅方向位置欄51には、フィルムFの幅方向における位置が表示される。ここでは、フィルムFの幅方向における位置が5cmごとに区切られている。
ラベル入力欄52には、合成画像欄53に表示されている合成画像に対するラベル(欠陥判定結果、定量評価結果)が入力される。例えば、ラベル入力欄52に、「ゲージバンド」、「縦シワ」、「斜めシワ」、「欠陥なし」等が入力され、また、各欠陥のランクが入力される。
The position of the film F in the width direction is displayed in the width direction position column 51 . Here, the position in the width direction of the film F is divided every 5 cm.
A label (defect determination result, quantitative evaluation result) for the composite image displayed in the composite image column 53 is input to the label input column 52 . For example, "gauge band", "vertical wrinkle", "diagonal wrinkle", "no defect", etc., and the rank of each defect are input in the label input column 52. FIG.

合成画像欄53には、幅方向位置(幅方向の分割領域)に対応する合成画像が表示される。合成画像は、複数回(ここでは16回)の撮影で得られた画像データのそれぞれを、幅方向において複数の領域に分割して分割画像データを生成し、同じ幅方向位置のロール1周分(16個)の分割画像データを、時間の経過(検査日時、フィルムFの巻き取り方向)に沿って、合成したものである。図12に示す例では、幅方向位置ごとに、16回の撮影により得られた合成画像に対し、ラベル付けが行われることになる。 The composite image field 53 displays a composite image corresponding to the width direction position (width direction divided area). The composite image is obtained by dividing each of the image data obtained by multiple times (here, 16 times) of shooting into multiple areas in the width direction to generate divided image data, and generating divided image data for one rotation of the roll at the same width direction position. The (16) pieces of divided image data are combined along the passage of time (inspection date and time, winding direction of the film F). In the example shown in FIG. 12, labeling is performed on the composite image obtained by photographing 16 times for each position in the width direction.

第2の実施の形態のフィルム検査装置10において、巻き取り中のフィルムFから欠陥を検出する際には、フィルム欠陥学習処理(図8参照)で作成された学習済みの機械学習モデル(学習済みモデル)を用いる。
第2の実施の形態のフィルム欠陥検出処理は、図6に示した第1の実施の形態のフィルム欠陥検出処理と略同様であるが、ステップS5のデータ処理に代えて、図13に示す第2のデータ処理を行う。
In the film inspection apparatus 10 of the second embodiment, when detecting defects from the film F being wound, a learned machine learning model (learned model).
The film defect detection process of the second embodiment is substantially the same as the film defect detection process of the first embodiment shown in FIG. 2 data processing is performed.

ステップS51~ステップS53の処理は、データ処理(図7参照)のステップS11~ステップS13の処理と同様であるため、説明を省略する。 Since the processing of steps S51 to S53 is the same as the processing of steps S11 to S13 of the data processing (see FIG. 7), description thereof will be omitted.

次に、制御部21は、領域a1の画像データに対する数学的処理により求められた値(特徴量)に基づいて、学習済みモデルにより欠陥を検出する(ステップS54)。具体的には、制御部21は、領域a1の画像データから得られた特徴量を機械学習モデルに入力し、機械学習モデルから出力された欠陥の種類及びランクを取得する。
ステップS54の処理が「欠陥判定処理」、「定量評価処理」に相当する。
Next, the control unit 21 detects defects using the trained model based on the values (feature amounts) obtained by mathematically processing the image data of the area a1 (step S54). Specifically, the control unit 21 inputs the feature amount obtained from the image data of the area a1 to the machine learning model, and acquires the defect type and rank output from the machine learning model.
The process of step S54 corresponds to "defect determination process" and "quantitative evaluation process".

領域a1以外の領域に対しても同様に処理を行う。例えば、領域anの画像データに対して行われるステップS55~ステップS57の処理は、ステップS52~ステップS54の処理と同様である。 Areas other than the area a1 are similarly processed. For example, the processing of steps S55 to S57 performed on the image data of area an is the same as the processing of steps S52 to S54.

各領域a1~anに対する処理の後、制御部21は、各領域a1~anに対する結果を統合し(ステップS58)、第2のデータ処理が終了する。具体的には、制御部21は、領域ごと(フィルムFの幅方向における位置ごと)に、検出された欠陥の種類及びランクを対応付けたデータを生成する。 After processing the areas a1 to an, the control unit 21 integrates the results for the areas a1 to an (step S58), and the second data processing ends. Specifically, the control unit 21 generates data in which the types and ranks of detected defects are associated with each region (each position in the width direction of the film F).

図13に示した第2のデータ処理において、フィルムFの幅方向に分割した各領域a1~anの画像データに対して数学的処理(ステップS53,S56)を行うことに加え、ステップS51の処理の前にも、領域分割前の画像データ全体に対して数学的処理を行うこととしてもよい。 In the second data processing shown in FIG. 13, in addition to performing mathematical processing (steps S53 and S56) on the image data of each of the regions a1 to an divided in the width direction of the film F, the processing of step S51 is performed. Prior to , mathematical processing may be performed on the entire image data before segmentation.

第2の実施の形態のフィルム欠陥検出処理においても、巻き取られるフィルムFの動きに伴い、フィルムFの長手方向における検査領域を変えて、フィルム欠陥検出処理を繰り返すことで、フィルムFの長手方向におけるそれぞれの位置での検査結果を取得する。
また、複数回の撮影で得られた画像データを保存しておき、その後、まとめて第2のデータ処理を行うこととしてもよい。
In the film defect detection process of the second embodiment as well, the inspection area in the longitudinal direction of the film F is changed in accordance with the movement of the film F to be wound, and the film defect detection process is repeated. Obtain inspection results at each position in .
Alternatively, image data obtained by multiple shots may be stored and then collectively subjected to the second data processing.

図14に、第2の実施の形態のフィルム検査装置10により得られた評価結果の例を示す。例えば、制御部21は、評価結果を表示部25に表示させる。
図14の評価結果において、横軸は、フィルムFの幅方向における位置を示し、縦軸は、検査日時を示している。なお、フィルム検査装置10は、巻き取られるフィルムFに対して欠陥を検査するものであるから、検査日時は、フィルムFの長手方向の位置に対応している。
FIG. 14 shows an example of evaluation results obtained by the film inspection apparatus 10 of the second embodiment. For example, the control unit 21 causes the display unit 25 to display the evaluation result.
In the evaluation results of FIG. 14, the horizontal axis indicates the position in the width direction of the film F, and the vertical axis indicates the date and time of inspection. Since the film inspection apparatus 10 inspects the wound film F for defects, the date and time of inspection correspond to the position of the film F in the longitudinal direction.

評価結果には、検出された欠陥ごとに、欠陥の種類・ランクに応じた文字(b1~b4,c1~c4等)が、欠陥が検出されたフィルムFの幅方向における位置及び検査日時に対応する位置に配置されている。ここで、b1~b4は、ゲージバンドを示しており、数字が小さいほど、強度が強い。また、c1~c4は、斜めシワを示しており、数字が小さいほど、強度が強い。 In the evaluation result, for each defect detected, characters (b1 to b4, c1 to c4, etc.) corresponding to the type and rank of the defect correspond to the position in the width direction of the film F where the defect was detected and the date and time of inspection. It is placed in a position where Here, b1 to b4 indicate gauge bands, and the smaller the number, the stronger the strength. In addition, c1 to c4 indicate oblique wrinkles, and the smaller the number, the stronger the strength.

以上説明したように、第2の実施の形態によれば、第1の実施の形態と同様、フィルムFの検査領域において反射された拡散光を検出した出力信号に対してデータ処理を行うので、人手による監視を必要とすることなく、フィルムFに発生した欠陥の検出を容易に行うことができる。 As described above, according to the second embodiment, as in the first embodiment, data processing is performed on the output signal obtained by detecting the diffused light reflected in the inspection area of the film F. Defects occurring in the film F can be easily detected without requiring manual monitoring.

また、画像処理後のデータを説明変数とし、人による欠陥の判定結果を目的変数として機械学習モデルを構築しておくことで、欠陥判定処理において、機械学習結果(学習済みモデル)を用いて、欠陥を判定することができる。 In addition, by constructing a machine learning model with data after image processing as explanatory variables and defect judgment results by humans as objective variables, machine learning results (learned models) can be used in the defect judgment process. Defects can be determined.

また、画像処理後のデータを説明変数とし、人による欠陥の定量評価結果を目的変数として機械学習モデルを構築しておくことで、定量評価処理において、機械学習結果(学習済みモデル)を用いて、欠陥を定量評価することができる。 In addition, by building a machine learning model with post-image processing data as explanatory variables and quantitative evaluation results of defects by humans as objective variables, machine learning results (learned models) can be used in quantitative evaluation processing. , defects can be evaluated quantitatively.

また、フィルムFに未知の欠陥が発生した場合においても、未知の欠陥を含む画像データを画像処理した後のデータを説明変数、人による欠陥判定結果を目的変数として、未知の欠陥を対象として再度学習させることにより、これまで認識されていなかった欠陥についても、自動的に検出することが可能となる。 In addition, even if an unknown defect occurs in the film F, the data after image processing of the image data including the unknown defect is used as an explanatory variable, and the result of defect judgment by a person is used as an objective variable. By learning, it becomes possible to automatically detect defects that have not been recognized until now.

なお、ステップS43,S45では、表示部25に表示された画像データ上で目視評価(ラベル付け)を行ったが、巻き取り中のフィルムF自体を観察してラベル付けを行ってもよい。 In steps S43 and S45, visual evaluation (labeling) was performed on the image data displayed on the display unit 25, but the film F being wound may be observed and labeled.

<特徴量算出結果と官能評価との比較>
図15(a)は、第1の実施の形態又は第2の実施の形態のフィルム検査装置10においてフィルムFを撮影して得られた画像データから算出された特徴量の例である。具体的には、図15(a)は、フィルムFの巻き取り時に、フィルムFの幅方向の或る領域をカメラ12で撮影して得られた画像データに対し、高速フーリエ変換(FFT:Fast Fourier Transform)を行い、特定周波数における強度として、振幅の平均を、フィルムFの長手方向の位置(巻長)に対してプロットしたものである。
<Comparison between feature value calculation results and sensory evaluation>
FIG. 15A shows an example of feature values calculated from image data obtained by photographing the film F with the film inspection apparatus 10 of the first embodiment or the second embodiment. Specifically, FIG. 15(a) shows a fast Fourier transform (FFT: Fast Fourier Transform) is performed, and the average amplitude is plotted as the intensity at a specific frequency against the longitudinal position (winding length) of the film F.

図15(b)は、図15(a)と同じ画像データに対して、人間が目視評価(官能評価)を行った結果である。図15(b)は、フィルムFの長手方向の位置(巻長)に対して、斜めシワの目視ランクをプロットしたものである。図15(b)によれば、フィルムFの巻長100~275mの範囲でランク4の斜めシワ(c4)が発生し、フィルムFの巻長300~400mの範囲でランク3の斜めシワ(c3)が発生している。 FIG. 15(b) shows the results of human visual evaluation (sensory evaluation) performed on the same image data as in FIG. 15(a). FIG. 15(b) plots the visual rank of oblique wrinkles with respect to the longitudinal position (winding length) of the film F. As shown in FIG. According to FIG. 15(b), rank 4 oblique wrinkles (c4) occur in the range of 100 to 275 m in the winding length of film F, and rank 3 oblique wrinkles (c3) occur in the range of 300 to 400 m in the winding length of film F. ) is occurring.

これに対し、図15(a)では、フィルムFの巻長50~400mの範囲で特定周波数における強度が次第に大きくなっており、図15(b)の官能評価結果(c4からc3に変化)と対応している。つまり、FFTにおいて得られた特定周波数における強度は、斜めシワを検出する際の特徴量、欠陥の強度(ランク)を検出する際の特徴量として適していることが分かる。 On the other hand, in FIG. 15(a), the intensity at the specific frequency gradually increases in the range of 50 to 400 m of the winding length of the film F, and the sensory evaluation result (change from c4 to c3) in FIG. Yes. In other words, it can be seen that the intensity at the specific frequency obtained in the FFT is suitable as a feature amount for detecting diagonal wrinkles and as a feature amount for detecting the intensity (rank) of a defect.

図15から、画像データから算出された特徴量を用いた評価と、人による評価の傾向が一致することが確認できた。 From FIG. 15, it was confirmed that the tendency of the evaluation using the feature amount calculated from the image data and the evaluation by the person match.

<照射部と非照射部とのコントラスト>
次に、フィルムF上の照射部と非照射部とのコントラストの算出方法の一例について説明する。
カメラ12によりフィルムFを撮影して得られた画像データにおいて、光源11により光が照射される照射部の信号値(明るさ)をL1、光源11により光が照射されない非照射部の信号値をL2とする。
<Contrast between irradiated area and non-irradiated area>
Next, an example of a method of calculating the contrast between the irradiated portion and the non-irradiated portion on the film F will be described.
In the image data obtained by photographing the film F with the camera 12, L1 is the signal value (brightness) of the irradiated portion irradiated by the light source 11, and the signal value of the non-irradiated portion not irradiated by the light source 11 is Let it be L2.

図16に、光源11の条件を変えて測定した、照射部における信号値L1の平均値L1_mean、最小値L1_min、最大値L1_max、非照射部における信号値L2の平均値L2_mean、最小値L2_min、最大値L2_max、コントラストL1_mean/L2_meanを示す。 FIG. 16 shows the average value L1_mean, minimum value L1_min, and maximum value L1_max of the signal value L1 in the irradiated portion, and the average value L2_mean, minimum value L2_min, and maximum value L2 of the signal value L2 in the non-irradiated portion, which were measured while changing the conditions of the light source 11. Value L2_max, contrast L1_mean/L2_mean.

直進光源1、2は、直進性が高い光源であり、観察したい部分のみに光を当てるという目的に即している。直進光源1は、直進光源2より直進性が高い。
データ番号1~3では、同じ直進光源1を用いているが、光源の数や強さを変えて、コントラストを調整している。
データ番号4、5では、同じ直進光源2を用いているが、光源の数や強さを変えて、コントラストを調整している。
The rectilinear light sources 1 and 2 are light sources with high rectilinearity, and meet the purpose of illuminating only a portion to be observed. The rectilinear light source 1 has higher rectilinearity than the rectilinear light source 2 .
In data numbers 1 to 3, the same rectilinear light source 1 is used, but the contrast is adjusted by changing the number and intensity of the light sources.
In data numbers 4 and 5, the same rectilinear light source 2 is used, but the contrast is adjusted by changing the number and intensity of the light sources.

拡散光源は、観察したい部分以外にも光が当たるが、拡散光源でも、フィルムFに或る程度近付ければ、照射部と非照射部とで光の当たり方の違いを出すことができる。 The diffused light source illuminates areas other than the part to be observed, but even with the diffused light source, if the film F is brought close to the film F to some extent, it is possible to make a difference in how the light strikes the irradiated part and the non-irradiated part.

環境光(従来)の場合、非照射部における信号値L2の平均値L2_meanが、照射部における信号値L1の平均値L1_meanより大きい結果となり、観察したい部分のみに光を当てるようにはなっていない。 In the case of ambient light (conventional), the average value L2_mean of the signal value L2 in the non-irradiated portion is larger than the average value L1_mean of the signal value L1 in the irradiated portion, and light is not applied only to the portion to be observed. .

図16のように、コントラストとして、非照射部における信号値L2の平均値に対する照射部における信号値L1の平均値の比「L1_mean/L2_mean」を用いる場合、コントラストは1.1以上であることが好ましい。また、1.8以上であることがより好ましく、2.5以上であることがさらに好ましい。 As shown in FIG. 16, when the ratio "L1_mean/L2_mean" of the average value of the signal value L1 in the irradiated portion to the average value of the signal value L2 in the non-irradiated portion is used as the contrast, the contrast is 1.1 or more. preferable. Moreover, it is more preferably 1.8 or more, and even more preferably 2.5 or more.

なお、上記各実施の形態における記述は、本発明に係るフィルム検査装置の例であり、これに限定されるものではない。装置を構成する各部の細部構成及び細部動作に関しても本発明の趣旨を逸脱することのない範囲で適宜変更可能である。 It should be noted that the description in each of the above embodiments is an example of the film inspection apparatus according to the present invention, and the present invention is not limited to this. The detailed configuration and detailed operation of each unit that constitutes the device can be changed as appropriate without departing from the scope of the present invention.

例えば、上記各実施の形態では、フィルムFをロール状に巻き取る際に発生する欠陥を検出することとしたが、所定のサイズに断裁されたフィルムFが重ねられていく際に発生する欠陥を検出することとしてもよい。 For example, in each of the above-described embodiments, defects that occur when the film F is wound into a roll are detected. It may be detected.

また、上記各実施の形態では、カメラ12として、白黒カメラを用いた場合について説明したが、カメラ12はカラーカメラであってもよい。
また、上記各実施の形態では、光学センサーとしてエリアセンサー(カメラ12)を用いた場合について説明したが、ラインセンサーを用いてもよい。
Further, in each of the above embodiments, the camera 12 is a black-and-white camera, but the camera 12 may be a color camera.
Further, in each of the above-described embodiments, a case where an area sensor (camera 12) is used as an optical sensor has been described, but a line sensor may be used.

また、図7に示すデータ処理又は図13に示す第2のデータ処理において、定量評価処理を行わないこととしてもよい。すなわち、カメラ12の出力信号から得られた画像データに対して画像処理を行い、画像処理後のデータに基づいて欠陥を判定する際に、欠陥の強度を求めなくてもよい。 Further, in the data processing shown in FIG. 7 or the second data processing shown in FIG. 13, quantitative evaluation processing may not be performed. That is, when image processing is performed on image data obtained from the output signal of the camera 12 and a defect is determined based on the data after the image processing, it is not necessary to obtain the strength of the defect.

また、上記各実施の形態において、フィルムFの長手方向における全領域を順に検査領域としてもよいし、フィルムFの長手方向において所定の間隔で検査領域を設けて欠陥を検査してもよい。 Further, in each of the above-described embodiments, the entire area in the longitudinal direction of the film F may be sequentially inspected, or inspection areas may be provided at predetermined intervals in the longitudinal direction of the film F to inspect defects.

また、フィルムFを巻き取り中に発生する欠陥に加えて、巻き取り時には発生していなかったが、次工程への移行中(フィルムFを移動させたり、保管したりしている間)等に発生し、ロールからの巻き出し時に欠陥として認識される場合がある。
巻き取り時の画像データに対して画像処理を行った画像処理後のデータを説明変数、次工程の巻き出し時における人による欠陥の判定結果を目的変数として機械学習を行うことで、次工程への移行中に発生する欠陥の兆候について検出することが可能になる。また、機械学習を行う際の目的変数を、次工程の巻き出し時における人による欠陥の定量評価結果とすることにより、次工程への移行中に発生する欠陥のランクを予測することもできる。
In addition to defects that occur during winding of the film F, defects that did not occur at the time of winding may occur during the transition to the next process (while the film F is being moved or stored). can occur and be recognized as a defect when unrolling from the roll.
Machine learning is performed using the image data after image processing performed on the image data at the time of winding as an explanatory variable, and the defect judgment result by a person at the time of unwinding in the next process as the objective variable. It becomes possible to detect for indications of defects that occur during the transition of In addition, the rank of defects that will occur during the transition to the next process can be predicted by using the result of quantitative evaluation of defects by a person at the time of unwinding in the next process as an objective variable when performing machine learning.

各処理を実行するためのプログラムを格納するコンピューター読み取り可能な媒体としては、上記の例に限定されず、可搬型記録媒体を適用することも可能である。また、プログラムのデータを通信回線を介して提供する媒体として、キャリアウェーブ(搬送波)を適用することとしてもよい。 The computer-readable medium that stores the program for executing each process is not limited to the above example, and a portable recording medium can also be applied. Also, a carrier wave may be applied as a medium for providing program data via a communication line.

10 フィルム検査装置
11 光源
12 カメラ
20 データ処理装置
21 制御部
25 表示部
26 操作部
27 記憶部
28 計時部
48 反射防止板
251 目視評価画面
F フィルム
10 film inspection device 11 light source 12 camera 20 data processing device 21 control unit 25 display unit 26 operation unit 27 storage unit 28 timer unit 48 antireflection plate 251 visual evaluation screen F film

Claims (12)

重なった状態のフィルムに発生した欠陥を光学的に検査するフィルム検査装置であって、
前記フィルムの検査領域に光を照射する光源と、
前記フィルムの検査領域において反射された光のうち拡散光を検出する光学センサーと、
前記光学センサーの出力信号に対してデータ処理を行うことで、前記欠陥を検出する制御部と、
を備えるフィルム検査装置。
A film inspection device for optically inspecting defects occurring in films in an overlapping state,
a light source for irradiating an inspection area of the film;
an optical sensor for detecting diffuse light among the light reflected in the inspection area of the film;
a control unit that detects the defect by performing data processing on the output signal of the optical sensor;
A film inspection device comprising:
前記データ処理は、前記光学センサーの出力信号から得られた画像データに対する画像処理と、当該画像処理後のデータに基づいて前記欠陥を判定する欠陥判定処理と、を含む請求項1に記載のフィルム検査装置。 2. The film according to claim 1, wherein the data processing includes image processing for image data obtained from the output signal of the optical sensor, and defect determination processing for determining the defect based on the data after the image processing. inspection equipment. 前記制御部は、前記欠陥判定処理において、前記画像処理後のデータを説明変数とし、人による前記欠陥の判定結果を目的変数として構築された機械学習モデルを用いる請求項2に記載のフィルム検査装置。 3. The film inspection apparatus according to claim 2, wherein in the defect determination process, the control unit uses a machine learning model constructed using the image-processed data as an explanatory variable and the defect determination result by a person as an objective variable. . 前記データ処理は、さらに、前記画像処理後のデータに基づいて前記欠陥を定量評価する定量評価処理を含む請求項2又は3に記載のフィルム検査装置。 4. The film inspection apparatus according to claim 2, wherein the data processing further includes quantitative evaluation processing for quantitatively evaluating the defects based on the data after the image processing. 前記制御部は、前記定量評価処理において、前記画像処理後のデータを説明変数とし、人による前記欠陥の定量評価結果を目的変数として構築された機械学習モデルを用いる請求項4に記載のフィルム検査装置。 5. The film inspection according to claim 4, wherein in the quantitative evaluation process, the control unit uses a machine learning model constructed using the data after the image processing as an explanatory variable and the quantitative evaluation result of the defect by a person as an objective variable. Device. 前記フィルムは、ロール状に巻き取られるものであり、
当該フィルム検査装置は、前記フィルムの巻き取り中に発生した前記欠陥を検査対象とする請求項1から5のいずれか一項に記載のフィルム検査装置。
The film is wound into a roll,
The film inspection device according to any one of claims 1 to 5, wherein the film inspection device inspects the defects that occur during winding of the film.
前記光源は、前記ロール状のフィルムの幅方向において均一に光を照射するものである請求項6に記載のフィルム検査装置。 7. A film inspection apparatus according to claim 6, wherein said light source uniformly irradiates light in the width direction of said roll-shaped film. 前記光学センサーの出力信号において、前記フィルム上の前記光源により光が照射される照射部に対応する信号値と、前記光源により光が照射されない非照射部に対応する信号値とのコントラストが所定値以上である請求項1から7のいずれか一項に記載のフィルム検査装置。 In the output signal of the optical sensor, the contrast between the signal value corresponding to the irradiated portion on the film irradiated by the light source and the signal value corresponding to the non-irradiated portion not irradiated by the light source is a predetermined value. The film inspection apparatus according to any one of claims 1 to 7, wherein the above is the case. 前記フィルムの検査領域において反射された光のうち正反射光が前記光学センサーに入らないように、反射防止板が設けられている請求項1から8のいずれか一項に記載のフィルム検査装置。 The film inspection apparatus according to any one of claims 1 to 8, further comprising an antireflection plate to prevent specularly reflected light from entering the optical sensor out of the light reflected in the inspection area of the film. 前記光学センサーは、白黒カメラである請求項1から9のいずれか一項に記載のフィルム検査装置。 10. A film inspection apparatus according to any one of claims 1 to 9, wherein said optical sensor is a black and white camera. 重なった状態のフィルムに発生した欠陥を光学的に検査するフィルム検査方法であって、
光源により、前記フィルムの検査領域に光を照射する工程と、
光学センサーにより、前記フィルムの検査領域において反射された光のうち拡散光を検出する工程と、
制御部により、前記光学センサーの出力信号に対してデータ処理を行うことで、前記欠陥を検出する工程と、
を含むフィルム検査方法。
A film inspection method for optically inspecting defects occurring in films in an overlapping state,
irradiating an inspection area of the film with light from a light source;
detecting, with an optical sensor, diffuse light reflected from an inspection area of the film;
a step of detecting the defect by performing data processing on the output signal of the optical sensor by a control unit;
film inspection method including;
重なった状態のフィルムの検査領域に光を照射する光源と、前記フィルムの検査領域において反射された光のうち拡散光を検出する光学センサーと、を備え、前記フィルムに発生した欠陥を光学的に検査するフィルム検査装置のコンピューターを、
前記光学センサーの出力信号に対してデータ処理を行うことで、前記欠陥を検出する制御部として機能させるためのプログラム。
A light source that irradiates an inspection area of films in a state of being overlapped with light, and an optical sensor that detects diffused light among the light reflected in the inspection area of the film, and optically detects defects occurring in the film. The computer of the film inspection device to be inspected,
A program for functioning as a control unit that detects the defect by performing data processing on the output signal of the optical sensor.
JP2021121221A 2021-07-26 2021-07-26 Film inspection apparatus, film inspection method and program Pending JP2023017169A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021121221A JP2023017169A (en) 2021-07-26 2021-07-26 Film inspection apparatus, film inspection method and program
TW111114662A TWI829143B (en) 2021-07-26 2022-04-18 Film inspection equipment, film inspection methods and computer program products
KR1020220058999A KR20230016571A (en) 2021-07-26 2022-05-13 Film inspection apparatus, film inspection method and program
CN202210870412.5A CN115684189A (en) 2021-07-26 2022-07-22 Thin film inspection device, thin film inspection method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021121221A JP2023017169A (en) 2021-07-26 2021-07-26 Film inspection apparatus, film inspection method and program

Publications (1)

Publication Number Publication Date
JP2023017169A true JP2023017169A (en) 2023-02-07

Family

ID=85060926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021121221A Pending JP2023017169A (en) 2021-07-26 2021-07-26 Film inspection apparatus, film inspection method and program

Country Status (4)

Country Link
JP (1) JP2023017169A (en)
KR (1) KR20230016571A (en)
CN (1) CN115684189A (en)
TW (1) TWI829143B (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117333492B (en) * 2023-12-01 2024-03-15 深圳菲尔泰光电有限公司 Optical film quality detection method and related device based on image processing

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002365225A (en) 2001-03-19 2002-12-18 Toray Ind Inc Method and apparatus for inspecting sheet material
JP4213616B2 (en) * 2004-03-31 2009-01-21 大日本印刷株式会社 Base film for liquid crystal panel, functional film for liquid crystal panel, method for producing functional film, and apparatus for producing functional film
JP6394825B1 (en) * 2018-02-08 2018-09-26 横河電機株式会社 Measuring apparatus and measuring method

Also Published As

Publication number Publication date
TW202305320A (en) 2023-02-01
CN115684189A (en) 2023-02-03
TWI829143B (en) 2024-01-11
KR20230016571A (en) 2023-02-02

Similar Documents

Publication Publication Date Title
WO2023077404A1 (en) Defect detection method, apparatus and system
CN107209935B (en) For measuring the system and method for mobile document image quality
US5068799A (en) System and method for detecting flaws in continuous web materials
Liong et al. Automatic defect segmentation on leather with deep learning
JP5546317B2 (en) Visual inspection device, visual inspection discriminator generation device, visual inspection discriminator generation method, and visual inspection discriminator generation computer program
CN113592845A (en) Defect detection method and device for battery coating and storage medium
JP5043755B2 (en) Resin material inspection device and program
US6531707B1 (en) Machine vision method for the inspection of a material for defects
Kuo et al. Automated optical inspection system for surface mount device light emitting diodes
Medina et al. Automated visual classification of frequent defects in flat steel coils
Kuo et al. Automated defect inspection system for CMOS image sensor with micro multi-layer non-spherical lens module
JP2013545979A (en) Fast processing and detection of inhomogeneities in web-based materials
CN111507426A (en) No-reference image quality grading evaluation method and device based on visual fusion characteristics
JP6616906B1 (en) Detection device and detection system for defective photographing data
JP2023017169A (en) Film inspection apparatus, film inspection method and program
Nayef et al. Metric-based no-reference quality assessment of heterogeneous document images
US6765224B1 (en) Machine vision method and system for the inspection of a material
Coskun et al. Integration of digital quality control for intelligent manufacturing of industrial ceramic tiles
CN108073873A (en) Human face detection and tracing system based on high-definition intelligent video camera
CN117576014A (en) Ceramic substrate quality detection method, system, electronic equipment and storage medium
CN114226262A (en) Flaw detection method, flaw classification method and flaw detection system
Kuo et al. Automated inspection of micro-defect recognition system for color filter
CN116258703A (en) Defect detection method, defect detection device, electronic equipment and computer readable storage medium
Ozseven et al. Surface defect detection and quantification with image processing methods
Ghodrati et al. How accurately do different computer-based texture characterization methods predict material surface coarseness? A guideline for effective online inspection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231222