KR20220131358A - 스크랩 판별 시스템 및, 스크랩 판별 방법 - Google Patents

스크랩 판별 시스템 및, 스크랩 판별 방법 Download PDF

Info

Publication number
KR20220131358A
KR20220131358A KR1020227031921A KR20227031921A KR20220131358A KR 20220131358 A KR20220131358 A KR 20220131358A KR 1020227031921 A KR1020227031921 A KR 1020227031921A KR 20227031921 A KR20227031921 A KR 20227031921A KR 20220131358 A KR20220131358 A KR 20220131358A
Authority
KR
South Korea
Prior art keywords
scrap
grade
image
model
camera image
Prior art date
Application number
KR1020227031921A
Other languages
English (en)
Inventor
야스오 기시모토
후토시 오가사와라
야스요시 다카오
Original Assignee
제이에프이 스틸 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 제이에프이 스틸 가부시키가이샤 filed Critical 제이에프이 스틸 가부시키가이샤
Publication of KR20220131358A publication Critical patent/KR20220131358A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • B07C5/3422Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C2501/00Sorting according to a characteristic or feature of the articles or material to be sorted
    • B07C2501/0054Sorting of waste or refuse
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P10/00Technologies related to metal processing
    • Y02P10/20Recycling
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02WCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO WASTEWATER TREATMENT OR WASTE MANAGEMENT
    • Y02W90/00Enabling technologies or technologies with a potential or indirect contribution to greenhouse gas [GHG] emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Signal Processing (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Processing Of Solid Wastes (AREA)
  • Electrical Discharge Machining, Electrochemical Machining, And Combined Machining (AREA)
  • Sorting Of Articles (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Spectrometry And Color Measurement (AREA)

Abstract

스크랩의 판별 기술을 개선할 수 있는 스크랩 판별 시스템 및, 스크랩 판별 방법이 제공된다. 스크랩 판별 시스템(1)은, 카메라 화상에 기초하여, 당해 카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 판별하는, 제1 학습용 화상을 포함하는 교사 데이터에 의해 생성된 제1 스크랩 판별 모델(221)과, 카메라 화상에 기초하여, 당해 카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 판별하는, 제2 학습용 화상을 포함하는 교사 데이터에 의해 생성된 제2 스크랩 판별 모델(222)과, 카메라 화상에 기초하여, 제1 스크랩 판별 모델(221) 또는 제2 스크랩 판별 모델(222)의 어느 것을 이용할지를 판별하는 선택 모델(223)과, 선택 모델(223)에 의해 선택된 모델을 이용하여 카메라 화상에 기초하여 판별된 스크랩의 등급 및 각 등급의 비율의 정보를 출력하는 출력부(24)를 구비한다.

Description

스크랩 판별 시스템 및, 스크랩 판별 방법
본 개시는, 스크랩 판별 시스템 및, 스크랩 판별 방법에 관한 것이다.
최근, 자원의 유효 활용의 관점에서, 스크랩 등의 폐기물을 리사이클 가능한 자원으로서 재이용하는 것이 요구되고 있다. 폐기물을 재이용하기 위해서는, 리사이클 가능한 자원을 판별할 필요가 있다. 종래부터 인력에 의지하지 않는 폐기물의 판별 처리 방법이 제안되어 있다(예를 들면 특허문헌 1).
일본공개특허공보 2017-109197호
그러나 특허문헌 1의 기술은, 해체 처리한 주택 및 재해 기와조각 등의 폐기물을 판별의 대상으로 한 것으로, 예를 들면 금속 등의 스크랩을 효율적으로 판별하는 방법에 대해서는 검토되어 있지 않다. 예를 들면 철에 관련된 재이용의 자원으로서 철 스크랩이 시장에서 유통되고 있고, 전기로 등을 이용하여 철로 리사이클되고 있다. 종래, 철 스크랩 처리의 현장에서는 스크랩의 등급의 판별이 작업원의 육안에 의해 이루어지고 있다. 이것은, 파쇄 후의 스크랩 금속편이 여러 가지 스케일을 갖고, 또한, 각 스크랩의 형상도 상위하여, 등급의 판별을 하기 위해서는 전체를 육안으로 보지 않으면 안되어, 그의 자동화가 곤란하기 때문이다. 다른 한편으로, 작업원의 육안에 의한 판별 작업에서는, 작업원의 숙련도에 기인하는 판별 결과의 편차의 문제가 발생하고 있었다. 또한 이러한 작업원의 고령화 및 인원 확보의 문제가 있었다. 이와 같이 스크랩의 판별 기술에 관하여 개선의 여지가 있었다.
이러한 사정을 감안하여 이루어진 본 개시의 목적은, 스크랩의 판별 기술을 개선할 수 있는 스크랩 판별 시스템 및, 스크랩 판별 방법을 제공하는 것을 목적으로 한다.
본 개시의 일 실시 형태에 따른 스크랩 판별 시스템은,
스크랩을 포함하는 카메라 화상을 취득하는 취득부와,
상기 카메라 화상에 기초하여, 당해 카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 판별하는, 제1 학습용 화상을 포함하는 교사 데이터(teaching data)에 의해 생성된 제1 스크랩 판별 모델과,
상기 카메라 화상에 기초하여, 당해 카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 판별하는, 상기 제1 학습용 화상과는 상이한 제2 학습용 화상을 포함하는 교사 데이터에 의해 생성된 제2 스크랩 판별 모델과,
상기 카메라 화상에 기초하여, 상기 제1 스크랩 판별 모델 또는 상기 제2 스크랩 판별 모델의 어느 것을 이용할지를 판별하는 선택 모델과,
상기 제1 스크랩 판별 모델 또는 상기 제2 스크랩 판별 모델 중, 상기 선택 모델에 의해 선택된 모델을 이용하여 상기 카메라 화상에 기초하여 판별된 스크랩의 등급 및 각 등급의 비율의 정보를 출력하는 출력부
를 구비한다.
또한, 본 개시의 일 실시 형태에 따른 스크랩 판별 방법은,
스크랩을 포함하는 카메라 화상에 기초하여, 당해 카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 판별하는, 제1 학습용 화상을 포함하는 교사 데이터에 의해 생성된 제1 스크랩 판별 모델과, 상기 카메라 화상에 기초하여, 당해 카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 판별하는, 상기 제1 학습용 화상과는 상이한 제2 학습용 화상을 포함하는 교사 데이터에 의해 생성된 제2 스크랩 판별 모델을 이용하는 스크랩 판별 방법으로서,
상기 스크랩을 포함하는 카메라 화상을 취득하는 스텝과,
상기 카메라 화상에 기초하여, 상기 제1 스크랩 판별 모델 또는 상기 제2 스크랩 판별 모델의 어느 것을 이용할지를 선택 모델에 의해 선택하는 스텝과,
상기 제1 스크랩 판별 모델 또는 상기 제2 스크랩 판별 모델 중, 상기 선택 모델에 의해 선택된 모델을 이용하여 상기 카메라 화상에 기초하여 판별된 스크랩의 등급 및 각 등급의 비율의 정보를 출력하는 스텝
을 포함한다.
본 개시의 일 실시 형태에 따른 스크랩 판별 시스템 및, 스크랩 판별 방법에 의하면, 스크랩의 판별 기술을 개선할 수 있다.
도 1은, 본 개시의 일 실시 형태에 따른 스크랩 판별 시스템의 개요 구성을 나타내는 도면이다.
도 2는, 판별의 대상이 되는 스크랩의 카메라 화상의 구체예이다.
도 3은, 제1 스크랩 판별 모델의 학습 처리의 개요를 나타내는 도면이다.
도 4는, 제1 스크랩 판별 모델에 의한 판별 처리의 개요를 나타내는 도면이다.
도 5는, 제2 스크랩 판별 모델의 학습 처리의 개요를 나타내는 도면이다.
도 6은, 본 개시의 일 실시 형태에 따른 스크랩 판별 방법을 나타내는 플로우차트이다.
도 7은, 카메라 화상의 줌 레벨에 따른 그룹마다의 정규화의 개념도이다.
(발명을 실시하기 위한 형태)
이하, 본 개시의 실시 형태에 대해서, 도면을 참조하여 설명한다.
각 도면 중, 동일 또는 상당하는 부분에는, 동일 부호를 붙이고 있다. 본 실시 형태의 설명에 있어서, 동일 또는 상당하는 부분에 대해서는, 설명을 적절히 생략 또는 간략화한다.
도 1은, 본 발명의 일 실시 형태에 따른 스크랩 판별 시스템(1)의 전체 개요를 나타내는 개략도이다. 이하, 본 실시 형태에 있어서 판별하는 스크랩의 대상이 철 스크랩인 경우에 대해서 설명하지만, 판별 대상은 철 스크랩에 한정되지 않는다. 예를 들면 판별 대상은, 다른 금속 스크랩이라도 좋다.
철 스크랩은, 그 발생원에 기초하여 2종류로 크게 나눌 수 있다. 하나는 제조업의 생산 단계에서 발생하는 가공 스크랩(공장 발생 스크랩(mill scrap)이라고도 불린다)이다. 가공 스크랩은, 회수업자에 의해 회수된 후, 신단(新斷; new scrap), 절삭강(steel turnings), 무쇠 부스러기(pig scrap)로 명칭을 바꾸어 유통한다. 그리고 가공 스크랩의 대부분은, 가공 처리(중간 처리)를 행하지 않고 제강 메이커에 거두어진다. 가공 스크랩은, 말하자면 소성(素性; clear history)을 알고 있는 철 스크랩으로, 품위(quality)면에서는 리턴 부스러기(return scrap)와 마찬가지로 사용하기에 편리한 스크랩으로 된다. 또한 발생, 회수 및, 반송 단계에서 이물이 혼입할 가능성도 적다.
다른 한쪽의 스크랩은, 강 구조물이 노후화하여 발생하는 노폐 스크랩이다. 노폐 스크랩에는 수리 또는 손상의 단계에서 발생하는 스크랩도 포함한다. 발생 개소는 건물 해체시, 기계류의 갱신시, 사용이 끝난 자동차, 용기 등, 다종 다양하고, 발생 형상도 여러 가지이다. 그 때문에 노폐 스크랩은, 회수 후에 제강 투입 효율을 올리기 위해 사이징, 파쇄, 용량 축소 등의 가공 처리가 행해진 후, 중량 부스러기로서 취급된다. 또한, 가전 기기류, 자동차의 보디, 자동 판매기 등의 강판 제품에 대해서는 주로 파쇄에 의해 용량 축소화 후, 자선(magnetic separation)에 의해 철만을 선별하기 위해 행해진다. 이들 노폐 스크랩은 발생 단계, 회수 단계 및 가공 처리 단계 각각에 있어서 다양화하기 때문에, 가공 처리 후에 등급의 판별이 행해진다. 노폐 스크랩의 등급 판별은 형상, 즉 스크랩의 두께, 폭, 길이 등에 따라 정해지고 있다. 현재에는 (주) 일본철원협회가 1996년에 제정한 철 스크랩 검수 통일 규격이 널리 이용되고 있다.
전술과 같이, 종래, 철 스크랩 처리의 현장에서는 스크랩의 등급의 판별이 작업원의 육안에 의해 이루어지고 있다. 또한, 작업원의 육안에 의한 판별 작업에는, 작업원의 숙련도에 따른 판별 결과의 편차의 문제 등이 있다. 본 실시 형태에 따른 스크랩 판별 시스템(1)은, 당해 문제 등을 감안하여 이루어진 것으로, 개략적으로, 작업원의 육안에 의한 판별을 대신하여, 철 스크랩을 촬영한 카메라 화상에 기초하여 스크랩의 판별을 행하는 것이다.
이하, 본 실시의 형태에서는, 스크랩 중에서도 일반적인 HS, H1, H2, H3 및, 녹슨 함석판 등의 철 품위가 낮은 L1, L2의 6종류의 판별을 행하는 예에 대해서 설명하지만, 판별하는 대상의 등급은 이에 한정되지 않는다. 또한, 판별하는 대상의 등급은 신단 부스러기(전단 부스러기(shear chips)), 절삭분(절삭 부스러기(cutting chips)) 등을 포함해도 좋다. 즉, 본 실시 형태에 있어서 판별하는 스크랩의 등급은, 제조 현장의 니즈에 맞추어, 임의의 스크랩의 등급을 포함하는 것이 가능하다.
도 1에 나타내는 바와 같이 본 실시 형태에 따른 스크랩 판별 시스템(1)은, 복수의 카메라(10)와, 정보 처리 장치(20)를 포함한다. 복수의 카메라(10)와, 정보 처리 장치(20)는, 네트워크(30)에 의해 접속되어 있다. 복수의 카메라(10)는, 예를 들면 네트워크 카메라로서, 네트워크(30)를 통하여 촬영한 카메라 화상을 정보 처리 장치(20)에 송신한다. 도 1에서는 카메라(10)가 4대 구비되는 경우를 예시하고 있지만, 카메라(10)의 대수는 이에 한정되지 않는다. 카메라(10)의 대수는 4대 미만이라도 좋고, 1대라도 좋다. 또한 카메라(10)의 대수는, 4대보다 많아도 좋다. 카메라 화상은 철 스크랩을 트럭으로 반송 후, 일단 작업장으로 옮긴 타이밍에 있어서 철 스크랩을 촬영한 것이다. 도 2는, 카메라(10)에 의해 촬영되는 카메라 화상의 구체예를 나타낸다. 도 2에 나타내는 바와 같이, 카메라 화상에 포함되는 스크랩은, 복수의 등급의 철 스크랩이 혼재하고 있다. 개략적으로 정보 처리 장치(20)는, 기계 학습에 의해 생성된 복수의 모델에 기초하여, 카메라 화상 중의 철 스크랩의 등급 및 각 등급의 비율을 판별한다. 실제의 조업에서는, 스크랩의 각 등급의 중량비 및 총 중량에 의해, 스크랩의 거래가 행해진다. 여기에서 이하에 있어서 본 실시 형태에서는 정보 처리 장치(20)는, 카메라 화상 중의 각 등급의 스크랩의 중량에 따른 비율을 판별하는 것으로서 설명한다.
정보 처리 장치(20)는, 제어부(21)와, 기억부(22)와, 취득부(23)와, 출력부(24)를 구비한다.
제어부(21)에는, 적어도 1개의 프로세서, 적어도 1개의 전용 회로, 또는 이들의 조합이 포함된다. 프로세서는, CPU(central processing unit) 등의 범용 프로세서, 또는 특정의 처리에 특화한 전용 프로세서이다. 전용 회로는, 예를 들면, FPGA(field-programmable gate array) 또는 ASIC(application specific integrated circuit)이다. 제어부(21)는, 정보 처리 장치(20)의 각 부를 제어하면서, 정보 처리 장치(20)의 동작에 관련된 처리를 실행한다.
기억부(22)에는, 적어도 1개의 반도체 메모리, 적어도 1개의 자기 메모리, 적어도 1개의 광 메모리, 또는 이들 중 적어도 2종류의 조합이 포함된다. 반도체 메모리는, 예를 들면, RAM(random access memory) 또는 ROM(read only memory)이다. RAM은, 예를 들면, SRAM(static random access memory) 또는 DRAM(dynamic random access memory)이다. ROM은, 예를 들면, EEPROM(electrically erasable programmable read only memory)이다. 기억부(22)는, 예를 들면, 주기억 장치, 보조 기억 장치, 또는 캐시 메모리로서 기능한다. 기억부(22)에는, 정보 처리 장치(20)의 동작에 이용되는 데이터와, 정보 처리 장치(20)의 동작에 의해 얻어진 데이터가 기억된다. 예를 들면 기억부(22)는, 제1 스크랩 판별 모델(221), 제2 스크랩 판별 모델(222) 및, 선택 모델(223)을 기억한다.
제1 스크랩 판별 모델(221)은, 카메라 화상에 기초하여, 당해 카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 판별하는 학습 모델이다. 제1 스크랩 판별 모델(221)은, 제1 학습용 화상을 포함하는 교사 데이터에 의해 생성된다. 제1 학습용 화상은, 단일 등급의 철 스크랩의 화상이다. 즉 제1 스크랩 판별 모델(221)은, 제1 학습용 화상과 당해 제1 학습용 화상에 따른 판별의 실적 데이터를 포함하는 교사 데이터에 기초하여, 뉴럴 네트워크 등의 기계 학습 알고리즘을 이용한 기계 학습에 의해 생성된다. 도 3은, 제1 스크랩 판별 모델(221)의 학습 처리의 개요를 나타낸다. 도 3에 나타내는 바와 같이, 제1 스크랩 판별 모델(221)에 따른 입력층에, 제1 학습용 화상, 즉 단일 등급의 철 스크랩의 화상이 입력된다. 각 단일 등급의 철 스크랩의 화상에는, 실적 데이터로서 오퍼레이터가 판별한 등급의 실적 데이터가 대응지어져 있다. 당해 교사 데이터에 의해 뉴런 간의 가중치 계수를 조정하여, 제1 스크랩 판별 모델(221)의 학습 처리가 행해진다. 또한 도 3에서는, 각 화상에, HS, H1, H2, H3, L1 및, L2가 대응지어져 있는 예를 나타내고 있지만, 등급은 이들에 한정되지 않는다. 단일 등급의 철 스크랩의 화상은, 다른 임의의 등급의 철 스크랩 화상이라도 좋다. 여기에서 도 3에 있어서 제1 스크랩 판별 모델(221)은, 입력층, 은폐층 및, 출력층으로 이루어지는 다층 퍼셉트론(multi-layer perceptron)에 기초하여 생성되는 모델인 예를 도시하고 있지만 이에 한정되지 않는다. 제1 스크랩 판별 모델(221)은, 다른 임의의 기계 학습 알고리즘에 의해 생성되는 모델이라도 좋다. 예를 들면 제1 스크랩 판별 모델(221)은, Convolutional Neural Network(CNN), 딥 러닝 등의 기계 학습 알고리즘에 기초하여 생성되는 모델이라도 좋다.
카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 판별할 때, 제어부(21)는, 제1 스크랩 판별 모델(221)을 이용하여, 카메라 화상에 있어서의 각 등급의 스크랩의 면적비에 기초하여 스크랩의 비율을 판별한다. 도 4는, 제1 스크랩 판별 모델(221)에 의한 판별 처리의 개요를 나타낸다. 도 4에 나타내는 바와 같이, 제어부(21)는, 격자 형상으로 분할된 카메라 화상의 각 부의 화상을 제1 스크랩 판별 모델(221)에 입력하여, 당해 부분 화상의 스크랩의 등급을 판별한다. 이와 같이 하여 격자 형상으로 분할된 카메라 화상의 부분 화상을 랜덤으로 추출하여 스크랩의 등급을 판별하고, 제어부(21)는, 당해 화상에 있어서의 스크랩의 등급의 면적비를 산출한다. 또한 제어부(21)는 각 스크랩의 부피 밀도에 기초하여, 면적비를 중량비로 환산한다. 이와 같이 하여 제어부(21)는, 카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 산출한다. 또한 여기에서는 제어부(21)는, 카메라 화상의 일부의 부분 화상을 랜덤으로 추출하여 상기 면적비를 산출하는 예를 나타냈지만 이에 한정되지 않는다. 예를 들면 제어부(21)는, 카메라 화상의 모든 부분 화상에 기초하여 상기 면적비를 산출해도 좋다.
제2 스크랩 판별 모델(222)은, 카메라 화상에 기초하여, 당해 카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 판별하는 학습 모델이다. 제2 스크랩 판별 모델(222)은, 제1 학습용 화상과는 상이한 제2 학습용 화상을 포함하는 교사 데이터에 의해 생성된다. 제2 학습용 화상은, 혼합 등급의 철 스크랩의 화상이다. 혼합 등급의 철 스크랩이란, 복수의 등급의 철 스크랩을 포함하는 철 스크랩이다. 즉 제2 스크랩 판별 모델(222)은, 제2 학습용 화상과 당해 제2 학습용 화상과 관련된 판별의 실적 데이터를 포함하는 교사 데이터에 기초하여, 뉴럴 네트워크 등의 기계 학습 알고리즘을 이용한 기계 학습에 의해 생성된다. 도 5는, 제2 스크랩 판별 모델(222)의 학습 처리의 개요를 나타낸다. 도 5에 나타내는 바와 같이, 제2 스크랩 판별 모델(222)에 따른 입력층에, 제2 학습용 화상, 즉 혼합 등급의 철 스크랩의 화상이 입력된다. 각 혼합 등급의 철 스크랩의 화상에는, 실적 데이터로서 오퍼레이터가 판별한 등급 및 각 등급의 비율이 대응지어져 있다. 당해 교사 데이터에 의해 뉴런 간의 가중치 계수를 조정하여 모델의 학습 처리가 행해진다. 여기에서 도 5에서는 제2 스크랩 판별 모델(222)은, 입력층, 은폐층 및, 출력층으로 이루어지는 다층 퍼셉트론에 기초하여 생성되는 모델인 예를 도시하고 있지만 이에 한정되지 않는다. 제2 스크랩 판별 모델(222)은, 다른 임의의 기계 학습 알고리즘에 의해 생성되는 모델이라도 좋다. 예를 들면 제2 스크랩 판별 모델(222)은, Convolutional Neural Network(CNN), 딥 러닝 등의 기계 학습 알고리즘에 기초하여 생성되는 모델이라도 좋다. 제2 스크랩 판별 모델(222)에 의해, 카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 판별할 때도, 제1 스크랩 판별 모델(221)과 마찬가지로, 카메라 화상을 분할한 부분 화상을 랜덤으로 추출하여 스크랩의 등급을 판별하고, 제어부(21)는, 당해 화상에 있어서의 스크랩의 등급의 중량비를 산출한다. 이는 화상을 분할하여, 랜덤으로 선출한 화상을 복수회 판별함으로써, 판정 정밀도를 향상할 수 있기 때문이다. 또한 여기에서는 카메라 화상의 일부의 부분 화상을 랜덤으로 추출하여 스크랩의 등급의 중량비를 산출하는 예를 나타냈지만 이에 한정되지 않는 점에 대해서도 제1 스크랩 판별 모델(221)과 마찬가지이고, 제어부(21)는, 카메라 화상의 모든 부분 화상에 기초하여 화상을 분할, 상기 중량비를 산출해도 좋다.
선택 모델(223)은, 카메라 화상에 기초하여, 당해 카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 판별할 때에, 제1 스크랩 판별 모델(221) 또는 제2 스크랩 판별 모델(222)의 어느 것이 보다 확실한 것 같은 해(solution)를 출력할지를 추정하는 모델이다. 선택 모델(223)은, 추정 결과에 기초하여, 보다 확실할 것 같은 해를 출력하는 모델을 선택한다. 그리고 제어부(21)는 선택 모델(223)을 이용하여 선택된 모델을 이용하여, 카메라 화상에 기초하여 스크랩의 등급 및 각 등급의 비율을 판별한다. 환언하면 선택 모델(223)은, 카메라 화상에 기초하여, 제1 스크랩 판별 모델(221) 또는 제2 스크랩 판별 모델(222)의 어느 것을 스크랩의 등급에 따른 판별에 이용할지를 판별한다. 선택 모델(223)에 따른 교사 데이터는, 카메라(10)로부터 네트워크(30)를 통하여 취득된 스크랩을 포함하는 카메라 화상, 제1 스크랩 판별 모델(221)에 의해 추정되는 스크랩의 등급 및 각 등급의 비율, 제2 스크랩 판별 모델(222)에 의해 추정되는 스크랩의 등급 및 각 등급의 비율 및, 실적 데이터로서 오퍼레이터가 판별한 등급 및 각 등급의 비율이다. 모델 선택에 따른 실적 데이터는, 제1 스크랩 판별 모델(221) 및 제2 스크랩 판별 모델(222)에 각각 입력했을 때에 있어서의 판별 결과와, 당해 카메라 화상에 따른 오퍼레이터가 판별한 등급 및 각 등급의 비율의 결과에 기초하여 정해진다. 즉 선택 모델(223)은, 이러한 교사 데이터를 이용하여, 뉴럴 네트워크 등의 기계 학습 알고리즘을 이용한 기계 학습에 의해 생성되는 추정 모델이다. 선택 모델(223)은, 예를 들면, 다층 퍼셉트론, Convolutional Neural Network(CNN), 딥 러닝 등의 기계 학습 알고리즘에 기초하여 생성된다.
취득부(23)에는, 카메라(10)로부터 네트워크(30)를 통하여, 스크랩을 포함하는 카메라 화상을 취득하는, 취득부(23)는, 적어도 1개의 통신용 인터페이스가 포함된다. 통신용 인터페이스는, 예를 들면, LAN 인터페이스, WAN 인터페이스, LTE(Long Term Evolution), 4G(4th generation), 혹은 5G(5th generation) 등의 이동 통신 규격에 대응한 인터페이스, 또는 Bluetooth(등록 상표) 등의 근거리 무선 통신에 대응한 인터페이스이다. 취득부(23)는, 정보 처리 장치(20)의 동작에 이용되는 데이터를 수신하고, 또한 정보 처리 장치(20)의 동작에 의해 얻어지는 데이터를 송신한다.
출력부(24)에는, 적어도 1개의 출력용 인터페이스가 포함된다. 출력용 인터페이스는, 예를 들면, 디스플레이이다. 디스플레이는, 예를 들면, LCD(liquid crystal display) 또는 유기 EL(electro luminescence) 디스플레이이다. 출력부(24)는, 정보 처리 장치(20)의 동작에 의해 얻어지는 데이터를 출력한다. 출력부(24)는, 정보 처리 장치(20)에 구비되는 대신에, 외부의 출력 기기로서 정보 처리 장치(20)에 접속되어도 좋다. 접속 방식으로서는, 예를 들면, USB, HDMI(등록상표), 또는 Bluetooth(등록상표) 등의 임의의 방식을 이용할 수 있다.
정보 처리 장치(20)의 기능은, 본 실시 형태에 따른 프로그램을, 제어부(21)에 상당하는 프로세서에서 실행함으로써 실현된다. 즉, 정보 처리 장치(20)의 기능은, 소프트웨어에 의해 실현된다. 프로그램은, 정보 처리 장치(20)의 동작을 컴퓨터에 실행시킴으로써, 컴퓨터를 정보 처리 장치(20)로서 기능시킨다. 즉, 컴퓨터는, 프로그램에 따라서 정보 처리 장치(20)의 동작을 실행함으로써 정보 처리 장치(20)로서 기능한다.
본 실시 형태에 있어서 프로그램은, 컴퓨터로 판독 가능한 기록 매체에 기록해 둘 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 비일시적인 컴퓨터 판독 가능한 매체를 포함하고, 예를 들면, 자기 기록 장치, 광 디스크, 광 자기 기록 매체, 또는 반도체 메모리이다. 프로그램의 유통은, 예를 들면, 프로그램을 기록한 DVD(digital versatile disc) 또는 CD-ROM(compact disc read only memory) 등의 가반형(portable) 기록 매체를 판매, 양도, 또는 대여함으로써 행한다. 또한 프로그램의 유통은, 프로그램을 서버의 스토리지에 격납해 두고, 서버로부터 다른 컴퓨터에 프로그램을 송신함으로써 행해도 좋다. 또한 프로그램은 프로그램 프로덕트로서 제공되어도 좋다.
본 실시 형태에 있어서 컴퓨터는, 예를 들면, 가반형 기록 매체에 기록된 프로그램 또는 서버로부터 송신된 프로그램을, 일단, 주기억 장치에 격납한다. 그리고, 컴퓨터는, 주기억 장치에 격납된 프로그램을 프로세서에서 판독하고, 판독한 프로그램에 따른 처리를 프로세서에서 실행한다. 컴퓨터는, 가반형 기록 매체로부터 직접 프로그램을 판독하고, 프로그램에 따른 처리를 실행해도 좋다. 컴퓨터는, 서버로부터 프로그램을 수신할 때마다, 순차적으로, 수취한 프로그램에 따른 처리를 실행해도 좋다. 서버로부터 컴퓨터로의 프로그램의 송신은 행하지 않고, 실행 지시 및 결과 취득에 의해서만 기능을 실현하는, 소위 ASP(application service provider)형의 서비스에 의해 처리를 실행해도 좋다. 프로그램에는, 전자 계산기에 의한 처리용에 제공하는 정보로서 프로그램에 준하는 것이 포함된다. 예를 들면, 컴퓨터에 대한 직접적인 지령은 아니지만 컴퓨터의 처리를 규정하는 성질을 갖는 데이터는, 「프로그램에 준하는 것」에 해당한다.
정보 처리 장치(20)의 일부 또는 모든 기능이, 제어부(21)에 상당하는 전용 회로에 의해 실현되어도 좋다. 즉, 정보 처리 장치(20)의 일부 또는 모든 기능이, 하드웨어에 의해 실현되어도 좋다.
다음으로, 본 개시의 일 실시 형태에 따른 스크랩 판별 시스템(1)에 의해 실행되는 스크랩 판별 방법에 대해서 설명한다. 도 6은, 본 개시의 일 실시 형태에 따른 스크랩 판별 방법을 나타내는 플로우차트이다.
처음에 스크랩 판별 시스템(1)의 카메라(10)는, 스크랩을 포함하는 카메라 화상을 촬영한다(스텝 S10). 다음으로 카메라(10)는, 네트워크(30)를 통하여 정보 처리 장치(20)에 송신한다. 정보 처리 장치(20)의 취득부(23)는, 네트워크(30)를 통하여 당해 카메라 화상을 취득한다(스텝 S20).
계속하여 제어부(21)는, 취득한 카메라 화상에 기초하여, 제1 스크랩 판별 모델(221) 또는 제2 스크랩 판별 모델(222)의 어느 것을 이용할지를, 선택 모델(223)을 이용하여 판별한다(스텝 S30).
계속하여 제어부(21)는, 제1 스크랩 판별 모델(221) 또는 제2 스크랩 판별 모델(222) 중, 선택 모델(223)에 의해 선택된 모델을 이용하여, 카메라 화상에 포함되는 스크랩의 등급 및 비율을 판별한다(스텝 S40).
계속하여 제어부(21)는, 스텝 S40에 있어서 판별된 스크랩의 등급 및 비율을 출력부(24)에 출력시킨다. 출력부(24)는, 스텝 S40에 있어서 판별된 스크랩의 등급 및 비율을 출력한다(스텝 S50).
이와 같이, 본 개시의 일 실시 형태에 따른 스크랩 판별 시스템(1)에 의하면, 카메라(10)에 의해 촬영된 스크랩의 카메라 화상으로부터, 제1 스크랩 판별 모델(221) 또는 제2 스크랩 판별 모델(222)을 이용하여 자동적으로 스크랩의 등급 및 비율을 판별할 수 있다. 또한 제1 스크랩 판별 모델(221) 또는 제2 스크랩 판별 모델(222)의 어느 것을 이용할지를 선택 모델(223)이 선택하여, 보다 적절한 모델을 자동적으로 선택한다. 환언하면 본 개시의 일 실시 형태에 따른 스크랩 판별 시스템(1)에 의하면, 사람 손을 통하지 않고 당해 스크랩의 등급 및 비율을 판별하여 출력할 수 있다. 즉, 본 개시의 일 실시 형태에 따른 스크랩 판별 시스템(1)에 의하면, 스크랩의 판별 기술을 개선할 수 있다.
본 개시를 제(諸)도면 및 실시예에 기초하여 설명해 왔지만, 당업자라면 본 개시에 기초하여 여러 가지의 변형 및 수정을 행하는 것이 용이한 것에 주의하기 바란다. 따라서, 이들 변형 및 수정은 본 개시의 범위에 포함되는 것에 유의하기 바란다. 예를 들면, 각 구성 또는 각 스텝 등에 포함되는 기능 등은 논리적으로 모순되지 않도록 재배치 가능하고, 복수의 구성 또는 스텝 등을 1개로 조합하거나, 혹은 분할하거나 하는 것이 가능하다.
예를 들면, 제1 스크랩 판별 모델(221), 제2 스크랩 판별 모델(222) 및, 선택 모델(223)의 학습 처리 및 판별 처리에 있어서, 제어부(21)는, 각 화상에 대응하는 줌 정보를 이용해도 좋다. 줌 정보를 이용하는 경우, 카메라(10)는, 카메라 화상과 함께 당해 카메라 화상에 대응하는 ONVIF(open network video interface forum) 데이터의 줌 정보를, 네트워크(30)를 통하여 정보 처리 장치(20)에 송신한다. 예를 들면, 제1 학습용 화상, 제2 학습용 화상 및, 카메라 화상은, 각 화상에 대응하는 줌 정보에 기초하여 정규화되어도 좋다. 즉 제어부(21)는, 제1 학습용 화상, 제2 학습용 화상 및, 카메라 화상의 각각에 대응하는 줌 정보에 기초하여, 각 화상을 소정의 확대율로 정규화한다. 그리고 제어부(21)는, 정규화 후의 제1 학습용 화상, 제2 학습용 화상을 이용하여 학습 처리를 행하고, 또한 카메라 화상에 기초하는 판별 처리를 행한다. 이러한 정규화의 처리에 의해 각 화상이 정규화되기 때문에, 스크랩 판별 시스템(1)에 의한 판별 정밀도를 높일 수 있다.
여기에서 줌 정보에 기초하여 각 화상을 소정의 확대율로 정규화하는 경우, 제어부(21)는, 줌 정보에 기초하여 화상을 그룹으로 분류하고, 그룹마다 상이한 확대율로 정규화해도 좋다. 도 7은, 카메라 화상의 그룹마다의 정규화의 개념도를 나타낸다. 도 7에서는, 확대율에 따라서 카메라 화상을 분류하고 있다. 구체적으로는, 카메라 화상의 확대율이 x0 이상 x1 미만의 범위 R01(이하, 제1 범위 R01이라고도 함)인 경우, 당해 카메라 화상은 제1 그룹으로 분류된다. 카메라 화상의 확대율이 x1 이상 x2 미만의 범위 R12(이하, 제2 범위 R12라고도 함)인 경우, 당해 카메라 화상은 제2 그룹으로 분류된다. 카메라 화상의 확대율이 x2 이상 x3 미만의 범위 R23(이하, 제3 범위 R23이라고도 함)인 경우, 당해 카메라 화상은 제3 그룹으로 분류된다. 카메라 화상의 확대율이 x3 이상 x4 미만의 범위 R34(이하, 제4 범위 R34라고도 함)인 경우, 당해 카메라 화상은 제4 그룹으로 분류된다. 카메라 화상의 확대율이 x4 이상 x5 미만의 범위 R45(이하, 제5 범위 R45라고도 함)인 경우, 당해 카메라 화상은 제5 그룹으로 분류된다. 그리고 제1 범위 R01, 제2 범위 R12, 제3 범위 R23, 제4 범위 R34 및, 제5 범위 R45에 있어서의 각 카메라 화상은, 각각 각 범위의 기준의 확대율 X01, X12, X23, X34 및, X45로 정규화된다. 즉, 제1 학습용 화상, 제2 학습용 화상 및, 카메라 화상은, 각 화상에 대응하는 줌 정보에 따라서 상이한 확대율로 정규화된다. 환언하면 제어부(21)는, 카메라 화상의 줌 정보에 기초하여 정해지는 복수의 기준 중의 어느 1의 기준 확대율로 정규화한다. 이와 같이 함으로써, 카메라 화상을 과도하게 확대 또는 축소하는 것에 의한 화상 해상도의 편차를 억제하여, 스크랩 판별 시스템(1)에 의한 판별 정밀도를 높일 수 있다. 또한 도 7에서는 제어부(21)가, 화상을 5개의 그룹으로 분류하고, 대응하는 5개의 확대율로 정규화하는 예를 나타냈지만 이에 한정되지 않는다. 예를 들면 제어부(21)는, 분류수를 4 이하 또는 6 이상으로 하고, 각각 상이한 확대율로 정규화하도록 해도 좋다.
또한 상기에서는 카메라 화상의 줌 정보를 학습 처리 및 판별 처리에 이용하는 예를 나타냈지만 이에 한정되지 않는다. 예를 들면 스크랩 판별 시스템(1)은, 카메라(10)로부터 얻어지는 ONVIF 데이터 중 적어도 일부를 학습 처리 및 판별 처리에 이용해도 좋다. ONVIF 데이터는, 팬, 틸트 및, 줌의 정보를 포함한다. 즉, 스크랩 판별 시스템(1)은, 팬, 틸트 및, 줌의 정보 중 적어도 어느 1개를 이용하여 학습 처리 및 판별 처리를 행해도 좋다.
또한 예를 들면, 제1 스크랩 판별 모델(221), 제2 스크랩 판별 모델(222) 및, 선택 모델(223)의 학습 처리 및 판별 처리에 있어서, 제어부(21)는, 스크랩을 반입하는 반입 업자에 따른 정보를 이용해도 좋다. 이와 같이 함으로써, 반입 업자마다 반입되는 스크랩의 경향이 고려되어, 스크랩 판별 시스템(1)에 의한 판별 정밀도를 향상시킬 수 있다.
또한 예를 들면, 스크랩 판별 시스템(1) 및 스크랩 판별 시스템(2)은 추가로, 판별 처리 후에, 판별에 이용한 카메라 화상을 새로운 교사 데이터로서 축적해도 좋다. 그리고 제어부(21)는, 당해 카메라 화상에 기초하여, 오퍼레이터가 판별한 등급 및 각 등급의 비율의 결과에 맞추어 제1 스크랩 판별 모델(221), 제2 스크랩 판별 모델(222) 및, 선택 모델(223)을 재학습해도 좋다. 예를 들면 가령 출력 결과(판별 결과)에 문제가 있는 경우는, 문제가 있었던 출력의 정보와, 당해 정보에 대응하는 카메라 화상 및 실적 데이터를 교사 데이터로서, 제1 스크랩 판별 모델(221), 제2 스크랩 판별 모델(222) 및, 선택 모델(223)의 적어도 어느 하나를 재학습시켜도 좋다. 이에 따라, 제1 스크랩 판별 모델(221), 제2 스크랩 판별 모델(222) 및, 선택 모델(223)에 의한 판별의 정밀도 및 속도를 향상시킬 수 있다.
또한 예를 들면, 본 실시 형태에 있어서, 카메라 화상은, 철 스크랩을 트럭으로 반송 후, 일단 작업장으로 옮긴 타이밍에 있어서 촬영된 것으로 했지만 이에 한정되지 않는다. 예를 들면 카메라 화상은, 제조 현장에 있어서 스크랩을 크레인으로 매달아 올린 상태를 촬영한 화상이라도 좋다. 또한 이 경우는, 촬영 시에 스크랩을 비추는 조명 장치를 이용해도 좋다. 이에 따라 선명한 카메라 화상을 채취할 수 있다.
1 : 스크랩 판별 시스템
10 : 카메라
20 : 정보 처리 장치
21 : 제어부
22 : 기억부
23 : 취득부
24 : 출력부
221 : 제1 스크랩 판별 모델
222 : 제2 스크랩 판별 모델
223 : 선택 모델
30 : 네트워크

Claims (7)

  1. 스크랩을 포함하는 카메라 화상을 취득하는 취득부와,
    상기 카메라 화상에 기초하여, 당해 카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 판별하는, 제1 학습용 화상을 포함하는 교사 데이터(teaching data)에 의해 생성된 제1 스크랩 판별 모델과,
    상기 카메라 화상에 기초하여, 당해 카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 판별하는, 상기 제1 학습용 화상과는 상이한 제2 학습용 화상을 포함하는 교사 데이터에 의해 생성된 제2 스크랩 판별 모델과,
    상기 카메라 화상에 기초하여, 상기 제1 스크랩 판별 모델 또는 상기 제2 스크랩 판별 모델의 어느 것을 이용할지를 판별하는 선택 모델과,
    상기 제1 스크랩 판별 모델 또는 상기 제2 스크랩 판별 모델 중, 상기 선택 모델에 의해 선택된 모델을 이용하여 상기 카메라 화상에 기초하여 판별된 스크랩의 등급 및 각 등급의 비율의 정보를 출력하는 출력부
    를 구비하는 스크랩 판별 시스템.
  2. 제1항에 있어서,
    상기 제1 학습용 화상은 단일 등급의 철 스크랩의 화상이고, 제1 스크랩 판별 모델을 이용하여 상기 카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 판별할 때에, 상기 카메라 화상에 있어서의 각 등급의 스크랩의 면적비에 기초하여 상기 비율을 판별하는, 스크랩 판별 시스템.
  3. 제1항 또는 제2항에 있어서,
    상기 제2 학습용 화상은 혼합 등급의 철 스크랩의 화상인, 스크랩 판별 시스템.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 제1 학습용 화상, 상기 제2 학습용 화상 및, 상기 카메라 화상은, 각 화상에 대응하는 줌 정보에 기초하여 정규화되는, 스크랩 판별 시스템.
  5. 제4항에 있어서,
    상기 제1 학습용 화상, 상기 제2 학습용 화상 및, 상기 카메라 화상은, 각 화상에 대응하는 상기 줌 정보에 따라서 상이한 확대율로 정규화되는, 스크랩 판별 시스템.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 제1 스크랩 판별 모델, 상기 제2 스크랩 판별 모델 및, 상기 선택 모델의 적어도 어느 하나는, 상기 카메라 화상 및 상기 출력부가 출력한 상기 정보에 기초하여, 재학습되는, 스크랩 판별 시스템.
  7. 스크랩을 포함하는 카메라 화상에 기초하여, 당해 카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 판별하는, 제1 학습용 화상을 포함하는 교사 데이터에 의해 생성된 제1 스크랩 판별 모델과, 상기 카메라 화상에 기초하여, 당해 카메라 화상에 포함되는 스크랩의 등급 및 각 등급의 비율을 판별하는, 상기 제1 학습용 화상과는 상이한 제2 학습용 화상을 포함하는 교사 데이터에 의해 생성된 제2 스크랩 판별 모델을 이용하는 스크랩 판별 방법으로서,
    상기 스크랩을 포함하는 카메라 화상을 취득하는 스텝과,
    상기 카메라 화상에 기초하여, 상기 제1 스크랩 판별 모델 또는 상기 제2 스크랩 판별 모델의 어느 것을 이용할지를 선택 모델에 의해 선택하는 스텝과,
    상기 제1 스크랩 판별 모델 또는 상기 제2 스크랩 판별 모델 중, 상기 선택 모델에 의해 선택된 모델을 이용하여 상기 카메라 화상에 기초하여 판별된 스크랩의 등급 및 각 등급의 비율의 정보를 출력하는 스텝
    을 포함하는 스크랩 판별 방법.

KR1020227031921A 2020-04-30 2021-04-23 스크랩 판별 시스템 및, 스크랩 판별 방법 KR20220131358A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020080778 2020-04-30
JPJP-P-2020-080778 2020-04-30
PCT/JP2021/016531 WO2021220987A1 (ja) 2020-04-30 2021-04-23 スクラップ判別システム、及びスクラップ判別方法

Publications (1)

Publication Number Publication Date
KR20220131358A true KR20220131358A (ko) 2022-09-27

Family

ID=78373238

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227031921A KR20220131358A (ko) 2020-04-30 2021-04-23 스크랩 판별 시스템 및, 스크랩 판별 방법

Country Status (7)

Country Link
US (1) US20230173546A1 (ko)
EP (1) EP4144448A4 (ko)
JP (1) JP7205637B2 (ko)
KR (1) KR20220131358A (ko)
CN (1) CN115004011A (ko)
TW (1) TWI777527B (ko)
WO (1) WO2021220987A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11797603B2 (en) * 2020-05-01 2023-10-24 Magic Leap, Inc. Image descriptor network with imposed hierarchical normalization

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017109197A (ja) 2016-07-06 2017-06-22 ウエノテックス株式会社 廃棄物選別システム及びその選別方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2924442B2 (ja) * 1992-04-28 1999-07-26 松下電器産業株式会社 パターン認識装置
JP5969685B1 (ja) * 2015-12-15 2016-08-17 ウエノテックス株式会社 廃棄物選別システム及びその選別方法
JP6863326B2 (ja) 2018-03-29 2021-04-21 日本電気株式会社 選別支援装置、選別支援システム、選別支援方法及びプログラム
CA3098670A1 (en) * 2018-05-06 2019-11-14 Strong Force TX Portfolio 2018, LLC Methods and systems for improving machines and systems that automate execution of distributed ledger and other transactions in spot and forward markets for energy, compute, storage and other resources
KR101981031B1 (ko) * 2018-05-18 2019-05-23 제이에이치데이터시스템 주식회사 인공지능 기반 철 스크랩 플랫폼
JP6731680B2 (ja) 2018-08-23 2020-07-29 荏原環境プラント株式会社 情報処理装置、情報処理プログラム、および情報処理方法
CN109272500B (zh) * 2018-09-27 2021-11-09 西安电子科技大学 基于自适应卷积神经网络的织物分类方法
JP6679188B1 (ja) * 2018-10-19 2020-04-15 株式会社御池鐵工所 廃棄物選別装置及び廃棄物選別方法
CN110397280A (zh) 2019-07-30 2019-11-01 中建城市建设发展有限公司 浇筑漏斗
CN110660074B (zh) * 2019-10-10 2021-04-16 北京同创信通科技有限公司 一种建立废钢等级划分神经网络模型方法
CN110717455B (zh) * 2019-10-10 2021-05-18 北京同创信通科技有限公司 一种收储中的废钢等级分类检测方法
CN110937280B (zh) * 2019-12-24 2021-11-16 浙江大学 一种基于视听结合的智能垃圾分类回收方法和终端

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017109197A (ja) 2016-07-06 2017-06-22 ウエノテックス株式会社 廃棄物選別システム及びその選別方法

Also Published As

Publication number Publication date
CN115004011A (zh) 2022-09-02
EP4144448A1 (en) 2023-03-08
JP7205637B2 (ja) 2023-01-17
EP4144448A4 (en) 2023-10-04
TW202217632A (zh) 2022-05-01
US20230173546A1 (en) 2023-06-08
TWI777527B (zh) 2022-09-11
JPWO2021220987A1 (ko) 2021-11-04
WO2021220987A1 (ja) 2021-11-04

Similar Documents

Publication Publication Date Title
JP6931402B2 (ja) ディスプレイの品質検出方法、装置、電子機器及び記憶媒体
CN110221145B (zh) 电力设备故障诊断方法、装置及终端设备
EP3899508A1 (en) Automated inspection system and associated method for assessing the condition of shipping containers
CN112348791B (zh) 基于机器视觉的废钢智能检判方法、***、介质及终端
JP7036296B1 (ja) スクラップ判別システム、及びスクラップ判別方法
CN113743210A (zh) 图像识别方法和废钢等级的识别方法
KR20220131358A (ko) 스크랩 판별 시스템 및, 스크랩 판별 방법
JP2021086379A (ja) 情報処理装置、情報処理方法、プログラム及び学習モデルの生成方法
US11682112B2 (en) Inspection device and machine learning method
CN116593479B (zh) 电池盖板外观质量检测方法、装置、设备及存储介质
CN111507269B (zh) 车位状态的识别方法及装置、存储介质和电子装置
CN113989285B (zh) 基于图像的皮带偏移监测方法、装置、设备及存储介质
JP7311455B2 (ja) スクラップ等級判定システム、スクラップ等級判定方法、推定装置、学習装置、学習済みモデルの生成方法、及びプログラム
CN115131686A (zh) 一种基于主动学习和半监督学习的智能电力巡检方法
CN114723713A (zh) 一种将大数据应用于工业互联网的产品检测***
Pellegrini et al. Successful use case applications of artificial intelligence in the steel industry
CN116597364B (zh) 图像处理方法及装置
JP2021163282A (ja) 設計支援方法、設計支援学習方法、設計支援装置、及び設計支援プログラム
CN116305372B (zh) 工厂区域管理的方法、装置、设备及存储介质
CN115861321B (zh) 应用于工业互联网的生产环境检测方法及***
CN117036670B (zh) 质量检测模型的训练方法、装置、设备、介质及程序产品
US20230410271A1 (en) Vehicle assessment systems and methods
CN118245838A (zh) 基于数字孪生技术的挂篮行走监测控制预警***
CN117945034A (zh) 一种基于垃圾桶监视器的垃圾车管控方法及***
CN116601663A (zh) 利用板载神经网络训练的用于目视检查的人工智能摄像机

Legal Events

Date Code Title Description
E902 Notification of reason for refusal