JPWO2019023376A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2019023376A5
JPWO2019023376A5 JP2020503311A JP2020503311A JPWO2019023376A5 JP WO2019023376 A5 JPWO2019023376 A5 JP WO2019023376A5 JP 2020503311 A JP2020503311 A JP 2020503311A JP 2020503311 A JP2020503311 A JP 2020503311A JP WO2019023376 A5 JPWO2019023376 A5 JP WO2019023376A5
Authority
JP
Japan
Prior art keywords
image
volume
pixels
training
cnn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020503311A
Other languages
Japanese (ja)
Other versions
JP7216069B2 (en
JP2020529003A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/US2018/043745 external-priority patent/WO2019023376A1/en
Publication of JP2020529003A publication Critical patent/JP2020529003A/en
Publication of JPWO2019023376A5 publication Critical patent/JPWO2019023376A5/ja
Application granted granted Critical
Publication of JP7216069B2 publication Critical patent/JP7216069B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

ここで、ボリューム定量装置500の機能的構成要素を記述する図5Aを参照する。ボリューム定量装置500は、502内の撮像位置432において、検体212を含む検体容器102を提供することによって、画像取得を含むことができる。その後、HDR画像は、上記のように504内で撮影される。データ入力量を減らすために、HDR画像の画像データを505で前処理してもよい。前処理には、例えば、各スペクトルについて異なる露光での複数の取得画像から最適に露光された画素を選択し、各画像取得装置440A~440Cについてその正規化を行い、各スペクトル(例えば、R、G、B)および各画像取得装置440A~440Cについて最適に露光された撮像データを生成するようにすることが含まれる。この前処理フェーズでは、画像をより少なく処理する必要があるように、画像の統合が行われる。 Reference is now made to FIG. 5A which describes the functional components of volumetric device 500 . Volume determination device 500 can include image acquisition by providing specimen container 102 containing specimen 212 at imaging location 432 in 502 . An HDR image is then captured in 504 as described above. Image data for HDR images may be preprocessed at 505 to reduce the amount of data input. Preprocessing may include, for example, selecting optimally exposed pixels from multiple acquired images at different exposures for each spectrum, normalizing them for each image acquisition device 440A-440C, and performing each spectrum (e.g., R, G, B) and trying to generate optimally exposed imaging data for each image acquisition device 440A-440C. In this pre-processing phase, image consolidation is performed so that less images need to be processed.

統合は、各画像撮影装置440A~440Cからの露光時間の画像各対応画素に対して、複数の露光時間の画像それぞれから最適な画像強度を示す画素を選択することを含む。最適な画像強度は、例えば、所定の強度範囲(例えば、0~255のスケールで180~254の強度)内に入る画素として定義され得る。しかし、他の適当な範囲を用いることができる。2つの画像の対応する位置の1つ以上の画素が最適に露光されていると判定された場合、2つのうちより高い方を選択することができる。その結果、全ての画素が最適に露光される(例えば、スペクトルあたり1つの画像データセット(例えば、R、G、およびB)および画像取得装置440A-440C)各画像取得装置440A-440Cについて、複数の統合されたカラー画像データセット(例えば、R、G、B)が得られる。次に、各画素の最適に露光された強度値を露光時間によって正規化することができ、その結果、各統合画像の全ての画素が露光時間に関係なく正規化される。 The integration involves selecting the pixel exhibiting the optimal image intensity from each of the plurality of exposure time images for each corresponding pixel of the exposure time image from each image capture device 440A-440C. Optimal image intensity may be defined, for example, as pixels falling within a predetermined intensity range (eg, intensity 180-254 on a scale of 0-255). However, other suitable ranges can be used. If it is determined that one or more pixels at corresponding locations in the two images are optimally exposed, then the higher of the two can be selected. As a result, all pixels are optimally exposed (eg, one image data set per spectrum (eg, R, G, and B) and image capture devices 440A-440C). of integrated color image data sets (eg, R, G, B) are obtained. The optimally exposed intensity value of each pixel can then be normalized by exposure time, so that all pixels in each integrated image are normalized regardless of exposure time.

最適に露光された画素を含む統合された画像データセットのそれぞれに対して、1)ボリュームを直接、または2)ボリュームクラスを、出力するために特徴付け方法が実行され、当該ボリュームクラスはルックアップテーブルなどの任意の適切な手段によって容易にボリューム値に変換され得る。特に、画像データセットは、ニューラルネットワーク535を含むボリューム決定モデルへの直接入力として提供される。図5Bおよび5Cに示されているように、CNN、CNN、および/またはCNNなどの1つまたは複数の畳み込みニューラルネットワークを含むニューラルネットワーク535を備えることができる。CNNは、それぞれ、検体212の1つまたは複数の成分のボリュームまたはボリュームクラスを定量化するようにトレーニングされた、予めトレーニングされた畳み込みニューラルネットワーク(CNN)であってもよい。 For each of the integrated image datasets containing the optimally exposed pixels, a characterization method is performed to output either 1) the volume directly, or 2) a volume class , which is the look It can be easily converted to a volume value by any suitable means such as an uptable. In particular, the image dataset is provided as direct input to a volume determination model that includes neural network 535 . As shown in FIGS. 5B and 5C, a neural network 535 including one or more convolutional neural networks such as CNN A , CNN B , and/or CNN C may be provided. The CNNs may be pretrained convolutional neural networks (CNNs) trained to quantify volumes or classes of volumes of one or more components of specimen 212, respectively.

各場合において、CNN535、635のトレーニングは、それぞれに関連するトレーニングアノテーションを含む大量のトレーニング画像(例えば、500~10,000以上のデジタル画像データセット)を入力することを含む。例えば、各CNNに対するトレーニングアノテーション508は、画像内でトレーニングされている特定の生体液成分(例えば、血清または血漿部分212SP、沈降血液部分212SBP、およびゲルセパレータ313)の画像上の位置を同定するために、図5Dに点線で示されるように、トレーニング境界ボックス236A、236B、236C(例えば、長方形)などの画像上の輪郭を含むことができる。トレーニングアノテーション508は、さらに、各特定のトレーニング境界ボックス236A、236B、236C内に含まれるボリュームを表すボリュームのスカラ値を含むことができる。従って、トレーニングアノテーション508は、各トレーニング境界ボックス236A、236B、236Cに対するスカラボリューム値と共に、既知ボリュームの多数のトレーニング検体中の様々な領域(例えば、212SPP、212SBP、313)を画像上に輪郭形成することを含むことができる。トレーニング検体は、血清または血漿部分212SP、沈降血液部分212SB、およびゲルセパレータ313の様々な検体ボリューム、ゲルセパレータ313を含む、または含まない様々な範囲のラベル218による遮蔽、異なるサイズの検体容器102(例えば、異なる直径および高さ)などを有し得る。 In each case, training the CNN 535, 635 involves inputting a large number of training images (eg, 500-10,000 or more digital image datasets) each containing training annotations associated therewith. For example, the training annotations 508 for each CNN are trained in the image to identify the location on the image of the particular biofluid component (e.g., serum or plasma portion 212SP, sedimented blood portion 212SBP, and gel separator 313). , can include contours on the image such as training bounding boxes 236A, 236B, 236C (eg, rectangles), as indicated by dashed lines in FIG. 5D. The training annotation 508 may further include a volume scalar value representing the volume contained within each particular training bounding box 236A, 236B, 236C. Thus, the training annotation 508 contours on the image various regions (e.g., 212SPP, 212SBP, 313) in multiple training specimens of known volume, along with a scalar volume value for each training bounding box 236A, 236B, 236C. can include The training samples consisted of serum or plasma portion 212SP, sedimented blood portion 212SB, and various sample volumes of gel separator 313, various ranges of label 218 shielding with or without gel separator 313, different size sample containers 102 ( different diameters and heights), etc.

図5Bに示されるように、実施形態は、血清または血漿部分212SPのボリュームクラス(例えば、SPP1からSPPn)を出力するように構成される。より詳細には、CNN535は、深部学習を提供するのに適当な数の操作層(operating layers)を含むことができる。記載されたCNNアーキテクチャは、例えば、64×64パッチ(64画素×64画素)を用いてボリューム分類に使用することができる。しかしながら、例えば31画素×31画素のような他のパッチサイズを使用してもよい。ボリューム定量化作業のために、例えば、CNN535の3つの主要な操作層を選択することができる。畳み込み層およびプーリング層を含む第1操作層538は、非常に局所的な構造縁を抽出することができ、畳み込み層およびプーリング層も含む第2操作層540は、縁の組合せであるテクスチャを学習することができ、一部の実施形態においては、第3操作層542(任意でよい)でも領域の一部を形成することができる。CNN535の層538、540、542のそれぞれは、HDR画像処理から提供された多チャネル(例えば、多スペクトル、多重露光)撮像データから恩恵を受ける。3つの入力層(例えば、HDRを含むRGBスペクトル成分)が使用される時のように、様々な入力チャネルにわたるこれらの計算は、本質的に扱うことができ、ディープラーニングネットワークによって表現することができる。このフレームワークは、低レベル、中レベル、および高レベルの特徴を自然に集約し、526において種々ボリュームクラス出力オプションに適切な分類を提供するために操作可能である。 As shown in FIG. 5B, embodiments are configured to output volume classes (eg, SPP1 through SPPn) of the serum or plasma portion 212SP. More specifically, CNN 535 can include any suitable number of operating layers to provide deep learning. The described CNN architecture can be used for volume classification, for example, using 64×64 patches (64 pixels×64 pixels). However, other patch sizes may be used, such as 31 pixels by 31 pixels. For volume quantification tasks, for example, three main operating layers of CNN 535 can be selected. A first operational layer 538, which includes convolutional and pooling layers, can extract very local structural edges, and a second operational layer 540, which also includes convolutional and pooling layers, learns textures that are combinations of edges. , and in some embodiments, the third operational layer 542 (which may be optional) may also form part of the region. Each of layers 538, 540, 542 of CNN 535 benefits from multi-channel (eg, multi-spectral, multi-exposure) imaging data provided from HDR imaging. As when three input layers (e.g., RGB spectral components with HDR) are used, these computations across various input channels can be handled intrinsically and represented by a deep learning network. . This framework naturally aggregates low-level, medium-level, and high-level features and is operable at 526 to provide appropriate classifications for various volume class output options.

適切にトレーニングされた後、検査される各検体212について、統合されたデータセット537は、CNN535、635Bに入力され、操作される。グランドトゥルースラベル507は、以前に入力され、トレーニング中に確立されている。CNN535、635Bは、比較的高い信頼性(例えば>98%)で、グランドトゥルースラベル507によって確立されたボリュームクラス結果526またはボリューム626の1つに収束する。例えば、図5Bの図示例では、投票方式はチャネル7を選択している。このように、CNN535は、全てのチャネル出力1-nの最も高い信頼度(例えば、信頼度0.991)で、ボリュームクラス結果SPP7に収束している。次に、ルックアップテーブル539を参照して、各ボリュームクラス結果526についてルックアップテーブル539に事前に入力された対応するボリューム529を抽出することができる。 After being properly trained, for each specimen 212 tested, the integrated data set 537 is input to CNN A 535, 635B and manipulated. The ground truth label 507 was previously entered and established during training. The CNNs 535, 635B converge to one of the volume class results 526 or volumes 626 established by the ground truth label 507 with relatively high confidence (eg >98%). For example, in the illustrated example of FIG. 5B, the voting scheme has selected channel seven. Thus, CNN A 535 converges on volume class result SPP7 with the highest confidence (eg, confidence 0.991) of all channel outputs 1-n. The lookup table 539 can then be consulted to extract the corresponding volume 529 previously entered in the lookup table 539 for each volume class result 526 .

804の前処理データでは、照明の各波長(例えば、4~8の露光量)における各画像データセットのデータを統合することができる。統合には、露光ごとに最適に露光される画素を選択し、選択されたすべての画像データを波長ごとおよび視点ごとに1つの画像データセットに統合した後、上述のように選択されたすべてのデータを正規化することが含まれる。画像統合処理の間、各スペクトル(例えば、R、G、およびB)および各画像取得装置440A-440Cでの様々な露光画像が、最適に露光されたそれらの画素を決定するために、画素毎にレビューされる。各対応する画素位置に対して、最適に露光された画素のうち最も良好なものが選択され、正規化され、各スペクトルおよび画像取得装置400A-440Cのための最適に露光された画像データセットに含まれる。このように、前処理データ804における画像の統合に続いて、各スペクトル(例えば、R、G、およびB)および各画像取得装置440A-440Cに対して、最適に露光される画像データセットが1つ生成される。HDR画像処理の使用は、反射および吸収に関する画像の詳細を濃縮するために機能する可能性がある。これにより、ボリュームの定量化がより正確になる可能性がある。 Pre-processed data at 804 may integrate the data for each image data set at each wavelength of illumination (eg, 4-8 exposures). Integration involves selecting the optimally exposed pixels for each exposure, integrating all selected image data into one image data set per wavelength and per viewpoint, and then combining all selected image data as described above. It involves normalizing the data. During the image integration process, each spectrum (eg, R, G, and B) and various exposure images at each image acquisition device 440A-440C are processed pixel by pixel to determine those pixels that are optimally exposed. reviewed by For each corresponding pixel location, the best of the optimally exposed pixels is selected and normalized into the optimally exposed image data set for each spectral and image acquisition device 400A-440C. included. Thus, following integration of the images in preprocessed data 804, for each spectrum (eg, R, G, and B) and each image acquisition device 440A-440C, one optimally exposed image data set is available. generated. The use of HDR image processing can serve to enrich image details for reflection and absorption. This may result in more accurate volume quantification.

JP2020503311A 2017-07-28 2018-07-25 Deep learning volume quantification method and apparatus Active JP7216069B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762538460P 2017-07-28 2017-07-28
US62/538,460 2017-07-28
PCT/US2018/043745 WO2019023376A1 (en) 2017-07-28 2018-07-25 Deep learning volume quantifying methods and apparatus

Publications (3)

Publication Number Publication Date
JP2020529003A JP2020529003A (en) 2020-10-01
JPWO2019023376A5 true JPWO2019023376A5 (en) 2022-10-17
JP7216069B2 JP7216069B2 (en) 2023-01-31

Family

ID=65040990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020503311A Active JP7216069B2 (en) 2017-07-28 2018-07-25 Deep learning volume quantification method and apparatus

Country Status (5)

Country Link
US (1) US11657593B2 (en)
EP (1) EP3659065A4 (en)
JP (1) JP7216069B2 (en)
CN (1) CN111052129B (en)
WO (1) WO2019023376A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2976769C (en) * 2015-02-17 2023-06-13 Siemens Healthcare Diagnostics Inc. Model-based methods and apparatus for classifying an interferent in specimens
EP3737930A4 (en) 2018-01-10 2021-03-10 Siemens Healthcare Diagnostics, Inc. Methods and apparatus for bio-fluid specimen characterization using neural network having reduced training
EP3608701A1 (en) * 2018-08-09 2020-02-12 Olympus Soft Imaging Solutions GmbH Method for providing at least one evaluation method for samples
US11625607B2 (en) * 2019-01-22 2023-04-11 Black Sesame Technologies Inc. Method of structured network pruning and sparsity speed-up
CN110059813B (en) * 2019-02-13 2021-04-06 创新先进技术有限公司 Method, device and equipment for updating convolutional neural network by using GPU cluster
CN114585927A (en) * 2019-10-31 2022-06-03 美国西门子医学诊断股份有限公司 Method and apparatus for providing background illumination calibration for sample and/or sample container characterization
WO2021112550A1 (en) * 2019-12-02 2021-06-10 Samsung Electronics Co., Ltd. System and method for generating multi-exposure frames from single input
EP4073693A1 (en) * 2019-12-10 2022-10-19 N.V. Nutricia Method and system for detecting liquid level inside a container
JP2022142191A (en) * 2021-03-16 2022-09-30 パナソニックIpマネジメント株式会社 Interface detection sensor
CN114492633B (en) * 2022-01-25 2022-10-28 合肥学院 Colored transparent plastic classification method and system based on multi-wavelength transmission characteristic
EP4332892A1 (en) * 2022-09-01 2024-03-06 Koninklijke Philips N.V. Estimating volumes of liquid

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998052016A1 (en) * 1997-05-09 1998-11-19 Morphometrix Technologies Inc. Multi-spectral imaging system and method for cytology
JPH1188898A (en) 1997-09-11 1999-03-30 Fuji Photo Film Co Ltd Image reader
JP2002323479A (en) 2001-04-24 2002-11-08 Teruaki Ito Blood serum and blood clot separation-face deciding apparatus
JP4170164B2 (en) 2003-06-30 2008-10-22 株式会社エスアールエル In-vitro specimen liquid surface position detection system
CA2527667C (en) 2003-07-02 2013-03-12 Gambro, Inc. Monitoring and control system for blood processing
CN1235037C (en) 2003-12-04 2006-01-04 上海交通大学 Infrared target detecting, tracking and identifying system
US8059900B2 (en) 2004-10-08 2011-11-15 General Electric Company Method and apparatus to facilitate visualization and detection of anatomical shapes using post-processing of 3D shape filtering
WO2009151610A2 (en) * 2008-06-12 2009-12-17 East Carolina University Flow cytometer apparatus for three dimensional diffraction imaging and related methods
JP5465850B2 (en) 2008-08-01 2014-04-09 シスメックス株式会社 Sample analysis system
WO2010048678A1 (en) * 2008-10-31 2010-05-06 The University Of Sydney Classification of biological samples using spectroscopic analysis
JP5859439B2 (en) 2009-08-13 2016-02-10 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド Method and apparatus for determining interfering substances and physical dimensions in liquid samples and containers analyzed by a clinical analyzer
US7982201B2 (en) 2009-09-08 2011-07-19 Jadak, Llc System and method for detection of liquid level in a vessel
CN102063642A (en) * 2010-12-30 2011-05-18 上海电机学院 Selection method for fuzzy neural network sample on basis of active learning
US20120309636A1 (en) * 2011-01-21 2012-12-06 Ian Gibbons Systems and methods for sample use maximization
EP2695105A4 (en) 2011-04-04 2014-10-15 Aushon Biosystems Method of and system for enhanced dynamic range assay analysis
US9652655B2 (en) 2011-07-09 2017-05-16 Gauss Surgical, Inc. System and method for estimating extracorporeal blood volume in a physical sample
CN102737379A (en) * 2012-06-07 2012-10-17 中山大学 Captive test (CT) image partitioning method based on adaptive learning
US9952241B2 (en) * 2012-08-20 2018-04-24 Siemens Healthcare Diagnostics Inc. Methods and apparatus for ascertaining specimen and/or sample container characteristics while in transit
EP2936116B8 (en) * 2012-12-19 2020-04-01 Koninklijke Philips N.V. System and method for classification of particles in a fluid sample
US9915675B2 (en) * 2013-11-04 2018-03-13 Siemens Healthcare Diagnostics Inc. Methods and apparatus for determining aspiration and/or dispensing volume and/or pipette positioning
RU2677742C2 (en) * 2013-11-07 2019-01-21 Медиал Рисеч Лтд. Methods and systems of evaluating risk of lung cancer
US9417911B2 (en) * 2014-03-12 2016-08-16 Live Planet Llc Systems and methods for scalable asynchronous computing framework
CN104165896B (en) * 2014-08-18 2017-03-22 公安部第一研究所 Liquid goods safety inspection method and device
CA2976769C (en) * 2015-02-17 2023-06-13 Siemens Healthcare Diagnostics Inc. Model-based methods and apparatus for classifying an interferent in specimens
WO2017053592A1 (en) 2015-09-23 2017-03-30 The Regents Of The University Of California Deep learning in label-free cell classification and machine vision extraction of particles
US10186026B2 (en) * 2015-11-17 2019-01-22 Kla-Tencor Corp. Single image detection
EP3386391B1 (en) * 2015-12-11 2020-11-25 Babson Diagnostics, Inc. Specimen container and method for separating serum or plasma from whole blood
US10928310B2 (en) 2016-01-28 2021-02-23 Siemens Healthcare Diagnostics Inc. Methods and apparatus for imaging a specimen container and/or specimen using multiple exposures
WO2017132167A1 (en) 2016-01-28 2017-08-03 Siemens Healthcare Diagnostics Inc. Methods and apparatus adapted to identify a specimen container from multiple lateral views
WO2017132166A1 (en) 2016-01-28 2017-08-03 Siemens Healthcare Diagnostics Inc. Methods and apparatus adapted to quantify a specimen from multiple lateral views
EP3408646B1 (en) 2016-01-28 2024-05-29 Siemens Healthcare Diagnostics Inc. Methods and apparatus for characterizing a specimen container and a specimen
EP3408641B1 (en) 2016-01-28 2021-05-26 Siemens Healthcare Diagnostics Inc. Methods and apparatus for multi-view characterization
JP6791972B2 (en) 2016-01-28 2020-11-25 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレーテッドSiemens Healthcare Diagnostics Inc. Methods and Devices for Detecting Interferents in Samples
EP3408652B1 (en) 2016-01-28 2020-12-16 Siemens Healthcare Diagnostics Inc. Methods and apparatus for classifying an artifact in a specimen
US9739783B1 (en) * 2016-03-15 2017-08-22 Anixa Diagnostics Corporation Convolutional neural networks for cancer diagnosis
CN106651830A (en) * 2016-09-28 2017-05-10 华南理工大学 Image quality test method based on parallel convolutional neural network
CN106529570B (en) * 2016-10-14 2019-06-18 西安电子科技大学 Image classification method based on depth ridge ripple neural network
CN106650709A (en) * 2017-01-22 2017-05-10 深圳市唯特视科技有限公司 Sensor data-based deep learning step detection method
CN110573883B (en) * 2017-04-13 2023-05-30 美国西门子医学诊断股份有限公司 Method and apparatus for determining tag count during sample characterization
EP3610240A4 (en) * 2017-04-13 2020-04-22 Siemens Healthcare Diagnostics Inc. Methods and apparatus for hiln characterization using convolutional neural network
EP3737930A4 (en) * 2018-01-10 2021-03-10 Siemens Healthcare Diagnostics, Inc. Methods and apparatus for bio-fluid specimen characterization using neural network having reduced training
US11763461B2 (en) * 2018-06-15 2023-09-19 Siemens Healthcare Diagnostics Inc. Specimen container characterization using a single deep neural network in an end-to-end training fashion
US11719618B2 (en) * 2018-08-28 2023-08-08 Essenlix Corporation Assay accuracy improvement
CN113196043A (en) * 2018-12-17 2021-07-30 美国安进公司 Sheet illumination for particle detection in pharmaceutical product containers

Similar Documents

Publication Publication Date Title
US10692209B2 (en) Image processing apparatus, image processing method, and computer-readable non-transitory recording medium storing image processing program
US10402699B1 (en) Automated classification of images using deep learning—back end
US20080205755A1 (en) Method and apparatus for color matching
US10007997B2 (en) System and method for segmentation of three-dimensional microscope images
JPWO2019023376A5 (en)
Nateghi et al. A deep learning approach for mitosis detection: application in tumor proliferation prediction from whole slide images
CN112534243B (en) Inspection apparatus and method, and computer-readable non-transitory recording medium
CN113191489B (en) Training method of binary neural network model, image processing method and device
JP7412556B2 (en) Method and apparatus for identifying effect pigments in target coatings
Przybył et al. The recognition of potato varieties using of neural image analysis method
TW201947453A (en) Patern recognition method of autoantibody immunofluorescence image
Cecil et al. The application of convolutional neural networks to the automation of a meteor detection pipeline
CN112862713B (en) Attention mechanism-based low-light image enhancement method and system
Kimura et al. Single-epoch supernova classification with deep convolutional neural networks
Sureshkumar et al. Deep learning framework for component identification
CN109145770B (en) Automatic wheat spider counting method based on combination of multi-scale feature fusion network and positioning model
Makarov et al. Neural network classification of coffee varieties on hyperspectral images
Zhang et al. Identification of jujube trees diseases using neural network
CN115661680B (en) Satellite remote sensing image processing method
CN116580252A (en) Hyperspectral image classification method based on multiscale dense connection and feature aggregation network
CN116203001A (en) Aflatoxin B1 nondestructive testing method and device
CN116229454A (en) Apple fungus infection type identification method based on multi-type images and U-Net recombination data set
JP2021042955A (en) Food inspection device, food inspection method and learning method of food reconstruction neural network for food inspection device
Wang et al. Dunhuang mural line drawing based on multi-scale feature fusion and sharp edge learning
Kantas et al. Raw instinct: Trust your classifiers and skip the conversion