KR102179586B1 - Ai-based cloud platform system for diagnosing medical image - Google Patents

Ai-based cloud platform system for diagnosing medical image Download PDF

Info

Publication number
KR102179586B1
KR102179586B1 KR1020200045743A KR20200045743A KR102179586B1 KR 102179586 B1 KR102179586 B1 KR 102179586B1 KR 1020200045743 A KR1020200045743 A KR 1020200045743A KR 20200045743 A KR20200045743 A KR 20200045743A KR 102179586 B1 KR102179586 B1 KR 102179586B1
Authority
KR
South Korea
Prior art keywords
module
displayed
learning model
list
image processing
Prior art date
Application number
KR1020200045743A
Other languages
Korean (ko)
Inventor
최우식
김태규
이해령
이소연
오지영
Original Assignee
주식회사 딥노이드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 딥노이드 filed Critical 주식회사 딥노이드
Priority to KR1020200045743A priority Critical patent/KR102179586B1/en
Application granted granted Critical
Publication of KR102179586B1 publication Critical patent/KR102179586B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/34Graphical or visual programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Primary Health Care (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an artificial intelligence-based cloud platform system for reading a medical image, which can provide an environment in which a user can easily design an artificial intelligence-based learning model. The artificial intelligence-based cloud platform system of the present invention comprises: a plurality of image processing modules; a plurality of artificial intelligence modules; a dataset storage unit having a plurality of datasets stored therein; a learning model design unit for providing a graphic user interface; and a reading model generating unit for generating a reading model.

Description

의료영상 판독을 위한 인공지능 기반의 클라우드 플랫폼 시스템{AI-BASED CLOUD PLATFORM SYSTEM FOR DIAGNOSING MEDICAL IMAGE}Artificial intelligence-based cloud platform system for medical image reading {AI-BASED CLOUD PLATFORM SYSTEM FOR DIAGNOSING MEDICAL IMAGE}

본 발명은 의료영상 판독을 위한 인공지능 기반의 클라우드 플랫폼 시스템에 관한 것으로서, 보다 상세하게는 다수의 사용자가 접속하여 인공지능 기반의 판독 모델의 설계 및 생성을 지원하는 의료영상 판독을 위한 인공지능 기반의 클라우드 플랫폼 시스템에 관한 것이다.The present invention relates to an artificial intelligence-based cloud platform system for reading medical images, and more specifically, an artificial intelligence-based system for reading medical images that supports the design and creation of an artificial intelligence-based reading model by accessing a plurality of users. Of the cloud platform system.

인공지능(Artificial Intelligence) 기법을 이용한 다양한 알고리즘들이 오랜 기간 동안 개발되어 왔으며, 특히 최근에는 딥러닝(Deep Learning) 알고리즘을 적용하여 빅 데이터를 처리하는 다양한 기법들이 개발되고 있으며, 이를 적용한 성공사례도 점점 늘어나고 있다.Various algorithms using artificial intelligence techniques have been developed for a long period of time, and in particular, various techniques for processing big data by applying deep learning algorithms have been developed recently, and success cases of applying them are increasingly being developed. Is increasing.

그 동안 의료영상에도 인공지능을 적용하여 임상의사결정에 도움을 받고자 하는 시도가 활발하게 진행되었고, 특히, X-ray, 초음파, CT(Computed Tomography), MRI(Magnetic Resonance Imaging), PET(Positron Emission Tomography), MRA(Magnetic Resonance Angiography) 등의 진단기기들로부터 획득된 의료영상에 인공지능 알고리즘을 적용하여 임상의사의 의사결정에 도움을 주는 방법이 개발되어 왔다.In the meantime, attempts to receive help in clinical decision making by applying artificial intelligence to medical images have been actively conducted, especially X-ray, ultrasound, CT (Computed Tomography), MRI (Magnetic Resonance Imaging), PET (Positron Emission). Tomography) and MRA (Magnetic Resonance Angiography) have been developed to help clinicians make decisions by applying artificial intelligence algorithms to medical images.

인공지능을 통해서 의료영상에 나타난 조직이 정상인지 비정상인지, 종양의 경우 양성인지 음성인지 분류하는 보조진단시스템의 경우, 영상의학과 의사만이 판독하는 경우보다 병변의 검출율이 향상되는 것으로 알려져 있다. 이러한 분류를 위해서 naive bayes, SVM(Support Vector Machine), ANN(Artificial Neural Network), HMM(Hidden Markov Model) 등을 주로 사용하는데, 이들은 병변의 유무를 자동으로 분류(classification)하는 알고리즘들이다.It is known that the detection rate of lesions is improved in the case of an auxiliary diagnosis system that classifies whether tissues shown in medical images through artificial intelligence are normal or abnormal, and whether tumors are positive or negative, compared to the case that only radiologists read. For this classification, naive bayes, SVM (Support Vector Machine), ANN (Artificial Neural Network), and HMM (Hidden Markov Model) are mainly used, and these are algorithms that automatically classify the presence or absence of lesions.

인공지능 알고리즘으로 기계학습(machine learning) 알고리즘을 사용할 수 있으며, 기계학습은 크게 지도학습(Supervised Learning)과 비지도학습(Unsupervised Learning)으로 나눌 수 있다. 이러한 기계학습 알고리즘으로 판독모델(또는 예측모델)을 생성하고, 생성된 판독모델을 이용하여 의료영상에 대한 정상/비정상 여부를 추론하는 시스템을 구성하는 것이 가능하며, 근래에는 보다 정확한 진단이 가능한 판독모델의 생성을 위한 연구가 지속되고 있다.Machine learning algorithms can be used as artificial intelligence algorithms, and machine learning can be largely divided into supervised learning and unsupervised learning. It is possible to construct a system that generates a reading model (or predictive model) with such a machine learning algorithm, and infers whether or not a medical image is normal/abnormal using the generated reading model. Research is ongoing for the creation of models.

인공지능 알고리즘의 경우, 위에서 설명한 바와 같이, 크게 지도학습과 비지도 학습으로 구분되는데, 지도 학습의 경우에도 분류(Classification), 의사결정 트리(Decision Tree), KNN(K-nearest neighbor), 신경망(Neural network), SVM(Support vector machine) 등이 있으며, 비지도 학습의 경우에도 군집화(Clustering) 등이 있다. 이외에도, 준지도 학습이나 강화 학습(Reinforcement learning) 등도 인공지능 알고리즘으로 알려져 있다.In the case of artificial intelligence algorithm, as described above, it is largely divided into supervised learning and unsupervised learning. Even in the case of supervised learning, classification, decision tree, KNN (K-nearest neighbor), and neural network ( Neural network), support vector machine (SVM), and so on, and clustering in the case of unsupervised learning. In addition, quasi-supervised learning and reinforcement learning are also known as artificial intelligence algorithms.

병변이나 질환의 진단과 같은 의료영상의 판독에 사용되는 인공지능 알고리즘의 경우에도, 분류(Classification algorithm), 오브젝트 검출(Object detection), 세그멘테이션(Segmentation) 등의 알고리즘이 주로 사용되고 있는데, 분류 알고리즘의 경우에도 ResNet, DenseNet, MobileNet 등 다양하게 개발되어 있는 실정이다.Even in the case of artificial intelligence algorithms used for reading medical images such as lesions or disease diagnosis, algorithms such as classification algorithm, object detection, and segmentation are mainly used. Edo, ResNet, DenseNet, MobileNet, etc. are variously developed.

이와 같이 너무나도 다양한 알고리즘 존재로 인해, 인공지능 분야의 전문가, 예를 들어 알고리즘을 직접 코딩하여 학습 모델을 설계할 수 있는 전문가가 아닌 이상, 의료영상의 판독을 위한 학습 모델을 설계하는 것은 쉽지 않은 작업이다.Due to the existence of such a wide variety of algorithms, it is not an easy task to design a learning model for reading medical images unless you are an expert in the field of artificial intelligence, for example, an expert who can design a learning model by directly coding algorithms. to be.

또한, 의료 영상의 경우 개인정보에 해당하여 이를 쉽게 구할 수 없을 뿐만 아니라, 학습 모델의 판독 정확도를 높일 수 있을 만큼의 의료영상를 확보하는 것 자체도 어려운 일이다.In addition, in the case of a medical image, it is not only possible to obtain it easily because it corresponds to personal information, and it is also difficult to secure enough medical images to increase the reading accuracy of the learning model.

이에, 본 발명은 상기와 같은 문제점을 해소하기 위해 안출된 것으로서, 다양한 종류의 의료영상을 제공하고, 전처리나 후처리를 위한 이미지 프로세싱 알고리즘, 인공지능 알고리즘을 모듈화하여 제공하면서도, 사용자가 쉽게 인공지능 기반의 학습 모델을 설계할 수 있는 환경을 제공할 수 있는 의료영상 판독을 위한 인공지능 기반의 클라우드 플랫폼 시스템을 제공하는데 그 목적이 있다.Accordingly, the present invention has been devised to solve the above problems, and provides various types of medical images, and provides a modularized image processing algorithm and artificial intelligence algorithm for pre- or post-processing, while allowing users to easily use artificial intelligence. Its purpose is to provide an artificial intelligence-based cloud platform system for reading medical images that can provide an environment in which a learning model can be designed.

상기 목적은 본 발명에 따라, 의료영상 판독을 위한 클라우드 플랫폼 시스템에 있어서, 의료영상의 전처리를 수행하도록 기 프로그래밍되어 모듈화된 복수의 이미지 프로세싱 모듈과, 인공지능 알고리즘이 기 프로그래밍되어 모듈화된 복수의 인공지능 모듈과, 신체 부위, 모달리티의 유형, 판록 대상 질환의 유형, 이미지 차원의 유형 중 적어도 하나에 따라 분류된 복수의 데이터세트가 저장된 데이터세트 저장부와, 웹 브라우저를 통해 접속한 사용자 단말에 인공지능 기반의 학습 모델의 설계를 위한 그래픽 유저 인터페이스를 제공하는 학습 모델 설계부와, 상기 학습 모델 설계부에 의해 설계된 학습 모델을 학습시켜 판독 모델을 생성하는 판독 모델 생성부를 포함하며; 상기 학습 모델 설계부는 복수의 상기 데이터세트, 복수의 상기 이미지 프로세싱 모듈의 리스트 및 복수의 상기 인공지능 모듈의 리스트가 표시된 모듈 리스트 표시창과, 학습 모델 설계창을 상기 그래픽 유저 인터페이스에 표시하고, 상기 모듈 리스트 표시창에 표시된 리스트가 상기 학습 모델 설계창으로 드래그 앤 드롭되는 경우, 상기 학습 모델 설계창에 드래그 앤 드롭에 대응하여 데이터 아이콘 및 모듈 아이콘을 생성하고, 상기 데이터 아이콘과 상기 모듈 아이콘들이 라인 연결되는 경우, 상기 데이터 아이콘 및 모듈 아이콘들 간의 라인 연결을 데이터의 흐름으로 하여 상기 학습 모델을 생성하고; 상기 판독 모델 생성부는 상기 데이터 아이콘에 대응하는 데이터세트를 상기 학습 모델 설계부에 의해 생성된 상기 학습 모델에 학습시켜 상기 판독 모델을 생성하고; 상기 학습 모델 설계부는 상기 학습 모델 설계창에 표시된 상기 이미지 프로세싱 모듈에 대응하는 모듈 아이콘이 선택된 경우, 해당 이미지 프로세싱 모듈의 이미지 프로세싱 전과 후의 이미지를 해당 모듈 아이콘 주변 중 일 영역에 표시하는 것을 특징으로 하는 의료영상 판독을 위한 클라우드 플랫폼 시스템에 의해서 달성된다.According to the present invention, in the cloud platform system for reading medical images, a plurality of image processing modules pre-programmed and modularized to perform pre-processing of medical images, and a plurality of modularized artificial intelligence algorithms An intelligent module, a data set storage unit in which a plurality of data sets classified according to at least one of a body part, type of modality, type of disease to be marked, and type of image dimension are stored, and a user terminal accessed through a web browser. A learning model designing unit that provides a graphic user interface for designing an intelligence-based learning model, and a reading model generation unit that generates a reading model by learning the learning model designed by the learning model designing unit; The learning model design unit displays a module list display window in which a plurality of data sets, a list of a plurality of image processing modules, and a list of a plurality of artificial intelligence modules are displayed, and a learning model design window on the graphic user interface, and the module When the list displayed on the list display window is dragged and dropped into the learning model design window, a data icon and a module icon are created in response to the drag and drop in the learning model design window, and the data icon and the module icons are connected by line. In this case, generating the learning model by using a line connection between the data icon and the module icons as a data flow; The read model generation unit generates the read model by learning a data set corresponding to the data icon on the learning model generated by the learning model design unit; When the module icon corresponding to the image processing module displayed in the learning model design window is selected, the learning model design unit displays an image before and after image processing of the image processing module in one area around the module icon. It is achieved by a cloud platform system for reading medical images.

여기서, 상기 학습 모델 설계부는 상기 학습 모델 설계창에 표시된 상기 이미지 프로세싱 모듈에 대응하는 모듈 아이콘이 선택된 경우, 상기 데이터세트를 구성하는 의료영상의 리스트가 표시되는 데이터 리스트 표시창과, 상기 데이터 리스트 표시창에 표시된 리스트 중 어느 하나가 선택될 때 해당 리스트의 의료영상이 표시되는 영상 표시창을 상기 그래픽 유저 인터페이스에 표시하고, 상기 영상 표시창에 표시되는 의료영상은 상기 이미지 프로세싱 모듈의 전처리 전과 후의 영상이 함께 표시될 수 있다.Here, the learning model design unit, when a module icon corresponding to the image processing module displayed on the learning model design window is selected, a data list display window displaying a list of medical images constituting the data set, and the data list display window When any one of the displayed lists is selected, an image display window displaying the medical images of the corresponding list is displayed on the graphic user interface, and the medical images displayed on the image display window are displayed together with images before and after pre-processing by the image processing module. I can.

또한, 상기 학습 모델 설계부는 상기 학습 모델 설계창에 표시된 상기 이미지 프로세싱 모듈에 대응하는 모듈 아이콘 중 하나가 선택되는 경우, 해당 이미지 프로세싱 모듈의 상세 정보가 표시되는 정보 표시창을 상기 그래픽 유저 인터페이스에 표시하며; 상기 정보 표시창에 표시되는 상세 정보는 해당 이미지 프로세싱 모듈의 전처리 과정을 결정하는 파라미터 정보를 포함하되, 파라미터 값의 변경이 가능하도록 설정될 수 있다.In addition, when one of the module icons corresponding to the image processing module displayed on the learning model design window is selected, the learning model design unit displays an information display window displaying detailed information of the image processing module on the graphic user interface. ; The detailed information displayed on the information display window includes parameter information for determining a pre-processing process of a corresponding image processing module, but may be set to allow a parameter value to be changed.

그리고, 상기 정보 표시창에는 해당 이미지 프로세싱 모듈에 의한 전처리 전과 후의 대표 이미지가 표시될 수 있다.In addition, representative images before and after pre-processing by a corresponding image processing module may be displayed on the information display window.

그리고, 상기 모듈 리스트 표시창에 표시되는 복수의 상기 이미지 프로세싱 모듈의 리스트는 복수의 전처리 기능별 그룹으로 구분되어 표시되며; 상기 전처리 기능별 그룹은 8비트 이상의 컬러 이미지에서 동작하는 이미지 프로세싱 모듈들의 리스트가 표시되는 컬러 전처리 그룹과, 8비트의 흑백 이미지에서 동작하는 이미지 프로세싱 모듈들의 리스트가 표시되는 그레이 스케일 전처리 그룹과, 1비트 흑백 이미지에서 동작하는 이미지 프로세싱 모듈들의 리스트가 표시되는 바이너리 전처리 그룹 중 적어도 2이상을 포함할 수 있다.Further, the list of the plurality of image processing modules displayed on the module list display window is divided into groups for each of a plurality of preprocessing functions and displayed; The preprocessing function group includes a color preprocessing group displaying a list of image processing modules operating on an 8-bit or larger color image, a gray scale preprocessing group displaying a list of image processing modules operating on an 8-bit black and white image, and a 1-bit. It may include at least two or more of a binary preprocessing group in which a list of image processing modules operating on a monochrome image is displayed.

그리고, 상기 학습 모델 설계부는 이미지 프로세싱 전과 후의 이미지가 해당 모듈 아이콘 주변에 표시된 상태에서 마우스의 스크롤이 인식되는 경우, 해당 데이터세트에 포함된 이미지를 변경하여 이미지 프로세싱 전과 후의 이미지를 표시할 수 있다.In addition, when a mouse scroll is recognized while images before and after image processing are displayed around a corresponding module icon, the learning model design unit may change an image included in a corresponding dataset to display images before and after image processing.

상기와 같은 구성에 따라, 본 발명에 따르면, 다양한 종류의 의료영상을 제공하고, 전처리나 후처리를 위한 이미지 프로세싱 알고리즘, 인공지능 알고리즘을 모듈화하여 제공하면서도, 사용자가 쉽게 인공지능 기반의 학습 모델을 설계할 수 있는 환경을 제공할 수 있는 의료영상 판독을 위한 인공지능 기반의 클라우드 플랫폼 시스템이 제공된다.According to the above configuration, according to the present invention, various types of medical images are provided, image processing algorithms for pre-processing or post-processing, and artificial intelligence algorithms are provided by modularization, while allowing users to easily implement artificial intelligence-based learning models. A cloud platform system based on artificial intelligence for reading medical images that can provide a design environment is provided.

도 1 및 도 2는 본 발명의 실시예에 따른 인공지능 기반의 클라우드 플랫폼 시스템의 구성을 설명하기 위한 도면이고,
도 3 내지 도 24는 본 발명의 실시예에 따른 인공지능 기반의 클라우드 플랫폼 시스템이 제공하는 그래픽 유저 인터페이스를 설명하기 위한 도면이다.
1 and 2 are diagrams for explaining the configuration of an artificial intelligence-based cloud platform system according to an embodiment of the present invention,
3 to 24 are diagrams for explaining a graphic user interface provided by an artificial intelligence-based cloud platform system according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in the present application. Does not.

도 1은 본 발명의 실시예에 따른 인공지능 기반의 클라우드 플랫폼 시스템(100)의 활용 구조를 나타낸 도면이고, 도 2는 본 발명의 실시예에 따른 인공지능 기반의 클라우드 플랫폼 시스템(100)의 구성의 예를 나타낸 도면이다.1 is a diagram showing the utilization structure of an artificial intelligence-based cloud platform system 100 according to an embodiment of the present invention, and FIG. 2 is a configuration of an artificial intelligence-based cloud platform system 100 according to an embodiment of the present invention It is a diagram showing an example of.

도 1을 참조하여 설명하면, 본 발명의 실시예에 따른 인공지능 기반의 클라우드 플랫폼 시스템(100)(이하, '클라우드 플랫폼 시스템(100)'이라 함)에는 다수의 사용자 단말(300)이 통신망(500)을 통해 접속하고, 본 발명의 실시예에 따른 클라우드 플랫폼 시스템(100)이 제공하는 학습 모델의 설계와, 판독 모델의 생성을 위한 그래픽 유저 인터페이스를 이용하여 판독 모델을 생성하게 된다.Referring to FIG. 1, a plurality of user terminals 300 are provided in a communication network (hereinafter referred to as'cloud platform system 100') based on artificial intelligence according to an embodiment of the present invention. 500), and a reading model is created using a graphic user interface for designing a learning model provided by the cloud platform system 100 according to an embodiment of the present invention and a graphic user interface for generating the reading model.

본 발명의 실시예에 따른 클라우드 플랫폼 시스템(100)은, 도 2에 도시된 바와 같이, 복수의 데이터세트(111)가 저장된 데이터세트 저장부(110), 복수의 이미지 프로세싱 모듈(121), 복수의 인공지능 모듈(131), 모델 학습부(140) 및 의료영상 판독부(150)를 포함한다. 여기서, 이미지 프로세싱 모듈(121)은 제1 모듈 저장부(120)에 저장되고, 인공지능 모듈(131)은 제2 모듈 저장부(130)에 저장되는 것을 예로 하는데, 제1 모듈 저장부(120) 및 제2 모듈 저장부(130)가 물리적으로 분리된 스토리지를 의미하지 않음은 물론이다.The cloud platform system 100 according to the embodiment of the present invention, as shown in FIG. 2, includes a data set storage unit 110 in which a plurality of data sets 111 are stored, a plurality of image processing modules 121, and a plurality of It includes an artificial intelligence module 131, a model learning unit 140, and a medical image reading unit 150. Here, the image processing module 121 is stored in the first module storage unit 120, and the artificial intelligence module 131 is stored in the second module storage unit 130. For example, the first module storage unit 120 ) And the second module storage unit 130 do not mean physically separated storage.

데이터세트 저장부(110)에 저장된 복수의 데이터세트(111)는 신체 부위, 모달리티(Modality)의 유형, 판독대상 질환의 유형, 이미지 차원의 유형 중 적어도 하나에 따라 분류된다.The plurality of data sets 111 stored in the data set storage unit 110 are classified according to at least one of a body part, a modality type, a disease type to be read, and an image dimension type.

신체 부위는 학습이나 판독 대상인 신체 부위로, 복부(Abdomen), 뇌(Brain), 머리(Head), 목(Neck), 척추(Spine), 유방(Breast), 흉부(Chest), 부인과(Gynecology) 부위, 비뇨기과(Urology) 부위, 심장(Heart), 혈관(Vessel), 근골격계(Musculoskeletal system) 등을 포함할 수 있다.Body parts are parts of the body that are to be learned or read. Abdomen, Brain, Head, Neck, Spine, Breast, Chest, Gynecology It may include a site, a urology site, a heart, a vessel, a musculoskeletal system, and the like.

모달리티의 유형으로는, CT, MRI, MRA, X-Ray, 초음파, PET 등을 포함할 수 있으며, 판독대상 질환의 유형은 종양, 척추측만증, 폐렴, 당뇨망막변증 등 의료영상을 이용하여 판독 가능한 다양한 질환, 병변을 포함할 수 있다. 그리고, 이미지 차원의 유형은 2D 이미지와 3D 이미지를 포함할 수 있다.Types of modality may include CT, MRI, MRA, X-ray, ultrasound, PET, and the like, and the types of diseases to be read can be read using medical images such as tumors, scoliosis, pneumonia, and diabetic retinopathy. It may include various diseases and lesions. And, the type of image dimension may include a 2D image and a 3D image.

상기와 같은 분류 기준에 따라 분류된 다수의 의료영상이 하나의 데이터세트(111)를 구성하게 되며, 사용자는 하나의 데이터세트(111)를 이용하여 학습을 진행할 수 있다.A plurality of medical images classified according to the classification criteria as described above constitute one dataset 111, and a user can proceed with learning using one dataset 111.

이미지 프로세싱 모듈(121)은 의료 영상의 전처리를 수행하도록 기 프로그래밍되어 모듈화된다. 이미지 프로세싱 모듈(121)은 컬러 이미지의 전처리를 위한 모듈, 그레이 스케일 이미지의 전처리를 위한 모듈, 바이너리 이미지의 전처리를 위한 모듈, 그리고 그 외의 모듈로 구분될 수 있는데, 이에 대한 상세한 설명은 후술한다.The image processing module 121 is pre-programmed and modularized to perform pre-processing of medical images. The image processing module 121 can be divided into a module for pre-processing a color image, a module for pre-processing a gray scale image, a module for pre-processing a binary image, and other modules, which will be described in detail later.

인공지능 모듈(131)은 인공지능 알고리즘이 기 프로그래밍되어 모듈화된다. 본 발명에서는 인공지능 모듈(131)이 딥러닝(Deep learning) 기반의 신경망(Neural network) 알고리즘이 모듈화되어 인공지능 모듈(131)을 구성하는 것을 예로 하며, 이에 대한 구체적인 설명은 후술한다.The artificial intelligence module 131 is modularized by preprogramming an artificial intelligence algorithm. In the present invention, it is assumed that the artificial intelligence module 131 configures the artificial intelligence module 131 by modularizing a deep learning-based neural network algorithm, and a detailed description thereof will be described later.

모델 학습부(140)는 학습 모델의 설계를 지원하는 학습 모델 설계부(141)와, 학습 모델 설계부(141)에 의해 설계된 학습 모델을 학습시켜 판독 모델을 생성하는 판독 모델 생성부(142)를 포함한다.The model learning unit 140 includes a learning model design unit 141 that supports design of a learning model, and a reading model generation unit 142 that generates a reading model by learning a learning model designed by the learning model design unit 141 do.

본 발명에서는 설명의 편의를 위해 '학습 모델'과 '판독 모델'로 구분하여 설명하는데, 학습 모델은 사용자가 본 발명에 따른 클라우드 플랫폼 시스템(100)이 제공하는 그래픽 유저 인터페이스를 통해 모델을 설계하는 과정에서의 모델을 의미하고, 실제 학습이 이루어지기 전단의 설계 과정에 있는 상태를 정의하며, 판독 모델은 설계된 학습 모델을 데이터세트(111)를 이용하여 학습시킨 이후의 모델, 가중치(Weight value) 등의 파라미터가 업데이트된 상태를 정의한다.In the present invention, for convenience of explanation, it is divided into'learning model' and'reading model'. The learning model is designed by a user through a graphic user interface provided by the cloud platform system 100 according to the present invention. It means the model in the process, and defines the state in the design process before the actual learning takes place, and the reading model is the model after learning the designed learning model using the dataset 111, and the weight value. Etc. parameters define the updated state.

학습 모델 설계부(141)는 웹 브라우저를 통해 접속한 사용자 단말(300)에 인공지능 기반의 학습 모델의 설계를 위한 그래픽 유저 인터페이스를 제공한다. 그리고, 상술한 바와 같이, 판독 모델 생성부(142)는 학습 모델 설계부(141)에 의해 설계된 학습 모델을 학습시켜 판독 모델을 생성한다.The learning model design unit 141 provides a graphic user interface for designing an artificial intelligence-based learning model to the user terminal 300 accessed through a web browser. And, as described above, the reading model generation unit 142 learns the learning model designed by the learning model design unit 141 to generate the reading model.

여기서, 학습 모델 설계부(141)는 학습 모델의 설계에 있어, 데이터세트(111), 이미지 프로세싱 모듈(121), 인공지능 모듈(131)의 선택, 드래그 앤 드랍, 모듈 간의 라인 연결을 통해 학습 모델을 설계할 수 있는 그래픽 유저 인터페이스를 제공하게 되는데, 이를 통해 사용자는 데이터세트(111), 모듈화된 이미지 프로세싱 알고리즘과 인공지능 알고리즘을 드래그 앤 드롭 방식과 같은 간단한 조작 만으로 보다 쉽게 학습 모델을 설계하고, 판독 모델을 생성할 수 있게 된다.Here, in the design of the learning model, the learning model design unit 141 selects the dataset 111, the image processing module 121, and the artificial intelligence module 131, drag-and-drop, and the learning model through line connection between modules. It provides a graphic user interface that allows users to design data sets 111, modular image processing algorithms, and artificial intelligence algorithms more easily with simple manipulations such as drag-and-drop method, and It will be possible to create a reading model.

이하에서는, 도 3 내지 도 24을 참조하여 본 발명의 실시예에 따른 클라우드 플랫폼 시스템(100)이 제공하는 그래픽 유저 인터페이스를 이용하여, 학습 모델의 설계 및 판독 모델의 생성을 위한 신규 프로젝트의 생성 과정에 대해 설명한다. 여기서, 신규 프로젝트 생성 과정은 학습 모델 설계부(141)에 의해 진행된다.In the following, the process of creating a new project for designing a learning model and generating a reading model using a graphic user interface provided by the cloud platform system 100 according to an embodiment of the present invention with reference to FIGS. 3 to 24 Explain about. Here, the process of creating a new project is performed by the learning model design unit 141.

먼저, 사용자가 사용자 단말(300)을 통해 클라우드 플랫폼 시스템(100)이 제공하는 웹 사이트에 접속하면, 도 3에 도시된 바와 같은 메인 화면이 사용자 단말(300)의 화면 상에 표시된다.First, when a user accesses a web site provided by the cloud platform system 100 through the user terminal 300, a main screen as shown in FIG. 3 is displayed on the screen of the user terminal 300.

그런 다음, 사용자가 자신의 아이디 및 패스워드를 통해 로그인(도 3에서 우측 상단)한 후, 마이 페이지 메뉴를 클릭하면, 마이 페이지 화면이 사용자 단말(300)의 화면 상에 표시된다.Then, when the user logs in (top right in FIG. 3) through his/her ID and password and clicks the My Page menu, the My Page screen is displayed on the screen of the user terminal 300.

도 4는 본 발명에 따른 클라우드 플랫폼 시스템(100)이 제공하는 마이 페이지 화면의 예를 나타낸 도면이다. 도 4를 참조하여 설명하면, 본 발명의 실시예에 따른 마이 페이지 화면은 마이 페이지 메뉴 창(41), 프로젝트 현황 창(42), 및 마이 프로젝트 목록 창(43)을 포함할 수 있다.4 is a diagram showing an example of a My Page screen provided by the cloud platform system 100 according to the present invention. Referring to FIG. 4, the My Page screen according to the embodiment of the present invention may include a My Page menu window 41, a project status window 42, and a My Project list window 43.

마이 페이지 메뉴 창(41)은 마이 프로젝트(My Projects)와 공유 프로젝트(Shared Projects)로 구성된 프로젝트 메뉴(Project), 데이터 세트 메뉴(Dataset), 모듈 메뉴(Modules)를 포함할 수 있으며, Q&A 메뉴(My Q&A)와 마이 프로파일 메뉴(My Profile)가 부가될 수 있다.The My Page menu window 41 may include a project menu consisting of My Projects and Shared Projects, a data set menu, and a module menu, and a Q&A menu ( My Q&A) and My Profile menu can be added.

마이 프로젝트를 클릭하면, 도 4에 도시된 바와 같은 화면이 표시되고, 공유 프로젝트를 클릭하면, 도 5에 도시된 바와 같이, 다른 사용자가 생성한 프로젝트 중 공유로 설정된 프로젝트의 리스트들이 화면상에 표시된다.When you click My Project, a screen as shown in Fig. 4 is displayed, and when you click on a shared project, a list of projects set to be shared among projects created by other users are displayed on the screen, as shown in Fig. 5 do.

마찬가지로, 데이터 세트 메뉴가 클릭되면, 현재 클라우드 플랫폼 시스템(100)이 보유하고 있는 데이터 세트의 리스트가 도 5에 도시된 바와 같은 형태로 마이 페이지 메뉴 창(41) 우측에 표시되고, 해당 데이터 세트를 클릭하는 경우 상세 정보의 확인이 가능하도록 마련될 수 있다. 여기서, 클라우드 플랫폼 시스템(100)이 보유하고 있는 데이터 세트는 모듈러 화면 상의 데이터 세트 리스트에 표시되는데, 이에 대한 설명은 후술한다.Similarly, when the data set menu is clicked, a list of data sets currently held by the cloud platform system 100 is displayed on the right side of the My Page menu window 41 in the form as shown in FIG. 5, and the data set is displayed. When clicked, it may be provided so that detailed information can be checked. Here, the data set held by the cloud platform system 100 is displayed in the data set list on the modular screen, and a description thereof will be described later.

모듈 메뉴는 이미지 프로세싱 항목(Image processing)과 신경망 항목(Neural Network)을 포함할 수 있다. 이미지 프로세싱 항목을 클릭하면, 현재 클라우드 플랫폼 시스템(100)이 보유하고 있는 이미지 프로세싱 모듈(121)의 리스트가, 도 5에 도시된 바와 같은 형태로 마이 페이지 메뉴 창(41)의 우측에 표시될 수 있다. 마찬가지로, 신경망 항목을 클릭하면, 클라우드 플랫폼 시스템(100)이 보유하고 있는 인공지능 모듈(131)의 리스트가, 도 5에 도시된 바와 같은 형태로 마이 페이지 메뉴 창(41)의 우측에 표시될 수 있다. 여기서, 클라우드 플랫폼 시스템(100)이 보유하고 있는 이미지 프로세싱 모듈(121)과 인공지능 모듈(131)은 후술할 모듈러 화면 상의 모듈 리스트 표시창(91)에 표시되는데, 이에 대한 설명은 후술한다.The module menu may include an image processing item and a neural network item. When the image processing item is clicked, a list of image processing modules 121 currently held by the cloud platform system 100 can be displayed on the right side of the My Page menu window 41 in the form shown in FIG. 5. have. Likewise, when a neural network item is clicked, a list of artificial intelligence modules 131 held by the cloud platform system 100 can be displayed on the right side of the My Page menu window 41 in the form shown in FIG. 5. have. Here, the image processing module 121 and the artificial intelligence module 131 owned by the cloud platform system 100 are displayed on the module list display window 91 on the modular screen, which will be described later.

다시, 도 4를 참조하여 설명하면, 마이 프로젝트 화면 상의 프로젝트 현황 창(42)에는 현재 로그인한 사용자의 프로젝트 현황, 리소스 현황, 프로젝트 별 공지 사항, 현재 클라우드 플랫폼 시스템(100)에 등록된 전체 프로젝트의 현황에 대한 정보, 현재 사용자의 프로젝트 수행 히스토리에 대한 정보 등이 표시될 수 있다.Again, referring to FIG. 4, the project status window 42 on the My Project screen displays the project status of the currently logged in user, resource status, notices for each project, and all projects currently registered in the cloud platform system 100. Information on the current status, information on the current user's project execution history, and the like can be displayed.

그리고, 마이 프로젝트 목록 창(43)에는 현재 로그인한 사용자가 수행한 프로젝트의 리스트가 표시되는데, 도 4에서는 하나의 프로젝트가 수행된 예를 나타내고 있다.In addition, a list of projects executed by the currently logged-in user is displayed in the My Project List window 43, and FIG. 4 shows an example in which one project has been executed.

여기서, 마이 프로젝트 목록 창(43)에서 '+Create' 항목을 클릭하게 되면, 신규 프로젝트로 생성될 판독 모델의 속성 정보를 입력하기 위한 속성 입력창이 그래픽 유저 인터페이스에 표시된다.Here, when the'+Create' item is clicked on the My Project list window 43, a property input window for inputting property information of a read model to be created as a new project is displayed on the graphic user interface.

먼저, 신규 프로젝트를 생성하기 위해 '+Create' 항목을 클릭하게 되면, 도 6에 도시된 바와 같은 프로젝트 기본정보 입력 팝업창이 속성 입력창으로 사용자 단말(300)의 화면 상에 표시된다.First, when a'+Create' item is clicked to create a new project, a project basic information input pop-up window as shown in FIG. 6 is displayed on the screen of the user terminal 300 as a property input window.

프로젝트 기본정보 입력 팝업창에는 프로젝트 이름(Name)의 입력, 신체 부위(Body Part)의 선택, 모달리티 유형(Modality)의 선택, 프로젝트 요약(Summary), 프로젝트 종료일(Due date)의 입력, 커버 이미지(Cover Image) 선택을 위한 항목들이 표시될 수 있으며, 여기서, 신체 부위, 모달리티 유형이 신규 프로젝트로 생성될 판독 모델의 속성 정보에 포함된다.In the pop-up window for inputting basic project information, input the project name, body part, modality type, project summary, project end date, and cover image. Image) Items for selection may be displayed, where the body part and modality type are included in the attribute information of the read model to be created as a new project.

프로젝트 기본정보 입력 팝업창을 이용하여 속성 정보를 입력한 후, 다음 버튼(Next)을 클릭하면, 도 7에 도시된 바와 같이, 인공지능 모델의 유형을 선택하기 위한 모델 유형 선택 팝업창이 속성 입력창으로 그래픽 유저 인터페이스 화면에 표시된다.After entering the property information using the project basic information input pop-up window, and clicking the Next button (Next), as shown in FIG. 7, a model type selection pop-up window for selecting the type of the artificial intelligence model is displayed as the property input window. It is displayed on the graphical user interface screen.

본 발명에서는 인공지능 모델의 유형으로, 도 7에 도시된 바와 같이, 분류(Classification) 모델, 오브젝트 검출(Object detection) 모델, 및 세그멘테이션(Segmentation) 모델을 포함하는 것을 예로 하고 있으나, 이에 국한되지 않음은 물론이다. 여기서, 도 7에 도시된 모델 유형 선택 팝업창에서는 인공지능 모델 중 하나 또는 2이상을 선택할 수 있도록 마련되는 것을 예로 한다.In the present invention, as an example of the type of artificial intelligence model, as shown in FIG. 7, a classification model, an object detection model, and a segmentation model are included, but is not limited thereto. Of course. Here, as an example, in the model type selection pop-up window shown in FIG. 7, it is provided to select one or two or more of artificial intelligence models.

인공지능 모델의 유형의 선택 후, 다음 버튼(Next)을 클릭하게 되면, 도 8에 도시된 바와 같이, 2차원 및 3차원을 포함한 학습 대상 데이터세트(111)의 유형을 선택하기 위한 데이터 유형 선택 팝업창이 속성 입력창으로 그래픽 유저 인터페이스에 표시된다. 여기서, 2차원 또는 3차원 이미지 데이터세트(111)가 선택적으로, 또는 둘다 선택이 가능함은 물론이다.When the next button (Next) is clicked after selecting the type of the artificial intelligence model, as shown in FIG. 8, the data type selection for selecting the type of the learning target dataset 111 including 2D and 3D A pop-up window is displayed on the graphic user interface as a property input window. Here, it goes without saying that the 2D or 3D image dataset 111 can be selectively selected or both can be selected.

상기와 같은 과정을 통해, 인공지능 모델의 유형과, 2차원 또는 3차원 데이터세트(111)가 선택되면, 인공지능 모델의 유형과 데이터세트(111)의 유형은 상술한 속성 정보로 등록된다.Through the above process, when the type of the artificial intelligence model and the 2D or 3D dataset 111 are selected, the type of the artificial intelligence model and the type of the dataset 111 are registered as the above-described attribute information.

속성 정보의 등록 과정이 완료되면, 학습 모델 설계부(141)는, 도 9에 도시된 바와 같이, 모듈러 화면을 그래픽 유저 인터페이스에 표시한다.When the registration process of attribute information is completed, the learning model design unit 141 displays a modular screen on the graphic user interface as shown in FIG. 9.

모듈러 화면은 모듈 리스트 표시창(91), 학습 모델 설계창(92), 정보 표시창(93)을 포함할 수 있다.The modular screen may include a module list display window 91, a learning model design window 92, and an information display window 93.

모듈 리스트 표시창(91)에는 복수의 데이터세트(111)의 리스트, 복수의 이미지 프로세싱 모듈(121)의 리스트, 그리고 복수의 인공지능 모델의 리스트가 표시된다.The module list display window 91 displays a list of a plurality of data sets 111, a list of a plurality of image processing modules 121, and a list of a plurality of artificial intelligence models.

여기서, 본 발명에서는 학습 모델 설계부(141)가 모듈 리스트 표시창(91)에 리스트를 표시할 때, 상술한 바와 같이 속성 입력창을 통해 입력한 송성 정보와 매칭되는 데이터세트(111), 이미지 프로세싱 모듈(121) 및 인공지능 모듈(131)의 리스트만을 표시할 수 있다. 이를 통해, 인공지능 분야에 지식이 부족한 사용자의 경우, 자신이 설계 및 생성하고자 하는 판독 모델과 속성 정보가 매칭되는 모듈 만이 리스트에 표출되어 보다 쉽게 접근이 가능하게 된다.Here, in the present invention, when the learning model design unit 141 displays a list on the module list display window 91, as described above, the dataset 111 matches the songsong information input through the attribute input window, and the image processing module Only the list of 121 and the artificial intelligence module 131 can be displayed. Through this, in the case of a user with insufficient knowledge in the field of artificial intelligence, only modules matching the reading model and attribute information to be designed and created are displayed in the list, allowing easier access.

도 10의 (a)는 속성 정보와 매칭되는 리스트만이 표시된 모듈 리스트 표시창(91)의 예를 나타낸 도면이고, 도 10의 (b)는 리스트 전체가 표시된 모듈 리스트 표시창(91)의 예를 나타낸 도면이다. 도 10은 데이터세트(111)의 리스트의 예를 나타내고 있다.FIG. 10A is a view showing an example of the module list display window 91 in which only the list matching attribute information is displayed, and FIG. 10B shows an example of the module list display window 91 in which the entire list is displayed. It is a drawing. 10 shows an example of a list of data sets 111.

도 10을 참조하여 설명하면, 본 발명에 따른 모듈 리스트 표시창(91)에는 전체 리스트 선택 항목(ALL)과, 추천 리스트 선택 항목(Recommend)이 마련될 수 있으며, 전체 리스트 선택 항목(ALL)을 클릭하면, 도 10의 (b)에 도시된 바와 같이, 데이터세트(111)의 전체 리스트가 표시되고, 추전 리스트 선택 항목(Recommend)을 클릭하면, 도 10의 (a)에 도시된 바와 같이, 추천 리스트, 즉 사전에 등록한 속성 정보와 매칭되는 데이터세트(111)의 리스트만이 표시된다.Referring to FIG. 10, in the module list display window 91 according to the present invention, a full list selection item ALL and a recommendation list selection item Recommend may be provided, and click the full list selection item ALL. Then, as shown in (b) of FIG. 10, the entire list of the dataset 111 is displayed, and when a recommendation list selection item (Recommend) is clicked, as shown in (a) of FIG. Only a list, that is, a list of the dataset 111 matching the previously registered attribute information is displayed.

한편, 모듈 리스트 표시창(91)에는 데이터세트 선택 항목(91a), 이미지 프로세싱 선택 항목(91b) 및 인공지능 선택 항목(91c)이 마련될 수 있으며, 학습 모델 설계부(141)는 데이터세트 선택 항목(91a)이 클릭되면, 데이터세트(111)의 리스트를 모듈 리스트 표시창(91)에 표시할 수 있다(도 10 참조).On the other hand, in the module list display window 91, a data set selection item 91a, an image processing selection item 91b, and an artificial intelligence selection item 91c may be provided, and the learning model design unit 141 may provide a data set selection item ( When 91a) is clicked, a list of the dataset 111 can be displayed on the module list display window 91 (see FIG. 10).

마찬가지로, 학습 모델 설계부(141)는 이미지 프로세싱 선택 항목(91b)이 선택이 클릭되면, 이미징 프로세싱 모듈의 리스트를 모듈 리스트 표시창(91)에 표시하게 되는데, 이 때, 데이터세트(111)에서와 동일하게, 전체 리스트 선택 항목(ALL)과 추전 리스트 선택 항목(Recommend)의 선택을 통해, 전체 리스트 또는 매칭되는 추천 리스트를 표시할 수 있다.Similarly, when the image processing selection item 91b is selected, the learning model design unit 141 displays a list of imaging processing modules on the module list display window 91, which is the same as in the dataset 111. In other words, the entire list or a matching recommendation list may be displayed through selection of the all list selection item ALL and the recommendation list selection item Recommendation.

그리고, 학습 모델 설계부(141)는 인공지능 선택 항목(91c)이 클릭되면, 인공지능 모듈(131)의 리스트를 모듈 리스트 표시창(91)에 표시하게 되고, 동일하게, 전체 리스트 선택 항목(ALL)과 추전 리스트 선택 항목(Recommend)의 선택을 통해, 전체 리스트 또는 매칭되는 추천 리스트를 표시할 수 있다.And, when the artificial intelligence selection item 91c is clicked, the learning model design unit 141 displays a list of the artificial intelligence module 131 on the module list display window 91, and in the same way, the entire list selection item (ALL) The entire list or a matching recommendation list may be displayed through selection of a recommendation list selection item (Recommend).

한편, 본 발명의 실시예에 따른 클라우드 플랫폼 시스템(100)은, 도 2에 도시된 바와 같이, 기 생성된 판독 모델과 기 설계된 학습 모델이 저장된 모델 저장부(160)를 포함할 수 있다.Meanwhile, as shown in FIG. 2, the cloud platform system 100 according to an embodiment of the present invention may include a model storage unit 160 in which a pre-generated read model and a pre-designed learning model are stored.

여기서, 모델 저장부(160)에 저장된 판독 모델 또는 학습 모델은 본 발명에 따른 클라우드 플랫폼 시스템(100)을 이용한 사용자가 자신이 설계한 학습 모델이나 생성한 판독 모델을 공유로 하여 등록한 것으로, 공유를 통해 다른 사용자가 접근이 가능하게 된다.Here, the reading model or learning model stored in the model storage unit 160 is registered by a user using the cloud platform system 100 according to the present invention by sharing the learning model or the generated reading model designed by the user, and This allows other users to access it.

여기서, 학습 모델 설계부(141)는 속성 입력창을 통해 입력된 속성 정보와 매칭되는 판독 모델 또는 학습 모델을 모델 저장부(160)로부터 검색하고, 기 설정된 개수의 매칭되는 학습 모델 또는 판독 모델의 리스트가 표시된 추천 모델 리스트 창을 그래픽 유저 인터페이스에 표시할 수 있다. 본 발명에서는 추천 모델 리스트 창이 속성 입력창를 통한 속성 정보의 입력 후 모델러 화면으로 전환되기 전에 팝업 창 형태로 표시되는 것을 예로 하며, 사용자가 추천 모델 리스트 창에 추천된 모델 중 어느 하나를 클릭하면 해당 학습 모델 또는 판독 모델이 모델러 화면에 표시되어, 이를 기반으로 수정을 통해 새로운 학습 모델의 설계가 가능하게 된다.Here, the learning model design unit 141 searches for a reading model or learning model that matches the attribute information input through the attribute input window from the model storage unit 160, and a list of matching learning models or reading models of a preset number The recommended model list window with is displayed can be displayed on the graphic user interface. In the present invention, as an example, the recommended model list window is displayed in the form of a pop-up window before switching to the modeler screen after the attribute information is input through the attribute input window. When the user clicks any one of the recommended models in the recommended model list window, corresponding training The model or readout model is displayed on the modeler screen, and a new learning model can be designed through modification based on this.

도 11은 본 발명의 실시예에 따른 클라우드 플랫폼 시스템(100)에서 모듈 리스트 표시창(91)에 이미지 프로세싱 모듈(121)의 리스트가 표시된 예를 나타낸 도면이다. 본 발명에서는 모듈 리스트 표시창(91)에 표시되는 이미지 프로세싱 모듈(121)의 리스트가 복수의 전처리 기능별 그룹으로 구분되어 표시되는 것을 예로 한다.11 is a diagram illustrating an example in which a list of image processing modules 121 is displayed on the module list display window 91 in the cloud platform system 100 according to an embodiment of the present invention. In the present invention, as an example, the list of the image processing module 121 displayed on the module list display window 91 is divided into groups for each of a plurality of preprocessing functions and displayed.

여기서, 전처리 기능별 그룹은 컬러 전처리 그룹(Color), 그레이 스케일 전처리 그룹(Grayscale), 바이너리 전처리 그룹(Binary)을 포함할 수 있다. 또한 전처리 기능별 그룹은 일반 전처리 그룹(General)을 포함할 수 있다.Here, the group for each preprocessing function may include a color preprocessing group (Color), a grayscale preprocessing group (Grayscale), and a binary preprocessing group (Binary). Also, the group for each pre-processing function may include a general pre-processing group.

컬러 전처리 그룹에는 8비트 이상의 컬러 이미지에서 동작하는 이미지 프로세싱 모듈(121)들의 리스트가 표시될 수 있다.In the color preprocessing group, a list of image processing modules 121 operating on a color image of 8 bits or more may be displayed.

컬러 전처리 그룹에 속하는 이미지 프로세싱 모듈(121)은 컬러 모드 컨버팅 모듈, 컬러 투 그레이스케일 모듈, 컬러용 감마 보정 모듈, 컬러용 히스토그램 평활화 모듈을 포함할 수 있다.The image processing module 121 belonging to the color preprocessing group may include a color mode converting module, a color to grayscale module, a gamma correction module for color, and a histogram smoothing module for color.

컬러 모드 컨버팅 모듈은 다양한 컬러 스페이스 간을 변환해주는 모듈이고, 컬러 투 그레이스케일 모듈은 컬러 이미지를 그레이스케일 이미지로 변환해주는 모듈이고, 컬러용 감마 보정 모듈은 컬러 이미지의 감마 보정을 수행하는 모듈이며, 컬러용 히스토그램 평활화 모듈은 컬러 이미지의 히스토그램을 평활화시키는 모듈이다.The color mode converting module is a module that converts between various color spaces, the color to grayscale module is a module that converts a color image into a grayscale image, and the gamma correction module for color is a module that performs gamma correction of color images. The color histogram smoothing module is a module that smoothes the histogram of a color image.

그레이 스케일 전처리 모듈은 그레이스케일용 감마 보정 모듈, 그레이스케일용 히스토그램 평활화 모듈, 형태학적(Morphological) 변환 모듈, 문턱치(Threshold) 변환 모듈을 포함할 수 있다.The gray scale preprocessing module may include a gamma correction module for grayscale, a histogram smoothing module for grayscale, a morphological conversion module, and a threshold conversion module.

감마 보정 모듈과 그레이스케일용 히스토그램 평활화 모듈은 각각 그레이스케일 이미지의 감마 보정 및 히스토그램 평활화를 수행하며, 형태학적(Morphological) 변환 모듈은 그레이스케일 이미지의 형태학적인 변환을 수행하는 모듈이고, 문턱치(Threshold) 변환 모듈은 그레이스케일 이미지를 흑과 백 두가지 값만 가지도록 이진화를 수행하는 모듈이다.The gamma correction module and the grayscale histogram smoothing module respectively perform gamma correction and histogram smoothing of the grayscale image, and the morphological conversion module is a module that performs morphological transformation of the grayscale image. The conversion module is a module that performs binarization of a grayscale image to have only two values, black and white.

바이너리 전처리 모듈은 윤곽선(Contour) 검출 모듈, 블록 껍질(Convex hull) 모듈, 바이너리 이미지용 형태학적(Morphological) 변환 모듈, 골격화(Skeletonize) 모듈을 포함할 수 있다.The binary preprocessing module may include a contour detection module, a block hull module, a morphological conversion module for binary images, and a skeletonize module.

윤곽선(Contour) 검출 모듈은 동일한 픽셀 값을 갖는 픽셀들을 연결시켜 윤곽선을 검출하는 모듈이고, 블록 껍질(Convex hull) 모듈은 이미지 내의 모든 힌색 픽셀 값을 포함하는 가장 작은 마스크를 생성해주는 모듈이고, 골격화(Skeletonize) 모듈은 이미지의 골격만을 남도록 만들어주는 모듈이다.The contour detection module is a module that detects the contour by connecting pixels having the same pixel value, and the convex hull module is a module that creates the smallest mask including all the white pixel values in the image. The Skeletonize module is a module that makes only the skeleton of an image remain.

일반 전처리 그룹(General)은 컬러 이미지, 그레이스케일 이미지 또는 바이너리 이미지에만 적용되는 상술한 이미지 프로세싱 모듈(121)을 제외한 나머지의 리스트를 포함한다.The general preprocessing group (General) includes a list of the rest except for the image processing module 121 described above, which is applied only to a color image, a grayscale image, or a binary image.

도 11에 도시된 예에서와 같이, 일반 전처리 그룹(General)은 비트 감소 모듈(Bit Reduction), 엣지 검출 모듈(Edge Detection), 반전 모듈(Invert), 리샘플링 모듈(Resample), 리스케일링 모듈(Rescaling), 리사이징 모듈(Resize), 샤프닝 모듈(Sharpening), 스무딩 모듈(Smooding), 제로-패닝 모듈(Zero-padding) 모듈을 포함할 수 있다.As in the example shown in FIG. 11, a general preprocessing group is a bit reduction module, an edge detection module, an inverting module, a resampling module, and a rescaling module. ), a resizing module (Resize), a sharpening module (Sharpening), a smoothing module (Smooding), and a zero-panning module (Zero-padding) module.

비트 감소 모듈(Bit Reduction)은 이미지 표현에 사용되는 색상의 비트 값을 줄이는 과정으로 이미지를 8 비트 정수 형태로 변환시켜주는 모듈이고, 엣지 검출 모듈(Edge detection)은 이미지의 엣지를 찾아 이진화 시켜주는 모듈이고, 반전 모듈(Invert)은 이미지의 픽셀 값을 반전시켜주는 모듈이고, 리샘플링 모듈(Resample)은 픽셀간 거리의 정보를 사용하여 이미지의 크기를 조정하는 모듈이고, 리스케일링 모듈(Rescaling)은 이미지 샘플 영역, 예컨대, 프로파일 또는 전체 영상에 위치하는 픽셀 값의 범위를 변경하는 모듈이고, 리사이징 모듈(Resize)은 이미지의 크기를 확대 또는 축소시키는 모듈이고, 샤프닝 모듈(Sharpening)은 이미지의 엣지를 강조하는 효과를 주는 모듈이고, 스무딩 모듈(Smoothing)은 이미지에 흐림 효과를 주어 번지게 하는 모듈이고, 제로-패딩 모듈(Zero-padding)은 원본 이미지에 0인 값으로 이루어진 정사각형 모양을 붙이는 모듈이다.Bit Reduction module is a module that converts an image into an 8-bit integer form by reducing the bit value of a color used for image expression, and the edge detection module finds and binarizes the edge of an image. Module, the inverting module (Invert) is a module that inverts the pixel values of the image, the resampling module (Resample) is a module that adjusts the size of the image using information on the distance between pixels, and the rescaling module (Rescaling) An image sample area, for example, a profile or a module that changes the range of pixel values located in the entire image, the resizing module is a module that enlarges or reduces the size of the image, and the sharpening module It is a module that gives an emphasis effect, the smoothing module is a module that blurs and blurs the image, and the zero-padding module is a module that attaches a square shape with a value of 0 to the original image. .

상기와 같이, 학습 모델의 설계에 있어 원본 의료영상의 전처리 과정에 필요한 이미지 프로세싱 알고리즘들을 모듈화하고, 이를 전처리 기능에 따라 그룹화하여 리스트를 제공함으로써, 사용자가 보다 쉽게 자신이 설계하고자 하는 학습 모델에 적합한 이미지 프로세싱 알고리즘을 찾을 수 있게 된다.As described above, in the design of the learning model, the image processing algorithms required for the pre-processing of the original medical image are modularized and grouped according to the pre-processing function to provide a list. You will be able to find an image processing algorithm.

도 12는 본 발명의 실시예에 따른 클라우드 플랫폼 시스템(100)에서 모듈 리스트 표시창(91)에 인공지능 모듈(131)의 리스트가 표시된 예를 나타낸 도면이다. 본 발명에서는 모듈 리스트 표시창(91)에 표시되는 인공지능 모듈(131)의 리스트가 인공지능 기능별 그룹으로 구분되어 표시되는 것을 예로 한다.12 is a diagram illustrating an example in which a list of artificial intelligence modules 131 is displayed on the module list display window 91 in the cloud platform system 100 according to an embodiment of the present invention. In the present invention, for example, the list of artificial intelligence modules 131 displayed on the module list display window 91 is divided into groups for each artificial intelligence function and displayed.

인공지능 기능별 그룹은 2차원 분류 그룹(Classification 2D), 3차원 분류 그룹(Classification 3D), 2차원 검출 그룹(Object Detection 2D), 3차원 검출 그룹(Object Detection 3D), 2차원 세그멘테이션 그룹(Segmentation 2D), 3차원 세그멘테이션 그룹(Segmentation 3D)을 포함하는 것을 예로 한다.The groups for each AI function are 2D classification group (Classification 2D), 3D classification group (Classification 3D), 2D detection group (Object Detection 2D), 3D detection group (Object Detection 3D), and 2D segmentation group (Segmentation 2D). ), for example, including a 3D segmentation group (Segmentation 3D).

2차원 분류 그룹(Classification 2D)은 2차원 이미지의 분류(Classification)를 수행하는 인공지능 모듈(131)들의 리스트가 표시되고, 3차원 분류 그룹(Classification 3D)은 3차원 이미지의 분류(Classification)를 수행하는 인공지능 모듈(131)들의 리스트가 표시되고, 2차원 검출 그룹(Object Detection 2D)은 2차원 이미지의 오브젝트 검출(Object detection)을 수행하는 인공지능 모듈(131)들의 리스트가 표시되고, 3차원 오브젝트 검출 그룹(Object Detection 3D)은 3차원 이미지의 오브젝트 검출(Object detection)을 수행하는 인공지능 모듈(131)들의 리스트가 표시되고, 2차원 세그멘테이션 그룹(Segmentation 2D)은 2차원 이미지의 세그멘테이션(Segmentation)을 수행하는 인공지능 모듈(131)들의 리스트가 표시되며, 3차원 세그멘테이션 그룹(Segmentation 3D)은 3차원 이미지의 세그멘테이션(Segmentation)을 수행하는 인공지능 모듈(131)들의 리스트가 표시된다.In the 2D classification group (Classification 2D), a list of artificial intelligence modules 131 performing classification of 2D images is displayed, and the 3D classification group (Classification 3D) is used to classify 3D images. A list of the artificial intelligence modules 131 to be performed is displayed, and in the 2D detection group (Object Detection 2D), a list of the artificial intelligence modules 131 performing object detection of a 2D image is displayed, and 3 The dimensional object detection group (Object Detection 3D) displays a list of artificial intelligence modules 131 that perform object detection of a 3D image, and the 2D segmentation group (Segmentation 2D) is a segmentation of a 2D image. A list of artificial intelligence modules 131 performing segmentation is displayed, and a list of artificial intelligence modules 131 performing segmentation of a 3D image is displayed in the 3D segmentation group (Segmentation 3D).

이미지의 분류(Classification)를 수행하는 인공지능 알고리즘으로는 DensNet, ResNet, MobileNet 알고리즘이 널리 알려져 있으며, 오브젝트 검출(Object Detection)을 수행하는 인공지능 알고리즘으로는 YOLO, SSD, Retinanet 알고리즘이 알려져 있고, 세그멘테이션(Segmentation)을 수행하는 인공지능 알고리즘으로는 DeepLab, U-net 알고리즘이 널리 알려져있다.As artificial intelligence algorithms that perform image classification, DensNet, ResNet, and MobileNet algorithms are widely known, and as artificial intelligence algorithms that perform object detection, YOLO, SSD, and Retinanet algorithms are known, and segmentation. DeepLab and U-net algorithms are widely known as artificial intelligence algorithms that perform (Segmentation).

상기와 같은 알고리즘을 이용하여 설계되는 인공지능 알고리즘이 모듈화되어 인공지능 모듈(131)로 저장되고, 사용자는 모듈 리스트 표시창(91)에 표시된 인공지능 모듈(131)을 선택하여 학습 모델을 설계함으로써, 보다 쉬운 설계가 가능하게 된다.The artificial intelligence algorithm designed using the above algorithm is modularized and stored as the artificial intelligence module 131, and the user selects the artificial intelligence module 131 displayed on the module list display window 91 to design a learning model, Easier design is possible.

여기서, 본 발명의 실시예에 따른 모듈러 화면에는, 도 9에 도시된 바와 같이, 정보 표시창(93)이 마련되는데, 학습 모델 설계부(141)는 정보 표시창(93)을 통해 다양한 정보를 제공하게 된다.Here, on the modular screen according to the embodiment of the present invention, as shown in FIG. 9, an information display window 93 is provided, and the learning model design unit 141 provides various information through the information display window 93. .

학습 모델 설계부(141)는 사용자가 모델 리스트 표시창에 표시된 데이터세트(111), 이미지 프로세싱 모듈(121), 인공지능 모듈(131) 중 어느 하나를 선택하면, 정보 표시창(93)에 해당 데이터세트(111) 또는 모듈에 대한 정보를 표시할 수 있다.When the user selects any one of the dataset 111, the image processing module 121, and the artificial intelligence module 131 displayed on the model list display window, the learning model design unit 141 displays the data set ( 111) Alternatively, information about the module can be displayed.

도 13에서는 이미지 프로세싱 모듈(121) 중 엣지 검출 모듈이 선택된 경우에 정보 표시창(93)에 표시된 정보의 예를 나타내고 있다. 이미지 프로세싱 모듈(121)에 대한 정보로는 도 13에 도시된 바와 같이, 해당 이미지 프로세싱 모듈(121)의 처리 이전과 이후의 이미지가 표시되고, 해당 이미지 프로세싱 모듈(121)의 간략한 정보가 하단에 표시되는 것을 예로 한다. 그리고, 더 많은 정보의 제공을 위해 상세 정보 버튼(More)을 클릭하게 되면, 도 14에 도시된 바와 같이, 해당 이미지 프로세싱 모듈(121)에 대한 보다 상세한 정보가 제공될 수 있다.13 shows an example of information displayed on the information display window 93 when an edge detection module is selected among the image processing modules 121. As information on the image processing module 121, as shown in FIG. 13, images before and after processing by the image processing module 121 are displayed, and brief information of the image processing module 121 is displayed at the bottom. For example, what is displayed. In addition, when the detailed information button (More) is clicked to provide more information, more detailed information on the image processing module 121 may be provided, as shown in FIG. 14.

마찬가지로, 인공지능 모듈(131) 중 어느 하나가 선택되면, 해당 인공지능 모듈(131)의 기능, 주요 용도, 층(Layer) 구조 등에 대한 설명과, 상세 정보 버튼(More)의 클릭을 통한 보다 상세한 정보가 제공될 수 있다.Likewise, when any one of the artificial intelligence modules 131 is selected, a description of the function, main use, and layer structure of the artificial intelligence module 131, and more detailed information by clicking the detailed information button (More) Information can be provided.

이하에서는 모듈러 화면을 통해 학습 모델을 설계하는 과정에 대해 설명한다.Hereinafter, a process of designing a learning model through a modular screen will be described.

사용자가 모듈 리스트 표시창(91)에 표시된 리스트 중 하나를 선택하여 학습 모델 설계창(92)으로 드래그 앤 드롭시키게 되면, 학습 모델 설계창(92)에 드래그 앤 드롭에 대응하여 모듈 아이콘(또는 데이터세트(111) 아이콘)이 생성된다.When the user selects one of the lists displayed on the module list display window 91 and drags and drops it to the learning model design window 92, the module icon (or data set) corresponding to the drag and drop on the learning model design window 92 (111) icon) is created.

도 15는 학습 모델 설계창(92)에 하나의 데이터세트(111), 2개의 이미지 프로세싱 모듈(121), 하나의 인공지능 모듈(131)이 드래그 앤 드롭되어, 데이터세트(111) 아이콘 및 모듈 아이콘이 표시된 상태의 예를 나타내고 있다.FIG. 15 shows that one dataset 111, two image processing modules 121, and one artificial intelligence module 131 are dragged and dropped in the learning model design window 92, and the dataset 111 icon and module An example of an icon is shown.

그리고, 사용자가 마우스 커서를 이용하여, 데이터세트(111) 아이콘, 모듈 아이콘들을 라인 연결시키게 되면, 학습 모델 설계부(141)가 아이콘 간의 라인 연결을 데이터 흐름으로 하여 학습 모델을 생성하게 된다.In addition, when the user connects the icons of the dataset 111 and the module icons by line using the mouse cursor, the learning model design unit 141 generates a learning model using the line connection between icons as a data flow.

도 16은 학습 모델 설계창(92)에 표시된 아이콘들 간에 라인이 연결된 상태를 나타내고 있으며, 학습 모델 설계부(141)는 마우스 커서가 아이콘 위에 위치할 때 라인 연결이 가능한 상태임을 표시하고, 마우스 커서를 이동시켜 다른 아이콘으로 움직이면 두 아이콘 간이 커서의 움직임 방향으로 데이터의 흐름으로 인식하면서 화살표 형태의 라인 연결을 표시하게 된다.16 shows a state in which lines are connected between icons displayed on the learning model design window 92, and the learning model design unit 141 indicates that the line connection is possible when the mouse cursor is placed on the icon, and moves the mouse cursor. When moving to another icon, the two icons are recognized as the flow of data in the direction of the cursor movement, and an arrow-shaped line connection is displayed.

상기와 같이, 드래그 앤 드롭과 아이콘 간의 라인 연결과 같은 간단한 동작 만으로 학습 모델의 설계가 가능하게 되어, 인공지능 분야에 대한 지식이 부족하더라도 보다 쉽게 학습 모델의 설계가 가능하게 된다.As described above, it is possible to design a learning model with only a simple operation such as drag-and-drop and line connection between icons, so that even if knowledge about the field of artificial intelligence is insufficient, it is possible to design a learning model more easily.

한편, 본 발명의 실시예에 따른 클라우드 플랫폼 시스템(100)은, 도 2에 도시된 바와 같이, 복수의 레이어 모듈을 더 포함할 수 있다. 레이어 모듈은 인공지능 알고리즘의 구성에 적용되는 레이어가 기능별로 모듈화되어 저장되는데, 레이어 저장부(170)에 저장된다.Meanwhile, the cloud platform system 100 according to an embodiment of the present invention may further include a plurality of layer modules, as shown in FIG. 2. In the layer module, layers applied to the composition of the artificial intelligence algorithm are modularized and stored for each function, and are stored in the layer storage unit 170.

인공지능 알고리즘은 다수의 레이어의 네트워크 구조로 형성되는데, 인공지능 알고리즘을 구성하기 위한 레이어는 코어 레이어(Core layer), 컨벌루션 레이어(Convolution layer), 풀링 레이어(Pooling Layer), 머지 레이어(Merge layer), 정규화 레이어(Normalization layer)를 포함한다.Artificial intelligence algorithms are formed in a network structure of multiple layers, and the layers to compose the artificial intelligence algorithm are the core layer, convolution layer, pooling layer, and merge layer. , Includes a normalization layer.

여기서, 학습 모델 설계부(141)는 학습 모델 설계창(92)에 표시된 인공지능 모델의 아이콘이 선택되면, 도 17에 도시된 바와 같이, 해당 아이콘과 관련된 기능의 수행을 위한 버튼들이 표시된다. 17a는 개별 실행 버튼(17a)으로 이에 대한 설명은 후술하고, 17b는 해당 인공지능 모델의 설계 구조를 확인 및 수정하기 위한 레이어 진입 버튼(17b)이고, 17c는 해당 아이콘을 삭제하기 위한 삭제 버튼(17c)이다.Here, when the icon of the artificial intelligence model displayed on the learning model design window 92 is selected, the learning model design unit 141 displays buttons for performing a function related to the icon, as shown in FIG. 17. 17a is an individual execution button 17a, which will be described later, 17b is a layer entry button 17b for checking and correcting the design structure of the artificial intelligence model, and 17c is a delete button for deleting the corresponding icon ( 17c).

레이어 진입 버튼(17b)이 클릭되면, 학습 모델 설계부(141)는 도 18에 도시된 바와 같이, 레이어 모듈의 리스트가 표시된 레이어 리스트 표시창(18a)과, 인공지능 설계창(18b)을 그래픽 유저 인터페이스에 표시하게 된다.When the layer entry button 17b is clicked, the learning model design unit 141 displays a layer list display window 18a displaying a list of layer modules and an artificial intelligence design window 18b as shown in FIG. 18 as a graphic user interface. Will be marked on.

또한, 학습 모델 설계부(141)는 전술한 모듈러 화면에서와 같이, 레이어 리스트 표시창(18a)에 표시된 레이어 모듈 또는 레이어 블록이 선택되면, 해당 레이어 모듈 또는 레이어 블록에 대한 정보가 표시되는 레이어 정보 표시창(18c)를 그래픽 유저 인터페이스에 표시할 수 있다. 여기서, 레이어 정보 표시창(18c)는 파라미터 정보가 표시될 수 있는데, 본 발명에서는 파라이터의 수정이 가능하게 마련되는 것을 예로 한다.In addition, the learning model design unit 141, as in the above-described modular screen, when the layer module or layer block displayed on the layer list display window 18a is selected, the layer information display window ( 18c) can be displayed in a graphical user interface. Here, the layer information display window 18c may display parameter information. In the present invention, it is assumed that the parameter can be modified.

레이어 리스트 표시창(18a)에는 복수의 레이어의 리스트가 상술한 그룹별로 분리되어 표시된다. 도 19에 도시된 바와 같이, 레이어 리스트 표시창(18a)의 상단에 위치한 아이콘 버튼을 클릭하면, 각각의 그룹에 해당하는 리스트가 레이어 리스트 표시창(18a)에 표시된다.In the layer list display window 18a, a list of a plurality of layers is displayed separately for each group described above. As shown in FIG. 19, when an icon button located at the top of the layer list display window 18a is clicked, a list corresponding to each group is displayed on the layer list display window 18a.

여기서, 사용자가 레이어 모듈의 리스트 중 어느 하나를 선택하여, 드래그 앤 드롭을 통해 인공지능 설계창(18b)으로 이동시키게 되면, 학습 모델 설계부(141)는 해당 레이어 모듈의 아이콘을 인공지능 설계창(18b)에 표시하게 된다.Here, when the user selects any one of the layer module list and moves it to the artificial intelligence design window 18b through drag and drop, the learning model design unit 141 displays the icon of the layer module in the artificial intelligence design window ( 18b).

그리고, 학습 모델의 설계에서와 마찬가지로, 인공지능 설계창(18b)에 표시된 레이어 아이콘들을 라인 연결시키면, 학습 모델 설계부(141)가 레이어 아이콘들 간의 라인 연결을 데이터의 흐름으로 하여 인공지능 모듈(131)을 생성하게 된다.And, as in the design of the learning model, when the layer icons displayed on the artificial intelligence design window 18b are connected by line, the learning model design unit 141 uses the line connection between the layer icons as a data flow, and the artificial intelligence module 131 ) Will be created.

사용자는 레이어 리스트 표시창(18a)과 인공지능 설계창(18b)을 이용하여, 자신이 직접 설계한 인공지능 모듈(131)을 생성할 수 있고, 이를 공유하는 경우 다른 사용자가 이를 활용할 수 있다. 또한, 자신도 또 다른 학습 모델을 설계할 때, 기존에 생성해두었던 인공지능 모듈(131)을 재사용할 수 있고, 타인이 설계한 인공지능 모듈(131)을 사용할 수 있는 등, 다양한 인공지능 모듈(131)의 생산, 공유 및 재사용이 가능하게 된다.A user can create an artificial intelligence module 131 designed by himself using the layer list display window 18a and the artificial intelligence design window 18b, and when sharing this, other users can utilize it. In addition, when designing another learning model, it is possible to reuse the artificial intelligence module 131 that was previously created, and to use the artificial intelligence module 131 designed by others. (131) can be produced, shared and reused.

또한, 본 발명에 따른 클라우드 플랫폼 시스템(100)은 적어도 2 이상의 레이어로 구성되되 인공지능 모듈(131)의 생성을 위해 모듈화된 복수의 레이어 블록을 더 포함할 수 있다.In addition, the cloud platform system 100 according to the present invention may be configured with at least two layers, but may further include a plurality of modularized layer blocks to generate the artificial intelligence module 131.

여기서, 학습 모델 설계부(141)는 레이어 리스트 표시창(18a)에 레이어 블록의 리스트도 함께 표시할 수 있으며, 레이어 리스트 표시창(18a)에 표시된 레이어 모듈의 리스트의 인공지능 설계창(18b)으로의 드래그 앤 드롭, 라인 연결을 통해 레이어 블록의 생성을 지원할 수 있다.Here, the learning model design unit 141 may also display a list of layer blocks on the layer list display window 18a, and drag the list of layer modules displayed on the layer list display window 18a to the artificial intelligence design window 18b. Layer block creation can be supported through n-drop and line connection.

또한, 레이어 블록은 다수의 레이어 모듈과 다수의 레이어 블록의 드래그 앤 드롭, 라인 연결을 통해 생성될 수 있다. 즉, 레이어 모듈의 네트워크 구조의 설계로 레이어 블록의 모듈화가 가능하고, 레이어 모듈과 레이어 블록의 네트워크 구조의 설계로 레이어 블록의 설계가 가능하고, 레이어 모듈 및 레이어 블록의 네트워크 구조의 설계로 인공지능 모델의 설계 및 제작이 가능한 구조가 된다.In addition, the layer block may be generated through drag and drop of a plurality of layer modules and a plurality of layer blocks, and line connection. In other words, it is possible to modularize the layer block by designing the network structure of the layer module, the design of the layer block is possible by designing the network structure of the layer module and the layer block, and artificial intelligence by designing the network structure of the layer module and the layer block. It becomes a structure that can design and manufacture a model

이와 같은 설계 구조는 최종적인 인공지능 모듈(131)의 설계 구조를 시각적으로 간소하게 확인하는 것이 가능하며, 세부 구조를 찾아 들어가는 형태로 구조의 파악이 가능하게 되며, 네트워크 구조, 즉 레이어 모듈, 레이어 블록 및 라인 연결 구조를 쉽게 이해할 수 있다.In such a design structure, it is possible to visually and simply check the design structure of the final artificial intelligence module 131, and it is possible to grasp the structure in the form of finding and entering a detailed structure, and the network structure, that is, a layer module, a layer Block and line connection structure can be easily understood.

즉, 도 17에 도시된 학습 모델의 네트워크 구조에서 인공지능 모델의 세부 네트워크 구조는, 도 18에 도시된 바와 같다. 그리고 도 18에 도시된 레이어 블록인 '#2 Blackbone_DenseNet121'은 도 20에 도시된 바와 같은 세부 네트워크 구조를 가지며, 도 20에 도시된 레이어 블록인 '#12 dense_block'은 도 21에 도시된 바와 같은 세부 네트워크 구조를 갖는다.That is, the detailed network structure of the artificial intelligence model in the network structure of the learning model shown in FIG. 17 is as shown in FIG. 18. In addition, the layer block'#2 Blackbone_DenseNet121' shown in FIG. 18 has a detailed network structure as shown in FIG. 20, and the layer block'#12 dense_block' shown in FIG. It has a network structure.

여기서, 사용자가 인공지능 설계창(18b)을 통해 생성한 인공지능 모듈(131), 레이어 블록을 저장 또는 공유를 설정하게 되면, 학습 모델 설계부(141)는 레이어 리스트 표시창(18a)에 해당 인공지능 모듈(131) 또는 레이어 블록의 리스트를 업데이트하여 다른 사용자가 사용 하능하게 할 수 있다.Here, when the user sets the artificial intelligence module 131 created through the artificial intelligence design window 18b and the layer block to store or share, the learning model design unit 141 displays the corresponding artificial intelligence in the layer list display window 18a. The module 131 or the list of layer blocks can be updated so that other users can use them.

즉, 사용자는 인공지능 알고리즘을 구성하는 기본적인 레이어 알고리즘이 모듈화되어 있는 레이어 모듈을 이용하여, 다양한 형태의 레이어 블록을 설계할 수 있고, 레이어 모듈과 레이어 블록의 네트워크 설계로 다른 레이어 블록을 설계할 수 있으며, 이와 같은 방법을 통해 최종적인 인공지능 모듈(131)을 생성할 수 있게 된다.In other words, a user can design various types of layer blocks by using the layer module in which the basic layer algorithm constituting the artificial intelligence algorithm is modularized, and other layer blocks can be designed with the layer module and the network design of the layer block. In addition, it is possible to generate the final artificial intelligence module 131 through such a method.

또한, 상술한 바와 같이, 사용자 간의 레이어 블록, 인공지능 모듈(131) 등의 공유를 통해, 타인이 설계한 레이어 블록이나 인공지능 모듈(131)을 활용하여 재설계가 가능하게 되며, 자신이 설계한 인공지능 모듈(131)이나 레이어 블록도 재사용이 가능하게 되어, 새로운 학습 모델의 설계에 쉽게 활용할 수 있는 환경을 제공하게 된다.In addition, as described above, it is possible to redesign by using layer blocks or artificial intelligence modules 131 designed by others through sharing of layer blocks and artificial intelligence modules 131 between users, One artificial intelligence module 131 or layer block can also be reused, providing an environment that can be easily utilized for designing a new learning model.

다시, 도 6을 참조하여 설명하면, 학습 모델 설계창(92)을 통해, 상술한 바와 같은 과정을 통해 학습 모델이 설계된 후, 학습 모델 설계창(92)에 마련된 'RUN' 버튼을 클릭하게 되면, 판독 모델 생성부(142)가 학습 모델 설계부(141)에 의해 설계된 학습 모델을 학습시켜 판독 모델을 생성하게 된다.Again, referring to FIG. 6, after the learning model is designed through the above-described process through the learning model design window 92, when the'RUN' button provided in the learning model design window 92 is clicked, , The reading model generation unit 142 learns the learning model designed by the learning model design unit 141 to generate the reading model.

판독 모델 생성부(142)에 의해 정상적인 학습이 수행되면, 도 22에 도시된 바와 같이, 학습 모델 설계창(92)에 표시되어 있던 아이콘이 정상 동작이 완료된 것을 시각적으로 확인 가능하게 변화되는데, 본 발명에서는 회색에서 녹색으로 변경되고 아이콘에 체크 표시가 나타나는 것으로 이를 시각화하는 것을 예로 한다.When normal learning is performed by the reading model generation unit 142, the icon displayed on the learning model design window 92 changes to visually confirm that the normal operation has been completed, as shown in FIG. In the invention, it is an example of visualizing this by changing from gray to green and displaying a check mark on the icon.

반면, 학습에 오류가 발생하는 경우, 오류 메시지와 함께 오류가 발생한 이미지 프로세싱 모듈(121) 또는 인공지능 모듈(131)의 아이콘을 붉은색으로 표시하는 등의 형태로 오류를 시각적으로 표시할 수 있다.On the other hand, when an error occurs in learning, the error may be visually displayed in the form of displaying an error message and an icon of the image processing module 121 or the artificial intelligence module 131 in red. .

여기서, 본 발명에 따른 판독 모델 생성부(142)는 전체 학습 실행 모드와 개별 모듈 실행 모드 중 어느 하나로 동작하도록 마련될 수 있다. 전체 학습 실행 모드는 상술한 바와 같이 'RUN' 버튼의 클릭을 통해 학습 모델 설계부(141)에 표시되어 있는 아이콘과 라인 연결에 기반하여, 라인 연결을 데이터의 흐름으로 하여 전체를 순차적으로 학습시키는 과정을 의미한다.Here, the read model generation unit 142 according to the present invention may be provided to operate in one of a full learning execution mode and an individual module execution mode. The whole learning execution mode is a process of sequentially learning the whole by using the line connection as a data flow based on the icon and line connection displayed in the learning model design unit 141 by clicking the'RUN' button as described above. Means.

반면, 개별 모듈 실행 모드는 도 17에 도시된 바와 같이, 이미지 프로세싱 모듈(121) 및 인공지능 모듈(131)의 아이콘에 커서를 가져갈 때 나타나는 개별 실행 버튼(17a)의 클릭을 통해 동작 가능하다.On the other hand, the individual module execution mode can be operated by clicking the individual execution button 17a that appears when the cursor is placed on the icons of the image processing module 121 and the artificial intelligence module 131 as shown in FIG. 17.

여기서, 판독 모델 생성부(142)는 특정 아이콘에 커서를 ??긴 상태에서 해당 아이콘에 대해 활성화된 개별 실행 버튼(17a)이 클릭되어 개별 모듈 실행 모드가 실행되면, 데이터 아이콘에 대응하는 데이터세트(111)가 라인 연결에 따른 데이터 흐름에 따라 개별 실행 버튼(17a)이 선택된 아이콘에 대응하는 이미지 프로세싱 모듈(121) 또는 인공지능 모듈(131)까지만을 실행시킨다.Here, when the individual execution button 17a activated for the corresponding icon is clicked and the individual module execution mode is executed while the cursor is held on a specific icon, the reading model generation unit 142 sets a data set corresponding to the data icon. The individual execution button 17a executes only the image processing module 121 or the artificial intelligence module 131 corresponding to the selected icon according to the data flow according to the line connection.

예를 들어, 도 22의 학습 모델 설계창(92) 내의 아이콘 'Color to Grayscale'의 개별 실행 버튼(17a)을 클릭하게 되면, 판독 모델 생성부(142)는 뇌출혈 CT에 해당하는 데이터세트(111)를 이용하여 'Resize'와 'Color to Grayscale'에 해당하는 이미지 프로세싱 모듈(121) 만을 순차적으로 실행시키게 된다.For example, if the individual execution button 17a of the icon'Color to Grayscale' in the learning model design window 92 of FIG. 22 is clicked, the reading model generation unit 142 is a data set 111 corresponding to the cerebral hemorrhage CT. ) Is used to sequentially execute only the image processing module 121 corresponding to'Resize' and'Color to Grayscale'.

이를 통해, 학습 모델의 설계 과정에서 전체 설계가 완료된 상태에서 학습을 진행하지 않고, 예를 들어, 전처리 중 'Resize' 만을 실행하여 정상적으로 동작하는지 체크할 수 있어, 설계 과정에서 발생하는 오류를 미리 체크하여 설계 과정에 소요되는 시간을 현저하게 줄일 수 있게 된다.Through this, in the design process of the learning model, it is possible to check whether it operates normally by executing'Resize' only during pre-processing without proceeding with the learning when the entire design is completed, so that errors occurring in the design process are checked in advance. Thus, the time required for the design process can be significantly reduced.

또한, 판독 모델 생성부(142)는 전체 학습 실행 모드와 개별 모듈 실행 모드로 동작할 때, 이미지 프로세싱 모듈(121) 및 인공지능 모듈(131) 단위로 처리 결과를 저장할 수 있다.In addition, the read model generation unit 142 may store processing results in units of the image processing module 121 and the artificial intelligence module 131 when operating in the entire learning execution mode and the individual module execution mode.

그리고, 판독 모델 생성부(142)는 학습 모델 설계창(92)을 통해 이미지 프로세싱 모듈(121)과 인공지능 모듈(131) 중 적어도 하나가 변경된 후 전체 학습 실행 모드 또는 개별 모드 실행 모드 중 어느 하나가 실행될 때, 라인 연결에 따른 데이터 흐름에서 변경되지 않은 라인 연결까지의 이전 처리 결과를 불러들여 적용함으로써, 이미 실행되었던 이미지 프로세싱 모듈(121) 또는 인공지능 모듈(131)의 재실행에 따른 시간을 절약할 수 있게 된다.In addition, the read model generation unit 142 is either the entire learning execution mode or the individual mode execution mode after at least one of the image processing module 121 and the artificial intelligence module 131 is changed through the learning model design window 92. When is executed, the previous processing result from the data flow according to the line connection to the unchanged line connection is retrieved and applied, thereby saving time according to the re-execution of the image processing module 121 or the artificial intelligence module 131 that has already been executed. You can do it.

도 22를 참조하여 설명하면, 사용자가 'Resize'를 개별 모듈 실행 모드로 실행시킨 수, 'Color to Grayscale' 및 'VGG16'을 설계하여 'Color to Grayscale'를 개별 모듈 실행 모드로 실행하거나 'RUN'버튼의 클릭을 통해 전체 학습 실행 모드로 실행하게 되면, 이미 실행되어 결과가 저장되어 있는 'Resize'는 이전 처리 결과를 불러들여 적용하고, 'Color to Grayscale' 및/또는 'VGG16' 만이 실행될 수 있다.Referring to FIG. 22, the number of users executing'Resize' as an individual module execution mode, designing'Color to Grayscale' and'VGG16' to execute'Color to Grayscale' as an individual module execution mode or'RUN When executing in full learning execution mode through the click of a button,'Resize', which has already been executed and the result saved, loads and applies the previous processing result, and only'Color to Grayscale' and/or'VGG16' can be executed have.

또한, 도 22에 도시된 바와 같이, 전체 학습 실행 모드로 실행이 완료된 후, 'Color to Grayscale'를 삭제하고 다른 이미지 프로세싱 모듈(121)로 대체한 후, 전체 학습 실행 모드나 개별 모듈 실행 모드가 실행되면, 마찬가지로 'Resize'는 이전 처리 결과를 불러들여 적용하게 된다. 여기서, 데이터 흐름에 따라 변경된 모듈 이후의 모듈은 수정되지 않더라도 이전 단계의 처리 결과가 변화되기 때문에 다시 실행되는 것은 당연하다.In addition, as shown in FIG. 22, after the execution is completed in the full learning execution mode,'Color to Grayscale' is deleted and replaced with another image processing module 121, and then the whole learning execution mode or the individual module execution mode is changed. When executed, similarly,'Resize' loads and applies the previous processing result. Here, even if the module after the module changed according to the data flow is not modified, the processing result of the previous step is changed, so it is natural that the module is executed again.

한편, 학습 모델 설계부(141)는 학습 모델 설계창(92)에 표시된 이미지 프로세싱 모듈(121)에 대응하는 모듈 아이콘이 선택되는 경우, 도 23에 도시된 바와 같이, 해당 이미지 프로세싱 모듈(121)의 이미지 프로세싱 전과 후의 이미지를 해당 모듈 아이콘 주변 중 일 영역, 예를 들어, 상단에 표시할 수 있다.On the other hand, when the module icon corresponding to the image processing module 121 displayed on the learning model design window 92 is selected, the learning model design unit 141 is, as shown in FIG. 23, of the corresponding image processing module 121. An image before and after image processing may be displayed in an area around a corresponding module icon, for example, at the top.

이를 통해, 사용자는 간단한 마우스 동작 만으로, 현재 자신이 설계한 학습 모델의 전처리 과정에서, 각각의 이미지 프로세싱 모듈(121)에 의해 처리된 이미지의 전과 후의 이미지를 쉽게 확인할 수 있다.Through this, the user can easily check the images before and after the images processed by each image processing module 121 in the preprocessing process of the currently designed learning model with only a simple mouse movement.

여기서, 학습 모델 설계부(141)는 이미지 프로세싱 전과 후의 이미지가 해당 모듈 아이콘 주변에 표시된 상태에서 마우스의 스크롤이 인식되는 경우, 해당 데이터세트(111)에 포함된 이미지를 변경하여 이미지 프로세싱 전과 후의 이미지를 표시할 수 있다.Here, when the mouse scroll is recognized while images before and after image processing are displayed around the corresponding module icon, the learning model design unit 141 changes the images included in the dataset 111 to change the images before and after image processing. Can be displayed.

또한, 학습 모델 설계부(141)는 학습 모델 설계창(92)에 표시된 이미지 프로세싱 모듈(121)에 대응하는 모듈 아이콘이 선택된 경우, 데이터세트(111)를 구성하는 의료영상의 리스트가 표시되는 데이터 리스트 표시창(94)과, 데이터 리스트 표시창(94)에 표시된 리스트 중 어느 하나가 선택될 때 해당 리스트의 의료영상, 즉 이미지가 표시되는 영상 표시창(95)을 그래픽 유저 인터페이스에 표시할 수 있다.In addition, when the module icon corresponding to the image processing module 121 displayed on the learning model design window 92 is selected, the learning model design unit 141 displays a list of medical images constituting the dataset 111. When any one of the display window 94 and the list displayed on the data list display window 94 is selected, a medical image of the corresponding list, that is, an image display window 95 on which an image is displayed, may be displayed on the graphic user interface.

그리고, 학습 모델 설계부(141)는 영상 표시창(95)에 표시되는 의료영상을 이미지 프로세싱 모듈(121)의 전처리 전과 후의 영상을 함께 표시할 수 있다. 이를 통해, 사용자는 데이터세트(111)를 구성하는 의료영상 하나 하나를 직접 선택하고, 전처리 결과를 시각적으로 확인할 수 있게 된다.In addition, the learning model design unit 141 may display a medical image displayed on the image display window 95 together with an image before and after pre-processing by the image processing module 121. Through this, the user can directly select each medical image constituting the dataset 111 and visually check the preprocessing result.

한편, 본 발명에 따른 학습 모델 설계부(141)는 학습 모델 설계창(92)에 표시된 이미지 프로세싱 모듈(121)에 대응하는 아이콘 중 어느 하나가 선택되면, 해당 이미지 프로세싱 모듈(121)의 상세 정보가 표시되는 정보 표시창(93)을 그래픽 유저 인터페이스에 표시할 수 있다. 도 24에는 이미지 프로세싱 모듈(121)이 선택되었을 때의 정보 표시창(93)의 예를 나타내고 있으며, 도 9는 모듈러 화면의 초기 정보 표시창(93)의 예를 나타낸 것이다.Meanwhile, when any one of the icons corresponding to the image processing module 121 displayed on the learning model design window 92 is selected, the learning model design unit 141 according to the present invention displays detailed information of the image processing module 121 The displayed information display window 93 can be displayed on a graphic user interface. FIG. 24 shows an example of the information display window 93 when the image processing module 121 is selected, and FIG. 9 shows an example of the initial information display window 93 of the modular screen.

그리고, 정보 표시창(93)에는 상세 정보(Information)와 함께 파라미터 정보(Parameter)가 표시되는데, 파라미터 정보는 해당 프로세싱 모듈의 전처리 과정을 결정하게 된다.In addition, parameter information is displayed on the information display window 93 along with detailed information, and the parameter information determines a pre-processing process of the corresponding processing module.

예를 들어, 엣지 검출(Edge Detection)의 파라미터는 최대 문턱치(Threshold_max)와 최소 문턱치(Threshold_min)를 포함하고, 리샘플링(Resampling)은 스페이싱(Spacing) 값을 포함하고, 감마 보정(Gamma Correction)은 감마값을 포함하고, 히스토그램 평활화(Histogram Equalization)는 커널 사이즈(Kernel size)와 한계값(Limit)을 포함할 수 있다.For example, the parameters of edge detection include a maximum threshold (Threshold_max) and a minimum threshold (Threshold_min), resampling includes a spacing value, and gamma correction includes a gamma value. Including, the histogram equalization may include a kernel size and a limit value.

여기서, 학습 모델 설계부(141)는 정보 표시창(93)에 표시된 파라미터 정보의 값을 변경 가능하도록 설정됨으로써, 사용자는 모듈화된 이미지 프로세싱 모듈(121)을 사용하더라도 그 파라미터 값을 변경함으로써, 자신만의 이미지 프로세싱 모듈(121)을 생성할 수 있게 된다. 이 때, 판독 모델 생성부(142)는 이미지 프로세싱 모듈(121)을 실행할 때, 변경된 파라미터를 적용하여 실행하게 된다.Here, the learning model design unit 141 is set to be able to change the value of the parameter information displayed on the information display window 93, so that the user can change the parameter value even if the modularized image processing module 121 is used, The image processing module 121 can be created. At this time, when the read model generation unit 142 executes the image processing module 121, it is executed by applying the changed parameters.

이를 통해, 상술한 바와 같이, 개별 모듈 실행 모드로 파라미터를 변경해가면서 이미지 프로세싱 결과를 바로 확인할 수 있게 되어, 시간적으로 보다 효율적인 학습 모델의 설계가 가능하게 된다.Through this, as described above, it is possible to immediately check the image processing result while changing the parameter to the individual module execution mode, thereby enabling the design of a more efficient learning model in time.

상기와 같이, 학습 모델의 설계와, 학습을 통한 판독 모델의 생성이 완료되면, 학습 결과, 즉 가중치와 같은 파라미터가 적용된 최종적인 인공지능 모델이 생성되고, 의료영상 판독부(150)는 최종적으로 생성된 인공지능 모델을 이용하여 판독 대상인 의료영상을 판독하게 된다.As described above, when the design of the learning model and the generation of the reading model through learning are completed, a learning result, that is, a final artificial intelligence model to which parameters such as weights are applied, is generated, and the medical image reading unit 150 is finally The medical image to be read is read using the created artificial intelligence model.

비록 본 발명의 몇몇 실시예들이 도시되고 설명되었지만, 본 발명이 속하는 기술분야의 통상의 지식을 가진 당업자라면 본 발명의 원칙이나 정신에서 벗어나지 않으면서 본 실시예를 변형할 수 있음을 알 수 있을 것이다. 발명의 범위는 첨부된 청구항과 그 균등물에 의해 정해질 것이다.Although some embodiments of the present invention have been shown and described, those skilled in the art of ordinary skill in the art to which the present invention pertains will appreciate that the present embodiments can be modified without departing from the principles or spirit of the present invention. . The scope of the invention will be determined by the appended claims and their equivalents.

100 : 클라우드 플랫폼 시스템
111 : 데이터세트 121 : 이미지 프로세싱 모듈
131 : 인공지능 모듈 141 : 학습 모델 설계부
142 : 판독 모델 생성부 150 : 의료영상 판독부
160 : 모델 저장부 170 : 레이어 저장부
100: cloud platform system
111: dataset 121: image processing module
131: artificial intelligence module 141: learning model design unit
142: reading model generation unit 150: medical image reading unit
160: model storage unit 170: layer storage unit

Claims (6)

의료영상 판독을 위한 클라우드 플랫폼 시스템에 있어서,
의료영상의 전처리를 수행하도록 기 프로그래밍되어 모듈화된 복수의 이미지 프로세싱 모듈과,
인공지능 알고리즘이 기 프로그래밍되어 모듈화된 복수의 인공지능 모듈과,
신체 부위, 모달리티의 유형, 판록 대상 질환의 유형, 이미지 차원의 유형 중 적어도 하나에 따라 분류된 복수의 데이터세트가 저장된 데이터세트 저장부와,
웹 브라우저를 통해 접속한 사용자 단말에 인공지능 기반의 학습 모델의 설계를 위한 그래픽 유저 인터페이스를 제공하는 학습 모델 설계부와,
상기 학습 모델 설계부에 의해 설계된 학습 모델을 학습시켜 판독 모델을 생성하는 판독 모델 생성부를 포함하며;
상기 학습 모델 설계부는
복수의 상기 데이터세트, 복수의 상기 이미지 프로세싱 모듈의 리스트 및 복수의 상기 인공지능 모듈의 리스트가 표시된 모듈 리스트 표시창과, 학습 모델 설계창을 상기 그래픽 유저 인터페이스에 표시하고,
상기 모듈 리스트 표시창에 표시된 리스트가 상기 학습 모델 설계창으로 드래그 앤 드롭되는 경우, 상기 학습 모델 설계창에 드래그 앤 드롭에 대응하여 데이터 아이콘 및 모듈 아이콘을 생성하고,
상기 데이터 아이콘과 상기 모듈 아이콘들이 라인 연결되는 경우, 상기 데이터 아이콘 및 모듈 아이콘들 간의 라인 연결을 데이터의 흐름으로 하여 상기 학습 모델을 생성하고;
상기 판독 모델 생성부는 상기 데이터 아이콘에 대응하는 데이터세트를 상기 학습 모델 설계부에 의해 생성된 상기 학습 모델에 학습시켜 상기 판독 모델을 생성하고;
상기 학습 모델 설계부는
상기 학습 모델 설계창에 표시된 상기 이미지 프로세싱 모듈에 대응하는 모듈 아이콘이 선택된 경우, 해당 이미지 프로세싱 모듈의 이미지 프로세싱 전과 후의 이미지를 해당 모듈 아이콘 주변 중 일 영역에 표시하는 것을 특징으로 하는 의료영상 판독을 위한 클라우드 플랫폼 시스템.
In the cloud platform system for reading medical images,
A plurality of image processing modules pre-programmed and modularized to perform pre-processing of medical images,
A plurality of artificial intelligence modules that are preprogrammed and modularized with artificial intelligence algorithms,
A data set storage unit storing a plurality of data sets classified according to at least one of a body part, a type of modality, a type of a disease to be marked, and a type of image dimension;
A learning model design unit that provides a graphic user interface for designing an artificial intelligence-based learning model to a user terminal accessed through a web browser;
A reading model generation unit for generating a reading model by learning the learning model designed by the learning model design unit;
The learning model design unit
A module list display window in which a plurality of the datasets, a list of the plurality of image processing modules, and a list of the plurality of artificial intelligence modules are displayed, and a learning model design window are displayed on the graphic user interface,
When the list displayed on the module list display window is dragged and dropped into the learning model design window, a data icon and a module icon are created in response to the drag and drop in the learning model design window,
When the data icon and the module icons are line-connected, generating the learning model by using a line connection between the data icon and the module icons as a data flow;
The read model generation unit generates the read model by learning a data set corresponding to the data icon on the learning model generated by the learning model design unit;
The learning model design unit
When a module icon corresponding to the image processing module displayed in the learning model design window is selected, images before and after image processing of the corresponding image processing module are displayed in one area around the module icon. Cloud platform system.
제1항에 있어서,
상기 학습 모델 설계부는
상기 학습 모델 설계창에 표시된 상기 이미지 프로세싱 모듈에 대응하는 모듈 아이콘이 선택된 경우, 상기 데이터세트를 구성하는 의료영상의 리스트가 표시되는 데이터 리스트 표시창과, 상기 데이터 리스트 표시창에 표시된 리스트 중 어느 하나가 선택될 때 해당 리스트의 의료영상이 표시되는 영상 표시창을 상기 그래픽 유저 인터페이스에 표시하고,
상기 영상 표시창에 표시되는 의료영상은 상기 이미지 프로세싱 모듈의 전처리 전과 후의 영상이 함께 표시되는 것을 특징으로 하는 의료영상 판독을 위한 클라우드 플랫폼 시스템.
The method of claim 1,
The learning model design unit
When the module icon corresponding to the image processing module displayed in the learning model design window is selected, one of a data list display window displaying a list of medical images constituting the data set and a list displayed in the data list display window is selected. When a medical image of the list is displayed, an image display window is displayed on the graphic user interface,
The medical image displayed on the image display window is a cloud platform system for reading medical images, wherein images before and after pre-processing by the image processing module are displayed together.
제1항에 있어서,
상기 학습 모델 설계부는 상기 학습 모델 설계창에 표시된 상기 이미지 프로세싱 모듈에 대응하는 모듈 아이콘 중 하나가 선택되는 경우, 해당 이미지 프로세싱 모듈의 상세 정보가 표시되는 정보 표시창을 상기 그래픽 유저 인터페이스에 표시하며;
상기 정보 표시창에 표시되는 상세 정보는 해당 이미지 프로세싱 모듈의 전처리 과정을 결정하는 파라미터 정보를 포함하되, 파라미터 값의 변경이 가능하도록 설정되는 것을 특징으로 하는 의료영상 판독을 위한 클라우드 플랫폼 시스템.
The method of claim 1,
When one of the module icons corresponding to the image processing module displayed on the learning model design window is selected, the learning model design unit displays an information display window displaying detailed information of the image processing module on the graphic user interface;
The detailed information displayed on the information display window includes parameter information that determines a pre-processing process of a corresponding image processing module, and is set to allow a parameter value to be changed.
제3항에 있어서,
상기 정보 표시창에는 해당 이미지 프로세싱 모듈에 의한 전처리 전과 후의 대표 이미지가 표시되는 것을 특징으로 하는 의료영상 판독을 위한 클라우드 플랫폼 시스템.
The method of claim 3,
A cloud platform system for reading medical images, wherein representative images before and after pre-processing by a corresponding image processing module are displayed on the information display window.
제1항에 있어서,
상기 모듈 리스트 표시창에 표시되는 복수의 상기 이미지 프로세싱 모듈의 리스트는 복수의 전처리 기능별 그룹으로 구분되어 표시되며;
상기 전처리 기능별 그룹은
8비트 이상의 컬러 이미지에서 동작하는 이미지 프로세싱 모듈들의 리스트가 표시되는 컬러 전처리 그룹과,
8비트의 흑백 이미지에서 동작하는 이미지 프로세싱 모듈들의 리스트가 표시되는 그레이 스케일 전처리 그룹과,
1비트 흑백 이미지에서 동작하는 이미지 프로세싱 모듈들의 리스트가 표시되는 바이너리 전처리 그룹 중 적어도 2이상을 포함하는 것을 특징으로 하는 의료영상 판독을 위한 클라우드 플랫폼 시스템.
The method of claim 1,
A list of the plurality of image processing modules displayed on the module list display window is divided into groups for each of a plurality of preprocessing functions and displayed;
The groups by preprocessing function above are
A color preprocessing group that displays a list of image processing modules operating on 8-bit or larger color images, and
A gray scale preprocessing group that displays a list of image processing modules operating on an 8-bit monochrome image,
A cloud platform system for reading medical images, comprising at least two of a binary preprocessing group in which a list of image processing modules operating on a 1-bit monochrome image is displayed.
제1항에 있어서,
상기 학습 모델 설계부는
이미지 프로세싱 전과 후의 이미지가 해당 모듈 아이콘 주변에 표시된 상태에서 마우스의 스크롤이 인식되는 경우, 해당 데이터세트에 포함된 이미지를 변경하여 이미지 프로세싱 전과 후의 이미지를 표시하는 것을 특징으로 하는 의료영상 판독을 위한 클라우드 플랫폼 시스템.
The method of claim 1,
The learning model design unit
Cloud for medical image reading, characterized in that when a mouse scroll is recognized while images before and after image processing are displayed around the corresponding module icon, the image included in the data set is changed to display images before and after image processing. Platform system.
KR1020200045743A 2020-04-16 2020-04-16 Ai-based cloud platform system for diagnosing medical image KR102179586B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200045743A KR102179586B1 (en) 2020-04-16 2020-04-16 Ai-based cloud platform system for diagnosing medical image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200045743A KR102179586B1 (en) 2020-04-16 2020-04-16 Ai-based cloud platform system for diagnosing medical image

Publications (1)

Publication Number Publication Date
KR102179586B1 true KR102179586B1 (en) 2020-11-18

Family

ID=73697484

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200045743A KR102179586B1 (en) 2020-04-16 2020-04-16 Ai-based cloud platform system for diagnosing medical image

Country Status (1)

Country Link
KR (1) KR102179586B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4024406A1 (en) 2020-12-30 2022-07-06 Kazaam Lab s.r.l. Analytical platform for the provision of software services on the cloud
KR20230068704A (en) 2021-11-11 2023-05-18 (주)지케스 Learning data integrated management platform system based on artificial intelligence
KR20230074354A (en) * 2021-11-19 2023-05-30 이종현 Electronic device detecting dangerous object on x-ray image based on artificial intelligence model and operating method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150085462A (en) * 2014-01-15 2015-07-23 삼성전자주식회사 Medical imaging apparatus and medical image processing method thereof
US20170213132A1 (en) * 2016-01-27 2017-07-27 Bonsai AI, Inc. Multiple user interfaces of an artificial intelligence system to accommodate different types of users solving different types of problems with artificial intelligence

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150085462A (en) * 2014-01-15 2015-07-23 삼성전자주식회사 Medical imaging apparatus and medical image processing method thereof
US20170213132A1 (en) * 2016-01-27 2017-07-27 Bonsai AI, Inc. Multiple user interfaces of an artificial intelligence system to accommodate different types of users solving different types of problems with artificial intelligence

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4024406A1 (en) 2020-12-30 2022-07-06 Kazaam Lab s.r.l. Analytical platform for the provision of software services on the cloud
KR20230068704A (en) 2021-11-11 2023-05-18 (주)지케스 Learning data integrated management platform system based on artificial intelligence
KR20230074354A (en) * 2021-11-19 2023-05-30 이종현 Electronic device detecting dangerous object on x-ray image based on artificial intelligence model and operating method thereof
KR102594184B1 (en) * 2021-11-19 2023-10-27 이종현 Electronic device detecting dangerous object on x-ray image based on artificial intelligence model and operating method thereof

Similar Documents

Publication Publication Date Title
KR102150647B1 (en) Ai-based cloud platform system for diagnosing medical image
Nazir et al. Survey of explainable artificial intelligence techniques for biomedical imaging with deep neural networks
US20230106440A1 (en) Content based image retrieval for lesion analysis
KR102179586B1 (en) Ai-based cloud platform system for diagnosing medical image
KR102179584B1 (en) Ai-based cloud platform system for diagnosing medical image
US10692602B1 (en) Structuring free text medical reports with forced taxonomies
WO2018222755A1 (en) Automated lesion detection, segmentation, and longitudinal identification
CN109559300A (en) Image processing method, electronic equipment and computer readable storage medium
KR102460257B1 (en) Method or apparatus for providing diagnostic results
CN112348908A (en) Shape-based generative countermeasure network for segmentation in medical imaging
Ogiela et al. Natural user interfaces in medical image analysis
CN111723817A (en) Pulmonary nodule auxiliary detection method
Saraf et al. Deep learning challenges in medical imaging
KR102179588B1 (en) Ai-based cloud platform system for diagnosing medical image
KR102179587B1 (en) Ai-based cloud platform system for diagnosing medical image
KR102212966B1 (en) Ai-based cloud platform system for diagnosing medical image where estimated runtime of each layer are displayed
Shen et al. Multicontext multitask learning networks for mass detection in mammogram
KR20220074442A (en) Method for providing information to determine disease
KR102179585B1 (en) Ai-based cloud platform system for diagnosing medical image
US20230377195A1 (en) Reinforcement learning to perform localization, segmentation, and classification on biomedical images
Verma et al. Deep neural network in medical image processing
KR20220050014A (en) User interface for video analysis
KR102569976B1 (en) Method for processing medical image
Mudduluru Developing and Applying Hybrid Deep Learning Models for Computer-Aided Diagnosis of Medical Image Data
Shen Characterizing Pulmonary Nodules using Machine and Deep Learning Methods to Improve Lung Cancer Diagnosis

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant