WO2023090091A1 - 画像処理装置及び内視鏡システム - Google Patents

画像処理装置及び内視鏡システム Download PDF

Info

Publication number
WO2023090091A1
WO2023090091A1 PCT/JP2022/039847 JP2022039847W WO2023090091A1 WO 2023090091 A1 WO2023090091 A1 WO 2023090091A1 JP 2022039847 W JP2022039847 W JP 2022039847W WO 2023090091 A1 WO2023090091 A1 WO 2023090091A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information
recognizer
observation
instruction
Prior art date
Application number
PCT/JP2022/039847
Other languages
English (en)
French (fr)
Inventor
稔宏 臼田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2023090091A1 publication Critical patent/WO2023090091A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof

Definitions

  • the present invention relates to an image processing apparatus and an endoscope system, and more particularly to an image processing apparatus that processes images captured in time series by an endoscope, and an endoscope system including the image processing apparatus.
  • CAD computer-aided diagnosis
  • AI artificial intelligence
  • machine learning such as deep learning
  • Patent Document 1 describes a technique for automatically detecting lesions from images taken with an endoscope using a recognizer configured with a trained model.
  • Patent Literature 2 describes a technique of performing differential classification of lesions from an image captured by an endoscope using a recognizer configured with a trained model.
  • the results of processing by the recognizer are displayed on the display device that displays the image captured by the endoscope.
  • the processing results of the recognizer for the image being displayed are displayed with a delay. For this reason, for example, if the processing result of the recognizer for the image being displayed is saved by screen capture or the like, there is a problem that the correct processing result cannot be saved.
  • One embodiment according to the technology of the present disclosure provides an image processing device and an endoscope system that can appropriately store the processing results of the recognizer.
  • An image processing device for processing images captured in time series by an endoscope comprising: a recognizer for performing recognition processing on an input image; The images are acquired in sequential order, the images are displayed in chronological order on the display unit, and the image displayed on the display unit at the time of receiving the instruction is made to be recognized by the recognizer as the first image in response to the execution instruction of the recognition processing. displaying the first information based on the processing result of the recognizer on the display unit, and storing the third information about the processing result of the recognizer in the storage unit in association with the second information specifying the time point when the execution instruction of the recognition processing is received.
  • Image processing device for saving for saving.
  • the processor stores the first information displayed on the display unit when the instruction is received in the storage unit in association with the second information in response to an instruction to execute the recognition process, and stores the recognizer for the first image. After outputting the processing result of (1), the first information stored in the storage unit is updated based on the processing result of the recognizer, and the updated first information is stored in the storage unit as third information;
  • the image processing apparatus according to any one of (3) to (3).
  • the processor stores an image of the screen displayed on the display unit at the time of receiving the execution instruction of the recognition process, which includes the first image and the first information, in the storage unit as the second image. , after the processing result of the recognizer for the first image is output, based on the processing result of the recognizer, the first information portion of the second image stored in the storage unit is updated to obtain the updated first image.
  • the image processing apparatus according to (1), wherein a second image containing an information portion as third information and a first image portion as second information is stored in the storage unit.
  • the processor displays the first image in a first area set in the screen of the display unit, and displays the first information in a second area set in a different area from the first area; ) image processing device.
  • the first information is composed of an image generated based on the processing result of the recognizer, and the third information is composed of information necessary for generating the image constituting the first information, (1)
  • the image processing device according to any one of (9) to (9).
  • An image processing device for processing images captured in time series by an endoscope, comprising: a recognizer for performing recognition processing on an input image; The images are acquired in sequential order, the images are displayed in chronological order on the display unit, and the image displayed on the display unit at the time of receiving the instruction is made to be recognized by the recognizer as the first image in response to the execution instruction of the recognition processing. , an image of a screen displayed on the display unit when the first information based on the processing result of the recognizer is displayed on the display unit and an instruction to execute the recognition processing is received, wherein the first image and the first information are displayed on the display unit. 1.
  • An image processing apparatus that acquires an image including the first information as a second image, generates an image in which a portion of the first information of the second image is replaced with the fourth information as a third image, and stores the third image in a storage unit.
  • An endoscope system comprising an endoscope and the image processing device according to any one of (1) to (18).
  • the processing results of the recognizer can be appropriately saved.
  • FIG. 1 is a block diagram showing an example of the system configuration of an endoscope system.
  • the endoscope system 1 of this embodiment includes an endoscope 10, a light source device 20, a processor device 30, an input device 40, a display device 50, an image processing device 100, and the like.
  • the endoscope 10 is connected to a light source device 20 and a processor device 30 .
  • the light source device 20 , the input device 40 and the image processing device 100 are connected to the processor device 30 .
  • the display device 50 is connected to the image processing device 100 .
  • the endoscope system 1 of the present embodiment is configured as a system capable of observation using special light (special light observation) in addition to observation using normal white light (white light observation).
  • Special light viewing includes narrowband light viewing.
  • Narrowband light observation includes BLI observation (Blue laser imaging observation), NBI observation (Narrowband imaging observation), LCI observation (Linked Color Imaging observation), and the like. Note that the special light observation itself is a well-known technique, so detailed description thereof will be omitted.
  • the endoscope 10 of the present embodiment is an electronic endoscope (flexible endoscope), particularly an electronic endoscope for upper digestive organs.
  • the electronic endoscope includes an operation section, an insertion section, a connection section, and the like, and images an object with an imaging device incorporated in the distal end of the insertion section.
  • a color image pickup device for example, a color image pickup device using a CMOS (Complementary Metal Oxide Semiconductor), a CCD (Charge Coupled Device), etc.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the operation unit includes an angle knob, an air/water supply button, a suction button, a mode switching button, a release button, a forceps port, and the like.
  • the mode switching button is a button for switching observation modes. For example, a mode for white light observation, a mode for LCI observation, and a mode for BLI observation are switched.
  • the release button is a button for instructing shooting of a still image. Since the endoscope itself is publicly known, a detailed description thereof will be omitted.
  • the endoscope 10 is connected to the light source device 20 and the processor device 30 via the connecting portion.
  • the light source device 20 generates illumination light to be supplied to the endoscope 10 .
  • the endoscope system 1 of the present embodiment is configured as a system capable of special light observation in addition to normal white light observation. Therefore, the light source device 20 has a function of generating light corresponding to special light observation (for example, narrow band light) in addition to normal white light. Note that, as described above, special light observation itself is a known technique, and therefore the description of the generation of the illumination light will be omitted.
  • the switching of the light source type is performed, for example, by a mode switching button provided on the operating section of the endoscope 10 .
  • the processor device 30 centrally controls the operation of the entire endoscope system.
  • the processor device 30 includes a processor, a main memory device, an auxiliary memory device, an input/output interface, etc. as its hardware configuration.
  • FIG. 2 is a block diagram of the main functions of the processor device.
  • the processor device 30 has functions such as an endoscope control section 31, a light source control section 32, an image processing section 33, an input control section 34, an output control section 35, and the like. Each function is realized by the processor executing a predetermined program.
  • the auxiliary storage device stores various programs executed by the processor and various data required for control and the like.
  • the endoscope control unit 31 controls the endoscope 10.
  • the control of the endoscope 10 includes drive control of the imaging device, air/water supply control, suction control, and the like.
  • the light source controller 32 controls the light source device 20 .
  • the control of the light source device 20 includes light emission control of the light source, switching control of the light source type, and the like.
  • the image processing unit 33 performs various signal processing on the signal output from the imaging device of the endoscope 10 to generate a captured image.
  • the input control unit 34 performs processing for accepting input of operations from the input device 40 and the operation unit of the endoscope 10 and input of various types of information.
  • the output control unit 35 controls output of information to the image processing device 100 .
  • Information to be output to the image processing apparatus 100 includes an image captured by an endoscope (endoscopic image), information input via the input device 40, various operation information, and the like.
  • the various operation information includes operation information of the operation unit of the endoscope 10 in addition to operation information of the input device 40 .
  • the operation information includes a still image shooting instruction. For example, in the endoscope 10, a still image photographing instruction is issued by operating a release button provided in the operation section.
  • the input device 40 constitutes a user interface in the endoscope system 1 together with the display device 50 .
  • the input device 40 is composed of, for example, a keyboard, mouse, foot switch, and the like.
  • the input device 40 may have a configuration including a touch panel, a voice input device, a line-of-sight input device, and the like.
  • the display device 50 is used not only for displaying endoscopic images, but also for displaying various types of information.
  • the display device 50 is configured by, for example, a liquid crystal display (LCD), an organic electroluminescence display (OELD), or the like.
  • the display device 50 can also be configured with a projector, a head-mounted display, or the like.
  • the display device 50 is an example of a display section.
  • the image processing device 100 performs various types of recognition processing on images captured by the endoscope 10 . As an example, in this embodiment, processing for detecting a lesion from an image, processing for discriminating the detected lesion, processing for determining an observation situation, and the like are performed. The image processing device 100 also performs processing for outputting an image captured by the endoscope 10 to the display device 50, including the result of the recognition processing. Furthermore, the image processing apparatus 100 performs processing of capturing and recording a still image in accordance with an instruction from the user.
  • FIG. 3 is a block diagram showing an example of the hardware configuration of the image processing device.
  • the image processing apparatus 100 is configured by a so-called computer, and includes a processor 101, a main memory device (main memory) 102, an auxiliary storage device (storage) 103, an input/output interface 104, etc. as its hardware configuration.
  • the image processing device 100 is connected to the processor device 30 and the display device 50 via the input/output interface 104 .
  • the auxiliary storage device 103 is composed of, for example, a hard disk drive (HDD), a flash memory including an SSD (Solid State Drive), or the like.
  • the auxiliary storage device 103 stores programs executed by the processor 101 and various data necessary for control and the like. Images (still images and moving images) captured by the endoscope and results of recognition processing are stored in the auxiliary storage device 103 .
  • FIG. 4 is a block diagram of the main functions of the image processing device.
  • the image processing apparatus 100 has functions such as an image acquisition unit 111, a command acquisition unit 112, a recognition processing unit 113, a recording control unit 114, a display control unit 115, and the like.
  • the function of each unit is realized by the processor 101 executing a predetermined program (image processing program).
  • the image acquisition unit 111 performs processing for acquiring images captured in time series by the endoscope 10 in time series order. Images are acquired via the processor unit 30 .
  • the command acquisition unit 112 acquires command information.
  • the command information includes information of an instruction to shoot a still image. As described above, the still image photographing instruction is issued by the release button provided on the operation section of the endoscope 10 .
  • the recognition processing unit 113 performs various processing by performing image recognition on the image acquired by the image acquisition unit 111 .
  • FIG. 5 shows blocks of main functions of the recognition processing unit.
  • the recognition processing unit 113 of this embodiment has functions such as a lesion detection unit 113A, a discrimination unit 113B, an observation situation determination unit 113C, and the like.
  • the lesion detection unit 113A detects lesions such as polyps included in the image by performing image recognition on the input image. Lesions include areas that are definite lesions, areas that may be lesions (benign tumors or dysplasia, etc.), and areas that may be directly or indirectly related to lesions. A part with a certain characteristic (redness, etc.) is included.
  • the lesion detection unit 113A is composed of a trained model trained to recognize a lesion from an image. Detection of a lesion using a trained model itself is a known technique, so detailed description thereof will be omitted. One example is a model using a convolutional neural network (CNN). Note that the detection of a lesion can include discrimination of the type of the detected lesion.
  • CNN convolutional neural network
  • the discrimination unit 113B performs discrimination processing on the lesion detected by the lesion detection unit 113A.
  • a lesion such as a polyp detected by the lesion detection unit 113A undergoes neoplastic (NEOPLASTIC) or non-neoplastic (HYPERPLASTIC) discrimination processing.
  • the discriminating unit 113B is configured with a trained model that has been trained to discriminate a lesion from an image.
  • the observation status determination unit 113C performs processing for determining the observation status of the inspection object. Specifically, a process of determining whether or not a predetermined site to be inspected has been observed is performed. In the present embodiment, it is determined whether or not a predetermined site has been observed from the photographing result of the still image. That is, it is determined whether or not a predetermined part is included in the photographed still image, and it is determined whether or not the predetermined part of the inspection object has been observed. Therefore, shooting of still images is a prerequisite.
  • the predetermined site (observation target site) is determined for each inspection target according to the purpose of the inspection.
  • the stomach For example, if the stomach is to be examined, (1) the esophagogastric junction, (2) the lesser curvature just below the cardia (imaging by J-turn operation), and (3) the greater curvature just below the cardia (imaging by U-turn operation). ), (4) the posterior wall of the lesser curvature from the angle of the stomach or the lower part of the body (imaging by J-turn operation), (5) the anterior part of the pyloric ring to the pyloric ring, and (6) looking down on the greater curvature of the lower body. set to the part. These sites are sites that must be intentionally recorded. In addition, these sites are sites that require intentional endoscopic manipulation.
  • the observation situation determination unit 113C includes a region recognition unit 113C1 that recognizes a region from an image, and a determination unit 113C2 that determines whether or not the observation target region has been observed (photographed) based on the recognition result of the region recognition unit 113C1. include.
  • the part recognition unit 113C1 performs image recognition on the input image, thereby recognizing the parts included in the image.
  • the part recognition unit 113C1 is composed of a trained model that has been trained to recognize a part from an image.
  • part recognition unit 113C1 is configured by CNN.
  • the trained model configuring part recognition section 113C1 is an example of a recognizer.
  • a still image is input to part recognition section 113C1.
  • a still image is captured in accordance with a user's command to capture a still image. Therefore, in the present embodiment, the instruction to shoot a still image also serves as an instruction to execute observation state determination processing.
  • the determination unit 113C2 determines whether or not the observed part has been observed (photographed) based on the recognition result of the part recognition unit 113C1. In this embodiment, it is determined whether or not the above six sites have been observed.
  • FIG. 6 is a diagram illustrating an example of a determination result of observation conditions. As shown in the figure, the determination result indicates whether it is "observed” or "unobserved” for each observation target region. A site to be observed that has been recognized even once is regarded as "observed”. On the other hand, an observation target site that has not yet been recognized is defined as "unobserved".
  • the information on the observation situation determination result constitutes the information necessary for generating the observation situation display map.
  • the observation status display map shows the observation status graphically. Details of the observation status display map will be described later.
  • the recording control unit 114 performs processing for capturing a still image and recording (saving) it in the auxiliary storage device 103 in response to a still image capturing instruction. Furthermore, when the observation state determination function is turned on, the recording control unit 114 performs processing for recording (saving) information on the observation state determination result in the auxiliary storage device 103 in association with the still image.
  • the image displayed on the display device 50 at the time when the instruction to shoot the still image is accepted is saved. This allows the user to save a desired image as a still image.
  • the recording control unit 114 acquires the image of the frame displayed on the display device 50 and records it in the auxiliary storage device 103 in response to the still image shooting instruction.
  • the observation situation determination function is turned on, the image of that frame (the image to be recorded as a still image) is input to the observation situation determination section 113C.
  • the recording control unit 114 acquires the processing result, associates it with the still image, and records it in the auxiliary storage device 103 .
  • the still image recorded in the auxiliary storage device 103 is an example of the second information specifying the point in time when the instruction to execute the recognition process is received. Further, the information of the determination result of the observation situation recorded in the auxiliary storage device 103 in association with the still image is an example of the third information. Further, the auxiliary storage device 103 is an example of a storage unit.
  • the method of association is not particularly limited. It suffices if the still image can be recorded in a format in which the corresponding relationship between the still image and the observation status determination result information based on the still image can be understood. Therefore, for example, a separately generated management file may be used to manage the correspondence between the two. Further, for example, information of observation situation determination results may be recorded as attached information (so-called meta information) of the still image.
  • the display control unit 115 controls the display of the display device 50.
  • the display control unit 115 causes the display device 50 to display the images captured in chronological order by the endoscope 10 in chronological order. Further, the display control unit 115 causes the display device 50 to display information based on the result of recognition processing by the recognition processing unit 113 .
  • FIG. 7 is a diagram showing an example of screen display.
  • the figure shows an example in which the display device 50 is a so-called wide monitor (a monitor whose screen is horizontally long).
  • the image I captured by the endoscope is displayed in real time in the main display area A1 set in the screen 52. That is, a live view is displayed.
  • the main display area A1 is an example of a first area.
  • a sub-display area A2 is further set on the screen 52, and various information related to the examination is displayed.
  • FIG. 7 shows an example in which the information Ip on the patient and the still image Is taken during the examination are displayed in the sub-display area A2.
  • the still images Is are displayed, for example, in the order in which they were captured on the screen 52 from top to bottom.
  • FIG. 7 when the lesion detection support function is turned on, the detection result of the lesion is displayed on the screen 52 .
  • the detection result of the lesion is displayed in the form of enclosing the detected lesion with a frame (so-called bounding box) B.
  • FIG. A frame B is an example of information indicating the position of the lesion.
  • information on the type of the discriminated lesion is provided in place of the information indicating the position of the lesion or in addition to the information indicating the position of the lesion. displayed on the screen.
  • Information on the type of lesion is displayed at a predetermined position on the screen, for example, near the detected lesion or in the sub-display area A2.
  • the discrimination result is displayed on the screen 52 when the discrimination support function is turned on.
  • the discrimination result is displayed in the discrimination result display area A3 set in the screen 52.
  • FIG. FIG. 7 shows an example of a case where the differential result is "neoplastic".
  • an observation situation display map M showing the observation situation is displayed on the screen 52 .
  • the observation situation display map M is generated based on the observation situation determination result and displayed at a predetermined position. This position is set so that the display does not overlap the image I of the endoscope.
  • FIG. 7 shows an example of the observation situation display map M displayed in the sub-display area A2.
  • the observation status display map M is displayed with priority over other displays. That is, when the display overlaps with other information, it is displayed at the top.
  • the area where the observation status display map M is displayed is an example of the second area. This area is different from the area where the endoscopic image I is displayed.
  • FIG. 8 is a diagram showing an example of an observation status display map. The figure shows an example in which the object of inspection is the stomach.
  • the observation status display map M is generated using a schematic diagram of the organ to be inspected. In this embodiment, it is generated using a schematic diagram of the stomach. Specifically, as shown in FIG. 8, a schematic diagram Sc of the stomach is displayed in a rectangular box, and observation target sites Ot1 to Ot6 are indicated by lines on the schematic diagram.
  • the first observation target site Ot1 is the "esophagogastric junction”
  • the second observation target site Ot2 is the "lesser curve just below the cardia”
  • the third observation site Ot3 is "the greater curvature just below the cardia”
  • the fourth observation target site Ot3 is the "greater curvature just below the cardia”.
  • the site to be observed Ot4 is "the posterior wall of the lesser curvature from the angle of the stomach or the lower part of the body”
  • the fifth site to be observed Ot5 is the “front part of the pyloric ring to the pyloric ring”
  • the sixth site to be observed Ot6 is the "greater curvature of the lower body”. An example of "looking down” is shown.
  • the lines indicating the observation target parts Ot1 to Ot6 are displayed in different colors depending on whether the observation target part is "observed” or "unobserved". For example, the line of the “unobserved” observation target site is displayed in gray, and the line of the “observed” observation target site is displayed in green (displayed in black in FIG. 8).
  • the first observation target region Ot1, the second observation target region Ot2, and the third observation target region Ot3 are "unobserved”
  • the fourth observation target region Ot4 the fifth observation target region Ot5, and the sixth observation target region.
  • An example of the case of site Ot6 "observed” is shown.
  • the observation status display map M is an example of the first information.
  • the image processing device 100 causes the display device 50 to display an image captured by the endoscope 10 in real time.
  • the image processing device 100 causes the display device 50 to display various types of support information.
  • information on the detection result of the lesion, information on the discrimination result of the lesion, and information on the determination result of the observation situation are displayed as the support information.
  • Each piece of support information is displayed when the corresponding function is turned on. For example, when the lesion detection support function is turned on, the detected lesion is displayed surrounded by a frame as the lesion detection result. Further, when the discrimination support function is ON, the discrimination result is displayed in the discrimination result display area A3. Furthermore, when the observation situation determination function is turned on, an observation situation display map M is displayed on the screen 52 as the observation situation determination result.
  • the observation state determination processing is performed based on the still image shooting result. That is, it is determined whether or not the observation target region is included in the photographed still image, and it is determined whether or not the predetermined observation target region has been observed.
  • the image processing device 100 records the image of the frame being displayed on the display device 50 as a still image in response to the user's instruction to shoot a still image.
  • the image processing apparatus 100 When the observation situation determination function is turned on, the image processing apparatus 100 records the observation situation determination result information in association with the captured still image.
  • FIG. 9 is a diagram showing an outline of the flow of processing when recording information on observation status determination results.
  • the image I captured by the endoscope is displayed on the display device 50 at a predetermined frame rate.
  • the image Ix displayed on the display device 50 at the time the instruction is accepted is acquired by the recording control unit 114 and recorded in the auxiliary storage device 103. .
  • This image Ix is input to the observation situation determination section 113C.
  • the observation condition determination unit 113C processes the input image and outputs observation condition determination results.
  • the recording control unit 114 acquires the observation situation determination result information Ox output from the observation situation determination unit 113C, and records it in the auxiliary storage device 103 in association with the previously recorded still image Ix.
  • the observation status determination result information Ox is composed of information indicating the determination result of "observed" or "unobserved” for each site to be observed.
  • the information Ox of the observation status determination result is also output to the display control unit 115 .
  • the display control unit 115 generates an observation situation display map M based on the obtained observation situation determination result information Ox, and displays it at a predetermined position on the screen 52 (see FIG. 7).
  • the endoscope system 1 of the present embodiment it is possible to appropriately associate and save a still image and the determination result of the observation situation based on the still image.
  • an accurate observation situation can be referred to.
  • the observation status display map M is displayed on the screen 52 of the display device 50 (see FIG. 7), but the display is updated with a delay. Therefore, for example, if the endoscope image I and the observation condition display map M are saved by screen capture or the like, the image I and the observation condition display map M that do not have an exact correspondence relationship are saved. On the other hand, in the endoscope system 1 of the present embodiment, the determination result of the observation situation based on the photographed still image is acquired and stored, so that the still image and the observation situation judgment result are obtained in an accurate correspondence relationship. can be saved.
  • a photographed still image is associated with observation status determination result information based on the still image and stored.
  • the observation status determination result information at a specific point in time is stored. It can also be configured to For example, when an instruction to store the determination result of the observation state (instruction to execute the recognition process) is received, the observation state determination process can be performed and the result can be stored.
  • the image displayed on the display device at the time of receiving the instruction to save the determination result of the observation situation is input to the observation situation determination unit 113C, and the result is acquired and recorded in the auxiliary storage device 103.
  • the result information is recorded in association with the time or date information at the time when the save instruction is received.
  • the information of the result is recorded in association with the information of the elapsed time from the start of shooting when the save instruction is received.
  • observation status determination result information that is recorded in association with the still image, including information indicating that the information is post-update information. This makes it easy to confirm that the information is updated.
  • the information of the observation situation determination result based on the still image is stored in association with the still image, but the information stored in association with the still image is not limited to this. .
  • Information on detection results of lesions and/or information on discrimination results can also be stored. For example, when saving the information of the detection result of the lesion area in association with the photographed still image, the image displayed on the display device is saved according to the still image photographing instruction, and the information is input to the lesion detection unit. do. Then, the information of the detection result of the lesion by the lesion detection unit is acquired and stored in association with the still image.
  • the image displayed on the display device is stored in response to the still image capturing instruction, and input. Then, the information of the discrimination result by the discrimination unit is acquired and stored in association with the still image.
  • the quality of photography is determined by, for example, blurring, blurring, brightness, composition, dirt, presence or absence of a target area, and the like. Also, the quality of imaging is set for each observation target region, and it is determined that the observation target region has been imaged when the captured image satisfies all the requirements.
  • FIG. 10 is a diagram showing an example of imaging determination criteria set for each observation target region.
  • image blurring and blurring are determined for all observation target parts.
  • image brightness is determined for all observation target regions.
  • boundary visibility determination determines whether or not the junction of the stomach and esophagus is visible from the image.
  • cardia visibility determination determines whether or not the cardia is visible from the image.
  • Cardia distance determination measures the distance from the image to the cardia (photographing distance), and determines whether or not it is possible.
  • treatment determination and composition determination are further performed.
  • treatment determination it is determined from the image whether or not water, residue, bubbles, etc. have accumulated in the observation target site.
  • the composition determination determines whether or not the photographing composition is acceptable. For example, it is determined whether or not the site to be observed is in the center of the image.
  • observation target site is the posterior wall of the lesser curvature from the angle of the stomach or the lower part of the body (fourth observation target site).
  • peristalsis determination and composition determination are further performed.
  • peristalsis determination it is determined from the image whether or not there is peristalsis in the observation target site.
  • treatment determination, composition determination, and fold determination are further performed.
  • fold determination it is determined whether or not the fold of the observation target region extends from the image.
  • the decision device that makes each decision can be composed of, for example, a trained model.
  • the configuration is such that, in association with the photographed still image, the information of the determination result of the observation situation based on the still image is saved.
  • an observation status display map based on a still image is stored in association with the captured still image.
  • FIG. 11 is a block diagram of the main functions of the image processing device.
  • the recording control unit 114 When instructed to shoot a still image, acquires the image of the frame displayed on the display device 50 at the time of the instruction to shoot, and stores it in the auxiliary storage device 103 .
  • the stored images constitute the captured still image.
  • the saved still image is an example of the first image and an example of the second information.
  • the recognition processing unit 113 includes an observation situation determination unit 113C (see FIG. 5).
  • an observation situation determination unit 113C determines whether a still image shooting instruction is given.
  • the image of the frame displayed on the display device 50 at the time when the shooting instruction is given is input to the observation situation determination section 113C.
  • An observation situation display map is generated based on the observation situation judgment result by the observation situation judgment unit 113 ⁇ /b>C and displayed on the display device 50 .
  • the recording control unit 114 acquires the generated observation status display map, associates it with the captured still image, and stores it in the auxiliary storage device 103 .
  • the observation status display map is acquired in the form of image data.
  • the observation status display map is an example of the first information and the third information.
  • FIG. 12 is a conceptual diagram of the saving process.
  • the observation situation display map M1 displayed on the display device 50 at time T1 is in a state where the determination result has not yet been reflected.
  • the photographing at time T1 is the first photographing.
  • the observation status display map M1 displayed on the display device 50 at time T1 is a display in which all observation target regions have not yet been observed. That is, the display is such that the color of the line indicating each observation target site is gray.
  • the recording control unit 114 acquires the observation status display map M2 displayed on the display device 50 at time T2, and saves it in the auxiliary storage device 103 in association with the image (still image) I1 captured at time T1. do.
  • the observation status display map M2 indicating that the sixth observation target region has been observed is associated with the captured image I1. stored.
  • a still image and an observation status display map based on the still image can be appropriately associated and stored.
  • [Modification] Information indicating that the map has been updated may be added to the observation status display map that is stored in association with the captured still image. For example, the character information "Updated" is added to the image forming the observation status display map. As a result, it can be easily confirmed that the saved observation information display map is the updated one.
  • a still image and an observation status display map are saved by screen capture (screenshot). That is, a still image is saved by screen capture, and an observation status display map is saved at the same time.
  • the observation situation is determined based on the captured still image. Therefore, the result is reflected on the observation status display map after the still image is captured. Therefore, if a still image and an observation situation display map are saved by screen capture, an inappropriate observation situation display map may be saved.
  • the screen display when a still image shooting is instructed, the screen display is temporarily saved, and the observation status display map is updated afterwards. That is, the screen display at the time when the photographing is instructed is temporarily saved, and after that, when the observation situation display map for the photographed image is obtained, the image in the area of the observation situation display map is updated and saved. do. As a result, the screen information in which the still image and the observation status display map are accurately associated can be saved.
  • FIG. 13 is a block diagram of the main functions of the image processing device.
  • the recording control unit 114 When instructed to shoot a still image, acquires the image of the screen displayed on the display device 50 at the time of the instruction to shoot, and stores it in the main storage device 102 . Further, in the present embodiment, the image on the screen displayed on the display device 50 at the time when the still image shooting is instructed is an example of the second image. Also, the image of the endoscope included in the image on the screen is an example of the first image and an example of the second information.
  • the recognition processing unit 113 includes an observation situation determination unit 113C (see FIG. 5).
  • an observation situation determination unit 113C determines whether a still image shooting instruction is given.
  • the image of the frame displayed on the display device 50 at the time when the shooting instruction is given is input to the observation situation determination section 113C.
  • An observation situation display map is generated based on the observation situation judgment result by the observation situation judgment unit 113 ⁇ /b>C and displayed on the display device 50 .
  • the recording control unit 114 acquires the generated observation status display map image and updates the screen image recorded in the main storage device 102 . That is, the image of the observation condition display map portion of the image on the screen is overwritten with the newly obtained image of the observation condition display map. Then, the image of the updated screen is saved in the auxiliary storage device 103 .
  • the observation status display map is an example of the first information and the third information.
  • the main storage device 102 and the auxiliary storage device 103 are examples of storage units.
  • FIG. 14 is a conceptual diagram of the saving process.
  • an instruction to shoot a still image is given at time T1.
  • an image (screen image) SI1 of the screen displayed on the display device 50 at that time (time T1) is saved in the main memory device 102 .
  • This screen image SI1 includes an endoscope image I1 and an observation status display map M1 at time T1.
  • the observation status display map M1 at the time T1 does not reflect the observation status determination result for the image I1 at the time T1. For example, if the first still image is captured at time T1, the observation status display map M1 displays a state in which all observation target regions have not yet been observed.
  • the recording control unit 114 acquires the image of the observation status display map M2 displayed on the display device 50 at time T2, and updates the screen image SI1 stored in the main storage device 102 with the acquired image. That is, the image of the observation situation display map M1 displayed on the screen image SI1 is overwritten with the newly obtained image of the observation situation display map M2. Then, the updated screen image (storage screen image) SI1a is saved in the auxiliary storage device 103.
  • a still image and an observation status display map based on the still image can be appropriately associated and stored.
  • FIG. 15 is a diagram showing an example of a save screen image when the observation status display map has been updated.
  • the image captured on the screen is replaced with the observation status display map that correctly reflects the determination result of the observation status. It can also be configured to be replaced with another image.
  • FIG. 16 is a diagram showing an example of replacement with another image.
  • FIG. 1A is a diagram showing an example of a screen image displayed on the display device when an instruction to shoot a still image is given. That is, the figure shows a captured screen image.
  • FIG. 1B is a diagram showing an example of an image to be saved.
  • FIG. 16B shows an example of the case of replacing with a blank image BL in which no information is displayed.
  • the recording control unit 114 acquires the image (screen image) SIa of the screen displayed on the display device 50 at the time of the instruction to shoot the still image.
  • the recording control unit 114 generates an image (storage image) SIb by replacing the image of the region of the observation status display map with a blank image for this screen image, and stores it in the auxiliary storage device 103 .
  • the screen-captured image is an example of the second image.
  • the endoscope image included in the screen-captured image is an example of the first image.
  • the observation status display map included in the screen-captured image is an example of the first information.
  • the blank image to be replaced is an example of the fourth information.
  • the screen image in which the image in the area of the observation status display map is replaced with the blank image is an example of the third image.
  • FIG. 17 is a diagram showing an example of processing for saving discrimination results by screen capture.
  • the figure shows an example of displaying observation results on the screen using a predetermined position map PM.
  • the position map PM is a diagram showing the position of a discriminated region (lesion region).
  • the discriminated region is displayed in a color corresponding to the discriminated result. For example, if the differentiation result is neoplastic, the corresponding region is displayed in yellow, and if the differentiation result is non-neoplastic, the corresponding region is displayed in green.
  • FIG. 17(A) is a diagram showing an example of a screen-captured image (screen image) SIa. The figure shows an example of a case where the identification result has not yet been output at the time when the screen is captured.
  • FIG. 17(B) is a diagram showing an example of a screen image to be saved (screen image for saving) SIb.
  • an image SIb is generated by replacing the captured screen image SIa with the image of the area of the position map.
  • the image to be replaced is the image of the position map PMa based on the endoscope image displayed on the display device at the time of screen capture.
  • the position map can be replaced with a blank image and saved.
  • the captured still image and the information related to the processing result of the recognizer are stored in the auxiliary storage device provided in the image processing device, but the storage destination of each information is limited to this. not a thing It can also be configured to store in an external storage device. For example, it may be configured to store in a data server or the like connected via a network or the like.
  • processors include CPUs (Central Processing Units) and/or GPUs (Graphic Processing Units), FPGAs (Field Programmable Gate Arrays), etc., which are general-purpose processors that execute programs and function as various processing units.
  • Programmable Logic Device which is a processor whose circuit configuration can be changed later, ASIC (Application Specific Integrated Circuit), etc. It is a processor with a circuit configuration specially designed to execute specific processing. Dedicated electric circuits, etc. are included.
  • a program is synonymous with software.
  • a single processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types.
  • one processing unit may be composed of a plurality of FPGAs or a combination of a CPU and an FPGA.
  • a plurality of processing units may be configured by one processor.
  • configuring a plurality of processing units with a single processor first, as represented by computers used for clients, servers, etc., one processor is configured by combining one or more CPUs and software. , in which the processor functions as a plurality of processing units.
  • SoC System on Chip
  • the various processing units are configured using one or more of the above various processors as a hardware structure.
  • endoscope system 10 endoscope 20 light source device 30 processor device 31 endoscope control section 32 light source control section 33 image processing section 34 input control section 35 output control section 40 input device 50 display device 52 screen 100 image processing device 101 Processor 102 Main storage device 103 Auxiliary storage device 104 Input/output interface 111 Image acquisition unit 112 Command acquisition unit 113 Recognition processing unit 113A Lesion detection unit 113B Discrimination unit 113C Observation situation determination unit 113C1 Part recognition unit 113C2 Determination unit 114 Recording control unit 115 Display Control unit A1 Main display area A2 Sub-display area A3 Differentiation result display area B Frame enclosing the detected lesion area BL Blank image I Image captured by the endoscope I1 Content displayed on the display device at time T1 Scope image Ip Information about the patient Is Photographed still image Ix Endoscope image (still image) displayed on the display device at the time when the still image photographing is instructed M Observation situation display map M1 Observation situation display map M2 displayed

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

認識器の処理結果を適切に保存できる画像処理装置及び内視鏡システムを提供する。内視鏡によって時系列に撮影された画像を処理する画像処理装置であって、入力された画像に対し認識処理を行う認識器と、プロセッサと、を備える。プロセッサは、画像を時系列順に取得し、画像を時系列順に表示部に表示させ、認識処理の実行指示に応じて、指示を受け付けた時点で表示部に表示されている画像を第1画像として認識器に認識処理させ、認識器の処理結果に基づく第1情報を表示部に表示させ、認識処理の実行指示を受け付けた時点を特定する第2情報に関連付けて、認識器の処理結果に関する第3情報を記憶部に保存する。

Description

画像処理装置及び内視鏡システム
 本発明は、画像処理装置及び内視鏡システムに係り、特に、内視鏡によって時系列に撮影された画像を処理する画像処理装置、及び、その画像処理装置を含む内視鏡システムに関する。
 近年、医療分野では、コンピュータ診断支援(Computer-Aided Diagnosis:CAD)の技術開発が加速している。特に、人工知能(artificial intelligence:AI)を活用したCADの技術開発が加速している。一般に、AIは、深層学習(Deep learning)等の機械学習により生成される。
 特許文献1には、学習済みモデルで構成される認識器を用いて、内視鏡で撮影された画像から病変部を自動検出する技術が記載されている。また、特許文献2には、学習済みモデルで構成される認識器を用いて、内視鏡で撮影された画像から病変部の鑑別分類を行う技術が記載されている。
国際公開第2018/043699号 国際公開第2018/105063号
 通常、認識器による処理結果は、内視鏡で撮影した画像を表示する表示装置に表示される。しかし、表示中の画像に対する認識器の処理結果は遅れて表示される。このため、たとえば、画面キャプチャなどによって、表示中の画像に対する認識器の処理結果を保存すると、正しい処理結果を保存できないという問題がある。
 本開示の技術に係る一つの実施形態は、認識器の処理結果を適切に保存できる画像処理装置及び内視鏡システムを提供する。
 (1)内視鏡によって時系列に撮影された画像を処理する画像処理装置であって、入力された画像に対し認識処理を行う認識器と、プロセッサと、を備え、プロセッサは、画像を時系列順に取得し、画像を時系列順に表示部に表示させ、認識処理の実行指示に応じて、指示を受け付けた時点で表示部に表示されている画像を第1画像として認識器に認識処理させ、認識器の処理結果に基づく第1情報を表示部に表示させ、認識処理の実行指示を受け付けた時点を特定する第2情報に関連付けて、認識器の処理結果に関する第3情報を記憶部に保存する、画像処理装置。
 (2)認識処理の実行指示が、静止画の撮影指示を兼ね、プロセッサは、認識処理の実行指示に応じて、第1画像を記憶部に保存する、(1)の画像処理装置。
 (3)第2情報が、認識処理の実行指示に応じて記憶部に保存される第1画像で構成される、(2)の画像処理装置。
 (4)第2情報が、認識処理の実行指示を受け付けた時点の時刻又は日時の情報、若しくは、撮影開始からの経過時間の情報で構成される、(1)又は(2)の画像処理装置。
 (5)プロセッサは、認識処理の実行指示に応じて、指示を受け付けた時点で表示部に表示されている第1情報を第2情報に関連付けて記憶部に保存し、第1画像に対する認識器の処理結果が出力された後、認識器の処理結果に基づいて、記憶部に保存した第1情報を更新し、更新後の第1情報を第3情報として記憶部に保存する、(1)から(3)のいずれか1の画像処理装置。
 (6)第3情報が、更新後の第1情報であることを示す情報を含んで構成される、(5)の画像処理装置。
 (7)プロセッサは、認識処理の実行指示を受け付けた時点で表示部に表示されている画面の画像であって、第1画像及び第1情報を含む画像を第2画像として記憶部に保存し、第1画像に対する認識器の処理結果が出力された後、認識器の処理結果に基づいて、記憶部に保存した第2画像の第1情報の部分を更新することにより、更新後の第1情報の部分を第3情報とし、かつ、第1画像の部分を第2情報として含む第2画像を記憶部に保存する、(1)の画像処理装置。
 (8)プロセッサは、表示部の画面内に設定された第1領域に第1画像を表示させ、第1領域とは異なる領域に設定された第2領域に第1情報を表示させる、(7)の画像処理装置。
 (9)第3情報が、更新後の第1情報であることを示す情報を含んで構成される、(7)又は(8)の画像処理装置。
 (10)第1情報及び第3情報が、認識器の処理結果に基づいて生成される画像で構成される、(1)から(9)のいずれか1の画像処理装置。
 (11)第1情報が、認識器の処理結果に基づいて生成される画像で構成され、第3情報が、第1情報を構成する画像の生成に必要な情報で構成される、(1)から(9)のいずれか1の画像処理装置。
 (12)第3情報が、第1情報の生成に必要な情報で構成される、(1)から(9)のいずれか1の画像処理装置。
 (13)第3情報が、認識器の処理結果を示す情報である、(11)又は(12)の画像処理装置。
 (14)認識器が、病変部を検出し、第1情報が、病変部の位置を示す情報で構成される、(1)から(13)のいずれか1の画像処理装置。
 (15)認識器が、病変部を鑑別し、第1情報が、病変部の鑑別結果を示す情報で構成される、(1)から(13)のいずれか1の画像処理装置。
 (16)認識器が、病変部の種別を判別し、第1情報が、病変部の種別を示す情報で構成される、(1)から(13)のいずれか1の画像処理装置。
 (17)認識器が、特定の臓器の部位を判別し、第1情報が、臓器内で観察済みの部位を示す情報で構成される、(1)から(13)のいずれか1の画像処理装置。
 (18)内視鏡によって時系列に撮影された画像を処理する画像処理装置であって、入力された画像に対し認識処理を行う認識器と、プロセッサと、を備え、プロセッサは、画像を時系列順に取得し、画像を時系列順に表示部に表示させ、認識処理の実行指示に応じて、指示を受け付けた時点で表示部に表示されている画像を第1画像として認識器に認識処理させ、認識器の処理結果に基づく第1情報を表示部に表示させ、認識処理の実行指示を受け付けた時点で表示部に表示されている画面の画像であって、第1画像及び第1情報を含む画像を第2画像として取得し、第2画像の第1情報の部分を第4情報で置き換えた画像を第3画像として生成し、第3画像を記憶部に保存する、画像処理装置。
 (19)内視鏡と、(1)から(18)のいずれか1の画像処理装置と、を備えた内視鏡システム。
 本発明によれば、認識器の処理結果を適切に保存できる。
内視鏡システムのシステム構成の一例を示すブロック図 プロセッサ装置が有する主な機能のブロック図 画像処理装置のハードウェア構成の一例を示すブロック図 画像処理装置が有する主な機能のブロック図 認識処理部が有する主な機能のブロック 観察状況の判定結果の一例を示す図 画面表示の一例を示す図 観察状況表示マップの一例を示す図 観察状況の判定結果の情報を記録する場合の処理の流れの概略を示す図 観察対象部位ごとに設定される撮影の判定基準の一例を示す図 画像処理装置が有する主な機能のブロック図 保存の処理の概念図 画像処理装置が有する主な機能のブロック図 保存の処理の概念図 観察状況表示マップが更新済みである場合の保存用画面画像の一例を示す図 他の画像への置き換えの一例を示す図 画面キャプチャによって鑑別結果を保存する場合の処理の一例を示す図
 以下、添付図面に従って本発明の好ましい実施形態について詳説する。
 [第1の実施の形態]
 ここでは、上部消化器官、特に胃の内視鏡検査を行う内視鏡システムに本発明を適用した場合を例に説明する。
 [内視鏡システムの構成]
 図1は、内視鏡システムのシステム構成の一例を示すブロック図である。
 同図に示すように、本実施の形態の内視鏡システム1は、内視鏡10、光源装置20、プロセッサ装置30、入力装置40、表示装置50及び画像処理装置100等を備える。内視鏡10は、光源装置20及びプロセッサ装置30に接続される。光源装置20、入力装置40及び画像処理装置100は、プロセッサ装置30に接続される。表示装置50は、画像処理装置100に接続される。
 本実施の形態の内視鏡システム1は、通常の白色光による観察(白色光観察)の他に、特殊光を用いた観察(特殊光観察)が可能なシステムとして構成される。特殊光観察には、狭帯域光観察が含まれる。狭帯域光観察には、BLI観察(Blue laser imaging観察)、NBI観察(Narrow band imaging観察)、LCI観察(Linked Color Imaging観察)等が含まれる。なお、特殊光観察自体は、公知の技術であるので、その詳細についての説明は省略する。
 [内視鏡]
 本実施の形態の内視鏡10は、電子内視鏡(軟性鏡)、特に、上部消化器官用の電子内視鏡である。電子内視鏡は、操作部、挿入部及び接続部等を備え、挿入部の先端に組み込まれた撮像素子で被写体を撮影する。撮像素子には、所定のフィルタ配列(たとえば、ベイヤ配列)を有するカラー撮像素子(たとえば、CMOS(Complementary Metal Oxide Semiconductor)、CCD(Charge Coupled Device)等を用いたカラー撮像素子)が使用される。操作部には、アングルノブ、送気送水ボタン、吸引ボタン、モード切り替えボタン、レリーズボタン及び鉗子口等が備えられる。モード切り替えボタンは、観察モードを切り替えるボタンである。たとえば、白色光観察を行うモード、LCI観察を行うモード及びBLI観察を行うモードの切り替えが行われる。レリーズボタンは、静止画の撮影を指示するボタンである。なお、内視鏡自体は公知であるので、その詳細についての説明は省略する。内視鏡10は、接続部を介して光源装置20及びプロセッサ装置30に接続される。
 [光源装置]
 光源装置20は、内視鏡10に供給する照明光を生成する。上記のように、本実施の形態の内視鏡システム1は、通常の白色光観察の他に、特殊光観察が可能なシステムとして構成される。このため、光源装置20は、通常の白色光の他、特殊光観察に対応した光(たとえば、狭帯域光)を生成する機能を有する。なお、上記のように、特殊光観察自体は、公知の技術であるので、その照明光の生成についての説明は省略する。光源種の切り替えは、たとえば、内視鏡10の操作部に備えられるモード切り替えボタンで行われる。
 [プロセッサ装置]
 プロセッサ装置30は、内視鏡システム全体の動作を統括制御する。プロセッサ装置30は、そのハードウェア構成として、プロセッサ、主記憶装置、補助記憶装置、入出力インターフェース等を備える。
 図2は、プロセッサ装置が有する主な機能のブロック図である。
 同図に示すように、プロセッサ装置30は、内視鏡制御部31、光源制御部32、画像処理部33、入力制御部34及び出力制御部35等の機能を有する。各機能は、プロセッサが所定のプログラムを実行することにより実現される。補助記憶装置には、プロセッサが実行する各種プログラム、及び、制御等に必要な各種データ等が格納される。
 内視鏡制御部31は、内視鏡10を制御する。内視鏡10の制御には、撮像素子の駆動制御、送気送水の制御及び吸引の制御等が含まれる。
 光源制御部32は、光源装置20を制御する。光源装置20の制御には、光源の発光制御、光源種の切り替え制御等が含まれる。
 画像処理部33は、内視鏡10の撮像素子から出力される信号に各種信号処理を施して、撮影画像を生成する処理を行う。
 入力制御部34は、入力装置40及び内視鏡10の操作部からの操作の入力、及び、各種情報の入力を受け付ける処理を行う。
 出力制御部35は、画像処理装置100への情報の出力を制御する。画像処理装置100に出力する情報には、内視鏡で撮影された画像(内視鏡画像)の他、入力装置40を介して入力された情報、及び、各種操作情報等が含まれる。各種操作情報には、入力装置40による操作情報の他、内視鏡10の操作部の操作情報が含まれる。操作情報には、静止画の撮影指示が含まれる。静止画の撮影指示は、たとえば、内視鏡10においては、操作部に備えられたレリーズボタンのボタン操作により行われる。この他、フットスイッチ、音声入力装置、タッチパネル等を介して撮影指示を行う構成とすることもできる。
 [入力装置]
 入力装置40は、表示装置50と共に内視鏡システム1におけるユーザーインターフェースを構成する。入力装置40は、たとえば、キーボード、マウス及びフットスイッチ等で構成される。この他にも、入力装置40は、タッチパネル、音声入力装置及び視線入力装置等を含めた構成とすることができる。
 [表示装置]
 表示装置50は、内視鏡画像の表示に使用される他、各種情報の表示に使用される。表示装置50は、たとえば、液晶ディスプレイ(Liquid Crystal Display:LCD)、有機ELディスプレイ(Organic Electroluminescence Display:OELD)等で構成される。この他、表示装置50は、プロジェクタ、ヘッドマウントディスプレイ等で構成することもできる。本実施の形態において、表示装置50は、表示部の一例である。
 [画像処理装置]
 画像処理装置100は、内視鏡10で撮影された画像に対し、各種認識処理を行う。一例として、本実施の形態では、画像から病変部を検出する処理、検出された病変部を鑑別する処理、及び、観察状況を判定する処理等を行う。また、画像処理装置100は、認識処理の結果を含めて、内視鏡10で撮影された画像を表示装置50に出力する処理を行う。更に、画像処理装置100は、ユーザからの指示に応じて、静止画を撮影し、記録する処理を行う。
 図3は、画像処理装置のハードウェア構成の一例を示すブロック図である。
 画像処理装置100は、いわゆるコンピュータで構成され、そのハードウェア構成として、プロセッサ101、主記憶装置(メインメモリ)102、補助記憶装置(ストレージ)103、入出力インターフェース104等を備える。画像処理装置100は、入出力インターフェース104を介してプロセッサ装置30及び表示装置50と接続される。補助記憶装置103は、たとえば、ハードディスクドライブ(Hard Disk Drive:HDD)、SSD(Solid State Drive)を含むフラッシュメモリ等で構成される。補助記憶装置103には、プロセッサ101が実行するプログラム、及び、制御等に必要な各種データが記憶される。また、内視鏡で撮影された画像(静止画及び動画)及び認識処理の結果は、補助記憶装置103に保存される。
 図4は、画像処理装置が有する主な機能のブロック図である。
 同図に示すよう、画像処理装置100は、画像取得部111、コマンド取得部112、認識処理部113、記録制御部114及び表示制御部115等の機能を有する。各部の機能は、プロセッサ101が、所定のプログラム(画像処理プログラム)を実行することで実現される。
 画像取得部111は、内視鏡10によって時系列に撮影された画像を時系列順に取得する処理を行う。画像は、プロセッサ装置30を介して取得される。
 コマンド取得部112は、コマンド情報を取得する。コマンド情報には、静止画の撮影指示の情報が含まれる。上記のように、静止画の撮影指示は、内視鏡10の操作部に備えられたレリーズボタンにより行われる。
 認識処理部113は、画像取得部111で取得した画像に対し、画像認識を行うことにより各種処理を行う。図5は、認識処理部が有する主な機能のブロックである。同図に示すように、本実施の形態の認識処理部113は、病変検出部113A、鑑別部113B及び観察状況判定部113C等の機能を有する。
 病変検出部113Aは、入力された画像に対し、画像認識を行うことにより、画像内に含まれるポリープ等の病変部を検出する。病変部には、病変部であることが確定的な部分の他、病変の可能性がある部分(良性の腫瘍又は異形成等)、及び、直接的又は間接的に病変に関連する可能性のある特徴を有する部分(発赤等)等が含まれる。病変検出部113Aは、画像から病変部を認識するように学習された学習済みモデルで構成される。学習済みモデルを用いた病変部の検出自体は公知の技術であるので、その詳細についての説明は省略する。一例として、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)を用いたモデルで構成される。なお、病変部の検出は、検出した病変部に対する種別の判別を含めることができる。
 鑑別部113Bは、病変検出部113Aで検出された病変部について鑑別処理を行う。一例として、本実施の形態では、病変検出部113Aで検出されたポリープ等の病変部について、腫瘍性(NEOPLASTIC)又は非腫瘍性(HYPERPLASTIC)の鑑別処理を行う。鑑別部113Bは、画像から病変部を鑑別するように学習された学習済みモデルで構成される。
 観察状況判定部113Cは、検査対象に対する観察状況を判定する処理を行う。具体的には、検査対象の所定の部位を観察したか否かを判定する処理を行う。本実施の形態では、静止画の撮影結果から所定の部位を観察したか否かを判定する。すなわち、撮影した静止画に所定の部位が含まれているか否かを判定して、検査対象の所定の部位を観察したか否かを判定する。したがって、静止画の撮影が前提となる。所定の部位(観察対象部位)は、検査の目的等に応じて、検査対象ごとに定められる。たとえば、検査対象が胃の場合、一例として、(1)食道胃接合部、(2)噴門直下の小弯(Jターン操作による撮影)、(3)噴門直下の大弯(Uターン操作による撮影)、(4)胃角部又は体下部からの小弯後壁(Jターン操作による撮影)、(5)幽門輪前部から幽門輪、及び、(6)体下部大弯見下ろしが、観察対象部位に設定される。これらの部位は、意図的に記録されなければならいない部位である。また、これらの部位は、意図的な内視鏡操作が要求される部位である。なお、(4)の「胃角部又は体下部からの小弯後壁」については、必ずしも胃角を撮影できない場合があること及び後壁を撮影していることを担保できないことを考慮して、「体下部小弯(Jターン操作による撮影)」とすることもできる。また、(5)の「幽門輪前部から幽門輪」については、幽門輪をピンポイントで撮影するよりは、前庭部を俯瞰的に撮影できているかを重視した「前庭部全景」とすることもできる。また、(6)の「体下部大弯見下ろし」については、体下部に限らず、ヒダが開いた大弯が撮影できていることを重視した「大弯見下ろし」とすることもできる。
 観察状況判定部113Cは、画像から部位を認識する部位認識部113C1、及び、部位認識部113C1の認識結果に基づいて、観察対象部位が観察(撮影)されたか否かを判定する判定部113C2を含む。
 部位認識部113C1は、入力された画像に対し、画像認識を行うことにより、画像に含まれる部位を認識する処理を行う。部位認識部113C1は、画像から部位を認識するように学習された学習済みモデルで構成される。一例として、部位認識部113C1は、CNNで構成される。本実施の形態において、部位認識部113C1を構成する学習済みモデルは、認識器の一例である。
 なお、上記のように、本実施の形態では、静止画の撮影結果から観察対象部位を観察したか否かを判定する。したがって、部位認識部113C1には、静止画が入力される。静止画の撮影は、ユーザによる撮影指示に応じて行われる。よって、本実施の形態では、静止画の撮影指示が、観察状況の判定処理の実行指示を兼ねる。
 判定部113C2は、部位認識部113C1による認識結果に基づいて、観察対象部位が観察(撮影)された否かを判定する。本実施の形態では、上記6つ部位が観察されたか否かを判定する。図6は、観察状況の判定結果の一例を示す図である。同図に示すように、判定結果は、観察対象部位ごとに「観察済み」であるか、「未観察」であるかが示される。一度でも認識された観察対象部位は「観察済み」とされる。一方、未だ認識されていない観察対象部位は「未観察」とされる。観察状況の判定結果の情報は、観察状況表示マップの生成に必要な情報を構成する。観察状況表示マップは、観察状況を図で示したものである。観察状況表示マップの詳細は、後述する。
 記録制御部114は、静止画の撮影指示に応じて、静止画を撮影し、補助記憶装置103に記録(保存)する処理を行う。更に、記録制御部114は、観察状況の判定機能がONされている場合、観察状況の判定結果の情報を静止画に関連付けて補助記憶装置103に記録(保存)する処理を行う。
 静止画は、静止画の撮影指示を受け付けた時点で表示装置50に表示されている画像を保存する。これにより、ユーザは、所望の画像を静止画として保存できる。記録制御部114は、静止画の撮影指示に応じて、表示装置50に表示されているフレームの画像を取得し、補助記憶装置103に記録する。観察状況の判定機能がONされている場合、そのフレームの画像(静止画として記録する画像)が、観察状況判定部113Cに入力される。記録制御部114は、その処理結果を取得し、静止画に関連付けて補助記憶装置103に記録する。本実施の形態において、補助記憶装置103に記録する静止画は、認識処理の実行指示を受け付けた時点を特定する第2情報の一例である。また、その静止画に関連付けられて補助記憶装置103に記録される観察状況の判定結果の情報は、第3情報の一例である。更に、補助記憶装置103は、記憶部の一例である。
 なお、関連付けの手法は、特に限定されない。静止画と、その静止画に基づく観察状況の判定結果の情報との対応関係が分かる形式で記録できればよい。したがって、たとえば、別途生成した管理ファイルにより、両者の対応付けを管理してもよい。また、たとえば、静止画の付属情報(いわゆるメタ情報)として、観察状況の判定結果の情報を記録してもよい。
 表示制御部115は、表示装置50の表示を制御する。表示制御部115は、内視鏡10によって時系列に撮影された画像を時系列順に表示装置50に表示させる。また、表示制御部115は、認識処理部113での認識処理の結果に基づく情報を表示装置50に表示させる。
 図7は、画面表示の一例を示す図である。同図は、表示装置50が、いわゆるワイドモニタ(画面が横長モニタ)の場合の例を示している。
 同図に示すように、画面52内に設定された主表示領域A1に内視鏡で撮影された画像Iがリアルタイムに表示される。すなわち、ライブビューが表示される。主表示領域A1は、第1領域の一例である。画面52には、更に副表示領域A2が設定され、検査に関する各種情報が表示される。図7に示す例では、患者に関する情報Ip、及び、検査中に撮影された静止画Isを副表示領域A2に表示した場合の例を示している。静止画Isは、たとえば、画面52の上から下に向かって撮影された順に表示される。
 また、図7に示すように、病変部の検出支援機能がONされている場合、病変部の検出結果が画面52に表示される。病変部の検出結果は、検出された病変部を枠(いわゆるバウンディングボックス)Bで囲う形で表示される。枠Bは、病変部の位置を示す情報の一例である。病変検出部113Aにおいて、病変部の種別を判別する場合には、病変部の位置を示す情報に代えて、あるいは、病変部の位置を示す情報に加えて、判別した病変部の種別の情報が画面上に表示される。病変部の種別の情報は、画面の所定の位置、たとえば、検出した病変部の近傍、あるいは、副表示領域A2に表示される。
 また、図7に示すように、鑑別支援機能がONされている場合、鑑別結果が画面52に表示される。鑑別結果は、画面52内に設定された鑑別結果表示領域A3に表示される。図7は、鑑別結果が「腫瘍性(NEOPLASTIC)」の場合の例を示している。
 更に、図7に示すように、観察状況の判定機能がONされている場合、観察状況を示す観察状況表示マップMが画面52に表示される。観察状況表示マップMは、観察状況の判定結果に基づいて生成され、所定の位置に表示される。この位置は、表示が内視鏡の画像Iに重ならない位置に設定される。図7は、副表示領域A2に観察状況表示マップMを表示させた場合の例を示している。副表示領域A2において、観察状況表示マップMは、他の表示よりも優先して表示される。すなわち、他の情報と表示が重なる場合、最上位に表示される。本実施の形態において、観察状況表示マップMが表示される領域は、第2領域の一例である。この領域は、内視鏡の画像Iが表示される領域とは異なる領域である。
 図8は、観察状況表示マップの一例を示す図である。同図は、検査対象が胃の場合の例を示している。
 同図に示すように、観察状況表示マップMは、検査対象とする臓器のシェーマ図を用いて生成される。本実施の形態では、胃のシェーマ図を用いて生成される。具体的には、図8に示すように、矩形のボックス内に胃のシェーマ図Scが表示され、そのシェーマ図上に観察対象部位Ot1~Ot6がラインで示される。同図は、第1観察対象部位Ot1が「食道胃接合部」、第2観察対象部位Ot2が「噴門直下の小弯」、第3観察対象部位Ot3が「噴門直下の大弯」、第4観察対象部位Ot4が「胃角部又は体下部からの小弯後壁」、第5観察対象部位Ot5が「幽門輪前部から幽門輪」、第6観察対象部位Ot6が、「体下部大弯見下ろし」の場合の例を示している。
 各観察対象部位Ot1~Ot6を示すラインは、その観察対象部位が「観察済み」であるか、「未観察」であるかによって、異なる色で表示される。たとえば、「未観察」観察対象部位のラインは、グレーで表示され、「観察済み」観察対象部位のラインは、緑(図8では黒で表示)で表示される。図8は、第1観察対象部位Ot1、第2観察対象部位Ot2及び第3観察対象部位Ot3が「未観察」であり、第4観察対象部位Ot4、第5観察対象部位Ot5及び第6観察対象部位Ot6「観察済み」の場合の例を示している。
 このように、観察対象部位を示すラインを色分けして表示することにより、観察対象部位が観察済みであるか、未観察であるかを一目で把握できる。本実施の形態において、観察状況表示マップMは、第1情報の一例である。
 [内視鏡システムの作用]
 内視鏡システム1の基本動作として、画像処理装置100は、内視鏡10で撮影された画像を表示装置50にリアルタイムに表示させる。
 この基本動作に加えて、画像処理装置100は、各種の支援情報を表示装置50に表示させる。本実施の形態では、支援情報として、病変部の検出結果の情報、病変部の鑑別結果の情報、及び、観察状況の判定結果の情報が表示される。各支援情報は、該当する機能がONされている場合に表示される。たとえば、病変部の検出支援機能がONされている場合、病変部の検出結果として、検出された病変部が枠で囲われて表示される。また、鑑別支援機能がONされている場合、鑑別結果が鑑別結果表示領域A3に表示される。更に、観察状況の判定機能がONされている場合、観察状況の判定結果として、観察状況表示マップMが画面52に表示される。観察状況の判定処理は、静止画の撮影結果に基づいて行われる。すなわち、撮影された静止画に観察対象部位が含まれているか否かを判定して、所定の観察対象部位が観察されたか否かを判定する。
 更に、画像処理装置100は、ユーザによる静止画の撮影指示に応じて、表示装置50に表示中のフレームの画像を静止画として記録する。
 観察状況の判定機能がONされている場合、画像処理装置100は、撮影された静止画に関連付けて、観察状況の判定結果の情報を記録する。
 図9は、観察状況の判定結果の情報を記録する場合の処理の流れの概略を示す図である。
 同図に示すように、表示装置50には、内視鏡で撮影された画像Iが、所定のフレームレートで表示される。
 ある特定の時点で静止画の撮影が指示されると、その指示を受け付けた時点で表示装置50に表示されている画像Ixが、記録制御部114で取得され、補助記憶装置103に記録される。この画像Ixは、観察状況判定部113Cに入力される。観察状況判定部113Cは、入力された画像を処理し、観察状況の判定結果を出力する。記録制御部114は、観察状況判定部113Cから出力された観察状況の判定結果の情報Oxを取得し、先に記録した静止画Ixに関連付けて、補助記憶装置103に記録する。観察状況の判定結果の情報Oxは、観察対象部位ごとに「観察済み」、「未観察」の判定結果を示した情報で構成される。
 観察状況の判定結果の情報Oxは、表示制御部115にも出力される。表示制御部115は、取得した観察状況の判定結果の情報Oxに基づいて、観察状況表示マップMを生成し、画面52の所定の位置に表示させる(図7参照)。
 このように、本実施の形態の内視鏡システム1によれば、静止画と、その静止画に基づく観察状況の判定結果とを適切に関連付けて保存できる。これにより、たとえば、検査後に静止画を確認等する際に、正確な観察状況を参照できる。
 表示装置50の画面52には、観察状況表示マップMが表示されるが(図7参照)、その表示は遅れて更新される。このため、たとえば、画面キャプチャなどによって、内視鏡の画像Iと、その時に観察状況表示マップMとを保存すると、正確な対応関係にない画像Iと観察状況表示マップMとが保存される。これに対して、本実施の形態の内視鏡システム1では、撮影した静止画に基づく観察状況の判定結果を取得して保存するので、正確な対応関係で静止画と観察状況の判定結果を保存できる。
 [変形例]
 [観察状況の判定結果の情報の保存]
 上記実施の形態では、撮影した静止画と、その静止画に基づく観察状況の判定結果の情報とを関連付けて保存する構成としているが、特定の時点での観察状況の判定結果の情報のみを保存する構成とすることもできる。たとえば、観察状況の判定結果の保存指示(認識処理の実行指示)を受け付けた時点で観察状況の判定処理を実施し、その結果を保存する構成にできる。この場合、観察状況の判定結果の保存指示を受け付けた時点で表示装置に表示されている画像を観察状況判定部113Cに入力し、その結果を取得して、補助記憶装置103に記録する。また、この場合、保存指示を受け付けた時点での時刻又は日時の情報に関連付けて、結果の情報を記録する。若しくは、保存指示を受け付けた時点での撮影開始からの経過時間の情報に関連付けて、結果の情報を記録する。
 また、静止画に関連付けて記録する場合も、直接、静止画に関連付けて記録するのではなく、間接的に静止画に関連付けて記録する構成とすることもできる。たとえば、上記のように、結果の情報を日時又は時刻の情報に関連付けて記録する場合、静止画についても、日時又は時刻の情報に関連付けて記録する。これにより、日時又は時刻から両者を対応付けることができる。撮影開始からの経過時間の情報に関連付けて記録する場合も同様である。
 また、静止画に関連付けて記録する観察状況の判定結果の情報は、更新後の情報であることを示す情報を含めて記録することがより好ましい。これにより、更新後の情報であることを容易に確認できる。
 [保存する情報]
 上記実施の形態では、静止画に関連付けて、その静止画に基づく観察状況の判定結果の情報を保存する構成としているが、静止画に関連付けて保存する情報は、これに限定されるものではない。病変部の検出結果の情報及び/又は鑑別結果の情報を保存対象とすることもできる。たとえば、撮影した静止画に関連付けて、病変部の検出結果の情報を保存する場合、静止画の撮影指示に応じて、表示装置に表示されている画像を保存し、かつ、病変検出部に入力する。そして、その病変検出部による病変部の検出結果の情報を取得して、静止画に関連付けて保存する。また、たとえば、撮影した静止画に関連付けて、病変部の鑑別結果の情報を保存する場合、静止画の撮影指示に応じて、表示装置に表示されている画像を保存し、かつ、鑑別部に入力する。そして、その鑑別部による鑑別結果の情報を取得して、静止画に関連付けて保存する。
 [観察状況の判定]
 上記実施の形態では、あらかじめ設定した観察対象部位が、静止画として撮影されたか否かによって、観察状況を判定する手法を採用しているが、観察状況を判定する手法は、これに限定されるものではない。内視鏡で撮影した画像に観察対象部位が含まれているか否かを判定して、観察状況を判定する方法を採用することもできる。
 また、観察対象部位が撮影されたか否かについては、撮影の良し悪しも判定の条件に加えてもよい。撮影の良し悪しは、たとえば、ボケ、ぶれ、明るさ、構図、汚れ、ターゲット領域の有無等に分解し、それぞれで判定する。また、撮影の良し悪しは、観察対象部位ごとに設定し、撮影された画像が、すべての要件を満たしている場合に、観察対象部位が撮影されたと判定する。
 図10は、観察対象部位ごとに設定される撮影の判定基準の一例を示す図である。
 同図に示すように、すべての観察対象部位について、画像のボケ及びぶれの判定を行う。また、すべての観察対象部位について、画像の明るさの判定を行う。
 また、観察対象部位が、食道胃接合部(第1観察対象部位)の場合、更に、境界可視判定を行う。境界可視判定は、画像から胃と食道の接合部が可視可能であるか否かの判定を行う。
 また、観察対象部位が、噴門直下の小弯(第2観察対象部位)の場合、更に、噴門可視判定及び噴門距離判定を行う。噴門可視判定は、画像から噴門が可視可能であるか否かを判定する。噴門距離判定は、画像から噴門までの距離(撮影距離)を計測し、その可否を判定する。
 また、観察対象部位が、噴門直下の大弯(第3観察対象部位)の場合、更に、処置判定及び構図判定を行う。処置判定は、画像から観察対象部位に水、残渣及び泡等が溜まっているか否かを判定する。構図判定は、撮影構図の可否を判定する。たとえば、観察対象部位が、画像中央に写っているか否か等を判定する。
 また、観察対象部位が、胃角部又は体下部からの小弯後壁(第4観察対象部位)の場合、差ライン、構図判定を行う。
 また、観察対象部位が、幽門輪前部から幽門輪(第5観察対象部位)の場合、更に、蠕動判定及び構図判定を行う。蠕動判定は、画像から観察対象部位に蠕動があるか否かを判定する。
 また、観察対象部位が、体下部大弯見下ろし(第6観察対象部位)の場合、更に、処置判定、構図判定、及び、ひだ判定が行われる。ひだ判定は、画像から観察対象部位のひだが延びてるか否かを判定する。
 各判定を行う判定器は、たとえば、学習済みモデルで構成することができる。
 [第2の実施の形態]
 上記第1の実施の形態では、撮影した静止画に関連付けて、その静止画に基づく観察状況の判定結果の情報を保存する構成としている。本実施の形態では、撮影した静止画に関連付けて、その静止画に基づく観察状況表示マップを保存する。
 図11は、画像処理装置が有する主な機能のブロック図である。
 記録制御部114は、静止画の撮影が指示されると、撮影が指示された時点で表示装置50に表示されているフレームの画像を取得し、補助記憶装置103に保存する。保存された画像が、撮影された静止画を構成する。本実施の形態において、保存される静止画は、第1画像の一例であり、かつ、第2情報の一例である。
 認識処理部113は、観察状況判定部113Cを含む(図5参照)。静止画の撮影が指示されると、撮影が指示された時点で表示装置50に表示されているフレームの画像が観察状況判定部113Cに入力される。観察状況判定部113Cによる観察状況の判定結果に基づき観察状況表示マップを生成し、表示装置50に表示させる。
 記録制御部114は、生成された観察状況表示マップを取得し、撮影した静止画に関連付けて、補助記憶装置103に保存する。観察状況表示マップは、画像データの形式で取得される。本実施の形態において、観察状況表示マップは、第1情報及び第3情報の一例である。
 図12は、保存の処理の概念図である。
 時刻T1で静止画の撮影が指示されたとする。撮影が指示されると、その時点(時刻T1)で表示装置50に表示されている画像I1が補助記憶装置103に保存される。
 ここで、時刻T1の時点で表示装置50に表示される観察状況表示マップM1は、未だ判定結果が反映されていない状態にある。たとえば、時刻T1での撮影が、最初の撮影であったとする。この場合、時刻T1の時点で表示装置50に表示される観察状況表示マップM1は、すべての観察対象部位が未観察の状態の表示となる。すなわち、各観察対象部位を示すラインの色がグレーの状態での表示となる。
 時刻T1で撮影された静止画に基づく観察状況の判定結果が、観察状況表示マップに反映されるのは、時刻T1よりも後の時点の時刻T2である。記録制御部114は、時刻T2の時点で表示装置50に表示される観察状況表示マップM2を取得し、時刻T1の時点で撮影された画像(静止画)I1に関連付けて補助記憶装置103に保存する。
 たとえば、時刻T1の時点で第6観察対象部位(体下部大弯見下ろし)を撮影した場合、第6観察対象部位が観察済みの表示となった観察状況表示マップM2が、撮影した画像I1に関連付けられて保存される。
 このように、本実施の形態においても、静止画と、その静止画に基づく観察状況表示マップとを適切に関連付けて保存できる。
 [変形例]
 撮影した静止画に関連付けて保存する観察状況表示マップについては、更新済みであることを示す情報を付加してもよい。たとえば、観察状況表示マップを構成する画像内に「Updated(更新済み)」の文字情報を付加する。これにより、保存されている観察情報表示マップが更新後のものであることを容易に確認できる。
 [第3の実施の形態]
 本実施の形態では、画面キャプチャ(スクリーンショット)によって、静止画及び観察状況表示マップを保存する。すなわち、画面キャプチャによって静止画を保存し、同時に観察状況表示マップを保存する。
 上記のように、観察状況は、撮影された静止画に基づいて判定される。したがって、その結果が、観察状況表示マップに反映されるのは、静止画の撮影の後である。よって、画面キャプチャによって静止画及び観察状況表示マップを保存すると、不適切な観察状況表示マップが保存される事態が生じる。
 本実施の形態では、静止画の撮影が指示された場合に、画面の表示を一時的に保存し、事後的に観察状況表示マップを更新する。すなわち、撮影が指示された時点の画面の表示を一時的に保存し、その後、撮影された画像に対する観察状況表示マップが得られた段階で、観察状況表示マップの領域の画像を更新し、保存する。これにより、静止画及び観察状況表示マップが正確に対応付けられた画面情報を保存できる。
 図13は、画像処理装置が有する主な機能のブロック図である。
 記録制御部114は、静止画の撮影が指示されると、撮影が指示された時点で表示装置50に表示されている画面の画像を取得し、主記憶装置102に保存する。また、本実施の形態において、静止画の撮影が指示された時点で表示装置50に表示されている画面の画像は、第2画像の一例である。また、その画面の画像に含まれる内視鏡の画像は、第1画像の一例であり、かつ、第2情報の一例である。
 認識処理部113は、観察状況判定部113Cを含む(図5参照)。静止画の撮影が指示されると、撮影が指示された時点で表示装置50に表示されているフレームの画像が観察状況判定部113Cに入力される。観察状況判定部113Cによる観察状況の判定結果に基づき観察状況表示マップを生成し、表示装置50に表示させる。
 記録制御部114は、生成された観察状況表示マップの画像を取得し、主記憶装置102に記録した画面の画像を更新する。すなわち、画面の画像のうち観察状況表示マップの部分の画像を新たに取得した観察状況表示マップの画像で上書きして書き換える。そして、更新後の画面の画像を補助記憶装置103に保存する。本実施の形態において、観察状況表示マップは、第1情報及び第3情報の一例である。また、本実施の形態において、主記憶装置102及び補助記憶装置103は、記憶部の一例である。
 図14は、保存の処理の概念図である。
 時刻T1で静止画の撮影が指示されたとする。撮影が指示されると、その時点(時刻T1)で表示装置50に表示されている画面の画像(画面画像)SI1が、主記憶装置102に保存される。この画面画像SI1には、時刻T1の時点での内視鏡の画像I1及び観察状況表示マップM1が含まれる。時刻T1の時点の観察状況表示マップM1は、時刻T1の時点での画像I1に対する観察状況の判定結果が反映されていないものである。たとえば、時刻T1での静止画の撮影が、最初の撮影の場合、観察状況表示マップM1は、すべての観察対象部位が未観察の状態の表示となる。
 時刻T1で撮影された静止画に基づく観察状況の判定結果が、観察状況表示マップに反映されるのは、時刻T1よりも後の時点の時刻T2である。記録制御部114は、時刻T2の時点で表示装置50に表示される観察状況表示マップM2の画像を取得し、取得した画像で主記憶装置102に保存されている画面画像SI1を更新する。すなわち、画面画像SI1に表示されている観察状況表示マップM1の画像を新たに取得した観察状況表示マップM2の画像で上書きして書き換える。そして、更新後の画面画像(保存用画面画像)SI1aを補助記憶装置103に保存する。
 このように、本実施の形態においても、静止画と、その静止画に基づく観察状況表示マップとを適切に関連付けて保存できる。
 [変形例]
 [更新済みであることの表示]
 観察状況表示マップを更新した画像(保存用画面画像)については、観察状況表示マップが更新済みであることを示す情報を付加することが好ましい。
 図15は、観察状況表示マップが更新済みである場合の保存用画面画像の一例を示す図である。
 同図に示すように、観察状況表示マップM2が更新された保存用画面画像SI1aにおいて、観察状況表示マップM2上の所定の位置に観察後のものであることを示す情報を付加する。同図においては、観察状況表示マップM2を構成する図の右上位置に「Updated」の文字からなるマークMxを付して、観察状況表示マップM2が更新後のものであることを示している。これにより、観察状況表示マップM2が更新されていること、すなわち、観察状況の判定結果が適切に反映されたものであることを容易に確認できる。
 [他の画像への置き換え]
 上記本実施の形態では、画面キャプチャした画像に対し、観察状況の判定結果を正しく反映した観察状況表示マップに置き換える構成としているが、画面キャプチャした画像に対し、観察状況表示マップの部分の画像を他の画像に置き換える構成とすることもできる。
 図16は、他の画像への置き換えの一例を示す図である。同図(A)は、静止画の撮影が指示された時点で表示装置に表示されている画面の画像の一例を示す図である。すなわち、同図は、キャプチャされた画面画像を示している。同図(B)は、保存する画像の一例を示す図である。
 同図に示すように、画面キャプチャされた画面画像に対し、観察状況表示マップの表示領域が他の画像に置き換えられている。図16(B)は、情報が何も表示されていないブランク画像BLに置き換えた場合の例を示している。この場合、記録制御部114は、静止画の撮影が指示されると、撮影が指示された時点で表示装置50に表示されている画面の画像(画面画像)SIaを取得し、主記憶装置102に保存する。記録制御部114は、この画面画像に対し、観察状況表示マップの領域の部分の画像をブランク画像に置き換えた画像(保存用画像)SIbを生成し、補助記憶装置103に保存する。本例において、画面キャプチャされた画像は第2画像の一例である。また、画面キャプチャされた画像に含まれる内視鏡の画像は、第1画像の一例である。更に、画面キャプチャされた画像に含まれる観察状況表示マップは、第1情報の一例である。また、置き換えるブランク画像は、第4情報の一例である。また、観察状況表示マップの領域の画像がブランク画像に置き換えられた画面画像は、第3画像の一例である。
 このように、画面キャプチャした画像に対し、観察状況表示マップの部分の画像を他の画像に置き換えることで、不適切な観察状況表示マップが保存されるのを防止できる。
 なお、本例では、ブランク画像に置き換える例で説明したが、その他の画像に置き換える構成とすることもできる。たとえば、テキスト等を含む画像に置き換える構成とすることもできる。
 [鑑別結果の保存]
 図17は、画面キャプチャによって鑑別結果を保存する場合の処理の一例を示す図である。
 同図は、所定のポジションマップPMを用いて観察結果を画面上に表示する場合の例を示している。ポジションマップPMとは、鑑別している領域(病変部の領域)を位置で示した図である。鑑別している領域が、鑑別結果に応じた色で表示される。たとえば、鑑別結果が腫瘍性の場合、該当領域が黄色で表示され、鑑別結果が非腫瘍性の場合、該当領域が緑色で示される。
 図17(A)は、画面キャプチャされた画像(画面画像)SIaの一例を示す図である。同図は、画面キャプチャがされた時点で未だ鑑別結果が出力されていない場合の例を示している。
 図17(B)は、保存する画面画像(保存用画面画像)SIbの一例を示す図である。同図に示すように、キャプチャされた画面画像SIaに対し、ポジションマップの領域の画像が置き換えられた、画像SIbが生成される。置き換えられる画像は、画面キャプチャした時点で表示装置に表示されている内視鏡の画像に基づくポジションマップPMaの画像である。
 なお、本例においても、ポジションマップをブランク画像に置き換えて保存する構成とすることもできる。
 [その他の実施の形態]
 [保存する認識器の処理結果の情報]
 上記実施の形態では、内視鏡で撮影された画像から病変部を検出する処理、検出された病変部を鑑別する処理、及び、観察状況を判定する処理等を行い、その結果を保存する場合を例に説明したが、画像処理装置が行う認識処理の種類、及び、保存する処理結果の種類は、これに限定されるものではない。検査の目的等に応じて適宜設定できる。
 [保存先]
 上記実施の形態では、撮影した静止画及び認識器の処理結果に関する情報等を画像処理装置に備えられた補助記憶装置に保存する構成としているが、各情報の保存先は、これに限定されるものではない。外部の記憶装置に保存する構成とすることもできる。たとえば、ネットワーク等を介して接続されたデータサーバ等に保存する構成とすることもできる。
 [ハードウェア構成]
 画像処理装置が有する機能は、各種のプロセッサ(Processor)で実現できる。各種のプロセッサには、プログラムを実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)及び/又はGPU(Graphic Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。プログラムは、ソフトウェアと同義である。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサで構成されてもよい。たとえば、1つの処理部は、複数のFPGA、あるいは、CPUとFPGAの組み合わせによって構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどに用いられるコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System on Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
1 内視鏡システム
10 内視鏡
20 光源装置
30 プロセッサ装置
31 内視鏡制御部
32 光源制御部
33 画像処理部
34 入力制御部
35 出力制御部
40 入力装置
50 表示装置
52 画面
100 画像処理装置
101 プロセッサ
102 主記憶装置
103 補助記憶装置
104 入出力インターフェース
111 画像取得部
112 コマンド取得部
113 認識処理部
113A 病変検出部
113B 鑑別部
113C 観察状況判定部
113C1 部位認識部
113C2 判定部
114 記録制御部
115 表示制御部
A1 主表示領域
A2 副表示領域
A3 鑑別結果表示領域
B 検出された病変部を囲う枠
BL ブランク画像
I 内視鏡で撮影された画像
I1 時刻T1の時点で表示装置に表示されている内視鏡の画像
Ip 患者に関する情報
Is 撮影された静止画
Ix 静止画の撮影が指示された時点で表示装置に表示されている内視鏡の画像(静止画)
M 観察状況表示マップ
M1 時刻T1の時点で表示装置に表示される観察状況表示マップ
M2 時刻T2の時点で表示装置に表示される観察状況表示マップ
Mx 更新済みであることを示すマーク
Ot1 第1観察対象部位
Ot2 第2観察対象部位
Ot3 第3観察対象部位
Ot4 第4観察対象部位
Ot5 観察対象部位
Ot6 第6観察対象部位
Ox 観察状況の判定結果の情報
PM ポジションマップ
PMa 置き換えられたポジションマップ
SI1 画面画像
SI1a 保存用画面画像
SIa 画面画像
SIb 保存用画面画像
Sc シェーマ図

Claims (19)

  1.  内視鏡によって時系列に撮影された画像を処理する画像処理装置であって、
     入力された前記画像に対し認識処理を行う認識器と、
     プロセッサと、
     を備え、
     前記プロセッサは、
     前記画像を時系列順に取得し、
     前記画像を時系列順に表示部に表示させ、
     認識処理の実行指示に応じて、指示を受け付けた時点で前記表示部に表示されている前記画像を第1画像として前記認識器に認識処理させ、
     前記認識器の処理結果に基づく第1情報を前記表示部に表示させ、
     前記認識処理の実行指示を受け付けた時点を特定する第2情報に関連付けて、前記認識器の処理結果に関する第3情報を記憶部に保存する、
     画像処理装置。
  2.  前記認識処理の実行指示が、静止画の撮影指示を兼ね、
     前記プロセッサは、前記認識処理の実行指示に応じて、前記第1画像を前記記憶部に保存する、
     請求項1に記載の画像処理装置。
  3.  前記第2情報が、前記認識処理の実行指示に応じて前記記憶部に保存される前記第1画像で構成される、
     請求項2に記載の画像処理装置。
  4.  前記第2情報が、前記認識処理の実行指示を受け付けた時点の時刻又は日時の情報、若しくは、撮影開始からの経過時間の情報で構成される、
     請求項1又は2に記載の画像処理装置。
  5.  前記プロセッサは、
     前記認識処理の実行指示に応じて、指示を受け付けた時点で前記表示部に表示されている前記第1情報を前記第2情報に関連付けて前記記憶部に保存し、
     前記第1画像に対する前記認識器の処理結果が出力された後、前記認識器の処理結果に基づいて、前記記憶部に保存した前記第1情報を更新し、更新後の前記第1情報を前記第3情報として前記記憶部に保存する、
     請求項1から3のいずれか1項に記載の画像処理装置。
  6.  前記第3情報が、更新後の前記第1情報であることを示す情報を含んで構成される、
     請求項5に記載の画像処理装置。
  7.  前記プロセッサは、
     前記認識処理の実行指示を受け付けた時点で前記表示部に表示されている画面の画像であって、前記第1画像及び前記第1情報を含む画像を第2画像として前記記憶部に保存し、
     前記第1画像に対する前記認識器の処理結果が出力された後、前記認識器の処理結果に基づいて、前記記憶部に保存した前記第2画像の前記第1情報の部分を更新することにより、更新後の前記第1情報の部分を前記第3情報とし、かつ、前記第1画像の部分を前記第2情報として含む前記第2画像を前記記憶部に保存する、
     請求項1に記載の画像処理装置。
  8.  前記プロセッサは、前記表示部の画面内に設定された第1領域に前記第1画像を表示させ、前記第1領域とは異なる領域に設定された第2領域に前記第1情報を表示させる、
     請求項7に記載の画像処理装置。
  9.  前記第3情報が、更新後の前記第1情報であることを示す情報を含んで構成される、
     請求項7又は8に記載の画像処理装置。
  10.  前記第1情報及び前記第3情報が、前記認識器の処理結果に基づいて生成される画像で構成される、
     請求項1から9のいずれか1項に記載の画像処理装置。
  11.  前記第1情報が、前記認識器の処理結果に基づいて生成される画像で構成され、
     前記第3情報が、前記第1情報を構成する画像の生成に必要な情報で構成される、
     請求項1から9のいずれか1項に記載の画像処理装置。
  12.  前記第3情報が、前記第1情報の生成に必要な情報で構成される、
     請求項1から9のいずれか1項に記載の画像処理装置。
  13.  前記第3情報が、前記認識器の処理結果を示す情報である、
     請求項11又は12に記載の画像処理装置。
  14.  前記認識器が、病変部を検出し、
     前記第1情報が、前記病変部の位置を示す情報で構成される、
     請求項1から13のいずれか1項に記載の画像処理装置。
  15.  前記認識器が、病変部を鑑別し、
     前記第1情報が、前記病変部の鑑別結果を示す情報で構成される、
     請求項1から13のいずれか1項に記載の画像処理装置。
  16.  前記認識器が、病変部の種別を判別し、
     前記第1情報が、前記病変部の種別を示す情報で構成される、
     請求項1から13のいずれか1項に記載の画像処理装置。
  17.  前記認識器が、特定の臓器の部位を判別し、
     前記第1情報が、前記臓器内で観察済みの部位を示す情報で構成される、
     請求項1から13のいずれか1項に記載の画像処理装置。
  18.  内視鏡によって時系列に撮影された画像を処理する画像処理装置であって、
     入力された前記画像に対し認識処理を行う認識器と、
     プロセッサと、
     を備え、
     前記プロセッサは、
     前記画像を時系列順に取得し、
     前記画像を時系列順に表示部に表示させ、
     認識処理の実行指示に応じて、指示を受け付けた時点で前記表示部に表示されている前記画像を第1画像として前記認識器に認識処理させ、
     前記認識器の処理結果に基づく第1情報を前記表示部に表示させ、
     前記認識処理の実行指示を受け付けた時点で前記表示部に表示されている画面の画像であって、前記第1画像及び前記第1情報を含む画像を第2画像として取得し、
     前記第2画像の前記第1情報の部分を第4情報で置き換えた画像を第3画像として生成し、
     前記第3画像を記憶部に保存する、
     画像処理装置。
  19.  内視鏡と、
     請求項1から18のいずれか1項に記載の画像処理装置と、
     を備えた内視鏡システム。
PCT/JP2022/039847 2021-11-19 2022-10-26 画像処理装置及び内視鏡システム WO2023090091A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-188501 2021-11-19
JP2021188501 2021-11-19

Publications (1)

Publication Number Publication Date
WO2023090091A1 true WO2023090091A1 (ja) 2023-05-25

Family

ID=86396716

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/039847 WO2023090091A1 (ja) 2021-11-19 2022-10-26 画像処理装置及び内視鏡システム

Country Status (1)

Country Link
WO (1) WO2023090091A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019039252A1 (ja) * 2017-08-24 2019-02-28 富士フイルム株式会社 医療画像処理装置及び医療画像処理方法
WO2020170809A1 (ja) * 2019-02-19 2020-08-27 富士フイルム株式会社 医療画像処理装置、内視鏡システム、及び医療画像処理方法
WO2020184257A1 (ja) * 2019-03-08 2020-09-17 富士フイルム株式会社 医用画像処理装置及び方法
WO2021132023A1 (ja) * 2019-12-26 2021-07-01 富士フイルム株式会社 医用画像処理装置、医用画像処理方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019039252A1 (ja) * 2017-08-24 2019-02-28 富士フイルム株式会社 医療画像処理装置及び医療画像処理方法
WO2020170809A1 (ja) * 2019-02-19 2020-08-27 富士フイルム株式会社 医療画像処理装置、内視鏡システム、及び医療画像処理方法
WO2020184257A1 (ja) * 2019-03-08 2020-09-17 富士フイルム株式会社 医用画像処理装置及び方法
WO2021132023A1 (ja) * 2019-12-26 2021-07-01 富士フイルム株式会社 医用画像処理装置、医用画像処理方法及びプログラム

Similar Documents

Publication Publication Date Title
JPWO2020110278A1 (ja) 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法
JP6774552B2 (ja) プロセッサ装置、内視鏡システム及びプロセッサ装置の作動方法
CN113168699B (zh) 计算机程序、信息处理方法以及内窥镜用处理器
WO2021176664A1 (ja) 検査支援システム、検査支援方法、及び、プログラム
KR100751160B1 (ko) 의료용 화상 기록 시스템
CN114945314A (zh) 医疗图像处理装置、内窥镜***、诊断辅助方法及程序
WO2023090091A1 (ja) 画像処理装置及び内視鏡システム
JP2023552032A (ja) 医療処置中に未検査領域を識別するためのデバイス、システム、及び方法
US20230260117A1 (en) Information processing system, endoscope system, and information processing method
US20220361739A1 (en) Image processing apparatus, image processing method, and endoscope apparatus
WO2022080141A1 (ja) 内視鏡撮影装置、方法およびプログラム
WO2023228659A1 (ja) 画像処理装置及び内視鏡システム
WO2023112499A1 (ja) 内視鏡画像観察支援装置及び内視鏡システム
WO2022186111A1 (ja) 医用画像処理装置、医用画像処理方法、及びプログラム
US20240161288A1 (en) Endoscope system, operation method of endoscope system, and processor
US20240108198A1 (en) Medical image processing device, endoscope system, and operation method of medical image processing device
WO2023282144A1 (ja) 情報処理装置、情報処理方法、内視鏡システム及びレポート作成支援装置
US20220375089A1 (en) Endoscope apparatus, information processing method, and storage medium
EP4111938A1 (en) Endoscope system, medical image processing device, and operation method therefor
WO2023067922A1 (ja) 内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡システム
US11601732B2 (en) Display system for capsule endoscopic image and method for generating 3D panoramic view
US20220414885A1 (en) Endoscope system, medical image processing device, and operation method therefor
US20240233896A9 (en) Information processing apparatus, information processing method, endoscope system, and report creation support device
WO2021241695A1 (ja) 内視鏡画像処理装置
WO2024095673A1 (ja) 医療支援装置、内視鏡、医療支援方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22895375

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023561492

Country of ref document: JP

Kind code of ref document: A