WO2022195725A1 - 情報処理装置および画像表示方法 - Google Patents

情報処理装置および画像表示方法 Download PDF

Info

Publication number
WO2022195725A1
WO2022195725A1 PCT/JP2021/010634 JP2021010634W WO2022195725A1 WO 2022195725 A1 WO2022195725 A1 WO 2022195725A1 JP 2021010634 W JP2021010634 W JP 2021010634W WO 2022195725 A1 WO2022195725 A1 WO 2022195725A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
user
unit
images
observed
Prior art date
Application number
PCT/JP2021/010634
Other languages
English (en)
French (fr)
Inventor
珠帆 宮内
卓志 永田
聡美 小林
奈々 杉江
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to PCT/JP2021/010634 priority Critical patent/WO2022195725A1/ja
Publication of WO2022195725A1 publication Critical patent/WO2022195725A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof

Definitions

  • the present disclosure relates to technology for displaying multiple images.
  • Patent Document 1 when the main reproduction of video data is interrupted, reproduction history information specifying the portion of the video data for which the main reproduction was interrupted is stored in association with the video data, and the video data is reproduced based on the reproduction history information.
  • a video playback method for generating provisional playback start information specifying a video data portion for which provisional playback is to be started, and provisionally playing back the video data from the video portion specified by the provisional playback start information.
  • an information processing apparatus includes a photographed image arrangement unit that arranges a plurality of photographed images side by side in a list display area, and a reproduction unit that reproduces the images in the order in which they were photographed.
  • an observation determination unit that determines whether or not the reproduced image has been observed by the user; and a processing execution unit that executes processing indicating that observation has been completed.
  • An image display method includes displaying a plurality of captured images side by side in a list display area, reproducing the images in the order in which they were captured, and determining whether or not the reproduced images were observed by the user. If it is determined that the reproduced image has been viewed by the user, the image arranged in the list display area is processed to indicate that it has been viewed.
  • FIG. 10 is a diagram showing an example of an endoscopic image interpretation screen;
  • FIG. 10 is a diagram showing a playback button for an endoscopic image;
  • FIG. 10 is a diagram showing an example of a peripheral image reproduction area superimposed and displayed on the list display area;
  • FIG. 10 is a diagram showing a display example of a peripheral image playback area during forward playback;
  • FIG. 11 is a diagram showing a display example of a temporarily stopped peripheral image playback area; It is a figure which shows an example of the marking process result performed to the list display area.
  • FIG. 10 is a diagram showing an example of a captured image display area; It is a figure which shows an example of the marking process result performed to the list display area.
  • FIG. 1 is a diagram for explaining the outline of the image observation support system according to the embodiment.
  • the image observation support system 1 includes a capsule endoscope 3 that is introduced into the body of a subject (patient) and transmits image data of the interior of the subject, and receives image data transmitted from the capsule endoscope 3. and an information processing device 10 that acquires an image data group from the receiving device 4, performs predetermined image processing, and displays an endoscopic image on a display device 12.
  • FIG. Cradle 5 is connected to information processing apparatus 10 by a data transfer cable.
  • the receiving device 4 is connected to the information processing device 10 via the cradle 5 by being inserted into the cradle 5 .
  • the subject has multiple receiving antennas (not shown) attached to the abdomen, and swallows the capsule endoscope 3 through the mouth while the receiving device 4 is attached to the waist with a belt.
  • the capsule endoscope 3 performs A/D conversion on imaging signals output from an imaging unit that is an ultra-compact camera, an illumination unit that illuminates the inside of the subject's body, and converts the image ID and imaging time information into meta data. It comprises a signal processing unit that generates image data added as data, a memory that temporarily stores image data, a communication module that transmits the image data stored in the memory, and a battery that supplies power to each unit.
  • the capsule endoscope 3 periodically captures still images while moving through the gastrointestinal tract, and transmits the image data to the receiving device 4 via an antenna.
  • the receiving device 4 has a built-in recording medium, and the receiving device 4 associates the image data received by each receiving antenna with the radio wave intensity information at the time of reception by each receiving antenna, and records it in the recording medium.
  • the capsule endoscope 3 captures images of the inside of the body every 0.5 seconds, about 60,000 pieces of image data are recorded in the recording medium when the images of the inside of the body are completed in about 8 hours.
  • the image ID is information for identifying an image, and may be information to which a serial number indicating the order of imaging is added. For example, "1" may be added to the image ID of the first captured endoscopic image, and "2" may be added to the image ID of the second captured endoscopic image.
  • the serial number included in the image IDs expresses the shooting order, and duplication of the image IDs can be avoided.
  • the image ID and the shooting time information may be added to the image data as metadata by the receiving device 4 when the receiving device 4 receives the image data.
  • the image data captured by the capsule endoscope 3 is recorded in the recording medium with the image ID and capturing time information added as metadata, and associated with the received radio wave intensity.
  • the antenna and the receiving device 4 are collected from the subject.
  • the data terminal of the receiving device 4 is connected to the connector of the cradle 5, and about 60,000 image data and radio wave intensity information recorded on the recording medium are processed. transferred to the device 10;
  • FIG. 2 shows functional blocks of the information processing device 10 .
  • the information processing apparatus 10 includes an acquisition unit 20, an image diagnosis unit 22, an image processing unit 24, an operation reception unit 26, a screen generation unit 30, an observation determination unit 40, a process execution unit 42, an image capture unit 44, and a storage unit 50.
  • the screen generation unit 30 has a captured image placement unit 32, a reproduction processing unit 34, and a captured image placement unit 36, and generates a display screen.
  • the processing execution unit 42 may be one function of the screen generation unit 30 .
  • Each function of the information processing apparatus 10 may be realized by executing various applications such as an image reproduction application.
  • the configuration of the information processing apparatus 10 can be implemented by arbitrary processors, memories, and other LSIs in terms of hardware, and by programs loaded in the memory in terms of software. It depicts the functional blocks to be implemented. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
  • the acquisition unit 20 acquires about 60,000 pieces of image data and radio wave intensity information transferred from the cradle 5 and stores them in the storage unit 50 .
  • the storage unit 50 is a large-capacity recording device such as an HDD (hard disk drive) or an SSD (solid state drive), and may be a built-in recording device. It may be an external recording device that The radio wave intensity information is used for processing to identify the locus of movement of the capsule endoscope 3 .
  • the image data transferred from the cradle 5 is either uncompressed RAW (raw) image data or RAW image data subjected to only lossless compression, and the data size is very large. Therefore, when the acquisition unit 20 acquires the image data, the image processing unit 24 performs irreversible compression processing on the RAW image data, generates an endoscope image to which the image ID and imaging time information are added as metadata, and stores the image data. may be stored in unit 50; For example, the image processing unit 24 may compress the endoscopic RAW image in an image format such as JPEG.
  • the image diagnosis unit 22 has a function of diagnosing endoscopic images.
  • the image diagnosis unit 22 performs the image diagnosis function using a trained model generated by machine learning using learning images, which are endoscopic images captured in the past, and labels indicating lesions as teacher data. It can be realized.
  • the trained model outputs lesion information regarding the endoscopic image.
  • the lesion information includes at least information indicating whether or not a lesion has been detected, and may include a lesion name if a lesion has been detected.
  • the image diagnosis unit 22 inputs the endoscopic images to the learned model according to the imaging order included in the image ID, and acquires the lesion information from the learned model.
  • the image diagnosis unit 22 has a function of distinguishing and recognizing lesions included in a plurality of endoscopic images.
  • the image diagnosis unit 22 assigns identification information (lesion ID) to the lesion detected by the learned model, and adds the lesion ID to the lesion information of the endoscopic image.
  • the image diagnosis unit 22 determines whether the detected lesion is the same as a lesion to which a lesion ID has already been assigned. If the detected lesion is the same as a lesion already given a lesion ID, the image diagnosis unit 22 adds the lesion ID of the lesion to the lesion information of the endoscopic image including the lesion. On the other hand, if the detected lesion is not the same as a lesion to which a lesion ID has already been assigned, the imaging diagnostic unit 22 assigns a new lesion ID to the detected lesion, Add the assigned lesion ID to the information.
  • the image diagnosis unit 22 performs image diagnosis using the endoscopic image that has been compressed by the image processing unit 24, but performs image diagnosis using the endoscopic RAW image that has not been compressed by the image processing unit 24. you can go When the image diagnosis unit 22 acquires the lesion information of the endoscopic image, the image processing unit 24 adds the lesion information to the metadata of the endoscopic image. Therefore, the metadata of the endoscopic image stored in the storage unit 50 includes at least the image ID, imaging time information, and lesion information.
  • Doctor B who is a user, logs in to the information processing apparatus 10 by entering a user ID and a password.
  • the display device 12 displays a list of capsule endoscopy examinations.
  • the examination list screen displays examination information such as patient ID, patient name, examination ID, examination date and time, and the user selects an examination for which an interpretation report is to be created.
  • the screen generator 30 creates an interpretation screen for the user to interpret an endoscopic image. It is generated and displayed on the display device 12 .
  • FIG. 3 shows an example of an endoscopic image interpretation screen.
  • the photographed image arrangement unit 32 arranges a plurality of photographed endoscopic images 80a to 80u (hereinafter referred to as “endoscopic images 80” unless otherwise distinguished) in a grid pattern in the list display area 100. .
  • An endoscopic image that does not fit on the display screen is displayed by the user operating the scroll bar.
  • the photographed image arrangement unit 32 refers to the metadata of the endoscopic images stored in the storage unit 50 and extracts a part of the endoscopic images from the storage unit 50 . , are arranged in the list display area 100 in order of shooting. Specifically, the photographed image placement unit 32 extracts endoscopic images in which lesions have been detected, and arranges them in the list display area 100 in order of photography.
  • an elapsed time from the start of imaging (hereinafter referred to as "imaging time") is displayed.
  • the photographed image arrangement unit 32 arranges a plurality of endoscopic images 80 in order from the left end of the screen to the right end of the screen in chronological order of photographing time. lined up. Since the image interpretation screen shown in FIG. 3 displays only endoscopic images including lesions, the number of displayed images can be significantly reduced compared to the case where all endoscopic images are displayed.
  • an endoscopic image including a lesion was taken as an example of a part of the endoscopic images to be arranged in the list display area 100.
  • the list display area 100 may include an endoscopic image of the entrance of the site, a bleeding image including bleeding, and the like. Also, among endoscopic images including lesions, only endoscopic images related to specific lesions may be extracted and included in the list display area 100 .
  • the user uses the mouse, which is the input unit 14, to input an operation for the endoscopic image 80 in the list display area 100.
  • the operation accepting unit 26 accepts a user's operation.
  • the endoscopic images 80c are surrounded by the selection frame 120.
  • the endoscopic image 80c is displayed.
  • the image 80 is surrounded by the selection frame 120.
  • the time bar display area 102 displays a time bar with the shooting start time at the left end and the shooting end time at the right end.
  • a slider 106 indicates the temporal position of the endoscopic image 80c selected in the list display area 100.
  • FIG. The captured image display switching button 104 is operated when displaying the captured image display area.
  • FIG. 4 shows the playback button 108 for endoscopic images.
  • a play button 108 is displayed on that endoscopic image 80 .
  • the mouse pointer 110 is aligned with the endoscopic image 80c surrounded by the selection frame 120, but when the mouse pointer 110 is aligned with another endoscopic image 80, that endoscopic image 80 A play button 108 is displayed above.
  • the operation reception unit 26 accepts the left-click operation as a peripheral image playback request, and the playback processing unit 34 plays back an image starting from the endoscopic image 80c. is superimposed on the list display area 100 .
  • FIG. 5 shows an example of the peripheral image playback area 112 superimposed on the list display area 100.
  • the reproduction processing unit 34 has a function of reproducing a plurality of endoscopic images in the peripheral image reproduction area 112 in the order in which they were captured.
  • This playback function is called a "peripheral image playback function" because it is a function of continuously playing back images that are close in distance to the shooting position of the endoscopic image 80c that is the selected starting point.
  • the surrounding image reproduction area 112 is displayed as a window, and the user can move the surrounding image reproduction area 112 to a desired position.
  • the reproduction processing unit 34 reproduces the endoscopic image in a reproduction mode according to the user's operation accepted by the operation accepting unit 26 .
  • the reproduction processing unit 34 continuously (animatedly) reproduces the plurality of endoscopic images stored in the storage unit 50 in the order in which they were captured, starting from the endoscopic image 80c for which the reproduction button 108 was operated.
  • the reproduction processing unit 34 reproduces the endoscopic images captured around the imaging position of the endoscopic image 80 c so that the user can observe the endoscopic images that are not displayed in the list display area 100 .
  • a forward play button 114a and a reverse play button 114b are displayed.
  • the operation accepting unit 26 accepts the selection operation of the forward playback button 114a, and the playback processing unit 34 causes the endoscopic image 80c to be reproduced in the peripheral image playback area 112 from the endoscopic image 80c.
  • the endoscopic images are switched in the forward direction (direction from old images to new images) and reproduced.
  • the operation receiving unit 26 receives the selection operation of the reverse playback button 114b, and the playback processing unit 34 performs reverse playback from the endoscopic image 80c in the peripheral image playback region 112.
  • the endoscopic images are switched in the direction (from the image with the latest shooting time to the image with the old shooting time) and played back.
  • the playback speed (the display time of one endoscopic image) can be adjusted with a slider provided in the playback button display area 114 .
  • the endoscopic image is not only automatically reproduced by operating the forward reproduction button 114a and the reverse reproduction button 114b, but also by manual operation by the user.
  • the operation reception unit 26 receives the rotation operation of the wheel, and the reproduction processing unit 34 reproduces the endoscopic images one by one in the peripheral image reproduction area 112 for frame-advance reproduction or frame-rewind reproduction. do.
  • the operation accepting unit 26 accepts a frame-by-frame playback operation
  • the playback processing unit 34 forwards frame-by-frame playback of the endoscopic images in the peripheral image playback area 112 and the user rotates the wheel backward
  • the operation receiving unit 26 receives a frame-by-frame reverse reproduction operation
  • the reproduction processing unit 34 performs frame-by-frame reverse reproduction of the endoscopic image in the reverse direction.
  • the reproduction processing unit 34 reproduces the endoscopic image stored in the storage unit 50 in a reproduction mode according to the user's operation received by the operation receiving unit 26 .
  • the peripheral image reproduction area 112 shown in FIG. 5 triangular marks are added to the four corners of the endoscopic image 80c. These triangular marks indicate that the images are displayed in the list display area 100.
  • FIG. 6 shows a display example of the peripheral image playback area 112 during forward playback.
  • the operation receiving unit 26 receives a selection operation of the forward reproduction button 114a, and the reproduction processing unit 34 reproduces the endoscopic images in the forward direction, starting from the endoscopic image 80c, according to the shooting order.
  • an endoscopic image captured at "51:04" is reproduced.
  • the four corners of the displayed endoscopic image are marked with triangles. No mark is added.
  • a pause button 114c is displayed instead of the selected forward play button 114a or reverse play button 114b.
  • the playback processing unit 34 pauses the playback of the endoscopic image and continues to display the endoscopic image at the time of playback stop. .
  • FIG. 7 shows a display example of the paused peripheral image playback area 112.
  • the operation accepting unit 26 accepts a selection operation of the pause button 114c, and the playback processing unit 34 suspends playback of the endoscopic image.
  • an endoscopic image 90 captured at "53:41" is displayed as a still image.
  • the reproduction processing unit 34 ends the superimposed display of the peripheral image reproduction area 112 so that the user can see the entire list display area 100. Become.
  • the endoscopic image captured at "53:41” is temporally divided into an endoscopic image 80e captured at "53:03" and an endoscopic image 80e captured at "1:20:01". It is located between the photographed endoscopic image 80f. Therefore, the endoscopic images 80c, 80d, and 80e are displayed in the peripheral image playback area 112 during peripheral image playback starting from the endoscopic image 80c. Therefore, the processing execution unit 42 executes processing indicating that the endoscopic images 80c, 80d, and 80e arranged in the list display area 100 have been observed.
  • the process execution unit 42 may perform a marking process to indicate that the endoscopic images 80c, 80d, and 80e arranged in the list display area 100 have been observed.
  • the marking process may include various forms of display processes that can distinguish between the unobserved endoscopic image 80 and the observed endoscopic images 80c, 80d, 80e.
  • FIG. 8 shows an example of the result of marking processing applied to the list display area 100.
  • an observed mark 122 is added to the observed endoscopic images 80c, 80d, and 80e.
  • the user can easily recognize that the endoscopic images 80c, 80d, and 80e have been observed, and inefficient double reading can be prevented.
  • the observed marks 122 may be placed at positions associated with the endoscopic images 80c, 80d, and 80e, and the processing execution unit 42 may place the observed marks 122 near the imaging time.
  • the processing execution unit 42 changes the character color and character font of the photographing time, changes the display color around the image, etc., so that the observed endoscope images 80c, 80d, and 80e can be transferred to other endoscopes. It may be displayed so as to be distinguished from the image 80 .
  • the processing execution unit 42 of the embodiment performs processing indicating that the endoscopic image 80 has been observed only when it is estimated that the user has observed the reproduced endoscopic image 80. may be executed.
  • the observation determination unit 40 determines whether or not the endoscopic image 80 reproduced in the peripheral image reproduction area 112 has been observed by the user. When it is determined that the reproduced endoscopic image 80 has been observed by the user, the processing execution unit 42 indicates that the endoscopic image 80 arranged in the list display area 100 has been observed. Execute the indicated process. The determination criteria used by the observation determination unit 40 will be described below.
  • the observation determination unit 40 may determine whether or not the reproduced endoscopic image 80 has been observed by the user based on the reproduction time by the reproduction processing unit 34 . Specifically, the observation determining unit 40 determines that the endoscopic image 80 has been observed by the user when the playback time is longer than or equal to the predetermined time, and determines that the endoscopic image 80 has been observed by the user when the playback time is less than the predetermined time. is not observed by the user.
  • the user may erroneously operate the forward playback button 114a or the reverse playback button 114b, and in such cases, it is not preferable to evaluate the reproduced endoscopic image 80 as having been observed.
  • the observation determination unit 40 determines that the user is not observing when the playback time is short. you can For example, the time threshold for determining the presence or absence of observation may be about 3 seconds.
  • the reproduction processing unit 34 reproduces the starting endoscopic image 80c (photographed time: 50:15) to the endoscopic image 90 (photographed time: 53:41) using the peripheral image reproduction function.
  • the reproduction processing unit 34 reproduces 412 images at 15 fps as shown in the reproduction button display area 114, the reproduction time is approximately 27.5 seconds, which is longer than the time threshold of 3 seconds. Therefore, when determination criterion 1 is used, the observation determining unit 40 determines that the displayed endoscopic images 80c, 80d, and 80e have been observed by the user.
  • the observation determination unit 40 specifies the playback time by the playback processing unit 34 based on the interval between the shooting times of the played back images, and determines whether or not the played back endoscopic image 80 has been observed by the user.
  • the threshold in this case may be longer than 3 seconds, and may be set to about 15 seconds, for example. Since the imaging time interval is 3 minutes and 26 seconds, which is longer than the time threshold of 15 seconds, the observation determination unit 40 may determine that the displayed endoscopic images 80c, 80d, and 80e have been observed by the user. .
  • criterion 1 is applied to the playback mode in which the forward playback button 114a or the reverse playback button 114b is operated. good.
  • the observation determination unit 40 may determine whether or not the reproduced endoscopic image 80 has been observed by the user based on the reproduction mode of the endoscopic image 80 by the reproduction processing unit 34 . Specifically, the observation determination unit 40 determines that the reproduced endoscopic image 80 has been observed by the user when the reproduction mode is forward reproduction or reverse reproduction. On the other hand, the observation determination unit 40 determines that the reproduced endoscopic image 80 is not observed by the user when the reproduction mode is frame forward or frame reverse based on manual operation. Since there is a high possibility that the user will erroneously operate the wheel of the mouse, the observation determination unit 40 determines that the endoscopic image 80 reproduced by the wheel operation is not being observed.
  • the reproduction processing unit 34 reproduces endoscopic images based on the operation of the forward reproduction button 114a. Therefore, when determination criterion 2 is used, the observation determining unit 40 determines that the displayed endoscopic images 80c, 80d, and 80e have been observed by the user.
  • the user captures (saves) the observed endoscopic images and extracts the endoscopic images for attachment to the inspection report.
  • the capture operation may be an operation of double-clicking the endoscopic image paused in the peripheral image playback area 112 .
  • the image capture unit 44 receives the endoscopic image. Capture a mirror image. For example, when the user double-clicks the endoscopic image 90 in the peripheral image reproduction area 112 shown in FIG.
  • FIG. 9 shows an example of the captured image display area 116.
  • the captured image placement unit 36 arranges the captured images in the captured image display area 116 in order of shooting.
  • the rightmost captured image is an endoscopic image 90 .
  • the observation determination unit 40 determines whether the reproduced endoscopic image has been observed by the user based on whether the image capturing unit 44 has captured the endoscopic image 90 . Specifically, when the image capture unit 44 captures the endoscopic image 90 displayed in the peripheral image reproduction area 112, the observation determination unit 40 determines that the reproduced endoscopic image has been observed by the user. When the operation accepting unit 26 accepts the capture operation, it is certain that the user is observing the endoscopic image, so the observation determining unit 40 can determine that the reproduced endoscopic image has been observed by the user. .
  • the observation determination unit 40 determines that the reproduced endoscopic image is not being observed by the user. you can
  • the image capture unit 44 captures an endoscopic image 90 . Therefore, when determination criterion 3 is used, the observation determining unit 40 determines that the endoscope images 80c, 80d, and 80e displayed in the reproduction process have been observed by the user.
  • Any one of the criteria 1 to 3 above may be used alone, or they may be used in combination.
  • a determination method when two or more determination criteria are combined will be described below.
  • Determination method when determination criterion 3 is combined with determination criterion 1 and/or determination criterion 2 (a) When an endoscopic image is captured Regardless of the determination result by 2, it is determined by determination criterion 3 that the reproduced endoscopic image 80 has been observed. (b) When an endoscopic image is not captured (b-1) When judgment criteria 3 and 1 are combined It is determined whether or not (b-2) Combination of Determination Criteria 3 and Determination Criteria 2 The observation determination unit 40 determines whether or not the reproduced endoscopic image 80 has been observed according to the determination criteria 2 .
  • the observation judgment unit 40 determines whether the reproduced endoscopic image 80 is observed if the reproduction mode is frame forward or frame reverse. determine that it is not. The observation determination unit 40 determines whether or not the reproduced endoscopic image 80 has been observed based on determination criterion 1 if the reproduction mode is forward reproduction or reverse reproduction. Therefore, even if the reproduction mode is forward reproduction or reverse reproduction, if the reproduction time is less than 3 seconds, the observation determination unit 40 determines that the reproduced endoscopic image 80 is not being observed.
  • the observation determination unit 40 determines that the reproduced endoscopic image 80 is not being observed if the reproduction mode is frame forward or frame reverse. The observation determination unit 40 determines whether or not the reproduced endoscopic image 80 has been observed based on determination criterion 1 if the reproduction mode is forward reproduction or reverse reproduction. Therefore, even if the reproduction mode is forward reproduction or reverse reproduction, if the reproduction time is less than 3 seconds, the observation determination unit 40 determines that the reproduced endoscopic image 80 is not being observed.
  • the observation determination unit 40 uses one or more determination criteria to determine whether or not the reproduced endoscopic image 80 has been observed by the user.
  • the processing executing unit 42 determines whether the endoscopic image 80 arranged in the list display area 100 has been observed. Executes a process indicating that As described above, FIG. 8 shows a state in which the observed mark 122 is added to the endoscopic images 80c, 80d, and 80e that have been determined to have been observed.
  • lesion information is added to the endoscopic image 80 as metadata.
  • the lesion information includes a lesion ID that identifies a lesion, and the observation determination unit 40 can identify an endoscopic image group including the same lesion by referring to the lesion ID of each endoscopic image 80. . Therefore, when the observation determination unit 40 determines that the endoscopic images 80c, 80d, and 80e have been observed, the observation determining unit 40 determines that the endoscopic images 80c, 80d, and 80e include the same lesions as those included in the respective endoscopic images 80c, 80d, and 80e. Image 80 may be considered as viewed.
  • FIG. 10 shows an example of the result of marking processing applied to the list display area 100.
  • the observation determination unit 40 identifies the lesion IDs of the endoscopic images 80c, 80d, and 80e determined to have been observed, and searches for another endoscopic image 80 containing these lesion IDs.
  • the lesion ID of the endoscopic image 80b is the same as the lesion ID of the endoscopic image 80c.
  • the endoscopic image 80b without the image is considered the observed image.
  • the processing execution unit 42 performs a marking process indicating that the images have been observed on the endoscopic images 80c, 80d, and 80e that have been determined to have been observed, and the endoscopic image 80b that has been determined to have been observed.
  • observed marks 122 are added to the endoscopic images 80b, 80c, 80d, and 80e.
  • the user can easily recognize that the endoscopic images 80b, 80c, 80d, and 80e have been observed, and inefficient double reading can be prevented.
  • the processing execution unit 42 may have a function of returning the endoscopic images 80b, 80c, 80d, and 80e to the state before the marking processing according to the user's operation.
  • the processing execution unit 42 may have a function of collectively returning the plurality of endoscopic images 80b, 80c, 80d, and 80e to the state before the marking processing according to the user's operation. Since all the observed marks 122 can be erased collectively, the mark erasing operation can be facilitated.
  • processing execution unit 42 may have a function of returning one endoscopic image 80 to the state before the marking processing according to user's operation. By erasing the observed marks 122 one by one, the observed marks 122 added to the endoscopic image 80 that were not actually observed can be individually erased.
  • the "peripheral image reproduction function" of the embodiment reproduces the peripheral images without thinning them out according to the order in which they were shot, but the reproduction mode may not be limited to this.
  • a plurality of specific images such as a predetermined representative image or an image of an abnormal finding such as a lesion, are extracted from the captured images, and only the specific plurality of extracted images are displayed in the order in which they were captured.
  • a moving image may be reproduced as an image.
  • the present disclosure can be used in the field of supporting observation of images.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

撮影画像配置部32は、撮影された複数の画像を一覧表示領域に並べて配置する。再生処理部34は、画像を、撮影された順番にしたがって再生する。観察判定部40は、再生された画像が、ユーザによって観察されたか否かを判定する。処理実行部42は、再生された画像がユーザによって観察されたと判定された場合に、一覧表示領域に配置された画像に対して、観察済みであることを示す処理を実行する。

Description

情報処理装置および画像表示方法
 本開示は、複数の画像を表示する技術に関する。
 特許文献1は、映像データの本再生が中断されると、本再生が中断された映像データ部分を特定する再生履歴情報を映像データに対応付けて記憶し、再生履歴情報にもとづいて映像データの仮再生を開始する映像データ部分を指定する仮再生開始情報を生成し、仮再生開始情報で指定される映像部分から当該映像データを仮再生する映像再生方法を開示する。
特開2009-290315号公報
 カプセル内視鏡検査では数万枚の画像が撮影される。従来、読影者は、連続(動画)再生される内視鏡画像を観察して病変を含む画像を特定するが、画像枚数が膨大であるために読影にかかる負担は大きい。
 近年、機械学習による学習済みモデルを利用して医療画像から病変を検出する画像診断支援機能の研究が進められている。画像診断支援機能を利用することで、カプセル内視鏡検査で撮影された膨大な枚数の内視鏡画像から、病変を含む内視鏡画像を短時間で抽出できるようになる。読影者が、抽出された複数の内視鏡画像の一覧画面上で画像観察を行うことで、読影にかかる負担が大幅に低減されることが期待されるが、読影者の要求に応じて、一覧画面に含まれない内視鏡画像も観察できるようにすることが望ましい。本開示はこうした状況に鑑みなされたものであり、その目的は、そのような観察環境において、読影者による効率的な画像観察を実現させるための技術を提供することにある。
 上記課題を解決するために、本発明のある態様の情報処理装置は、撮影された複数の画像を一覧表示領域に並べて配置する撮影画像配置部と、画像を撮影された順番にしたがって再生する再生処理部と、再生された画像が、ユーザによって観察されたか否かを判定する観察判定部と、再生された画像がユーザによって観察されたと判定された場合に、一覧表示領域に配置された画像に対して、観察済みであることを示す処理を実行する処理実行部と、を備える。
 本発明の別の態様の画像表示方法は、撮影された複数の画像を一覧表示領域に並べて表示し、画像を撮影された順番にしたがって再生し、再生された画像が、ユーザによって観察されたか否かを判定し、再生された画像がユーザによって観察されたと判定された場合に、一覧表示領域に配置された画像に対して、観察済みであることを示す処理を実行する。
 なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
実施例にかかる画像観察支援システムの概要を説明するための図である。 情報処理装置の機能ブロックを示す図である。 内視鏡画像の読影画面の例を示す図である。 内視鏡画像の再生ボタンを示す図である。 一覧表示領域に重畳表示される周辺画像再生領域の例を示す図である。 順再生中の周辺画像再生領域の表示例を示す図である。 一時停止した周辺画像再生領域の表示例を示す図である。 一覧表示領域に施されたマーキング処理結果の一例を示す図である。 キャプチャ画像表示領域の例を示す図である。 一覧表示領域に施されたマーキング処理結果の一例を示す図である。
 図1は、実施例にかかる画像観察支援システムの概要を説明するための図である。画像観察支援システム1は、被検者(患者)の体内に導入されて被検体内を撮影した画像データを送信するカプセル内視鏡3と、カプセル内視鏡3から送信された画像データを受信する受信装置4と、受信装置4から画像データ群を取得して所定の画像処理を施し、表示装置12に内視鏡画像を表示する情報処理装置10とを備える。クレードル5は、情報処理装置10とデータ転送ケーブルで接続される。受信装置4は、クレードル5に差し込まれることで、クレードル5を経由して情報処理装置10と接続する。
 カプセル内視鏡検査において、被検者は腹部に複数の受信アンテナ(図示せず)を貼り付けられ、受信装置4をベルトで腰に付けた状態でカプセル内視鏡3を口から飲み込む。カプセル内視鏡3は、超小型カメラである撮像部、被検者の体内を照明する照明部、撮像部から出力される撮像信号をA/D変換して、画像IDおよび撮影時間情報をメタデータとして付加した画像データを生成する信号処理部、画像データを一時記憶するメモリ、メモリに記憶された画像データを送信する通信モジュール、各部に電力を供給するバッテリを備える。カプセル内視鏡3は消化管を移動しながら静止画像を周期的に撮影して、画像データをアンテナ経由で受信装置4に送信する。
 受信装置4には記録媒体が内蔵されており、受信装置4は各受信アンテナで受信した画像データに、各受信アンテナにおける受信時の電波強度情報を関連付けて、記録媒体に記録する。カプセル内視鏡3が0.5秒ごとに体内を撮影する場合、約8時間で体内の撮影を終了すると、約6万枚の画像データが記録媒体に記録される。
 画像IDは画像を識別するための情報であり、撮影順を示すシリアルな番号を付加された情報であってよい。たとえば最初に撮影された内視鏡画像の画像IDには「1」が付加され、2番目に撮影された内視鏡画像の画像IDには「2」が付加されてよい。このように画像IDを生成することで、画像IDに含まれるシリアル番号が撮影順を表現するとともに、画像IDの重複を回避できる。なお画像IDおよび撮影時間情報は、受信装置4が画像データを受信したときに、受信装置4によりメタデータとして画像データに付加されてもよい。いずれにしてもカプセル内視鏡3で撮影された画像データは、画像IDおよび撮影時間情報をメタデータとして付加され、受信電波強度を関連付けられて記録媒体に記録される。
 体内の撮影が終了すると、被検者からアンテナと受信装置4が回収される。看護師が受信装置4をクレードル5に差し込むと、受信装置4のデータ端子が、クレードル5のコネクタに接続し、記録媒体に記録された約6万枚の画像データおよび電波強度情報が、情報処理装置10に転送される。
 図2は、情報処理装置10の機能ブロックを示す。情報処理装置10は、取得部20、画像診断部22、画像処理部24、操作受付部26、画面生成部30、観察判定部40、処理実行部42、画像キャプチャ部44および記憶部50を備える。画面生成部30は、撮影画像配置部32、再生処理部34およびキャプチャ画像配置部36を有し、表示画面を生成する。なお処理実行部42は、画面生成部30の一機能であってもよい。情報処理装置10の各機能は、画像再生アプリケーションなどの各種アプリケーションを実行することによって実現されてよい。
 情報処理装置10の構成はハードウエア的には、任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
 取得部20は、クレードル5から転送される約6万枚の画像データおよび電波強度情報を取得し、記憶部50に記憶させる。記憶部50は、HDD(ハードディスクドライブ)やSSD(ソリッドステートドライブ)などの大容量記録装置であり、内蔵型記録装置であってよく、またUSB(Universal Serial Bus)などによって情報処理装置10と接続する外部記録装置であってもよい。電波強度情報は、カプセル内視鏡3の移動軌跡を特定する処理に利用される。
 クレードル5から転送される画像データは、無圧縮のRAW(生の)画像データであるか、または可逆圧縮のみを施したRAW画像データであり、データサイズは非常に大きい。そこで画像処理部24は、取得部20が画像データを取得すると、RAW画像データに非可逆圧縮処理を施し、画像IDおよび撮影時間情報をメタデータとして付加した内視鏡画像を生成して、記憶部50に記憶してよい。たとえば画像処理部24は、JPEGなどの画像フォーマットで内視鏡RAW画像を圧縮してよい。
 画像診断部22は、内視鏡画像を診断する機能を有する。たとえば画像診断部22は、過去に撮像した内視鏡画像である学習用画像と、病変を示すラベルとを教師データとして用いた機械学習により生成された学習済みモデルを用いて、画像診断機能を実現してよい。画像診断部22が、カプセル内視鏡3が撮影した内視鏡画像を学習済みモデルに入力すると、学習済みモデルは、内視鏡画像に関する病変情報を出力する。ここで病変情報は、病変が検出されたか否かを示す情報を少なくとも含み、病変が検出された場合は、病変名を含んでよい。画像診断部22は、画像IDに含まれる撮影順にしたがって、内視鏡画像を学習済みモデルに入力し、学習済みモデルから、病変情報を取得する。
 画像診断部22は、複数の内視鏡画像に含まれる病変を区別して認識する機能を有する。画像診断部22は、学習済みモデルが検出した病変に識別情報(病変ID)を付与し、病変IDを、内視鏡画像の病変情報に追加する。画像診断部22は、学習済みモデルが病変を検出するたびに、検出された病変が、既に病変IDを付与した病変と同一であるか否かを判別する。検出された病変が、既に病変IDを付与した病変と同じであれば、画像診断部22は、当該病変を含む内視鏡画像の病変情報に、当該病変の病変IDを追加する。一方、検出された病変が、既に病変IDを付与した病変と同一でなければ、画像診断部22は、検出された病変に新しい病変IDを付与して、当該病変を含む内視鏡画像の病変情報に、付与された病変IDを追加する。
 画像診断部22は、画像処理部24により圧縮された後の内視鏡画像を用いて画像診断を行うが、画像処理部24により圧縮される前の内視鏡RAW画像を用いて画像診断を行ってもよい。画像診断部22が、内視鏡画像の病変情報を取得すると、画像処理部24が、病変情報を内視鏡画像のメタデータに追加する。したがって記憶部50に記憶された内視鏡画像のメタデータは、画像ID、撮影時間情報および病変情報を少なくとも含む。
 以下、読影時に表示装置12に表示される画面について説明する。
 ユーザである医師Bは、情報処理装置10にユーザIDおよびパスワードを入力してログインする。ユーザがログインすると、表示装置12には、カプセル内視鏡検査の一覧が表示される。検査一覧画面には、患者ID、患者氏名、検査ID、検査日時などの検査情報が表示され、ユーザは、読影レポート作成の対象となる検査を選択する。検査一覧から患者ID:123456、患者氏名:患者A、検査日:2021/3/3の検査が選択されると、画面生成部30は、ユーザが内視鏡画像を読影するための読影画面を生成して、表示装置12に表示する。
 図3は、内視鏡画像の読影画面の例を示す。撮影画像配置部32は、撮影された複数の内視鏡画像80a~80u(以下、特に区別しない場合は、「内視鏡画像80」と呼ぶ)を一覧表示領域100に格子状に並べて配置する。表示画面に入りきらない内視鏡画像は、ユーザがスクロールバーを操作することで表示される。撮影画像配置部32は、記憶部50に記憶された内視鏡画像のメタデータを参照して、記憶部50から、複数の内視鏡画像の中の一部の内視鏡画像を抽出し、一覧表示領域100に撮影順に並べて配置する。具体的に、撮影画像配置部32は、病変が検出された内視鏡画像を抽出し、一覧表示領域100に撮影順に並べて配置する。各内視鏡画像80の近傍には、撮影開始からの経過時間(以下、「撮影時間」と呼ぶ)が表示される。この例で撮影画像配置部32は、複数の内視鏡画像80を撮影時間が古い順に画面左端から画面右端に向かう方向に並べ、右端まで並べると、その下段に画面左端から画面右端に向けて並べている。図3に示す読影画面は、病変を含む内視鏡画像のみを表示するため、全ての内視鏡画像を表示する場合と比べると、表示枚数を大幅に削減できる。なお実施例では、一覧表示領域100に配置する一部の内視鏡画像として病変を含む内視鏡画像を例にあげたが、別の例では病変を含む内視鏡画像以外に、たとえば各部位の入口を撮影した内視鏡画像、出血を含む出血画像、などが一覧表示領域100に含まれていてもよい。また、病変を含む内視鏡画像の中でも、特定の病変に関する内視鏡画像だけを抽出して一覧表示領域100に含まれてもよい。
 ユーザは、入力部14であるマウスを利用して、一覧表示領域100の内視鏡画像80に対する操作を入力する。操作受付部26は、ユーザの操作を受け付ける。図3に示す一覧表示領域100において、内視鏡画像80cが選択枠120で囲われているが、ユーザが、1つの内視鏡画像80にマウスポインタをあわせて左クリックすると、その内視鏡画像80が選択枠120で囲われる。
 タイムバー表示領域102は、左端を撮影開始時刻、右端を撮影終了時刻とするタイムバーを表示する。スライダ106は、一覧表示領域100で選択された内視鏡画像80cの時間的な位置を示す。キャプチャ画像表示切替ボタン104は、キャプチャ画像表示領域を表示させる際に操作される。
 図4は、内視鏡画像の再生ボタン108を示す。ユーザが、1つの内視鏡画像80にマウスポインタ110をあわせると、その内視鏡画像80上に再生ボタン108が表示される。図4に示す例では、選択枠120で囲まれた内視鏡画像80cにマウスポインタ110をあわせているが、別の内視鏡画像80にマウスポインタ110をあわせると、その内視鏡画像80上に再生ボタン108が表示される。ユーザがマウスポインタ110を再生ボタン108にあわせて左クリックすると、操作受付部26が、左クリック操作を周辺画像再生要求として受け付け、再生処理部34が、内視鏡画像80cを起点とする画像再生のための周辺画像再生領域を一覧表示領域100に重畳表示する。
 図5は、一覧表示領域100に重畳表示される周辺画像再生領域112の例を示す。再生処理部34は周辺画像再生領域112において、複数の内視鏡画像を撮影された順番にしたがって再生する機能を有する。この再生機能は、選択された起点となる内視鏡画像80cの撮影位置に距離的に近い画像を連続再生する機能であるため、「周辺画像再生機能」と呼ばれる。周辺画像再生領域112はウィンドウとして表示され、ユーザは周辺画像再生領域112を所望の位置に移動できる。
 再生処理部34は、操作受付部26が受け付けたユーザ操作に応じた再生態様で、内視鏡画像を再生する。再生処理部34は、記憶部50に記憶された複数の内視鏡画像を、再生ボタン108を操作された内視鏡画像80cを起点として、撮影順にしたがって連続(動画)再生する。再生処理部34が、内視鏡画像80cの撮影位置の周辺で撮影された内視鏡画像を再生することで、ユーザは、一覧表示領域100に表示されていない内視鏡画像を観察できる。
 再生ボタン表示領域114には、順再生ボタン114aと逆再生ボタン114bとが表示される。ユーザがマウスポインタ110を用いて順再生ボタン114aを操作すると、操作受付部26が、順再生ボタン114aの選択操作を受け付け、再生処理部34が、周辺画像再生領域112において内視鏡画像80cから順方向(撮影時間の古い画像から新しい画像に向かう方向)に内視鏡画像を切り替えて再生する。またユーザがマウスポインタを用いて逆再生ボタン114bを操作すると、操作受付部26が逆再生ボタン114bの選択操作を受け付け、再生処理部34が、周辺画像再生領域112において内視鏡画像80cから逆方向(撮影時間の新しい画像から古い画像に向かう方向)に内視鏡画像を切り替えて再生する。再生速度(1枚の内視鏡画像の表示時間)は、再生ボタン表示領域114に設けられたスライダにより調節可能である。
 なお周辺画像再生領域112において、内視鏡画像は、順再生ボタン114aおよび逆再生ボタン114bの操作により自動再生されるだけでなく、ユーザの手動操作によっても再生される。ユーザがマウスのホイールを回転させると、操作受付部26は、ホイールの回転操作を受け付け、再生処理部34は周辺画像再生領域112において、内視鏡画像を1枚ずつコマ送り再生またはコマ戻し再生する。ユーザがホイールを手前向きに回転させると、操作受付部26は、コマ送り再生操作を受け付け、再生処理部34は、周辺画像再生領域112において内視鏡画像を順方向にコマ送り再生し、ユーザがホイールを奥向きに回転させると、操作受付部26は、コマ戻し再生操作を受け付け、再生処理部34は、内視鏡画像を逆方向にコマ戻し再生する。
 以上のように再生処理部34は、操作受付部26が受け付けたユーザ操作に応じた再生態様で、記憶部50に記憶された内視鏡画像を再生する。なお図5に示す周辺画像再生領域112において、内視鏡画像80cの四隅に三角マークが付加されているが、この三角マークは、一覧表示領域100で表示されている画像であることを示している。
 図6は、順再生中の周辺画像再生領域112の表示例を示す。この例では、操作受付部26が、順再生ボタン114aの選択操作を受け付け、再生処理部34が撮影順にしたがって、内視鏡画像80cを起点として順方向に内視鏡画像を再生している。図6に示す例では、撮影時間が「51:04」の内視鏡画像が再生されている。図3を参照して、撮影時間が「51:04」である内視鏡画像は、一覧表示領域100に含まれる内視鏡画像80ではないため、表示された内視鏡画像の四隅に三角マークは付加されていない。
 なお順再生ボタン114aまたは逆再生ボタン114bが選択されると、選択された順再生ボタン114aまたは逆再生ボタン114bの場所には、代わりに一時停止ボタン114cが表示される。内視鏡画像の再生表示中に、ユーザが一時停止ボタン114cを操作すると、再生処理部34は、内視鏡画像の再生を一時停止して、再生停止時の内視鏡画像を表示し続ける。
 図7は、一時停止した周辺画像再生領域112の表示例を示す。この例では、内視鏡画像の再生中に、操作受付部26が、一時停止ボタン114cの選択操作を受け付け、再生処理部34が、内視鏡画像の再生を一時停止する。図7に示す例では、撮影時間が「53:41」の内視鏡画像90が静止画像として表示されている。この状態でユーザがウィンドウ右上の「×」ボタンを操作すると、再生処理部34が、周辺画像再生領域112の重畳表示を終了し、ユーザは、一覧表示領域100の全体を見ることができるようになる。
 図3を参照して、「53:41」に撮影された内視鏡画像は、時間的に、「53:03」に撮影された内視鏡画像80eと、「1:20:01」に撮影された内視鏡画像80fとの間に位置する。そのため内視鏡画像80cを起点とした周辺画像再生時、内視鏡画像80c、80d、80eは周辺画像再生領域112に表示されている。そこで処理実行部42は、一覧表示領域100に配置された内視鏡画像80c、80d、80eに対して、観察済みであることを示す処理を実行する。処理実行部42は、一覧表示領域100に配置された内視鏡画像80c、80d、80eに対して、観察済みであることを示すマーキング処理を行ってよい。マーキング処理は、未観察の内視鏡画像80と、観察済みの内視鏡画像80c、80d、80eとを区別できる様々な態様の表示処理を含んでよい。
 図8は、一覧表示領域100に施されたマーキング処理結果の一例を示す。図8においては、観察済みの内視鏡画像80c、80d、80eに対して、観察済みマーク122が付加されている。このように観察済みマーク122が付加されることで、ユーザは、内視鏡画像80c、80d、80eが観察済みであることを容易に認識でき、非効率な二重読影を防止できる。
 観察済みマーク122は、内視鏡画像80c、80d、80eに関連付けられた位置に配置されればよく、処理実行部42は、観察済みマーク122を撮影時間の近傍に配置してもよい。また処理実行部42は、撮影時間の文字色や文字フォントを変更したり、画像周囲の表示色を変更するなどして、観察済みの内視鏡画像80c、80d、80eを他の内視鏡画像80と区別するように表示してよい。
 なお内視鏡画像80c、80d、80eは、周辺画像再生機能により再生されたものの、ユーザが内視鏡画像80c、80d、80eを観察していない可能性は否定できない。ユーザが観察していない内視鏡画像80に観察済みマーク122を付加すると、ユーザは、当該内視鏡画像80が観察済みであると判断して、当該内視鏡画像80を観察せず、見落としの可能性が生じる。そこで実施例の処理実行部42は、再生された内視鏡画像80をユーザが観察したと推定される場合に限って、当該内視鏡画像80に対して、観察済みであることを示す処理を実行してもよい。
 観察判定部40は、周辺画像再生領域112において再生された内視鏡画像80が、ユーザによって観察されたか否かを判定する。処理実行部42は、再生された内視鏡画像80がユーザによって観察されたと判定された場合に、一覧表示領域100に配置された当該内視鏡画像80に対して、観察済みであることを示す処理を実行する。以下、観察判定部40が用いる判定基準について説明する。
<判定基準1>
 観察判定部40は、再生処理部34による再生時間にもとづいて、再生された内視鏡画像80がユーザによって観察されたか否かを判定してよい。具体的に観察判定部40は、再生時間が所定時間以上である場合に、内視鏡画像80がユーザによって観察されたと判定し、再生時間が所定時間未満である場合に、内視鏡画像80がユーザによって観察されていないと判定してよい。ユーザは、順再生ボタン114aまたは逆再生ボタン114bを誤って操作する場合があり、そのような場合に、再生された内視鏡画像80を観察済みと評価するのは好ましくない。ユーザが誤って再生ボタンを操作した場合には、すぐに再生を停止させると考えられるため、観察判定部40は、再生時間が短時間である場合に、ユーザが観察していないことを判定してよい。たとえば観察の有無を判定するための時間の閾値は、3秒程度の時間であってよい。
 実施例において、再生処理部34は、起点となる内視鏡画像80c(撮影時間:50:15)から内視鏡画像90(撮影時間:53:41)まで、周辺画像再生機能により再生している。カプセル内視鏡3は、1秒間に2枚の画像を撮影しているため、再生した画像枚数は、412枚(=3分26秒×2枚/秒)となる。再生処理部34が412枚の画像を、再生ボタン表示領域114に示すように15fpsで再生すると、再生した時間は、約27.5秒となり、時間閾値である3秒より長い。そこで判定基準1を用いた場合、観察判定部40は、表示された内視鏡画像80c、80d、80eがユーザによって観察されたと判定する。
 なお観察判定部40は、再生処理部34による再生時間を、再生された画像の撮影時間の間隔にもとづいて特定し、再生された内視鏡画像80がユーザによって観察されたか否かを判定してもよい。この場合の閾値は、3秒より長くてよく、たとえば15秒程度に設定されていてよい。撮影時間の間隔は3分26秒であり、時間閾値である15秒より長いため、観察判定部40は、表示された内視鏡画像80c、80d、80eがユーザによって観察されたと判定してよい。
 なお実施例において判定基準1は、順再生ボタン114aまたは逆再生ボタン114bを操作した再生態様に対して適用されるが、別の例では、手動のホイール操作による再生態様に対して適用されてもよい。
<判定基準2>
 観察判定部40は、再生処理部34による内視鏡画像80の再生態様にもとづいて、再生された内視鏡画像80がユーザによって観察されたか否かを判定してよい。具体的に観察判定部40は、再生態様が順再生または逆再生である場合に、再生された内視鏡画像80がユーザによって観察されたと判定する。一方、観察判定部40は、再生態様が手動操作にもとづくコマ送りまたはコマ戻しである場合に、再生された内視鏡画像80がユーザによって観察されていないと判定する。マウスのホイールは、ユーザが誤操作する可能性が高いため、観察判定部40は、ホイール操作で再生された内視鏡画像80を、観察されていないと判定する。
 実施例において、再生処理部34は、順再生ボタン114aの操作にもとづいて内視鏡画像を再生している。そこで判定基準2を用いた場合、観察判定部40は、表示された内視鏡画像80c、80d、80eがユーザによって観察されたと判定する。
<判定基準3>
 ユーザは、観察した内視鏡画像をキャプチャ(保存)して、検査レポートに添付するための内視鏡画像を抽出する。キャプチャ操作は、周辺画像再生領域112において一時停止した内視鏡画像をダブルクリックする操作であってよい。再生処理部34による画像再生が一時停止された後、操作受付部26が、周辺画像再生領域112に表示されている内視鏡画像に対するキャプチャ操作を受け付けると、画像キャプチャ部44は、その内視鏡画像をキャプチャする。たとえば図7に示す周辺画像再生領域112において、ユーザが、内視鏡画像90をダブルクリック操作すると、画像キャプチャ部44は、内視鏡画像90をキャプチャする。
 図9は、キャプチャ画像表示領域116の例を示す。ユーザがキャプチャ画像表示切替ボタン104を操作すると、キャプチャ画像配置部36が、キャプチャした画像をキャプチャ画像表示領域116に撮影順に並べて配置する。図9において、一番右に示すキャプチャ画像は、内視鏡画像90である。
 観察判定部40は、画像キャプチャ部44が内視鏡画像90をキャプチャしたか否かにもとづいて、再生された内視鏡画像がユーザによって観察されたか否かを判定する。具体的に観察判定部40は、画像キャプチャ部44が周辺画像再生領域112に表示された内視鏡画像90をキャプチャした場合、再生された内視鏡画像がユーザによって観察されたと判定する。操作受付部26がキャプチャ操作を受け付ける場合、ユーザは内視鏡画像を観察していることが確実であるため、観察判定部40は、再生された内視鏡画像がユーザによって観察されたと判定できる。
 一方で、観察判定部40は、画像キャプチャ部44が周辺画像再生領域112に表示された内視鏡画像90をキャプチャしない場合、再生された内視鏡画像がユーザによって観察されていないと判定してよい。
 実施例において、画像キャプチャ部44は、内視鏡画像90をキャプチャしている。そこで判定基準3を用いた場合、観察判定部40は、再生処理において表示された内視鏡画像80c、80d、80eがユーザによって観察されたと判定する。
 以上の判定基準1~3は、いずれか1つが単独で利用されてもよいが、組み合わされて利用されてもよい。以下、2つ以上の判定基準を組み合わせたときの判定手法を示す。
(1)判定基準3と、判定基準1および/または判定基準2を組み合わせた場合の判定手法
(a)内視鏡画像がキャプチャされた場合
 観察判定部40は、判定基準1および/または判定基準2による判定結果に関係なく、判定基準3により、再生された内視鏡画像80が観察されたと判定する。
(b)内視鏡画像がキャプチャされていない場合
(b-1)判定基準3と判定基準1を組み合わせた場合
 観察判定部40は、判定基準1により、再生された内視鏡画像80が観察されたか否かを判定する。
(b-2)判定基準3と判定基準2を組み合わせた場合
 観察判定部40は、判定基準2により、再生された内視鏡画像80が観察されたか否かを判定する。
(b-3)判定基準3と、判定基準1および判定基準2を組み合わせた場合
 観察判定部40は、再生態様がコマ送りまたはコマ戻しであれば、再生された内視鏡画像80が観察されていないと判定する。観察判定部40は、再生態様が順再生または逆再生であれば、判定基準1により、再生された内視鏡画像80が観察されたか否かを判定する。そのため再生態様が順再生または逆再生であっても、再生時間が3秒未満であれば、観察判定部40は、再生された内視鏡画像80が観察されていないと判定する。
(2)判定基準1および判定基準2を組み合わせた場合
 観察判定部40は、再生態様がコマ送りまたはコマ戻しであれば、再生された内視鏡画像80が観察されていないと判定する。観察判定部40は、再生態様が順再生または逆再生であれば、判定基準1により、再生された内視鏡画像80が観察されたか否かを判定する。そのため再生態様が順再生または逆再生であっても、再生時間が3秒未満であれば、観察判定部40は、再生された内視鏡画像80が観察されていないと判定する。
 以上のように、観察判定部40は、1つ以上の判定基準を用いて、再生された内視鏡画像80がユーザによって観察されたか否かを判定する。処理実行部42は、観察判定部40により再生された内視鏡画像80がユーザによって観察されたと判定された場合に、一覧表示領域100に配置された内視鏡画像80に対して、観察済みであることを示す処理を実行する。上記したように、図8は、観察済みであることを判定された内視鏡画像80c、80d、80eに、観察済みマーク122が付加された状態を示している。
 なお内視鏡画像80は、メタデータとして病変情報を付加されている。病変情報には、病変を識別する病変IDが含まれており、観察判定部40は、各内視鏡画像80の病変IDを参照することで、同じ病変を含む内視鏡画像群を特定できる。そのため観察判定部40は、内視鏡画像80c、80d、80eを観察済みと判定した場合に、内視鏡画像80c、80d、80eのそれぞれに含まれる病変と同じ病変を含んでいる内視鏡画像80を、観察済みとみなしてよい。
 図10は、一覧表示領域100に施されたマーキング処理結果の一例を示す。観察判定部40は、観察済みと判定した内視鏡画像80c、80d、80eの病変IDを特定して、これらの病変IDを含む別の内視鏡画像80を探索する。ここでは、内視鏡画像80bの病変IDが、内視鏡画像80cの病変IDと同一であり、したがって観察判定部40は、内視鏡画像80cと同じ病変IDを付加された、観察されていない内視鏡画像80bを、観察された画像とみなす。処理実行部42は、観察済みと判定された内視鏡画像80c、80d、80eと、観察されたとみなされた内視鏡画像80bに対して、観察済みであることを示すマーキング処理を施す。
 図10においては、内視鏡画像80b、80c、80d、80eに対して、観察済みマーク122が付加されている。このように観察済みマーク122が付加されることで、ユーザは、内視鏡画像80b、80c、80d、80eが観察済みであることを容易に認識でき、非効率な二重読影を防止できる。
 なお観察済みマーク122は、1人のユーザが同じ病変を二重読影することを効果的に防止するが、複数のユーザで読影する場合には、観察済みマーク122が付加されてないことがよい場合もある。そこで処理実行部42は、ユーザ操作にしたがって、内視鏡画像80b、80c、80d、80eをマーキング処理前の状態に戻す機能を有してよい。処理実行部42は、ユーザ操作にしたがって、複数の内視鏡画像80b、80c、80d、80eをマーキング処理前の状態に一括して戻す機能を有してよい。全ての観察済みマーク122を一括して消去できることで、マークの消去作業を容易にできる。
 なお処理実行部42は、ユーザ操作にしたがって、1つの内視鏡画像80をマーキング処理前の状態に戻す機能を有してよい。観察済みマーク122を1つずつ消去できることで、実際には観察していなかった内視鏡画像80に付加された観察済みマーク122を、個別に消去できる。
 以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。実施例では、ユーザが内視鏡画像を観察する例を示したが、観察対象となる画像は、内視鏡画像に限らず、その他の医療画像であってもよく、また医療画像以外の画像であってもよい。
 実施例の「周辺画像再生機能」は、撮影された順番にしたがって周辺画像を間引きすることなく再生するが、再生態様は、これに限られなくてもよい。たとえば、撮像した画像の中から所定の代表画像や病変等の異常所見が撮影された画像など特定の複数の画像を抽出し、抽出した特定の複数の画像のみを、撮影された順番にしたがって周辺画像として動画再生してもよい。このような構成とすることで、周辺画像再生時の読影枚数を削減でき、読影時間の短縮化を実現できる。
1・・・画像観察支援システム、3・・・カプセル内視鏡、10・・・情報処理装置、12・・・表示装置、14・・・入力部、20・・・取得部、22・・・画像診断部、24・・・画像処理部、26・・・操作受付部、30・・・画面生成部、32・・・撮影画像配置部、34・・・再生処理部、36・・・キャプチャ画像配置部、40・・・観察判定部、42・・・処理実行部、44・・・画像キャプチャ部、50・・・記憶部。
 本開示は、画像の観察を支援する分野に利用できる。

Claims (16)

  1.  撮影された複数の画像を一覧表示領域に並べて配置する撮影画像配置部と、
     前記画像を、撮影された順番にしたがって再生する再生処理部と、
     再生された前記画像が、ユーザによって観察されたか否かを判定する観察判定部と、
     再生された前記画像がユーザによって観察されたと判定された場合に、前記一覧表示領域に配置された前記画像に対して、観察済みであることを示す処理を実行する処理実行部と、
     を備えることを特徴とする情報処理装置。
  2.  前記観察判定部は、前記再生処理部による再生時間にもとづいて、再生された前記画像がユーザによって観察されたか否かを判定する、
     ことを特徴とする請求項1に記載の情報処理装置。
  3.  ユーザの操作を受け付ける操作受付部をさらに備え、
     前記再生処理部は、前記操作受付部が受け付けたユーザ操作に応じた再生態様で、前記画像を再生し、
     前記観察判定部は、前記画像の再生態様にもとづいて、再生された前記画像がユーザによって観察されたか否かを判定する、
     ことを特徴とする請求項1に記載の情報処理装置。
  4.  前記観察判定部は、再生態様が順再生または逆再生である場合に、再生された前記画像がユーザによって観察されたと判定する、
     ことを特徴とする請求項3に記載の情報処理装置。
  5.  前記観察判定部は、再生態様がコマ送りまたはコマ戻しである場合に、再生された前記画像がユーザによって観察されていないと判定する、
     ことを特徴とする請求項3に記載の情報処理装置。
  6.  ユーザの操作を受け付ける操作受付部と、
     前記再生処理部による画像再生が一時停止された後、ユーザ操作にしたがって表示画像をキャプチャする画像キャプチャ部と、をさらに備え、
     前記観察判定部は、前記画像キャプチャ部が前記画像をキャプチャしたか否かにもとづいて、再生された前記画像がユーザによって観察されたか否かを判定する、
     ことを特徴とする請求項1に記載の情報処理装置。
  7.  前記観察判定部は、前記画像キャプチャ部が前記表示画像をキャプチャした場合、再生された前記画像がユーザによって観察されたと判定し、前記画像キャプチャ部が前記表示画像をキャプチャしない場合、再生された前記画像がユーザによって観察されていないと判定する、
     ことを特徴とする請求項6に記載の情報処理装置。
  8.  前記一覧表示領域に並べて配置される前記画像は、前記画像に含まれる病変に関する病変情報を付加されており、
     前記観察判定部は、再生された前記画像がユーザによって観察されたと判定した場合に、当該画像に付加された病変情報と同じ病変に関する情報を付加された観察されていない画像を、観察された画像とみなす、
     ことを特徴とする請求項1に記載の情報処理装置。
  9.  前記処理実行部は、再生された前記画像がユーザによって観察されたと判定された場合に、前記一覧表示領域に配置された前記画像に対して、観察済みであることを示すマーキング処理を施す、
     ことを特徴とする請求項1に記載の情報処理装置。
  10.  ユーザの操作を受け付ける操作受付部を、さらに備え、
     前記処理実行部は、ユーザ操作にしたがって、前記画像をマーキング処理前の状態に戻す、
     ことを特徴とする請求項9に記載の情報処理装置。
  11.  前記処理実行部は、ユーザ操作にしたがって、複数の前記画像をマーキング処理前の状態に一括して戻す、
     ことを特徴とする請求項10に記載の情報処理装置。
  12.  前記処理実行部は、ユーザ操作にしたがって、1つの前記画像をマーキング処理前の状態に戻す、
     ことを特徴とする請求項10に記載の情報処理装置。
  13.  撮影された複数の画像を記憶する記憶部をさらに備え、
     前記撮影画像配置部は、前記記憶部に記憶された複数の画像のうちの一部を一覧表示領域に並べて配置し、
     前記再生処理部は、前記記憶部に記憶された複数の画像を、撮影された順番にしたがって再生する、
     ことを特徴とする請求項1に記載の情報処理装置。
  14.  前記記憶部は、カプセル内視鏡により撮影された複数の画像を記憶し、
     前記撮影画像配置部は、前記記憶部に記憶された複数の画像のうち、病変を含む複数の前記画像を一覧表示領域に並べて配置する、
     ことを特徴とする請求項13に記載の情報処理装置。
  15.  撮影された複数の画像を一覧表示領域に並べて表示し、
     前記画像を、撮影された順番にしたがって再生し、
     再生された前記画像が、ユーザによって観察されたか否かを判定し、
     再生された前記画像がユーザによって観察されたと判定された場合に、前記一覧表示領域に配置された前記画像に対して、観察済みであることを示す処理を実行する、
     画像表示方法。
  16.  コンピュータに、
     撮影された複数の画像を一覧表示領域に並べて表示する機能と、
     前記画像を、撮影された順番にしたがって再生する機能と、
     再生された前記画像が、ユーザによって観察されたか否かを判定する機能と、
     再生された前記画像がユーザによって観察されたと判定された場合に、前記一覧表示領域に配置された前記画像に対して、観察済みであることを示す処理を実行する機能と、
     を実現させるためのプログラム。
PCT/JP2021/010634 2021-03-16 2021-03-16 情報処理装置および画像表示方法 WO2022195725A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/010634 WO2022195725A1 (ja) 2021-03-16 2021-03-16 情報処理装置および画像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/010634 WO2022195725A1 (ja) 2021-03-16 2021-03-16 情報処理装置および画像表示方法

Publications (1)

Publication Number Publication Date
WO2022195725A1 true WO2022195725A1 (ja) 2022-09-22

Family

ID=83320162

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/010634 WO2022195725A1 (ja) 2021-03-16 2021-03-16 情報処理装置および画像表示方法

Country Status (1)

Country Link
WO (1) WO2022195725A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007004392A1 (ja) * 2005-07-01 2007-01-11 Access Co., Ltd. 放送番組シーン通知システムおよび方法、ならびに移動端末装置およびコンピュータプログラム
JP2007336283A (ja) * 2006-06-15 2007-12-27 Toshiba Corp 情報処理装置、情報処理方法および情報処理プログラム
WO2009008125A1 (ja) * 2007-07-12 2009-01-15 Olympus Medical Systems Corp. 画像処理装置、該動作方法及び該プログラム
JP2010082241A (ja) * 2008-09-30 2010-04-15 Olympus Medical Systems Corp 画像表示装置、画像表示方法、および画像表示プログラム
WO2011013475A1 (ja) * 2009-07-29 2011-02-03 オリンパスメディカルシステムズ株式会社 画像表示装置、読影支援システムおよび読影支援プログラム
JP2013075244A (ja) * 2013-02-01 2013-04-25 Olympus Medical Systems Corp 画像表示装置、画像表示方法、および画像表示プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007004392A1 (ja) * 2005-07-01 2007-01-11 Access Co., Ltd. 放送番組シーン通知システムおよび方法、ならびに移動端末装置およびコンピュータプログラム
JP2007336283A (ja) * 2006-06-15 2007-12-27 Toshiba Corp 情報処理装置、情報処理方法および情報処理プログラム
WO2009008125A1 (ja) * 2007-07-12 2009-01-15 Olympus Medical Systems Corp. 画像処理装置、該動作方法及び該プログラム
JP2010082241A (ja) * 2008-09-30 2010-04-15 Olympus Medical Systems Corp 画像表示装置、画像表示方法、および画像表示プログラム
WO2011013475A1 (ja) * 2009-07-29 2011-02-03 オリンパスメディカルシステムズ株式会社 画像表示装置、読影支援システムおよび読影支援プログラム
JP2013075244A (ja) * 2013-02-01 2013-04-25 Olympus Medical Systems Corp 画像表示装置、画像表示方法、および画像表示プログラム

Similar Documents

Publication Publication Date Title
JP4971615B2 (ja) 生体内でキャプチャされた画像ストリームを編集するシステムおよび方法
US7119814B2 (en) System and method for annotation on a moving image
US8467615B2 (en) Image display apparatus
US9186041B2 (en) Medical information recording apparatus that determines medical scene or changing of medical scene, synthesizes images obtained by medical equipment, and records synthesized image
WO2006022269A1 (ja) 画像表示装置、画像表示方法、および画像表示プログラム
JP5784859B2 (ja) 画像管理装置
US20090051691A1 (en) Image display apparatus
US20090019381A1 (en) Image display apparatus
US20090131746A1 (en) Capsule endoscope system and method of processing image data thereof
JP2008119145A (ja) 画像表示方法および画像表示装置
US20090312601A1 (en) Capsule endoscope system
US20080232702A1 (en) Image display apparatus
US10918260B2 (en) Endoscopic image observation support system
CN101257838A (zh) 图像显示装置
JP4885432B2 (ja) 画像表示装置、画像表示方法および画像表示プログラム
US20190133425A1 (en) Endoscope system, terminal device, server, and transmission method
JP4477451B2 (ja) 画像表示装置、画像表示方法および画像表示プログラム
KR100751160B1 (ko) 의료용 화상 기록 시스템
WO2022195725A1 (ja) 情報処理装置および画像表示方法
JP6335412B1 (ja) 内視鏡画像観察支援システム
WO2018230074A1 (ja) 内視鏡画像観察支援システム
JP4445742B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JPWO2019064704A1 (ja) 内視鏡画像観察支援システム、内視鏡画像観察支援装置、内視鏡画像観察支援方法
JP2008264313A (ja) 内視鏡システム
WO2018198525A1 (ja) 内視鏡画像観察支援システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21931477

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21931477

Country of ref document: EP

Kind code of ref document: A1