WO2018008195A1 - 画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム - Google Patents

画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム Download PDF

Info

Publication number
WO2018008195A1
WO2018008195A1 PCT/JP2017/010150 JP2017010150W WO2018008195A1 WO 2018008195 A1 WO2018008195 A1 WO 2018008195A1 JP 2017010150 W JP2017010150 W JP 2017010150W WO 2018008195 A1 WO2018008195 A1 WO 2018008195A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image processing
image group
unit
receiving device
Prior art date
Application number
PCT/JP2017/010150
Other languages
English (en)
French (fr)
Inventor
由樹 中島
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2017554098A priority Critical patent/JP6326178B1/ja
Publication of WO2018008195A1 publication Critical patent/WO2018008195A1/ja
Priority to US16/156,003 priority patent/US10726553B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00059Operational features of endoscopes provided with identification means for the endoscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20108Interactive selection of 2D slice in a 3D data set
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/248Aligning, centring, orientation detection or correction of the image by interactive preprocessing or interactive shape modelling, e.g. feature points assigned by a user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Definitions

  • the present invention relates to an image processing apparatus, an image processing system, an operation method of the image processing apparatus, and an operation program of the image processing apparatus.
  • a capsule endoscope is an apparatus having an imaging function and a wireless communication function inside a capsule-type housing. After being swallowed from the mouth of the subject, the capsule endoscope moves inside the digestive tract by a peristaltic motion or the like. The inside of the organ is sequentially imaged to acquire an image, and wirelessly transmitted to a receiving device attached to the subject. The receiving device sequentially receives images transmitted from the capsule endoscope and sequentially records them on a recording medium.
  • the image processing apparatus captures an image recorded on a recording medium and displays an image subjected to predetermined image processing on a display device. Then, a user such as a doctor diagnoses the subject by observing the in-vivo image displayed on the display device.
  • receiving devices mounted on a plurality of subjects may be collected all at once, and image data of a group of images captured at once may be captured from a plurality of receiving devices to an image processing device.
  • the present invention has been made in view of the above, and an image processing apparatus, an image processing system, an operation method of the image processing apparatus, and an image processing apparatus that allow a user to observe an image group in descending order of priority.
  • the purpose is to provide an operating program.
  • an image processing apparatus is an image processing apparatus that acquires a first image group and a second image group and performs image processing.
  • a comparison unit that compares the number of images of interest in the first image group and the number of images of interest in the second image group, and based on the comparison result of the comparison unit, the first image group and the And a determination unit that determines the priority of processing for the second image group.
  • the first image group is an image acquired by a first receiving device
  • the second image group is acquired by a second receiving device. It is the image which was made.
  • the determination unit is configured to transfer the determination unit from the first reception device and the second reception device to the image processing device based on a comparison result of the comparison unit.
  • the priority of processing for transmitting image data of one image group and the second image group is determined, and the first receiving device and the second receiving are determined based on the priority determined by the determination unit.
  • the apparatus includes a control unit that performs control to cause the apparatus to transmit image data of the first image group and the second image group, respectively.
  • the determination unit is configured to transfer the determination unit from the first reception device and the second reception device to the image processing device based on a comparison result of the comparison unit.
  • the priority order of the processing for transmitting the image data of the first image group and the second image group is determined, and the first receiving device and the second processing device are transmitted according to the transmission rate based on the priority determined by the determination unit.
  • a control unit that performs control to transmit the image data of the first image group and the second image group to the two receiving devices.
  • the determination unit performs image processing on each of the first image group and the second image group based on a comparison result of the comparison unit.
  • An image processing unit that performs image processing on each of the first image group and the second image group, and the priority order determined by the determination unit.
  • a control unit that controls the image processing unit to perform image processing on the image group and the second image group.
  • the image of interest includes a red image having a large amount of red color components, a lesion image in which a lesion is detected, and a predetermined feature amount calculated from the image within a predetermined range. It includes at least one of a feature amount detection image included, a capture image captured by the user, or a selection image selected by the user.
  • the determination unit increases the priority of processing for the image group having a large number of images of interest among the first image group and the second image group. It is characterized by doing.
  • An image processing system includes the above-described image processing device, the first receiving device that acquires the first image group and transmits the first image group, and the second receiving device. And a second receiving device that acquires an image group and transmits the acquired image group to the image processing device.
  • An operation method of the image processing apparatus is an operation method of the image processing apparatus that acquires the first image group and the second image group and performs image processing
  • the comparison unit includes: A comparison step for comparing the number of images of interest in the first image group and the number of images of interest in the second image group, and a determination unit based on the comparison result of the comparison unit, the first image group And a determination step of determining a processing priority for the second image group.
  • An operation program for an image processing apparatus is an operation program for an image processing apparatus that obtains a first image group and a second image group and performs image processing.
  • an image processing apparatus it is possible to realize an image processing apparatus, an image processing system, an operation method of the image processing apparatus, and an operation program of the image processing apparatus that allow a user to observe an image group in descending order of priority.
  • FIG. 1 is a schematic diagram illustrating a schematic configuration of a capsule endoscope system according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a configuration of the capsule endoscope system shown in FIG.
  • FIG. 3 is a diagram for explaining an example of a method for calculating the average color of each image.
  • FIG. 4 is a diagram illustrating how the user captures an image.
  • FIG. 5 is a flowchart showing a procedure of processing executed by the image processing apparatus shown in FIG.
  • FIG. 6 is a diagram for explaining the flowchart of FIG.
  • FIG. 7 is a diagram for explaining processing executed by the image processing apparatus according to the modified example 1-1 of the first embodiment.
  • FIG. 1 is a schematic diagram illustrating a schematic configuration of a capsule endoscope system according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a configuration of the capsule endoscope system shown in FIG.
  • FIG. 3 is a diagram for explaining an example of a method
  • FIG. 8 is a flowchart illustrating a procedure of processes executed by the image processing apparatus according to the modified example 1-2 of the first embodiment.
  • FIG. 9 is a diagram for explaining the flowchart of FIG.
  • FIG. 10 is a diagram illustrating the number of images of interest transmitted from each receiving apparatus.
  • FIG. 11 is a diagram for explaining processing executed by the image processing apparatus according to Modification 1-3 of Embodiment 1.
  • FIG. 12 is a diagram illustrating an example of an examination list displayed on the display device by the image processing apparatus in FIG.
  • FIG. 13 is a diagram illustrating an example of an examination list displayed on the display device by the image processing apparatus according to the modified example 1-4 of the first embodiment.
  • FIG. 14 is a schematic diagram illustrating a schematic configuration of a capsule endoscope system according to the second embodiment of the present invention.
  • FIG. 15 is a block diagram showing a configuration of the capsule endoscope system shown in FIG.
  • FIG. 16 is a flowchart showing a procedure of processing executed by the image processing apparatus shown in FIG.
  • FIG. 17 is a diagram for explaining the flowchart of FIG. 16.
  • FIG. 18 is a diagram illustrating a correspondence relationship between the priority order and the transmission rate.
  • FIG. 19 is a diagram for explaining processing executed by the image processing apparatus according to the modified example 2-1 of the second embodiment.
  • FIG. 20 is a diagram for explaining processing executed by the image processing apparatus according to the modified example 2-2 of the second embodiment.
  • FIG. 21 is a diagram for explaining processing executed by the image processing apparatus according to the modified example 2-3 of the second embodiment.
  • FIG. 1 is a schematic diagram illustrating a schematic configuration of a capsule endoscope system according to the first embodiment of the present invention.
  • the capsule endoscope system 1 according to the first embodiment acquires an imaging signal by being introduced into the subject H and imaging the subject H, and is superimposed on the radio signal.
  • the capsule endoscope 2 to be transmitted and the radio signal transmitted from the capsule endoscope 2 via the reception antenna unit 3 including a plurality of reception antennas 3a to 3h attached to the subject H.
  • a receiving device 4a as a first receiving device and a receiving device 4b as a second receiving device, and image data captured by the capsule endoscope 2 via the cradle 5a and the cradle 5b, respectively.
  • the receiving device 4b receives a radio signal transmitted from a capsule endoscope introduced into a subject different from the receiving device 4a via a receiving antenna unit attached to the subject. The description is omitted in FIG.
  • the receiving device 4a and the receiving device 4b include a display unit, generate an image in the subject from image data captured by the capsule endoscope, and display the image on the display unit.
  • FIG. 2 is a block diagram showing the configuration of the capsule endoscope system shown in FIG.
  • the capsule endoscope 2 includes an imaging unit 21, an illumination unit 22, a control unit 23, a wireless communication unit 24, an antenna 25, a memory 26, and a power supply unit 27.
  • the capsule endoscope 2 is a device in which various components such as an image sensor are incorporated in a capsule-shaped housing 28 having a size that allows the subject H to swallow.
  • the imaging unit 21 includes, for example, an imaging element that generates and outputs an imaging signal representing the inside of the subject H from an optical image formed on the light receiving surface, an objective lens disposed on the light receiving surface side of the imaging element, and the like And the optical system.
  • the image sensor is constituted by a CCD image sensor or a CMOS image sensor.
  • the imaging unit 21 generates an imaging signal by arranging a plurality of pixels that receive light from the subject H in a matrix and performing photoelectric conversion on the light received by the pixels.
  • the illumination unit 22 includes a white LED that generates white light as illumination light.
  • the control unit 23 controls the operation process of each component of the capsule endoscope 2.
  • the control unit 23 is configured by a processor such as ASIC (Application Specific Integrated Circuit). For example, when performing an imaging process, the control unit 23 controls the timing at which the imaging unit 21 performs exposure and readout, and the illumination unit 22 emits illumination light according to the exposure timing of the imaging unit 21. Control.
  • ASIC Application Specific Integrated Circuit
  • the wireless communication unit 24 processes the imaging signal output from the imaging unit 21.
  • the wireless communication unit 24 performs A / D conversion and predetermined signal processing on the imaging signal output from the imaging unit 21, acquires a digital imaging signal, and superimposes it on the wireless signal together with related information, and 25 to the outside.
  • the related information includes identification information (for example, serial number) assigned to identify the individual capsule endoscope 2.
  • the memory 26 stores an execution program and a control program for the control unit 23 to execute various operations.
  • the memory 26 may temporarily store an imaging signal or the like that has been subjected to signal processing in the wireless communication unit 24.
  • the memory 26 includes a RAM (Random Access Memory), a ROM (Read Only Memory), and the like.
  • the power supply unit 27 includes a battery including a button battery, a power supply circuit that boosts power from the battery, and a power switch that switches an on / off state of the power supply unit 27. After the power switch is turned on, the capsule Electric power is supplied to each part in the mold endoscope 2.
  • the power switch is composed of, for example, a reed switch that is turned on and off by an external magnetic force, and is externally connected to the capsule endoscope 2 before the capsule endoscope 2 is used (before the subject H swallows). Is turned on by applying a magnetic force.
  • the housing 28 is an exterior case formed in a size that can be introduced into the organ of the subject H, and encloses each component of the capsule endoscope 2 in a liquid-tight manner. At least a part of the housing 28 is made of an optical member that is transparent to light of a predetermined wavelength band such as visible light in order to perform imaging by the imaging unit 21.
  • Such a capsule endoscope 2 is swallowed by the subject H and then moves in the digestive tract of the subject H by a peristaltic movement of the organ, etc., while a living body part (esophagus, stomach, small intestine, large intestine, etc.) Are sequentially imaged at a predetermined cycle (for example, a cycle of 0.5 seconds). Then, the imaging signal and related information acquired by the imaging operation are sequentially wirelessly transmitted to the receiving device 4a.
  • a predetermined cycle for example, a cycle of 0.5 seconds
  • the receiving device 4a includes a receiving unit 41, a received signal processing unit 42, an image processing unit 43, a counting unit 44, a control unit 45, an operation unit 46, a display unit 47, and a first storage unit.
  • the memory 48, the data transmission / reception part 49, and the power supply part 410 which supplies electric power to each of these parts are provided.
  • the receiving unit 41 receives an imaging signal and related information wirelessly transmitted from the capsule endoscope 2 via the receiving antenna unit 3 having a plurality (eight in FIG. 1) of receiving antennas 3a to 3h.
  • Each of the receiving antennas 3a to 3h is realized by using, for example, a loop antenna or a dipole antenna, and is arranged at a predetermined position on the external surface of the subject H.
  • the reception signal processing unit 42 performs predetermined signal processing on the imaging signal received by the reception unit 41 to generate image data.
  • the reception signal processing unit 42 is configured by a processor such as a CPU (Central Processing Unit).
  • the image data and related information generated by the reception signal processing unit 42 are output to the image processing unit 43.
  • the image data here may be, for example, a RAW image or an RGB image.
  • the image processing unit 43 generates an image based on the image data input from the reception signal processing unit 42.
  • Optical black (OB) subtraction processing, demosaicing processing, density conversion (gamma conversion, etc.) processing, smoothing (noise removal, etc.) processing, white, etc. for the input image data corresponding to the type of imaging unit 21
  • An image generated by performing balance (WB) adjustment processing, synchronization processing, electronic zoom processing, edge enhancement processing, and the like is output.
  • the image processing unit 43 is configured by a processor such as a CPU.
  • the counting unit 44 extracts an interest image from the image generated by the image processing unit 43, and counts the number of extracted interest images.
  • the counting unit 44 is configured by a processor such as a CPU.
  • the image of interest is, for example, a red image with many red color components in the image.
  • the red image can be defined as an image in which G / R and B / G are within a predetermined range by calculating an average value for each component of RGB pixel values in the image, for example.
  • the red image may be an image in which the comparison result is within a predetermined range by comparing the average color of the entire image group with the average color of each image.
  • FIG. 3 is a diagram for explaining an example of a method for calculating the average color of each image.
  • the average color of each image Im may be defined as the average color of the predetermined areas A1 to A4. In this case, the calculation is performed rather than calculating the average color from the entire image Im. The amount can be reduced.
  • the image of interest is a lesion image in which a lesion is detected in an image by predetermined image processing, a feature amount detection image that is an image in which a predetermined feature amount calculated from the image is included in a predetermined range, or the like. May be.
  • the image of interest may be a captured image captured by the user.
  • FIG. 4 is a diagram illustrating how the user captures an image. As shown in FIG. 4, the user U observes an image group IG that is appropriately displayed while the capsule endoscope 2 passes through the subject H, and captures an image having a lesion or the like from the image group IG. The captured image is marked, and the user U can refer to the captured image as appropriate in later diagnosis. Further, the image of interest may be a selected image selected by the user from an image group after image processing by the image processing device 5.
  • the control unit 45 controls each component of the receiving device 4a.
  • the control unit 45 is configured by a processor such as a CPU.
  • the control unit 45 includes a display control unit 451.
  • the display control unit 451 subjects the display image generated in the image processing unit 43 to predetermined processing such as data thinning or gradation processing according to the display range of the image in the display unit 47, and then the display unit 47 is displayed.
  • the operation unit 46 allows the user to input various setting information and instruction information to the receiving device 4a.
  • the operation unit 46 is an input device such as a switch or a button provided on the operation panel of the receiving device 4a, for example.
  • the display unit 47 displays an in-vivo image or the like based on the image received from the capsule endoscope 2.
  • the display unit 47 is configured by a liquid crystal display, an organic EL display, or the like.
  • the display unit 47 displays the display image generated by the image processing unit 43 under the control of the display control unit 451.
  • the display unit 47 is configured by a liquid crystal screen or the like provided on the main surface of the receiving device 4a.
  • the memory 48 is a program for operating the receiving device 4a to execute various functions, image data (first image group) processed by the reception signal processing unit 42, and an image of interest counted by the counting unit 44. The number and related information are stored.
  • the memory 48 includes a RAM, a ROM, and the like.
  • the data transmission / reception unit 49 transmits / receives data when connected to the image processing apparatus 5 in a communicable state. Specifically, the data transmission / reception unit 49 transmits the image data, the number of images of interest, and related information stored in the memory 48 to the image processing device 5.
  • the data transmission / reception unit 49 includes a communication I / F such as a LAN.
  • Such a receiving device 4a is discharged while passing through the digestive tract while the capsule endoscope 2 is imaging (for example, after the capsule endoscope 2 is swallowed by the subject H). Until the subject H is carried on the subject H. During this time, the reception device 4a further adds related information such as reception intensity information and reception time information at each of the reception antennas 3a to 3h to the image data generated from the imaging signal received via the reception antenna unit 3. Image data (first image group), the number of images of interest, and related information are stored in the memory 48.
  • image data (second image group) is stored in a memory (not shown) as a second storage unit of the reception device 4b.
  • the receiving device 4a and the receiving device 4b are respectively removed from the subject and set in the cradle 5a and the cradle 5b (see FIG. 1) connected to the image processing device 5, respectively.
  • the receiving device 4a and the receiving device 4b are connected in a communicable state with the image processing device 5, and the image data (first and second image groups) stored in the respective memories, the number of images of interest, and The related information is transferred (downloaded) to the image processing apparatus 5.
  • the image processing device 5 is configured using a workstation including a display device 6 such as a liquid crystal display, for example.
  • the image processing apparatus 5 includes a data transmission / reception unit 51, a comparison unit 52, a determination unit 53, an image processing unit 54, a control unit 55 that controls each unit, a display control unit 56, and an input unit 57. And a storage unit 58.
  • the data transmission / reception unit 51 is an interface that can be connected to a communication line such as USB or a wired LAN or wireless LAN, and includes a USB port and a LAN port.
  • the data transmitting / receiving unit 51 is connected to the receiving device 4a and the receiving device 4b via the cradle 5a and the cradle 5b connected to the USB port, respectively, and performs data transmission / reception between the receiving device 4a and the receiving device 4b. Specifically, image data (first and second image groups), the number of images of interest, and related information transmitted from the receiving device 4a and the receiving device 4b are received.
  • the comparison unit 52 compares the number of images of interest in the first image group acquired by the receiving device 4a with the number of images of interest in the second image group acquired by the receiving device 4b.
  • the comparison unit 52 is configured by a processor such as a CPU.
  • the determination unit 53 determines the priority of processing for transmitting the first image group and the second image group from the reception device 4a and the reception device 4b to the image processing device 5, respectively. . Specifically, based on the comparison result of the comparison unit 52, the determination unit 53 determines that the image group having the larger number of images of interest has a higher priority.
  • the determination unit 53 is configured by a processor such as a CPU.
  • the image processing unit 54 creates a in-vivo image corresponding to the imaging signal input from the data transmission / reception unit 51 and the imaging signal stored in the storage unit 58 by reading a predetermined program stored in the storage unit 58 described later. Predetermined image processing is performed.
  • the image processing unit 54 is configured by a processor such as a CPU.
  • the control unit 55 reads the various programs stored in the storage unit 58, so that the image processing device 5 is controlled based on the signal input via the input unit 57, the data input from the data transmission / reception unit 51, and the like.
  • the operation of the entire image processing apparatus 5 is controlled in an integrated manner by giving instructions to each component, transferring data, and the like.
  • the control unit 55 performs control for causing the reception device 4a and the reception device 4b to transmit the images of the first image group and the second image group, respectively, based on the priority order determined by the determination unit 53.
  • the control unit 55 performs control to cause the image processing unit 54 to perform image processing on the first image group and the second image group based on the priority order determined by the determination unit 53.
  • the control unit 55 is configured by a processor such as a CPU.
  • the display control unit 56 subjects the image generated by the image processing unit 54 to predetermined processing such as data thinning or gradation processing according to the display range of the image on the display device 6, and then to the display device 6. Display output.
  • the display control unit 56 is configured by a processor such as a CPU.
  • the input unit 57 receives input of information and commands according to user operations.
  • the input unit 57 includes input devices such as a keyboard, a mouse, a touch panel, and various switches.
  • the storage unit 58 operates a program for operating the image processing device 5 to execute various functions, various information used during the execution of the program, and an image acquired via the receiving device 4a and the receiving device 4b. The number of images of interest and related information are stored.
  • the storage unit 58 includes a semiconductor memory such as a flash memory, a RAM, and a ROM, a recording medium such as an HDD, an MO, a CD-R, and a DVD-R, a drive device that drives the recording medium, and the like.
  • FIG. 5 is a flowchart showing a procedure of processing executed by the image processing apparatus shown in FIG.
  • FIG. 6 is a diagram for explaining the flowchart of FIG.
  • reference numerals are assigned to processes performed by the respective units of the capsule endoscope system 1.
  • the image processing device 5 performs processing (Ca) for receiving the number of images of interest from the receiving device 4 a and processing for receiving the number of images of interest from the receiving device 4 b (Cb). (Step S1).
  • the comparison unit 52 compares the number of images of interest of the receiving device 4a with the number of images of interest of the receiving device 4b (step S2).
  • the determination unit 53 determines the priority order of processing in which the reception device 4a and the reception device 4b transmit image groups based on the comparison result of the comparison unit 52 (step S3). Specifically, when the number of images of interest of the reception device 4a is large, the determination unit 53 determines that the priority of the process of transmitting the first image group of the reception device 4a is high.
  • control part 55 performs control which makes the receiving apparatus 4a and the receiving apparatus 4b each transmit a 1st image group and a 2nd image group based on the priority determined by the determination part 53 (step S4). Specifically, when the determination unit 53 determines that the priority of the process of transmitting the first image group of the reception device 4a is high, the control unit 55 transmits a control signal to the reception device 4a, and the first Processing (Ta) for preferentially transmitting the image group is performed.
  • control unit 55 performs control to cause the image processing unit 54 to perform image processing on the first image group and the second image group based on the priority order determined by the determination unit 53 (step S5). Specifically, when the determination unit 53 determines that the priority order of the image processing for the first image group of the receiving device 4a is high, the control unit 55 causes the image processing unit 54 to set the first image group with a high priority order. The image processing (Ia) is performed on. Then, when the image processing (Ia) is completed, the user can make a diagnosis by observing the first image group having a high priority.
  • control unit 55 performs a process (Tb) of transmitting a control signal to the receiving device 4b and transmitting a second image group having a low priority. Further, the control unit 55 causes the image processing unit 54 to perform image processing (Ib) on the second image group. Then, a series of processing ends.
  • an image processing apparatus that allows a user to observe an image group in descending order of priority by preferentially performing a process on an image group including many images of interest. Can be realized.
  • the image of interest is a red image.
  • the red image corresponds to an image that may cause bleeding of the subject.
  • the user can preferentially diagnose a subject that has a possibility of bleeding, and can perform treatment such as hemostasis at an early stage.
  • the image of interest is a lesion image.
  • a lesion image is an image having a possibility of a predetermined lesion by predetermined image processing.
  • the user can preferentially diagnose a subject having a possibility of a lesion, and can quickly treat the lesion.
  • the image of interest is a captured image.
  • the captured image is an image that a user, such as a lesion, wants to make a detailed diagnosis later. In this case, the user can preferentially diagnose a subject in which an image group having many images captured by the user is captured.
  • the image processing device 5 may include a counting unit. After the image processing device 5 receives the first image group and the second image group from the receiving device 4a and the receiving device 4b, the image processing device 5 The configuration may be such that the counting unit counts the number of images of interest, and the image processing unit 54 performs image processing in a priority order based on the counted number of images of interest.
  • the case where the receiving device 4a and the receiving device 4b are connected to the image processing device 5 via the cradle 5a and the cradle 5b almost simultaneously has been described.
  • the timing at which 4a and the receiving device 4b are connected to the image processing device 5 may be shifted.
  • a configuration may be adopted in which the connection of another receiving device is waited for a predetermined time after the receiving device is connected to the image processing device 5.
  • the processing may be performed assuming that these receiving devices are simultaneously connected.
  • the process may be started only with the connected receiving device.
  • FIG. 7 is a diagram for explaining processing executed by the image processing apparatus according to the modified example 1-1 of the first embodiment. As shown in FIG. 7, when data can be transmitted simultaneously from a plurality of receiving apparatuses, the first image group and the second image group are transmitted in parallel from the receiving apparatus 4a and the receiving apparatus 4b, respectively. May be.
  • control unit 55 performs control to cause the image processing unit 54 to perform image processing on the first image group and the second image group based on the priority order determined by the determination unit 53. Specifically, when the determination unit 53 determines that the priority order of the image processing for the first image group of the receiving device 4a is high, the control unit 55 causes the image processing unit 54 to set the first image group with a high priority order. The image processing (Ia) is performed on. Thereafter, the control unit 55 causes the image processing unit 54 to perform image processing (Ib) on the second image group.
  • FIG. 8 is a flowchart illustrating a procedure of processes executed by the image processing apparatus according to the modified example 1-2 of the first embodiment.
  • FIG. 9 is a diagram for explaining the flowchart of FIG. As shown in FIG. 9, in this configuration, image groups are transmitted from the receiving devices 4Aa to 4Ae to the image processing device 5, respectively.
  • the configuration of the reception devices 4Aa to 4Ae may be the same as that of the reception device 4a.
  • the control unit 55 of the image processing device 5 determines whether or not a receiving device is connected to the image processing device 5 (step S11). When it is determined that the receiving device is not connected to the image processing device 5 (step S11: No), the process proceeds to step S15 described later, and the image processing that has been performed is continued.
  • step S11 when it is determined that the receiving device is connected to the image processing device 5 (step S11: Yes), processing (CAa) for receiving the number of images of interest from the receiving device 4Aa connected first is performed (step S12).
  • the comparison unit 52 of the image processing device 5 compares the received number of images of interest of each receiving device (step S13).
  • the determination unit 53 performs processing (DAa) for determining the priority order for performing image processing on the image group transmitted from each receiving device based on the comparison result of the comparison unit 52 (step S14). At this time, since only one receiving device is connected, it is determined to preferentially perform image processing on the image group received from the receiving device 4Aa.
  • the image processing device 5 performs processing (TAa) for causing the receiving device 4Aa to transmit an image group (Step S15).
  • step S15 When the processing (TAa) in step S15 is completed, the image processing device 5 performs image processing (IAa) on the image group received from the receiving device 4Aa based on the priority order determined by the determination unit 53 (step S16). ).
  • the image processing device 5 determines that the receiving device is connected (step S11: Yes), and performs processing (CAb) for receiving the number of images of interest from the receiving device 4Ab (step S12).
  • the comparison unit 52 of the image processing device 5 compares the received number of images of interest of each receiving device (step S13).
  • the determination unit 53 performs processing (DAb) for determining the priority order for performing image processing on the image group transmitted from each receiving device based on the comparison result of the comparison unit 52 (step S14). At this time, since the image processing (IAa) for the image group received from the receiving device 4Aa has already been started, it is not included in the determination. As a result, the determination unit 53 determines that the image processing (IAb) for the image group received from the receiving device 4Ab has a high priority.
  • the image processing apparatus 5 performs a process (TAb) for transmitting the image group to the receiving apparatus 4Ab (step S15).
  • the image processing device 5 performs image processing based on the priority order (step S16).
  • the image processing device 5 determines that the receiving device is connected (step S11: Yes), and performs processing (CAc) for receiving the number of images of interest from the receiving device 4Ac (step S12).
  • the comparison unit 52 of the image processing device 5 compares the received number of images of interest of each receiving device (step S13).
  • the determination unit 53 performs processing (DAc) for determining the priority order for performing image processing on the image group transmitted from each receiving device based on the comparison result of the comparison unit 52 (step S14).
  • Dc processing for determining the priority order for performing image processing on the image group transmitted from each receiving device based on the comparison result of the comparison unit 52 (step S14).
  • the determination unit 53 determines that the image processing (IAc) for the image group received from the receiving device 4Ac has a high priority.
  • the image processing device 5 determines that the receiving device is connected (step S11: Yes), and performs processing (CAd) for receiving the number of images of interest from the receiving device 4Ad (step S12).
  • the comparison unit 52 of the image processing device 5 compares the received number of images of interest of each receiving device (step S13).
  • the determination unit 53 performs processing (DAd) for determining the priority order of performing image processing on the image group transmitted from each receiving device based on the comparison result of the comparison unit 52 (step S14).
  • processing (DAd) for determining the priority order of performing image processing on the image group transmitted from each receiving device based on the comparison result of the comparison unit 52 (step S14).
  • the priority order of the image processing for each image group of the receiving device 4Ac and the receiving device 4Ad in which image processing has not been started is determined.
  • FIG. 10 is a diagram showing the number of images of interest transmitted from each receiving device.
  • the comparison unit 52 compares the number of images of interest of the receiving device 4Ac with the number of images of interest of the receiving device 4Ad. Since the number of images of interest of the receiving device 4Ac is 0 and the number of images of interest of the receiving device 4Ad is 2, it can be seen that the number of images of interest is “receiving device 4Ad> receiving device 4Ac”.
  • the determination unit 53 sets the image processing priority for the image group of the receiving device 4Ad having a large number of images of interest to 1 and sets the image processing priority for the image group of the receiving device 4Ac to 2. It is determined as the number.
  • the image processing device 5 performs processing (TAd) for causing the reception device 4Ad to transmit an image group (step S15).
  • the image processing device 5 determines that the receiving device is connected (step S11: Yes), and performs processing (CAe) for receiving the number of images of interest from the receiving device 4Ae (step S12).
  • the comparison unit 52 of the image processing device 5 compares the received number of images of interest of each receiving device (step S13).
  • the determination unit 53 performs processing (DAe) for determining the priority order for performing image processing on the image group transmitted from each receiving device based on the comparison result of the comparison unit 52 (step S14).
  • processing (DAe) for determining the priority order for performing image processing on the image group transmitted from each receiving device based on the comparison result of the comparison unit 52 (step S14).
  • the priority of image processing is determined for each image group of the receiving device 4Ac, the receiving device 4Ad, and the receiving device 4Ae for which image processing has not started.
  • the comparison unit 52 compares the number of images of interest of the receiving device 4Ac, the number of images of interest of the receiving device 4Ad, and the number of images of interest of the receiving device 4Ae. Since the number of images of interest of the receiving device 4Ac is 0, the number of images of interest of the receiving device 4Ad is 2, and the number of images of interest of the receiving device 4Ae is 3, the number of images of interest is “receiving device 4Ae> receiving device 4Ad> receiving device 4Ac”. It turns out that it is.
  • the determination unit 53 sets the image processing priority for the image group of the receiving device 4Ae having the largest number of images of interest to the first, and the image group of the receiving device 4Ad having the next largest number of images of interest. Is determined to be second, and the priority of image processing for the image group of the receiving device 4Ac is determined to be third.
  • the image processing (IAb) for the image group received from the receiving device 4Ab is completed in the image processing device 5
  • the image processing for the image group received from the receiving device 4Ae based on the priority order. (IAe) is started (step S16).
  • the image processing device 5 performs a process (TAe) for causing the receiving device 4Ae to transmit an image group (step S15).
  • a process (TAe) for causing the receiving device 4Ae to transmit an image group (step S15).
  • the image processing (IAb) for the image group received from the receiving device 4Ab is completed, if the processing (TAe) for transmitting the image group to the receiving device 4Ae is not completed, the processing (TAe) is completed.
  • the image processing (IAe) may be performed after waiting, but the priority may be changed, and the image processing (IAd) may be performed on the image group received from the receiving device 4Ad having the next highest priority.
  • step S16 when the image processing (IAe) for the image group received from the receiving device 4Ae is completed in the image processing device 5, the image processing (for the image group received from the receiving device 4Ad based on the priority order) ( IAd) is started (step S16).
  • image processing (IAd) for the image group received from the receiving device 4Ad is completed in the image processing device 5
  • image processing (IAc) for the image group received from the receiving device 4Ac is started based on the priority order. (Step S16).
  • the user since the image processing on the image group of the receiving device 4Ae having a large number of images of interest is completed first, the user selects the image group in descending order of priority. Can be observed.
  • FIG. 11 is a diagram for explaining processing executed by the image processing apparatus according to Modification 1-3 of Embodiment 1. As shown in FIG. 11, in this configuration, image groups are transmitted from the receiving devices 4Ba to 4Bc to the image processing device 5, respectively.
  • the configuration of the reception devices 4Ba to 4Bc may be the same as that of the reception device 4a.
  • processing (CBa, CBb) for receiving the number of images of interest from the receiving device 4Ba and the receiving device 4Bc is performed.
  • processing (DBa) for determining the priority of processing for transmitting the image group of the receiving device 4Ba and the receiving device 4Bb to the image processing device 5 is performed.
  • the determination unit 53 determines that the priority order of the process (TBa) for transmitting the image group of the receiving device 4Ba having a large number of detected red images as the image of interest is high.
  • the process (TBa) which transmits the image group of the receiver 4Ba determined to have a high priority is executed.
  • the receiving device 4Bc is connected, and processing (CBc) for receiving the number of images of interest from the receiving device 4Bc is performed. Further, a process (DBb) is performed in which the determination unit 53 determines the priority of the process of transmitting the image group of the receiving device 4Bb and the receiving device 4Bc to the image processing device 5. Specifically, the determination unit 53 determines that the priority order of processing (TBb) for transmitting the image group of the receiving device 4Bb in which the number of detected red images as the image of interest is large is high.
  • FIG. 12 is a diagram illustrating an example of an examination list displayed on the display device by the image processing apparatus of FIG.
  • FIG. 12A is an example of an examination list displayed on the display device 6 at time t1 shown in FIG.
  • the display device 6 has a receiving device number (No), the ID of the patient wearing the receiving device, the number of detected red images that are images of interest, the number of captured images, and the processing status. Etc. are displayed.
  • the receiving device No. The receiving device 4Ba corresponding to 0001 performs processing (TBa) of transmitting (transferring) an image.
  • the receiving device 4Bc corresponding to 0003 it is determined that the receiving device 4Bb having a large number of detected red images as the image of interest has a high priority.
  • a process with a high priority is displayed at the top of the screen. Therefore, as shown in FIG. 0002 is the receiving device No. It is displayed above 0003.
  • the receiving device No. 4 is displayed on the screen of FIG. 0003 is selected and an interrupt operation for switching the positions of the receiving device 4Bb and the receiving device 4Bc on the screen is input using the up button BU or the down button BD on the right side of the screen. Then, as shown in FIG. 0003 is a receiving device No. Displayed above 0002.
  • the process (TBc) of transmitting the image group of the receiving device 4Bc is preferentially performed over the process (TBb) of transmitting the image group of the receiving device 4Bb.
  • the priority order determined by the determination unit 53 may be replaced by a user interrupt operation. As shown in FIG. 12, since the number of detected red images and the number of captured images are displayed on the display device 6, the user can change the priority order based on these pieces of information.
  • FIG. 13 is a diagram illustrating an example of an examination list displayed on the display device by the image processing apparatus according to the modified example 1-4 of the first embodiment.
  • FIG. 13 shows an example of an examination list displayed on the display device 6 in a state where a series of image processing (IAa) to (IAe) is completed in Modification 1-2.
  • the display device 6 displays the receiving device number, patient ID, the number of detected red images, the number of captured images, the processing status, and the like.
  • FIG. 13 shows a state in which the sort is performed in descending order of the number of detected red sheets. As a result, the user can observe from any image group with a large number of images.
  • FIG. 13 shows a case where only the image group for which image processing has been completed is displayed in the list.
  • the user can know the group of images that can be observed, the number of detected red images and the number of captured images, and information for determining which image group to view is obtained.
  • FIG. 14 is a schematic diagram illustrating a schematic configuration of a capsule endoscope system according to the second embodiment of the present invention.
  • receiving devices 14a to 14e are connected to the image processing device 15 by wireless communication. Note that the description of the same configuration as that of Embodiment 1 will be omitted as appropriate.
  • an image signal captured by the capsule endoscope 2 is transmitted to the receiving device 14a in real time. Further, the receiving device 14a performs image processing and the like on the received imaging signal in the order of reception to generate image data, and starts transmitting the image data to the image processing device 15 in the order of generation.
  • FIG. 15 is a block diagram showing a configuration of the capsule endoscope system shown in FIG.
  • the counting unit 144 of the receiving device 14a sequentially extracts images of interest from the images generated by the image processing unit 43, and counts the number of extracted images of interest.
  • the counting unit 144 is configured by a processor such as a CPU.
  • the data transmission / reception unit 149 of the reception device 14a can wirelessly communicate with the image processing device 15, and sequentially transmits images, the number of images of interest, and related information to the image processing device 15.
  • the data transmission / reception unit 149 includes a communication I / F such as a wireless LAN.
  • the receiving devices 14b to 14e may have the same configuration as the receiving device 14a.
  • the receiving devices 14b to 14e receive the radio signals transmitted from the capsule endoscopes introduced into different subjects through the receiving antenna unit attached to the subject. 14, the description is omitted.
  • the data transmission / reception unit 151 of the image processing device 15 can wirelessly communicate with each of the receiving devices 14a to 14e, and sequentially receives images, the number of images of interest, and related information from the receiving devices 14a to 14e, respectively.
  • the data transmission / reception unit 151 is an interface connectable to a communication line such as a wireless LAN.
  • the comparison unit 152 of the image processing device 15 compares the number of images of interest in the image group acquired by the receiving devices 14a to 14e.
  • the comparison unit 152 is configured by a processor such as a CPU.
  • the determination unit 153 of the image processing device 15 determines the priority order of processing for transmitting each image group from the reception devices 14a to 14e to the image processing device 15 based on the comparison result of the comparison unit 152. Specifically, the determination unit 153 determines that the priority order of the image group with many images of interest is high based on the comparison result of the comparison unit 152.
  • the determination unit 153 is configured by a processor such as a CPU.
  • the control unit 155 of the image processing device 15 performs control to cause the receiving devices 14a to 14e to transmit the image groups at the transmission rate based on the priority order determined by the determination unit 153.
  • the control unit 155 is configured by a processor such as a CPU.
  • FIG. 16 is a flowchart showing a procedure of processing executed by the image processing apparatus shown in FIG.
  • FIG. 17 is a diagram for explaining the flowchart of FIG. 16.
  • the image processing apparatus 15 starts receiving image data from the receiving apparatus by wireless communication (step S21).
  • an image from the receiving device 14a is received.
  • it receives images from the receiving device 14b and the receiving device 14d.
  • the transmission rate of wireless communication between the image processing device 15 and the receiving device 14a, the receiving device 14b, and the receiving device 14d is an initial value of 1 Mbps.
  • control unit 155 of the image processing device 15 performs a process (O1) of transmitting an interest image number transmission instruction signal at every predetermined time interval ts (step S22).
  • the receiving device 14a, the receiving device 14b, and the receiving device 14d wirelessly communicating with the image processing device 15 receive the interest image number transmission instruction signal, and transmit the interest image number counted up to this point. Then, the image processing device 15 performs a process (I1) for receiving the number of images of interest from the receiving device 14a, the receiving device 14b, and the receiving device 14d (step S23). Specifically, as shown in FIG. 17, since no interest image indicated by a thick frame is extracted in any of the receiving devices at the time of the process (I1), the number of interest images of each receiving device is zero. Receive that.
  • the comparison unit 152 compares the number of images of interest received from the receiving device 14a, the receiving device 14b, and the receiving device 14d (step S24).
  • the determination unit 153 determines the priority order of processing for transmitting images from the reception device 14a, the reception device 14b, and the reception device 14d to the image processing device 15 based on the comparison result of the comparison unit 152 (P1). (Step S25). At this time, in the receiving device 14a, the receiving device 14b, and the receiving device 14d, since the number of images of interest is zero, the priority order is the same.
  • FIG. 18 is a diagram showing the correspondence between the priority order and the transmission rate.
  • the transmission rate corresponding to the priority is 1st: 9 Mbps, 2nd: 7 Mbps, 3rd: 5 Mbps, 4th: 3 Mbps, 5th: 2 Mbps, and the number of images of interest is 0
  • the initial value is 1 Mbps.
  • the control unit 155 performs control to cause the receiving device 14a, the receiving device 14b, and the receiving device 14d to transmit an image at the transmission rate of 1 Mbps.
  • the control unit 155 transmits a data transfer rate instruction signal that causes the receiving device 14a, the receiving device 14b, and the receiving device 14d to perform transmission at a transmission rate of 1 Mbps (step S26).
  • the image processing device 15 receives the image data (step S27).
  • control unit 155 determines whether or not the image transfer has ended (step S28), and when determining that the transfer has not ended (step S28: No), the control unit 155 returns to step S22.
  • the images from the receiving device 14c and the receiving device 14e are received.
  • the wireless communication transmission rate of the receiving device 14c and the receiving device 14e is an initial value of 1 Mbps.
  • the control unit 155 of the image processing device 15 performs the process (O2) of transmitting the interest image number transmission instruction signal again when a predetermined time interval ts has elapsed from the process (O1) (step S22).
  • the receiving devices 14a to 14e wirelessly communicating with the image processing device 15 receive the interest image count transmission instruction signal and transmit the interest image count. Then, the image processing device 15 performs processing (I2) for receiving the number of images of interest from the receiving devices 14a to 14e (step S23).
  • the comparison unit 152 compares the number of images of interest received from the receiving devices 14a to 14e (step S24).
  • the determination unit 153 performs processing (P2) for determining the priority order of processing for transmitting images from the reception devices 14a to 14e to the image processing device 15 based on the comparison result of the comparison unit 152 (step S25). .
  • the receiving device 14a and the receiving device 14b have four images of interest, while the receiving device 14c, the receiving device 14d, and the receiving device 14e have 0 images of interest, so the receiving devices 14a and 14b Is determined to have a high priority.
  • the control unit 155 transmits a data transfer rate instruction signal so that the receivers 14a to 14b transmit images at a transmission rate of 9 Mbps and the receivers 14c to 14e transmit images at the transmission rate of 1 Mbps. (Step S26).
  • the image processing device 15 receives the image (step S27).
  • control unit 155 determines whether or not the image transfer has ended (step S28), and when determining that the transfer has not ended (step S28: No), the control unit 155 returns to step S22.
  • the control unit 155 of the image processing device 15 performs the process (O3) of transmitting the interest image number transmission instruction signal again when a predetermined time interval ts has elapsed from the process (O2) (step S22).
  • the receiving devices 14a to 14e wirelessly communicating with the image processing device 15 receive the interest image count transmission instruction signal and transmit the interest image count. Then, the image processing device 15 performs processing (I3) for receiving the number of images of interest from the receiving devices 14a to 14e (step S23).
  • the comparison unit 152 compares the number of images of interest received from the receiving devices 14a to 14e (step S24).
  • the determination unit 153 performs processing (P3) for determining the priority order of processing for transmitting images from the reception devices 14a to 14e to the image processing device 15 based on the comparison result of the comparison unit 152 (step S25).
  • the priority order is as follows: receiving device 14a (7 images of interest), receiving device 14b (4 images of interest), receiving device 14d (2 images of interest), receiving device 14c and receiving device 14e (interesting images). (Several 0).
  • the control unit 155 maintains the transmission rate of 9 Mbps for the reception device 14a, the transmission rate of 7 Mbps for the reception device 14b, the transmission rate of 5 Mbps for the reception device 14d, and the reception devices 14c and 14e.
  • a data transfer rate instruction signal is transmitted so that the image data of the image group is transmitted at the transmission rate of 1 Mbps (step S26).
  • the image processing device 15 receives the image (step S27).
  • control unit 155 determines whether or not the image transfer has ended (step S28), and when determining that the transfer has not ended (step S28: No), the control unit 155 returns to step S22. Thereafter, the series of processes described above are repeated until the image transfer is completed.
  • an image group in which many images of interest are detected is preferentially transferred, so that the user can observe the image group in descending order of priority.
  • FIG. 19 is a diagram for explaining processing executed by the image processing apparatus according to the modified example 2-1 of the second embodiment.
  • the transmission rate is allocated so that the total transmission rate from the receiving devices 14a to 14e to the image processing device 15 is 25 Mbps in total.
  • the control unit 155 sets the transmission rate of the receiving device 14c and the receiving device 14e with 0 images of interest to 1 Mbps. Furthermore, the remaining 23 Mbps is allocated to other receiving apparatuses.
  • the priority Is set to 23 Mbps ⁇ 1/6 3.8 Mbps. In this way, when there is an upper limit on the data transfer speed, the transmission rate may be allocated according to the priority order.
  • FIG. 20 is a diagram for explaining processing executed by each receiving apparatus according to Modification 2-2 of Embodiment 2.
  • each receiving apparatus when each receiving apparatus detects an image of interest, it increases its own transmission rate according to the number of images of interest. Specifically, in the initial state, the receiving device 14a increases the transmission rate to 1 Mbps, 2 Mbps when the number of images of interest is 1 or more, 3 Mbps when 4 or more, and 5 Mbps when 7 or more. As described above, the transmission rate may be changed on the receiving device side.
  • FIG. 21 is a diagram for explaining processing executed by each receiving apparatus according to Modification 2-3 of Embodiment 2.
  • the modified example 2-3 also has a configuration in which the transmission rate is changed on the receiving device side, similarly to the modified example 2-2.
  • each receiving device detects an image of interest, it increases its own transmission rate according to the number of images.
  • the interest image is not detected after a predetermined time tl has elapsed since the interest image was detected, the own transmission rate is automatically reduced to 1 Mbps.
  • the receiving device 14a has a transmission rate of 1 Mbps in the initial state, 2 Mbps when the number of images of interest detected until a predetermined time tl has elapsed is 2 Mbps, 3 Mbps when the number is 4 or more, 7 images In the above case, increase to 5 Mbps.
  • the transmission rate is increased to 3 Mbps, and when three images of interest are detected before a predetermined time tl elapses, the transmission rate is increased to 5 Mbps. Thereafter, since the receiving device 14a does not detect the image of interest even after the predetermined time tl has elapsed, the receiving device 14a reduces the transmission rate to 1 Mbps.
  • a configuration has been described in which processing is performed on an image group of a plurality of receiving devices based on a priority order corresponding to the number of images of interest.
  • the present invention is not limited to this.
  • the present invention is not limited thereto.
  • a configuration may be adopted in which the number of images of interest and image group data are transmitted from the receiving device to the server, and the image processing device reads the data from the server.
  • the server may be a server arranged at a remote place connected via a network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Endoscopes (AREA)

Abstract

画像処理装置は、第1の画像群及び第2の画像群を取得して画像処理を施す画像処理装置であって、前記第1の画像群における関心画像数と、前記第2の画像群における関心画像数とを比較する比較部と、前記比較部の比較結果に基づいて、前記第1の画像群及び前記第2の画像群に対する処理の優先順位を判定する判定部と、を備える。これにより、ユーザが優先度の高い順に画像群を観察することができる画像処理装置を提供することができる。

Description

画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム
 本発明は、画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理装置の作動プログラムに関する。
 従来、内視鏡の分野においては、患者等の被検体の消化管内に導入可能な大きさに形成された被検体内導入装置であるカプセル型内視鏡の開発が進められている(例えば、特許文献1参照)。カプセル型内視鏡は、カプセル型筐体の内部に撮像機能及び無線通信機能を備えた装置であり、被検体の口から飲み込まれた後、蠕動運動等によって消化管内を移動しながら被検体の臓器内部を順次撮像して画像を取得し、被検体に装着された受信装置に無線送信する。受信装置は、カプセル型内視鏡から送信された画像を順次、受信するとともに、記録媒体に順次、記録させる。画像処理装置は、記録媒体に記録された画像を取り込み、所定の画像処理を施した画像を表示装置に表示させる。そして、医師等のユーザは、表示装置に表示された体内画像を観察することで、被検体に対する診断を行う。
 ところで、病院等の検査機関では、複数の被検体に装着された受信装置が一斉に回収され、複数の受信装置から画像処理装置に、一斉に撮像した画像群の画像データを取り込む場合がある。このような場合に、従来のカプセル型内視鏡システムでは、画像処理装置に受信装置が接続された順に、受信装置から画像処理装置に画像群の画像データを送信する処理や画像処理装置による画像群に対する画像処理が行われていた。
特開2003-19111号公報
 従来のカプセル型内視鏡システムでは、画像処理装置における種々の処理に優先順位がつけられていない。そのため、ユーザは、病変等がある被検体の画像群を優先的に観察することができなかった。
 本発明は、上記に鑑みてなされたものであって、ユーザが優先度の高い順に画像群を観察することができる画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理装置の作動プログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明の一態様に係る画像処理装置は、第1の画像群及び第2の画像群を取得して画像処理を施す画像処理装置であって、前記第1の画像群における関心画像数と、前記第2の画像群における関心画像数とを比較する比較部と、前記比較部の比較結果に基づいて、前記第1の画像群及び前記第2の画像群に対する処理の優先順位を判定する判定部と、を備えることを特徴とする。
 また、本発明の一態様に係る画像処理装置は、前記第1の画像群は、第1の受信装置によって取得された画像であり、前記第2の画像群は、第2の受信装置によって取得された画像であることを特徴とする。
 また、本発明の一態様に係る画像処理装置は、前記判定部は、前記比較部の比較結果に基づいて、前記第1の受信装置及び前記第2の受信装置から当該画像処理装置に前記第1の画像群及び前記第2の画像群の画像データをそれぞれ送信する処理の優先順位を判定し、前記判定部が判定した優先順位に基づいて、前記第1の受信装置及び前記第2の受信装置に前記第1の画像群及び前記第2の画像群の画像データをそれぞれ送信させる制御を行う制御部を備えることを特徴とする。
 また、本発明の一態様に係る画像処理装置は、前記判定部は、前記比較部の比較結果に基づいて、前記第1の受信装置及び前記第2の受信装置から当該画像処理装置に前記第1の画像群及び前記第2の画像群の画像データをそれぞれ送信する処理の優先順位を判定し、前記判定部が判定した優先順位に基づいた送信レートにより、前記第1の受信装置及び前記第2の受信装置に前記第1の画像群及び前記第2の画像群の画像データをそれぞれ送信させる制御を行う制御部を備えることを特徴とする。
 また、本発明の一態様に係る画像処理装置は、前記判定部は、前記比較部の比較結果に基づいて、前記第1の画像群及び前記第2の画像群のそれぞれに対して行う画像処理の優先順位を判定し、前記第1の画像群及び前記第2の画像群のそれぞれに対して画像処理を行う画像処理部と、前記判定部が判定した優先順位に基づいて、前記第1の画像群及び前記第2の画像群に対する画像処理を前記画像処理部に行わせる制御を行う制御部と、を備えることを特徴とする。
 また、本発明の一態様に係る画像処理装置は、前記関心画像は、赤色の色成分が多い赤色画像、病変が検出された病変画像、画像から算出した所定の特徴量が所定の範囲内に含まれる特徴量検出画像、ユーザがキャプチャしたキャプチャ画像、又はユーザが選択した選択画像の少なくとも1つを含むことを特徴とする。
 また、本発明の一態様に係る画像処理装置は、前記判定部は、前記第1の画像群及び前記第2の画像群のうち、前記関心画像数が多い画像群に対する処理の優先順位を高くすることを特徴とする。
 また、本発明の一態様に係る画像処理システムは、上記の画像処理装置と、前記第1の画像群を取得して前記画像処理装置に送信する前記第1の受信装置と、前記第2の画像群を取得して前記画像処理装置に送信する前記第2の受信装置と、を備えることを特徴とする。
 また、本発明の一態様に係る画像処理装置の作動方法は、第1の画像群及び第2の画像群を取得して画像処理を施す画像処理装置の作動方法であって、比較部が、前記第1の画像群における関心画像数と、前記第2の画像群における関心画像数とを比較する比較ステップと、判定部が、前記比較部の比較結果に基づいて、前記第1の画像群及び前記第2の画像群に対する処理の優先順位を判定する判定ステップと、を含むことを特徴とする。
 また、本発明の一態様に係る画像処理装置の作動プログラムは、第1の画像群及び第2の画像群を取得して画像処理を施す画像処理装置の作動プログラムであって、比較部が、前記第1の画像群における関心画像数と、前記第2の画像群における関心画像数とを比較する比較ステップと、判定部が、前記比較部の比較結果に基づいて、前記第1の画像群及び前記第2の画像群に対する処理の優先順位を判定する判定ステップと、を画像処理装置に実行させることを特徴とする。
 本発明によれば、ユーザが優先度の高い順に画像群を観察することができる画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理装置の作動プログラムを実現することができる。
図1は、本発明の実施の形態1にかかるカプセル型内視鏡システムの概略構成を示す模式図である。 図2は、図1に示すカプセル型内視鏡システムの構成を示すブロック図である。 図3は、各画像の平均色の算出方法の一例を説明するための図である。 図4は、ユーザが画像をキャプチャする様子を表す図である。 図5は、図2に示す画像処理装置が実行する処理の手順を示すフローチャートである。 図6は、図5のフローチャートを説明するための図である。 図7は、実施の形態1の変形例1-1に係る画像処理装置が実行する処理を説明するための図である。 図8は、実施の形態1の変形例1-2に係る画像処理装置が実行する処理の手順を示すフローチャートである。 図9は、図8のフローチャートを説明するための図である。 図10は、各受信装置から送信される関心画像数を表す図である。 図11は、実施の形態1の変形例1-3に係る画像処理装置が実行する処理を説明するための図である。 図12は、図11の画像処理装置が表示装置に表示させる検査リストの一例を表す図である。 図13は、実施の形態1の変形例1-4に係る画像処理装置が表示装置に表示させる検査リストの一例を表す図である。 図14は、本発明の実施の形態2にかかるカプセル型内視鏡システムの概略構成を示す模式図である。 図15は、図14に示すカプセル型内視鏡システムの構成を示すブロック図である。 図16は、図15に示す画像処理装置が実行する処理の手順を示すフローチャートである。 図17は、図16のフローチャートを説明するための図である。 図18は、優先順位と送信レートとの対応関係を表す図である。 図19は、実施の形態2の変形例2-1に係る画像処理装置が実行する処理を説明するための図である。 図20は、実施の形態2の変形例2-2に係る画像処理装置が実行する処理を説明するための図である。 図21は、実施の形態2の変形例2-3に係る画像処理装置が実行する処理を説明するための図である。
 以下に、図面を参照して本発明に係る画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理装置の作動プログラムの実施の形態を説明する。なお、これらの実施の形態により本発明が限定されるものではない。以下の実施の形態においては、カプセル型内視鏡システムを例示して説明するが、本発明は、複数の受信装置から画像を取り込んで画像処理を行う画像処理装置一般に適用することができる。
 また、図面の記載において、同一又は対応する要素には適宜同一の符号を付している。また、図面は模式的なものであり、各要素の寸法の関係、各要素の比率などは、現実と異なる場合があることに留意する必要がある。図面の相互間においても、互いの寸法の関係や比率が異なる部分が含まれている場合がある。
(実施の形態1)
 図1は、本発明の実施の形態1にかかるカプセル型内視鏡システムの概略構成を示す模式図である。図1に示すように、実施の形態1に係るカプセル型内視鏡システム1は、被検体H内に導入されて該被検体H内を撮像することにより撮像信号を取得し、無線信号に重畳して送信するカプセル型内視鏡2と、カプセル型内視鏡2から送信された無線信号を、被検体Hに装着された複数の受信アンテナ3a~3hを備えた受信アンテナユニット3を介して受信する第1の受信装置としての受信装置4a及び第2の受信装置としての受信装置4bと、カプセル型内視鏡2が撮像した画像データを、クレードル5a及びクレードル5bを介して、それぞれ受信装置4a及び受信装置4bから取り込み、該画像データに画像処理を行い、被検体内の画像を生成する画像処理装置5と、を備える。画像処理装置5によって生成された画像は、例えば、表示装置6に表示出力される。なお、受信装置4bは、受信装置4aとは異なる被検体内に導入されたカプセル型内視鏡から送信された無線信号を、その被検体に装着された受信アンテナユニットを介して受信するが、図1では記載を省略した。また、受信装置4a及び受信装置4bは、表示部を備え、カプセル型内視鏡が撮像した画像データから被検体内の画像を生成し、表示部に表示する。
 図2は、図1に示すカプセル型内視鏡システムの構成を示すブロック図である。図2に示すように、カプセル型内視鏡2は、撮像部21と、照明部22と、制御部23と、無線通信部24と、アンテナ25と、メモリ26と、電源部27と、を備える。カプセル型内視鏡2は、被検体Hが嚥下可能な大きさのカプセル形状の筐体28に撮像素子等の各種部品を内蔵した装置である。
 撮像部21は、例えば、受光面に結像された光学像から被検体H内を表す撮像信号を生成して出力する撮像素子と、該撮像素子の受光面側に配設された対物レンズ等の光学系とを含む。撮像素子は、CCD撮像素子或いはCMOS撮像素子によって構成される。撮像部21は、被検体Hからの光を受光する複数の画素がマトリックス状に配列され、画素が受光した光に対して光電変換を行うことにより、撮像信号を生成する。
 照明部22は、照明光である白色光を発生する白色LED等によって構成される。
 制御部23は、カプセル型内視鏡2の各構成部位の動作処理を制御する。制御部23は、ASIC(Application Specific Integrated Circuit)等のプロセッサによって構成される。制御部23は、例えば、撮像処理を行う場合には、撮像部21が露光及び読み出しを行うタイミングを制御するとともに、照明部22が撮像部21の露光タイミングに応じて照明光を照射するように制御する。
 無線通信部24は、撮像部21から出力された撮像信号を処理する。無線通信部24は、撮像部21から出力された撮像信号に対してA/D変換及び所定の信号処理を施し、デジタル形式の撮像信号を取得し、関連情報とともに無線信号に重畳して、アンテナ25から外部に送信する。関連情報には、カプセル型内視鏡2の個体を識別するために割り当てられた識別情報(例えばシリアル番号)等が含まれる。
 メモリ26は、制御部23が各種動作を実行するための実行プログラム及び制御プログラムを記憶する。また、メモリ26は、無線通信部24において信号処理が施された撮像信号等を一時的に記憶してもよい。メモリ26は、RAM(Random Access Memory)、ROM(Read Only Memory)等によって構成される。
 電源部27は、ボタン電池等からなるバッテリと、該バッテリから電力を昇圧等する電源回路と、当該電源部27のオンオフ状態を切り替える電源スイッチとを含み、電源スイッチがオンとなった後、カプセル型内視鏡2内の各部に電力を供給する。なお、電源スイッチは、例えば外部の磁力によってオンオフ状態が切り替えられるリードスイッチからなり、カプセル型内視鏡2の使用前(被検体Hが嚥下する前)に、該カプセル型内視鏡2に外部から磁力を印加することによりオン状態に切り替えられる。
 筐体28は、被検体Hの臓器内部に導入可能な大きさに形成された外装ケースであり、カプセル型内視鏡2の各構成部品を液密に内包する。筐体28の少なくとも一部は、撮像部21により撮像を行うため、可視光等の所定波長帯域の光に対して透明な光学部材からなる。
 このようなカプセル型内視鏡2は、被検体Hに嚥下された後、臓器の蠕動運動等によって被検体Hの消化管内を移動しつつ、生体部位(食道、胃、小腸、及び大腸等)を所定の周期(例えば0.5秒周期)で順次撮像する。そして、この撮像動作により取得された撮像信号及び関連情報を受信装置4aに順次無線送信する。
 受信装置4aは、受信部41と、受信信号処理部42と、画像処理部43と、計数部44と、制御部45と、操作部46と、表示部47と、第1の記憶部としてのメモリ48と、データ送受信部49と、これらの各部に電力を供給する電源部410と、を備える。
 受信部41は、カプセル型内視鏡2から無線送信された撮像信号及び関連情報を、複数(図1においては8個)の受信アンテナ3a~3hを有する受信アンテナユニット3を介して受信する。各受信アンテナ3a~3hは、例えばループアンテナ又はダイポールアンテナを用いて実現され、被検体Hの体外表面上の所定位置に配置される。
 受信信号処理部42は、受信部41が受信した撮像信号に所定の信号処理を施して、画像データを生成する。受信信号処理部42は、CPU(Central Processing Unit)等のプロセッサによって構成される。受信信号処理部42が生成した画像データ及び関連情報は、画像処理部43に出力される。なお、ここでいう画像データとは、例えば、RAW画像でもよいし、RGB画像であってもよい。
 画像処理部43は、受信信号処理部42から入力された画像データに基づいて画像を生成する。撮像部21の種別等に対応させて、入力された画像データに対し、オプティカルブラック(OB)減算処理、デモザイキング処理、濃度変換(ガンマ変換等)処理、平滑化(ノイズ除去等)処理、ホワイトバランス(WB)調整処理、同時化処理、電子ズーム処理、エッジ強調処理等を行うことによって生成した画像を出力する。画像処理部43は、CPU等のプロセッサによって構成される。
 計数部44は、画像処理部43が生成した画像から関心画像を抽出し、抽出した関心画像の枚数を計数する。計数部44は、CPU等のプロセッサで構成される。関心画像は、例えば画像内に赤色の色成分が多い赤色画像である。赤色画像は、例えば画像内のRGB画素値の成分ごとの平均値を算出し、G/R及びB/Gが所定の範囲内にある画像として定義することができる。また、赤色画像は、画像群全体の平均色と各画像の平均色とを比較して、比較結果が所定の範囲内にある画像としてもよい。図3は、各画像の平均色の算出方法の一例を説明するための図である。図3に示すように、各画像Imの平均色は、所定の領域A1~A4の平均色であると定義してもよく、この場合には、画像Im全体から平均色を算出するよりも計算量を削減することができる。
 また、関心画像は、所定の画像処理により画像内に病変部が検出された病変画像や、画像から算出した所定の特徴量が所定の範囲内に含まれる画像である特徴量検出画像等であってもよい。また、関心画像は、ユーザがキャプチャしたキャプチャ画像であってもよい。図4は、ユーザが画像をキャプチャする様子を表す図である。図4に示すように、ユーザUは、カプセル型内視鏡2が被検体H内を通過中に適宜表示される画像群IGを観察し、画像群IGから病変等がある画像をキャプチャする。このキャプチャ画像は、マーキングされており、ユーザUが後の診断で適宜キャプチャ画像を参照することができる。また、関心画像は、画像処理装置5による画像処理後の画像群からユーザが選択した選択画像であってもよい。
 制御部45は、受信装置4aの各構成部を制御する。制御部45は、CPU等のプロセッサによって構成される。制御部45は、表示制御部451を有する。表示制御部451は、画像処理部43において生成された表示用画像を、表示部47における画像の表示レンジに応じたデータの間引きや、階調処理などの所定の処理を施した後、表示部47に表示出力させる。
 操作部46は、ユーザが当該受信装置4aに対して各種設定情報や指示情報を入力する。操作部46は、例えば受信装置4aの操作パネルに設けられたスイッチ、ボタン等の入力デバイスである。
 表示部47は、カプセル型内視鏡2から受信した画像に基づく体内画像等を表示する。表示部47は、液晶ディスプレイ、有機ELディスプレイ等によって構成される。表示部47は、表示制御部451の制御に従って、画像処理部43が生成した表示用の画像を表示する。表示部47は、受信装置4aの主面に設けられた液晶画面等によって構成される。
 メモリ48は、受信装置4aを動作させて種々の機能を実行させるためのプログラム、受信信号処理部42において処理が施された画像データ(第1の画像群)、計数部44が計数した関心画像数、及び関連情報等を記憶する。メモリ48は、RAM、ROM等によって構成される。
 データ送受信部49は、画像処理装置5と通信可能な状態で接続された際に、データの送受信を行う。具体的には、データ送受信部49は、メモリ48に記憶された画像データ、関心画像数、及び関連情報を画像処理装置5に送信する。データ送受信部49は、LAN等の通信I/Fで構成される。
 このような受信装置4aは、カプセル型内視鏡2により撮像が行われている間(例えば、カプセル型内視鏡2が被検体Hに嚥下された後、消化管内を通過して排出されるまでの間)、被検体Hに装着されて携帯される。受信装置4aは、この間、受信アンテナユニット3を介して受信した撮像信号から生成した画像データに、各受信アンテナ3a~3hにおける受信強度情報や受信時刻情報等の関連情報をさらに付加し、これらの画像データ(第1の画像群)、関心画像数、及び関連情報をメモリ48に記憶させる。
 受信装置4bの構成は受信装置4aと同様であってよいので、説明を省略する。なお、受信装置4bの第2の記憶部としてのメモリ(不図示)には、画像データ(第2の画像群)が記憶されている。
 カプセル型内視鏡2による撮像の終了後、受信装置4a及び受信装置4bは、それぞれ被検体から取り外され、画像処理装置5と接続されたクレードル5a及びクレードル5b(図1参照)にそれぞれセットされる。これにより、受信装置4a及び受信装置4bは、画像処理装置5と通信可能な状態で接続され、それぞれのメモリに記憶された画像データ(第1及び第2の画像群)、関心画像数、及び関連情報を画像処理装置5に転送(ダウンロード)する。
 画像処理装置5は、例えば、液晶ディスプレイ等の表示装置6を備えたワークステーションを用いて構成される。画像処理装置5は、データ送受信部51と、比較部52と、判定部53と、画像処理部54と、各部を統括して制御する制御部55と、表示制御部56と、入力部57と、記憶部58と、を備える。
 データ送受信部51は、USB、又は有線LANや無線LAN等の通信回線と接続可能なインタフェースであり、USBポート及びLANポートを含んでいる。データ送受信部51は、USBポートに接続されるクレードル5a及びクレードル5bを介して受信装置4a及び受信装置4bとそれぞれ接続され、受信装置4a及び受信装置4bとの間でデータの送受信を行う。具体的には、受信装置4a及び受信装置4bから送信された画像データ(第1及び第2の画像群)、関心画像数、及び関連情報を受信する。
 比較部52は、受信装置4aが取得した第1の画像群における関心画像数と、受信装置4bが取得した第2の画像群における関心画像数とを比較する。比較部52は、CPU等のプロセッサによって構成される。
 判定部53は、比較部52の比較結果に基づいて、受信装置4a及び受信装置4bから画像処理装置5に第1の画像群及び第2の画像群をそれぞれ送信する処理の優先順位を判定する。具体的には、判定部53は、比較部52の比較結果に基づいて、関心画像数が多い方の画像群を優先順位が高いと判定する。判定部53は、CPU等のプロセッサによって構成される。
 画像処理部54は、後述の記憶部58に記憶された所定のプログラムを読み込むことにより、データ送受信部51から入力された撮像信号や記憶部58に記憶された撮像信号に対応する体内画像を作成するための所定の画像処理を施す。画像処理部54は、CPU等のプロセッサによって構成される。
 制御部55は、記憶部58に記憶された各種プログラムを読み込むことにより、入力部57を介して入力された信号や、データ送受信部51から入力されたデータ等に基づいて、画像処理装置5を構成する各部への指示やデータの転送等を行い、画像処理装置5全体の動作を統括的に制御する。また、制御部55は、判定部53が判定した優先順位に基づいて、受信装置4a及び受信装置4bに第1の画像群及び第2の画像群の画像をそれぞれ送信させる制御を行う。また、制御部55は、判定部53が判定した優先順位に基づいて、第1の画像群及び第2の画像群に対する画像処理を画像処理部54に行わせる制御を行う。制御部55は、CPU等のプロセッサによって構成される。
 表示制御部56は、画像処理部54において生成された画像を、表示装置6における画像の表示レンジに応じたデータの間引きや、階調処理などの所定の処理を施した後、表示装置6に表示出力させる。表示制御部56は、CPU等のプロセッサによって構成される。
 入力部57は、ユーザの操作に応じた情報や命令の入力を受け付ける。入力部57は、キーボードやマウス、タッチパネル、各種スイッチ等の入力デバイスによって構成される。
 記憶部58は、画像処理装置5を動作させて種々の機能を実行させるためのプログラム、該プログラムの実行中に使用される各種情報、並びに、受信装置4a及び受信装置4bを介して取得した画像、関心画像数、及び関連情報等を記憶する。記憶部58は、フラッシュメモリ、RAM、ROM等の半導体メモリや、HDD、MO、CD-R、DVD-R等の記録媒体及び該記録媒体を駆動する駆動装置等によって構成される。
 続いて、受信装置4aと受信装置4bとが、略同時にクレードル5a及びクレードル5bを介して画像処理装置5に接続される場合における、画像処理装置5が実行する処理について説明する。図5は、図2に示す画像処理装置が実行する処理の手順を示すフローチャートである。図6は、図5のフローチャートを説明するための図である。図6では、カプセル型内視鏡システム1の各部が行う処理に符号を付した。図5、図6に示すように、はじめに、画像処理装置5は、受信装置4aから関心画像数を受信する処理(Ca)を行うとともに、受信装置4bから関心画像数を受信する処理(Cb)を行う(ステップS1)。
 続いて、比較部52は、受信装置4aの関心画像数と受信装置4bの関心画像数とを比較する(ステップS2)。
 さらに、判定部53は、比較部52の比較結果に基づいて、受信装置4a及び受信装置4bがそれぞれ画像群を送信する処理の優先順位を判定する(ステップS3)。具体的には、判定部53は、受信装置4aの関心画像数が多い場合、受信装置4aの第1の画像群を送信する処理の優先順位が高いと判定する。
 そして、制御部55は、判定部53が判定した優先順位に基づいて、受信装置4a及び受信装置4bに第1の画像群及び第2の画像群をそれぞれ送信させる制御を行う(ステップS4)。具体的には、判定部53が受信装置4aの第1の画像群を送信する処理の優先順位が高いと判定した場合、制御部55は、受信装置4aに制御信号を送信し、第1の画像群を優先的に送信させる処理(Ta)を行う。
 さらに、制御部55は、判定部53が判定した優先順位に基づいて、第1の画像群及び第2の画像群に対する画像処理を画像処理部54に行わせる制御を行う(ステップS5)。具体的には、判定部53が受信装置4aの第1の画像群に対する画像処理の優先順位が高いと判定した場合、制御部55は、画像処理部54に優先順位の高い第1の画像群に対する画像処理(Ia)を行わせる。すると、画像処理(Ia)が終了した時点で、ユーザは優先順位の高い第1の画像群を観察して診断を行うことができる。
 その後、制御部55は、受信装置4bに制御信号を送信し、優先順位の低い第2の画像群を送信させる処理(Tb)を行う。さらに、制御部55は、画像処理部54に第2の画像群に対する画像処理(Ib)を行わせる。そして、一連の処理が終了する。
 以上説明したように、実施の形態1によれば、関心画像を多く含む画像群に対する処理を優先的に行うことにより、ユーザが優先度の高い順に画像群を観察することができる画像処理装置を実現することができる。
 ここで、関心画像が、赤色画像であるとする。赤色画像は、被検体の出血の可能性がある画像に対応する。この場合、ユーザは、出血の可能性がある被検体を優先的に診断し、止血等の処置を早期に行うことが可能となる。また、関心画像が、病変画像であるとする。病変画像は、所定の画像処理により所定の病変の可能性がある画像である。この場合、ユーザは、病変の可能性がある被検体を優先的に診断し、病変に対する処置を早期に行うことが可能となる。このように、関心画像の設定を変更することにより、ユーザが所望の処置を早期に行うことが可能となる。また、関心画像が、キャプチャ画像であるとする。キャプチャ画像は、病変等のユーザが後に詳しく診断を行いたい画像である。この場合に、ユーザは、自らがキャプチャした画像が多い画像群が撮像された被検体を優先的に診断することができる。
 なお、上述した実施の形態1では、受信装置4aが計数部44を備える構成を説明したが、これに限られない。例えば、画像処理装置5が計数部を備えていてもよく、画像処理装置5が受信装置4a及び受信装置4bから第1の画像群及び第2の画像群を受信した後、画像処理装置5の計数部が関心画像数を計数し、計数した関心画像数に基づいた優先順位で画像処理部54が画像処理を行う構成であってもよい。
 また、上述した実施の形態1では、受信装置4aと受信装置4bとが、略同時にクレードル5a及びクレードル5bを介して画像処理装置5に接続される場合について説明したが、実際には、受信装置4aと受信装置4bとが画像処理装置5に接続されるタイミングがずれる場合がある。このような場合には、画像処理装置5に受信装置が接続されてから所定の時間、他の受信装置の接続を待機する構成にすればよい。具体的には、画像処理装置5に受信装置が接続され、所定時間内に他の受信装置が接続された場合には、これらの受信装置が同時に接続されたとして処理を行えばよい。一方、受信装置が接続され、所定時間内に他の受信装置が接続されない場合には、接続されている受信装置のみで処理を開始すればよい。
(変形例1-1)
 図7は、実施の形態1の変形例1-1に係る画像処理装置が実行する処理を説明するための図である。図7に示すように、複数の受信装置から同時にデータを送信することができる場合には、受信装置4a及び受信装置4bから並行して、第1の画像群及び第2の画像群をそれぞれ送信してもよい。
 この場合には、制御部55は、判定部53が判定した優先順位に基づいて、第1の画像群及び第2の画像群に対する画像処理を画像処理部54に行わせる制御を行う。具体的には、判定部53が受信装置4aの第1の画像群に対する画像処理の優先順位が高いと判定した場合、制御部55は、画像処理部54に優先順位の高い第1の画像群に対する画像処理(Ia)を行わせる。その後、制御部55は、画像処理部54に第2の画像群に対する画像処理(Ib)を行わせる。
(変形例1-2)
 図8は、実施の形態1の変形例1-2に係る画像処理装置が実行する処理の手順を示すフローチャートである。図9は、図8のフローチャートを説明するための図である。図9に示すように、この構成では、画像処理装置5に受信装置4Aa~4Aeからそれぞれ画像群が送信される。受信装置4Aa~4Aeの構成は、受信装置4aと同様であってよい。
 図8、図9に示すように、はじめに、画像処理装置5の制御部55は、画像処理装置5に受信装置が接続されたか否かを判定する(ステップS11)。画像処理装置5に受信装置が接続されていないと判定した場合(ステップS11:No)、後述するステップS15に進み、それまで行っていた画像処理を継続して行う。
 一方、画像処理装置5に受信装置が接続されたと判定した場合(ステップS11:Yes)、はじめに接続された受信装置4Aaから関心画像数を受信する処理(CAa)を行う(ステップS12)。
 この処理が完了すると、画像処理装置5の比較部52は、受信した各受信装置の関心画像数を比較する(ステップS13)。
 さらに、判定部53は、比較部52の比較結果に基づいて、各受信装置から送信された画像群に対して画像処理を行う優先順位を判定する処理(DAa)を行う(ステップS14)。このとき、受信装置が1つしか接続されていないため、受信装置4Aaから受信する画像群に対する画像処理を優先的に行う判定がなされる。
 また、ステップS13、S14と並行して、画像処理装置5は、受信装置4Aaに画像群を送信させる処理(TAa)を行う(ステップS15)。
 そして、ステップS15の処理(TAa)が完了すると、画像処理装置5は、判定部53が判定した優先順位に基づいて、受信装置4Aaから受信した画像群に対する画像処理(IAa)を行う(ステップS16)。
 その後、ステップS11に戻り、処理が繰り返される。
 続いて、受信装置4Abが接続される。すると、画像処理装置5は、受信装置が接続されたと判定し(ステップS11:Yes)、受信装置4Abから関心画像数を受信する処理(CAb)を行う(ステップS12)。
 この処理が完了すると、画像処理装置5の比較部52は、受信した各受信装置の関心画像数を比較する(ステップS13)。
 さらに、判定部53は、比較部52の比較結果に基づいて、各受信装置から送信された画像群に対して画像処理を行う優先順位を判定する処理(DAb)を行う(ステップS14)。このとき、受信装置4Aaから受信した画像群に対する画像処理(IAa)は既に開始されているため、判定には含めない。その結果、判定部53は、受信装置4Abから受信する画像群に対する画像処理(IAb)を優先順位が高いと判定する。
 また、ステップS13、S14と並行して、画像処理装置5は、受信装置4Abに画像群を送信させる処理(TAb)を行う(ステップS15)。
 そして、画像処理装置5は、優先順位に基づいた画像処理を行う(ステップS16)。
 さらに、受信装置4Acが接続される。すると、画像処理装置5は、受信装置が接続されたと判定し(ステップS11:Yes)、受信装置4Acから関心画像数を受信する処理(CAc)を行う(ステップS12)。
 この処理が完了すると、画像処理装置5の比較部52は、受信した各受信装置の関心画像数を比較する(ステップS13)。
 さらに、判定部53は、比較部52の比較結果に基づいて、各受信装置から送信された画像群に対して画像処理を行う優先順位を判定する処理(DAc)を行う(ステップS14)。このとき、図9に示すように、処理(DAd)の時点で、受信装置4Abから受信した画像群に対する画像処理(IAb)は既に開始されているため、判定には含めない。その結果、判定部53は、受信装置4Acから受信する画像群に対する画像処理(IAc)を優先順位が高いと判定する。
 続いて、受信装置4Adが接続される。すると、画像処理装置5は、受信装置が接続されたと判定し(ステップS11:Yes)、受信装置4Adから関心画像数を受信する処理(CAd)を行う(ステップS12)。
 この処理が完了すると、画像処理装置5の比較部52は、受信した各受信装置の関心画像数を比較する(ステップS13)。
 さらに、判定部53は、比較部52の比較結果に基づいて、各受信装置から送信された画像群に対して画像処理を行う優先順位を判定する処理(DAd)を行う(ステップS14)。このとき、図9に示すように、処理(DAd)の時点で、受信装置4Abから受信した画像群に対する画像処理(IAb)は既に開始されているため、判定には含めない。一方、画像処理が開始されていない受信装置4Ac及び受信装置4Adのそれぞれの画像群に対する画像処理の優先順位を判定する。
 図10は、各受信装置から送信される関心画像数を表す図である。比較部52は、受信装置4Acの関心画像数と受信装置4Adの関心画像数とを比較する。受信装置4Acの関心画像数は0、受信装置4Adの関心画像数は2であるため、関心画像数は「受信装置4Ad>受信装置4Ac」であることが分かる。判定部53は、比較部52の比較結果に基づいて、関心画像数が多い受信装置4Adの画像群に対する画像処理の優先順位を1番、受信装置4Acの画像群に対する画像処理の優先順位を2番と判定する。
 また、ステップS13、S14と並行して、画像処理装置5は、受信装置4Adに画像群を送信させる処理(TAd)を行う(ステップS15)。
 さらに、受信装置4Aeが接続される。すると、画像処理装置5は、受信装置が接続されたと判定し(ステップS11:Yes)、受信装置4Aeから関心画像数を受信する処理(CAe)を行う(ステップS12)。
 この処理が完了すると、画像処理装置5の比較部52は、受信した各受信装置の関心画像数を比較する(ステップS13)。
 さらに、判定部53は、比較部52の比較結果に基づいて、各受信装置から送信された画像群に対して画像処理を行う優先順位を判定する処理(DAe)を行う(ステップS14)。このとき、図9に示すように、処理(DAe)の時点で、受信装置4Abから受信した画像群に対する画像処理(IAb)は既に開始されているので、判定には含めない。一方、画像処理が開始されていない受信装置4Ac、受信装置4Ad及び受信装置4Aeのそれぞれの画像群に対する画像処理の優先順位を判定する。
 図10に示すように、比較部52は、受信装置4Acの関心画像数と受信装置4Adの関心画像数と受信装置4Aeの関心画像数とを比較する。受信装置4Acの関心画像数は0、受信装置4Adの関心画像数は2、受信装置4Aeの関心画像数は3であるため、関心画像数は「受信装置4Ae>受信装置4Ad>受信装置4Ac」であることが分かる。判定部53は、比較部52の比較結果に基づいて、最も関心画像数が多い受信装置4Aeの画像群に対する画像処理の優先順位を1番、次に関心画像数が多い受信装置4Adの画像群に対する画像処理の優先順位を2番、受信装置4Acの画像群に対する画像処理の優先順位を3番と判定する。その結果、図9に示すように、画像処理装置5において、受信装置4Abから受信した画像群に対する画像処理(IAb)が完了すると、優先順位に基づいて受信装置4Aeから受信した画像群に対する画像処理(IAe)が開始される(ステップS16)。
 なお、ステップS13、S14と並行して、画像処理装置5は、受信装置4Aeに画像群を送信させる処理(TAe)を行う(ステップS15)。なお、受信装置4Abから受信した画像群に対する画像処理(IAb)が完了した時点で、受信装置4Aeに画像群を送信させる処理(TAe)が完了していない場合には、処理(TAe)の完了を待ってから、画像処理(IAe)を行ってもよいが、優先順位を変更し、次に優先順位が高い受信装置4Adから受信した画像群に対する画像処理(IAd)を行ってもよい。
 さらに、図9に示すように、画像処理装置5において、受信装置4Aeから受信した画像群に対する画像処理(IAe)が完了すると、優先順位に基づいて受信装置4Adから受信した画像群に対する画像処理(IAd)が開始される(ステップS16)。
 最後に、画像処理装置5において、受信装置4Adから受信した画像群に対する画像処理(IAd)が完了すると、優先順位に基づいて受信装置4Acから受信した画像群に対する画像処理(IAc)が開始される(ステップS16)。
 そして、受信装置4Acから受信した画像群に対する画像処理(IAc)が完了すると一連の処理が終了する。
 以上説明したように、実施の形態1の変形例1-2によれば、関心画像数が多い受信装置4Aeの画像群に対する画像処理が先に完了するため、ユーザが優先度の高い順に画像群を観察することができる。
(変形例1-3)
 図11は、実施の形態1の変形例1-3に係る画像処理装置が実行する処理を説明するための図である。図11に示すように、この構成では、画像処理装置5に受信装置4Ba~4Bcからそれぞれ画像群が送信される。受信装置4Ba~4Bcの構成は、受信装置4aと同様であってよい。
 図11の(a)に示すように、はじめに、受信装置4Ba及び受信装置4Bcから関心画像数を受信する処理(CBa、CBb)が行われる。また、受信装置4Ba及び受信装置4Bbの画像群を画像処理装置5に送信する処理の優先順位を判定する処理(DBa)が行われる。具体的には、判定部53は、関心画像である赤色画像の検出枚数が多い受信装置4Baの画像群を送信する処理(TBa)の優先順位が高いと判定する。そして、優先順位が高いと判定された受信装置4Baの画像群を送信する処理(TBa)が実行される。その後、受信装置4Bcが接続され、受信装置4Bcから関心画像数を受信する処理(CBc)が行われる。さらに、判定部53が、受信装置4Bb及び受信装置4Bcの画像群を画像処理装置5に送信する処理の優先順位を判定する処理(DBb)が行われる。具体的には、判定部53は、関心画像である赤色画像の検出枚数が多い受信装置4Bbの画像群を送信する処理(TBb)の優先順位が高いと判定する。
 図12は、図11の画像処理装置が表示装置に表示させる検査リストの一例を表す図である。図12の(a)は、図11に示す時間t1において、表示装置6に表示されている検査リストの一例である。図12に示すように、表示装置6には、受信装置の番号(No)、その受信装置が装着されていた患者のID、関心画像である赤色画像の検出枚数、キャプチャ画像の枚数、処理状況等が表示されている。
 時間t1において、受信装置No.0001に対応する受信装置4Baは、画像を送信(転送)する処理(TBa)を行っている。受信装置No.0002に対応する受信装置4Bbと、受信装置No.0003に対応する受信装置4Bcとでは、関心画像である赤色画像の検出枚数が多い受信装置4Bbの優先順位が高いと判定されている。図12の検査リストにおいて、優先順位が高い処理が画面の上方に表示されるので、図12の(a)に示すように、受信装置No.0002が、受信装置No.0003より上に表示されている。
 ここで、ユーザが受信装置4Bcの画像群を先に観察したい場合に、図12の(a)の画面において受信装置No.0003を選択し、画面右側のアップボタンBU又はダウンボタンBDを用いて、画面上の受信装置4Bbと受信装置4Bcとの位置を入れ替える割り込み操作を入力する。すると、図12の(b)に示すように、受信装置No.0003が受信装置No.0002より上に表示される。また、図11の(b)に示すように、受信装置4Bcの画像群を送信する処理(TBc)が、受信装置4Bbの画像群を送信する処理(TBb)より優先的に行われる。
 このように、判定部53が判定した優先順位を、ユーザによる割り込み操作により入れ替えることが可能な構成であってもよい。図12に示すように、表示装置6に赤色検出枚数及びキャプチャ枚数が表示されているため、ユーザはこれらの情報を踏まえて優先順位を変更することができる。
(変形例1-4)
 図13は、実施の形態1の変形例1-4に係る画像処理装置が表示装置に表示させる検査リストの一例を表す図である。図13は、変形例1-2において、一連の画像処理(IAa)~(IAe)が終了した状態において、表示装置6に表示されている検査リストの一例を表す。図13においても、図12と同様に、表示装置6には、受信装置No、患者ID、赤色検出枚数、キャプチャ枚数、処理状況等が表示されている。
 図13に示すように、画像処理が完了した各画像群が並べて表示されている。このとき、赤色検出枚数、及びキャプチャ枚数のソートボタンBR及びBCを用いることにより、いずれかの枚数により画像群をソートすることができる。なお、図13は、赤色検出枚数が多い順にソートした状態を表す。その結果、ユーザは、いずれかの画像数の多い画像群から観察することができる。
 なお、図13には、画像処理が完了した画像群のみをリストに表示する場合を示した。この場合には、ユーザが、観察可能な画像群と、その画像群の赤色検出枚数及びキャプチャ枚数とを知ることができ、どの画像群から観察するかを判断するための情報が得られる。
(実施の形態2)
 図14は、本発明の実施の形態2にかかるカプセル型内視鏡システムの概略構成を示す模式図である。図14に示すように、カプセル型内視鏡システム11では、受信装置14a~14eが画像処理装置15に無線通信により接続されている。なお、実施の形態1と同様の構成については、適宜説明を省略する。このカプセル型内視鏡システム11では、カプセル型内視鏡2が撮像した撮像信号がリアルタイムに受信装置14aに送信される。さらに、受信装置14aは、受信した撮像信号に対して、受信した順に画像処理等を施して画像データを生成し、生成した順に画像データの画像処理装置15への送信を開始する。
 図15は、図14に示すカプセル型内視鏡システムの構成を示すブロック図である。受信装置14aの計数部144は、画像処理部43が生成した画像から順次関心画像を抽出し、抽出された関心画像の枚数を計数する。計数部144は、CPU等のプロセッサで構成される。
 受信装置14aのデータ送受信部149は、画像処理装置15と無線通信可能であり、順次画像、関心画像数、及び関連情報を画像処理装置15に送信する。データ送受信部149は、無線LAN等の通信I/Fで構成される。
 なお、受信装置14b~14eは、受信装置14aと同様の構成であってよい。また、受信装置14b~14eは、それぞれ別の被検体内に導入されたカプセル型内視鏡から送信された無線信号を、その被検体に装着された受信アンテナユニットを介して受信するが、図14では記載を省略した。
 画像処理装置15のデータ送受信部151は、受信装置14a~14eのそれぞれと無線通信可能であり、順次画像、関心画像数、及び関連情報を受信装置14a~14eからそれぞれ受信する。データ送受信部151は、無線LAN等の通信回線と接続可能なインタフェースである。
 画像処理装置15の比較部152は、受信装置14a~14eが取得した画像群における関心画像数を比較する。比較部152は、CPU等のプロセッサによって構成される。
 画像処理装置15の判定部153は、比較部152の比較結果に基づいて、受信装置14a~14eから画像処理装置15に画像群をそれぞれ送信する処理の優先順位を判定する。具体的には、判定部153は、比較部152の比較結果に基づいて、関心画像が多い画像群の優先順位が高いと判定する。判定部153は、CPU等のプロセッサによって構成される。
 画像処理装置15の制御部155は、判定部153が判定した優先順位に基づいた送信レートにより、受信装置14a~14eに画像群をそれぞれ送信させる制御を行う。制御部155は、CPU等のプロセッサによって構成される。
 続いて、画像処理装置15が実行する処理について説明する。図16は、図15に示す画像処理装置が実行する処理の手順を示すフローチャートである。図17は、図16のフローチャートを説明するための図である。図17では、各受信装置14a~14eの計数部が抽出した関心画像の枚数を太枠内に記載した。図16、図17に示すように、はじめに、画像処理装置15は、受信装置から無線通信により画像データの受信を開始する(ステップS21)。まず、受信装置14aからの画像を受信する。さらに、受信装置14b及び受信装置14dからの画像を受信する。このとき、画像処理装置15と、受信装置14a、受信装置14b、及び受信装置14dとの無線通信の送信レートは初期値の1Mbpsである。
 無線通信が開始されると、画像処理装置15の制御部155は、所定の時間間隔tsごとに関心画像数送信指示信号を送信する処理(O1)を行う(ステップS22)。
 画像処理装置15と無線通信している受信装置14a、受信装置14b、及び受信装置14dは、関心画像数送信指示信号を受信し、この時点までに計数した関心画像数を送信する。すると、画像処理装置15は、受信装置14a、受信装置14b、及び受信装置14dからの関心画像数を受信する処理(I1)を行う(ステップS23)。具体的には、図17に示すように、処理(I1)の時点において、いずれの受信装置でも太枠で示す関心画像の抽出が行われていないため、各受信装置の関心画像数は0枚であることを受信する。
 そして、比較部152は、受信装置14a、受信装置14b、及び受信装置14dから受信した関心画像数を比較する(ステップS24)。
 さらに、判定部153は、比較部152の比較結果に基づいて、受信装置14a、受信装置14b、及び受信装置14dから画像処理装置15に画像をそれぞれ送信する処理の優先順位を判定する処理(P1)を行う(ステップS25)。このとき、受信装置14a、受信装置14b、及び受信装置14dでは、いずれも関心画像数が0枚であるため、優先順位は同一である。
 図18は、優先順位と送信レートとの対応関係を表す図である。図18に示すように、優先順位に応じた送信レートは、1位:9Mbps、2位:7Mbps、3位:5Mbps、4位:3Mbps、5位:2Mbps、関心画像数が0枚の場合は、初期値1Mbpsとする。その結果、制御部155は、受信装置14a、受信装置14b、及び受信装置14dに送信レート1Mbpsのままで画像を送信させる制御を行う。具体的には、制御部155は、受信装置14a、受信装置14b、及び受信装置14dに送信レート1Mbpsで送信を行わせるデータ転送レート指示信号を送信する(ステップS26)。
 その後、画像処理装置15は、画像データを受信する(ステップS27)。
 そして、制御部155は、画像の転送が終了したか否かを判定し(ステップS28)、転送が終了していないと判断した場合(ステップS28:No)、ステップS22に戻る。
 その後、図17に示すように、受信装置14c及び受信装置14eからの画像を受信する。このとき、受信装置14c及び受信装置14eの無線通信の送信レートは初期値の1Mbpsである。また、受信装置14a及び受信装置14bにおいて、4枚ずつ関心画像が検出された(図17の太枠中に+4と記載)とする。
 画像処理装置15の制御部155は、処理(O1)から所定の時間間隔tsが経過すると、再度関心画像数送信指示信号を送信する処理(O2)を行う(ステップS22)。
 画像処理装置15と無線通信している受信装置14a~14eは、関心画像数送信指示信号を受信し、関心画像数を送信する。すると、画像処理装置15は、受信装置14a~14eからの関心画像数を受信する処理(I2)を行う(ステップS23)。
 そして、比較部152は、受信装置14a~14eから受信した関心画像数を比較する(ステップS24)。
 さらに、判定部153は、比較部152の比較結果に基づいて、受信装置14a~14eから画像処理装置15に画像をそれぞれ送信する処理の優先順位を判定する処理(P2)を行う(ステップS25)。このとき、受信装置14a及び受信装置14bは関心画像数が4枚であり、一方、受信装置14c、受信装置14d及び受信装置14eは関心画像が0枚であるため、受信装置14a及び受信装置14bの優先順位が高いと判定される。
 その結果、制御部155は、図18に示すように、受信装置14a~14bに送信レート9Mbpsで、受信装置14c~14eに送信レート1Mbpsのままで画像を送信させるようデータ転送レート指示信号を送信する(ステップS26)。
 その後、画像処理装置15は、画像を受信する(ステップS27)。
 そして、制御部155は、画像の転送が終了したか否かを判定し(ステップS28)、転送が終了していないと判断した場合(ステップS28:No)、ステップS22に戻る。
 その後、図17に示すように、受信装置14aにおいて3枚、受信装置14dにおいて2枚の関心画像が検出された(図17の太枠中にそれぞれ+3、+2と記載)とする。
 画像処理装置15の制御部155は、処理(O2)から所定の時間間隔tsが経過すると、再度関心画像数送信指示信号を送信する処理(O3)を行う(ステップS22)。
 画像処理装置15と無線通信している受信装置14a~14eは、関心画像数送信指示信号を受信し、関心画像数を送信する。すると、画像処理装置15は、受信装置14a~14eからの関心画像数を受信する処理(I3)を行う(ステップS23)。
 そして、比較部152は、受信装置14a~14eから受信した関心画像数を比較する(ステップS24)。
 さらに、判定部153は、比較部152の比較結果に基づいて、受信装置14a~14eから画像処理装置15に画像をそれぞれ送信する処理の優先順位を判定する処理(P3)を行う(ステップS25)。このとき、優先順位は、受信装置14a(関心画像数7枚)、受信装置14b(関心画像数4枚)、受信装置14d(関心画像数2枚)、受信装置14c及び受信装置14e(関心画像数0枚)の順になる。
 その結果、制御部155は、図18に示すように、受信装置14aに送信レート9Mbpsのままで、受信装置14bに送信レート7Mbpsで、受信装置14dに送信レート5Mbpsで、受信装置14c及び14eに送信レート1Mbpsのままで画像群の画像データを送信させるようデータ転送レート指示信号を送信する(ステップS26)。
 その後、画像処理装置15は、画像を受信する(ステップS27)。
 そして、制御部155は、画像の転送が終了したか否かを判定し(ステップS28)、転送が終了していないと判断した場合(ステップS28:No)、ステップS22に戻る。その後、上述した一連の処理を画像の転送が終了するまで繰り返す。
 以上説明したように、実施の形態2によれば、関心画像が多く検出された画像群が優先的に転送されるため、ユーザが優先度の高い順に画像群を観察することができる。
(変形例2-1)
 図19は、実施の形態2の変形例2-1に係る画像処理装置が実行する処理を説明するための図である。図19に示すように、変形例2-1においては、受信装置14a~14eから画像処理装置15への送信レートが合計で最大25Mbpsになるように送信レートが割り振られている。例えば、優先順位を判定する処理(P3)において、制御部155は、関心画像数が0枚の受信装置14c及び受信装置14eの送信レートを1Mbpsにする。さらに残りの23Mbpsを他の受信装置に割り振る。優先順位が1位である受信装置14aの送信レートを23Mbps×3/6=11.5Mbps、優先順位が2位である受信装置14bの送信レートを23Mbps×2/6=7.7Mbps、優先順位が3位である受信装置14dの送信レートを23Mbps×1/6=3.8Mbpsにする。このように、データ転送の速度に上限がある場合には、優先順位に応じて送信レートを割り振ればよい。
(変形例2-2)
 図20は、実施の形態2の変形例2-2に係る各受信装置が実行する処理を説明するための図である。図20に示すように、変形例2-2において、各受信装置は、関心画像を検出すると、関心画像の枚数に応じて、自らの送信レートを上げる。具体的には、受信装置14aは、初期状態において送信レートが1Mbps、関心画像が1枚以上の場合に2Mbps、4枚以上の場合に3Mbps、7枚以上の場合に5Mbpsに上げる。このように、受信装置側で送信レートを変更する構成であってもよい。
(変形例2-3)
 図21は、実施の形態2の変形例2-3に係る各受信装置が実行する処理を説明するための図である。図21に示すように、変形例2-3も変形例2-2と同様に、受信装置側で送信レートを変更する構成である。各受信装置は、関心画像を検出すると、その枚数に応じて自らの送信レートを上げる。一方、関心画像を検出してから所定の時間tlが経過後、関心画像を検出しない場合には自動的に自らの送信レートを1Mbpsに下げる構成である。具体的には、受信装置14aは、初期状態において送信レートが1Mbps、所定の時間tlが経過するまでに検出した関心画像が1枚以上の場合に2Mbps、4枚以上の場合に3Mbps、7枚以上の場合に5Mbpsに上げる。図21においては、関心画像を4枚検出すると送信レートを3Mbpsに上げ、さらに所定の時間tlが経過する前に関心画像を3枚検出すると送信レートを5Mbpsに上げる。その後、受信装置14aは、所定の時間tlが経過しても関心画像を検出しないため、送信レートを1Mbpsに下げる。
 なお、上述した実施の形態では、関心画像数に応じた優先順位に基づいて、複数の受信装置の画像群に対する処理を行う構成を説明したがこれに限られない。例えば、1つの受信装置に撮像された臓器(食道及び胃、小腸、大腸等)ごとに分けられた画像群があり、これらの画像群に対する処理を、関心画像数に応じた優先順位に基づいて行ってもよい。
 また、上述した実施の形態では、受信装置から画像処理装置に着目画像数や画像群のデータを送信する構成を説明したがこれに限られない。受信装置からサーバに着目画像数や画像群のデータを送信し、画像処理装置がサーバからデータを読み込む構成であってもよい。なお、サーバは、ネットワークを介して接続されている遠隔地に配置されているサーバであってもよい。
 さらなる効果や変形例は、当業者によって容易に導き出すことができる。よって、本発明のより広範な態様は、以上のように表わしかつ記述した特定の詳細及び代表的な実施形態に限定されるものではない。従って、添付のクレーム及びその均等物によって定義される総括的な発明の概念の精神又は範囲から逸脱することなく、様々な変更が可能である。
 1、11 カプセル型内視鏡システム
 2 カプセル型内視鏡
 3a~3h 受信アンテナ
 3 受信アンテナユニット
 4a、4b、4Aa、4Ab、4Ac、4Ad、4Ae、4Ba、4Bb、4Bc、14a、14b、14c、14d、14e 受信装置
 5a、5b クレードル
 5、15 画像処理装置
 6 表示装置
 21 撮像部
 22 照明部
 23、45、55、155 制御部
 24 無線通信部
 25 アンテナ
 26、48 メモリ
 27、410 電源部
 28 筐体
 41 受信部
 42 受信信号処理部
 43、54 画像処理部
 44、144 計数部
 46 操作部
 47 表示部
 49、149、51、151 データ送受信部
 52、152 比較部
 53、153 判定部
 56、451 表示制御部
 57 入力部
 58 記憶部

Claims (10)

  1.  第1の画像群及び第2の画像群を取得して画像処理を施す画像処理装置であって、
     前記第1の画像群における関心画像数と、前記第2の画像群における関心画像数とを比較する比較部と、
     前記比較部の比較結果に基づいて、前記第1の画像群及び前記第2の画像群に対する処理の優先順位を判定する判定部と、
     を備えることを特徴とする画像処理装置。
  2.  前記第1の画像群は、第1の受信装置によって取得された画像であり、
     前記第2の画像群は、第2の受信装置によって取得された画像であることを特徴とする請求項1に記載の画像処理装置。
  3.  前記判定部は、前記比較部の比較結果に基づいて、前記第1の受信装置及び前記第2の受信装置から当該画像処理装置に前記第1の画像群及び前記第2の画像群の画像データをそれぞれ送信する処理の優先順位を判定し、
     前記判定部が判定した優先順位に基づいて、前記第1の受信装置及び前記第2の受信装置に前記第1の画像群及び前記第2の画像群の画像データをそれぞれ送信させる制御を行う制御部を備えることを特徴とする請求項2に記載の画像処理装置。
  4.  前記判定部は、前記比較部の比較結果に基づいて、前記第1の受信装置及び前記第2の受信装置から当該画像処理装置に前記第1の画像群及び前記第2の画像群の画像データをそれぞれ送信する処理の優先順位を判定し、
     前記判定部が判定した優先順位に基づいた送信レートにより、前記第1の受信装置及び前記第2の受信装置に前記第1の画像群及び前記第2の画像群の画像データをそれぞれ送信させる制御を行う制御部を備えることを特徴とする請求項2に記載の画像処理装置。
  5.  前記判定部は、前記比較部の比較結果に基づいて、前記第1の画像群及び前記第2の画像群のそれぞれに対して行う画像処理の優先順位を判定し、
     前記第1の画像群及び前記第2の画像群のそれぞれに対して画像処理を行う画像処理部と、
     前記判定部が判定した優先順位に基づいて、前記第1の画像群及び前記第2の画像群に対する画像処理を前記画像処理部に行わせる制御を行う制御部と、
     を備えることを特徴とする請求項1又は2に記載の画像処理装置。
  6.  前記関心画像は、赤色の色成分が多い赤色画像、病変が検出された病変画像、画像から算出した所定の特徴量が所定の範囲内に含まれる特徴量検出画像、ユーザがキャプチャしたキャプチャ画像、又はユーザが選択した選択画像の少なくとも1つを含むことを特徴とする請求項1~5のいずれか1つに記載の画像処理装置。
  7.  前記判定部は、前記第1の画像群及び前記第2の画像群のうち、前記関心画像数が多い画像群に対する処理の優先順位を高くすることを特徴とする請求項1~6のいずれか1つに記載の画像処理装置。
  8.  請求項2~4のいずれか1つに記載の画像処理装置と、
     前記第1の画像群を取得して前記画像処理装置に送信する前記第1の受信装置と、
     前記第2の画像群を取得して前記画像処理装置に送信する前記第2の受信装置と、
     を備えることを特徴とする画像処理システム。
  9.  第1の画像群及び第2の画像群を取得して画像処理を施す画像処理装置の作動方法であって、
     比較部が、前記第1の画像群における関心画像数と、前記第2の画像群における関心画像数とを比較する比較ステップと、
     判定部が、前記比較部の比較結果に基づいて、前記第1の画像群及び前記第2の画像群に対する処理の優先順位を判定する判定ステップと、
     を含むことを特徴とする画像処理装置の作動方法。
  10.  第1の画像群及び第2の画像群を取得して画像処理を施す画像処理装置の作動プログラムであって、
     比較部が、前記第1の画像群における関心画像数と、前記第2の画像群における関心画像数とを比較する比較ステップと、
     判定部が、前記比較部の比較結果に基づいて、前記第1の画像群及び前記第2の画像群に対する処理の優先順位を判定する判定ステップと、
     を画像処理装置に実行させることを特徴とする画像処理装置の作動プログラム。
PCT/JP2017/010150 2016-07-05 2017-03-14 画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム WO2018008195A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017554098A JP6326178B1 (ja) 2016-07-05 2017-03-14 画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム
US16/156,003 US10726553B2 (en) 2016-07-05 2018-10-10 Image processing apparatus, image processing system, operation method of image processing apparatus, and computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-133366 2016-07-05
JP2016133366 2016-07-05

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/156,003 Continuation US10726553B2 (en) 2016-07-05 2018-10-10 Image processing apparatus, image processing system, operation method of image processing apparatus, and computer-readable recording medium

Publications (1)

Publication Number Publication Date
WO2018008195A1 true WO2018008195A1 (ja) 2018-01-11

Family

ID=60912431

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/010150 WO2018008195A1 (ja) 2016-07-05 2017-03-14 画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム

Country Status (3)

Country Link
US (1) US10726553B2 (ja)
JP (1) JP6326178B1 (ja)
WO (1) WO2018008195A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111091562A (zh) * 2019-12-23 2020-05-01 山东大学齐鲁医院 一种消化道病灶大小测量方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070078335A1 (en) * 2005-09-30 2007-04-05 Eli Horn System and method for in-vivo feature detection
JP2007167555A (ja) * 2005-12-26 2007-07-05 Olympus Corp 生体内画像表示装置及び受信システム
WO2012063623A1 (ja) * 2010-11-08 2012-05-18 オリンパスメディカルシステムズ株式会社 画像表示装置及びカプセル型内視鏡システム
JP2012228532A (ja) * 2006-09-12 2012-11-22 Olympus Medical Systems Corp 被検体内情報取得装置およびカプセル型内視鏡

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL143260A (en) 2001-05-20 2006-09-05 Given Imaging Ltd Array and method for locating an intra-body signal source
JP5340566B2 (ja) * 2007-07-24 2013-11-13 オリンパスメディカルシステムズ株式会社 受信装置
CN102753078B (zh) * 2010-09-24 2015-03-18 奥林巴斯医疗株式会社 图像显示装置以及胶囊型内窥镜***
JP5498630B1 (ja) * 2012-06-08 2014-05-21 オリンパスメディカルシステムズ株式会社 カプセル型内視鏡装置および受信装置
WO2014061553A1 (ja) * 2012-10-18 2014-04-24 オリンパスメディカルシステムズ株式会社 画像処理装置及び画像処理方法
WO2014061554A1 (ja) * 2012-10-18 2014-04-24 オリンパスメディカルシステムズ株式会社 画像処理装置及び画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070078335A1 (en) * 2005-09-30 2007-04-05 Eli Horn System and method for in-vivo feature detection
JP2007167555A (ja) * 2005-12-26 2007-07-05 Olympus Corp 生体内画像表示装置及び受信システム
JP2012228532A (ja) * 2006-09-12 2012-11-22 Olympus Medical Systems Corp 被検体内情報取得装置およびカプセル型内視鏡
WO2012063623A1 (ja) * 2010-11-08 2012-05-18 オリンパスメディカルシステムズ株式会社 画像表示装置及びカプセル型内視鏡システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111091562A (zh) * 2019-12-23 2020-05-01 山东大学齐鲁医院 一种消化道病灶大小测量方法及***
CN111091562B (zh) * 2019-12-23 2020-12-01 山东大学齐鲁医院 一种消化道病灶大小测量方法及***

Also Published As

Publication number Publication date
US20190043196A1 (en) 2019-02-07
JPWO2018008195A1 (ja) 2018-07-12
US10726553B2 (en) 2020-07-28
JP6326178B1 (ja) 2018-05-16

Similar Documents

Publication Publication Date Title
US8740777B2 (en) In-vivo imaging system and body-insertable apparatus
WO2006046637A1 (ja) 画像処理方法及びカプセル型内視鏡装置
WO2008018259A1 (fr) dispositif de traitement d'image médicale et procédé de traitement d'image médicale
US20070135684A1 (en) In-vivo information acquiring apparatus
US10299665B2 (en) Imaging device and capsule endoscope system
US11234578B2 (en) Receiving apparatus and radio wave interference determination method
US8915839B2 (en) In-vivo information acquiring system
JP2007061302A (ja) 受信装置
US8986198B2 (en) Image display apparatus and capsule endoscope system
US10932648B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
US8300090B2 (en) In-vivo image acquiring system, in-vivo image processing method, and body-insertable apparatus
US20170258304A1 (en) Imaging device, endoscope, and capsule endoscope
WO2016084467A1 (ja) カプセル型内視鏡及びカプセル型内視鏡システム
US8419632B2 (en) Body-insertable apparatus having light adjustment control unit and in-vivo information acquisition system
US20140321724A1 (en) Image processing apparatus and image processing method
US9763565B2 (en) Capsule endoscope device
JP6326178B1 (ja) 画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム
US20170276847A1 (en) Imaging system
JP5341257B2 (ja) 画像処理装置、画像処理装置の作動方法、画像処理プログラムおよび内視鏡システム
JP2005137395A (ja) 画像処理装置、該方法、及び該プログラム
US20160317002A1 (en) Capsule endoscope apparatus
JP6230511B2 (ja) 内視鏡装置
US11259691B2 (en) Body-insertable apparatus, transmission method, and non-transitory computer readable medium
JP2006288831A (ja) 被検体内導入装置
JPWO2018084025A1 (ja) カプセル型内視鏡、受信装置、カプセル型内視鏡の作動方法、及びカプセル型内視鏡の作動プログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017554098

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17823803

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17823803

Country of ref document: EP

Kind code of ref document: A1