WO2019053973A1 - カプセル型内視鏡システム、カプセル型内視鏡及び受信装置 - Google Patents

カプセル型内視鏡システム、カプセル型内視鏡及び受信装置 Download PDF

Info

Publication number
WO2019053973A1
WO2019053973A1 PCT/JP2018/021946 JP2018021946W WO2019053973A1 WO 2019053973 A1 WO2019053973 A1 WO 2019053973A1 JP 2018021946 W JP2018021946 W JP 2018021946W WO 2019053973 A1 WO2019053973 A1 WO 2019053973A1
Authority
WO
WIPO (PCT)
Prior art keywords
capsule endoscope
image
unit
image data
images
Prior art date
Application number
PCT/JP2018/021946
Other languages
English (en)
French (fr)
Inventor
拓人 井開
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2019053973A1 publication Critical patent/WO2019053973A1/ja
Priority to US16/807,603 priority Critical patent/US20200196845A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00025Operational features of endoscopes characterised by power management
    • A61B1/00027Operational features of endoscopes characterised by power management characterised by power supply
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0247Pressure sensors

Definitions

  • the present invention relates to a capsule endoscope system, a capsule endoscope, and a receiving device for acquiring image data using a capsule endoscope introduced into a subject.
  • Endoscopes have been widely used as medical observation apparatuses that are introduced into the body of a subject such as a patient and observe the inside of the subject.
  • a capsule endoscope which is a swallow-type image acquisition device provided with an imaging device and a communication device that wirelessly transmits image data captured by the imaging device outside the capsule housing. It is being developed.
  • the capsule endoscope is swallowed from the patient's mouth for observation in the subject, and until it is naturally excreted from the subject, for example, peristalsis inside the organ such as esophagus, stomach, small intestine, etc. It has a function to move according to and to image sequentially.
  • the image data captured by the capsule endoscope is sequentially transmitted to the outside by wireless communication and stored in a memory provided inside or outside the receiving apparatus outside the body.
  • the doctor or nurse may take in the image data stored in the memory into the information processing apparatus via the cradle into which the receiving apparatus is inserted, and make a diagnosis based on the image displayed on the display of the information processing apparatus. it can.
  • Patent Document 1 In order to perform efficient and accurate diagnosis, it is desirable to obtain many images of different subject images while suppressing the number of images of the same subject image.
  • the operation of the capsule endoscope is controlled using two images captured by the capsule endoscope at an arbitrary timing.
  • the frame rate is changed based on the comparison result of two images.
  • the moving speed of the capsule endoscope is determined by comparing the images, and the frame rate is changed based on the determination result. This makes it possible to suppress overlapping imaging of similar images.
  • Patent Document 1 the frame rate is set according to the similarity between two images captured at an arbitrary timing, and the image itself to be used is not evaluated. For this reason, there is a case in which an inappropriate image is used as a comparison target, such as overexposure on at least one of the images. In this case, for example, the luminance value becomes large at the overexposure position, so that an appropriate comparison of images can not be performed. As a result, there is a possibility that an appropriate frame rate can not be set.
  • the present invention has been made in view of the above, and it is possible to appropriately control the operation of the capsule endoscope using an image captured by the capsule endoscope. It is an object to provide a system, a capsule endoscope and a receiving device.
  • a capsule endoscope system irradiates illumination light onto a subject and captures the subject to generate an image.
  • a capsule endoscope system including the image of the determination target based on an image to be determined among a plurality of the images or related information associated with the image to be determined;
  • the apparatus is characterized by comprising a determination unit that determines whether or not it is suitable as one of two images used to control the operation of the mold endoscope.
  • the determination unit determines one of the two images
  • the determination unit precedes the one image in time series or before the one image. From the subsequent image group, the other of the two images is determined.
  • a control unit that controls the operation of the capsule endoscope based on the two images determined to be suitable by the determination unit. And the like.
  • the determination unit is suitable for the image to be determined as one of two images based on imaging information at the time of capturing the image. It is characterized in that it is determined whether the
  • the determination unit determines that the image to be determined is two images based on the light emission amount of the illumination light when the image is generated. It is determined whether or not it is suitable as one of the above.
  • the capsule endoscope system according to the present invention according to the above-mentioned invention, whether or not the determination target image is suitable as one of two images based on pixel information of the image. To determine.
  • the determination unit determines whether the image to be determined is the pixel information related to the residue or the bubble among the pixel information of the image. It is characterized by judging whether it is suitable as one of two images.
  • the determination unit determines one of the two images
  • pixel information of the one image and the determination target are determined. Determining the other of the two images based on the presence or absence of the rotation around the imaging optical axis of the image to be determined with respect to the one image detected based on pixel information of the image It features.
  • the capsule endoscope has a sensor for detecting information on the operation of the capsule endoscope or the external environment, and the judging unit
  • the present invention is characterized in that whether or not the image to be judged is suitable as one of two images is judged based on detection information of the sensor.
  • the capsule endoscope has a transmitting unit for wirelessly transmitting the generated image to the outside, and the wireless transmission is performed by the transmitting unit.
  • the receiving device further includes a receiving unit that receives the image, the determining unit is provided in the receiving device, and the image to be determined is based on information when the receiving unit receives the image. It is characterized by judging whether it is suitable as one of two pictures.
  • the capsule endoscope has an imaging unit that generates the image, and the control unit operates the capsule endoscope.
  • the frame rate of the imaging unit is controlled based on two images determined to be suitable as an image for controlling the image.
  • the capsule endoscope in the above-mentioned invention, includes an illumination unit that emits the illumination light, and an imaging unit that generates the image.
  • the control unit is at least one of an imaging operation by the imaging unit and an illumination operation by the illumination unit based on two images determined to be suitable as an image for controlling the operation of the capsule endoscope. To control.
  • the capsule endoscope has a transmitting unit for wirelessly transmitting the image to the outside, and the control unit is the capsule endoscope.
  • the transmission operation by the transmission unit is controlled based on two images determined to be suitable as an image for controlling the operation of the mirror.
  • the capsule endoscope has a power supply unit for supplying power to a circuit inside the capsule endoscope, the control The control unit controls the power supply operation of the power supply unit based on two images determined to be suitable as an image for controlling the operation of the capsule endoscope.
  • a capsule endoscope according to the present invention is a capsule endoscope which emits illumination light to a subject and picks up the subject to generate an image, and a determination target among a plurality of the images. Whether or not the image to be judged is suitable as one of two images used to control the operation of the capsule endoscope, based on the image of or the related information associated with the image to be judged And a determination unit that determines whether the
  • a receiving device is a receiving device for emitting illumination light to a subject, receiving the image wirelessly transmitted by a capsule endoscope which picks up the subject and generates an image, The image to be judged is used to control the operation of the capsule endoscope on the basis of the image to be judged among the images of the above or the related information associated with the image to be judged.
  • a determination unit that determines whether or not it is suitable as one of the images, and a generation unit that generates control information related to operation control of the capsule endoscope from the information obtained by the determination unit. Do.
  • ADVANTAGE OF THE INVENTION According to this invention, it is effective in the ability to control appropriately the operation
  • FIG. 1 is a schematic view showing a schematic configuration of a capsule endoscope system according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a schematic configuration of the capsule endoscope system according to the first embodiment of the present invention.
  • FIG. 3 is a diagram for explaining selection processing of image data performed in the capsule endoscope system according to the first embodiment of the present invention.
  • FIG. 4 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the first embodiment of the present invention.
  • FIG. 5 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the first modification of the first embodiment of the present invention.
  • FIG. 1 is a schematic view showing a schematic configuration of a capsule endoscope system according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a schematic configuration of the capsule endoscope system according to the first embodiment of the present invention.
  • FIG. 3 is a diagram for explaining selection processing of image data
  • FIG. 6 is a view showing a configuration of a capsule endoscope provided in a capsule endoscope system according to a second modification of the first embodiment of the present invention.
  • FIG. 7 is a diagram for explaining selection processing of image data performed in the capsule endoscope system according to the second modification of the first embodiment of the present invention.
  • FIG. 8 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the third modification of the first embodiment of the present invention.
  • FIG. 9 is a flowchart showing image data acquisition processing performed by the capsule endoscope system according to the fourth modification of the first embodiment of the present invention.
  • FIG. 10 is a block diagram showing a schematic configuration of a capsule endoscope system according to a second embodiment of the present invention.
  • FIG. 11 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the second embodiment of the present invention.
  • FIG. 12 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the third embodiment of the present invention.
  • FIG. 13 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the fourth embodiment of the present invention.
  • FIG. 14 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the fifth embodiment of the present invention.
  • FIG. 15 is a block diagram showing a schematic configuration of a capsule endoscope system according to a sixth embodiment of the present invention.
  • FIG. 16 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the sixth embodiment of the present invention.
  • FIG. 17 is a block diagram showing a schematic configuration of a capsule endoscope system according to a seventh embodiment of the present invention.
  • FIG. 18 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the seventh embodiment of the present invention.
  • FIG. 19 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the modification of the seventh embodiment of the present invention.
  • FIG. 1 is a schematic view showing a schematic configuration of a capsule endoscope system according to a first embodiment of the present invention.
  • the capsule endoscope system 1 according to the first embodiment generates image data by being introduced into a subject H and imaging the inside of the subject H and superimposing it on a wireless signal.
  • a plurality of receiving antennas 3a to 3h attached to the subject H the capsule endoscope 2 being an image acquisition device for transmitting data via radio waves, and the radio signal transmitted from the capsule endoscope 2 Image data generated by the capsule endoscope 2 and the reception device 4 received via the reception antenna unit 3 provided from the reception device 4 via the cradle 5a, and the image data is processed to be processed.
  • a processing device 5 for generating an image in the sample H. The image generated by the processing device 5 is displayed and output from the display device 6, for example.
  • the capsule endoscope 2 After being swallowed by the subject H, the capsule endoscope 2 moves in the digestive tract of the subject H by peristaltic movement of an organ or the like, and in advance the living body site (esophagus, stomach, small intestine, large intestine, etc.) Images are sequentially taken at a set reference cycle (for example, 0.5 second cycle). Then, the image data and the related information acquired by this imaging operation are sequentially wirelessly transmitted to the receiving device 4.
  • a set reference cycle for example, 0.5 second cycle
  • FIG. 2 is a block diagram showing a schematic configuration of the capsule endoscope system according to the first embodiment of the present invention.
  • the capsule endoscope 2 includes an imaging unit 21, an illumination unit 22, a control unit 23, a wireless communication unit 24, an antenna 25, a memory 26, and a power supply unit 27.
  • the capsule endoscope 2 is a device in which the above-described components are incorporated in a capsule-shaped casing of a size that allows the subject H to swallow.
  • the imaging unit 21 generates, for example, image data obtained by imaging the inside of the subject H from an optical image formed on a light receiving surface and outputs the image data, and an objective lens disposed on the light receiving surface side of the image pickup device And optical systems.
  • the imaging device is formed of a charge coupled device (CCD) imaging device or a complementary metal oxide semiconductor (CMOS) imaging device, and a plurality of pixels receiving light from the object H are arranged in a matrix, and the light is received by the pixels
  • Image data is generated by performing photoelectric conversion on the image data.
  • the imaging unit 21 reads out pixel values for each horizontal line with respect to a plurality of pixels arranged in a matrix, and generates image data including a plurality of line data to which a synchronization signal is added for each horizontal line. Do.
  • the illumination unit 22 is configured of a white LED or the like that generates white light that is illumination light.
  • white light may be generated by multiplexing light from a plurality of LEDs having different emission wavelength bands or laser light sources, etc.
  • a xenon lamp, a halogen lamp, or the like may be used. You may do so.
  • the control unit 23 controls operation processing of each component of the capsule endoscope 2. For example, when the imaging unit 21 performs imaging processing, the imaging unit 21 is controlled to execute exposure and readout processing on the imaging device, and illumination of the illumination unit 22 according to the exposure timing of the imaging unit 21 is performed. Control to emit light. Further, the control unit 23 determines the light emission time of the illumination unit 22 at the next imaging time from the pixel value (luminance value) of the image data captured by the imaging unit 21 and emits the illumination light with the determined light emission time. The illumination unit 22 is controlled to do this. As described above, the light emission time by the illumination unit 22 is controlled based on the image data captured by the control unit 23, and the light emission time may change each time imaging is performed.
  • the control unit 23 is configured using a general purpose processor such as a central processing unit (CPU) or a dedicated processor such as various arithmetic circuits that execute a specific function such as an application specific integrated circuit (ASIC).
  • CPU central processing unit
  • ASIC application specific integrated circuit
  • control unit 23 controls the frame rate of the imaging unit 21 based on the determination unit 231 that determines the availability of image data used to control the frame rate of the imaging unit 21 and the determination result of the determination unit 231. And an operation control unit 232.
  • FIG. 3 is a diagram for explaining selection processing of image data performed in the capsule endoscope system according to the first embodiment of the present invention.
  • the imaging unit 21 performs imaging processing at a preset frame rate, and sequentially displays image data (in FIG. 3, images F n , F m , and F m + 1 to F m + 4 corresponding to the respective image data are shown. Are generated (n and m are both natural numbers and n ⁇ m).
  • the determination unit 231 selects two images (image data) whose frame rate is to be controlled by determining whether the image is suitable for use in controlling the frame rate.
  • the determination unit 231 For example, after the image data corresponding to the n-th image F n among the plurality of image data is selected as the first image data, the determination unit 231, for example, follows the selected image data in time series. As image data, second image data is selected from the m, m + 1 to m + 4 th images F m and F m + 1 to F m + 4 . In the first embodiment, the determination unit 231 selects image data appropriate for controlling the frame rate, based on the light emission time of the illumination unit 22 when each image data is captured. Alternatively, after the first image data is selected, the second image data may be selected from the previous image data group in time series.
  • the operation control unit 232 calculates the degree of similarity between the two image data selected by the determination unit 231, and compares the degree of similarity with a threshold value stored in advance in the memory 26.
  • the operation control unit 232 sets the frame rate of the imaging unit 21 in accordance with the comparison result of the similarity and the threshold.
  • the frame rate set at this time is a value indicating an acquisition interval of image data by the imaging unit 21.
  • the imaging unit 21 executes an imaging process based on the frame rate set by the operation control unit 232.
  • the wireless communication unit 24 processes the image data output from the imaging unit 21.
  • the wireless communication unit 24 performs A / D conversion and predetermined signal processing on the image data output from the imaging unit 21 to obtain digital format image data, and superimposes it on a wireless signal together with related information to obtain an antenna.
  • the related information includes identification information (for example, a serial number) assigned to identify the individual of the capsule endoscope 2 and the like.
  • the memory 26 stores an execution program and a control program for the control unit 23 to execute various operations, and parameters such as a threshold. In addition, the memory 26 may temporarily store image data and the like subjected to signal processing in the wireless communication unit 24.
  • the memory 26 is configured by a random access memory (RAM), a read only memory (ROM), and the like.
  • the power supply unit 27 includes a battery formed of a button battery or the like, a power supply circuit that boosts power from the battery, and a power switch that switches the on / off state of the power supply unit 27. Electric power is supplied to each part in the mold endoscope 2.
  • the power switch is, for example, a reed switch whose on / off state is switched by an external magnetic force, and is external to the capsule endoscope 2 before using the capsule endoscope 2 (before the subject H swallows). Can be switched on by applying a magnetic force.
  • the receiving device 4 includes a receiving unit 401, a reception strength measuring unit 402, an operation unit 403, a data transmitting / receiving unit 404, an output unit 405, a storage unit 406, a control unit 407, and a power supply unit 408 for supplying power to these units.
  • the receiving unit 401 receives image data and related information wirelessly transmitted from the capsule endoscope 2 via the receiving antenna unit 3 having a plurality of (eight in FIG. 1) receiving antennas 3a to 3h.
  • the receiving antennas 3a to 3h are realized using, for example, a loop antenna or a dipole antenna, and are disposed at predetermined positions on the external surface of the subject H.
  • the receiving unit 401 has a receiving strength measuring unit 402 that measures the receiving strength (RSSI: Received Signal Strength Indicator) of the wireless signals received by the receiving antennas 3a to 3h.
  • RSSI Received Signal Strength Indicator
  • the receiving unit 401 selects an antenna having the highest reception strength among the receiving antennas 3a to 3h based on the reception strength measured by the reception strength measurement unit 402, and receives the radio signal received by the selected antenna. Further, the receiving unit 401 is configured by, for example, a processor such as a CPU or an ASIC, and performs predetermined signal processing such as A / D conversion on the received image data.
  • a processor such as a CPU or an ASIC
  • the reception strength measurement unit 402 measures the reception strength when the reception unit 401 receives a wireless signal for each of the reception antennas 3a to 3h. At this time, all measured reception strengths and the image data received by the receiving unit 401 may be associated with each other and stored in the storage unit 406.
  • the operation unit 403 is an input device used when the user inputs various setting information and instruction information to the reception device 4.
  • the operation unit 403 is, for example, a switch, a button, or the like provided on the operation panel of the reception device 4.
  • the data transmission / reception unit 404 transmits the image data and the related information stored in the storage unit 406 to the processing device 5 when connected in a communicable state with the processing device 5.
  • the data transmission / reception unit 404 is configured by a communication interface such as a LAN.
  • the output unit 405 displays an image, outputs sound or light, and generates vibration.
  • the output unit 405 displays a notification image according to the interference level or emits sound, light, or vibration.
  • the output unit 405 is configured by at least one of a display such as a liquid crystal display or an organic EL display, a speaker, a light source, and a vibration generator such as a vibration motor.
  • the storage unit 406 stores a program for operating the receiving device 4 to execute various functions, image data acquired by the capsule endoscope 2, and the like.
  • the storage unit 406 is configured by a RAM, a ROM, and the like.
  • the control unit 407 controls each component of the receiving device 4.
  • the control unit 407 is configured using a general purpose processor such as a CPU or a dedicated processor such as various arithmetic circuits that execute a specific function such as an ASIC.
  • Such an imaging device 4 is ejected while passing through the digestive tract, for example, after the capsule endoscope 2 is swallowed by the subject H while imaging is performed by the capsule endoscope 2 Until then, the subject H is worn and carried. During this time, the reception device 4 stores the image data received via the reception antenna unit 3 in the storage unit 406.
  • the receiving device 4 is removed from the subject H and set in a cradle 5 a (see FIG. 1) connected to the processing device 5. Accordingly, the receiving device 4 is connected in a communicable state with the processing device 5, and transfers (downloads) the image data and the related information stored in the storage unit 406 to the processing device 5.
  • the processing device 5 is configured using, for example, a workstation provided with a display device 6 such as a liquid crystal display.
  • the processing device 5 includes a data transmission / reception unit 51, an image processing unit 52, a control unit 53 that integrally controls the respective units, a display control unit 54, an input unit 55, and a storage unit 56.
  • the data transmission / reception unit 51 is an interface connectable to a communication line such as a USB or a wired LAN or a wireless LAN, and includes a USB port and a LAN port.
  • the data transmission / reception unit 51 is connected to the reception device 4 via the cradle 5 a connected to the USB port, and transmits / receives data to / from the reception device 4.
  • the image processing unit 52 creates an in-vivo image corresponding to the image data input from the data transmitting / receiving unit 51 and the image data stored in the storage unit 56 by reading a predetermined program stored in the storage unit 56 described later. Perform predetermined image processing to The image processing unit 52 is realized by a processor such as a CPU or an ASIC.
  • the control unit 53 configures the processing device 5 based on the signal input through the input unit 55 and the image data input from the data transmission / reception unit 51 by reading various programs stored in the storage unit 56. It instructs and transfers data to each unit to control the entire operation of the processing device 5 in a centralized manner.
  • the control unit 53 is realized by a general purpose processor such as a CPU or a dedicated processor such as various arithmetic circuits which execute a specific function such as an ASIC.
  • the display control unit 54 performs predetermined processing such as thinning of data according to the display range of the image on the display device 6 or gradation processing on the image generated by the image processing unit 52, and then the display device 6 is displayed. Display and output.
  • the display control unit 54 is configured by, for example, a processor such as a CPU or an ASIC.
  • the input unit 55 receives an input of information or an instruction according to the user's operation.
  • the input unit 55 is realized by an input device such as a keyboard, a mouse, a touch panel, and various switches.
  • the storage unit 56 is a program for operating the processing device 5 to execute various functions, various information used during execution of the program, and image data and related information acquired via the receiving device 4
  • the in-vivo image etc. which were produced by the image processing part 52 are memorize
  • the storage unit 56 is realized by a semiconductor memory such as a flash memory, a RAM, and a ROM, a recording medium such as an HDD, an MO, a CD-R, and a DVD-R, and a drive device for driving the recording medium.
  • FIG. 4 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the first embodiment of the present invention. The following description will be given assuming that each unit operates under the control of the control unit 23.
  • step S102 the determination unit 231 determines whether the light emission time of the illumination light at the time of acquiring the n-th image data acquired in step S101 is equal to or less than a threshold.
  • the determination unit 231 determines that the light emission time is larger than the threshold (step S102: No)
  • the control unit 23 proceeds to step S103.
  • step S103 the control unit 23 increments the counter n by 1, and returns to step S101. This means that the image data to be determined is transferred to the image data of the new frame at the acquisition time.
  • step S102 when the determination unit 231 determines that the light emission time is equal to or less than the threshold (step S102: Yes), the process proceeds to step S104.
  • step S104 the determination unit 231 sets the n-th image data as one image data (hereinafter, referred to as first image data) of the two image data to be selected.
  • step S105 the control unit 23 acquires the m (> n) -th image data.
  • step S106 the determination unit 231 determines whether the light emission time of the illumination light at the time of acquiring the m-th image data acquired in step S105 is equal to or less than a threshold value.
  • the setting of the other image data (hereinafter referred to as second image data) of the one image data is performed.
  • step S106: No the control unit 23 proceeds to step S107.
  • step S107 the determination unit 231 determines whether the number of determinations for setting the second image data is equal to or less than a threshold that is the number of times set in advance.
  • a threshold that is the number of times set in advance.
  • the process returns to step S101, and starts again from the setting of the first image data.
  • the control unit 23 proceeds to step S108.
  • step S108 the control unit 23 increments the counter m by 1 and returns to step S105. This means that the acquisition time of image data to be determined is transferred to image data of a new frame.
  • step S106 when the determination unit 231 determines that the light emission time is equal to or less than the threshold (step S106: Yes), the process proceeds to step S109.
  • step S109 the determination unit 231 sets the m-th image data as the second image data.
  • step S110 the operation control unit 232 calculates the similarity between the images of the first image data and the second image data.
  • the similarity calculated by the operation control unit 232 is a sum of squared difference (SSD), a sum of absolute difference (SAD), a normalized cross-correlation (NCC), or a zero-mean normalized cross-correlation (ZNCC). It is calculated using a known method such as Alternatively, the difference between pixel values (brightness values) of corresponding pixels between images may be calculated, and this difference may be used as the similarity.
  • SSD sum of squared difference
  • SAD sum of absolute difference
  • NCC normalized cross-correlation
  • ZNCC zero-mean normalized cross-correlation
  • step S111 the operation control unit 232 determines whether the calculated similarity is equal to or less than a threshold. At this time, when the operation control unit 232 determines that the similarity is equal to or less than the threshold (step S111: Yes), the operation control unit 232 proceeds to step S112. If the similarity is equal to or less than the threshold, it can be determined that the movement of the subject between the images is small and a similar subject image is captured.
  • step S112 the operation control unit 232 sets the frame rate to a reference value.
  • the reference value referred to here is a value which the imaging unit 21 picks up at the reference period (for example, 0.5 second period) as described above.
  • the operation control unit 232 controls the imaging unit 21 to execute an imaging process at intervals according to the reference value.
  • step S111 determines in step S111 that the similarity is greater than the threshold (step S111: No)
  • step S113 the operation control unit 232 proceeds to step S113. If the similarity is larger than the threshold, it can be determined that the movement of the subject between the images is large and different subject images are captured.
  • step S113 the operation control unit 232 sets the frame rate to a high speed value.
  • the high-speed value referred to here is a value captured by the imaging unit 21 at a cycle (for example, a cycle of 0.25 seconds) shorter than the cycle (for example, a cycle of 0.5 seconds) as described above.
  • the operation control unit 232 controls the imaging unit 21 to execute an imaging process at intervals according to the high speed value.
  • step S114 After setting the frame rate by the operation control unit 232, the control unit 23 determines whether new image data is generated (step S114). If the control unit 23 determines that new image data is generated (step S114: Yes), it returns to step S101, and repeats the above-described processing with the latest image data as the n-th image data at that time. On the other hand, if there is no generation of new image data (step S114: No), the control unit 23 ends the image data acquisition process.
  • the operation control is performed using an image suitable as a control target, so the operation of the capsule endoscope is appropriately controlled. be able to.
  • the selection of the first image data and the second image data is performed based on the light emission time, but the light emission used for controlling the light emission amount of the capsule endoscope together with the light emission time Image data may be selected based on the intensity.
  • the light emission intensity is constant, and when the selection is performed based on the light emission intensity, the light emission time is constant.
  • one of the light emission time and the light emission intensity used to control the light emission amount is used to select image data.
  • the reference value in the control of the frame rate, when the similarity is larger than the threshold, the reference value is changed to the high speed value, but the high speed value is used as the reference value. If the similarity is equal to or less than the threshold value, it may be set to a low speed value indicating a cycle longer than the reference cycle.
  • the threshold is set on the premise that the similarity is SSD, but when another value (for example, NCC) is calculated as the similarity, the magnitude of the value and the similarity are used. It goes without saying that the value of the threshold and the magnitude relationship used for the determination change depending on the relationship.
  • FIG. 5 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the first modification of the first embodiment of the present invention.
  • the capsule endoscope system according to the first modification is the same as the capsule endoscope system 1 described above.
  • processing different from that of the above-described first embodiment will be described with reference to FIG.
  • determination processing is performed to select the second image data in order from the image data separated from the first image data in time series.
  • image data of a preset number of frames including the latest frame among image data generated by the imaging unit 21 is stored in the memory 26.
  • control unit 23 sets the n-th image data as the first image data (steps S201 to S204).
  • step S205 the control unit 23 acquires the p (> n) -th image data.
  • the counter p is a value obtained by adding the maximum value (threshold) of the number of determinations to the counter n.
  • step S206 the determination unit 231 determines whether the light emission time of the illumination light at the time of acquiring the p-th image data acquired in step S205 is equal to or less than a threshold value. 2 Set up the image data.
  • the determination unit 231 determines that the light emission time is larger than the threshold (step S206: No)
  • the control unit 23 proceeds to step S207.
  • step S207 the determination unit 231 determines whether the number of determinations for setting the second image data is equal to or less than a threshold that is the number of times set in advance.
  • a threshold that is the number of times set in advance.
  • step S208 the control unit 23 decrements the counter p by 1, and returns to step S205. This means that the image data to be determined is transferred to the image data of the old frame for the acquisition time.
  • step S206: Yes the process proceeds to step S209.
  • step S209 the determination unit 231 sets the m-th image data as the second image data.
  • step S210 to S213 following step S209 the operation control unit 232 calculates the degree of similarity and sets the frame rate in the same manner as in steps S110 to S113 shown in FIG.
  • step S214 After setting the frame rate by the operation control unit 232, the control unit 23 determines whether new image data is generated (step S214). If the control unit 23 determines that new image data is generated (step S214: Yes), the process returns to step S201, and the above-described processing is repeated with the latest image data as the n-th image data at that time. On the other hand, if there is no new image data generation (step S214: No), the control unit 23 ends the image data acquisition process.
  • the first modification described above it is possible to obtain the same effect as that of the first embodiment described above, and further determine whether the second image data is suitable for control of the frame rate in order from the newest one. Since the determination is made, the calculation of the image similarity can also be performed by controlling the frame rate by comparison with image data closer to the latest image data.
  • the image with the smallest blur of the subject is extracted from the image data stored in the memory 26, and the operation control unit 232 controls the frame rate using the extracted image. May be performed.
  • the shake amount of the subject in each image can be calculated using a known method.
  • FIG. 6 is a view showing a configuration of a capsule endoscope provided in a capsule endoscope system according to a second modification of the first embodiment of the present invention.
  • the capsule endoscope system according to the second modification is different from the above-described capsule endoscope system 1 in that a capsule endoscope 2A is provided instead of the capsule endoscope 2.
  • the other configuration is the same as that of the capsule endoscope system 1.
  • the capsule endoscope 2A includes a first imaging unit 21A, a second imaging unit 21B, a first illumination unit 22A, a second illumination unit 22B, a control unit 23, a wireless communication unit 24, an antenna 25, A memory 26 and a power supply unit 27 are provided. That is, the capsule endoscope 2 includes a first imaging unit 21A, a second imaging unit 21B, a first illumination unit 22A, and a second illumination unit 22B instead of the imaging unit 21 and the illumination unit 22. It is different.
  • the first imaging unit 21A, the second imaging unit 21B, the first illumination unit 22A, and the second illumination unit 22B which have configurations different from the capsule endoscope 2, will be described.
  • the first imaging unit 21A and the second imaging unit 21B for example, generate an image data representing the inside of the subject H from the optical image formed on the light receiving surface, and output the image data;
  • an optical system such as an objective lens disposed in each of The imaging device is formed of a CCD imaging device or a CMOS imaging device, and a plurality of pixels receiving light from the subject H are arranged in a matrix, and photoelectric conversion is performed on the light received by the pixels to obtain an image. Generate data.
  • the first imaging unit 21A and the second imaging unit 21B capture images in imaging directions different from each other.
  • the capsule endoscope 2A is a twin-lens type capsule medical device for imaging the front and back of the capsule endoscope 2A in the long axis direction, and in the second modification, the first imaging unit 21A and the second imaging unit 21A are used.
  • the optical axis of the imaging unit 21B is substantially parallel or substantially coincident with the central axis of the capsule endoscope 2A in the longitudinal direction.
  • the imaging directions of the first imaging unit 21A and the second imaging unit 21B are opposite to each other.
  • FIG. 7 is a diagram for explaining selection processing of image data performed in the capsule endoscope system according to the second modification of the first embodiment of the present invention.
  • the first imaging unit 21A and the second imaging unit 21B alternately perform imaging processing under the control of the control unit 23.
  • the images F q and F q + 1 to F q + 5 corresponding to the image data generated by the first imaging unit 21A, and the image data generated by the second imaging unit 21B
  • the images F r and F r + 1 to F r + 5 corresponding to are alternately generated one by one.
  • the first lighting unit 22A and the second lighting unit 22B are respectively configured by a white LED or the like that generates white light that is illumination light.
  • the first lighting unit 22A and the second lighting unit 22B emit illumination light for the set light emission time (emission intensity) under the control of the control unit 23.
  • the control unit 23 controls the frame rate of the imaging unit (the first imaging unit 21A and the second imaging unit 21B), the control unit 23 controls the pair of image data obtained by the first imaging unit 21A and the second imaging unit 21B.
  • Image data to be set as a frame rate is selected by alternately referring to the obtained set of image data.
  • the determination unit 231 determines the light emission time at the time of obtaining each image data and The threshold value is compared with the threshold value to determine whether it is appropriate as image data to be controlled.
  • the determination unit 231 sets the image data corresponding to the images F q and F q + 1 as the first image data and the second image data, and outputs the image data to the operation control unit 232 Do.
  • the determination unit 231 determines that the images F q and F q + 1 are not appropriate as a control target, a set of image data obtained by the second imaging unit 21B (for example, the image F illustrated in FIG. 7) With regard to r 1 and F r + 1 ), the light emission time at the time of acquiring each image data is compared with a threshold to determine whether or not it is appropriate as a control target image.
  • the determination unit 231 determines the images F q and F q + 1 , the images F r and F r + 1 , the images F q + 1 and F q until the first image data and the second image data are set. The determination is repeated in the order of +2 , image F r + 1 , F r +2 ,... To select image data (first image data and second image data) used for control.
  • the operation control unit 232 uses the first image data and the second image data selected by the determination unit 231 to calculate the degree of similarity and to compare the degree of similarity with the threshold to obtain the frame rate. Make settings.
  • the operation control unit 232 may control only the imaging unit that has generated the image data used for the determination, or control the frame rates of both the first imaging unit 21A and the second imaging unit 21B. It is also good.
  • one of the imaging units (for example, the first imaging unit 21A) is set as an imaging unit to be determined by the determination unit 231, and the image data generated by the first imaging unit 21A is described above. The same process as in the first embodiment may be performed.
  • FIG. 8 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the third modification of the first embodiment of the present invention.
  • the capsule endoscope system according to the third modification is the same as the capsule endoscope system 1 described above.
  • processing different from that of the above-described first embodiment will be described with reference to FIG.
  • each pixel of the imaging device is provided with a color filter of any of red (R), green (G) and blue (B), and each pixel is a color filter. Receive the transmitted light.
  • a pixel provided with a red color filter and outputting a pixel value corresponding to red light is referred to as an R pixel.
  • a green color filter is provided, G pixels for outputting pixel values corresponding to green light, and a blue color filter are provided, pixels for outputting pixel values corresponding to blue light are It is called a pixel.
  • the control unit 23 causes the imaging unit 21 to start the imaging process and acquires the n-th image data (step S301).
  • step S302 the determination unit 231 calculates a representative value of the pixel value of the R pixel from the n-th image data acquired in step S301, and whether the representative value of the R pixel is equal to or greater than a threshold value.
  • the representative value of the R pixel is, for example, an average value or a sum of pixel values of the R pixel.
  • step S302 the control unit 23 proceeds to step S303.
  • An image in which the representative value of the R pixel is smaller than the threshold value can be determined to be an image with a large amount of residue and bubbles.
  • step S303 the control unit 23 increments the counter n by 1, and returns to step S301.
  • step S302 determines in step S302 that the representative value of the R pixel is equal to or greater than the threshold (step S302: Yes). the process proceeds to step S304.
  • step S304 the determination unit 231 sets the n-th image data as first image data.
  • step S305 following step S304 the control unit 23 acquires the m (> n) -th image data.
  • step S306 the determination unit 231 determines whether the representative value of the R pixel in the m-th image data acquired in step S305 is equal to or greater than a threshold.
  • the control unit 23 proceeds to step S307.
  • step S307 the determination unit 231 determines whether the number of determinations for setting the second image data is equal to or less than a threshold that is the number of times set in advance.
  • a threshold that is the number of times set in advance.
  • the process returns to step S301, and starts again from the setting of the first image data.
  • the control unit 23 proceeds to step S308.
  • step S308 the control unit 23 increments the counter m by 1 and returns to step S305.
  • step S306 when the determination unit 231 determines that the representative value of the R pixel is equal to or greater than the threshold (step S306: Yes), the process proceeds to step S309.
  • step S309 the determination unit 231 sets the m-th image data as the second image data.
  • step S309 the operation control unit 232 calculates the degree of similarity and sets the frame rate in the same manner as in steps S110 to S113 shown in FIG.
  • the control unit 23 determines whether new image data is generated (step S314). If the control unit 23 determines that new image data is generated (Step S314: Yes), it returns to Step S301, and repeats the above-described processing with the latest image data as the n-th image data at that time. On the other hand, if there is no new image data generation (step S314: No), the control unit 23 ends the image data acquisition process.
  • an effect similar to that of the first embodiment described above can be obtained, and furthermore, it is determined whether an image is suitable for control of a frame rate using R pixels. Therefore, image data with many residues and bubbles can be excluded from control targets. The same effect can be obtained when B pixels are used in addition to R pixels.
  • FIG. 9 is a flowchart showing image data acquisition processing performed by the capsule endoscope system according to the fourth modification of the first embodiment of the present invention.
  • the capsule endoscope system according to the fourth modification is the same as the capsule endoscope system 1 described above, and a color filter is provided in each pixel of the imaging device as in the third modification.
  • processing different from that of the above-described first embodiment will be described with reference to FIG.
  • the control unit 23 causes the imaging unit 21 to start imaging processing, and acquires n-th image data (step S401).
  • step S402 the determination unit 231 calculates the representative value of the pixel value of the G pixel from the n-th image data acquired in step S401, and the representative value of the G pixel is equal to or less than the threshold value.
  • the representative value of the G pixel is, for example, an average value or a sum of pixel values of the G pixel.
  • step S402 the control unit 23 proceeds to step S403.
  • step S403 the control unit 23 increments the counter n by 1, and returns to step S401.
  • step S402 when the determination unit 231 determines that the representative value of the G pixel is equal to or less than the threshold (step S402: Yes), the process proceeds to step S404.
  • step S404 the determination unit 231 sets the n-th image data as first image data.
  • step S405 subsequent to step S404, the control unit 23 acquires the m (> n) -th image data.
  • step S406 the determination unit 231 determines whether the representative value of the G pixel in the m-th image data acquired in step S405 is equal to or less than a threshold.
  • step S406 the control unit 23 proceeds to step S407.
  • step S407 the determination unit 231 determines whether the number of determinations for setting the second image data is equal to or less than a threshold that is the number of times set in advance.
  • a threshold that is the number of times set in advance.
  • the process returns to step S401, and starts again from the setting of the first image data.
  • the control unit 23 proceeds to step S408.
  • step S408 the control unit 23 increments the counter m by 1, and returns to step S405.
  • step S406 determines in step S406 that the representative value of the G pixel is equal to or less than the threshold (step S406: Yes)
  • the process proceeds to step S409.
  • step S409 the determination unit 231 sets the m-th image data as the second image data.
  • step S410 to S413 following step S409 the operation control unit 232 calculates the degree of similarity and sets the frame rate in the same manner as in steps S110 to S113 shown in FIG.
  • step S4114 After setting the frame rate by the operation control unit 232, the control unit 23 determines whether new image data is generated (step S414). If the control unit 23 determines that new image data is generated (step S414: Yes), the process returns to step S401, and the above-described process is repeated using the latest image data as the n-th image data at that time. On the other hand, when there is no generation of new image data (step S414: No), the control unit 23 ends the image data acquisition process.
  • an effect similar to that of the first embodiment described above can be obtained, and furthermore, it is determined whether an image is suitable for determination using G pixels.
  • the brightness of the image can be selected, and the image in which overexposure has occurred can be excluded from the control target.
  • the average value of pixel values is used as a representative value of R pixels or G pixels.
  • R pixels or G pixels having pixel values equal to or greater than a preset value The number of pixels of may be used as a representative value.
  • FIG. 10 is a block diagram showing a schematic configuration of a capsule endoscope system according to a second embodiment of the present invention.
  • the capsule endoscope system 1A according to the second embodiment is different from the above-described capsule endoscope system 1 in that a capsule endoscope 2B is provided in place of the capsule endoscope 2.
  • the other configuration is the same as that of the capsule endoscope system 1.
  • configurations and processes different from those of the above-described first embodiment will be described with reference to FIGS.
  • the capsule endoscope 2B includes an imaging unit 21, an illumination unit 22, a control unit 23, a wireless communication unit 24, an antenna 25, a memory 26, a power supply unit 27, and an image processing unit 28. That is, the capsule endoscope 2 is different in that the image processor 28 is further provided. Hereinafter, only the image processing unit 28 having a configuration different from that of the capsule endoscope 2 will be described.
  • the image processing unit 28 performs predetermined image processing for creating an image corresponding to the image data generated by the imaging unit 21 by reading a predetermined program stored in the memory 26. Further, the image processing unit 28 extracts a feature point in the image data using the pixel value (brightness value) of the image data after the image processing, and calculates a value representative of the feature point.
  • the feature points are, for example, a set area of pixels having a maximum value or a minimum value, a set area of pixels having a brightness value having a large difference from the surrounding brightness values, or the like. For example, an average value or a mode value of luminance values included in the feature points is a value representative of the feature points.
  • the value representative of the feature point may be a value indicating the area of the feature point, such as the number of pixels.
  • the image processing unit 28 is realized by a processor such as a CPU or an ASIC.
  • the feature points may be extracted based on brightness and hue as well as brightness.
  • FIG. 11 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the second embodiment of the present invention. The following description will be given assuming that each unit operates under the control of the control unit 23.
  • the control unit 23 causes the imaging unit 21 to start imaging processing, and acquires n-th image data (step S501).
  • step S502 subsequent to step S501, the determination unit 231 extracts feature points from the n-th image data acquired in step S501 and calculates feature point values, and the value of the feature points is equal to or greater than the threshold value. Determine if it is or not.
  • the determination unit 231 determines that the value of the feature point is smaller than the threshold (step S502: No)
  • the control unit 23 proceeds to step S503.
  • step S503 the control unit 23 increments the counter n by 1, and returns to step S501.
  • step S502 when the determination unit 231 determines that the value of the feature point is equal to or greater than the threshold (step S502: Yes), the process proceeds to step S504.
  • step S504 the determination unit 231 sets the n-th image data as first image data.
  • step S505 the control unit 23 acquires the m (> n) -th image data.
  • step S506 the determination unit 231 determines whether the value of the feature point in the m-th image data acquired in step S505 matches the value of the feature point of the first image data. .
  • the determination unit 231 determines that the value of the feature point matches the value of the feature point of the first image data (step S506: No)
  • the control unit 23 proceeds to step S507. If the value of the feature point of the m-th image data matches the value of the feature point of the first image data, the capsule of the m-th image data is simply the light of the imaging unit 21 with respect to the first image data. It can be determined that the image is just rotated around the axis.
  • “coincidence” may include a range of ⁇ several% from the value of the feature point of the first image data.
  • step S507 the determination unit 231 determines whether the number of determinations for setting the second image data is equal to or less than a threshold that is the number of times set in advance.
  • a threshold that is the number of times set in advance.
  • the process returns to step S501, and starts again from the setting of the first image data.
  • the control unit 23 proceeds to step S508.
  • step S508 the control unit 23 increments the counter m by 1, and returns to step S505.
  • step S506 determines that the value of the feature point is different from the value of the feature point of the first image data in step S506 (step S506: Yes). the process proceeds to step S509.
  • step S509 the determination unit 231 sets the m-th image data as the second image data.
  • the operation control unit 232 calculates the degree of similarity and sets the frame rate in the same manner as in steps S110 to S113 shown in FIG.
  • the degree of similarity may be calculated using the luminance value of the entire image data or the like, or may be calculated using only the luminance value of the feature point.
  • the control unit 23 determines whether new image data is generated (step S514). If the control unit 23 determines that new image data is generated (Step S514: Yes), it returns to Step S501, and repeats the above-described processing with the latest image data as the n-th image data at that time. On the other hand, if there is no generation of new image data (step S514: No), the control unit 23 ends the image data acquisition process.
  • the same effect as that of the first embodiment described above can be obtained, and further, using the feature points, it is determined whether or not the image is suitable for control of the frame rate. As a result, it is possible to exclude from the control object an image in which the capsule is simply rotated around the optical axis of the imaging unit 21.
  • FIG. 12 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the third embodiment of the present invention.
  • the capsule endoscope system according to the third embodiment is the same as the capsule endoscope system 1 described above.
  • processing different from that of the above-described first embodiment will be described with reference to FIG.
  • transmission processing of a wireless signal is controlled based on image data, not the frame rate.
  • control unit 23 sets the n-th image data as the first image data (steps S601 to S604).
  • the m-th image data is set as second image data (steps S605 to S609).
  • step S610 the operation control unit 232 calculates the degree of similarity in the same manner as step S110 shown in FIG.
  • step S611 the operation control unit 232 determines whether the calculated similarity is equal to or less than a threshold. At this time, when the operation control unit 232 determines that the similarity is equal to or less than the threshold (step S611: Yes), the operation control unit 232 proceeds to step S612.
  • step S612 the operation control unit 232 sets the transmission mode of the wireless signal to the intermittent transmission mode.
  • the operation control unit 232 performs control to thin out the image data generated by the imaging unit 21 and perform wireless transmission.
  • transmission processing is performed in which the number of image data to be transmitted is suppressed.
  • step S611 determines that the degree of similarity is greater than the threshold in step S611 (step S611: No).
  • step S613 the operation control unit 232 sets the transmission mode of the wireless signal to the normal transmission mode.
  • the operation control unit 232 performs control to sequentially wirelessly transmit the image data generated by the imaging unit 21 without thinning. As a result, the generated image data is sequentially transmitted for image data having low similarity and having different subject images.
  • the control unit 23 determines whether new image data is generated (step S614). If the control unit 23 determines that new image data is generated (Step S614: Yes), it returns to Step S601, and repeats the above-described processing with the latest image data as the n-th image data at that time. On the other hand, if there is no generation of new image data (step S614: No), the control unit 23 ends the image data acquisition process.
  • the operation control is performed using an appropriate image as a control target, so the operation of the capsule endoscope is appropriately controlled. can do. Further, according to the third embodiment, consumption of the power supply unit 27 can be suppressed by performing wireless transmission by thinning out.
  • FIG. 13 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the fourth embodiment of the present invention.
  • the capsule endoscope system according to the fourth embodiment is the same as the capsule endoscope system 1 described above.
  • processing different from that of the above-described first embodiment will be described with reference to FIG.
  • not the frame rate but the power supply in the capsule endoscope 2 is controlled based on the image data.
  • control unit 23 sets the n-th image data as the first image data as in steps S101 to S104 shown in FIG. 4 (steps S701 to S704).
  • the m-th image data is set as second image data (steps S705 to S709).
  • step S710 subsequent to step S709, the operation control unit 232 calculates the degree of similarity in the same manner as step S110 illustrated in FIG.
  • step S711 the operation control unit 232 determines whether the calculated degree of similarity is equal to or less than a threshold. At this time, when the operation control unit 232 determines that the similarity is equal to or less than the threshold (step S711: Yes), the operation control unit 232 proceeds to step S712.
  • step S712 the operation control unit 232 sets the power supply mode in the capsule endoscope 2 to the intermittent supply mode.
  • the operation control unit 232 sets the power supply mode to the intermittent supply mode
  • the power supply is intermittently stopped at preset intervals, and generation of image data by the imaging unit 21 and wireless communication by the wireless communication unit 24 are performed. It performs control to stop intermittently.
  • the intermittent supply mode power supply of at least one of the imaging unit 21 and the illumination unit 22 and the wireless communication unit 24 is controlled. Thereby, the number of image data to be generated and transmitted is suppressed for an image having high similarity and having a similar subject image.
  • step S711 determines that the similarity is larger than the threshold in step S711 (step S711: No)
  • the operation control unit 232 proceeds to step S713.
  • step S713 the operation control unit 232 sets the power supply mode to the normal supply mode.
  • the operation control unit 232 performs control to continuously execute generation of image data by the imaging unit 21 and wireless communication by the wireless communication unit 24 without stopping. As a result, for an image having a low similarity and an image of a different subject, image data corresponding to that image is sequentially transmitted.
  • step S714 After setting the power supply mode by the operation control unit 232, the control unit 23 determines whether new image data is generated (step S714). If the control unit 23 determines that new image data is generated (step S714: Yes), the process returns to step S701, and the above-described process is repeated using the latest image data as the n-th image data at that time. On the other hand, when there is no generation of new image data (step S714: No), the control unit 23 ends the image data acquisition process.
  • the operation control is performed using image data that is appropriate as a control target, so the operation of the capsule endoscope is appropriately performed. Can be controlled. Further, according to the fourth embodiment, the consumption of the power supply unit 27 can be suppressed by intermittently supplying power.
  • FIG. 14 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the fifth embodiment of the present invention.
  • the capsule endoscope system according to the fifth embodiment is the same as the capsule endoscope system 1 described above.
  • processing different from the above-described first embodiment will be described with reference to FIG.
  • not the setting of the frame rate but the control of whether to temporarily stop the imaging process itself is performed based on the image data.
  • control unit 23 sets the n-th image data as the first image data (steps S801 to S804).
  • the m-th image data is set as second image data (steps S805 to S809).
  • step S810 following step S809 the operation control unit 232 calculates the degree of similarity in the same manner as step S110 shown in FIG.
  • step S811 the operation control unit 232 determines whether the calculated similarity is equal to or less than a threshold. At this time, when the operation control unit 232 determines that the similarity is equal to or less than the threshold (step S811: Yes), the operation control unit 232 proceeds to step S812.
  • step S812 the operation control unit 232 sets the imaging mode by the imaging unit 21 to the intermittent imaging mode.
  • the operation control unit 232 stops the imaging processing for the number of frames set in advance, and intermittently generates the image data by the imaging unit 21 and the wireless communication by the wireless communication unit 24 Control to stop it. Thereby, the number of image data to be generated and transmitted is suppressed for an image having high similarity and having a similar subject image.
  • step S811 determines that the similarity is larger than the threshold in step S811 (step S811: No)
  • the operation control unit 232 proceeds to step S813.
  • step S813 the operation control unit 232 sets the imaging mode to the normal imaging mode.
  • the operation control unit 232 performs control to continuously execute generation of image data by the imaging unit 21 and wireless communication by the wireless communication unit 24 without stopping. As a result, for an image having a low similarity and an image of a different subject, image data corresponding to that image is sequentially transmitted.
  • the control unit 23 determines whether new image data is generated (step S814). If the control unit 23 determines that new image data is generated (Step S814: Yes), the process returns to Step S801, and the above-described processing is repeated using the latest image data as the n-th image data at that point. On the other hand, if there is no new image data generation (step S814: No), the control unit 23 ends the image data acquisition process.
  • the operation control is performed using image data that is appropriate as a control target, so the operation of the capsule endoscope is appropriately performed. Can be controlled. Further, according to the fifth embodiment, the consumption of the power supply unit 27 can be suppressed by performing the intermittent imaging process.
  • emission control of the illumination light by the illumination unit 22 may be performed.
  • the intensity of illumination light by the illumination unit 22 is reduced, or the number of times of light emission per unit time is controlled.
  • FIG. 15 is a block diagram showing a schematic configuration of a capsule endoscope system according to a sixth embodiment of the present invention.
  • a capsule endoscope system 1B according to the sixth embodiment is different from the above-described capsule endoscope system 1 in that a capsule endoscope 2C is provided instead of the capsule endoscope 2.
  • the other configuration is the same as that of the capsule endoscope system 1.
  • configurations and processes different from those of the above-described first embodiment will be described with reference to FIGS.
  • the capsule endoscope 2C includes an imaging unit 21, an illumination unit 22, a control unit 23, a wireless communication unit 24, an antenna 25, a memory 26, a power supply unit 27, and a sensor 29. That is, the capsule endoscope 2 is different in that the sensor 29 is further provided. Hereinafter, only the sensor 29 having a configuration different from that of the capsule endoscope 2 will be described.
  • the sensor 29 is a pressure sensor that detects the pressure applied to the capsule endoscope 2C.
  • the sensor 29 outputs, as a detected value, a value corresponding to the amount of deformation of the diaphragm deformed in accordance with the load from the outside.
  • the sensor 29 detects, for example, a change in capacitance that changes according to the deformation of the diaphragm, converts the change into a detection value, and outputs the detection value.
  • the sensor 29 may be an acceleration sensor, a geomagnetic sensor, a pH sensor, or the like in addition to the pressure sensor.
  • FIG. 16 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the sixth embodiment of the present invention. The following description will be given assuming that each unit operates under the control of the control unit 23.
  • the control unit 23 causes the imaging unit 21 to start imaging processing, and acquires the n-th image data (step S901).
  • the detection value of the sensor 29 detected at the time of imaging is assigned to each image data.
  • step S902 which follows step S901, the determination unit 231 extracts the detection value of the sensor 29 from the n-th image data acquired in step S901, and determines whether the detection value is equal to or greater than a threshold.
  • the determination unit 231 determines that the detection value is smaller than the threshold (step S902: No)
  • the control unit 23 proceeds to step S903. If the detection value is smaller than the threshold value, it can be determined that the space in which the capsule endoscope 2C is present is wide.
  • the region where the space is wide in the subject H is, for example, the stomach.
  • step S903 the control unit 23 increments the counter n by 1, and returns to step S901.
  • step S902 when the determination unit 231 determines that the detection value is equal to or more than the threshold (step S902: Yes), the process proceeds to step S904. If the detection value is equal to or greater than the threshold value, it can be determined that the space in which the capsule endoscope 2C is present is narrow.
  • the region where the space in the subject H is narrow is, for example, the small intestine.
  • step S904 the determination unit 231 sets the n-th image data as first image data.
  • step S905 subsequent to step S904, the control unit 23 acquires the m (> n) -th image data.
  • step S906 the determination unit 231 determines whether the detection value of the sensor 29 in the m-th image data acquired in step S905 is equal to or greater than a threshold.
  • the control unit 23 proceeds to step S907.
  • step S 907 the determination unit 231 determines whether the number of determinations for setting the second image data is equal to or less than a threshold that is the number of times set in advance.
  • a threshold that is the number of times set in advance.
  • the process returns to step S 901 and starts again from the setting of the first image data.
  • the control unit 23 proceeds to step S 908.
  • step S908 the control unit 23 increments the counter m by 1, and returns to step S905.
  • step S906 determines in step S906 that the detection value is equal to or greater than the threshold (step S906: Yes). the process proceeds to step S909.
  • step S909 the determination unit 231 sets the m-th image data as the second image data.
  • step S 910 to S 913 following step S 909 the operation control unit 232 calculates the degree of similarity and sets the frame rate in the same manner as in steps S 110 to S 113 shown in FIG.
  • the control unit 23 determines whether new image data is generated (step S914). If the control unit 23 determines that new image data is generated (Step S914: Yes), the process returns to Step S901, and the above-described processing is repeated with the latest image data as the n-th image data at that time. On the other hand, when there is no generation of new image data (step S914: No), the control unit 23 ends the image data acquisition process.
  • the setting of the frame rate is performed based on the detection result of the sensor 29 when acquiring the image data.
  • the operation control is performed according to the external environment of the capsule endoscope, the operation of the capsule endoscope can be appropriately controlled.
  • the determination unit 231 calculates the difference between the detection value of the sensor of the n-th image data and the detection value of the sensor of the n + 1-th image data, and the calculated difference and threshold By detecting a change in the space in which the capsule endoscope 2 is present by comparing them with the above, it may be determined whether or not the image data for setting the frame rate is to be used.
  • FIG. 17 is a block diagram showing a schematic configuration of a capsule endoscope system according to a seventh embodiment of the present invention.
  • a capsule endoscope system 1C according to the seventh embodiment is provided with a capsule endoscope 2D instead of the capsule endoscope 2 in addition to the capsule endoscope system 1 described above, and a receiving device 4 It differs in that it has receiver 4A instead of.
  • the other configuration is the same as that of the capsule endoscope system 1.
  • the capsule endoscope 2D includes an imaging unit 21, an illumination unit 22, a control unit 23, a wireless communication unit 24, an antenna 25, a memory 26, and a power supply unit 27. Further, the control unit 23 does not have the determination unit 231 and the operation control unit 232. That is, the capsule endoscope 2 is different in that the determination unit 231 and the operation control unit 232 are not provided.
  • the reception device 4A includes a reception unit 401, a reception strength measurement unit 402, an operation unit 403, a data transmission / reception unit 404, an output unit 405, a storage unit 406, a control unit 407, a power supply unit 408, a determination unit 409, and a control information generation unit 410.
  • this embodiment is different from reception device 4 in that determination unit 409 and control information generation unit 410 are further provided.
  • determination unit 409 and the control information generation unit 410 which are different in configuration from the reception device 4, will be described.
  • the determination unit 409 determines whether or not the image is appropriate for use in controlling the frame rate, based on the noise level of the image data received by the receiving device 4A. , Select two image data.
  • the determination unit 409 calculates the S / N ratio (dB) from the radio signal received by the receiving device 4A, and sets the reciprocal of this S / N ratio as the noise level.
  • the determination unit 409 is realized by a processor such as a CPU or an ASIC.
  • the control information generation unit 410 calculates the similarity between the two images selected by the determination unit 409 in the same manner as the operation control unit 232 described above, and calculates the similarity and the threshold value stored in advance in the storage unit 406. Compare with.
  • the control information generation unit 410 generates control information on the frame rate of the imaging unit 21 according to the comparison result of the similarity and the threshold.
  • the control information generation unit 410 is realized by a processor such as a CPU or an ASIC.
  • FIG. 18 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the seventh embodiment of the present invention.
  • the control unit 407 of the receiving device 4A causes the imaging unit 21 to start the imaging process and acquires the n-th image data (step S1001).
  • step S1002 subsequent to step S1001, the determination unit 409 takes the reciprocal of the S / N ratio of the wireless signal at the time of receiving the n-th image data acquired in step S1001 and sets it as a noise level. It is determined whether or not Here, when the determination unit 409 determines that the noise level is larger than the threshold (step S1002: No), the control unit 407 proceeds to step S1103.
  • step S1003 the control unit 407 increments the counter n by 1, and returns to step S1001.
  • step S1002 when the determination unit 409 determines that the noise level is equal to or less than the threshold (step S1002: Yes), the process proceeds to step S1004.
  • step S1004 the determination unit 409 sets the n-th image data as first image data.
  • step S1005 the control unit 407 acquires the m (> n) -th image data.
  • step S1006 the determination unit 409 determines whether the noise level in the m-th image data acquired in step S1005 is equal to or higher than a threshold.
  • the control unit 407 proceeds to step S1007.
  • step S1007 the determination unit 409 determines whether the number of determinations for setting the second image data is equal to or less than a threshold that is the number of times set in advance.
  • a threshold that is the number of times set in advance.
  • the process returns to step S1001 and starts again from the setting of the first image data.
  • the control unit 407 proceeds to step S1008.
  • step S1008 the control unit 407 increments the counter m by 1, and returns to step S1005.
  • step S1006 determines in step S1006 that the noise level is equal to or less than the threshold (step S1006: Yes). the process proceeds to step S1009.
  • step S1009 the determination unit 409 sets this m-th image data as second image data.
  • control information generation unit 410 performs calculation of the degree of similarity and setting of the frame rate in the same manner as in steps S110 to S113 shown in FIG.
  • step S1014 which follows step S1012 or S1013, the control information generation unit 410 generates control information on the set frame rate, and outputs the control information to the capsule endoscope 2D. Thereby, the imaging process of the capsule endoscope 2D is controlled by the frame rate set in the receiving device 4A.
  • control unit 407 determines whether new image data is generated (step S1015). If the control unit 407 determines that new image data is generated (step S1015: YES), the process returns to step S1001 and repeats the above-described processing with the latest image data as the n-th image data at that time. On the other hand, if there is no generation of new image data (step S1015: No), the control unit 407 ends the image data acquisition process.
  • the capsule endoscope 2D is provided with the operation control unit 232, the determination result by the determination unit 409 is transmitted to the capsule endoscope 2D, and in the capsule endoscope 2D, Imaging control may be performed based on the determination result.
  • FIG. 19 is a flowchart showing an image data acquisition process performed by the capsule endoscope system according to the modification of the seventh embodiment of the present invention.
  • the capsule endoscope system according to the present modification is the same as the capsule endoscope system 1C described above.
  • processing different from that of the above-described seventh embodiment will be described with reference to FIG.
  • the control unit 407 causes the imaging unit 21 to start imaging processing and acquires n-th image data (step S1101).
  • step S1102 the determination unit 409 determines whether the RSSI corresponding to the n-th image data acquired in step S1101 is equal to or greater than a threshold.
  • the determination unit 409 determines that the RSSI is smaller than the threshold (step S1102: No)
  • the control unit 407 proceeds to step S1103.
  • step S1103 the control unit 407 increments the counter n by 1, and returns to step S1201.
  • step S1102 when the determination unit 409 determines that the RSSI is equal to or greater than the threshold (step S1102: YES), the process proceeds to step S1104.
  • step S1104 the determination unit 409 sets this n-th image data as first image data.
  • step S1105 following step S1104, the control unit 407 acquires the m (> n) -th image data.
  • step S1106 the determination unit 409 determines whether the RSSI corresponding to the m-th image data acquired in step S1105 is equal to or greater than a threshold.
  • the determination unit 409 determines that the RSSI is smaller than the threshold (step S1106: No)
  • the control unit 407 proceeds to step S1107.
  • step S1107 the determination unit 409 determines whether the number of determinations for setting the second image data is equal to or less than a threshold that is the number of times set in advance.
  • a threshold that is the number of times set in advance.
  • the process returns to step S1101 and starts over from setting of the first image data.
  • the control unit 407 proceeds to step S1108.
  • step S1108 the control unit 407 increments the counter m by 1, and returns to step S1105.
  • step S1106 determines in step S1106 that the RSSI is equal to or greater than the threshold (step S1106: YES)
  • the process proceeds to step S1109.
  • step S1109 the determination unit 409 sets the m-th image data as the second image data.
  • control information generation unit 410 performs calculation of the degree of similarity, setting of the frame rate, and output processing of control information, as in steps S1010 to S1014 shown in FIG.
  • control unit 407 determines whether new image data is generated (step S1115). If the control unit 407 determines that new image data is generated (step S1115: YES), the process returns to step S1101 and repeats the above-described processing with the latest image data as the n-th image data at that time. On the other hand, if there is no new image data generation (step S1115: No), the control unit 407 ends the image data acquisition process.
  • the number of flickering noises corresponding to the number of pixels having a prominent luminance value, the number of error corrections, or the like may be used.
  • the executable program for each process executed by each component of the capsule endoscope, the receiving device, and the processing device of the capsule endoscope system according to the first to seventh embodiments can be installed in a form or executable.
  • the file may be recorded in a computer readable recording medium such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD, etc. as a file of a possible format, and provided. It is connected to a network such as the Internet It may be stored on a computer that has been downloaded and configured to be provided by being downloaded via a network. Further, it may be configured to provide or distribute via a network such as the Internet.
  • the setting process of the frame rate according to the first and second embodiments described above may be performed on the receiving apparatus side.
  • the capsule endoscope system, the capsule endoscope, and the receiving device according to the present invention appropriately operate the capsule endoscope by using an image captured by the capsule endoscope. It is useful to control the

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Endoscopes (AREA)

Abstract

本発明にかかるカプセル型内視鏡システムは、被写体に照明光を照射して、該被写体の像を順次撮像して画像データを生成するカプセル型内視鏡を備えたカプセル型内視鏡システムであって、複数の画像データのうちの判定対象の画像データ、又は判定対象の画像データに関連付けられた関連情報に基づいて、当該判定対象の画像データが、カプセル型内視鏡の動作を制御するために用いる二つの画像データの一方として適しているか否かを判定する判定部、を備える。

Description

カプセル型内視鏡システム、カプセル型内視鏡及び受信装置
 本発明は、被検体内に導入されたカプセル型内視鏡を用いて画像データを取得するカプセル型内視鏡システム、カプセル型内視鏡及び受信装置に関するものである。
 従来、患者等の被検体の体内に導入されて被検体内を観察する医用観察装置として、内視鏡が広く普及している。また、近年では、カプセル型の筐体内部に撮像装置やこの撮像装置によって撮像された画像データを体外に無線送信する通信装置等を備えた飲み込み型の画像取得装置であるカプセル型内視鏡が開発されている。カプセル型内視鏡は、被検体内の観察のために患者の口から飲み込まれた後、被検体から自然排出されるまでの間、例えば食道、胃、小腸などの臓器の内部をその蠕動運動にしたがって移動し、順次撮像する機能を有する。
 被検体内を移動する間、カプセル型内視鏡によって撮像された画像データは、順次無線通信により体外に送信され、体外の受信装置の内部もしくは外部に設けられたメモリに蓄積される。医師又は看護師は、メモリに蓄積された画像データを、受信装置を差し込んだクレードルを介して情報処理装置に取り込んで、この情報処理装置のディスプレイに表示させた画像に基づいて診断を行うことができる。
 効率的かつ的確な診断を行うため、同一の被写体像の画像の数を抑制しつつ、異なる被写体像の画像を多く取得することが望まれる。例えば、特許文献1では、カプセル型内視鏡が任意のタイミングで撮像した二つの画像を用いて、カプセル型内視鏡の動作を制御している。具体的には、特許文献1では、二つの画像の比較結果に基づいて、フレームレートを変更している。例えば、画像の比較によりカプセル型内視鏡の移動速度を判別して、判別結果に基づいてフレームレートを変更している。これにより、類似した画像を重複して撮像することを抑制できる。
特許第3952777号公報
 しかしながら、特許文献1では、任意のタイミングで撮像された二つの画像の類似性に応じてフレームレートの設定をしており、使用する画像自体の評価はなされていない。このため、少なくとも一方の画像に白飛びなどが生じるなど、比較対象として不適切な画像が用いられる場合があった。この場合、例えば白飛び位置において輝度値が大きくなり、適切な画像の比較ができず、その結果、適切なフレームレートの設定が行えないおそれがあった。
 本発明は、上記に鑑みてなされたものであって、カプセル型内視鏡により撮像された画像を用いて、当該カプセル型内視鏡の動作を適切に制御することができるカプセル型内視鏡システム、カプセル型内視鏡及び受信装置を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係るカプセル型内視鏡システムは、被写体に照明光を照射して、該被写体を撮像して画像を生成するカプセル型内視鏡を備えたカプセル型内視鏡システムであって、複数の前記画像のうちの判定対象の画像、又は前記判定対象の画像に関連付けられた関連情報に基づいて、当該判定対象の画像が、前記カプセル型内視鏡の動作を制御するために用いる二つの画像の一方として適しているか否かを判定する判定部、を備えることを特徴とする。
 また、本発明に係るカプセル型内視鏡システムは、上記発明において、前記判定部は、前記二つの画像のうちの一方の画像を決定した後、該一方の画像よりも時系列的に前又は後の画像群から、前記二つの画像のうちの他方の画像を決定することを特徴とする。
 また、本発明に係るカプセル型内視鏡システムは、上記発明において、前記判定部により適していると判定された前記二つの画像に基づいて、前記カプセル型内視鏡の動作を制御する制御部、をさらに備えることを特徴とする。
 また、本発明に係るカプセル型内視鏡システムは、上記発明において、前記判定部は、前記画像を撮像した際の撮像情報に基づいて、前記判定対象の画像が、二つの画像の一方として適しているか否かを判定することを特徴とする。
 また、本発明に係るカプセル型内視鏡システムは、上記発明において、前記判定部は、前記画像を生成した際の前記照明光の発光量に基づいて、前記判定対象の画像が、二つの画像の一方として適しているか否かを判定することを特徴とする。
 また、本発明に係るカプセル型内視鏡システムは、上記発明において、前記判定部は、前記画像の画素情報に基づいて、前記判定対象の画像が、二つの画像の一方として適しているか否かを判定することを特徴とする。
 また、本発明に係るカプセル型内視鏡システムは、上記発明において、前記判定部は、前記画像の画素情報のうち、残渣又は泡に関連する画素情報に基づいて、前記判定対象の画像が、二つの画像の一方として適しているか否かを判定することを特徴とする。
 また、本発明に係るカプセル型内視鏡システムは、上記発明において、前記判定部は、前記二つの画像のうちの一方の画像を決定した後、該一方の画像の画素情報及び前記判定対象の画像の画素情報をもとに検出される前記一方の画像に対する前記判定対象の画像の撮像光軸のまわりの回転の有無に基づいて、前記二つの画像のうちの他方の画像を決定することを特徴とする。
 また、本発明に係るカプセル型内視鏡システムは、上記発明において、前記カプセル型内視鏡は、当該カプセル型内視鏡の動作又は外部環境の情報を検出するセンサを有し、前記判定部は、前記センサの検出情報に基づいて、前記判定対象の画像が、二つの画像の一方として適しているか否かを判定することを特徴とする。
 また、本発明に係るカプセル型内視鏡システムは、上記発明において、前記カプセル型内視鏡は、生成した前記画像を外部に無線送信する送信部を有し、前記送信部によって無線送信された前記画像を受信する受信部を有する受信装置、をさらに備え、前記判定部は、前記受信装置に設けられ、前記受信部が前記画像を受信した際の情報に基づいて、前記判定対象の画像が、二つの画像の一方として適しているか否かを判定することを特徴とする。
 また、本発明に係るカプセル型内視鏡システムは、上記発明において、前記カプセル型内視鏡は、前記画像を生成する撮像部を有し、前記制御部は、前記カプセル型内視鏡の動作を制御するための画像として適していると判定された二つの画像に基づいて前記撮像部のフレームレートを制御することを特徴とする。
 また、本発明に係るカプセル型内視鏡システムは、上記発明において、前記カプセル型内視鏡は、前記照明光を出射する照明部と、前記画像を生成する撮像部と、を有し、前記制御部は、前記カプセル型内視鏡の動作を制御するための画像として適していると判定された二つの画像に基づいて、前記撮像部による撮像動作、及び前記照明部による照明動作の少なくとも一方を制御することを特徴とする。
 また、本発明に係るカプセル型内視鏡システムは、上記発明において、前記カプセル型内視鏡は、前記画像を外部に無線送信する送信部を有し、前記制御部は、前記カプセル型内視鏡の動作を制御するための画像として適していると判定された二つの画像に基づいて、前記送信部による送信動作を制御することを特徴とする。
 また、本発明に係るカプセル型内視鏡システムは、上記発明において、前記カプセル型内視鏡は、当該カプセル型内視鏡の内部にある回路に電源を供給する電源部を有し、前記制御部は、前記カプセル型内視鏡の動作を制御するための画像として適していると判定された二つの画像に基づいて、前記電源部による電源供給動作を制御することを特徴とする。
 また、本発明に係るカプセル型内視鏡は、被写体に照明光を照射して、該被写体を撮像して画像を生成するカプセル型内視鏡であって、複数の前記画像のうちの判定対象の画像、又は前記判定対象の画像に関連付けられた関連情報に基づいて、当該判定対象の画像が、前記カプセル型内視鏡の動作を制御するために用いる二つの画像の一方として適しているか否かを判定する判定部、を備えることを特徴とする。
 また、本発明に係る受信装置は、被写体に照明光を照射して、該被写体を撮像して画像を生成するカプセル型内視鏡が無線送信した前記画像を受信する受信装置であって、複数の前記画像のうちの判定対象の画像、又は前記判定対象の画像に関連付けられた関連情報に基づいて、当該判定対象の画像が、前記カプセル型内視鏡の動作を制御するために用いる二つの画像の一方として適しているか否かを判定する判定部と、前記判定部により得られる情報から、前記カプセル型内視鏡の動作制御に関する制御情報を生成する生成部と、を備えることを特徴とする。
 本発明によれば、カプセル型内視鏡により撮像された画像を用いて、当該カプセル型内視鏡の動作を適切に制御することができるという効果を奏する。
図1は、本発明の実施の形態1に係るカプセル型内視鏡システムの概略構成を示す模式図である。 図2は、本発明の実施の形態1に係るカプセル型内視鏡システムの概略構成を示すブロック図である。 図3は、本発明の実施の形態1に係るカプセル型内視鏡システムにおいて行われる画像データの選択処理を説明するための図である。 図4は、本発明の実施の形態1に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。 図5は、本発明の実施の形態1の変形例1に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。 図6は、本発明の実施の形態1の変形例2に係るカプセル型内視鏡システムが備えるカプセル型内視鏡の構成を示す図である。 図7は、本発明の実施の形態1の変形例2に係るカプセル型内視鏡システムにおいて行われる画像データの選択処理を説明するための図である。 図8は、本発明の実施の形態1の変形例3に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。 図9は、本発明の実施の形態1の変形例4に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。 図10は、本発明の実施の形態2に係るカプセル型内視鏡システムの概略構成を示すブロック図である。 図11は、本発明の実施の形態2に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。 図12は、本発明の実施の形態3に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。 図13は、本発明の実施の形態4に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。 図14は、本発明の実施の形態5に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。 図15は、本発明の実施の形態6に係るカプセル型内視鏡システムの概略構成を示すブロック図である。 図16は、本発明の実施の形態6に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。 図17は、本発明の実施の形態7に係るカプセル型内視鏡システムの概略構成を示すブロック図である。 図18は、本発明の実施の形態7に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。 図19は、本発明の実施の形態7の変形例に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。
 以下に、本発明に係る実施の形態として、医療用のカプセル型内視鏡を使用するカプセル型内視鏡システムについて説明する。なお、図面の記載において、同一部分には同一の符号を付している。また、図面は模式的なものであり、各部材の厚みと幅との関係、各部材の比率などは、現実と異なることに留意する必要がある。
(実施の形態1)
 図1は、本発明の実施の形態1に係るカプセル型内視鏡システムの概略構成を示す模式図である。図1に示すように、実施の形態1に係るカプセル型内視鏡システム1は、被検体H内に導入されて該被検体H内を撮像することにより画像データを生成し、無線信号に重畳して電波を介して送信する画像取得装置であるカプセル型内視鏡2と、カプセル型内視鏡2から送信された無線信号を、被検体Hに装着された複数の受信アンテナ3a~3hを備えた受信アンテナユニット3を介して受信する受信装置4と、カプセル型内視鏡2が生成した画像データを、クレードル5aを介して、受信装置4から取り込み、該画像データを処理して、被検体H内の画像を生成する処理装置5と、を備える。処理装置5によって生成された画像は、例えば、表示装置6から表示出力される。
 カプセル型内視鏡2は、被検体Hに嚥下された後、臓器の蠕動運動等によって被検体Hの消化管内を移動しつつ、生体部位(食道、胃、小腸、及び大腸等)を、予め設定されている基準の周期(例えば0.5秒周期)で順次撮像する。そして、この撮像動作により取得された画像データ及び関連情報を受信装置4に順次無線送信する。
 図2は、本発明の実施の形態1に係るカプセル型内視鏡システムの概略構成を示すブロック図である。カプセル型内視鏡2は、撮像部21、照明部22、制御部23、無線通信部24、アンテナ25、メモリ26、及び電源部27を備える。カプセル型内視鏡2は、被検体Hが嚥下可能な大きさのカプセル形状の筐体に上述した各構成部品を内蔵した装置である。
 撮像部21は、例えば、受光面に結像された光学像から被検体H内を撮像した画像データを生成して出力する撮像素子と、該撮像素子の受光面側に配設された対物レンズ等の光学系とを含む。撮像素子は、CCD(Charge Coupled Device)撮像素子或いはCMOS(Complementary Metal Oxide Semiconductor)撮像素子によって構成され、被検体Hからの光を受光する複数の画素がマトリックス状に配列され、画素が受光した光に対して光電変換を行うことにより、画像データを生成する。撮像部21は、マトリックス状に配列されている複数の画素に対して、水平ラインごとに画素値を読み出して、該水平ラインごとに同期信号が付与された複数のラインデータを含む画像データを生成する。
 照明部22は、照明光である白色光を発生する白色LED等によって構成される。なお、白色LEDのほか、出射波長帯域の異なる複数のLEDやレーザー光源等の光を合波することで白色光を生成する構成としてもよいし、キセノンランプや、ハロゲンランプ等を用いて構成するようにしてもよい。
 制御部23は、カプセル型内視鏡2の各構成部品の動作処理の制御を行う。例えば、撮像部21が撮像処理を行う場合には、撮像素子に対する露光及び読み出し処理を実行するように撮像部21を制御するとともに、照明部22に対し、撮像部21の露光タイミングに応じて照明光を照射するように制御する。また、制御部23は、撮像部21が撮像した画像データの画素値(輝度値)から、次に撮像する際の照明部22の発光時間を決定し、その決定した発光時間で照明光を出射するように照明部22を制御する。このように、制御部23によって撮像した画像データをもとに照明部22による発光時間が制御されており、撮像の都度、発光時間が変わる場合がある。制御部23は、CPU(Central Processing Unit)等の汎用プロセッサやASIC(Application Specific Integrated Circuit)等の特定の機能を実行する各種演算回路等の専用プロセッサを用いて構成される。
 また、制御部23は、撮像部21のフレームレートを制御するために用いる画像データの可否を判定する判定部231と、判定部231の判定結果に基づいて、撮像部21のフレームレートを制御する動作制御部232とを有する。
 図3は、本発明の実施の形態1に係るカプセル型内視鏡システムにおいて行われる画像データの選択処理を説明するための図である。撮像部21は、予め設定されたフレームレートで撮像処理を行い、順次画像データ(図3では、各画像データに対応する画像Fn、Fm、Fm+1~Fm+4を示している)を生成する(n、mはともに自然数であって、n<m)。判定部231は、フレームレートを制御するために用いる画像として適切か否かを判定することによって、フレームレートを制御する二つの画像(画像データ)を選択する。判定部231は、例えば、複数の画像データのうちのn番目の画像Fnに対応する画像データを一つ目の画像データとして選択した後、この選択した画像データよりも時系列的に後の画像データであって、m、m+1~m+4番目の画像Fm、Fm+1~Fm+4から二つ目の画像データを選択する。本実施の形態1において、判定部231は、各画像データが撮像された際の照明部22の発光時間に基づいて、フレームレートを制御するのに適切な画像データの選択を行う。なお、一つ目の画像データを選択後、時系列的に前の画像データ群から二つ目の画像データを選択してもよい。
 動作制御部232は、判定部231により選択された二つの画像データの類似度を算出し、この類似度と、メモリ26に予め記憶されている閾値とを比較する。動作制御部232は、類似度と閾値との比較結果に応じて、撮像部21のフレームレートを設定する。この際に設定するフレームレートは、撮像部21による画像データの取得間隔を示す値である。撮像部21は、動作制御部232により設定されたフレームレートに基づいて撮像処理を実行する。
 無線通信部24は、撮像部21から出力された画像データを処理する。無線通信部24は、撮像部21から出力された画像データに対してA/D変換及び所定の信号処理を施し、デジタル形式の画像データを取得し、関連情報とともに無線信号に重畳して、アンテナ25から外部に送信する。関連情報には、カプセル型内視鏡2の個体を識別するために割り当てられた識別情報(例えばシリアル番号)等が含まれる。
 メモリ26は、制御部23が各種動作を実行するための実行プログラム及び制御プログラム並びに閾値等のパラメータを記憶する。また、メモリ26は、無線通信部24において信号処理が施された画像データ等を一時的に記憶してもよい。メモリ26は、RAM(Random Access Memory)、ROM(Read Only Memory)等によって構成される。
 電源部27は、ボタン電池等からなるバッテリと、該バッテリから電力を昇圧等する電源回路と、当該電源部27のオンオフ状態を切り替える電源スイッチとを含み、電源スイッチがオンとなった後、カプセル型内視鏡2内の各部に電力を供給する。なお、電源スイッチは、例えば外部の磁力によってオンオフ状態が切り替えられるリードスイッチからなり、カプセル型内視鏡2の使用前(被検体Hが嚥下する前)に、該カプセル型内視鏡2に外部から磁力を印加することによりオン状態に切り替えられる。
 受信装置4は、受信部401、受信強度測定部402、操作部403、データ送受信部404、出力部405、記憶部406、制御部407、及び、これらの各部に電力を供給する電源部408を備える。
 受信部401は、カプセル型内視鏡2から無線送信された画像データ及び関連情報を、複数(図1においては8個)の受信アンテナ3a~3hを有する受信アンテナユニット3を介して受信する。受信アンテナ3a~3hは、例えばループアンテナ又はダイポールアンテナを用いて実現され、被検体Hの体外表面上の所定位置に配置される。受信部401は、受信アンテナ3a~3hが受信した無線信号の受信強度(RSSI:Received Signal Strength Indicator)を測定する受信強度測定部402を有する。受信部401は、受信強度測定部402が測定した受信強度に基づいて、受信アンテナ3a~3hのうち、最も受信強度の高いアンテナを選択し、選択したアンテナが受信した無線信号を受信する。また、受信部401は、例えば、CPUやASIC等のプロセッサによって構成され、受信した画像データに対し、A/D変換などの所定の信号処理を施す。
 受信強度測定部402は、受信部401が無線信号を受信した際の受信強度を受信アンテナ3a~3hのそれぞれについて測定する。このとき、測定したすべての受信強度と、受信部401が受信した画像データとを関連付けて記憶部406に記憶させてもよい。
 操作部403は、ユーザが当該受信装置4に対して各種設定情報や指示情報を入力する際に用いられる入力デバイスである。操作部403は、例えば受信装置4の操作パネルに設けられたスイッチ、ボタン等である。
 データ送受信部404は、処理装置5と通信可能な状態で接続された際に、記憶部406に記憶された画像データ及び関連情報を処理装置5に送信する。データ送受信部404は、LAN等の通信インタフェースで構成される。
 出力部405は、画像の表示や、音又は光の出力、振動の発生を行う。出力部405は、干渉レベルに応じた通知画像を表示したり、音、光、振動を発したりする。出力部405は、液晶ディスプレイ、有機ELディスプレイ等のディスプレイと、スピーカーと、光源と、振動モータなどの振動発生器とのうちの少なくとも一つによって構成される。
 記憶部406は、受信装置4を動作させて種々の機能を実行させるためのプログラムや、カプセル型内視鏡2により取得された画像データ等を記憶する。記憶部406は、RAM、ROM等によって構成される。
 制御部407は、受信装置4の各構成部を制御する。制御部407は、CPU等の汎用プロセッサやASIC等の特定の機能を実行する各種演算回路等の専用プロセッサを用いて構成される。
 このような受信装置4は、カプセル型内視鏡2により撮像が行われている間、例えば、カプセル型内視鏡2が被検体Hに嚥下された後、消化管内を通過して排出されるまでの間、被検体Hに装着されて携帯される。受信装置4は、この間、受信アンテナユニット3を介して受信した画像データを記憶部406に記憶させる。
 カプセル型内視鏡2による撮像の終了後、受信装置4は被検体Hから取り外され、処理装置5と接続されたクレードル5a(図1参照)にセットされる。これにより、受信装置4は、処理装置5と通信可能な状態で接続され、記憶部406に記憶された画像データ及び関連情報を処理装置5に転送(ダウンロード)する。
 処理装置5は、例えば、液晶ディスプレイ等の表示装置6を備えたワークステーションを用いて構成される。処理装置5は、データ送受信部51、画像処理部52、各部を統括して制御する制御部53、表示制御部54、入力部55及び記憶部56を備える。
 データ送受信部51は、USB、又は有線LANや無線LAN等の通信回線と接続可能なインタフェースであり、USBポート及びLANポートを含んでいる。実施の形態1において、データ送受信部51は、USBポートに接続されるクレードル5aを介して受信装置4と接続され、受信装置4との間でデータの送受信を行う。
 画像処理部52は、後述の記憶部56に記憶された所定のプログラムを読み込むことにより、データ送受信部51から入力された画像データや記憶部56に記憶された画像データに対応する体内画像を作成するための所定の画像処理を施す。画像処理部52は、CPUやASIC等のプロセッサによって実現される。
 制御部53は、記憶部56に記憶された各種プログラムを読み込むことにより、入力部55を介して入力された信号や、データ送受信部51から入力された画像データに基づいて、処理装置5を構成する各部への指示やデータの転送等を行い、処理装置5全体の動作を統括的に制御する。制御部53は、CPU等の汎用プロセッサやASIC等の特定の機能を実行する各種演算回路等の専用プロセッサによって実現される。
 表示制御部54は、画像処理部52において生成された画像を、表示装置6における画像の表示レンジに応じたデータの間引きや、階調処理などの所定の処理を施した後、表示装置6に表示出力させる。表示制御部54は、例えば、CPUやASIC等のプロセッサによって構成される。
 入力部55は、ユーザの操作に応じた情報や命令の入力を受け付ける。入力部55は、例えばキーボードやマウス、タッチパネル、各種スイッチ等の入力デバイスによって実現される。
 記憶部56は、処理装置5を動作させて種々の機能を実行させるためのプログラム、該プログラムの実行中に使用される各種情報、並びに、受信装置4を介して取得した画像データ及び関連情報、画像処理部52によって作成された体内画像等を記憶する。記憶部56は、フラッシュメモリ、RAM、ROM等の半導体メモリや、HDD、MO、CD-R、DVD-R等の記録媒体及び該記録媒体を駆動する駆動装置等によって実現される。
 続いて、カプセル型内視鏡2が実行する画像データ取得処理について説明する。図4は、本発明の実施の形態1に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。以下、制御部23の制御のもと、各部が動作するものとして説明する。
 制御部23は、撮像部21に撮像処理を開始させ、n番目(開始直後の場合はn=1)の画像データを取得する(ステップS101)。
 ステップS101に続くステップS102において、判定部231は、ステップS101で取得したn番目の画像データを取得した際の照明光の発光時間が閾値以下であるか否かを判断する。ここで、制御部23は、判定部231が、発光時間が閾値より大きいと判断した場合(ステップS102:No)、ステップS103に移行する。
 ステップS103において、制御部23は、カウンタnを1増加させ、ステップS101に戻る。これは、判定対象の画像データを、取得時間が新しいフレームの画像データに移すことを意味する。
 一方、ステップS102において、判定部231が、発光時間が閾値以下であると判断した場合(ステップS102:Yes)、ステップS104に移行する。
 ステップS104において、判定部231は、このn番目の画像データを、選択する二つの画像データのうちの一方の画像データ(以下、第1画像データという)に設定する。
 ステップS104に続くステップS105において、制御部23は、m(>n)番目の画像データを取得する。
 ステップS105に続くステップS106~S109では、判定部231が、ステップS105で取得したm番目の画像データを取得した際の照明光の発光時間が閾値以下であるか否かを判断することによって、二つの画像データのうちの他方の画像データ(以下、第2画像データという)の設定を行う。ここで、制御部23は、判定部231が、発光時間が閾値より大きいと判定した場合(ステップS106:No)、ステップS107に移行する。
 ステップS107において、判定部231は、当該第2画像データの設定のための判定回数が予め設定されている回数である閾値以下であるか否かを判断する。ここで、判定部231は、判定回数が閾値より大きいと判断した場合(ステップS107:No)、ステップS101に戻り、第1画像データの設定からやり直す。一方、制御部23は、判定部231が、判定回数が閾値以下であると判断した場合(ステップS107:Yes)、ステップS108に移行する。
 ステップS108において、制御部23は、カウンタmを1増加させ、ステップS105に戻る。これは、判定対象の画像データを取得時間が新しいフレームの画像データに移すことを意味する。
 一方、ステップS106において、判定部231が、発光時間が閾値以下であると判定した場合(ステップS106:Yes)、ステップS109に移行する。
 ステップS109において、判定部231は、このm番目の画像データを第2画像データに設定する。
 ステップS109に続くステップS110において、動作制御部232は、第1画像データ及び第2画像データの画像の類似度を算出する。動作制御部232が算出する類似度は、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、正規化相互相関(NCC:Normalized Cross-Correlation、又はZNCC:Zero-mean Normalized Cross-Correlation)のような、公知の手法を用いて算出される。また、画像間の対応する画素の画素値(輝度値)の差分を算出し、この差分を類似度としてもよい。本実施の形態1では、類似度としてSSDを算出する例を説明する。
 ステップS110に続くステップS111において、動作制御部232は、算出された類似度が、閾値以下であるか否かを判断する。この際、動作制御部232は、類似度が閾値以下であると判断した場合(ステップS111:Yes)、ステップS112に移行する。類似度が閾値以下である場合は、画像間の被写体の動きが小さく、同じような被写体像が撮像されていると判断することができる。
 ステップS112において、動作制御部232は、フレームレートを基準値に設定する。ここでいう基準値とは、撮像部21が、上述したような基準の周期(例えば0.5秒周期)で撮像する値である。動作制御部232は、フレームレートを基準値に設定後、撮像部21に、この基準値に応じた間隔で撮像処理を実行する制御を行う。
 一方、ステップS111において、動作制御部232は、類似度が閾値より大きいと判断した場合(ステップS111:No)、ステップS113に移行する。類似度が閾値より大きい場合は、画像間の被写体の動きが大きく、異なる被写体像が撮像されていると判断することができる。
 ステップS113において、動作制御部232は、フレームレートを高速値に設定する。ここでいう高速値とは、撮像部21が、上述したような基準の周期(例えば0.5秒周期)よりも短い周期(例えば0.25秒周期)で撮像する値である。動作制御部232は、フレームレートを高速値に設定後、撮像部21に、この高速値に応じた間隔で撮像処理を実行する制御を行う。
 動作制御部232によるフレームレートの設定後、制御部23は、新たな画像データが生成されたか否かを判断する(ステップS114)。制御部23は、新たな画像データの生成があると判断すると(ステップS114:Yes)、ステップS101に戻り、その時点で最新の画像データをn番目の画像データとして、上述した処理を繰り返す。これに対し、制御部23は、新たな画像データの生成がなければ(ステップS114:No)、画像データ取得処理を終了する。
 以上説明した本実施の形態1では、画像データを取得した際の照明光の発光時間から、フレームレートの設定に用いる画像として適切か否かを判断し、適切と判断された二つの画像の類似度を算出し、算出結果をもとにフレームレートの設定を行うようにした。本実施の形態1によれば、カプセル型内視鏡により撮像された画像のうち、制御対象として適切な画像を用いて動作制御を行うため、当該カプセル型内視鏡の動作を適切に制御することができる。
 なお、上述した実施の形態1では、発光時間に基づいて第1画像データ及び第2画像データの選択を行うようにしたが、発光時間とともにカプセル型内視鏡の発光量の制御に用いられる発光強度に基づいて画像データの選択を行うようにしてもよい。この際、発光時間に基づいて選択を行う場合は発光強度が一定であり、発光強度に基づいて選択を行う場合は発光時間が一定である。このように、実施の形態1では、発光量の制御に用いる発光時間及び発光強度のうちの一方を用いて画像データの選択を行う。
 また、上述した実施の形態1では、フレームレートの制御を行ううえで、類似度が閾値よりも大きい場合に、基準値から高速値に変更するものとして説明したが、高速値を基準値として、類似度が閾値以下の場合に、基準の周期よりも長い周期を示す低速値に設定するようにしてもよい。
 上述した実施の形態1では、類似度がSSDであることを前提に閾値が設定されているが、ほかの値(例えばNCC)を類似度として算出する場合は、値の大小と類似度との関係によって、閾値の値や、判定に用いる大小関係が変化することはいうまでもない。
(実施の形態1の変形例1)
 続いて、本発明の実施の形態1の変形例1について説明する。図5は、本発明の実施の形態1の変形例1に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。本変形例1に係るカプセル型内視鏡システムは、上述したカプセル型内視鏡システム1と同様である。以下、上述した実施の形態1とは異なる処理について、図5を参照して説明する。本変形例1では、第2画像データの設定を行う際に、第1画像データとは時系列的に離れた画像データから順に第2画像データを選択する判定処理を行う。なお、本変形例1では、撮像部21が生成した画像データのうち、最新のフレームを含む、予め設定されたフレーム数の画像データがメモリ26に記憶されるものとして説明する。
 本変形例1では、図4に示すステップS101~S104と同様にして、制御部23が、n番目の画像データを第1画像データに設定する(ステップS201~S204)。
 ステップS204に続くステップS205において、制御部23は、p(>n)番目の画像データを取得する。この際、カウンタpは、カウンタnに判定回数の最大値(閾値)を加算した値である。
 ステップS205に続くステップS206~S209では、判定部231が、ステップS205で取得したp番目の画像データを取得した際の照明光の発光時間が閾値以下であるか否かを判断することによって、第2画像データの設定を行う。ここで、制御部23は、判定部231が、発光時間が閾値より大きいと判定した場合(ステップS206:No)、ステップS207に移行する。
 ステップS207において、判定部231は、当該第2画像データの設定のための判定回数が予め設定されている回数である閾値以下であるか否かを判断する。ここで、判定部231は、判定回数が閾値より大きいと判断した場合(ステップS207:No)、ステップS201に戻り、第1画像データの設定からやり直す。一方、制御部23は、判定部231が、判定回数が閾値以下であると判断した場合(ステップS207:Yes)、ステップS208に移行する。
 ステップS208において、制御部23は、カウンタpを1減少させ、ステップS205に戻る。これは、判定対象の画像データを取得時間が古いフレームの画像データに移すことを意味する。
 一方、ステップS206において、判定部231が、発光時間が閾値以下であると判定した場合(ステップS206:Yes)、ステップS209に移行する。
 ステップS209において、判定部231は、このm番目の画像データを第2画像データに設定する。
 ステップS209に続くステップS210~S213において、動作制御部232は、図4に示すステップS110~S113と同様にして、類似度の算出、及びフレームレートの設定を行う。
 動作制御部232によるフレームレートの設定後、制御部23は、新たな画像データが生成されたか否かを判断する(ステップS214)。制御部23は、新たな画像データの生成があると判断すると(ステップS214:Yes)、ステップS201に戻り、その時点で最新の画像データをn番目の画像データとして、上述した処理を繰り返す。これに対し、制御部23は、新たな画像データの生成がなければ(ステップS214:No)、画像データ取得処理を終了する。
 以上説明した本変形例1によれば、上述した実施の形態1と同様の効果を得ることができ、さらに、第2画像データを新しいものから順に、フレームレートの制御に適しているか否かを判断するようにしたので、画像の類似度の算出も、より最新の画像データに近い画像データとの比較によってフレームレートの制御を行うことが可能である。
 なお、上述した変形例1において、メモリ26に記憶されている画像データから、最も被写体のぶれの小さい画像を抽出して、動作制御部232が、この抽出された画像を用いてフレームレートの制御を行うようにしてもよい。各画像における被写体のぶれ量は、公知の手法を用いて算出することができる。
(実施の形態1の変形例2)
 続いて、本発明の実施の形態1の変形例2について説明する。図6は、本発明の実施の形態1の変形例2に係るカプセル型内視鏡システムが備えるカプセル型内視鏡の構成を示す図である。本変形例2に係るカプセル型内視鏡システムは、上述したカプセル型内視鏡システム1に対し、カプセル型内視鏡2に代えてカプセル型内視鏡2Aを備える点で異なる。その他の構成は、カプセル型内視鏡システム1と同様である。以下、上述した実施の形態1とは異なる構成及び処理について、図6、7を参照して説明する。
 本変形例2に係るカプセル型内視鏡2Aは、第1撮像部21A、第2撮像部21B、第1照明部22A、第2照明部22B、制御部23、無線通信部24、アンテナ25、メモリ26及び電源部27を備える。すなわち、カプセル型内視鏡2に対して、撮像部21及び照明部22に代えて、第1撮像部21A、第2撮像部21B、第1照明部22A、第2照明部22Bを備える点で異なっている。以下、カプセル型内視鏡2とは異なる構成である第1撮像部21A、第2撮像部21B、第1照明部22A、第2照明部22Bについてのみ説明する。
 第1撮像部21A及び第2撮像部21Bは、例えば、受光面に結像された光学像から被検体H内を表す画像データを生成して出力する撮像素子と、該撮像素子の受光面側にそれぞれ配設された対物レンズ等の光学系とをそれぞれ含む。撮像素子は、CCD撮像素子或いはCMOS撮像素子によって構成され、被検体Hからの光を受光する複数の画素がマトリックス状に配列され、画素が受光した光に対して光電変換を行うことにより、画像データを生成する。
 第1撮像部21A及び第2撮像部21Bは、互いに異なる撮像方向の画像を撮像する。カプセル型内視鏡2Aは、カプセル型内視鏡2Aの長軸方向の前方及び後方を撮像する2眼タイプのカプセル型医療装置であり、本変形例2において、第1撮像部21A及び第2撮像部21Bの光軸は、カプセル型内視鏡2Aの長手方向の中心軸と略平行あるいは略一致する。また、第1撮像部21A及び第2撮像部21Bの各撮像方向は、互いに反対方向である。
 図7は、本発明の実施の形態1の変形例2に係るカプセル型内視鏡システムにおいて行われる画像データの選択処理を説明するための図である。第1撮像部21A及び第2撮像部21Bは、制御部23の制御のもと、交互に撮像処理を実行する。これにより、図7に示すように、第1撮像部21Aで生成される画像データに対応する画像Fq、Fq+1~Fq+5と、第2撮像部21Bで生成される画像データに対応する画像Fr、Fr+1~Fr+5と、が一つずつ交互に生成される。
 第1照明部22A及び第2照明部22Bは、照明光である白色光を発生する白色LED等によってそれぞれ構成される。第1照明部22A及び第2照明部22Bは、制御部23による制御のもと、設定された発光時間(発光強度)で照明光を出射する。
 制御部23は、撮像部(第1撮像部21A及び第2撮像部21B)のフレームレートを制御する際、第1撮像部21Aによって得られた一組の画像データと、第2撮像部21Bによって得られた一組の画像データとを交互に参照して、フレームレートの設定対象の画像データを選択する。具体的に、判定部231が、第1撮像部21Aによって得られた一組の画像データ(例えば、図7に示す画像Fq、Fq+1)について、各画像データ取得時の発光時間と、閾値とを比較して、制御対象の画像データとして適切か否かを判断する。この際、判定部231は、適切であると判断した場合は、画像Fq、Fq+1に対応する画像データを第1画像データ及び第2画像データに設定し、動作制御部232に出力する。一方、判定部231は、画像Fq、Fq+1が制御対象として適切ではないと判断した場合、第2撮像部21Bによって得られた一組の画像データ(例えば、図7に示す画像Fr、Fr+1)について、各画像データ取得時の発光時間と、閾値とを比較して、制御対象の画像として適切か否かを判断する。このようにして、判定部231は、第1画像データ及び第2画像データを設定するまで、画像Fq、Fq+1、画像Fr、Fr+1、画像Fq+1、Fq+2、画像Fr+1、Fr+2、・・・の順で判断を繰り返して、制御に用いる画像データ(第1画像データ及び第2画像データ)の選択を行う。
 動作制御部232は、判定部231によって選択された第1画像データ及び第2画像データを用いて、上述したように、類似度の算出、類似度と閾値との比較を行って、フレームレートの設定を行う。ここで、動作制御部232は、判定に用いた画像データを生成した撮像部のみ制御するようにしてもよいし、第1撮像部21A及び第2撮像部21Bの両方のフレームレートを制御してもよい。
 本変形例2によれば、カプセル型内視鏡2Aに二つの撮像部を備えた場合であっても、上述した実施の形態1と同様の効果を得ることができる。
 なお、変形例2において、いずれか一方の撮像部(例えば第1撮像部21A)を判定部231による判定対象の撮像部に設定し、この第1撮像部21Aが生成した画像データについて、上述した実施の形態1と同様の処理を行うようにしてもよい。
(実施の形態1の変形例3)
 続いて、本発明の実施の形態1の変形例3について説明する。図8は、本発明の実施の形態1の変形例3に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。本変形例3に係るカプセル型内視鏡システムは、上述したカプセル型内視鏡システム1と同様である。以下、上述した実施の形態1とは異なる処理について、図8を参照して説明する。なお、本変形例3では、撮像素子の各画素には、赤色(R)、緑色(G)及び青色(B)のうちのいずれかの色のカラーフィルタが設けられ、各画素がカラーフィルタを透過した光を受光する。以下、赤色のカラーフィルタが設けられ、赤色の光に応じた画素値を出力する画素をR画素という。同様にして、緑色のカラーフィルタが設けられ、緑色の光に応じた画素値を出力する画素をG画素、青色のカラーフィルタが設けられ、青色の光に応じた画素値を出力する画素をB画素という。
 制御部23は、撮像部21に撮像処理を開始させ、n番目の画像データを取得する(ステップS301)。
 ステップS301に続くステップS302において、判定部231は、ステップS301で取得したn番目の画像データから、R画素の画素値の代表値を算出し、このR画素の代表値が閾値以上であるか否かを判断する。R画素の代表値は、例えばR画素の画素値の平均値や合計である。ここで、制御部23は、判定部231が、R画素の代表値が閾値より小さいと判断した場合(ステップS302:No)、ステップS303に移行する。R画素の代表値が閾値より小さい画像は、残渣や泡の多い画像であると判断することができる。
 ステップS303において、制御部23は、カウンタnを1増加させ、ステップS301に戻る。
 一方、ステップS302において、判定部231が、R画素の代表値が閾値以上であると判断した場合(ステップS302:Yes)、ステップS304に移行する。
 ステップS304において、判定部231は、このn番目の画像データを第1画像データに設定する。
 ステップS304に続くステップS305において、制御部23は、m(>n)番目の画像データを取得する。
 ステップS305に続くステップS306~S309では、判定部231が、ステップS305で取得したm番目の画像データにおけるR画素の代表値が閾値以上であるか否かを判断する。ここで、制御部23は、判定部231が、R画素の代表値が閾値より小さいと判定した場合(ステップS306:No)、ステップS307に移行する。
 ステップS307において、判定部231は、当該第2画像データの設定のための判定回数が予め設定されている回数である閾値以下であるか否かを判断する。ここで、判定部231は、判定回数が閾値より大きいと判断した場合(ステップS307:No)、ステップS301に戻り、第1画像データの設定からやり直す。一方、制御部23は、判定部231が、判定回数が閾値以下であると判断した場合(ステップS307:Yes)、ステップS308に移行する。
 ステップS308において、制御部23は、カウンタmを1増加させ、ステップS305に戻る。
 一方、ステップS306において、判定部231が、R画素の代表値が閾値以上であると判定した場合(ステップS306:Yes)、ステップS309に移行する。
 ステップS309において、判定部231は、このm番目の画像データを第2画像データに設定する。
 ステップS309に続くステップS310~S313において、動作制御部232は、図4に示すステップS110~S113と同様にして、類似度の算出、及びフレームレートの設定を行う。
 動作制御部232によるフレームレートの設定後、制御部23は、新たな画像データが生成されたか否かを判断する(ステップS314)。制御部23は、新たな画像データの生成があると判断すると(ステップS314:Yes)、ステップS301に戻り、その時点で最新の画像データをn番目の画像データとして、上述した処理を繰り返す。これに対し、制御部23は、新たな画像データの生成がなければ(ステップS314:No)、画像データ取得処理を終了する。
 以上説明した本変形例3によれば、上述した実施の形態1と同様の効果を得ることができ、さらに、R画素を用いて画像がフレームレートの制御に適しているか否かを判断するようにしたので、残渣や泡の多い画像データを制御対象から排除することができる。なお、R画素のほか、B画素を用いた場合でも同様の効果を得ることができる。
(実施の形態1の変形例4)
 続いて、本発明の実施の形態1の変形例4について説明する。図9は、本発明の実施の形態1の変形例4に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。本変形例4に係るカプセル型内視鏡システムは、上述したカプセル型内視鏡システム1と同様であり、撮像素子の各画素には、変形例3と同様にカラーフィルタが設けられている。以下、上述した実施の形態1とは異なる処理について、図9を参照して説明する。
 制御部23は、撮像部21に撮像処理を開始させ、n番目の画像データを取得する(ステップS401)。
 ステップS401に続くステップS402において、判定部231は、ステップS401で取得したn番目の画像データから、G画素の画素値の代表値を算出し、このG画素の代表値が閾値以下であるか否かを判断する。G画素の代表値は、例えばG画素の画素値の平均値や合計である。ここで、制御部23は、判定部231が、G画素の代表値が閾値より大きいと判断した場合(ステップS402:No)、ステップS403に移行する。
 ステップS403において、制御部23は、カウンタnを1増加させ、ステップS401に戻る。
 一方、ステップS402において、判定部231が、G画素の代表値が閾値以下であると判断した場合(ステップS402:Yes)、ステップS404に移行する。
 ステップS404において、判定部231は、このn番目の画像データを第1画像データに設定する。
 ステップS404に続くステップS405において、制御部23は、m(>n)番目の画像データを取得する。
 ステップS405に続くステップS406~S409では、判定部231が、ステップS405で取得したm番目の画像データにおけるG画素の代表値が閾値以下であるか否かを判断する。ここで、制御部23は、判定部231が、G画素の代表値が閾値より大きいと判定した場合(ステップS406:No)、ステップS407に移行する。
 ステップS407において、判定部231は、当該第2画像データの設定のための判定回数が予め設定されている回数である閾値以下であるか否かを判断する。ここで、判定部231は、判定回数が閾値より大きいと判断した場合(ステップS407:No)、ステップS401に戻り、第1画像データの設定からやり直す。一方、制御部23は、判定部231が、判定回数が閾値以下であると判断した場合(ステップS407:Yes)、ステップS408に移行する。
 ステップS408において、制御部23は、カウンタmを1増加させ、ステップS405に戻る。
 一方、ステップS406において、判定部231が、G画素の代表値が閾値以下であると判定した場合(ステップS406:Yes)、ステップS409に移行する。
 ステップS409において、判定部231は、このm番目の画像データを第2画像データに設定する。
 ステップS409に続くステップS410~S413において、動作制御部232は、図4に示すステップS110~S113と同様にして、類似度の算出、及びフレームレートの設定を行う。
 動作制御部232によるフレームレートの設定後、制御部23は、新たな画像データが生成されたか否かを判断する(ステップS414)。制御部23は、新たな画像データの生成があると判断すると(ステップS414:Yes)、ステップS401に戻り、その時点で最新の画像データをn番目の画像データとして、上述した処理を繰り返す。これに対し、制御部23は、新たな画像データの生成がなければ(ステップS414:No)、画像データ取得処理を終了する。
 以上説明した本変形例4によれば、上述した実施の形態1と同様の効果を得ることができ、さらに、G画素を用いて画像が判定に適しているか否かを判断するようにしたので、画像の明るさを選別することができ、白飛びが発生した画像を制御対象から排除することができる。
 なお、上述した変形例3、4では、R画素又はG画素の代表値として、画素値の平均値等を用いるものとして説明したが、予め設定した値以上の画素値を有するR画素又はG画素の画素数を代表値としてもよい。
(実施の形態2)
 続いて、本発明の実施の形態2について説明する。図10は、本発明の実施の形態2に係るカプセル型内視鏡システムの概略構成を示すブロック図である。本実施の形態2に係るカプセル型内視鏡システム1Aは、上述したカプセル型内視鏡システム1に対し、カプセル型内視鏡2に代えてカプセル型内視鏡2Bを備える点で異なる。その他の構成は、カプセル型内視鏡システム1と同様である。以下、上述した実施の形態1とは異なる構成及び処理について、図10、11を参照して説明する。
 カプセル型内視鏡2Bは、撮像部21、照明部22、制御部23、無線通信部24、アンテナ25、メモリ26、電源部27及び画像処理部28を備える。すなわち、カプセル型内視鏡2に対して、画像処理部28をさらに備える点で異なっている。以下、カプセル型内視鏡2とは異なる構成である画像処理部28についてのみ説明する。
 画像処理部28は、メモリ26に記憶された所定のプログラムを読み込むことにより、撮像部21が生成した画像データに対応する画像を作成するための所定の画像処理を施す。また、画像処理部28は、画像処理後の画像データの画素値(輝度値)を用いて、当該画像データにおける特徴点を抽出するとともに、その特徴点の代表となる値を算出する。特徴点は、極大値又は極小値を有する画素の集合領域や、周囲の輝度値との差が大きい輝度値を有する画素の集合領域などである。特徴点の代表となる値としては、例えば、特徴点に含まれる輝度値の平均値又は最頻値である。特徴点の代表となる値は、画素数等、特徴点の領域を示す値としてもよい。画像処理部28は、CPUやASIC等のプロセッサによって実現される。なお、特徴点は、輝度のほか、明度や色相をもとに抽出してもよい。
 続いて、カプセル型内視鏡2Bが実行する画像データ取得処理について説明する。図11は、本発明の実施の形態2に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。以下、制御部23の制御のもと、各部が動作するものとして説明する。
 制御部23は、撮像部21に撮像処理を開始させ、n番目の画像データを取得する(ステップS501)。
 ステップS501に続くステップS502において、判定部231は、ステップS501で取得したn番目の画像データから、特徴点を抽出して特徴点の値を算出した後、この特徴点の値が閾値以上であるか否かを判断する。ここで、制御部23は、判定部231が、特徴点の値が閾値より小さいと判断した場合(ステップS502:No)、ステップS503に移行する。
 ステップS503において、制御部23は、カウンタnを1増加させ、ステップS501に戻る。
 一方、ステップS502において、判定部231が、特徴点の値が閾値以上であると判断した場合(ステップS502:Yes)、ステップS504に移行する。
 ステップS504において、判定部231は、このn番目の画像データを第1画像データに設定する。
 ステップS504に続くステップS505において、制御部23は、m(>n)番目の画像データを取得する。
 ステップS505に続くステップS506~S509では、判定部231が、ステップS505で取得したm番目の画像データにおける特徴点の値が、第1画像データの特徴点の値と一致するか否かを判断する。ここで、制御部23は、判定部231が、特徴点の値が第1画像データの特徴点の値と一致する判定した場合(ステップS506:No)、ステップS507に移行する。m番目の画像データの特徴点の値が第1画像データの特徴点の値と一致すれば、このm番目の画像データは、第1画像データに対して、単純にカプセルが撮像部21の光軸のまわりに回転しただけの画像であると判断することができる。なお、ここでの「一致」は、第1画像データの特徴点の値から±数%の範囲を含むようにしてもよい。
 ステップS507において、判定部231は、当該第2画像データの設定のための判定回数が予め設定されている回数である閾値以下であるか否かを判断する。ここで、判定部231は、判定回数が閾値より大きいと判断した場合(ステップS507:No)、ステップS501に戻り、第1画像データの設定からやり直す。一方、制御部23は、判定部231が、判定回数が閾値以下であると判断した場合(ステップS507:Yes)、ステップS508に移行する。
 ステップS508において、制御部23は、カウンタmを1増加させ、ステップS505に戻る。
 一方、ステップS506において、判定部231が、特徴点の値が、第1画像データの特徴点の値と異なると判定した場合(ステップS506:Yes)、ステップS509に移行する。
 ステップS509において、判定部231は、このm番目の画像データを第2画像データに設定する。
 ステップS509に続くステップS510~S513において、動作制御部232は、図4に示すステップS110~S113と同様にして、類似度の算出、及びフレームレートの設定を行う。なお、類似度は、画像データ全体の輝度値等を用いて算出してもよいし、特徴点の輝度値のみを用いて算出してもよい。
 動作制御部232によるフレームレートの設定後、制御部23は、新たな画像データが生成されたか否かを判断する(ステップS514)。制御部23は、新たな画像データの生成があると判断すると(ステップS514:Yes)、ステップS501に戻り、その時点で最新の画像データをn番目の画像データとして、上述した処理を繰り返す。これに対し、制御部23は、新たな画像データの生成がなければ(ステップS514:No)、画像データ取得処理を終了する。
 以上説明した本実施の形態2によれば、上述した実施の形態1と同様の効果を得ることができ、さらに、特徴点を用いて画像がフレームレートの制御に適しているか否かを判断するようにしたので、単純にカプセルが撮像部21の光軸のまわりに回転しただけの画像を制御対象から排除することができる。
(実施の形態3)
 続いて、本発明の実施の形態3について説明する。図12は、本発明の実施の形態3に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。本実施の形態3に係るカプセル型内視鏡システムは、上述したカプセル型内視鏡システム1と同様である。以下、上述した実施の形態1とは異なる処理について、図12を参照して説明する。本実施の形態3では、画像データに基づいて、フレームレートではなく、無線信号の送信処理を制御する。
 本実施の形態3では、図4に示すステップS101~S104と同様にして、制御部23が、n番目の画像データを第1画像データに設定する(ステップS601~S604)。
 その後、図4に示すステップS105~S109と同様にして、m番目の画像データを第2画像データに設定する(ステップS605~S609)。
 ステップS609に続くステップS610において、動作制御部232は、図4に示すステップS110と同様にして、類似度の算出を行う。
 ステップS610に続くステップS611において、動作制御部232は、算出された類似度が、閾値以下であるか否かを判断する。この際、動作制御部232は、類似度が閾値以下であると判断した場合(ステップS611:Yes)、ステップS612に移行する。
 ステップS612において、動作制御部232は、無線信号の送信モードを間欠送信モードに設定する。動作制御部232は、送信モードを間欠送信モードに設定すると、撮像部21が生成した画像データを間引いて無線送信する制御を行う。これにより、類似性の高い画像データであって、被写体像が似ている画像データについては、送信する画像データの数を抑制した送信処理が行われる。
 一方、ステップS611において、動作制御部232は、類似度が閾値より大きいと判断した場合(ステップS611:No)、ステップS613に移行する。
 ステップS613において、動作制御部232は、無線信号の送信モードを通常送信モードに設定する。動作制御部232は、送信モードを通常送信モードに設定すると、撮像部21が生成した画像データを間引かずに順次無線送信する制御を行う。これにより、類似性の低い画像データであって、被写体像が異なる画像データについては、生成された画像データが順次送信される。
 動作制御部232による送信モードの設定後、制御部23は、新たな画像データが生成されたか否かを判断する(ステップS614)。制御部23は、新たな画像データの生成があると判断すると(ステップS614:Yes)、ステップS601に戻り、その時点で最新の画像データをn番目の画像データとして、上述した処理を繰り返す。これに対し、制御部23は、新たな画像データの生成がなければ(ステップS614:No)、画像データ取得処理を終了する。
 以上説明した本実施の形態3では、画像データを取得した際の照明光の発光時間から、送信モードの設定に用いる画像として適切か否かを判断し、適切と判断された二つの画像の類似度を算出し、算出結果をもとに無線送信の制御を行うようにした。本実施の形態3によれば、カプセル型内視鏡により撮像された画像データのうち、制御対象として適切な画像を用いて動作制御を行うため、当該カプセル型内視鏡の動作を適切に制御することができる。また、本実施の形態3によれば、間引いて無線送信を行うことにより、電源部27の消耗を抑制することができる。
(実施の形態4)
 続いて、本発明の実施の形態4について説明する。図13は、本発明の実施の形態4に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。本実施の形態4に係るカプセル型内視鏡システムは、上述したカプセル型内視鏡システム1と同様である。以下、上述した実施の形態1とは異なる処理について、図13を参照して説明する。本実施の形態4では、画像データに基づいて、フレームレートではなく、カプセル型内視鏡2における電源を制御する。
 本実施の形態4では、図4に示すステップS101~S104と同様にして、制御部23が、n番目の画像データを第1画像データに設定する(ステップS701~S704)。
 その後、図4に示すステップS105~S109と同様にして、m番目の画像データを第2画像データに設定する(ステップS705~S709)。
 ステップS709に続くステップS710において、動作制御部232は、図4に示すステップS110と同様にして、類似度の算出を行う。
 ステップS710に続くステップS711において、動作制御部232は、算出された類似度が、閾値以下であるか否かを判断する。この際、動作制御部232は、類似度が閾値以下であると判断した場合(ステップS711:Yes)、ステップS712に移行する。
 ステップS712において、動作制御部232は、カプセル型内視鏡2における電源供給モードを間欠供給モードに設定する。動作制御部232は、電源供給モードを間欠供給モードに設定すると、予め設定された間隔で間欠的に電源供給が停止し、撮像部21による画像データの生成、及び無線通信部24による無線通信を間欠的に停止させる制御を行う。間欠供給モードでは、撮像部21及び照明部22、並びに無線通信部24のうちの少なくとも一つの電源供給が制御される。これにより、類似性の高い画像であって、被写体像が似ている画像について、生成及び送信される画像データの数が抑制される。
 一方、ステップS711において、動作制御部232は、類似度が閾値より大きいと判断した場合(ステップS711:No)、ステップS713に移行する。
 ステップS713において、動作制御部232は、電源供給モードを通常供給モードに設定する。動作制御部232は、電源供給モードを通常供給モードに設定すると、撮像部21による画像データの生成、及び無線通信部24による無線通信を停止させずに、連続的に実行させる制御を行う。これにより、類似性の低い画像であって、被写体像が異なる画像については、その画像に対応する画像データが順次送信される。
 動作制御部232による電源供給モードの設定後、制御部23は、新たな画像データが生成されたか否かを判断する(ステップS714)。制御部23は、新たな画像データの生成があると判断すると(ステップS714:Yes)、ステップS701に戻り、その時点で最新の画像データをn番目の画像データとして、上述した処理を繰り返す。これに対し、制御部23は、新たな画像データの生成がなければ(ステップS714:No)、画像データ取得処理を終了する。
 以上説明した本実施の形態4では、画像データを取得した際の照明光の発光時間から、電源供給モードの設定に用いる画像として適切か否かを判断し、適切と判断された二つの画像の類似度を算出し、算出結果をもとに電源供給の制御を行うようにした。本実施の形態4によれば、カプセル型内視鏡により撮像された画像データのうち、制御対象として適切な画像データを用いて動作制御を行うため、当該カプセル型内視鏡の動作を適切に制御することができる。また、本実施の形態4によれば、間欠的な電源供給を行うことにより、電源部27の消耗を抑制することができる。
(実施の形態5)
 続いて、本発明の実施の形態5について説明する。図14は、本発明の実施の形態5に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。本実施の形態5に係るカプセル型内視鏡システムは、上述したカプセル型内視鏡システム1と同様である。以下、上述した実施の形態1とは異なる処理について、図14を参照して説明する。本実施の形態5では、画像データに基づいて、フレームレートの設定ではなく、撮像処理自体を一時的に停止するか否かの制御を行う。
 本実施の形態5では、図4に示すステップS101~S104と同様にして、制御部23が、n番目の画像データを第1画像データに設定する(ステップS801~S804)。
 その後、図4に示すステップS105~S109と同様にして、m番目の画像データを第2画像データに設定する(ステップS805~S809)。
 ステップS809に続くステップS810において、動作制御部232は、図4に示すステップS110と同様にして、類似度の算出を行う。
 ステップS810に続くステップS811において、動作制御部232は、算出された類似度が、閾値以下であるか否かを判断する。この際、動作制御部232は、類似度が閾値以下であると判断した場合(ステップS811:Yes)、ステップS812に移行する。
 ステップS812において、動作制御部232は、撮像部21による撮像モードを間欠撮像モードに設定する。動作制御部232は、撮像モードを間欠撮像モードに設定すると、予め設定されたフレーム数分の撮像処理を停止して、撮像部21による画像データの生成、及び無線通信部24による無線通信を間欠的に停止させる制御を行う。これにより、類似性の高い画像であって、被写体像が似ている画像について、生成及び送信される画像データの数が抑制される。
 一方、ステップS811において、動作制御部232は、類似度が閾値より大きいと判断した場合(ステップS811:No)、ステップS813に移行する。
 ステップS813において、動作制御部232は、撮像モードを通常撮像モードに設定する。動作制御部232は、撮像モードを通常撮像モードに設定すると、撮像部21による画像データの生成、及び無線通信部24による無線通信を停止させずに、連続的に実行させる制御を行う。これにより、類似性の低い画像であって、被写体像が異なる画像については、その画像に対応する画像データが順次送信される。
 動作制御部232による撮像モードの設定後、制御部23は、新たな画像データが生成されたか否かを判断する(ステップS814)。制御部23は、新たな画像データの生成があると判断すると(ステップS814:Yes)、ステップS801に戻り、その時点で最新の画像データをn番目の画像データとして、上述した処理を繰り返す。これに対し、制御部23は、新たな画像データの生成がなければ(ステップS814:No)、画像データ取得処理を終了する。
 以上説明した本実施の形態5では、画像データを取得した際の照明光の発光時間から、撮像モードの設定に用いる画像として適切か否かを判断し、適切と判断された二つの画像の類似度を算出し、算出結果をもとに撮像処理の制御を行うようにした。本実施の形態5によれば、カプセル型内視鏡により撮像された画像データのうち、制御対象として適切な画像データを用いて動作制御を行うため、当該カプセル型内視鏡の動作を適切に制御することができる。また、本実施の形態5によれば、間欠的な撮像処理を行うことにより、電源部27の消耗を抑制することができる。
 なお、上述した実施の形態5において、撮像部21による撮像動作の制御のほか、照明部22による照明光の出射制御をおこなってもよい。例えば、間欠撮像モードに設定された場合には、照明部22による照明光の強度を低減させたり、単位時間当たりの発光回数を制御したりする。
(実施の形態6)
 続いて、本発明の実施の形態6について説明する。図15は、本発明の実施の形態6に係るカプセル型内視鏡システムの概略構成を示すブロック図である。本実施の形態6に係るカプセル型内視鏡システム1Bは、上述したカプセル型内視鏡システム1に対し、カプセル型内視鏡2に代えてカプセル型内視鏡2Cを備える点で異なる。その他の構成は、カプセル型内視鏡システム1と同様である。以下、上述した実施の形態1とは異なる構成及び処理について、図15、16を参照して説明する。
 カプセル型内視鏡2Cは、撮像部21、照明部22、制御部23、無線通信部24、アンテナ25、メモリ26、電源部27及びセンサ29を備える。すなわち、カプセル型内視鏡2に対して、センサ29をさらに備える点で異なっている。以下、カプセル型内視鏡2とは異なる構成であるセンサ29についてのみ説明する。
 センサ29は、カプセル型内視鏡2Cに加わる圧力を検出する圧力センサである。センサ29は、外部からの荷重に応じて変形した隔膜の変形量に応じた値を検出値として出力する。センサ29は、例えば、隔膜の変形に応じて変化する静電容量の変化を検出し、この変化を検出値に変換して出力する。なお、センサ29は、圧力センサのほか、加速度センサ、地磁気センサ、pHセンサ等であってもよい。
 続いて、カプセル型内視鏡2Cが実行する画像データ取得処理について説明する。図16は、本発明の実施の形態6に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。以下、制御部23の制御のもと、各部が動作するものとして説明する。
 制御部23は、撮像部21に撮像処理を開始させ、n番目の画像データを取得する(ステップS901)。本実施の形態6では、各画像データにおいて、撮像時に検出されたセンサ29の検出値が付与されている。
 ステップS901に続くステップS902において、判定部231は、ステップS901で取得したn番目の画像データから、センサ29の検出値を抽出し、この検出値が閾値以上であるか否かを判断する。ここで、制御部23は、判定部231が、検出値が閾値より小さいと判断した場合(ステップS902:No)、ステップS903に移行する。検出値が閾値より小さい場合は、カプセル型内視鏡2Cが存在している空間が広いと判断することができる。被検体Hにおいて空間が広い部位は、例えば胃等である。
 ステップS903において、制御部23は、カウンタnを1増加させ、ステップS901に戻る。
 一方、ステップS902において、判定部231が、検出値が閾値以上であると判断した場合(ステップS902:Yes)、ステップS904に移行する。検出値が閾値以上である場合は、カプセル型内視鏡2Cが存在している空間が狭いと判断することができる。被検体Hにおいて空間が狭い部位は、例えば小腸等である。
 ステップS904において、判定部231は、このn番目の画像データを第1画像データに設定する。
 ステップS904に続くステップS905において、制御部23は、m(>n)番目の画像データを取得する。
 ステップS905に続くステップS906~S909では、判定部231が、ステップS905で取得したm番目の画像データにおけるセンサ29の検出値が閾値以上であるか否かを判断する。ここで、制御部23は、判定部231が、検出値が閾値より小さいと判定した場合(ステップS906:No)、ステップS907に移行する。
 ステップS907において、判定部231は、当該第2画像データの設定のための判定回数が予め設定されている回数である閾値以下であるか否かを判断する。ここで、判定部231は、判定回数が閾値より大きいと判断した場合(ステップS907:No)、ステップS901に戻り、第1画像データの設定からやり直す。一方、制御部23は、判定部231が、判定回数が閾値以下であると判断した場合(ステップS907:Yes)、ステップS908に移行する。
 ステップS908において、制御部23は、カウンタmを1増加させ、ステップS905に戻る。
 一方、ステップS906において、判定部231が、検出値が閾値以上であると判定した場合(ステップS906:Yes)、ステップS909に移行する。
 ステップS909において、判定部231は、このm番目の画像データを第2画像データに設定する。
 ステップS909に続くステップS910~S913において、動作制御部232は、図4に示すステップS110~S113と同様にして、類似度の算出、及びフレームレートの設定を行う。
 動作制御部232によるフレームレートの設定後、制御部23は、新たな画像データが生成されたか否かを判断する(ステップS914)。制御部23は、新たな画像データの生成があると判断すると(ステップS914:Yes)、ステップS901に戻り、その時点で最新の画像データをn番目の画像データとして、上述した処理を繰り返す。これに対し、制御部23は、新たな画像データの生成がなければ(ステップS914:No)、画像データ取得処理を終了する。
 以上説明した本実施の形態6では、画像データを取得した際のセンサ29の検出結果をもとにフレームレートの設定を行うようにした。本実施の形態6によれば、カプセル型内視鏡の外部環境に応じて動作制御を行うため、当該カプセル型内視鏡の動作を適切に制御することができる。
 なお、本発明の実施の形態6において、判定部231が、n番目の画像データのセンサの検出値と、n+1番目の画像データのセンサの検出値との差分を算出し、算出した差分と閾値とを比較することによってカプセル型内視鏡2が存在している空間の変化を検出することによって、フレームレートを設定するための画像データとするか否かを判断するようにしてもよい。
(実施の形態7)
 続いて、本発明の実施の形態7について説明する。図17は、本発明の実施の形態7に係るカプセル型内視鏡システムの概略構成を示すブロック図である。本実施の形態7に係るカプセル型内視鏡システム1Cは、上述したカプセル型内視鏡システム1に対し、カプセル型内視鏡2に代えてカプセル型内視鏡2Dを備えるとともに、受信装置4に代えて受信装置4Aを備える点で異なる。その他の構成は、カプセル型内視鏡システム1と同様である。以下、上述した実施の形態1とは異なる構成及び処理について、図17、18を参照して説明する。
 カプセル型内視鏡2Dは、撮像部21、照明部22、制御部23、無線通信部24、アンテナ25、メモリ26及び電源部27を備える。また、制御部23において、判定部231及び動作制御部232を有しない。すなわち、カプセル型内視鏡2に対して、判定部231及び動作制御部232を有しない点で異なっている。
 受信装置4Aは、受信部401、受信強度測定部402、操作部403、データ送受信部404、出力部405、記憶部406、制御部407、電源部408、判定部409及び制御情報生成部410を備える。すなわち、受信装置4に対して、判定部409及び制御情報生成部410をさらに備える点で異なっている。以下、受信装置4とは異なる構成である判定部409及び制御情報生成部410についてのみ説明する。
 判定部409は、上述した判定部231と同様にして、受信装置4Aが受信した画像データのノイズレベルをもとに、フレームレートを制御するために用いる画像として適切か否かを判定することによって、二つの画像データを選択する。判定部409は、受信装置4Aが受信した無線信号からS/N比(dB)を算出し、このS/N比の逆数をノイズレベルとする。判定部409は、CPUやASIC等のプロセッサによって実現される。
 制御情報生成部410は、上述した動作制御部232と同様にして、判定部409により選択された二つの画像の類似度を算出し、この類似度と、記憶部406に予め記憶されている閾値とを比較する。制御情報生成部410は、類似度と閾値との比較結果に応じて、撮像部21のフレームレートに関する制御情報を生成する。制御情報生成部410は、CPUやASIC等のプロセッサによって実現される。
 続いて、カプセル型内視鏡システム1Cが実行する画像データ取得処理について説明する。図18は、本発明の実施の形態7に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。
 受信装置4Aの制御部407は、撮像部21に撮像処理を開始させ、n番目の画像データを取得する(ステップS1001)。
 ステップS1001に続くステップS1002において、判定部409は、ステップS1001で取得したn番目の画像データを受信した際の無線信号のS/N比の逆数をとってノイズレベルとし、このノイズレベルが閾値以下であるか否かを判断する。ここで、制御部407は、判定部409が、ノイズレベルが閾値より大きいと判断した場合(ステップS1002:No)、ステップS1103に移行する。
 ステップS1003において、制御部407は、カウンタnを1増加させ、ステップS1001に戻る。
 一方、ステップS1002において、判定部409が、ノイズレベルが閾値以下であると判断した場合(ステップS1002:Yes)、ステップS1004に移行する。
 ステップS1004において、判定部409は、このn番目の画像データを第1画像データに設定する。
 ステップS1004に続くステップS1005において、制御部407は、m(>n)番目の画像データを取得する。
 ステップS1005に続くステップS1006では、判定部409が、ステップS1005で取得したm番目の画像データにおけるノイズレベルが閾値以上であるか否かを判断する。ここで、制御部407は、判定部409が、ノイズレベルが閾値より大きいと判定した場合(ステップS1006:No)、ステップS1007に移行する。
 ステップS1007において、判定部409は、当該第2画像データの設定のための判定回数が予め設定されている回数である閾値以下であるか否かを判断する。ここで、判定部409は、判定回数が閾値より大きいと判断した場合(ステップS1007:No)、ステップS1001に戻り、第1画像データの設定からやり直す。一方、制御部407は、判定部409が、判定回数が閾値以下であると判断した場合(ステップS1007:Yes)、ステップS1008に移行する。
 ステップS1008において、制御部407は、カウンタmを1増加させ、ステップS1005に戻る。
 一方、ステップS1006において、判定部409が、ノイズレベルが閾値以下であると判定した場合(ステップS1006:Yes)、ステップS1009に移行する。
 ステップS1009において、判定部409は、このm番目の画像データを第2画像データに設定する。
 ステップS1009に続くステップS1010~S1013において、制御情報生成部410は、図4に示すステップS110~S113と同様にして、類似度の算出、及びフレームレートの設定を行う。
 ステップS1012又はS1013に続くステップS1014において、制御情報生成部410は、設定したフレームレートに関する制御情報を生成し、この制御情報をカプセル型内視鏡2Dに出力する。これにより、受信装置4Aにおいて設定したフレームレートによって、カプセル型内視鏡2Dの撮像処理が制御される。
 制御情報生成部410による制御情報の出力後、制御部407は、新たな画像データが生成されたか否かを判断する(ステップS1015)。制御部407は、新たな画像データの生成があると判断すると(ステップS1015:Yes)、ステップS1001に戻り、その時点で最新の画像データをn番目の画像データとして、上述した処理を繰り返す。これに対し、制御部407は、新たな画像データの生成がなければ(ステップS1015:No)、画像データ取得処理を終了する。
 以上説明した本実施の形態7によれば、受信装置4Aによる制御を行う場合であっても、上述した実施の形態1と同様の効果を得ることができる。
 なお、上述した実施の形態7において、カプセル型内視鏡2Dに動作制御部232を設けて、判定部409による判定結果をカプセル型内視鏡2Dに送信し、カプセル型内視鏡2Dにおいて、判定結果に基づく撮像制御を行うようにしてもよい。
(実施の形態7の変形例)
 続いて、本発明の実施の形態7の変形例について説明する。図19は、本発明の実施の形態7の変形例に係るカプセル型内視鏡システムが行う画像データ取得処理を示すフローチャートである。本変形例に係るカプセル型内視鏡システムは、上述したカプセル型内視鏡システム1Cと同様である。以下、上述した実施の形態7とは異なる処理について、図19を参照して説明する。
 制御部407は、撮像部21に撮像処理を開始させ、n番目の画像データを取得する(ステップS1101)。
 ステップS1101に続くステップS1102において、判定部409は、ステップS1101で取得したn番目の画像データに対応するRSSIが閾値以上であるか否かを判断する。ここで、制御部407は、判定部409が、RSSIが閾値より小さいと判断した場合(ステップS1102:No)、ステップS1103に移行する。
 ステップS1103において、制御部407は、カウンタnを1増加させ、ステップS1201に戻る。
 一方、ステップS1102において、判定部409が、RSSIが閾値以上であると判断した場合(ステップS1102:Yes)、ステップS1104に移行する。
 ステップS1104において、判定部409は、このn番目の画像データを第1画像データに設定する。
 ステップS1104に続くステップS1105において、制御部407は、m(>n)番目の画像データを取得する。
 ステップS1105に続くステップS1106では、判定部409が、ステップS1105で取得したm番目の画像データに対応するRSSIが閾値以上であるか否かを判断する。ここで、制御部407は、判定部409が、RSSIが閾値より小さいと判定した場合(ステップS1106:No)、ステップS1107に移行する。
 ステップS1107において、判定部409は、当該第2画像データの設定のための判定回数が予め設定されている回数である閾値以下であるか否かを判断する。ここで、判定部409は、判定回数が閾値より大きいと判断した場合(ステップS1107:No)、ステップS1101に戻り、第1画像データの設定からやり直す。一方、制御部407は、判定部409が、判定回数が閾値以下であると判断した場合(ステップS1107:Yes)、ステップS1108に移行する。
 ステップS1108において、制御部407は、カウンタmを1増加させ、ステップS1105に戻る。
 一方、ステップS1106において、判定部409が、RSSIが閾値以上であると判定した場合(ステップS1106:Yes)、ステップS1109に移行する。
 ステップS1109において、判定部409は、このm番目の画像データを第2画像データに設定する。
 ステップS1109に続くステップS1110~S1114において、制御情報生成部410は、図18に示すステップS1010~S1014と同様にして、類似度の算出、フレームレートの設定、及び制御情報の出力処理を行う。
 制御情報生成部410による制御情報の出力後、制御部407は、新たな画像データが生成されたか否かを判断する(ステップS1115)。制御部407は、新たな画像データの生成があると判断すると(ステップS1115:Yes)、ステップS1101に戻り、その時点で最新の画像データをn番目の画像データとして、上述した処理を繰り返す。これに対し、制御部407は、新たな画像データの生成がなければ(ステップS1115:No)、画像データ取得処理を終了する。
 以上説明した本変形例によれば、受信強度(RSSI)を用いた場合であっても、上述した実施の形態7と同様の効果を得ることができる。なお、上述したノイズレベル、RSSIのほか、突出した輝度値を有する画素の数に相当するちらつきノイズの数や、誤り訂正の回数などを用いてもよい。
 ここまで、本発明を実施するための形態を説明してきたが、本発明は上述した実施の形態及び変形例によってのみ限定されるべきものではない。本発明は、以上説明した実施の形態及び変形例には限定されず、特許請求の範囲に記載した技術的思想を逸脱しない範囲内において、様々な実施の形態を含みうるものである。また、実施の形態及び変形例の構成を適宜組み合わせてもよい。
 また、本実施の形態1~7に係るカプセル型内視鏡システムのカプセル型内視鏡、受信装置、処理装置の各構成部で実行される各処理に対する実行プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよく、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、インターネット等のネットワーク経由で提供又は配布するように構成してもよい。
 また、上述した実施の形態1~7のほか、受信強度(RSSI)が最も高いアンテナに変化がない場合は、カプセル型内視鏡の存在位置に変化がないものとしてフレームレートを基準値や低速値に設定してもよいし、同期信号を受信できなかった画像データについては、制御対象の画像データとして選択しないようにしてもよいし、前後のフレームにおいて、同期信号を受信できていなければ、その間に位置するフレームの画像データを制御対象の画像データとして選択しないようにしてもよい。
 また、上述した実施の形態1、2に係るフレームレートの設定処理を受信装置側で行うようにしてもよい。
 以上のように、本発明に係るカプセル型内視鏡システム、カプセル型内視鏡及び受信装置は、カプセル型内視鏡により撮像された画像を用いて、当該カプセル型内視鏡の動作を適切に制御するのに有用である。
 1、1A、1B、1C カプセル型内視鏡システム
 2、2A、2B、2C、2D カプセル型内視鏡
 3 受信アンテナユニット
 3a~3h 受信アンテナ
 4、4A 受信装置
 5 処理装置
 5a クレードル
 6 表示装置
 21 撮像部
 22 照明部
 23、53、407 制御部
 24 無線通信部
 25 アンテナ
 26 メモリ
 27、408 電源部
 28、52 画像処理部
 29 センサ
 51、404 データ送受信部
 54 表示制御部
 55 入力部
 56、406 記憶部
 231、409 判定部
 232 動作制御部
 401 受信部
 402 受信強度測定部
 403 操作部
 405 出力部
 410 制御情報生成部

Claims (16)

  1.  被写体に照明光を照射して、該被写体を撮像して画像を生成するカプセル型内視鏡を備えたカプセル型内視鏡システムであって、
     複数の前記画像のうちの判定対象の画像、又は前記判定対象の画像に関連付けられた関連情報に基づいて、当該判定対象の画像が、前記カプセル型内視鏡の動作を制御するために用いる二つの画像の一方として適しているか否かを判定する判定部、
     を備えることを特徴とするカプセル型内視鏡システム。
  2.  前記判定部は、前記二つの画像のうちの一方の画像を決定した後、該一方の画像よりも時系列的に前又は後の画像群から、前記二つの画像のうちの他方の画像を決定する
     ことを特徴とする請求項1に記載のカプセル型内視鏡システム。
  3.  前記判定部により適していると判定された前記二つの画像に基づいて、前記カプセル型内視鏡の動作を制御する制御部、
     をさらに備えることを特徴とする請求項2に記載のカプセル型内視鏡システム。
  4.  前記判定部は、前記画像を撮像した際の撮像情報に基づいて、前記判定対象の画像が、二つの画像の一方として適しているか否かを判定する
     ことを特徴とする請求項1に記載のカプセル型内視鏡システム。
  5.  前記判定部は、前記画像を生成した際の前記照明光の発光量に基づいて、前記判定対象の画像が、二つの画像の一方として適しているか否かを判定する
     ことを特徴とする請求項4に記載のカプセル型内視鏡システム。
  6.  前記判定部は、前記画像の画素情報に基づいて、前記判定対象の画像が、二つの画像の一方として適しているか否かを判定する
     ことを特徴とする請求項4に記載のカプセル型内視鏡システム。
  7.  前記判定部は、前記画像の画素情報のうち、残渣又は泡に関連する画素情報に基づいて、前記判定対象の画像が、二つの画像の一方として適しているか否かを判定する
     ことを特徴とする請求項6に記載のカプセル型内視鏡システム。
  8.  前記判定部は、前記二つの画像のうちの一方の画像を決定した後、該一方の画像の画素情報及び前記判定対象の画像の画素情報をもとに検出される前記一方の画像に対する前記判定対象の画像の撮像光軸のまわりの回転の有無に基づいて、前記二つの画像のうちの他方の画像を決定する
     ことを特徴とする請求項6に記載のカプセル型内視鏡システム。
  9.  前記カプセル型内視鏡は、当該カプセル型内視鏡の動作又は外部環境の情報を検出するセンサを有し、
     前記判定部は、前記センサの検出情報に基づいて、前記判定対象の画像が、二つの画像の一方として適しているか否かを判定する
     ことを特徴とする請求項1に記載のカプセル型内視鏡システム。
  10.  前記カプセル型内視鏡は、生成した前記画像を外部に無線送信する送信部を有し、
     前記送信部によって無線送信された前記画像を受信する受信部を有する受信装置、
     をさらに備え、
     前記判定部は、前記受信装置に設けられ、前記受信部が前記画像を受信した際の情報に基づいて、前記判定対象の画像が、二つの画像の一方として適しているか否かを判定する
     ことを特徴とする請求項1に記載のカプセル型内視鏡システム。
  11.  前記カプセル型内視鏡は、前記画像を生成する撮像部を有し、
     前記制御部は、前記カプセル型内視鏡の動作を制御するための画像として適していると判定された二つの画像に基づいて前記撮像部のフレームレートを制御する
     ことを特徴とする請求項3に記載のカプセル型内視鏡システム。
  12.  前記カプセル型内視鏡は、
     前記照明光を出射する照明部と、
     前記画像を生成する撮像部と、
     を有し、
     前記制御部は、前記カプセル型内視鏡の動作を制御するための画像として適していると判定された二つの画像に基づいて、前記撮像部による撮像動作、又は前記照明部による照明動作の少なくとも一方を制御する
     ことを特徴とする請求項3に記載のカプセル型内視鏡システム。
  13.  前記カプセル型内視鏡は、前記画像を外部に無線送信する送信部を有し、
     前記制御部は、前記カプセル型内視鏡の動作を制御するための画像として適していると判定された二つの画像に基づいて、前記送信部による送信動作を制御する
     ことを特徴とする請求項3に記載のカプセル型内視鏡システム。
  14.  前記カプセル型内視鏡は、当該カプセル型内視鏡の内部にある回路に電源を供給する電源部を有し、
     前記制御部は、前記カプセル型内視鏡の動作を制御するための画像として適していると判定された二つの画像に基づいて、前記電源部による電源供給動作を制御する
     ことを特徴とする請求項3に記載のカプセル型内視鏡システム。
  15.  被写体に照明光を照射して、該被写体を撮像して画像を生成するカプセル型内視鏡であって、
     複数の前記画像のうちの判定対象の画像、又は前記判定対象の画像に関連付けられた関連情報に基づいて、当該判定対象の画像が、前記カプセル型内視鏡の動作を制御するために用いる二つの画像の一方として適しているか否かを判定する判定部、
     を備えることを特徴とするカプセル型内視鏡。
  16.  被写体に照明光を照射して、該被写体を撮像して画像を生成するカプセル型内視鏡が無線送信した前記画像を受信する受信装置であって、
     複数の前記画像のうちの判定対象の画像、又は前記判定対象の画像に関連付けられた関連情報に基づいて、当該判定対象の画像が、前記カプセル型内視鏡の動作を制御するために用いる二つの画像の一方として適しているか否かを判定する判定部と、
     前記判定部により得られる情報から、前記カプセル型内視鏡の動作制御に関する制御情報を生成する生成部と、
     を備えることを特徴とする受信装置。
PCT/JP2018/021946 2017-09-15 2018-06-07 カプセル型内視鏡システム、カプセル型内視鏡及び受信装置 WO2019053973A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/807,603 US20200196845A1 (en) 2017-09-15 2020-03-03 Capsule endoscope system, capsule endoscope, and receiving device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017178160 2017-09-15
JP2017-178160 2017-09-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/807,603 Continuation US20200196845A1 (en) 2017-09-15 2020-03-03 Capsule endoscope system, capsule endoscope, and receiving device

Publications (1)

Publication Number Publication Date
WO2019053973A1 true WO2019053973A1 (ja) 2019-03-21

Family

ID=65723964

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/021946 WO2019053973A1 (ja) 2017-09-15 2018-06-07 カプセル型内視鏡システム、カプセル型内視鏡及び受信装置

Country Status (2)

Country Link
US (1) US20200196845A1 (ja)
WO (1) WO2019053973A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113660895A (zh) * 2019-04-10 2021-11-16 富士胶片株式会社 内窥镜***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016019707A (ja) * 2014-07-16 2016-02-04 オリンパス株式会社 カプセル型内視鏡、内視鏡システム及びカプセル型内視鏡の作動方法
WO2016084500A1 (ja) * 2014-11-28 2016-06-02 オリンパス株式会社 カプセル型内視鏡、カプセル型内視鏡起動システム、及び検査システム
WO2016088427A1 (ja) * 2014-12-02 2016-06-09 オリンパス株式会社 カプセル型内視鏡システム及びカプセル型内視鏡システムの作動方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016019707A (ja) * 2014-07-16 2016-02-04 オリンパス株式会社 カプセル型内視鏡、内視鏡システム及びカプセル型内視鏡の作動方法
WO2016084500A1 (ja) * 2014-11-28 2016-06-02 オリンパス株式会社 カプセル型内視鏡、カプセル型内視鏡起動システム、及び検査システム
WO2016088427A1 (ja) * 2014-12-02 2016-06-09 オリンパス株式会社 カプセル型内視鏡システム及びカプセル型内視鏡システムの作動方法

Also Published As

Publication number Publication date
US20200196845A1 (en) 2020-06-25

Similar Documents

Publication Publication Date Title
JP4914600B2 (ja) 生体内画像取得装置、受信装置および生体内情報取得システム
JP5388657B2 (ja) 画像処理装置、画像処理装置の作動方法、およびシステム
US11234578B2 (en) Receiving apparatus and radio wave interference determination method
US10932648B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
WO2016084467A1 (ja) カプセル型内視鏡及びカプセル型内視鏡システム
JP4701322B2 (ja) 被検体内導入装置および生体内情報取得システム
JP6132984B2 (ja) カプセル内視鏡システム及びその撮像方法
JPWO2016052175A1 (ja) 携帯型内視鏡システム及びプロセッサ
JPWO2010050400A1 (ja) 画像処理装置および画像処理方法
WO2015182185A1 (ja) カプセル型内視鏡装置
WO2019053973A1 (ja) カプセル型内視鏡システム、カプセル型内視鏡及び受信装置
JPWO2016067802A1 (ja) カプセル型内視鏡誘導システム、誘導装置、及び誘導装置の作動方法
CN109862820B (zh) 接收天线、接收天线单元以及接收***
WO2012165299A1 (ja) 受信装置及びカプセル型内視鏡システム
JP6230511B2 (ja) 内視鏡装置
JP6346721B1 (ja) カプセル型内視鏡、受信装置、カプセル型内視鏡の作動方法、及びカプセル型内視鏡の作動プログラム
WO2019171616A1 (ja) 受信装置及び受信方法
WO2019077837A1 (ja) 推定装置、医療システム、推定方法及び推定プログラム
JP2019201757A (ja) カプセル型内視鏡、カプセル型内視鏡システム及びカプセル型内視鏡の送信方法
WO2021176708A1 (ja) アンテナシステム、カプセル型内視鏡システム及びアンテナシステムの作動方法
JP2016077683A (ja) 受信装置およびカプセル型内視鏡システム
WO2019111470A1 (ja) 通信モジュール、カプセル型内視鏡及び受信ユニット
JP6275344B1 (ja) 動き判定装置、被検体内導入装置、動き判定方法及びプログラム
JP5815166B1 (ja) カプセル型内視鏡装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18856482

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18856482

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP