WO2018070246A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
WO2018070246A1
WO2018070246A1 PCT/JP2017/034920 JP2017034920W WO2018070246A1 WO 2018070246 A1 WO2018070246 A1 WO 2018070246A1 JP 2017034920 W JP2017034920 W JP 2017034920W WO 2018070246 A1 WO2018070246 A1 WO 2018070246A1
Authority
WO
WIPO (PCT)
Prior art keywords
endoscope
image processing
unit
time
type
Prior art date
Application number
PCT/JP2017/034920
Other languages
English (en)
French (fr)
Inventor
洋介 久重路
智樹 岩崎
山崎 健二
橋本 進
恭輔 水野
白石 裕
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2018502193A priority Critical patent/JP6301049B1/ja
Publication of WO2018070246A1 publication Critical patent/WO2018070246A1/ja
Priority to US16/382,277 priority patent/US10939093B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an image processing apparatus for an endoscope.
  • An electronic endoscope having an image sensor such as a CCD image sensor at the tip is known.
  • An image processing apparatus that processes image data acquired by such an endoscope and generates a display image is configured such that a plurality of types of endoscopes can be connected.
  • settings are made according to the connected endoscopes.
  • Japanese Patent Application Laid-Open No. 2008-149027 discloses a technique related to an image processing apparatus having the following functions. That is, the image processing apparatus acquires a scope ID from an endoscope on which a CCD image sensor is mounted. The image processing apparatus reads corresponding parameters from a table storing image processing parameters corresponding to the type of endoscope. The image processing apparatus writes to various function module registers in the image processor based on the read parameters. Various functional modules perform image processing corresponding to the connected scope according to the written parameters.
  • An object of the present invention is to provide an image processing apparatus for an endoscope that shortens a period during which no image display is performed.
  • an image processing apparatus includes a connection detection unit that detects a connection state of an endoscope, and an image processing unit that performs processing on image data obtained from the endoscope.
  • the image processing unit that can be configured according to the type of the endoscope and the endoscope connected this time and the endoscope connected last time are the same type when the endoscope is connected
  • the determination unit for determining whether or not the currently connected endoscope and the previously connected endoscope are of different types the image processing unit is reconfigured according to the type of the endoscope.
  • a reconfiguration control unit that does not reconfigure the image processing unit when the currently connected endoscope and the previously connected endoscope are of the same type.
  • an image processing apparatus for an endoscope that shortens a period during which no image display is performed.
  • FIG. 1 is a block diagram illustrating an outline of a configuration example of an endoscope system according to the first embodiment.
  • FIG. 2 is a flowchart illustrating an example of processing in the image processing apparatus according to the first embodiment.
  • FIG. 3 is a timing chart illustrating an example of processing of the endoscope system according to the first embodiment.
  • FIG. 4 is a block diagram illustrating an outline of a configuration example of an endoscope system according to the second embodiment.
  • the endoscope system is a system capable of connecting a plurality of types of endoscopes to an image processing apparatus.
  • the user uses the endoscope selected according to the application by connecting it to the image processing apparatus.
  • the image processing device performs different image processing depending on the connected endoscope, and displays an endoscopic image.
  • FIG. 1 shows an outline of a configuration example of an endoscope system 1 according to the present embodiment.
  • the endoscope system 1 includes an endoscope 210, an image processing apparatus 100, and a monitor 260.
  • the endoscope 210 is not limited to this, it is a medical flexible endoscope, for example.
  • the image processing apparatus 100 performs various types of image processing on image data acquired by imaging with the endoscope 210.
  • the monitor 260 includes a liquid crystal display, for example.
  • the monitor 260 displays an image based on the image data that has been subjected to image processing by the image processing apparatus 100.
  • the endoscope system 1 a plurality of types of endoscopes can be connected to the image processing apparatus 100.
  • the user uses the endoscope system 1 by connecting an endoscope according to the application to the image processing apparatus 100. For this reason, the endoscope 210 and the image processing apparatus 100 are detachable.
  • the configuration shown in FIG. 1 is common regardless of the type of endoscope.
  • the attachment and detachment between the endoscope 210 and the image processing apparatus 100 is not limited to being performed when the endoscope 210 is replaced.
  • the user may perform the following operation in order to eliminate the twist. .
  • the user may once perform an operation of removing the cable from the image processing apparatus 100, removing the twist of the cable, and then connecting the cable to the image processing apparatus 100 again.
  • the endoscope 210 includes an elongated insertion portion configured to be inserted into the body, for example.
  • An imaging unit 212 including, for example, a CCD image sensor is provided at the distal end of the insertion unit.
  • the imaging unit 212 generates image data.
  • the image data is transmitted to the image processing apparatus 100, and various processes are performed by the image processing apparatus 100.
  • the endoscope 210 includes a scope information storage unit 222 and a type information holding unit 224.
  • the scope information storage unit 222 includes, for example, a memory.
  • the scope information storage unit 222 stores scope information necessary for setting the endoscope 210.
  • the type information holding unit 224 has information related to the type of the endoscope 210.
  • the type information holding unit 224 may include, for example, a memory in which type information is recorded. Further, the type information holding unit 224 includes, for example, a resistance element having a predetermined resistance value determined in advance for each type, and the type may be determined by reading the resistance value.
  • the image processing apparatus 100 includes an image processing unit 110, an image output unit 120, a connection detection unit 130, a connection scope determination unit 140, a reconstruction control unit 150, a nonvolatile memory 152, and a scope information reading unit 160. And have.
  • the functions of the image processing unit 110, the image output unit 120, the connection detection unit 130, the connection scope determination unit 140, the reconstruction control unit 150, the scope information reading unit 160, and the like are realized using an integrated circuit or the like.
  • the image processing unit 110, the image output unit 120, the connection detection unit 130, the connection scope determination unit 140, the reconstruction control unit 150, the scope information reading unit 160, etc. may be realized using a single integrated circuit.
  • the integrated circuit may be used.
  • at least the image processing unit 110 is realized by a configurable circuit such as a field-programmable gate array (FPGA).
  • FPGA field-programmable gate array
  • the image processing unit 110 acquires image data from the imaging unit 212 of the endoscope 210.
  • the image processing unit 110 performs various processes on the acquired image data, and transmits the processed image data to the image output unit 120.
  • the image processing unit 110 includes a receiving unit 111, a parallelizing unit 112, a forming unit 113, a processing unit 114, and a transmitting unit 115.
  • the receiving unit 111 acquires image data from the imaging unit 212.
  • the parallelization unit 112 parallelizes image data received as serial data in order to perform parallel processing for each color, for example.
  • the forming unit 113 performs, for example, image forming.
  • the processing unit 114 performs data processing relating to an image such as noise removal and amplification.
  • the transmission unit 115 converts the processed data into an appropriate data format and outputs it to the image output unit 120. Processing performed in the image processing unit 110 differs depending on the type of the endoscope 210 connected to the image processing apparatus 100. For this reason, in this embodiment, the configuration of the image processing unit 110 is reconfigured according to the type of the endoscope 210.
  • the image output unit 120 transmits the image data after image processing acquired from the image processing unit 110 to a monitor 260 outside the image processing apparatus 100, and causes the monitor 260 to display an image based on the image data.
  • the connection detection unit 130 determines whether or not the endoscope 210 is connected to the image processing apparatus 100.
  • the connection detection unit 130 includes a type determination unit 131 and a type storage unit 132.
  • the connection detection unit 130 acquires information related to the type of the endoscope 210 connected to the image processing apparatus 100 from the type information holding unit 224 of the endoscope 210. Based on this information, the type determining unit 131 determines the type of the connected endoscope 210 when the endoscope 210 is connected to the image processing apparatus 100.
  • the type storage unit 132 stores information related to the determined type of the endoscope 210. That is, the type storage unit 132 stores the type of the endoscope 210 connected to the image processing apparatus 100 last time.
  • connection detection unit 130 transmits to the image output unit 120 information related to the fact that the endoscope 210 is not connected to the image processing apparatus 100, such as that the endoscope 210 is disconnected from the image processing apparatus 100. To do. Based on this information, the image output unit 120 stops outputting data to the monitor 260 when the endoscope 210 is not connected to the image processing apparatus 100.
  • the connection scope determination unit 140 compares the type of the endoscope 210 connected this time determined by the type determination unit 131 with the type of the endoscope 210 connected last time stored in the type storage unit 132, It is determined whether the endoscope 210 connected this time and the endoscope 210 connected last time are of the same type. When the endoscope 210 connected this time and the endoscope 210 connected last time are different types, the connection scope determination unit 140 reconfigures the image processing unit 110 according to the endoscope 210 connected this time. As described above, information related to the type of endoscope 210 connected this time is transmitted to the reconstruction control unit 150. On the other hand, the connection scope determination unit 140 performs reconfiguration control that the reconfiguration of the image processing unit 110 is not required when the endoscope 210 connected this time and the endoscope 210 connected last time are the same type. To the unit 150.
  • the reconfiguration control unit 150 When the reconfiguration control unit 150 obtains information from the connection scope determination unit 140 that the image processing unit 110 needs to be reconfigured, the reconfiguration control unit 150 reconfigures the image processing unit 110. At this time, the reconstruction control unit 150 acquires information related to the type of the endoscope 210 connected to the image processing apparatus 100 from the connection scope determination unit 140, and acquires setting information corresponding to the type from the memory 152. . The reconstruction control unit 150 reconfigures the image processing unit 110 based on the acquired setting information. On the other hand, when the reconstruction control unit 150 obtains information indicating that the reconstruction of the image processing unit 110 is unnecessary from the connection scope determination unit 140, the reconstruction processing unit 150 does not perform the reconstruction of the image processing unit 110.
  • the memory 152 stores various information necessary for processing of the image processing apparatus 100.
  • Information stored in the memory 152 includes information related to the reconstruction of the image processing unit 110. Further, the information stored in the memory 152 may include information related to the setting of the image processing unit 110 other than the circuit reconstruction. Information relating to the reconstruction and setting of the image processing unit 110 can be read by the reconstruction control unit 150.
  • the reconstruction control unit 150 causes the image processing unit 110 to, for example, an endoscope such as the type of image sensor used in the imaging unit 212 of the endoscope 210, the endoscope 210 being a three-dimensional endoscope, or the like.
  • a circuit corresponding to the special function 210 is configured.
  • the scope information reading unit 160 acquires scope information related to the setting of the endoscope 210 from the scope information storage unit 222 of the endoscope 210 when the endoscope 210 is connected to the image processing apparatus 100.
  • the scope information reading unit 160 performs various settings of the image processing unit 110 based on the acquired scope information.
  • the setting performed here may include a setting related to adjustment of individual differences of the endoscope 210. This setting may include, for example, correction related to individual variation, correction of image sensor defects, shading correction, and the like.
  • the scope information reading unit 160 may use information stored in the memory 152 in the setting of the image processing unit 110.
  • the reconstruction control unit 150 While the reconstruction control unit 150 performs the reconstruction and various settings of the image processing unit 110, the reconstruction control unit 150 transmits the fact to the image output unit 120, and outputs the data to the image output unit 120 to the monitor 260. Stop.
  • FIG. 2 is a flowchart illustrating an example of an initial setting process performed when the endoscope 210 is connected to the image processing apparatus 100 and an operation related to image output thereafter. This process starts when, for example, the image processing apparatus 100 is turned on and ends when the power is turned off.
  • step S101 the connection detection unit 130 of the image processing apparatus 100 determines whether or not the endoscope 210 is connected to the image processing apparatus 100.
  • the process repeats step S101 and stands by.
  • the process proceeds to step S102.
  • step S102 the connection detection unit 130 of the image processing apparatus 100 reads the type information from the type information holding unit 224 of the endoscope 210. At this time, when the image processing is performed in the image processing unit 110 after the second operation, the image processing unit 110 stops the image processing operation because of the setting of the image processing unit 110 performed later. To do.
  • step S103 the type determining unit 131 of the connection detecting unit 130 of the image processing apparatus 100 determines the type of the endoscope 210 connected to the image processing apparatus 100 based on the read type information.
  • the type of the endoscope 210 determined here is appropriately stored in the type storage unit 132.
  • step S104 the connection scope determination unit 140 of the image processing apparatus 100 determines whether or not the endoscope 210 connected to the image processing apparatus 100 is the same type as the endoscope 210 connected last time.
  • the connection scope determination unit 140 determines the type of the endoscope 210 connected this time determined by the type determination unit 131 of the connection detection unit 130 and the previously connected endoscope 210 stored in the type storage unit 132. Judgment is made by comparing with the type of.
  • the process proceeds to step S106.
  • the process proceeds to step S105.
  • step S105 the reconstruction control unit 150 of the image processing apparatus 100 reconfigures the image processing unit 110.
  • the reconstruction control unit 150 acquires information related to the type of the endoscope 210 connected from the connection scope determination unit 140.
  • the reconstruction control unit 150 acquires information related to the circuit of the image processing unit 110 corresponding to the acquired type of the endoscope 210 from the memory 152.
  • the reconstruction control unit 150 reconfigures the image processing unit 110 by changing the circuit configuration based on the information related to the circuit.
  • the process proceeds to step S106.
  • step S106 the scope information reading unit 160 of the image processing apparatus 100 reads the scope information related to the endoscope 210 from the scope information storage unit 222 of the endoscope 210.
  • step S107 the scope information reading unit 160 of the image processing apparatus 100 sets the image processing unit 110.
  • the scope information reading unit 160 uses the scope information acquired from the scope information storage unit 222 or uses information read from the memory 152 based on the scope information.
  • the process proceeds to step S108.
  • step S108 the image processing unit 110 of the image processing apparatus 100 starts image processing of the set contents for the image data input from the endoscope 210. That is, the image processing unit 110 sequentially acquires the image data obtained by imaging by the imaging unit 212, sequentially performs the set image processing on the obtained image data, and outputs the processed image data to the image output unit. Sequentially output to 120. The image processing unit 110 continues such image processing thereafter.
  • step S109 the reconstruction control unit 150 of the image processing apparatus 100 causes the image output unit 120 to start outputting image data based on the data input from the image processing unit 110 to the monitor 260. As a result, the image processed by the image processing unit 110 is continuously displayed on the monitor 260 thereafter.
  • step S110 the connection detection unit 130 of the image processing apparatus 100 determines whether or not the connection of the endoscope 210 to the image processing apparatus 100 has been released. Until the connection is released, an image acquired by the imaging unit 212 of the endoscope 210 and processed by the image processing unit 110 is displayed on the monitor 260. When the endoscope 210 is removed from the image processing apparatus 100 and the connection is released, the process proceeds to step S111.
  • step S111 the connection detection unit 130 of the image processing apparatus 100 causes the image output unit 120 to stop outputting the image to the monitor 260. Thereafter, the process returns to step S101. That is, the above process is repeated. This process is repeated until the image processing apparatus 100 is turned off.
  • the type of the endoscope 210 connected last time is compared with the type of the endoscope 210 connected this time, and when the type is different, the reconfiguration processing by the reconfiguration control unit 150 is performed. If the types are the same, the reconfiguration processing by the reconfiguration control unit 150 is not performed.
  • the operation of the endoscope system 1 according to the present embodiment will be described with reference to the timing chart shown in FIG.
  • the upper part (a) of FIG. 3 shows a timing chart of an example of processing when the type of endoscope connected to the image processing apparatus 100 last time and the type of endoscope connected this time are different.
  • the lower part (b) of FIG. 3 shows a timing chart of an example of processing when the type of endoscope connected to the image processing apparatus 100 last time and the type of endoscope connected this time are the same.
  • the first stage shows the connection state of the endoscope 210 to the image processing apparatus 100
  • the second stage shows the state of processing related to the image processing unit 110.
  • the third row shows the state of image output to the monitor 260.
  • an endoscope 210 is initially connected to the image processing apparatus 100, and the image processing unit 110 of the image processing apparatus 100 performs an image processing operation. It is assumed that the processed image is output.
  • the connection detection unit 130 detects the connection of the endoscope 210 during the period from time t2 to t3, acquires the type information of the endoscope 210 from the type information holding unit 224, and Determine the type.
  • the connection scope determination unit 140 determines whether or not the type of the connected endoscope 210 is the same as the type of the endoscope connected last time. Since the type of the connected endoscope 210 is different between the previous time and the current time, the reconstruction control unit 150 reconfigures the circuit of the image processing unit 110. The period during which this reconstruction is performed is the period from time t4 to t5. At time t5, the reconstruction of the image processing unit 110 is completed.
  • the scope information reading unit 160 reads the scope information from the scope information storage unit 222 of the endoscope 210.
  • the scope information reading unit 160 sets the image processing unit 110.
  • the setting of the image processing unit 110 is completed at time t7.
  • the image processing unit 110 performs image processing on the image data.
  • the reconstruction control unit 150 causes the image output unit 120 to output an image. As a result, the image processed by the image processing unit 110 is displayed on the monitor 260.
  • an endoscope 210 is initially connected to the image processing apparatus 100, and the image processing unit 110 of the image processing apparatus 100 performs an image processing operation. It is assumed that the processed image is output.
  • the connection between the image processing unit 110 and the endoscope 210 is released at time t1.
  • the connection detection unit 130 causes the image output unit 120 to stop outputting the image. As a result, no image is displayed on the monitor 260.
  • the endoscope 210 is connected to the image processing apparatus 100 at time t2.
  • connection detection unit 130 detects the connection of the endoscope 210 during the period from time t2 to t3, acquires the type information of the endoscope 210 from the type information holding unit 224, and Determine the type.
  • the connection scope determination unit 140 determines whether or not the type of the connected endoscope 210 is the same as the type of the endoscope connected last time.
  • the reconfiguration control unit 150 does not reconfigure the circuit of the image processing unit 110.
  • the scope information reading unit 160 reads the scope information from the scope information storage unit 222 of the endoscope 210, and the setting of the image processing unit 110 in the period from time t6 ′ to t7 ′. I do.
  • the setting of the image processing unit 110 is completed.
  • the image processing unit 110 performs image processing on the image data, and the monitor 260 receives the image processed by the image processing unit 110. Is displayed.
  • the upper stage (a) in FIG. 3 requires time for reconfiguring the circuit of the image processing unit 110 from time t4 to time t5. In the lower part (b) of FIG. 3, this process is omitted.
  • the image starts to be displayed on the monitor 260 at time t7 in the upper part (a) of FIG. 3, but at time t7 ′ in the lower part (b) of FIG. That is, as indicated by ⁇ t in FIG. 3, the image in the lower part (b) of FIG. 3 is displayed on the monitor 260 earlier by the time related to the reconfiguration of the circuit of the image processing unit 110.
  • the image processing apparatus 100 does not require reconfiguration of the image processing unit 110 when the connected endoscope 210 is the same type of endoscope as the previously connected endoscope 210. Therefore, this reconfiguration is not performed. As a result, the time from when the endoscope 210 is connected to the image processing apparatus 100 until the image is displayed on the monitor 260 is always shorter than when the image processing unit 110 is reconfigured.
  • the endoscope 210 when the endoscope 210 is temporarily disconnected and reconnected to eliminate twisting of a cable connecting the endoscope 210 and the image processing apparatus 100, the endoscope 210 is in use. Since it is in a state, the user wants to check the image on the monitor 260 as soon as possible.
  • the present embodiment is effective because the display on the monitor 260 starts early in such a case.
  • the time required for reconstruction which can be shortened, is, for example, about several hundred milliseconds or more. Note that the larger the circuit scale of the image processing unit 110, the longer the time required for reconfiguration. Therefore, the more complicated processing is required, the longer the time required for reconfiguration and the time that can be shortened. .
  • the image processing unit 110 is configured with an FPGA, and the circuit configuration of the image processing unit 110 is physically reconfigured.
  • the reconfiguration is not limited thereto. That is, the above-described technique can be applied not only when hardware is reconfigured but also when software is reconfigured. For example, even when the image processing unit 110 is realized using a digital signal processor (DSP), the above-described technique can be applied. That is, as the reconfiguration, the reconfiguration control unit 150 may write a program corresponding to the type of the endoscope 210 in a dedicated area of the DSP at the time of activation.
  • DSP digital signal processor
  • the image processing apparatus is configured such that the program is rewritten when the type of the connected endoscope 210 is different between the previous time and the current time, while the program is not rewritten when the type is the same between the previous time and the current time.
  • 100 may be configured. Even in such a configuration, the same effect as the above-described embodiment can be obtained.
  • connection scope determination unit 140 is connected this time as determined by the type determination unit 131 and the type of the endoscope 210 connected last time stored in the type storage unit 132 of the connection detection unit 130. The determination is made based on whether or not the type of the endoscope 210 matches.
  • the connection scope determination unit 140 determines the type of the endoscope 210 that was connected last time and the current time based on the time when the endoscope 210 is not connected to the image processing apparatus 100. It is determined whether or not the type of the connected endoscope 210 is the same.
  • FIG. 4 shows an outline of a configuration example of the endoscope system 1 according to the present embodiment.
  • the connection detection unit 130 of the image processing apparatus 100 is provided with an unconnected time measurement unit 136 instead of the type storage unit 132 provided in the first embodiment. ing.
  • the unconnected time measuring unit 136 measures the time from when the endoscope 210 is removed from the image processing apparatus 100 until it is connected again as the unconnected time.
  • the unconnected time measuring unit 136 transmits information regarding the obtained unconnected time to the connected scope determining unit 140.
  • the connection scope determination unit 140 determines that the type of the endoscope 210 connected last time is the same as the type of the endoscope 210 connected this time when the unconnected time is shorter than a predetermined time. On the other hand, the connection scope determination unit 140 determines that the type of the endoscope 210 connected last time is different from the type of the endoscope 210 connected this time when the unconnected time is equal to or longer than a predetermined time.
  • This determination is, for example, the process in step S104 in the process described with reference to FIG. Other operations are the same as those in the first embodiment. A configuration similar to that of the modification of the first embodiment can also be employed.
  • the cable connecting the image processing apparatus 100 and the endoscope 210 is twisted, and the endoscope 210 is removed from the image processing apparatus 100 in order to eliminate the twist. May be.
  • the time required for eliminating the twist is, for example, about ten or more seconds. Therefore, the threshold value for the determination related to the unconnected time performed by the connection scope determination unit 140 can be set to an appropriate time of about a few dozen seconds.
  • the connection scope determination unit 140 determines whether the removal of the endoscope 210 from the image processing apparatus 100 is temporary for eliminating the twist, that is, the type of the endoscope 210 does not change. Or other than that.
  • the endoscope system 1 can obtain the same effects as those of the first embodiment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)

Abstract

画像処理装置(100)は、接続検出部(130)と、画像処理部(110)と、接続スコープ判定部(140)と、再構成制御部(150)とを備える。接続検出部(130)は、内視鏡の接続状態を検知する。画像処理部(110)は、内視鏡(210)から得られた画像データに対して処理を施し、内視鏡の種別に応じて構成可能となっている。接続スコープ判定部(140)は、内視鏡(210)が接続された際に、今回接続された内視鏡と前回接続された内視鏡とが同じ種別であるか否かを判定する。再構成制御部(150)は、今回接続された内視鏡(210)と前回接続された内視鏡(210)とが異なる種別であるとき、内視鏡の種別に応じて画像処理部(110)を再構成し、今回接続された内視鏡と前回接続された内視鏡が同じ種別であるとき、画像処理部(110)の再構成を行わない。

Description

画像処理装置
 本発明は、内視鏡用の画像処理装置に関する。
 先端部にCCDイメージセンサ等の撮像素子を備えた電子内視鏡が知られている。このような内視鏡で取得された画像データを処理し表示画像を作成する画像処理装置は、複数種類の内視鏡が接続され得るように構成されている。複数種類の内視鏡が接続され得る画像処理装置では、接続された内視鏡に応じた設定がされる。
 例えば日本国特開2008-149027号公報には、次のような機能を有する画像処理装置に係る技術が開示されている。すなわち、画像処理装置は、CCDイメージセンサが搭載された内視鏡からスコープIDを取得する。画像処理装置は、内視鏡の種類に応じた画像処理のパラメータを格納したテーブルから、対応するパラメータを読み出す。画像処理装置は、読み出したパラメータに基づいて、画像プロセッサ内の各種の機能モジュール用のレジスタに書き込みを行う。各種の機能モジュールは、書き込まれたパラメータにより、接続されたスコープに対応した画像処理を行う。
 近年、内視鏡システムの映像処理機能が向上し、処理に用いられる回路規模が増加している。このため、初期設定時に行われる回路の再構成に要する時間は長くなる傾向にある。
 上述のような回路の再構成が行われている間は、内視鏡により得られた画像の表示は行われ得ない。このような画像の表示が行われない期間はできるだけ短い方がよい。
 本発明は、画像表示が行われない期間を短縮した内視鏡用の画像処理装置を提供することを目的とする。
 本発明の一態様によれば、画像処理装置は、内視鏡の接続状態を検知する接続検出部と、前記内視鏡から得られた画像データに対して処理を施す画像処理部であって、前記内視鏡の種別に応じて構成可能な画像処理部と、前記内視鏡が接続された際に、今回接続された内視鏡と前回接続された内視鏡とが同じ種別であるか否かを判定する判定部と、今回接続された内視鏡と前回接続された内視鏡とが異なる種別であるとき、前記内視鏡の種別に応じて前記画像処理部を再構成し、今回接続された内視鏡と前回接続された内視鏡とが同じ種別であるとき、前記画像処理部の再構成を行わない再構成制御部とを備える。
 本発明によれば、画像表示が行われない期間を短縮した内視鏡用の画像処理装置を提供できる。
図1は、第1の実施形態に係る内視鏡システムの構成例の概略を示すブロック図である。 図2は、第1の実施形態に係る画像処理装置における処理の一例を示すフローチャートである。 図3は、第1の実施形態に係る内視鏡システムの処理の一例を示すタイミングチャートである。 図4は、第2の実施形態に係る内視鏡システムの構成例の概略を示すブロック図である。
 [第1の実施形態]
 本発明の第1の実施形態について図面を参照して説明する。本実施形態に係る内視鏡システムは、画像処理装置に対して複数種類の内視鏡を接続することが可能なシステムである。ユーザは、用途に応じて選択した内視鏡を画像処理装置に接続して使用する。画像処理装置は、接続された内視鏡に応じて異なる画像処理を行い、内視鏡画像を表示する。
 〈内視鏡システムの構成〉
 図1は、本実施形態に係る内視鏡システム1の構成例の概略を示す。図1に示すように、内視鏡システム1は、内視鏡210と画像処理装置100とモニタ260とを備える。内視鏡210は、これに限定されないが、例えば、医療用の軟性内視鏡である。画像処理装置100は、内視鏡210による撮像で取得された画像データに対して各種画像処理を行う。モニタ260は、例えば液晶ディスプレイ等を含む。モニタ260は、画像処理装置100で画像処理が行われた画像データに基づいて、画像を表示する。
 内視鏡システム1において、画像処理装置100には、複数の種別の内視鏡が接続され得る。ユーザは、用途に応じた種別の内視鏡を画像処理装置100に接続して内視鏡システム1を用いる。このため、内視鏡210と画像処理装置100とは着脱自在となっている。図1に示す構成は、内視鏡の種別に限らず共通するものである。
 内視鏡210と画像処理装置100との着脱は、内視鏡210を交換する際に行われるに限らない。ユーザは、例えば内視鏡210の使用中に内視鏡210と画像処理装置100とを接続するケーブルが捻じれると、その捻じれを解消させるために、次のような操作を行うことがある。すなわち、ユーザは、一旦ケーブルを画像処理装置100から取り外し、ケーブルの捻じれを解消させた後に、再びケーブルを画像処理装置100に接続するといった操作を行うことがある。
 内視鏡210は、例えば体内に挿入されるように構成された細長形状をした挿入部を備える。挿入部の先端には、例えばCCDイメージセンサを含む撮像部212が設けられている。撮像部212は、画像データを生成する。この画像データは、画像処理装置100へと伝達され、画像処理装置100によって各種処理が施される。
 内視鏡210は、スコープ情報記憶部222と、種別情報保持部224とを備える。スコープ情報記憶部222は、例えばメモリを含む。スコープ情報記憶部222は、内視鏡210の設定に必要なスコープ情報を記憶している。種別情報保持部224は、内視鏡210の種別に係る情報を有している。種別情報保持部224は、例えば種別情報が記録されたメモリ等を含んでいてもよい。また、種別情報保持部224は例えば種別毎に予め決められた所定の抵抗値を有する抵抗素子を含んでおり、この抵抗値が読まれることで種別が判別されてもよい。
 画像処理装置100は、画像処理部110と、画像出力部120と、接続検出部130と、接続スコープ判定部140と、再構成制御部150と、不揮発性のメモリ152と、スコープ情報読取部160とを有する。画像処理部110、画像出力部120、接続検出部130、接続スコープ判定部140、再構成制御部150、スコープ情報読取部160等の機能は、集積回路等を用いて実現される。画像処理部110、画像出力部120、接続検出部130、接続スコープ判定部140、再構成制御部150、スコープ情報読取部160等は、1つの集積回路を用いて実現されてもよいし、複数の集積回路を用いて実現されてもよい。本実施形態では、少なくとも画像処理部110は、例えば、field-programmable gate array(FPGA)等の構成可能な回路で実現されている。
 画像処理部110は、内視鏡210の撮像部212から画像データを取得する。画像処理部110は、取得した画像データに対して各種処理を施し、処理後の画像データを画像出力部120へと伝達する。なお、画像処理部110は、受信部111と、パラレル化部112と、成形部113と、処理部114と、送信部115とを含む。受信部111は、撮像部212から画像データを取得する。パラレル化部112は、シリアルデータとして受信される画像データを例えば色毎に並列処理するためにパラレル化する。成形部113は、例えば画像成形等を行う。処理部114は、例えばノイズ除去、増幅等の画像に係るデータ処理を行う。送信部115は、処理後のデータを適切なデータ形式に変換して画像出力部120へと出力する。画像処理部110内で行われる処理は、画像処理装置100に接続された内視鏡210の種別に応じて異なる。このため、本実施形態では、画像処理部110の構成は、内視鏡210の種別に応じて再構成される。
 画像出力部120は、画像処理部110から取得した画像処理後の画像データを、画像処理装置100の外部のモニタ260へと伝達し、モニタ260に当該画像データに基づく画像を表示させる。
 接続検出部130は、画像処理装置100に内視鏡210が接続されたか否かを判定する。また、接続検出部130は、種別決定部131と種別記憶部132とを有する。接続検出部130は、内視鏡210の種別情報保持部224から画像処理装置100に接続された内視鏡210の種別に係る情報を取得する。この情報に基づいて、種別決定部131は、画像処理装置100に内視鏡210が接続された際に、接続された内視鏡210の種別を決定する。種別記憶部132は、決定された内視鏡210の種別に係る情報を記憶する。すなわち、種別記憶部132には、画像処理装置100に前回接続された内視鏡210の種別が記憶される。また、接続検出部130は、画像処理装置100から内視鏡210が外されたことなど、画像処理装置100に内視鏡210が接続されていないことに係る情報を画像出力部120へと伝達する。画像出力部120は、この情報に基づいて、画像処理装置100に内視鏡210が接続されていないときには、モニタ260へのデータの出力を停止する。
 接続スコープ判定部140は、種別決定部131によって決定された今回接続された内視鏡210の種別と、種別記憶部132に記憶された前回接続された内視鏡210の種別とを比較し、今回接続された内視鏡210と前回接続された内視鏡210とが同じ種別であるか否かを判定する。接続スコープ判定部140は、今回接続された内視鏡210と前回接続された内視鏡210とが異なる種別であるとき、今回接続された内視鏡210に応じて画像処理部110が再構成されるように、今回接続された内視鏡210の種別に係る情報を再構成制御部150へと伝達する。一方、接続スコープ判定部140は、今回接続された内視鏡210と前回接続された内視鏡210とが同じ種別であるとき、画像処理部110の再構成が不要である旨を再構成制御部150へと伝達する。
 再構成制御部150は、接続スコープ判定部140から画像処理部110の再構成が必要である旨の情報を得たとき、画像処理部110の再構成を行う。このとき、再構成制御部150は、接続スコープ判定部140から画像処理装置100に接続された内視鏡210の種別に係る情報を取得し、当該種別に応じた設定情報をメモリ152から取得する。再構成制御部150は、取得した設定情報に基づいて画像処理部110の再構成を行う。一方、再構成制御部150は、接続スコープ判定部140から画像処理部110の再構成が不要である旨の情報を得たとき、画像処理部110の再構成を行わない。
 メモリ152は、画像処理装置100の処理に必要な各種情報を記憶している。メモリ152に記憶されている情報には、画像処理部110の再構成に係る情報が含まれる。また、メモリ152に記憶されている情報には、回路の再構成以外の画像処理部110の設定に係る情報が含まれていてもよい。画像処理部110の再構成や設定に係る情報は、再構成制御部150によって読み出され得る。
 再構成制御部150によって、画像処理部110において、例えば、内視鏡210の撮像部212に用いられている撮像素子の種類、内視鏡210が3次元内視鏡である等といった内視鏡210の特殊機能等に応じた回路が構成される。
 スコープ情報読取部160は、画像処理装置100に内視鏡210が接続されたとき、内視鏡210のスコープ情報記憶部222から、内視鏡210の設定に係るスコープ情報を取得する。また、スコープ情報読取部160は、取得したスコープ情報に基づいて、画像処理部110の各種設定を行う。ここで行われる設定は、内視鏡210の個体差の調整に係る設定も含まれ得る。この設定には、例えば個体のばらつきに係る補正、撮像素子の欠陥の補正、シェーディング補正等が含まれ得る。スコープ情報読取部160は、画像処理部110の設定において、メモリ152に記憶された情報を用いてもよい。
 なお、再構成制御部150は、画像処理部110の再構成や各種設定を行っている間は、その旨を画像出力部120へと伝達し、画像出力部120にモニタ260へのデータの出力を停止させる。
 〈画像処理装置の動作〉
 図2は、画像処理装置100に内視鏡210が接続された際に行われる初期設定処理とその後の画像出力に係る動作の一例を示すフローチャートである。本処理は、例えば画像処理装置100の電源が投入されたときに開始し、電源が切られたときに終了する。
 ステップS101において、画像処理装置100の接続検出部130は、画像処理装置100に内視鏡210が接続されたか否かを判定する。画像処理装置100に内視鏡210が接続されていないとき、処理はステップS101を繰り返し、待機する。画像処理装置100に内視鏡210が接続されたとき、処理はステップS102に進む。
 ステップS102において、画像処理装置100の接続検出部130は、内視鏡210の種別情報保持部224から種別情報を読み取る。このとき、2回目以降の動作であり、画像処理部110において画像処理が行われている場合においては、以後に行われる画像処理部110の設定のため、画像処理部110は画像処理動作を停止する。
 ステップS103において、画像処理装置100の接続検出部130の種別決定部131は、読み取った種別情報に基づいて、画像処理装置100に接続された内視鏡210の種別を決定する。ここで決定された内視鏡210の種別は、種別記憶部132に適宜に記憶される。
 ステップS104において、画像処理装置100の接続スコープ判定部140は、画像処理装置100に接続された内視鏡210が前回接続された内視鏡210と同じ種別であるか否かを判定する。この際、接続スコープ判定部140は、接続検出部130の種別決定部131が決定した今回接続された内視鏡210の種別と、種別記憶部132に記憶された前回接続された内視鏡210の種別とを比較することで、判定を行う。前回接続された内視鏡210の種別と今回接続された内視鏡210の種別とが同じであるとき、処理はステップS106に進む。一方、前回接続された内視鏡210の種別と今回接続された内視鏡210の種別とが同じでないとき、処理はステップS105に進む。
 ステップS105において、画像処理装置100の再構成制御部150は、画像処理部110の再構成を行う。ここで、再構成制御部150は、接続スコープ判定部140から接続された内視鏡210の種別に係る情報を取得する。再構成制御部150は、取得した内視鏡210の種別に対応する画像処理部110の回路に係る情報をメモリ152から取得する。再構成制御部150は、この回路に係る情報に基づいて、画像処理部110の回路構成を変更して再構成する。画像処理部110の回路の再構成が終了したら、処理はステップS106に進む。
 ステップS106において、画像処理装置100のスコープ情報読取部160は、内視鏡210のスコープ情報記憶部222から、内視鏡210に係るスコープ情報を読み取る。
 ステップS107において、画像処理装置100のスコープ情報読取部160は、画像処理部110の設定を行う。この際、スコープ情報読取部160は、スコープ情報記憶部222から取得したスコープ情報を用いたり、当該スコープ情報に基づいてメモリ152から読み出した情報を用いたりする。画像処理部110の設定が完了したら、処理はステップS108に進む。
 ステップS108において、画像処理装置100の画像処理部110は、内視鏡210から入力された画像データに対して、設定された内容の画像処理を開始する。すなわち、画像処理部110は、撮像部212による撮像で得られた画像データを順次取得し、得られた画像データに対して設定された画像処理を順次行い、処理後の画像データを画像出力部120へと順次出力する。画像処理部110は、このような画像処理を以後継続する。
 ステップS109において、画像処理装置100の再構成制御部150は、画像出力部120に、画像処理部110から入力されたデータに基づく画像データのモニタ260への出力を開始させる。その結果、以後継続してモニタ260には、画像処理部110で処理された画像が表示される。
 ステップS110において、画像処理装置100の接続検出部130は、画像処理装置100への内視鏡210の接続が解除されたか否かを判定する。接続が解除されるまで、内視鏡210の撮像部212で取得され画像処理部110により処理された画像がモニタ260に表示される。画像処理装置100から内視鏡210が取り外され、接続が解除されたとき、処理はステップS111に進む。
 ステップS111において、画像処理装置100の接続検出部130は、画像出力部120にモニタ260への画像の出力を停止させる。その後、処理はステップS101に戻る。すなわち、上述の処理が繰り返される。この処理は、画像処理装置100の電源が切られるまで繰り返される。以上のように、前回接続された内視鏡210の種別と今回接続された内視鏡210の種別とが比較され、種別が異なる場合には再構成制御部150による再構成処理が行われ、種別が同じ場合には再構成制御部150による再構成処理が行われない。
 本実施形態に係る内視鏡システム1の動作について、図3に示すタイミングチャートを参照して説明する。図3の上段(a)は、画像処理装置100に前回接続された内視鏡の種別と今回接続された内視鏡の種別とが異なる場合の処理の一例のタイミングチャートを示す。図3の下段(b)は、画像処理装置100に前回接続された内視鏡の種別と今回接続された内視鏡の種別とが同じ場合の処理の一例のタイミングチャートを示す。図3の上段(a)及び下段(b)のそれぞれにおいて、1段目は画像処理装置100への内視鏡210の接続状態を示し、2段目は画像処理部110に係る処理の状態を示し、3段目はモニタ260への画像の出力の状態を示す。
 まず、図3の上段(a)を参照し、接続される内視鏡210の種別が前回と今回とで異なる場合について説明する。図3の上段(a)に示すように、初めは画像処理装置100に内視鏡210が接続されており、画像処理装置100の画像処理部110が画像処理の動作を行っており、モニタ260に処理後の画像が出力されているものとする。
 ここで、時刻t1において、画像処理部110から内視鏡210が取り外され、画像処理部110と内視鏡210との接続が解除されたものとする。このとき、接続検出部130は、画像出力部120に画像の出力を停止させる。その結果、モニタ260には画像が表示されなくなる。
 その後、時刻t2において、内視鏡210が画像処理装置100に接続されたとする。このとき、接続検出部130は、時刻t2からt3までの期間に、内視鏡210の接続を検知し、種別情報保持部224から内視鏡210の種別情報を取得し、内視鏡210の種別を決定する。時刻t3からt4までの期間において、接続スコープ判定部140は、接続された内視鏡210の種別が前回接続された内視鏡の種別と同一であるか否かを判定する。接続された内視鏡210の種別が前回と今回とで異なるので、再構成制御部150は、画像処理部110の回路の再構成を行う。この再構成が行われる期間が時刻t4からt5までの期間である。時刻t5において画像処理部110の再構成が完了する。
 続いて、時刻t5からt6までの期間において、スコープ情報読取部160は内視鏡210のスコープ情報記憶部222からスコープ情報を読み取る。時刻t6からt7までの期間において、スコープ情報読取部160は画像処理部110の設定を行う。時刻t7において画像処理部110の設定は完了する。時刻t7以降、画像処理部110は、画像データに対して画像処理を行う。また、時刻t7以降、再構成制御部150は、画像出力部120に画像の出力行わせる。その結果、モニタ260には、画像処理部110で処理された画像が表示される。
 次に、図3の下段(b)を参照し、接続される内視鏡210の種別が前回と今回とで同じである場合について説明する。図3の下段(b)に示すように、初めは画像処理装置100に内視鏡210が接続されており、画像処理装置100の画像処理部110が画像処理の動作を行っており、モニタ260に処理後の画像が出力されているものとする。ここで、時刻t1において、画像処理部110と内視鏡210との接続が解除されたものとする。このとき、接続検出部130は、画像出力部120に画像の出力を停止させる。その結果、モニタ260には画像が表示されなくなる。時刻t2において、内視鏡210が画像処理装置100に接続されたとする。このとき、接続検出部130は、時刻t2からt3までの期間に、内視鏡210の接続を検知し、種別情報保持部224から内視鏡210の種別情報を取得し、内視鏡210の種別を決定する。時刻t3からt4(t5´)までの期間において、接続スコープ判定部140は、接続された内視鏡210の種別が前回接続された内視鏡の種別と同一であるか否かを判定する。
 接続された内視鏡210の種別が前回と今回とで同じであるので、再構成制御部150は、画像処理部110の回路の再構成は行わない。時刻t5´からt6´までの期間において、スコープ情報読取部160は、内視鏡210のスコープ情報記憶部222からスコープ情報を読み取り、時刻t6´からt7´までの期間において画像処理部110の設定を行う。時刻t7´において画像処理部110の設定は完了し、時刻t7´以降、画像処理部110は、画像データに対して画像処理を行い、モニタ260には、画像処理部110で処理された画像が表示される。
 図3の上段(a)と下段(b)とを比較すると、図3の上段(a)には時刻t4からt5までの画像処理部110の回路の再構成が行われる時間が必要であるが、図3の下段(b)では、この処理が省略されている。その結果、モニタ260に画像が表示され始めるのは、図3の上段(a)の場合は時刻t7であるのに対して、図3の下段(b)の場合は時刻t7´となる。すなわち、図3にΔtで示すように、図3の下段(b)の場合の方が画像処理部110の回路の再構成に係る時間だけ早くモニタ260に画像が表示されることになる。
 本実施形態によれば、画像処理装置100は、接続された内視鏡210が前回接続された内視鏡210と同じ種別の内視鏡であるとき画像処理部110の再構成は不要であるので、この再構成を行わない。その結果、内視鏡210が画像処理装置100に接続されてからモニタ260に画像が表示されるまでの時間が、必ず画像処理部110の再構成が行われる場合と比較して短くなる。
 本実施形態では、必ず画像処理部110の再構成が行われる場合と比較して、図3に示す時刻t3からt4までの接続された内視鏡210の種別の判定の処理に係る時間だけ、内視鏡210が画像処理装置100に接続されてからモニタ260に画像が表示されるまでの時間が長くなる。しかしながら、この時間は比較的短い。一方で、図3の上段(a)に示される時刻t4からt5までの画像処理部110の回路の再構成に係る時間は比較的長いので、同じ種別の内視鏡210が接続されたときにこの再構成が省略されることは有効である。特に、内視鏡210と画像処理装置100とを接続するケーブルの捻じれを解消するために内視鏡210が一時的に切断され再び接続されるような場合、内視鏡210は使用中の状態であるため、ユーザはできるだけ早くモニタ260で画像を確認したい。本実施形態はこのような場合にモニタ260の表示が早く開始されるので、有効である。ここで、再構成に要する時間であり短縮され得る時間は、例えば数百ミリ秒程度であったり、それ以上であったりする。なお、画像処理部110の回路規模が大きくなればなる程再構成に要する時間は長くなるので、より複雑な処理が必要とされる程、再構成に要する時間であり短縮され得る時間は長くなる。
 〈変形例〉
 上述の実施形態では、画像処理部110がFPGAで構成されており、画像処理部110の回路構成が物理的に再構成される場合を例に示したが、再構成はこれに限らない。すなわち、ハードウェアが再構成される場合に限らず、ソフトウェアが再構成される場合にも、上述の技術は適用され得る。例えば、画像処理部110はdigital signal processor(DSP)を用いて実現されている場合であっても、上述の技術は適用され得る。すなわち、再構成として、再構成制御部150は、内視鏡210の種別に応じたプログラムを起動時にDSPの専用の領域に書き込むものであってもよい。接続された内視鏡210の種別が前回と今回とで異なるときにはプログラムの書き換えが行われる一方で、種別が前回と今回とで同一であるときにはプログラムの書き換えが行われないように、画像処理装置100は構成され得る。このような構成においても、上述の実施形態と同様の効果が得られる。
 [第2の実施形態]
 第2の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。第1の実施形態では、接続スコープ判定部140は、接続検出部130の種別記憶部132に記憶された前回接続された内視鏡210の種別と、種別決定部131が決定した今回接続された内視鏡210の種別とが一致するか否かで判定している。これに対して、本実施形態に係る接続スコープ判定部140は、画像処理装置100に対して内視鏡210が未接続である時間に基づいて前回接続されていた内視鏡210の種別と今回接続された内視鏡210の種別とが同一であるか否かを判定する。
 本実施形態に係る内視鏡システム1の構成例の概略を図4に示す。本実施形態に係る内視鏡システム1では、画像処理装置100の接続検出部130において、第1の実施形態に設けられていた種別記憶部132に代えて、未接続時間計測部136が設けられている。未接続時間計測部136は、画像処理装置100から内視鏡210が取り外されてから再度接続されるまでの時間を未接続時間として計測する。未接続時間計測部136は、得られた未接続時間に係る情報を接続スコープ判定部140へと伝達する。
 接続スコープ判定部140は、未接続時間が所定の時間よりも短いとき、前回接続されていた内視鏡210の種別と今回接続された内視鏡210の種別とが同一であると判定する。一方、接続スコープ判定部140は、未接続時間が所定の時間以上であるとき、前回接続されていた内視鏡210の種別と今回接続された内視鏡210の種別とが異なると判定する。この判定は、例えば図2を参照して説明した処理において、ステップS104における処理である。その他の動作については、第1の実施形態と同様である。また、第1の実施形態の変形例と同様の構成も採用され得る。
 上述のとおり、内視鏡システム1の使用時に、画像処理装置100と内視鏡210とを接続するケーブルが捻じれ、この捻じれを解消するために画像処理装置100から内視鏡210が取り外されることがある。この捻じれの解消に要する時間は、例えば十数秒程度である。そこで、接続スコープ判定部140が行う未接続時間に係る判定の閾値は、この十数秒程度の適当な時間に設定され得る。その結果、接続スコープ判定部140は、内視鏡210の画像処理装置100からの取り外しが、捻じれを解消するための一時的なものであるのか、すなわち内視鏡210の種別が変わらないものであるのか、それ以外のものであるのかを判定することができる。
 本実施形態によっても、内視鏡システム1は、第1の実施形態と同様の効果を得ることができる。

Claims (6)

  1.  内視鏡の接続状態を検知する接続検出部と、
     前記内視鏡から得られた画像データに対して処理を施す画像処理部であって、前記内視鏡の種別に応じて構成可能な画像処理部と、
     前記内視鏡が接続された際に、今回接続された内視鏡と前回接続された内視鏡とが同じ種別であるか否かを判定する判定部と、
     今回接続された内視鏡と前回接続された内視鏡とが異なる種別であるとき、前記内視鏡の種別に応じて前記画像処理部を再構成し、今回接続された内視鏡と前回接続された内視鏡とが同じ種別であるとき、前記画像処理部の再構成を行わない再構成制御部と
     を備える画像処理装置。
  2.  前記接続検出部は、前回接続された内視鏡の種別を記憶する記憶部を備え、
     前記判定部は、前記記憶部に記憶された前回接続された内視鏡の種別と、前記接続検出部から取得した今回接続された内視鏡の種別とを比較し、今回接続された内視鏡と前回接続された内視鏡とが同じ種別であるか否かを判定する、
     請求項1に記載の画像処理装置。
  3.  前記接続検出部は、接続された内視鏡が取り外されてから内視鏡が接続されるまでの未接続時間を計測する未接続時間計測部を備え、
     前記判定部は、前記未接続時間が所定の時間よりも短いとき、今回接続された内視鏡と前回接続された内視鏡が同じ種別であると判定する、
     請求項1に記載の画像処理装置。
  4.  前記画像処理部は、前記画像処理部の回路構成を変更することで再構成を行う、請求項1に記載の画像処理装置。
  5.  前記画像処理部は、前記画像処理部のソフトウェアを書き換えることで再構成を行う、請求項1に記載の画像処理装置。
  6.  前記画像処理部から出力された画像データを前記画像処理装置の外部に出力する機能を有するとともに、前記接続検出部が前記内視鏡の未接続を検知した場合に、前記画像データの外部への出力を停止させる画像出力部をさらに備える、請求項1に記載の画像処理装置。
PCT/JP2017/034920 2016-10-14 2017-09-27 画像処理装置 WO2018070246A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018502193A JP6301049B1 (ja) 2016-10-14 2017-09-27 画像処理装置
US16/382,277 US10939093B2 (en) 2016-10-14 2019-04-12 Image processing device for endoscope that reconfigures image processing circuit based on disconnection time

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016202983 2016-10-14
JP2016-202983 2016-10-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/382,277 Continuation US10939093B2 (en) 2016-10-14 2019-04-12 Image processing device for endoscope that reconfigures image processing circuit based on disconnection time

Publications (1)

Publication Number Publication Date
WO2018070246A1 true WO2018070246A1 (ja) 2018-04-19

Family

ID=61905456

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/034920 WO2018070246A1 (ja) 2016-10-14 2017-09-27 画像処理装置

Country Status (2)

Country Link
US (1) US10939093B2 (ja)
WO (1) WO2018070246A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7048628B2 (ja) 2016-11-28 2022-04-05 アダプティブエンドウ エルエルシー 分離可能使い捨てシャフト付き内視鏡
USD1018844S1 (en) 2020-01-09 2024-03-19 Adaptivendo Llc Endoscope handle
USD1031035S1 (en) 2021-04-29 2024-06-11 Adaptivendo Llc Endoscope handle

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11298907A (ja) * 1998-04-10 1999-10-29 Asahi Optical Co Ltd 電子内視鏡システム
JP2003319905A (ja) * 2002-02-27 2003-11-11 Pentax Corp 電子内視鏡装置のプロセッサ
JP2007229305A (ja) * 2006-03-02 2007-09-13 Olympus Medical Systems Corp 内視鏡装置
JP2008149027A (ja) * 2006-12-19 2008-07-03 Olympus Corp 内視鏡装置
JP2011147548A (ja) * 2010-01-20 2011-08-04 Olympus Corp 内視鏡装置
JP2013009908A (ja) * 2011-06-30 2013-01-17 Hoya Corp 内視鏡装置
WO2016076314A1 (ja) * 2014-11-13 2016-05-19 オリンパス株式会社 内視鏡システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030160865A1 (en) * 2002-02-27 2003-08-28 Pentax Corporation Electronic endoscope apparatus including video-processor
US9521376B2 (en) * 2010-01-20 2016-12-13 Olympus Corporation Endoscope apparatus
CN103079450B (zh) * 2011-03-29 2015-05-13 奥林巴斯医疗株式会社 内窥镜用适配器、内窥镜用处理器和内窥镜***

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11298907A (ja) * 1998-04-10 1999-10-29 Asahi Optical Co Ltd 電子内視鏡システム
JP2003319905A (ja) * 2002-02-27 2003-11-11 Pentax Corp 電子内視鏡装置のプロセッサ
JP2007229305A (ja) * 2006-03-02 2007-09-13 Olympus Medical Systems Corp 内視鏡装置
JP2008149027A (ja) * 2006-12-19 2008-07-03 Olympus Corp 内視鏡装置
JP2011147548A (ja) * 2010-01-20 2011-08-04 Olympus Corp 内視鏡装置
JP2013009908A (ja) * 2011-06-30 2013-01-17 Hoya Corp 内視鏡装置
WO2016076314A1 (ja) * 2014-11-13 2016-05-19 オリンパス株式会社 内視鏡システム

Also Published As

Publication number Publication date
US20190238831A1 (en) 2019-08-01
US10939093B2 (en) 2021-03-02

Similar Documents

Publication Publication Date Title
WO2018070246A1 (ja) 画像処理装置
JP5185477B2 (ja) 内視鏡用アダプタ、内視鏡用プロセッサ及び内視鏡システム
JP2008149027A (ja) 内視鏡装置
WO2013132725A1 (ja) 内視鏡システム
JP2012085715A (ja) 内視鏡装置
US20090167849A1 (en) Endoscope apparatus
JP5220964B1 (ja) 内視鏡システム
CN102711589B (zh) 内窥镜装置
WO2015194421A1 (ja) 医療用システム及びその画像処理設定方法
JP2008526289A (ja) プログラム可能な生体内撮像のための装置、システム、及び方法
CN106413517B (zh) 内窥镜、接收装置、无线内窥镜***、图像发送方法、图像接收方法和程序
JP6301049B1 (ja) 画像処理装置
JPH07171090A (ja) 内視鏡装置
JP2010081975A (ja) 撮像システム
US10413156B2 (en) Endoscope device, endoscopic system, method, and computer-readable storage device
EP2589329B1 (en) Endoscope and endoscopic system
JP6072382B2 (ja) 信号処理装置及び信号処理方法
EP1977695B1 (en) Ultrasound endoscope system and control method of ultrasound endoscope system
JP6064101B1 (ja) 内視鏡システム
JP6396610B2 (ja) 内視鏡装置およびカメラコントロールユニット
JP2002027335A (ja) 映像信号サンプリングパルス自動調整装置
JP5361296B2 (ja) 内視鏡装置
JP2010004980A (ja) 電子内視鏡用プロセッサ装置
JP2007102259A (ja) センサシステム、センサユニットおよびセンサ管理プログラム
JP6803293B2 (ja) 内視鏡システム及び内視鏡用制御装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018502193

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17861035

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17861035

Country of ref document: EP

Kind code of ref document: A1