JP5192591B2 - Capsule endoscope and operation control method of capsule endoscope - Google Patents

Capsule endoscope and operation control method of capsule endoscope Download PDF

Info

Publication number
JP5192591B2
JP5192591B2 JP2012005851A JP2012005851A JP5192591B2 JP 5192591 B2 JP5192591 B2 JP 5192591B2 JP 2012005851 A JP2012005851 A JP 2012005851A JP 2012005851 A JP2012005851 A JP 2012005851A JP 5192591 B2 JP5192591 B2 JP 5192591B2
Authority
JP
Japan
Prior art keywords
pixels
imaging
image
frame rate
capsule endoscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012005851A
Other languages
Japanese (ja)
Other versions
JP2012071186A (en
Inventor
直行 西納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2012005851A priority Critical patent/JP5192591B2/en
Publication of JP2012071186A publication Critical patent/JP2012071186A/en
Application granted granted Critical
Publication of JP5192591B2 publication Critical patent/JP5192591B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Endoscopes (AREA)

Description

本発明は、被検体内の画像を撮影するカプセル内視鏡、およびその動作制御方法に関する。 The present invention relates to a capsule endoscope, and its operation control how to shoot an image in the subject.

最近、撮像素子や照明光源などが超小型のカプセルに内蔵されたカプセル内視鏡による医療検査が実用化されつつある。カプセル内視鏡を利用した医療検査では、まず、患者にカプセル内視鏡を嚥下させ、照明光源で人体内の被観察部位(人体内管路の内壁面)を照明しつつ、撮像素子で被観察部位を撮影する。そして、これにより得られた画像データを受信装置で無線受信し、受信装置に設けられたフラッシュメモリなどの記憶媒体に逐次記憶していく。検査中、または検査終了後、ワークステーションなどの情報管理装置に画像データを取り込み、モニタに表示された画像を読影する。   Recently, a medical examination using a capsule endoscope in which an image sensor, an illumination light source, and the like are incorporated in an ultra-small capsule is being put into practical use. In a medical examination using a capsule endoscope, first, the patient is swallowed by the capsule endoscope, and the object to be observed (inner wall surface of the human body duct) is illuminated with an illumination light source while being covered by the imaging device. Photograph the observation site. Then, the image data obtained thereby is wirelessly received by the receiving device, and is sequentially stored in a storage medium such as a flash memory provided in the receiving device. During or after the inspection, the image data is taken into an information management device such as a workstation, and the image displayed on the monitor is read.

カプセル内視鏡の単位時間あたりの撮影回数(フレームレート)は、例えば2fps(フレーム/秒)であり、その撮影時間は約8時間以上にも及ぶため、受信装置に記憶される画像データの量は膨大となる。したがって、画像を読影する際に、撮影された画像全てを読影しようとすると、多大な時間と労力が掛かる。従来、このような読影の負担を軽くするために、種々の提案がなされている(特許文献1、2参照)。   The number of times of imaging (frame rate) per unit time of the capsule endoscope is, for example, 2 fps (frame / second), and the imaging time is about 8 hours or more. Therefore, the amount of image data stored in the receiving device Will be enormous. Therefore, when interpreting an image, it takes a lot of time and labor to interpret all the captured images. Conventionally, various proposals have been made in order to reduce the burden of such interpretation (see Patent Documents 1 and 2).

特許文献1、2に記載の発明では、加速度センサや圧力センサを用いて、人体内におけるカプセル内視鏡の移動速度を検出し、移動速度が速い場合にはフレームレートを上げ、遅い場合には下げている。また、前後コマなどの二つの画像データを比較して類似度を判定し、類似度が低い場合はモニタに表示する際の表示レート(単位時間あたり表示画像数)を下げ(画像の表示時間を長くし)、類似度が高い場合は表示レートを上げ(画像の表示時間を短くし)ている。   In the inventions described in Patent Documents 1 and 2, the movement speed of the capsule endoscope in the human body is detected using an acceleration sensor or a pressure sensor. When the movement speed is high, the frame rate is increased. It is lowered. Also, the degree of similarity is determined by comparing two image data such as the previous and next frames. If the degree of similarity is low, the display rate (number of displayed images per unit time) for display on the monitor is lowered (the image display time is reduced). If the similarity is high, the display rate is increased (the image display time is shortened).

移動速度が遅い、あるいは比較した二画像の類似度が高いときには、カプセル内視鏡が一箇所に長時間滞留している場合が考えられ、この場合は殆ど変化のない同じような画像が何枚も撮影されることになる。このため、特許文献1、2のように、移動速度が遅い場合にフレームレートを下げたり、比較した二画像の類似度が高い場合に表示レートを上げたりすれば、類似する画像の数、類似する画像を読影する回数(または時間)を減らすことができ、読影の負担を軽くすることができる。   When the moving speed is slow or the similarity between the two compared images is high, the capsule endoscope may stay in one place for a long time. In this case, how many similar images with little change Will also be filmed. For this reason, as in Patent Documents 1 and 2, if the frame rate is lowered when the moving speed is slow, or the display rate is raised when the similarity between the two compared images is high, the number of similar images and similarity The number of times (or time) of interpreting an image to be read can be reduced, and the burden of interpretation can be reduced.

特表2004−521662号公報JP-T-2004-521626 特開2006−223892号公報JP 2006-238992 A

特許文献1、2に記載の技術は、確かに読影の負担を軽くすることはできるが、カプセル内視鏡から受信装置に画像データを無線送信する際に掛かる消費電力(カプセル内視鏡の消費電力の大半を占める)の点に着目すると、カプセル内視鏡の移動速度が速く、フレームレートを上げた場合は、無線送信の回数が増えるので、当然ながら消費電力が嵩む。消費電力が嵩むと電池の消耗が早くなり、カプセル内視鏡が人体内にあるうちに電池が尽きてしまい、それ以降の画像が得られないといった問題が生じる。   Although the techniques described in Patent Documents 1 and 2 can certainly reduce the burden of interpretation, the power consumed when wirelessly transmitting image data from the capsule endoscope to the receiving device (consumption of the capsule endoscope) If the capsule endoscope is moved at a high speed and the frame rate is increased, the number of times of wireless transmission increases, which naturally increases the power consumption. When the power consumption increases, the battery is consumed quickly, and the battery runs out while the capsule endoscope is in the human body, resulting in a problem that subsequent images cannot be obtained.

また、画像データの送信に掛かる処理時間(撮影に掛かる処理時間と比べて大幅に長い)を考えると、撮影後に逐次画像データを送信するため、画像データの送信を終えない間に次の撮影を行うことはできないので、フレームレートを上げるのにも限界がある。このため、現行の性能で設定し得る最高のフレームレートに上げたとしても、病変部など読影を重点的に行いたい部位(以下、関心領域という)を見落とすおそれが大きい。そのうえ、フレームレートを極限まで上げると、益々消費電力が嵩む。さらには、フレームレートを下げたときに丁度関心領域にあたっていた場合は、撮影が省かれてしまうので、同様に関心領域を見落とすおそれがある。   Also, considering the processing time required for image data transmission (which is significantly longer than the processing time required for imaging), image data is transmitted sequentially after imaging, so the next imaging is not completed before the image data transmission is completed. There is a limit to increasing the frame rate because it cannot be done. For this reason, even if the frame rate is increased to the highest frame rate that can be set with the current performance, there is a high possibility of overlooking a site (hereinafter referred to as a region of interest) where interpretation is focused, such as a lesion. In addition, when the frame rate is increased to the limit, power consumption increases. Further, if the region of interest is just touched when the frame rate is lowered, shooting is omitted, and there is a possibility that the region of interest may be overlooked as well.

本発明は、上記課題を鑑みてなされたものであり、画像データを無線送信する際に掛かる消費電力、および処理時間を低減することができるカプセル内視鏡、およびカプセル内視鏡の動作制御方法を提供することを目的とする。   The present invention has been made in view of the above problems, and a capsule endoscope capable of reducing power consumption and processing time when image data is wirelessly transmitted, and a capsule endoscope operation control method. The purpose is to provide.

また、本発明は、読影の負担を軽くすることができる情報管理装置を提供することを目的とする。   It is another object of the present invention to provide an information management apparatus that can reduce the burden of interpretation.

上記目的を達成するために、本発明は、被検体内に嚥下され、被検体内の被観察部位を内蔵の撮像手段で撮影して得られた画像を、送信手段にて外部に送信するカプセル内視鏡において、前記被検体内における状態を検知する状態検知手段と、前記状態検知手段の検知結果に応じて、前記画像の画素数を変換する画素数変換手段とを備えることを特徴とする。   In order to achieve the above object, the present invention provides a capsule that is swallowed into a subject, and an image obtained by photographing an observation site in the subject with a built-in imaging means is transmitted to the outside by a transmission means. The endoscope includes a state detection unit that detects a state in the subject, and a pixel number conversion unit that converts the number of pixels of the image according to a detection result of the state detection unit. .

前記状態検知手段は、前記被検体内における移動速度、移動距離、または画像の類似度のうち、少なくともいずれか一つを検知し、前記画素数変換手段は、前記検知結果と予め設定された閾値とを比較し、この比較結果を元に前記画素数を変換する。   The state detecting unit detects at least one of a moving speed, a moving distance, and an image similarity in the subject, and the pixel number converting unit detects the detection result and a preset threshold value. And the number of pixels is converted based on the comparison result.

前記画素数変換手段は、前記撮像手段の最高の画素数と、前記最高の画素数よりも低い画素数の少なくとも二段階で前記画素数を変換する。   The pixel number conversion unit converts the number of pixels in at least two stages of the maximum number of pixels of the imaging unit and the number of pixels lower than the maximum number of pixels.

前記送信手段は、前記画像を無線送信にて外部に送信し、前記撮像手段、および前記送信手段は、前記撮像手段の最高の画素数に前記画素数が変換された場合、間を空けずに前記撮影と前記無線送信に関わる処理を実行し、前記最高の画素数よりも低い画素数に前記画素数が変換された場合、そのときに生まれる前記撮影と前記無線送信に関わる処理の空き時間に動作を休止することが好ましい。   The transmission means transmits the image to the outside by wireless transmission, and the imaging means and the transmission means do not leave a gap when the number of pixels is converted to the maximum number of pixels of the imaging means. If the number of pixels is converted to a number of pixels lower than the maximum number of pixels, the processing related to the shooting and the wireless transmission is performed, and the processing related to the shooting and the wireless transmission is generated at that time. It is preferable to pause the operation.

前記送信手段は、前記画像を無線送信にて外部に送信し、前記撮像手段、および前記送信手段は、前記画素数がいずれに変換されたかに関わらず、間を空けずに前記撮影と前記無線送信に関わる処理を実行することが好ましい。   The transmission unit transmits the image to the outside by wireless transmission, and the imaging unit and the transmission unit perform the shooting and the wireless communication without leaving a gap regardless of which of the pixel numbers is converted. It is preferable to execute processing related to transmission.

前記送信手段は、前記画像を無線送信にて外部に送信し、前記撮像手段、および前記送信手段は、前記撮像手段の最高の画素数に前記画素数が変換された場合、間を空けずに前記撮影と前記無線送信に関わる処理を実行し、前記最高の画素数よりも低い画素数に前記画素数が変換された場合、そのときに生まれる前記撮影と前記無線送信に関わる処理の空き時間に動作を休止するか、前記空き時間を埋めるように、前記最高の画素数よりも低い画素数の前記撮影、および前記無線送信を実行するかを、前記検知結果と予め設定された閾値との比較結果に応じて決定することが好ましい。   The transmission means transmits the image to the outside by wireless transmission, and the imaging means and the transmission means do not leave a gap when the number of pixels is converted to the maximum number of pixels of the imaging means. If the number of pixels is converted to a number of pixels lower than the maximum number of pixels, the processing related to the shooting and the wireless transmission is performed, and the processing related to the shooting and the wireless transmission is generated at that time. Compare the detection result with a preset threshold value to determine whether to suspend the operation or execute the radio transmission with the number of pixels lower than the maximum number of pixels so as to fill the idle time. It is preferable to determine according to the result.

前記空き時間を埋める前記撮影を実行する場合、前記画素数変換手段は、画素間引き処理を実行することで、前記画素数を変換する。   In the case of executing the photographing for filling the free time, the pixel number conversion means converts the number of pixels by executing a pixel thinning process.

前記状態検知手段は、前記被検体内における移動距離を検知し、前記撮像手段は、前記検知結果に応じて、一定距離間隔で第一の撮影を実行し、前記第一の撮影の合間に第二の撮影を実行し、前記画素数変換手段は、前記第一の撮影では、前記撮像手段の最高の画素数に前記画素数を変換し、前記第二の撮影では、前記最高の画素数よりも低い画素数に前記画素数を変換することが好ましい。   The state detection unit detects a moving distance in the subject, and the imaging unit executes a first imaging at a constant distance interval according to the detection result, and performs a first imaging between the first imaging. In the first photographing, the pixel number conversion means converts the pixel number to the highest pixel number of the imaging means, and in the second photographing, the pixel number conversion means It is preferable to convert the number of pixels to a lower number of pixels.

また、前記状態検知手段は、前記画像の類似度を検知し、前記検知結果に応じて、前記撮像手段のフレームレートを変換するフレームレート変換手段を備え、前記撮像手段は、前記フレームレート変換手段で変換されたフレームレートで第三の撮影を実行し、前記フレームレートが最高のフレームレートよりも下げられた場合には、前記第三の撮影の合間に第四の撮影を実行し、前記画素数変換手段は、前記第三の撮影では、前記撮像手段の最高の画素数に前記画素数を変換し、前記第四の撮影では、前記最高の画素数よりも低い画素数に前記画素数を変換することが好ましい。   Further, the state detection unit includes a frame rate conversion unit that detects the similarity of the images and converts a frame rate of the imaging unit according to the detection result, and the imaging unit includes the frame rate conversion unit. When the third shooting is performed at the frame rate converted in step (b), and the frame rate is lower than the highest frame rate, a fourth shooting is performed between the third shootings, and the pixels The number conversion means converts the number of pixels into the maximum number of pixels of the imaging means in the third photographing, and the number of pixels is lower than the maximum number of pixels in the fourth photographing. It is preferable to convert.

上記の場合、前記状態検知手段は、前記被検体内における移動速度、または移動距離のうち、少なくとも一つを検知し、前記フレームレート変換手段は、前記検知結果に応じて、前記第四の撮影のフレームレートを変換する。   In the above case, the state detection unit detects at least one of a movement speed or a movement distance in the subject, and the frame rate conversion unit detects the fourth imaging according to the detection result. Convert the frame rate.

前記送信手段は、前記画素数の情報を、前記画像に関連付けて送信する。   The transmission means transmits the information on the number of pixels in association with the image.

前記画素数変換手段は、ビニング読み出し処理、画素間引き処理、または平均化処理のうち、少なくともいずれか一つを実行することで、前記画素数を変換する。   The pixel number conversion unit converts the pixel number by executing at least one of binning readout processing, pixel thinning processing, and averaging processing.

前記撮像手段で撮影して得られた全ての画像を記憶する記憶手段を備え、前記送信手段は、体外に排出されて回収後、前記記憶手段に記憶された画像をまとめて外部に送信することが好ましい。   Storage means for storing all images obtained by photographing with the imaging means is provided, and the transmission means collects and transmits the images stored in the storage means to the outside after being discharged and collected outside the body. Is preferred.

また、本発明は、被検体内に嚥下され、被検体内の被観察部位を内蔵の撮像手段で撮影して得られた画像を、送信手段にて外部に送信するカプセル内視鏡の動作制御方法であって、前記被検体内における状態を状態検知手段で検知するステップと、前記状態検知手段の検知結果に応じて、画素数変換手段で前記画像の画素数を変換するステップとを備えることを特徴とする。   In addition, the present invention provides an operation control of a capsule endoscope that is swallowed into a subject and an image obtained by photographing an observation site in the subject with a built-in imaging means is transmitted to the outside by a transmission means. A method comprising: a step of detecting a state in the subject by a state detection unit; and a step of converting the number of pixels of the image by a pixel number conversion unit according to a detection result of the state detection unit. It is characterized by.

さらに、本発明は、被検体内に嚥下されるカプセル内視鏡で得られた被検体内の被観察部位の画像を取り込んで、これを蓄積・管理するとともに、読影に供する画像を表示する情報管理装置において、前記カプセル内視鏡は、前記被検体内における状態を検知する状態検知手段と、前記状態検知手段の検知結果に応じて、前記画像の画素数を変換する画素数変換手段と、前記画素数の情報を、前記画像に関連付けて送信する送信手段とを有し、前記画素数の情報に応じて、前記画像の表示形態を変化させる表示制御手段を備えることを特徴とする。   Furthermore, the present invention captures an image of a site to be observed in a subject obtained by a capsule endoscope swallowed in the subject, stores and manages the information, and displays information to be used for interpretation In the management apparatus, the capsule endoscope includes a state detection unit that detects a state in the subject, a pixel number conversion unit that converts the number of pixels of the image according to a detection result of the state detection unit, And a transmission unit that transmits the information on the number of pixels in association with the image, and further includes a display control unit that changes a display form of the image according to the information on the number of pixels.

前記表示制御手段は、特定の画素数の前記画像を自動的に表示させ、前記特定の画素数と前記画素数が異なる画像は、操作入力手段の操作に応じて表示させることが好ましい。この場合、前記特定の画素数は、前記撮像手段の最高の画素数であることが好ましい。   Preferably, the display control unit automatically displays the image having a specific number of pixels, and displays an image having a number of pixels different from the specific number of pixels according to an operation of the operation input unit. In this case, it is preferable that the specific number of pixels is the maximum number of pixels of the imaging unit.

本発明のカプセル内視鏡、およびカプセル内視鏡の動作制御方法によれば、被検体内におけるカプセル内視鏡の状態に応じて、画像の画素数を変換するので、通常よりも低い画素数とした場合、画像データを送信する際に掛かる消費電力、および処理時間を低減することができる。   According to the capsule endoscope and the capsule endoscope operation control method of the present invention, since the number of pixels of the image is converted according to the state of the capsule endoscope in the subject, the number of pixels lower than usual. In this case, it is possible to reduce power consumption and processing time required when transmitting image data.

消費電力が低減されれば、カプセル内視鏡が人体内にあるうちに電池が尽きてしまい、それ以降の画像が得られないといった問題を回避することができる。あるいは、電池の容量を従来よりも小さくすることができ、カプセル内視鏡の低価格化、小型化に寄与することができる。   If the power consumption is reduced, it is possible to avoid the problem that the battery runs out while the capsule endoscope is in the human body and the subsequent image cannot be obtained. Or the capacity | capacitance of a battery can be made smaller than before, and it can contribute to the cost reduction and size reduction of a capsule endoscope.

また、処理時間が低減されれば、低減された時間を待機時間や撮影に充てることができる。待機時間に充てた場合は、消費電力がさらに低減され、撮影に充てた場合は、関心領域の見落としなどの懸念を払拭することができる。   Further, if the processing time is reduced, the reduced time can be used for standby time and photographing. When devoted to standby time, power consumption is further reduced, and when devoted to shooting, concerns such as oversight of a region of interest can be eliminated.

本発明の情報管理装置によれば、画素数の情報に応じて画像の表示形態を変化させるので、希少価値が高い画像を優先して表示することなどができ、読影の負担を軽くすることができる。   According to the information management device of the present invention, since the display form of the image is changed according to the information on the number of pixels, it is possible to preferentially display an image having a high rare value, and to reduce the burden of interpretation. it can.

カプセル内視鏡システムの構成を示す概略図である。It is the schematic which shows the structure of a capsule endoscope system. カプセル内視鏡の内部構成を示す断面図である。It is sectional drawing which shows the internal structure of a capsule endoscope. カプセル内視鏡の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a capsule endoscope. CCDの概略構成を示す平面図である。It is a top view which shows schematic structure of CCD. ビニング読み出し処理の概略を説明するための図である。It is a figure for demonstrating the outline of a binning read-out process. R画素の加算、再配列の様子を示す説明図である。It is explanatory drawing which shows the mode of addition and rearrangement of R pixel. B画素の加算、再配列の様子を示す説明図である。It is explanatory drawing which shows the mode of addition and rearrangement of B pixel. G画素の加算、再配列の様子を示す説明図である。It is explanatory drawing which shows the mode of addition and rearrangement of G pixel. 受信装置の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a receiver. ワークステーションの電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a workstation. 読影時の画像の表示例を示す図である。It is a figure which shows the example of a display of the image at the time of interpretation. カプセル内視鏡の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of a capsule endoscope. 通常、中画素数、および低画素数の各撮影における撮像、無線送信処理時間の関係を示す説明図である。It is explanatory drawing which shows the relationship of the imaging and radio | wireless transmission processing time in each imaging | photography of the number of medium pixels and low pixel number normally. 中解像、および低画素数撮影が設定されたときに生まれる空き時間を埋めて撮影を行う第二の実施形態を説明するための図である。It is a figure for demonstrating 2nd embodiment which fills in the free time produced when medium resolution and low pixel count photography are set, and performs photography. 第二の実施形態におけるカプセル内視鏡の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the capsule endoscope in 2nd embodiment. 一定距離間隔を通常撮影する合間に低画素数撮影を実行する第三の実施形態におけるカプセル内視鏡の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the capsule endoscope in 3rd embodiment which performs imaging | photography with a low pixel number between regular imaging | photography at a fixed distance space | interval. 第三の実施形態の撮影の例を示す図である。It is a figure which shows the example of imaging | photography of 3rd embodiment. 第三の実施形態の撮影の例を示す図である。It is a figure which shows the example of imaging | photography of 3rd embodiment. 前後コマの類似度を算出する類似度算出回路を設けた第四の実施形態のカプセル内視鏡の電気的構成を示すブロック図である。It is a block diagram which shows the electrical constitution of the capsule endoscope of 4th embodiment provided with the similarity calculation circuit which calculates the similarity of the front and back frames. 第四の実施形態におけるカプセル内視鏡の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the capsule endoscope in 4th embodiment. 第四の実施形態の撮影の例を示す図である。It is a figure which shows the example of imaging | photography of 4th embodiment. 第四の実施形態の撮影の例を示す図である。It is a figure which shows the example of imaging | photography of 4th embodiment. カプセル内視鏡の別の実施形態を示すブロック図である。It is a block diagram which shows another embodiment of a capsule endoscope.

図1において、カプセル内視鏡システム2は、患者10の口部から人体内に嚥下されるカプセル内視鏡(Capsule Endoscope、以下、CEと略す)11と、患者10がベルトなどに取り付けて携帯する受信装置12と、CE11で得られた画像を取り込んで、医師が読影を行うためのワークステーション(以下、WSと略す)13とから構成される。   1, a capsule endoscope system 2 includes a capsule endoscope (Capsule Endoscope, hereinafter abbreviated as CE) 11 swallowed from the mouth of a patient 10 into a human body, and the patient 10 attached to a belt or the like. Receiving device 12 and a workstation (hereinafter abbreviated as WS) 13 for taking an image obtained by the CE 11 and performing interpretation by a doctor.

CE11は、人体内管路を通過する際に管路の内壁面を撮像し、これにより得られた画像データを電波14にて受信装置12に無線送信する。受信装置12は、各種設定画面を表示する液晶表示器(以下、LCDと略す)15、および各種設定を行うための操作部16を備えている。受信装置12は、CE11から電波14で無線送信された画像データを無線受信し、これを記憶する。   The CE 11 images the inner wall surface of the conduit when passing through the human body conduit, and wirelessly transmits the image data obtained thereby to the receiving device 12 using the radio wave 14. The receiving device 12 includes a liquid crystal display (hereinafter abbreviated as LCD) 15 for displaying various setting screens, and an operation unit 16 for performing various settings. The receiving device 12 wirelessly receives the image data wirelessly transmitted from the CE 11 with the radio wave 14 and stores it.

CE11と受信装置12間の電波14の送受信は、CE11内に設けられたアンテナ39(図2、および図3参照)と、患者10が身に付けたシールドシャツ17内に装着された複数のアンテナ18とを介して行われる。アンテナ18には、CE11からの電波14の電界強度を測定する電界強度測定センサ19が内蔵されている。電界強度測定センサ19は、電界強度の測定結果を位置検出回路88(図9参照)に出力する。   Transmission / reception of the radio wave 14 between the CE 11 and the receiving device 12 is performed by an antenna 39 (see FIGS. 2 and 3) provided in the CE 11 and a plurality of antennas mounted in the shield shirt 17 worn by the patient 10. 18 through. The antenna 18 has a built-in electric field strength measurement sensor 19 that measures the electric field strength of the radio wave 14 from the CE 11. The electric field strength measurement sensor 19 outputs the measurement result of the electric field strength to the position detection circuit 88 (see FIG. 9).

WS13は、プロセッサ20と、キーボードやマウスなどの操作部21と、モニタ22とを備えている。プロセッサ20は、例えば、USBケーブル23(赤外線通信などの無線通信を用いても可)で受信装置12と接続され、受信装置12とデータの遣り取りを行う。プロセッサ20は、CE11による検査中、または検査終了後に、受信装置12から画像データを取り込み、患者毎に画像データを蓄積・管理する。また、画像データから表示用画像を生成し、これをモニタ22に表示させる。   The WS 13 includes a processor 20, an operation unit 21 such as a keyboard and a mouse, and a monitor 22. For example, the processor 20 is connected to the receiving device 12 via a USB cable 23 (which may be wireless communication such as infrared communication), and exchanges data with the receiving device 12. The processor 20 takes in the image data from the receiving device 12 during the examination by the CE 11 or after the examination is completed, and accumulates and manages the image data for each patient. In addition, a display image is generated from the image data and displayed on the monitor 22.

図2において、CE11は、透明な前カバー30と、この前カバー30に嵌合して水密な空間を形成する後カバー31とからなる。両カバー30、31は、その先端または後端が略半球形状となった筒状に形成されている。   In FIG. 2, the CE 11 includes a transparent front cover 30 and a rear cover 31 that is fitted to the front cover 30 to form a watertight space. Both the covers 30 and 31 are formed in a cylindrical shape whose front end or rear end has a substantially hemispherical shape.

両カバー30、31が作る空間内には、被観察部位の像光を取り込むための対物光学系32と、被観察部位の像光を撮像するCCD33とからなる撮像部34が組み込まれている。CCD33は、対物光学系32から入射した被観察部位の像光が撮像面に結像され、各画素からこれに応じた撮像信号を出力する。   An imaging unit 34 including an objective optical system 32 for taking in image light of the observation site and a CCD 33 for imaging the image light of the observation site is incorporated in the space formed by both covers 30 and 31. In the CCD 33, the image light of the observation site incident from the objective optical system 32 is imaged on the imaging surface, and an imaging signal corresponding to this is output from each pixel.

対物光学系32は、前カバー30の先端の略半球形状となった部分に配された、透明な凸型の光学ドーム32aと、光学ドーム32aの後端に取り付けられ、後端に向けて先細となったレンズホルダー32bと、レンズホルダー32bに固着されたレンズ32cとから構成される。対物光学系32は、光軸35を中心軸として、例えば、前方視野角140°〜180°の撮影範囲を有し、この撮影範囲における被観察部位の全方位画像を像光として取り込む。   The objective optical system 32 is attached to a transparent convex optical dome 32a and a rear end of the optical dome 32a, and is tapered toward the rear end. The lens holder 32b becomes a lens 32c fixed to the lens holder 32b. The objective optical system 32 has, for example, an imaging range with a front viewing angle of 140 ° to 180 ° with the optical axis 35 as the central axis, and takes in an omnidirectional image of the observed site in this imaging range as image light.

両カバー30、31内には、撮像部34の他に、被観察部位に光を照射する照明光源部36、送信回路55や電力供給回路57(ともに図3参照)が実装された電気回路基板37、ボタン型の電池38、および電波14を送信するためのアンテナ39などが収容されている。   In both covers 30, 31, in addition to the imaging unit 34, an illumination light source unit 36 that irradiates light to the site to be observed, a transmission circuit 55, and a power supply circuit 57 (both see FIG. 3) are mounted. 37, a button-type battery 38, an antenna 39 for transmitting the radio wave 14, and the like are accommodated.

なお、以下の説明では、後カバー31側から前カバー30側に向かう光軸35に平行な方向をF方向、その逆方向をR方向と定義する。CE11がF方向を進行方向として移動しているときには、CCD33は前方の被観察部位を撮像する。逆に、CE11がR方向を進行方向として移動しているときには、CCD33は後方の被観察部位を撮像する。   In the following description, the direction parallel to the optical axis 35 from the rear cover 31 side to the front cover 30 side is defined as the F direction, and the opposite direction is defined as the R direction. When the CE 11 is moving with the F direction as the traveling direction, the CCD 33 images the front site to be observed. On the other hand, when the CE 11 is moving with the R direction as the traveling direction, the CCD 33 images the rear part to be observed.

図3において、CPU50は、CE11の全体の動作を統括的に制御する。CPU50には、ROM51、およびRAM52が接続されている。ROM51には、CE11の動作を制御するための各種プログラムやデータが記憶される。CPU50は、ROM51から必要なプログラムやデータを読み出してRAM52に展開し、読み出したプログラムを逐次処理する。   In FIG. 3, the CPU 50 comprehensively controls the overall operation of the CE 11. A ROM 51 and a RAM 52 are connected to the CPU 50. The ROM 51 stores various programs and data for controlling the operation of the CE 11. The CPU 50 reads necessary programs and data from the ROM 51, develops them in the RAM 52, and sequentially processes the read programs.

CCD33には、ドライバ53、および信号処理回路54が接続されている。ドライバ53は、所定のフレームレート(例えば、2fps)で撮影が行われるように、CCD33、および信号処理回路54の動作を制御する。信号処理回路54は、CCD33から出力された撮像信号に対して、相関二重サンプリング、増幅、およびA/D変換を施して、撮像信号をデジタルの画像データに変換する。そして、変換した画像データに対して、γ補正等の各種画像処理を施す。   A driver 53 and a signal processing circuit 54 are connected to the CCD 33. The driver 53 controls the operations of the CCD 33 and the signal processing circuit 54 so that shooting is performed at a predetermined frame rate (for example, 2 fps). The signal processing circuit 54 performs correlated double sampling, amplification, and A / D conversion on the imaging signal output from the CCD 33, and converts the imaging signal into digital image data. The converted image data is subjected to various image processing such as γ correction.

アンテナ39には、送信回路55が接続されている。送信回路55には、変調回路56が接続され、変調回路56はCPU50に接続している。変調回路56は、信号処理回路54から出力されたデジタルの画像データを電波14に変調し、変調した電波14を送信回路55に出力する。送信回路55は、変調回路56からの電波14を増幅して帯域通過濾波した後、アンテナ39に出力する。   A transmission circuit 55 is connected to the antenna 39. A modulation circuit 56 is connected to the transmission circuit 55, and the modulation circuit 56 is connected to the CPU 50. The modulation circuit 56 modulates the digital image data output from the signal processing circuit 54 into a radio wave 14 and outputs the modulated radio wave 14 to the transmission circuit 55. The transmission circuit 55 amplifies the radio wave 14 from the modulation circuit 56 and performs band-pass filtering, and then outputs it to the antenna 39.

電力供給回路57は、電池38の電力をCE11の各部に供給する。なお、符号58は、CPU50の制御の下に、照明光源部36の駆動を制御するためのドライバである。   The power supply circuit 57 supplies the power of the battery 38 to each part of the CE 11. Reference numeral 58 denotes a driver for controlling the driving of the illumination light source unit 36 under the control of the CPU 50.

加速度センサ59は、F、R方向のCE11の加速度を測定し、この測定結果を積分回路60に出力する。加速度センサ59は、CE11がF方向を進行方向として移動していて加速、またはR方向を進行方向として移動していて減速したときには、測定結果が正となるように設定されている。反対に、CE11がF方向を進行方向として移動していて減速、またはR方向を進行方向として移動していて加速したときには、加速度センサ59の測定結果は負となる。CE11がF、R方向に関して等速運動、または静止、もしくはF、R方向に対して垂直となって移動しているときには、加速度センサ59の測定結果は0となる。積分回路60は、加速度センサ59の測定結果を適当な時間間隔で一回積分して、F、R方向のCE11の移動速度Vを求める。積分回路60は、求めた移動速度VのデータをCPU50に出力する。 The acceleration sensor 59 measures the acceleration of the CE 11 in the F and R directions, and outputs the measurement result to the integration circuit 60. The acceleration sensor 59 is set so that the measurement result is positive when the CE 11 is moving with the F direction as the traveling direction and accelerating or decelerating while moving with the R direction as the traveling direction. On the contrary, when the CE 11 moves with the F direction as the traveling direction and decelerates, or moves with the R direction as the traveling direction and accelerates, the measurement result of the acceleration sensor 59 becomes negative. The measurement result of the acceleration sensor 59 is 0 when the CE 11 is moving at a constant speed in the F and R directions, or stationary or moving perpendicular to the F and R directions. The integration circuit 60 integrates the measurement result of the acceleration sensor 59 once at an appropriate time interval to obtain the moving speed V 0 of the CE 11 in the F and R directions. The integration circuit 60 outputs the obtained data of the moving speed V 0 to the CPU 50.

CPU50は、積分回路60から逐次出力される移動速度Vを、加速度の測定開始時から積算して、その時点でのCE11の移動速度Vを算出する。CE11がF方向を進行方向として移動しているときには、移動速度Vは正となる。CE11が静止したとき、もしくはF、R方向に対して垂直となって移動しているときには、移動速度Vは0となる。また、CE11がR方向を進行方向として移動しているときには、移動速度Vは負となる。 The CPU 50 integrates the moving speed V 0 sequentially output from the integrating circuit 60 from the start of acceleration measurement, and calculates the moving speed V of the CE 11 at that time. When the CE 11 is moving with the F direction as the traveling direction, the moving speed V is positive. When the CE 11 is stationary or is moving perpendicular to the F and R directions, the moving speed V is zero. Further, when the CE 11 is moving with the R direction as the traveling direction, the moving speed V is negative.

CPU50は、例えば、五回の撮影毎(一定時間毎(例えば、1秒毎)でも可)に、算出した移動速度Vの絶対値|V|と、予め設定された第一、第二の閾値TH、TH(TH>TH)とを比較する。CPU50は、移動速度の絶対値|V|と各閾値TH、THとの比較結果に応じて、CCD33で得られる画像の画素数をPmax、Pmid、およびPlowの三段階で変換するための制御信号をドライバ53に出力する。ドライバ53は、CPU50からの各制御信号に基づいて、CCD33を駆動する。 For example, the CPU 50 calculates the absolute value | V | of the calculated moving speed V and the first and second threshold values set in advance every five times of photographing (may be every fixed time (for example, every second)). Compare TH 1 and TH 2 (TH 1 > TH 2 ). The CPU 50 converts the number of pixels of the image obtained by the CCD 33 in three stages of P max , P mid , and P low according to the comparison result between the absolute value | V | of the moving speed and the threshold values TH 1 and TH 2. A control signal for output to the driver 53. The driver 53 drives the CCD 33 based on each control signal from the CPU 50.

すなわち、CPU50は、移動速度の絶対値|V|が第一の閾値TH以上であった場合(|V|≧TH)、CCD33の最高の画素数Pmaxで撮影(以下、通常撮影という)を行わせる。また、移動速度の絶対値|V|が第一の閾値TH未満、且つ第二の閾値TH以上であった場合(TH≦|V|<TH)、CPU50は、画素数Pmaxよりも低い画素数Pmidで撮影(以下、中画素数撮影という)を行わせる。さらに、移動速度の絶対値|V|が第二の閾値TH未満であった場合(|V|<TH)、または移動速度の絶対値|V|が0であった(|V|=0、つまりCE11が停止)場合、CPU50は、画素数Pmidよりもさらに低い画素数Plowで撮影(以下、低画素数撮影という)を行わせる。 That is, when the absolute value | V | of the moving speed is equal to or greater than the first threshold value TH 1 (| V | ≧ TH 1 ), the CPU 50 performs shooting with the maximum pixel number P max of the CCD 33 (hereinafter referred to as normal shooting). ). When the absolute value | V | of the moving speed is less than the first threshold value TH 1 and equal to or greater than the second threshold value TH 2 (TH 2 ≦ | V | <TH 1 ), the CPU 50 determines the number of pixels P max. Shooting is performed with a lower pixel number P mid (hereinafter referred to as “medium pixel number shooting”). Further, when the absolute value | V | of the moving speed is less than the second threshold TH 2 (| V | <TH 2 ), or the absolute value | V | of the moving speed is 0 (| V | = In the case of 0, that is, when the CE 11 is stopped), the CPU 50 causes photographing with a pixel number P low that is lower than the pixel number P mid (hereinafter referred to as low pixel number photographing).

CPU50は、画素数の情報(以下、画素数情報という)を変調回路56に出力する。変調回路56に出力された画素数情報は、画像データとともに電波14に変調され、送信回路55で増幅、帯域通過濾波された後、アンテナ39から無線送信される。   The CPU 50 outputs pixel number information (hereinafter referred to as pixel number information) to the modulation circuit 56. The pixel number information output to the modulation circuit 56 is modulated into the radio wave 14 together with the image data, amplified by the transmission circuit 55 and band-pass filtered, and then wirelessly transmitted from the antenna 39.

ここで、画素数を変換する方法の説明に移る前に、CCD33の概略構成を述べる。図4において、CCD33は、垂直方向Vおよび水平方向Hに沿って二次元正方格子状に配列された複数の受光素子70を有する。受光素子70は、たとえばpn接合型ダイオード(フォトダイオード)であり、光電変換により入射光を信号電荷に変換して蓄積する。   Here, before moving on to the description of the method for converting the number of pixels, the schematic configuration of the CCD 33 will be described. In FIG. 4, the CCD 33 has a plurality of light receiving elements 70 arranged in a two-dimensional square lattice along the vertical direction V and the horizontal direction H. The light receiving element 70 is, for example, a pn junction type diode (photodiode), and converts incident light into a signal charge by photoelectric conversion and accumulates it.

受光素子70の対物光学系32側には、赤色フィルタ、緑色フィルタ、青色フィルタ(それぞれR、G、Bで表す)のいずれかが設けられている。受光素子70は、各色フィルタに対応する色成分の光を受光し、R、G、Bの各色の画素71を構成する。各色フィルタは、Gの画素71が市松状に配置され、水平方向Hに配置されたGの画素71間にRの画素71が配置された行と、Rの画素71の代わりにBの画素71が配置された行とが垂直方向Vに交互に配列されてなる、いわゆるベイヤー配列をとっている。   One of a red filter, a green filter, and a blue filter (represented by R, G, and B, respectively) is provided on the objective optical system 32 side of the light receiving element 70. The light receiving element 70 receives light of a color component corresponding to each color filter and constitutes a pixel 71 of each color of R, G, and B. In each color filter, the G pixels 71 are arranged in a checkered pattern, the row in which the R pixels 71 are arranged between the G pixels 71 arranged in the horizontal direction H, and the B pixel 71 instead of the R pixel 71. A so-called Bayer arrangement is adopted in which the rows in which are arranged are alternately arranged in the vertical direction V.

受光素子70の各列には、垂直電荷転送路(以下、VCCDと略す)72が設けられている。受光素子70とVCCD72とは、読み出しゲート73を介して接続されている。VCCD72は、読み出しゲート73を介して受光素子70から読み出した信号電荷を垂直方向Vに転送する。   Each column of the light receiving elements 70 is provided with a vertical charge transfer path (hereinafter abbreviated as VCCD) 72. The light receiving element 70 and the VCCD 72 are connected via a read gate 73. The VCCD 72 transfers the signal charge read from the light receiving element 70 through the read gate 73 in the vertical direction V.

各VCCD72の終端には、ラインメモリ(以下、LMと略す)74が接続され、LM74には、水平電荷転送路(以下、HCCDと略す)75が接続されている。LM74は、各VCCD72から一行分の画素71の信号電荷を順次に受け取り、信号電荷を選択的(例えば、一行分全て、あるいは一列分あけて)にHCCD75に転送する。HCCD75は、LM74から読み出した信号電荷を、水平方向Hに転送する。   A line memory (hereinafter abbreviated as LM) 74 is connected to the end of each VCCD 72, and a horizontal charge transfer path (hereinafter abbreviated as HCCD) 75 is connected to the LM 74. The LM 74 sequentially receives the signal charges of the pixels 71 for one row from each VCCD 72, and selectively transfers the signal charges to the HCCD 75 (for example, all the rows or one column). The HCCD 75 transfers the signal charge read from the LM 74 in the horizontal direction H.

HCCD75の終端には、出力アンプ76が設けられている。出力アンプ76は、FD(フローティングディフュージョン)アンプからなり、HCCD75から信号電荷を順次に受け取り、電荷電圧変換により信号電荷を電圧信号(撮像信号)に変換して出力する。   An output amplifier 76 is provided at the end of the HCCD 75. The output amplifier 76 is composed of an FD (floating diffusion) amplifier, sequentially receives signal charges from the HCCD 75, converts the signal charges into voltage signals (imaging signals) by charge-voltage conversion, and outputs them.

本実施形態では、画素数を変換するための手法として、ビニング読み出し処理を用いる。ビニング読み出し処理は、VCCD72、またはHCCD75で信号電荷を転送するときに、二以上の画素71の信号電荷をVCCD72、またはHCCD75上で加算するものである。二以上の画素71の信号電荷を加算して一つの画素を表す信号とするので、最終的な画像データのデータ容量を大幅に削減することができ、また、見かけ上のCCD33の感度も向上する。   In the present embodiment, binning readout processing is used as a method for converting the number of pixels. In the binning readout process, signal charges of two or more pixels 71 are added on the VCCD 72 or the HCCD 75 when the signal charges are transferred by the VCCD 72 or the HCCD 75. Since the signal charge of two or more pixels 71 is added to form a signal representing one pixel, the data capacity of the final image data can be greatly reduced, and the apparent sensitivity of the CCD 33 is also improved. .

図5〜図8を用いて、ビニング読み出し処理を概念的に説明する。まず、図5において、4×4の16個の画素71(R、B4個ずつ、G8個)について着目する。この場合、図6に示すように、第一列目のR画素R、Rと、第三列目のR画素R、RとをVCCD72上でそれぞれ加算し、R、Rとする。そして、これらをHCCD75上で加算し、Rとする。 The binning reading process will be conceptually described with reference to FIGS. First, in FIG. 5, attention is focused on 16 pixels 71 of 4 × 4 (R, B4, G8). In this case, as shown in FIG. 6, the R pixels R 1 and R 2 in the first column and the R pixels R 3 and R 4 in the third column are added on the VCCD 72, respectively, and R 1 R 2 , Let R 3 R 4 . These are added on the HCCD 75 to obtain R 1 R 2 R 3 R 4 .

同様に、図7に示すように、第二列目のB画素B、Bと、第四列目のB画素B、BとをVCCD72上でそれぞれ加算し、B、Bとし、これらをHCCD75上で加算し、Bとする。また、図8に示すように、第一列目のG画素G、G、第二列目のG画素G、G、および第三列目のG画素G、G、第四列目のG画素G、GもVCCD72、HCCD75上で加算し、G、およびGとする。 Similarly, as shown in FIG. 7, the B pixels B 1 and B 2 in the second column and the B pixels B 3 and B 4 in the fourth column are added on the VCCD 72, respectively, and B 1 B 2 , B 3 B 4 are added on the HCCD 75 to obtain B 1 B 2 B 3 B 4 . Further, as shown in FIG. 8, the G pixels G 1 and G 2 in the first column, the G pixels G 3 and G 4 in the second column, and the G pixels G 5 and G 6 in the third column, The G pixels G 7 and G 8 in the fourth row are also added on the VCCD 72 and the HCCD 75 to obtain G 1 G 2 G 3 G 4 and G 5 G 6 G 7 G 8 .

次いで、図6〜図8の右側に示すように、R、B、G、およびGのそれぞれをR、G、B画素とする2×2の4個の加算画素77に再配列する。通常撮影時は、全画素71の信号電荷を個別に読み出して、CCD33の最高の画素数Pmaxで画像を構成するが、こうした画素加算と再配列をすることにより、画素数が画素数Pmaxの1/4となる。本実施形態では、一例として、中画素数撮影時の画素数Pmidを画素数Pmaxの1/4、低画素数撮影時の画素数Plowを画素数Pmaxの1/16とする。なお、ビニング読み出し処理の詳細については、特開2000−350099号公報を参照されたい。 Then, as shown on the right side of FIGS. 6-8, R 1 R 2 R 3 R 4 , B 1 B 2 B 3 B 4 , G 1 G 2 G 3 G 4 , and G 5 G 6 G 7 G 8 Are rearranged into 2 × 2 four addition pixels 77 having R, G, and B pixels. During normal photographing, the signal charges of all the pixels 71 are individually read out to form an image with the maximum number of pixels P max of the CCD 33. By such pixel addition and rearrangement, the number of pixels becomes the number of pixels P max. 1/4 of this. In the present embodiment, as an example, the pixel number P mid at the time of shooting the number of medium pixels is set to ¼ of the pixel number P max , and the pixel number P low at the time of shooting of the low pixel number is set to 1/16 of the number of pixels P max . For details of the binning readout process, refer to Japanese Patent Laid-Open No. 2000-350099.

図9において、CPU80は、受信装置12の全体の動作を統括的に制御する。CPU80には、バス81を介して、ROM82、およびRAM83が接続されている。ROM82には、受信装置12の動作を制御するための各種プログラムやデータが記憶される。CPU80は、ROM82から必要なプログラムやデータを読み出してRAM83に展開し、読み出したプログラムを逐次処理する。また、CPU80は、操作部16からの操作入力信号に応じて、受信装置12の各部を動作させる。   In FIG. 9, the CPU 80 comprehensively controls the overall operation of the receiving device 12. A ROM 82 and a RAM 83 are connected to the CPU 80 via a bus 81. The ROM 82 stores various programs and data for controlling the operation of the receiving device 12. The CPU 80 reads out necessary programs and data from the ROM 82, develops them in the RAM 83, and sequentially processes the read programs. Further, the CPU 80 operates each unit of the receiving device 12 in accordance with an operation input signal from the operation unit 16.

アンテナ18には、受信回路84が接続されている。受信回路84には、復調回路85が接続されている。受信回路84は、アンテナ18を介して受信した電波14を増幅して帯域通過濾波した後、復調回路85に出力する。復調回路85は、受信装置12からの電波14を元の画像データおよび画素数情報に復調する。そして、復調した画像データをDSP86に、画素数情報をデータストレージ87にそれぞれ出力する。   A receiving circuit 84 is connected to the antenna 18. A demodulation circuit 85 is connected to the reception circuit 84. The reception circuit 84 amplifies the radio wave 14 received via the antenna 18 and performs band-pass filtering, and then outputs it to the demodulation circuit 85. The demodulation circuit 85 demodulates the radio wave 14 from the receiving device 12 into the original image data and pixel number information. The demodulated image data is output to the DSP 86 and the pixel number information is output to the data storage 87.

DSP(Digital Signal Processor)86は、復調回路85からの画像データに対して各種信号処理を施した後、画像データをデータストレージ87に出力する。データストレージ87は、例えば、記憶容量が1GB程度のフラッシュメモリからなる。データストレージ87は、DSP86から順次出力される画像データと、復調回路85からの画素数情報とを関連付けて記憶・蓄積する。   A DSP (Digital Signal Processor) 86 performs various signal processing on the image data from the demodulation circuit 85, and then outputs the image data to the data storage 87. The data storage 87 is composed of a flash memory having a storage capacity of about 1 GB, for example. The data storage 87 stores and stores the image data sequentially output from the DSP 86 and the pixel number information from the demodulation circuit 85 in association with each other.

位置検出回路88は、電界強度測定センサ19による電波14の電界強度の測定結果を元に、人体内のCE11の現在位置を検出し、この検出結果(以下、位置情報という)をデータストレージ87に出力する。データストレージ87は、画素数情報とともに、位置検出回路88からの位置情報をDSP86からの画像データに関連付けて記憶する。   The position detection circuit 88 detects the current position of the CE 11 in the human body based on the measurement result of the electric field intensity of the radio wave 14 by the electric field intensity measurement sensor 19, and this detection result (hereinafter referred to as position information) is stored in the data storage 87. Output. The data storage 87 stores the position information from the position detection circuit 88 in association with the image data from the DSP 86 together with the pixel number information.

なお、人体内のCE11の位置を検出する具体的な方法としては、例えば、人体内のCE11の位置に応じた、複数のアンテナ18が受信する電波14の電界強度分布を事前に実験で求めておき、位置と電界強度分布の関係を対応させたデータテーブルを予めROM82に記憶しておく。そして、電界強度測定センサ19の測定結果とデータテーブルの電界強度分布とを照らし合わせ、該当するCE11の位置をデータテーブルから読み出すことで行う。   In addition, as a specific method for detecting the position of the CE 11 in the human body, for example, an electric field intensity distribution of the radio wave 14 received by the plurality of antennas 18 corresponding to the position of the CE 11 in the human body is obtained by experiments in advance. A data table in which the relationship between the position and the electric field intensity distribution is associated is stored in the ROM 82 in advance. Then, the measurement result of the electric field strength measurement sensor 19 is compared with the electric field strength distribution of the data table, and the position of the corresponding CE 11 is read from the data table.

もしくは、各アンテナ18への電波14の到達時間のずれ量、すなわち、電波14の位相差を検出し、これを元に位置を検出してもよい。この場合、電波14の位相差は、各アンテナ18とCE11との相対的な位置関係(距離)を表している。位置検出回路88は、適当な換算式やデータテーブルを用いて、電波14の位相差を各アンテナ18とCE11との距離に換算することで、CE11の位置の検出を行う。さらには、少なくとも二つのアンテナ18への電波14の到来方向を検出し、二つのアンテナ18間の距離を基線長とする三角測量の原理に基づいて、CE11の位置を検出してもよい。   Alternatively, the amount of arrival time deviation of the radio wave 14 to each antenna 18, that is, the phase difference of the radio wave 14 may be detected and the position may be detected based on this. In this case, the phase difference of the radio wave 14 represents the relative positional relationship (distance) between each antenna 18 and the CE 11. The position detection circuit 88 detects the position of the CE 11 by converting the phase difference of the radio wave 14 into the distance between each antenna 18 and the CE 11 using an appropriate conversion formula or data table. Furthermore, the position of the CE 11 may be detected based on the principle of triangulation by detecting the arrival directions of the radio waves 14 to at least two antennas 18 and using the distance between the two antennas 18 as a baseline length.

バス81には、上記各部に加えて、LCD15の表示制御を行うドライバ89、USBコネクタ90を介してプロセッサ20とのデータの遣り取りを媒介する通信I/F91、電池92の電力を受信装置12の各部に供給する電力供給回路93などが接続されている。   In addition to the above components, the bus 81 includes a driver 89 that performs display control of the LCD 15, a communication I / F 91 that mediates data exchange with the processor 20 via the USB connector 90, and the power of the battery 92 of the receiving device 12. A power supply circuit 93 to be supplied to each unit is connected.

図10において、CPU100は、WS13の全体の動作を統括的に制御する。CPU100には、バス101を介して、モニタ22の表示制御を行うドライバ102、USBコネクタ103を経由した受信装置12とのデータの遣り取りを媒介し、受信装置12からの画像データを受信する通信I/F104、受信装置12からの画像データを記憶・蓄積するデータストレージ105、およびRAM106が接続されている。   In FIG. 10, the CPU 100 comprehensively controls the overall operation of the WS 13. The CPU 100 communicates with the driver 102 that performs display control of the monitor 22 via the bus 101 and the communication I that receives the image data from the receiving device 12 via the data exchange with the receiving device 12 via the USB connector 103. / F104, a data storage 105 for storing and accumulating image data from the receiving device 12, and a RAM 106 are connected.

データストレージ105には、画像データの他に、WS13の動作に必要な各種プログラムやデータ、医師の読影を支援する支援ソフトのプログラムが記憶されている。RAM106には、データストレージ105から読み出したデータや、各種演算処理により生じる中間データが一時記憶される。   In addition to the image data, the data storage 105 stores various programs and data necessary for the operation of the WS 13, and a program of support software that supports doctor interpretation. The RAM 106 temporarily stores data read from the data storage 105 and intermediate data generated by various arithmetic processes.

支援ソフトを立ち上げると、モニタ22には、例えば、図11に示すような作業ウィンドウ110が表示される。この作業ウィンドウ110上で医師が操作部21を操作することにより、画像の表示・編集、検査情報の入力などを行うことができる。作業ウィンドウ110には、患者10の氏名、年齢などを記載した患者情報や、検査日などの検査情報が表示される領域111の他、領域112〜114が設けられている。   When the support software is launched, a work window 110 as shown in FIG. 11 is displayed on the monitor 22, for example. When a doctor operates the operation unit 21 on the work window 110, image display / editing, examination information input, and the like can be performed. In the work window 110, areas 112 to 114 are provided in addition to an area 111 on which patient information describing the name and age of the patient 10 and examination information such as an examination date are displayed.

領域112には、簡易的な人体の解剖図115が表示されており、位置情報から導かれるCE11の概略的な移動軌跡116が解剖図115内に表示されている。領域113には、データストレージ105に記憶された画像データのうち、通常撮影で得られた画素数Pmaxの画像が連続表示される。また、画素数Pmaxの画像の前後に中画素数、低画素数撮影をして得られた画素数Pmid、Plowの画像も、画素数Pmaxの画像表示の間に適当な枚数で挿入される。領域113の画像表示は、下部に設けられたコントロールバー117にカーソル118を合わせて操作することで、再生、一時停止、および停止させることができる。なお、領域113に現在表示されている画像の撮影箇所を視覚的に特定可能とするため、移動軌跡116上の撮影箇所と領域113とは、点線119で結ばれている。 A simple anatomical diagram 115 of the human body is displayed in the area 112, and a schematic movement trajectory 116 of the CE 11 derived from the position information is displayed in the anatomical diagram 115. Of the image data stored in the data storage 105, an image of the number of pixels P max obtained by normal shooting is continuously displayed in the area 113. Further, in the number of pixels before and after the image of the pixel number P max, the number of pixels obtained by the low pixel number imaging P mid, also the image of P low, a suitable number between the image display pixel number P max Inserted. The image display in the area 113 can be played back, paused, and stopped by operating the cursor 118 on the control bar 117 provided at the bottom. Note that the shooting location on the movement locus 116 and the region 113 are connected by a dotted line 119 so that the shooting location of the image currently displayed in the region 113 can be visually specified.

領域114には、領域113に現在表示されている画素数Pmaxの画像の前後に、中画素数撮影、低画素数撮影で得られた画素数Pmid、Plowの画像が一枚ずつ静止画表示される。領域113の場合と同様に、領域114の画像表示も、コントロールバー120を操作することで、再生、一時停止、および停止させることができる。領域113、114に表示させる画像の振り分けは、画素数情報を参照して行われる。なお、領域114にも、画素数Pmaxの画像を挿入してもよい。また、画素数Pmaxの画像の表示時間を、画素数Pmid、Plowの画像よりも長くしてもよい。さらに、将来画素数Pmaxがより増加して、画素数Pmidが現状の画素数Pmaxに相当する場合を見越して、上記とは逆に、領域113に画素数Pmidの画像を動画表示し、領域114に画素数Pmaxの画像を静止画表示してもよい。 In the region 114, before and after the image of the pixel number P max currently displayed in the region 113, the images of the pixel numbers P mid and P low obtained by the middle pixel number photographing and the low pixel number photographing are stationary one by one. Displayed. Similar to the case of the area 113, the image display of the area 114 can be reproduced, paused, and stopped by operating the control bar 120. The distribution of the images to be displayed in the areas 113 and 114 is performed with reference to the pixel number information. Note that an image having the number of pixels P max may be inserted into the region 114 as well. Further, the display time of the image having the pixel number P max may be longer than that of the image having the pixel numbers P mid and P low . Further, in anticipation of the case where the number of future pixels P max further increases and the number of pixels P mid corresponds to the current number of pixels P max , an image of the number of pixels P mid is displayed in the region 113 as a moving image, contrary to the above case. Then, an image having the number of pixels P max may be displayed in the region 114 as a still image.

次に、上記のように構成されたカプセル内視鏡システム2で検査を行う際の処理手順を、図12のフローチャートを参照して説明する。まず、検査前の準備として、医師は、受信装置12、シールドシャツ17、およびアンテナ18を患者10に装着させ、CE11の電源を投入して患者10にCE11を嚥下させる。   Next, a processing procedure when performing an examination with the capsule endoscope system 2 configured as described above will be described with reference to a flowchart of FIG. First, as a preparation before the examination, the doctor attaches the receiving device 12, the shield shirt 17, and the antenna 18 to the patient 10, turns on the CE 11, and causes the patient 10 to swallow the CE 11.

CE11が患者10に嚥下されると、S10に示すように、照明光源部36で人体内の被観察部位が照明されつつ、フレームレート2fps、画素数Pmaxの通常撮影の設定で、CCD33により人体内管路の内壁面が撮像される。このとき、対物光学系32から入射した人体内の被観察部位の像光は、CCD33の撮像面に結像され、これによりCCD33から撮像信号が出力される。 When the CE 11 is swallowed by the patient 10, as shown in S 10, a human body is observed by the CCD 33 in a normal shooting setting with a frame rate of 2 fps and the number of pixels P max while the observation light source 36 is illuminated by the illumination light source unit 36. The inner wall surface of the body duct is imaged. At this time, the image light of the observed region in the human body incident from the objective optical system 32 is imaged on the imaging surface of the CCD 33, whereby an imaging signal is output from the CCD 33.

S11において、CCD33から出力された撮像信号は、信号処理回路54で相関二重サンプリング、増幅、およびA/D変換が施され、デジタルの画像データに変換された後、各種画像処理が施される。信号処理回路54で生成された画像データは、変調回路56に出力される。   In S11, the image pickup signal output from the CCD 33 is subjected to correlated double sampling, amplification, and A / D conversion by the signal processing circuit 54, converted into digital image data, and then subjected to various image processing. . The image data generated by the signal processing circuit 54 is output to the modulation circuit 56.

変調回路56では、CPU50からの画素数情報とともに、信号処理回路54から出力されたデジタルの画像データが電波14に変調される。S12において、変調された電波14は、送信回路55で増幅、帯域通過濾波された後、アンテナ39から送信される。   In the modulation circuit 56, the digital image data output from the signal processing circuit 54 is modulated into the radio wave 14 together with the pixel number information from the CPU 50. In S 12, the modulated radio wave 14 is amplified and band-pass filtered by the transmission circuit 55 and then transmitted from the antenna 39.

受信装置12では、アンテナ18で電波14が受信されると、受信回路84で電波14が増幅、帯域通過濾波された後、復調回路85で元の画像データおよび画素数情報に復調される。復調された画像データは、DSP86で各種信号処理が施された後、画素数情報とともにデータストレージ87に出力される。   In the receiving device 12, when the radio wave 14 is received by the antenna 18, the radio wave 14 is amplified and band-pass filtered by the receiving circuit 84, and then demodulated to the original image data and pixel number information by the demodulation circuit 85. The demodulated image data is subjected to various signal processing by the DSP 86 and then output to the data storage 87 together with the pixel number information.

また、このとき、電界強度測定センサ19で電波14の電界強度が測定される。そして、電界強度測定センサ19の測定結果を元に、人体内のCE11の位置が位置検出回路88で検出される。位置検出回路88の検出結果、すなわち位置情報は、データストレージ87に出力される。データストレージ87には、画像データ、画素数情報、および位置情報が関連付けられて記憶される。   At this time, the electric field intensity measurement sensor 19 measures the electric field intensity of the radio wave 14. Then, based on the measurement result of the electric field strength measurement sensor 19, the position of the CE 11 in the human body is detected by the position detection circuit 88. The detection result of the position detection circuit 88, that is, the position information is output to the data storage 87. The data storage 87 stores image data, pixel number information, and position information in association with each other.

さらに、CE11が患者10に嚥下されたときから、加速度センサ59による加速度の測定が開始される。そして、加速度センサ59の測定結果を元に、CPU50でCE11の移動速度Vが算出される。   Furthermore, when the CE 11 is swallowed by the patient 10, measurement of acceleration by the acceleration sensor 59 is started. Based on the measurement result of the acceleration sensor 59, the CPU 50 calculates the moving speed V of the CE 11.

通常撮影による五回の撮影が終了すると(S13でyes)、S14に示すように、CPU50にて、まず、移動速度Vの絶対値|V|と、第一の閾値THとが比較される。移動速度の絶対値|V|が第一の閾値TH以上であった場合(|V|≧TH、S15でyes)は、S16において、画素数Pmaxの通常撮影がなされるように、CPU50からドライバ53に制御信号が出力される。移動速度の絶対値|V|が第一の閾値TH未満であった場合(|V|<TH、S15でno)は、S17に移行する。 When five times of photographing by the normal photography is completed (yes in S13), as shown in S14, by CPU 50, first, the absolute value of the moving speed V | V | a, and the first threshold value TH 1 is compared . When the absolute value | V | of the moving speed is greater than or equal to the first threshold TH 1 (| V | ≧ TH 1 , yes in S15), in S16, normal imaging with the number of pixels P max is performed. A control signal is output from the CPU 50 to the driver 53. When the absolute value | V | of the moving speed is less than the first threshold value TH 1 (| V | <TH 1 , no in S15), the process proceeds to S17.

S17において、今度は、CPU50で移動速度Vの絶対値|V|と、第二の閾値THとが比較される。移動速度の絶対値|V|が第二の閾値TH以上であった場合(|V|≧TH(且つ|V|<TH)、S18でyes)は、S19において、画素数Pmaxの1/4の画素数である画素数Pmidの中画素数撮影がなされるように、CPU50からドライバ53に制御信号が出力される。移動速度の絶対値|V|が第二の閾値TH未満であった場合、または移動速度の絶対値|V|が0であった場合(|V|<TH、または|V|=0、S18でno)は、S20に示すように、画素数Pmaxの1/16の画素数である画素数Plowの低画素数撮影がなされるように、CPU50からドライバ53に制御信号が出力される。 In S17, in turn, the absolute value of the moving speed V at CPU 50 | V | a, and the second threshold value TH 2 are compared. If the absolute value | V | of the moving speed is greater than or equal to the second threshold TH 2 (| V | ≧ TH 2 (and | V | <TH 1 ), yes in S18), the number of pixels P max in S19 as the number of pixels captured in the pixel number P mid is the number of pixels 1/4 is made, the control signal to the driver 53 is outputted from the CPU 50. When the absolute value | V | of the moving speed is less than the second threshold TH 2 or when the absolute value | V | of the moving speed is 0 (| V | <TH 2 , or | V | = 0) No in S18), as shown in S20, a control signal is output from the CPU 50 to the driver 53 so that a low pixel number photographing with a pixel number P low which is 1/16 of the pixel number P max is performed. Is done.

CPU50からの制御信号を受けて、通常、中画素数、低画素数の各撮影のうち、設定された撮影に応じて、ドライバ53によりCCD33が駆動される。通常撮影が設定された場合は、全画素71の信号電荷が個別に読み出され、画素数Pmaxの画像が生成される。中画素数、低画素数撮影が設定された場合は、ビニング読み出し処理が実行され、画素数Pmid、Plowの画像が生成される。そして、設定された撮影で五回の撮影が終了すると、再びCPU50による移動速度Vの絶対値|V|と各閾値TH、THとの比較、および比較結果に応じた撮影の設定が実行される。これら一連の処理は、CE11による検査が終了するまで続けられる。 In response to the control signal from the CPU 50, the CCD 53 is driven by the driver 53 in accordance with the set shooting, which is usually the shooting with the middle pixel count and the low pixel count. When normal shooting is set, the signal charges of all the pixels 71 are individually read out, and an image having the number of pixels P max is generated. When the middle pixel count and the low pixel count shooting are set, a binning readout process is executed, and an image with the pixel counts P mid and P low is generated. When five shootings are completed with the set shooting, the CPU 50 again compares the absolute value | V | of the moving speed V with each of the threshold values TH 1 and TH 2 and sets the shooting according to the comparison result. Is done. These series of processes are continued until the inspection by the CE 11 is completed.

検査終了後、医師は、受信装置12とプロセッサ20とをUSBケーブル23で接続し、データストレージ87に記憶された画像データ、およびこれに関連付けられた画素数情報、位置情報をWS13のデータストレージ105にアップロードする。そして、WS13にて、支援ソフトを用いて読影を行う。   After completion of the examination, the doctor connects the receiving device 12 and the processor 20 with the USB cable 23, and the image data stored in the data storage 87, the pixel number information associated therewith, and the position information are stored in the data storage 105 of the WS 13. Upload to. Then, in WS13, interpretation is performed using support software.

医師は、必要に応じてコントロールバー117を操作しながら、領域113に連続表示される通常撮影をした画素数Pmaxの画像を中心に読影する。領域113に表示された画像に病変部等の関心領域を見付けた場合は、コントロールバー117を操作して領域113の表示を一時停止させる。そして、領域113に現在表示されている画素数Pmaxの画像の前、または後に、中画素数撮影、低画素数撮影で得られた画素数Pmid、Plowの画像を一枚ずつ領域114に静止画表示させ、より詳細な読影を行う。 The doctor interprets the image centered on the image of the number of pixels Pmax obtained by normal imaging continuously displayed in the region 113 while operating the control bar 117 as necessary. When a region of interest such as a lesion is found in the image displayed in the region 113, the control bar 117 is operated to temporarily stop the display of the region 113. Then, before or after the image of the pixel number P max currently displayed in the region 113, an image of the pixel numbers P mid and P low obtained by the middle pixel number photographing and the low pixel number photographing one by one is displayed in the region 114. To display a still image and perform more detailed interpretation.

以上説明した第一の実施形態によれば、CE11の人体内における移動速度が比較的速い場合(|V|≧TH)はCCD33の最高の画素数Pmax、移動速度が中程度の場合(TH≦|V|<TH)は中程度の画素数Pmid、移動速度が比較的遅い、またはCE11が停止している場合(|V|<TH、または|V|=0)は低い画素数Plowでそれぞれ撮影を行うので、画像データを無線送信する際に掛かる消費電力、および処理時間を低減することができる。 According to the first embodiment described above, when the moving speed of the CE 11 in the human body is relatively fast (| V | ≧ TH 1 ), the maximum number of pixels P max of the CCD 33 and the moving speed are medium ( (TH 2 ≦ | V | <TH 1 ) is an intermediate number of pixels P mid , the movement speed is relatively slow, or the CE 11 is stopped (| V | <TH 2 or | V | = 0) Since each image is taken with a low number of pixels P low , it is possible to reduce power consumption and processing time required for wirelessly transmitting image data.

より具体的に説明すると、図13において、人体内の被観察部位の像光がCCD33の撮像面に結像されて、信号処理回路54によりデジタルの画像データが出力されるまでに要する時間(以下、撮影処理時間という)tは、撮影の種類(画素数)に関わらず略同じとなる。 More specifically, in FIG. 13, the time required for the image light of the site to be observed in the human body to be imaged on the imaging surface of the CCD 33 and for the digital image data to be output by the signal processing circuit 54 (hereinafter referred to as the image data). ,) t p that imaging processing time is substantially the same regardless of the kind of shooting (the number of pixels).

一方、画像データが変調回路56で電波14に変調されて、アンテナ39から送信されるまでに要する時間(以下、送信処理時間という)tは、送信する画像データの容量が大きい程長くなる。このため、画像の画素数が最高で、したがって画像データの容量も最大の通常撮影時に送信処理時間tが最大となり、送信に掛かる消費電力も最大となる。また、通常撮影では、撮影処理時間tと送信処理時間tとを加えた時間は、撮影時間間隔t(本実施形態では、フレームレート2fpsであるので、t=0.5秒)と同じとなる。さらに言えば、撮影処理時間tと送信処理時間tとを加えた時間が撮影時間間隔tとなるように設計されている。 On the other hand, the time required for the image data to be modulated by the modulation circuit 56 into the radio wave 14 and transmitted from the antenna 39 (hereinafter referred to as transmission processing time) t t becomes longer as the capacity of the image data to be transmitted increases. For this reason, the transmission processing time t t is maximized at the time of normal photographing where the number of pixels of the image is the maximum and the image data capacity is also the maximum, and the power consumption required for the transmission is also maximized. In normal shooting, the time obtained by adding the shooting processing time t p and the transmission processing time t t is the shooting time interval t n (in this embodiment, since the frame rate is 2 fps, t n = 0.5 seconds). Will be the same. Furthermore, it is designed so that the time obtained by adding the imaging processing time t p and the transmission processing time t t becomes the imaging time interval t n .

画素数が比較的低く、したがって画像データの容量も小さくなる中画素数、低画素数撮影時は、通常撮影時と比べて送信処理時間tが短くなり、送信に掛かる消費電力も少なくて済む。中画素数、低画素数撮影時は、通常撮影時と比べて送信処理時間tが短くなるので、撮影時間間隔tが一定の下では、撮影時間間隔tのうち、撮影処理も送信処理も行わない空き時間tができる。なお、中画素数、低画素数撮影時は、通常撮影の下段にそれぞれ示す如く撮影直後に送信を行う態様と、最下段に示す(ここでは代表として低画素数撮影のみ図示)如く撮影直後は送信を行わず、次回の撮影の前に前回撮影した画像を送信する態様を取り得る。 When shooting with a medium number of pixels and a low number of pixels, which has a relatively low number of pixels and therefore a small amount of image data, the transmission processing time t t is shorter and the power consumption required for transmission is less than when shooting normally. . Since the transmission processing time t t is shorter when shooting the number of medium pixels and the number of low pixels than when shooting normally, if the shooting time interval t n is constant, the shooting process is also transmitted within the shooting time interval t n. processing can also free time t b is not performed. At the time of shooting the number of middle pixels and the number of low pixels, a mode in which transmission is performed immediately after shooting as shown in the lower part of normal shooting and a state immediately after shooting as shown in the lowermost stage (here, only low pixel number shooting is shown as a representative). It is possible to adopt a mode in which an image captured last time is transmitted before the next imaging without transmitting.

空き時間tを、CCD33、ドライバ53、信号処理回路54などの撮影に関わる各部や、送信回路55、変調回路56などの送信に関わる各部の動作を休止させ、消費電力を抑える待機時間とすれば、電池38の消耗をさらに抑えることができ、CE11の長寿命化を図ることができる。CE11の長寿命化が達成されれば、観察の途中に電池38が尽きてCE11の動作が停止され、撮りこぼしが生じてしまうといった問題が生じるおそれがなくなる。 The idle time t b, CCD 33, the driver 53, each portion or related to shooting such as a signal processing circuit 54, transmitting circuit 55, to suspend the operation of each unit involved in the transmission of such modulation circuit 56, by the standby time to reduce power consumption Thus, the consumption of the battery 38 can be further suppressed, and the life of the CE 11 can be extended. If the longevity of the CE 11 is achieved, there is no possibility that the battery 38 runs out during the observation, the operation of the CE 11 is stopped, and a problem that shooting is lost occurs.

また、CE11の人体内における移動速度が比較的速い場合は、前後コマの類似箇所が少ない、映し出された被観察部位が異なる画像が撮影されるので、画像の希少価値が高い。一方、移動速度が中程度、あるいは比較的遅い、またはCE11が停止している場合は、前後コマの類似箇所が多い、映し出された被観察部位が略同じか全く同じ画像が撮影されるので、前者の場合と比較して、画像の希少価値が低い。したがって、画像の価値に見合った画素数で撮影を行えば、読影時の利便性を高めることができる。   Further, when the moving speed of the CE 11 in the human body is relatively fast, an image with a small number of similar parts in the front and rear frames and a different projected site to be projected is photographed, so that the rarity value of the image is high. On the other hand, when the moving speed is medium or relatively slow, or when the CE 11 is stopped, there are many similar parts in the front and back frames, and the images of the projected parts to be observed are almost the same or exactly the same. Compared to the former case, the rarity value of the image is low. Therefore, if shooting is performed with the number of pixels corresponding to the value of the image, the convenience of interpretation can be improved.

フレームレート、画素数を一定にして撮影を行う場合に比べて、画像データの容量が減るので、データストレージ87の容量が小さくて済み、部品コストを削減することが可能となる。   Compared to shooting with a constant frame rate and number of pixels, the capacity of the image data is reduced, so the capacity of the data storage 87 can be reduced, and the component cost can be reduced.

通常撮影で得られた画素数Pmaxの画像をモニタ22に表示させ、中画素数Pmin、低画素数Plowの画像は操作に応じて表示させるので、読影時に扱う画像の量が減り、医師の負担を軽くすることができる。 Since the image of the pixel number P max obtained by the normal photographing is displayed on the monitor 22 and the image of the middle pixel number P min and the low pixel number P low is displayed according to the operation, the amount of images handled at the time of interpretation is reduced, The burden on the doctor can be reduced.

なお、空き時間tを待機時間にするのではなく、図14に示す第二の実施形態のように、空き時間tを無くして、画像データの送信後すぐに次の撮影を実行させてもよい。つまり、撮影の種類に応じて、画素数だけではなく、撮影時間間隔t(つまりフレームレート)も動的に変化させるのである。 Instead of setting the idle time t b as a standby time, the idle time t b is eliminated and the next shooting is executed immediately after transmission of the image data as in the second embodiment shown in FIG. Also good. That is, not only the number of pixels but also the shooting time interval t n (that is, the frame rate) is dynamically changed according to the type of shooting.

図14に示す例をそのまま適用すると、CE11の長寿命化を図るという観点からは逆行する。そこで、例えば、CE11が通過する時間が通常1秒以内と極めて短い食道や、蠕動運動によって移動速度が急激に速くなる腸など、他の人体内管路と比べて移動速度が速い部位の撮影時に限定して、通常撮影時よりも画素数を低くして撮影時間間隔tを狭めて(フレームレートを上げて)、撮影回数を増やす。その他の部位は、第一の実施形態に記載の例を適用する。 If the example shown in FIG. 14 is applied as it is, it goes backward from the viewpoint of extending the life of the CE 11. Therefore, for example, when photographing a part where the moving speed is faster than other human body ducts, such as an esophagus that is extremely short in time, usually within 1 second, or an intestine whose moving speed is rapidly increased by peristaltic movement. In a limited manner, the number of pixels is reduced compared to that during normal shooting to reduce the shooting time interval t n (increasing the frame rate), thereby increasing the number of shootings. The example described in the first embodiment is applied to other parts.

具体的には、第一、第二の閾値TH、THに加えて、第三の閾値TH(TH>TH)を予め設定しておく。そして、図15に示すように、撮影を実行して画像データを送信後(S10〜S12)、S30において、移動速度の絶対値|V|と第三の閾値THとを比較し、移動速度の絶対値|V|が第三の閾値TH以上であった場合(|V|≧TH、S31でyes)、S32に示すように、図14に示す中画素数、または低画素数撮影(空き時間t無し)に切り替える。移動速度の絶対値|V|が第三の閾値TH未満であった場合(|V|<TH、S31でno)は、第一の実施形態の処理に拠る(S15以降の処理は図示省略)。 Specifically, in addition to the first and second threshold values TH 1 and TH 2 , a third threshold value TH 3 (TH 3 > TH 1 ) is set in advance. Then, as shown in FIG. 15, after transmitting the image data by executing the photographing (S10 to S12), in S30, the absolute value of the moving speed | V | comparing and the third threshold value TH 3, moving speed When the absolute value | V | is equal to or greater than the third threshold TH 3 (| V | ≧ TH 3 , yes in S31), as shown in S32, the number of medium pixels or the number of low pixels shown in FIG. switch to the (no free time t b). When the absolute value | V | of the moving speed is less than the third threshold value TH 3 (| V | <TH 3 , no in S31), the process depends on the process of the first embodiment (the processes after S15 are illustrated). (Omitted).

または、CE11の電源投入直後に、CE11が患者10に嚥下されて食道を通ることを想定して、CE11の電源投入後から一定時間は、図14に示す中画素数、または低画素数撮影(空き時間t無し)を実行させ、一定時間経過後に第一の実施形態の処理に移行してもよい。電源投入からの経過時間は、CPU50の内蔵クロック50a(図3参照)等で計測すればよい。このように、移動速度が比較的速い部位は、画素数と撮影時間間隔tを変化させて撮影回数を増やし、その他の部位は画素数のみを変化させれば、移動速度が速い部位の撮りこぼしを少なくすることができるし、CE11の長寿命化を図ることもできる。 Alternatively, assuming that CE11 is swallowed by the patient 10 and passes through the esophagus immediately after the power supply of CE11 is turned on, imaging of the number of medium pixels or the number of low pixels shown in FIG. to execute the idle without time t b), it may proceed to the processing of the first embodiment after a predetermined time has elapsed. The elapsed time from power-on may be measured with the built-in clock 50a (see FIG. 3) of the CPU 50 or the like. As described above, if the region where the moving speed is relatively high is used, the number of times of imaging is increased by changing the number of pixels and the imaging time interval t n, and if only the number of pixels is changed for other regions, Spillage can be reduced and the life of CE11 can be extended.

なお、第二の実施形態では、画素数を変換する方法として、全ての画素71の信号電荷を読み出すのではなく、特定の画素71の信号電荷を読み出さない、あるいは破棄し、画素71を適当に間引いて画像を生成する画素間引き処理を採用することが好ましい。画素間引き処理は、ビニング読み出し処理と比べて、演算処理が単純で、処理に要する時間も短いので、第二の実施形態の如くフレームレートを上げて撮影回数を増やしたい場合は、特に好適である。   In the second embodiment, as a method of converting the number of pixels, the signal charges of all the pixels 71 are not read, but the signal charges of a specific pixel 71 are not read or discarded, and the pixels 71 are appropriately selected. It is preferable to employ a pixel thinning process for thinning out and generating an image. Compared with the binning readout process, the pixel decimation process is simpler and takes less time, so it is particularly suitable when it is desired to increase the number of shots by increasing the frame rate as in the second embodiment. .

第一、第二の実施形態では、画素数や撮影時間間隔を変化させるためのトリガーをCE11の移動速度としているが、CE11の移動距離としてもよい。この場合、例えば、加速度センサ58として、X、Y、Zの三軸の加速度を測定可能な三軸加速度センサを用い、F、R方向、およびF、R方向に直交する二軸の加速度を測定する。そして、加速度センサ59の測定結果を、積分回路60で適当な時間間隔で二回積分して、CE11の移動距離Lを求め、求めた移動距離LのデータをCPU50に出力する。   In the first and second embodiments, the trigger for changing the number of pixels and the photographing time interval is the moving speed of the CE 11, but the moving distance of the CE 11 may be used. In this case, for example, as the acceleration sensor 58, a triaxial acceleration sensor capable of measuring triaxial accelerations of X, Y, and Z is used, and F, R directions and biaxial accelerations orthogonal to the F, R directions are measured. To do. Then, the measurement result of the acceleration sensor 59 is integrated twice at an appropriate time interval by the integration circuit 60 to obtain the movement distance L of the CE 11, and data of the obtained movement distance L is output to the CPU 50.

以下、第一の実施形態と同様に、単位時間あたり(または規定撮影回数毎)の移動距離Lの増分(移動量)ΔLが大きい場合(移動速度が速い場合と同義)は通常撮影とし、移動量ΔLが小さい場合(移動速度が遅い場合と同義)は中画素数、あるいは低画素数撮影とする。または、第二の実施形態と同様に、移動量ΔLが比較的大きい部位では、図14に示す中画素数、または低画素数撮影(空き時間t無し)を実行させ、その他の部位は第一の実施形態に記載の例を適用してもよい。 Hereinafter, as in the first embodiment, when the increment (movement amount) ΔL of the movement distance L per unit time (or every specified number of photographing) is large (synonymous with the case where the movement speed is fast), the normal photographing is performed and the movement is performed. When the amount ΔL is small (synonymous with the case where the moving speed is slow), shooting is performed with the number of medium pixels or the number of low pixels. Or, as in the second embodiment, the relatively large portion moving amount ΔL is, the number of pixels in shown in FIG. 14, or to execute the low pixel number imaging (without idle time t b), other portions are the The example described in one embodiment may be applied.

もしくは、図16に示す第三の実施形態のように、CE11が一定の距離を移動する毎に通常撮影(第一の撮影に相当)を実行させ、その合間に低画素数撮影(第二の撮影に相当)を実行させてもよい。   Alternatively, as in the third embodiment shown in FIG. 16, every time the CE 11 moves a certain distance, normal shooting (corresponding to the first shooting) is executed, and low pixel count shooting (second shooting) is performed between them. (Equivalent to photographing) may be executed.

図16において、第三の実施形態では、撮影を実行して画像データを送信後(S10〜S12)、S40において、前回の通常撮影時を起点としたCE11の移動量ΔLと、予め設定された第四の閾値THとがCPU50で比較される。そして、移動量ΔLが第四の閾値TH以上であった場合(ΔL≧TH、S41でyes)、S42に示すように、通常撮影が設定され、画素数Pmaxで撮影が実行される。移動量ΔLが第四の閾値TH未満であった場合(ΔL<TH、S41でno)は、S43に示すように、低画素数撮影が設定され、画素数Plow、所定のフレームレート(例えば、2fps)で撮影が実行される。 In FIG. 16, in the third embodiment, after shooting is performed and image data is transmitted (S10 to S12), in S40, the movement amount ΔL of CE11 starting from the previous normal shooting is set in advance. a fourth threshold TH 4 are compared by CPU 50. When the movement amount ΔL is equal to or greater than the fourth threshold TH 4 (ΔL ≧ TH 4 , yes in S41), as shown in S42, normal shooting is set and shooting is performed with the number of pixels Pmax. . When the movement amount ΔL is less than the fourth threshold TH 4 (ΔL <TH 4 , no in S41), as shown in S43, the low pixel number photographing is set, the pixel number P low , and a predetermined frame rate Shooting is performed at (for example, 2 fps).

第三の実施形態を適用した場合の撮影の例を、図17および図18に示す。図17、および図18では、横軸に移動距離、および時間をそれぞれとっている。まず、図17において、通常撮影が一定距離間隔で実行され、その合間に低画素数撮影が実行される。移動量ΔLが大きい場合(右側)は、一定距離移動するまでの時間が短いので、移動量ΔLが小さい場合(左側)と比べて、低画素数撮影の回数が少ない。また、図18に示すように、通常撮影の合間では、所定のフレームレート、すなわち一定の撮影時間間隔tで低画素数撮影が繰り返される。 Examples of photographing when the third embodiment is applied are shown in FIGS. In FIG. 17 and FIG. 18, the horizontal axis represents the movement distance and time. First, in FIG. 17, normal shooting is performed at regular distance intervals, and low pixel count shooting is performed in the meantime. When the movement amount ΔL is large (right side), the time required to move a certain distance is short, so the number of times of shooting with a low number of pixels is less than when the movement amount ΔL is small (left side). In addition, as shown in FIG. 18, low pixel number shooting is repeated at a predetermined frame rate, that is, at a fixed shooting time interval t n during normal shooting.

CE11が一定の距離を移動する毎に通常撮影を実行させるだけだと、その合間に病変部等の関心領域があった場合、関心領域を撮影した画像の数が少なかったり、場合によっては撮影されずに見落とすおそれがある。対して、第三の実施形態では、通常撮影の合間も低画素数撮影で画像を確保するので、データ送信に掛かる消費電力をできるだけ抑えつつ、関心領域の見落とし等が起こる懸念を少なくすることができる。また、一つの関心領域が複数の画像に納まっている可能性が高いので、一つの関心領域を複数の画像で多面的に読影したいという医師側の要望にも応えることができる。   If CE11 only performs normal imaging every time it moves a certain distance, if there is a region of interest such as a lesion in the meantime, the number of images in which the region of interest is captured is small, or in some cases There is a risk of oversight. On the other hand, in the third embodiment, since the image is secured by shooting with a low number of pixels even during the normal shooting, it is possible to reduce the concern that the region of interest is overlooked while suppressing the power consumption for data transmission as much as possible. it can. In addition, since there is a high possibility that one region of interest is contained in a plurality of images, it is possible to respond to a doctor's request to interpret one region of interest with a plurality of images in a multifaceted manner.

なお、画素数を変化させるためのトリガーは、上記のCE11の移動速度、移動距離に限らない。例えば、図19などに示す第四の実施形態のように、画像の類似度に応じて画素数を変化させてもよい。   The trigger for changing the number of pixels is not limited to the moving speed and moving distance of CE11. For example, the number of pixels may be changed according to the similarity of images as in the fourth embodiment shown in FIG.

図19に示すCE130には、前後コマ(例えば、前回送信した画像データと今回送信した画像データ)の類似度を算出する類似度算出回路131が設けられている。類似度算出回路131は、例えば、信号処理回路54から出力された画像データを、前後コマの二フレーム分格納し、画像データが出力される毎に古い画像データを順次書き換えるフレームメモリを有する。類似度算出回路131は、前後コマに映し出された被観察部位の形状、色等を、周知の画像認識技術を用いて解析し、この解析結果を元に、前後コマの類似度SIを算出する。類似度算出回路131は、算出した類似度SIのデータをCPU50に出力する。類似度SIは、前後コマに映し出された被観察部位が異なる箇所であれば低く、同じ箇所であれば高くなる。   The CE 130 shown in FIG. 19 is provided with a similarity calculation circuit 131 that calculates the similarity between the preceding and following frames (for example, the image data transmitted last time and the image data transmitted this time). The similarity calculation circuit 131 includes, for example, a frame memory that stores the image data output from the signal processing circuit 54 for two frames of the preceding and following frames and sequentially rewrites the old image data every time the image data is output. The similarity calculation circuit 131 analyzes the shape, color, and the like of the site to be observed displayed on the front and back frames using a known image recognition technique, and calculates the similarity SI of the front and back frames based on the analysis result. . The similarity calculation circuit 131 outputs the calculated similarity SI data to the CPU 50. The similarity SI is low if the observed site projected on the front and back frames is different, and is high if the site is the same.

この場合も第一の実施形態と同様に、類似度SIが低い場合(移動速度が速い場合、移動量が大きい場合と同義)は通常撮影とし、類似度SIが高い場合(移動速度が遅い場合、移動量が小さい場合と同義)は中画素数、あるいは低画素数撮影とする。または、第二の実施形態を採用し、類似度SIが非常に低い部位では、撮影回数を稼ぐために、図14に示す中画素数、または低画素数撮影(空き時間t無し)を実行させ、その他の部位は第一の実施形態に記載の例を適用してもよい。 Also in this case, as in the first embodiment, when the similarity SI is low (when the movement speed is fast, the same as the case where the movement amount is large), normal shooting is performed, and when the similarity SI is high (when the movement speed is slow). The same meaning as when the amount of movement is small) is taken with the number of medium pixels or the number of low pixels. Alternatively, the second embodiment adopts, in the similarity SI is very low site, performed to make the number of times of photographing, the number of pixels in shown in FIG. 14, or low pixel number imaging (no idle time t b) In addition, the examples described in the first embodiment may be applied to other parts.

あるいは、図20のフローチャートに示すように、類似度SIが低い場合と比べて高い場合のフレームレートを下げ、通常撮影(第三の撮影に相当)を実行させてもよい。この場合、通常撮影で撮影しきれない部位の画像を確保することを目的として、類似度SIが高い場合の通常撮影の合間に、低画素数撮影(第四の撮影に相当)を実行させる。   Alternatively, as shown in the flowchart of FIG. 20, the frame rate when the similarity SI is high as compared with the case where the similarity SI is low may be lowered and normal shooting (corresponding to the third shooting) may be executed. In this case, for the purpose of securing an image of a part that cannot be captured by normal imaging, low pixel count imaging (corresponding to the fourth imaging) is executed between normal imaging when the similarity SI is high.

図20において、撮影を実行して画像データを送信後(S10〜S12)、S50に示すように、類似度算出回路131で前後コマの類似度SIが算出される。CPU50では、類似度算出回路131から類似度SIのデータを受け、S51に示すように、類似度SIと予め設定された第五の閾値THとが比較される。 In FIG. 20, after photographing and transmitting image data (S10 to S12), as shown in S50, the similarity calculation circuit 131 calculates the similarity SI of the preceding and following frames. In CPU 50, it receives the data of the similarity SI from the similarity calculating circuit 131, as shown in S51, and the fifth threshold value TH 5 which is preset similarity SI are compared.

そして、類似度SIが第五の閾値TH未満であった場合(S<TH、S52でno)、S53に示すように、通常撮影、且つ高フレームレート(例えば、8fps)が設定される。類似度SIが第五の閾値TH以上であった場合(S≧TH、S52でyes)は、S54に移行する。 If the similarity SI is less than the fifth threshold TH 5 (S <TH 5 , no in S52), normal shooting and a high frame rate (for example, 8 fps) are set as shown in S53. . If the similarity SI is equal to or greater than the fifth threshold TH 5 (S ≧ TH 5 , yes in S52), the process proceeds to S54.

S54において、規定回数(例えば、五回)連続して類似度SIが第五の閾値TH以上でなかった場合(S54でno)は、S53に移行し、類似度SIが第五の閾値TH未満であった場合と同様に、通常撮影、且つ高フレームレートが設定される。対して、規定回数連続して類似度SIが第五の閾値TH以上であった場合(S54、55でyes)、S56に示すように、通常撮影、且つ低フレームレート(例えば、1fps)が設定される。撮影時間間隔が低フレームレートで規定される分開いていなかった場合(S55でno)は、S57に示すように、低画素数撮影が設定され、所定のフレームレート(例えば、4fps)で撮影が実行される。つまり、通常撮影、且つ低フレームレートが設定された場合は、前回の通常撮影から、低フレームレートで規定される撮影時間間隔の時間が経過したときに次回の通常撮影が実行され、低フレームレートで規定される撮影時間間隔の時間が経過するまでは、所定のフレームレートで低画素数撮影が実行される。 In S54, when the similarity SI is not equal to or greater than the fifth threshold TH 5 continuously (for example, five times) (no in S54), the process proceeds to S53, where the similarity SI is the fifth threshold TH. As in the case of less than 5 , normal shooting and a high frame rate are set. On the other hand, if the similarity SI is equal to or greater than the fifth threshold value TH 5 for a predetermined number of times (yes in S54 and 55), normal shooting and a low frame rate (for example, 1 fps) are performed as shown in S56. Is set. If the shooting time interval has not been opened by the amount specified by the low frame rate (no in S55), as shown in S57, low pixel number shooting is set and shooting is performed at a predetermined frame rate (for example, 4 fps). Executed. In other words, when normal shooting and a low frame rate are set, the next normal shooting is executed when the time interval of the shooting time specified by the low frame rate has elapsed since the previous normal shooting, and the low frame rate is set. Until the time of the shooting time interval defined in (2) elapses, shooting with a low number of pixels is executed at a predetermined frame rate.

第四の実施形態を適用した場合の撮影の例を、図21に示す。図21では、横軸に時間をとっている。類似度SIが高い場合(左側)は、通常撮影が低フレームレートで実行され、その合間に所定のフレームレート、すなわち一定の撮影時間間隔tで低画素数撮影が繰り返される。類似度SIが低い場合(右側)は、通常撮影が高フレームレートで実行される。 An example of photographing when the fourth embodiment is applied is shown in FIG. In FIG. 21, the horizontal axis represents time. If the similarity SI is high (left side), the normal photographing is performed at a low frame rate, a predetermined frame rate in between them, that is, constant exposure time low pixel number imaging at intervals t n repeats. When the similarity SI is low (right side), normal shooting is performed at a high frame rate.

類似度SIが高い場合に、低フレームレートで通常撮影を実行させるだけだと、CE11が一定の距離を移動する毎に通常撮影を実行させるだけの場合と同様に、関心領域を撮影した画像の数が少なかったり、見落とすおそれがある。対して、第四の実施形態では、低フレームレートで通常撮影を実行させている合間も低画素数撮影で画像を確保するので、第三の実施形態と同様の効果を得ることができる。   When the similarity SI is high and only normal shooting is executed at a low frame rate, the image of the image of the region of interest is captured just like when normal shooting is executed every time the CE 11 moves a certain distance. There are few numbers or there is a risk of oversight. On the other hand, in the fourth embodiment, an image is secured by shooting with a low number of pixels even during normal shooting at a low frame rate, so the same effect as in the third embodiment can be obtained.

なお、類似度SIが高い場合に実行する低画素数撮影のフレームレートは、上記に例示した4fpsに限らない。例えば、図22に示すように、図21に示す例よりも低画素数撮影のフレームレートを下げてもよい。この場合、低画素数撮影の撮影回数は減るが、図21に示す例よりも消費電力を抑えることができる。   Note that the frame rate for shooting with a low number of pixels executed when the similarity SI is high is not limited to 4 fps exemplified above. For example, as shown in FIG. 22, the frame rate for photographing with a lower number of pixels may be lowered than in the example shown in FIG. In this case, although the number of times of photographing with the low pixel number is reduced, the power consumption can be suppressed as compared with the example shown in FIG.

また、CE11の移動速度、または移動距離に応じて、類似度SIが高い場合に実行する低画素数撮影のフレームレートを変化させてもよい。例えば、CE11の移動速度が0、または0に近く、CE11が停止、またはCE11の移動速度が極端に遅い場合は、図22に示す例を採用し、前者よりも移動速度は速いが、CE11の移動速度が遅い場合は、図21に示す例を採用する。あるいは、類似度SIが高い場合に実行する低画素数撮影のフレームレートを、CE11を患者10に嚥下させる前に医師が設定可能に構成してもよい。   Further, the frame rate of low-pixel number imaging that is executed when the similarity SI is high may be changed according to the moving speed or moving distance of the CE 11. For example, when the moving speed of CE11 is 0 or close to 0 and CE11 stops or the moving speed of CE11 is extremely slow, the example shown in FIG. 22 is adopted, and the moving speed is faster than the former. When the moving speed is slow, the example shown in FIG. 21 is adopted. Alternatively, the frame rate of the low pixel number imaging performed when the similarity SI is high may be configured so that the doctor can set the CE 11 before swallowing the patient 11.

なお、第三、第四の実施形態でいう低画素数撮影は、通常撮影と比べて画素数を抑えた撮影という意味で、第一、第二の実施形態でいう低画素数撮影とは意味が異なる。言い換えれば、第三、第四の実施形態の低画素数撮影は、第一、第二の実施形態の画素数Pmidに相当する、画素数Pmaxの1/4であってもよいし、それよりも画素数が高い画素数Pmaxの1/2であってもよい。 Note that the low pixel number shooting in the third and fourth embodiments means shooting with a reduced number of pixels compared to normal shooting, and the low pixel number shooting in the first and second embodiments means. Is different. In other words, the low-pixel number shooting in the third and fourth embodiments may be 1/4 of the pixel number P max corresponding to the pixel number P mid in the first and second embodiments, It may be 1/2 of the number of pixels P max having a higher number of pixels.

このように、CE11の人体内における状態(移動速度、移動距離、画像の類似度)に応じて画素数を変換すれば、消費電力を抑えつつ、関心領域を見落とすおそれを少なくするような様々な態様を組み合わせて採用することが可能となる。なお、上記実施形態では特に記載していないが、撮影間隔(フレームレート)を変更する際には、CPU50の内蔵クロック50aに基づいて行う。   In this way, if the number of pixels is converted according to the state of the CE 11 in the human body (movement speed, movement distance, image similarity), various power consumption can be suppressed and the possibility of overlooking the region of interest can be reduced. It is possible to adopt a combination of modes. Although not particularly described in the above embodiment, when the photographing interval (frame rate) is changed, it is performed based on the built-in clock 50a of the CPU 50.

なお、変換する画素数は二段階、三段階に限らず、それ以上であってもよい。また、撮像素子としてCCDを例示して説明したが、CMOSであってもよい。この場合、ドライバ53、信号処理回路54等の機能は、CMOS撮像センサに一体的に含まれる。さらに、画素数情報、位置情報の他に、動作時間やフレームレートを画像データに関連づけてもよい。   Note that the number of pixels to be converted is not limited to two or three stages, but may be more than that. Further, although the CCD has been described as an example of the image pickup device, it may be a CMOS. In this case, the functions of the driver 53, the signal processing circuit 54, and the like are integrally included in the CMOS image sensor. Furthermore, in addition to the pixel number information and the position information, the operation time and the frame rate may be associated with the image data.

撮影毎に画像データを送信するのではなく、何回か撮影を実行した後に、それらで得られた画像データをまとめて送信してもよい。また、図23に示すCE140のように、データストレージ87に相当するストレージデバイス141を搭載しておき、無線送信に関わる変調回路56等の各部の代わりに、ストレージデバイス141に蓄積されたデータを外部に送信(有線、無線いずれでも可)する通信I/F142を持たせ、体外へ排出されたCE140を回収後、ストレージデバイス141に蓄積されたデータを、通信I/F142を介してまとめてプロセッサ20に取り込んでもよい。この場合も画素数が減れば通信に要する時間、電力が削減されるので、上記実施形態と同様の効果が得られる。   Rather than transmitting image data for each shooting, the image data obtained by the shooting may be transmitted together after performing shooting several times. In addition, a storage device 141 corresponding to the data storage 87 is mounted as in the CE 140 shown in FIG. 23, and the data stored in the storage device 141 is externally replaced instead of each unit such as the modulation circuit 56 related to wireless transmission. The communication I / F 142 for transmission (both wired and wireless is possible) is provided, the CE 140 discharged outside the body is collected, and the data stored in the storage device 141 is collected together via the communication I / F 142 to the processor 20. It may be taken in. Also in this case, since the time and power required for communication are reduced if the number of pixels is reduced, the same effect as in the above embodiment can be obtained.

移動速度、移動距離、画像の類似度と比較する各閾値TH〜THは、固定値でなくともよく、医師が設定可能に構成してもよい。また、上記実施形態では、画素数変換が目まぐるしく行われることを避ける目的で、所定回数撮影毎、あるいは一定時間毎に、移動速度Vの絶対値|V|と第一〜第三の閾値TH〜THとを比較しているが、各閾値との比較判断にヒステリシス特性をもたせ、閾値±αのときに画素数変換を行うようにしてもよい。さらに、CCD33の画素71の配列やビニング読み出し処理の方法は、上記実施形態に記載の内容に限定されない。 The thresholds TH 1 to TH 5 to be compared with the moving speed, the moving distance, and the image similarity may not be fixed values, and may be configured to be settable by a doctor. In the above embodiment, the absolute value | V | of the moving speed V and the first to third threshold values TH 1 are taken every predetermined number of times or every predetermined time for the purpose of avoiding dizzying pixel number conversion. While comparing the to TH 3, remembering hysteresis characteristic to the comparison determining that the threshold may be performed pixel number conversion when the threshold ± alpha. Further, the arrangement of the pixels 71 of the CCD 33 and the binning readout processing method are not limited to the contents described in the above embodiment.

上記実施形態では、位置情報を得るために電界強度測定センサ19を用いているが、この代わりに、例えば、CE11に磁石、アンテナ18にホール素子を設けて、磁石による磁界の強度をホール素子で測定して、この測定結果を元に、位置検出回路88で人体内におけるCE11の位置を検出してもよい。また、電界強度測定センサ19やホール素子などを用いずに、例えば、周知の画像認識技術を利用して画像データを解析する画像解析部を受信装置12に設け、この画像解析部でCE11からの画像データを解析することで、CE11の位置を検出してもよい。この場合、例えば、典型的な臓器の特定部位の画像をテンプレートとして用意し、このテンプレートとCE11からの画像データの一致の度合いに基づいて、CE11の位置を特定する。要するに、人体内におけるCEの位置が分ればよく、上記で示した例以外の他の如何なる方法を用いてもよい。   In the above embodiment, the electric field strength measurement sensor 19 is used to obtain the position information. Instead, for example, a magnet is provided in the CE 11 and a Hall element is provided in the antenna 18, and the magnetic field strength by the magnet is determined by the Hall element. Based on the measurement result, the position detection circuit 88 may detect the position of the CE 11 in the human body. Further, for example, an image analysis unit that analyzes image data using a known image recognition technique is provided in the receiving device 12 without using the electric field strength measurement sensor 19 or the Hall element. The position of the CE 11 may be detected by analyzing the image data. In this case, for example, an image of a specific part of a typical organ is prepared as a template, and the position of CE11 is specified based on the degree of coincidence between this template and image data from CE11. In short, it is only necessary to know the position of the CE in the human body, and any method other than the example shown above may be used.

また、移動速度や移動距離の測定方法も上記実施形態で例示した態様に限らない。例えば、位置情報や動作時間から移動速度、移動距離を演算により割り出してもよい。   Further, the method for measuring the moving speed and the moving distance is not limited to the aspect exemplified in the above embodiment. For example, the moving speed and the moving distance may be calculated from the position information and the operation time.

上記実施形態では、ビニング読み出し処理を例示して説明したが、本発明はこれに限定されず、前述した画素間引き処理や、対象画素とその周りの画素の画素値の平均をとり、対象画素の画素値とする平均化処理を採用してもよい。   In the above embodiment, the binning readout process has been described as an example. However, the present invention is not limited to this, and the above-described pixel thinning process, the average of the pixel values of the target pixel and the surrounding pixels, You may employ | adopt the averaging process used as a pixel value.

2 カプセル内視鏡システム
11、130、140 カプセル内視鏡(CE)
12 受信装置
13 ワークステーション(WS)
21 操作部
22 モニタ
33 CCD
34 撮像部
39 アンテナ
50 CPU
53 ドライバ
55 送信回路
56 変調回路
59 加速度センサ
60 積分回路
80 CPU
87 データストレージ
100 CPU
102 ドライバ
105 データストレージ
131 類似度算出回路
141 ストレージデバイス
2 Capsule Endoscopy System 11, 130, 140 Capsule Endoscope (CE)
12 Receiver 13 Workstation (WS)
21 Operation unit 22 Monitor 33 CCD
34 Imaging unit 39 Antenna 50 CPU
53 Driver 55 Transmission Circuit 56 Modulation Circuit 59 Acceleration Sensor 60 Integration Circuit 80 CPU
87 Data storage 100 CPU
102 Driver 105 Data Storage 131 Similarity Calculation Circuit 141 Storage Device

Claims (10)

被検体内に嚥下され、被検体内の被観察部位を内蔵の撮像手段で撮影して得られた画像を、送信手段にて外部に送信するカプセル内視鏡において、
前記画像の前後コマの類似度を検知する状態検知手段と、
前記状態検知手段の検知結果に応じて、前記画像の画素数を変換する画素数変換手段と、
前記検知結果に応じて、前記撮像手段のフレームレートを変換するフレームレート変換手段とを備え、
前記撮像手段は、前記フレームレート変換手段で変換されたフレームレートで第一の撮影を実行し、前記フレームレートが最高のフレームレートよりも下げられた場合には、前記第一の撮影の合間に第二の撮影を実行し、
前記画素数変換手段は、前記第一の撮影では、前記撮像手段の最高の画素数に前記画素数を変換し、前記第二の撮影では、前記最高の画素数よりも低い画素数に前記画素数を変換することを特徴とするカプセル内視鏡。
In a capsule endoscope that is swallowed into a subject, and an image obtained by photographing an observation site in the subject with a built-in imaging unit is transmitted to the outside by a transmission unit.
State detecting means for detecting the similarity between the frames before and after the image;
A pixel number converting means for converting the number of pixels of the image according to a detection result of the state detecting means;
Frame rate conversion means for converting the frame rate of the imaging means according to the detection result,
The imaging unit executes the first shooting at the frame rate converted by the frame rate conversion unit, and when the frame rate is lower than the maximum frame rate, the first shooting is performed between the first shootings. Perform a second shoot,
The pixel number conversion unit converts the pixel number to the maximum number of pixels of the imaging unit in the first photographing, and the pixel number is lower than the maximum pixel number in the second photographing. Capsule endoscope characterized by converting number.
前記状態検知手段は、前記被検体内における移動速度、または移動距離のうち、少なくとも一つを検知し、
前記フレームレート変換手段は、前記検知結果に応じて、前記第二の撮影のフレームレートを変換することを特徴とする請求項1に記載のカプセル内視鏡。
The state detection means detects at least one of a movement speed or a movement distance in the subject,
The capsule endoscope according to claim 1, wherein the frame rate conversion unit converts the frame rate of the second imaging according to the detection result.
前記送信手段は、前記画像を無線送信にて外部に送信し、
前記撮像手段、および前記送信手段は、前記撮像手段の最高の画素数に前記画素数が変換された場合、間を空けずに前記撮影と前記無線送信に関わる処理を実行し、
前記最高の画素数よりも低い画素数に前記画素数が変換された場合、そのときに生まれる前記撮影と前記無線送信に関わる処理の空き時間に動作を休止することを特徴とする請求項1または2に記載のカプセル内視鏡。
The transmission means transmits the image to the outside by wireless transmission,
When the number of pixels is converted into the maximum number of pixels of the imaging unit, the imaging unit and the transmission unit execute processing related to the shooting and the wireless transmission without leaving a gap,
2. When the number of pixels is converted to a number of pixels lower than the maximum number of pixels, the operation is paused in a free time of processing related to the imaging and the wireless transmission generated at that time. 2. The capsule endoscope according to 2.
前記送信手段は、前記画像を無線送信にて外部に送信し、
前記撮像手段、および前記送信手段は、前記画素数がいずれに変換されたかに関わらず、間を空けずに前記撮影と前記無線送信に関わる処理を実行することを特徴とする請求項1ないし3のいずれかに記載のカプセル内視鏡。
The transmission means transmits the image to the outside by wireless transmission,
4. The image pickup unit and the transmission unit execute processing related to the photographing and the wireless transmission without leaving a gap, regardless of which number of pixels has been converted. The capsule endoscope according to any one of the above.
前記送信手段は、前記画像を無線送信にて外部に送信し、
前記撮像手段、および前記送信手段は、前記撮像手段の最高の画素数に前記画素数が変換された場合、間を空けずに前記撮影と前記無線送信に関わる処理を実行し、
前記最高の画素数よりも低い画素数に前記画素数が変換された場合、そのときに生まれる前記撮影と前記無線送信に関わる処理の空き時間に動作を休止するか、前記空き時間を埋めるように、前記最高の画素数よりも低い画素数の前記撮影、および前記無線送信を実行するかを、前記検知結果と予め設定された閾値との比較結果に応じて決定することを特徴とする請求項1ないし4のいずれかに記載のカプセル内視鏡。
The transmission means transmits the image to the outside by wireless transmission,
When the number of pixels is converted into the maximum number of pixels of the imaging unit, the imaging unit and the transmission unit execute processing related to the shooting and the wireless transmission without leaving a gap,
When the number of pixels is converted to a number of pixels lower than the maximum number of pixels, the operation is stopped or the idle time is filled in the idle time of the processing related to the imaging and the wireless transmission generated at that time. The method of determining whether to perform the imaging with the number of pixels lower than the maximum number of pixels and the wireless transmission is determined according to a comparison result between the detection result and a preset threshold value. The capsule endoscope according to any one of 1 to 4.
前記画素数変換手段は、画素間引き処理を実行することで、前記画素数を変換することを特徴とする請求項4または5に記載のカプセル内視鏡。   The capsule endoscope according to claim 4 or 5, wherein the pixel number conversion means converts the number of pixels by executing a pixel thinning process. 前記画素数変換手段は、ビニング読み出し処理、画素間引き処理、または平均化処理のうち、少なくともいずれか一つを実行することで、前記画素数を変換することを特徴とする請求項1ないし5のいずれかに記載のカプセル内視鏡。   6. The pixel number conversion unit according to claim 1, wherein the pixel number conversion unit converts the pixel number by executing at least one of binning readout processing, pixel thinning processing, and averaging processing. The capsule endoscope according to any one of the above. 前記送信手段は、前記画素数の情報を、前記画像に関連付けて送信することを特徴とする請求項1ないし7のいずれかに記載のカプセル内視鏡。   The capsule endoscope according to any one of claims 1 to 7, wherein the transmission unit transmits the information on the number of pixels in association with the image. 前記撮像手段で撮影して得られた全ての画像を記憶する記憶手段を備え、
前記送信手段は、体外に排出されて回収後、前記記憶手段に記憶された画像をまとめて外部に送信することを特徴とする請求項1ないし8のいずれかに記載のカプセル内視鏡。
Comprising storage means for storing all images obtained by photographing with the imaging means;
The capsule endoscope according to any one of claims 1 to 8, wherein the transmission unit transmits the images stored in the storage unit together after being discharged and collected outside the body.
被検体内に嚥下され、被検体内の被観察部位を内蔵の撮像手段で撮影して得られた画像を、送信手段にて外部に送信するカプセル内視鏡の動作制御方法であって、
前記画像の前後コマの類似度を状態検知手段で検知するステップと、
前記状態検知手段の検知結果に応じて、画素数変換手段で前記画像の画素数を変換するステップと、
前記検知結果に応じて、フレームレート変換手段で前記撮像手段のフレームレートを変換するフレームレート変換ステップとを備え、
前記撮像手段による撮像ステップでは、前記フレームレート変換ステップで変換されたフレームレートで第一の撮影を実行し、前記フレームレートが最高のフレームレートよりも下げられた場合には、前記第一の撮影の合間に第二の撮影を実行し、
前記画素数を変換するステップでは、前記第一の撮影では、前記撮像手段の最高の画素数に前記画素数を変換し、前記第二の撮影では、前記最高の画素数よりも低い画素数に前記画素数を変換することを特徴とするカプセル内視鏡の動作制御方法。
An operation control method for a capsule endoscope in which an image obtained by swallowing into a subject and photographing an observation site in the subject with a built-in imaging means is transmitted to the outside by a transmission means,
Detecting the degree of similarity of the front and back frames of the image by the state detection means;
Converting the number of pixels of the image by a pixel number conversion unit according to the detection result of the state detection unit;
A frame rate conversion step of converting a frame rate of the imaging unit by a frame rate conversion unit according to the detection result;
In the imaging step by the imaging means, the first imaging is executed at the frame rate converted in the frame rate conversion step. When the frame rate is lowered below the maximum frame rate, the first imaging is performed. Perform a second shoot in between,
In the step of converting the number of pixels, in the first photographing, the number of pixels is converted to the maximum number of pixels of the imaging unit, and in the second photographing, the number of pixels is lower than the maximum number of pixels. An operation control method for a capsule endoscope, wherein the number of pixels is converted.
JP2012005851A 2012-01-16 2012-01-16 Capsule endoscope and operation control method of capsule endoscope Expired - Fee Related JP5192591B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012005851A JP5192591B2 (en) 2012-01-16 2012-01-16 Capsule endoscope and operation control method of capsule endoscope

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012005851A JP5192591B2 (en) 2012-01-16 2012-01-16 Capsule endoscope and operation control method of capsule endoscope

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008016339A Division JP5035987B2 (en) 2008-01-28 2008-01-28 Capsule endoscope and operation control method of capsule endoscope

Publications (2)

Publication Number Publication Date
JP2012071186A JP2012071186A (en) 2012-04-12
JP5192591B2 true JP5192591B2 (en) 2013-05-08

Family

ID=46167586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012005851A Expired - Fee Related JP5192591B2 (en) 2012-01-16 2012-01-16 Capsule endoscope and operation control method of capsule endoscope

Country Status (1)

Country Link
JP (1) JP5192591B2 (en)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10835307B2 (en) 2001-06-12 2020-11-17 Ethicon Llc Modular battery powered handheld surgical instrument containing elongated multi-layered shaft
US9089360B2 (en) 2008-08-06 2015-07-28 Ethicon Endo-Surgery, Inc. Devices and techniques for cutting and coagulating tissue
US8663220B2 (en) 2009-07-15 2014-03-04 Ethicon Endo-Surgery, Inc. Ultrasonic surgical instruments
US11090104B2 (en) 2009-10-09 2021-08-17 Cilag Gmbh International Surgical generator for ultrasonic and electrosurgical devices
US9050093B2 (en) 2009-10-09 2015-06-09 Ethicon Endo-Surgery, Inc. Surgical generator for ultrasonic and electrosurgical devices
US10441345B2 (en) 2009-10-09 2019-10-15 Ethicon Llc Surgical generator for ultrasonic and electrosurgical devices
US8469981B2 (en) 2010-02-11 2013-06-25 Ethicon Endo-Surgery, Inc. Rotatable cutting implement arrangements for ultrasonic surgical instruments
US8795327B2 (en) 2010-07-22 2014-08-05 Ethicon Endo-Surgery, Inc. Electrosurgical instrument with separate closure and cutting members
US9192431B2 (en) 2010-07-23 2015-11-24 Ethicon Endo-Surgery, Inc. Electrosurgical cutting and sealing instrument
US9259265B2 (en) 2011-07-22 2016-02-16 Ethicon Endo-Surgery, Llc Surgical instruments for tensioning tissue
EP2811932B1 (en) 2012-02-10 2019-06-26 Ethicon LLC Robotically controlled surgical instrument
US9439668B2 (en) 2012-04-09 2016-09-13 Ethicon Endo-Surgery, Llc Switch arrangements for ultrasonic surgical instruments
US20140005705A1 (en) 2012-06-29 2014-01-02 Ethicon Endo-Surgery, Inc. Surgical instruments with articulating shafts
US9408622B2 (en) 2012-06-29 2016-08-09 Ethicon Endo-Surgery, Llc Surgical instruments with articulating shafts
US9393037B2 (en) 2012-06-29 2016-07-19 Ethicon Endo-Surgery, Llc Surgical instruments with articulating shafts
US9198714B2 (en) 2012-06-29 2015-12-01 Ethicon Endo-Surgery, Inc. Haptic feedback devices for surgical robot
US20140005702A1 (en) 2012-06-29 2014-01-02 Ethicon Endo-Surgery, Inc. Ultrasonic surgical instruments with distally positioned transducers
US9326788B2 (en) 2012-06-29 2016-05-03 Ethicon Endo-Surgery, Llc Lockout mechanism for use with robotic electrosurgical device
US9351754B2 (en) 2012-06-29 2016-05-31 Ethicon Endo-Surgery, Llc Ultrasonic surgical instruments with distally positioned jaw assemblies
US9226767B2 (en) 2012-06-29 2016-01-05 Ethicon Endo-Surgery, Inc. Closed feedback control for electrosurgical device
CN104853688B (en) 2012-09-28 2017-11-28 伊西康内外科公司 Multifunctional bipolar tweezers
US9095367B2 (en) 2012-10-22 2015-08-04 Ethicon Endo-Surgery, Inc. Flexible harmonic waveguides/blades for surgical instruments
US20140135804A1 (en) 2012-11-15 2014-05-15 Ethicon Endo-Surgery, Inc. Ultrasonic and electrosurgical devices
JP6202561B2 (en) * 2013-08-28 2017-09-27 株式会社ミュー Medical equipment
US9814514B2 (en) 2013-09-13 2017-11-14 Ethicon Llc Electrosurgical (RF) medical instruments for cutting and coagulating tissue
JP6177087B2 (en) * 2013-10-16 2017-08-09 オリンパス株式会社 Extracorporeal terminal, capsule endoscope system, capsule endoscope control method and program
US9265926B2 (en) 2013-11-08 2016-02-23 Ethicon Endo-Surgery, Llc Electrosurgical devices
GB2521228A (en) 2013-12-16 2015-06-17 Ethicon Endo Surgery Inc Medical device
US9795436B2 (en) 2014-01-07 2017-10-24 Ethicon Llc Harvesting energy from a surgical generator
US9554854B2 (en) 2014-03-18 2017-01-31 Ethicon Endo-Surgery, Llc Detecting short circuits in electrosurgical medical devices
US10463421B2 (en) 2014-03-27 2019-11-05 Ethicon Llc Two stage trigger, clamp and cut bipolar vessel sealer
US10092310B2 (en) 2014-03-27 2018-10-09 Ethicon Llc Electrosurgical devices
US9737355B2 (en) 2014-03-31 2017-08-22 Ethicon Llc Controlling impedance rise in electrosurgical medical devices
US9913680B2 (en) 2014-04-15 2018-03-13 Ethicon Llc Software algorithms for electrosurgical instruments
US10285724B2 (en) 2014-07-31 2019-05-14 Ethicon Llc Actuation mechanisms and load adjustment assemblies for surgical instruments
US10639092B2 (en) 2014-12-08 2020-05-05 Ethicon Llc Electrode configurations for surgical instruments
US10245095B2 (en) 2015-02-06 2019-04-02 Ethicon Llc Electrosurgical instrument with rotation and articulation mechanisms
US10342602B2 (en) 2015-03-17 2019-07-09 Ethicon Llc Managing tissue treatment
US10321950B2 (en) 2015-03-17 2019-06-18 Ethicon Llc Managing tissue treatment
US10595929B2 (en) 2015-03-24 2020-03-24 Ethicon Llc Surgical instruments with firing system overload protection mechanisms
US10034704B2 (en) 2015-06-30 2018-07-31 Ethicon Llc Surgical instrument with user adaptable algorithms
US11129669B2 (en) 2015-06-30 2021-09-28 Cilag Gmbh International Surgical system with user adaptable techniques based on tissue type
US10765470B2 (en) 2015-06-30 2020-09-08 Ethicon Llc Surgical system with user adaptable techniques employing simultaneous energy modalities based on tissue parameters
US10898256B2 (en) 2015-06-30 2021-01-26 Ethicon Llc Surgical system with user adaptable techniques based on tissue impedance
US11051873B2 (en) 2015-06-30 2021-07-06 Cilag Gmbh International Surgical system with user adaptable techniques employing multiple energy modalities based on tissue parameters
US11058475B2 (en) 2015-09-30 2021-07-13 Cilag Gmbh International Method and apparatus for selecting operations of a surgical instrument based on user intention
US10595930B2 (en) 2015-10-16 2020-03-24 Ethicon Llc Electrode wiping surgical device
WO2017098632A1 (en) 2015-12-10 2017-06-15 オリンパス株式会社 Capsule endoscope and capsule endoscope system
US10179022B2 (en) 2015-12-30 2019-01-15 Ethicon Llc Jaw position impedance limiter for electrosurgical instrument
US10575892B2 (en) 2015-12-31 2020-03-03 Ethicon Llc Adapter for electrical surgical instruments
US10709469B2 (en) 2016-01-15 2020-07-14 Ethicon Llc Modular battery powered handheld surgical instrument with energy conservation techniques
US10716615B2 (en) 2016-01-15 2020-07-21 Ethicon Llc Modular battery powered handheld surgical instrument with curved end effectors having asymmetric engagement between jaw and blade
US11229471B2 (en) 2016-01-15 2022-01-25 Cilag Gmbh International Modular battery powered handheld surgical instrument with selective application of energy based on tissue characterization
US11129670B2 (en) 2016-01-15 2021-09-28 Cilag Gmbh International Modular battery powered handheld surgical instrument with selective application of energy based on button displacement, intensity, or local tissue characterization
JPWO2017130266A1 (en) * 2016-01-25 2018-11-15 オリンパス株式会社 Capsule endoscope
US10555769B2 (en) 2016-02-22 2020-02-11 Ethicon Llc Flexible circuits for electrosurgical instrument
US10646269B2 (en) 2016-04-29 2020-05-12 Ethicon Llc Non-linear jaw gap for electrosurgical instruments
US10485607B2 (en) 2016-04-29 2019-11-26 Ethicon Llc Jaw structure with distal closure for electrosurgical instruments
US10702329B2 (en) 2016-04-29 2020-07-07 Ethicon Llc Jaw structure with distal post for electrosurgical instruments
US10456193B2 (en) 2016-05-03 2019-10-29 Ethicon Llc Medical device with a bilateral jaw configuration for nerve stimulation
US10376305B2 (en) 2016-08-05 2019-08-13 Ethicon Llc Methods and systems for advanced harmonic energy
JP6346721B1 (en) * 2016-11-07 2018-06-20 オリンパス株式会社 Capsule endoscope, receiving apparatus, capsule endoscope operating method, and capsule endoscope operating program
US11266430B2 (en) 2016-11-29 2022-03-08 Cilag Gmbh International End effector control and calibration
US11937863B2 (en) 2019-12-30 2024-03-26 Cilag Gmbh International Deflectable electrode with variable compression bias along the length of the deflectable electrode
US11696776B2 (en) 2019-12-30 2023-07-11 Cilag Gmbh International Articulatable surgical instrument
US11812957B2 (en) 2019-12-30 2023-11-14 Cilag Gmbh International Surgical instrument comprising a signal interference resolution system
US11911063B2 (en) 2019-12-30 2024-02-27 Cilag Gmbh International Techniques for detecting ultrasonic blade to electrode contact and reducing power to ultrasonic blade
US12053224B2 (en) 2019-12-30 2024-08-06 Cilag Gmbh International Variation in electrode parameters and deflectable electrode to modify energy density and tissue interaction
US11950797B2 (en) 2019-12-30 2024-04-09 Cilag Gmbh International Deflectable electrode with higher distal bias relative to proximal bias
US20210196358A1 (en) 2019-12-30 2021-07-01 Ethicon Llc Electrosurgical instrument with electrodes biasing support
US11786291B2 (en) 2019-12-30 2023-10-17 Cilag Gmbh International Deflectable support of RF energy electrode with respect to opposing ultrasonic blade
US11779329B2 (en) 2019-12-30 2023-10-10 Cilag Gmbh International Surgical instrument comprising a flex circuit including a sensor system
US11660089B2 (en) 2019-12-30 2023-05-30 Cilag Gmbh International Surgical instrument comprising a sensing system
US12023086B2 (en) 2019-12-30 2024-07-02 Cilag Gmbh International Electrosurgical instrument for delivering blended energy modalities to tissue
US11944366B2 (en) 2019-12-30 2024-04-02 Cilag Gmbh International Asymmetric segmented ultrasonic support pad for cooperative engagement with a movable RF electrode
US20210196359A1 (en) 2019-12-30 2021-07-01 Ethicon Llc Electrosurgical instruments with electrodes having energy focusing features
US11707318B2 (en) 2019-12-30 2023-07-25 Cilag Gmbh International Surgical instrument with jaw alignment features
US11779387B2 (en) 2019-12-30 2023-10-10 Cilag Gmbh International Clamp arm jaw to minimize tissue sticking and improve tissue control
US11452525B2 (en) 2019-12-30 2022-09-27 Cilag Gmbh International Surgical instrument comprising an adjustment system
US11986201B2 (en) 2019-12-30 2024-05-21 Cilag Gmbh International Method for operating a surgical instrument
US11937866B2 (en) 2019-12-30 2024-03-26 Cilag Gmbh International Method for an electrosurgical procedure
US11786294B2 (en) 2019-12-30 2023-10-17 Cilag Gmbh International Control program for modular combination energy device
CN115002355B (en) * 2022-07-01 2024-07-09 重庆金山医疗技术研究院有限公司 Image shooting parameter adjusting method and device and capsule endoscope

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6709387B1 (en) * 2000-05-15 2004-03-23 Given Imaging Ltd. System and method for controlling in vivo camera capture and display rate
JP4583704B2 (en) * 2002-11-01 2010-11-17 オリンパス株式会社 Endoscopic imaging device
JP4573502B2 (en) * 2003-06-04 2010-11-04 オリンパス株式会社 Capsule endoscope and capsule endoscope apparatus
IL162740A (en) * 2003-06-26 2010-06-16 Given Imaging Ltd Device, method and system for reduced transmission imaging
JP2005160049A (en) * 2003-11-05 2005-06-16 Konica Minolta Photo Imaging Inc Device and method for recording information and recording program
JP4503987B2 (en) * 2003-11-12 2010-07-14 オリンパス株式会社 Capsule endoscope
US20070115378A1 (en) * 2005-11-23 2007-05-24 Kang-Huai Wang Fcc-compliant, movement artifact-free image sensor array with reduced lighting requirement
JP2007236700A (en) * 2006-03-09 2007-09-20 Fujifilm Corp Capsule endoscope system
JP4868905B2 (en) * 2006-03-24 2012-02-01 オリンパス株式会社 Receiver
JP2007312810A (en) * 2006-05-23 2007-12-06 Olympus Corp Image processing device

Also Published As

Publication number Publication date
JP2012071186A (en) 2012-04-12

Similar Documents

Publication Publication Date Title
JP5192591B2 (en) Capsule endoscope and operation control method of capsule endoscope
JP5035987B2 (en) Capsule endoscope and operation control method of capsule endoscope
JP4936528B2 (en) Capsule endoscope system and method for operating capsule endoscope system
JP5019589B2 (en) Capsule endoscope, capsule endoscope system, and method for operating capsule endoscope
KR101626894B1 (en) Imager that photographs an image using a rolling shutter
JP5031601B2 (en) Capsule endoscope and operation control method of capsule endoscope
US10447949B2 (en) Endoscope apparatus, method of operating endoscope apparatus, and recording medium
JP2013090969A (en) Imaging device
JP2009195271A (en) Capsule endoscope system
US10447939B2 (en) Endoscope apparatus, method of operating endoscope apparatus, and recording medium
JP2010035746A (en) Capsule endoscope system, capsule endoscope and operation control method of capsule endoscope
JPWO2016084467A1 (en) Capsule endoscope and capsule endoscope system
US9113045B2 (en) Electronic endoscopic apparatus and control method thereof
EP1762171B1 (en) Device, system and method for determining spacial measurements of anatomical objects for in-vivo pathology detection
US20190167071A1 (en) Medical imaging device
US9323978B2 (en) Image processing device, endoscope apparatus, and image processing method
US11337595B2 (en) Endoscope apparatus for determining situation of occurrence of rolling distortion
US8830310B2 (en) Capsule endoscope
JP5263023B2 (en) Imaging device
JP6625093B2 (en) Display control device and imaging device
JP2004117195A (en) Digital camera with speed measuring function
JP2009089910A (en) Photographing direction discriminating apparatus, photographing direction discriminating method, photographing direction discriminating program, and computer-readable recording medium on which photographing direction discriminating program is recorded
JP2018160809A (en) Image processing apparatus, imaging system, image processing method, and program
JPWO2018079387A1 (en) Image processing device
JP2019070691A (en) Display control device and method for controlling the same, and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121031

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130131

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160208

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees