JP7116580B2 - IMAGING DEVICE, METHOD AND PROGRAM FOR CONTROLLING IMAGING DEVICE - Google Patents

IMAGING DEVICE, METHOD AND PROGRAM FOR CONTROLLING IMAGING DEVICE Download PDF

Info

Publication number
JP7116580B2
JP7116580B2 JP2018077557A JP2018077557A JP7116580B2 JP 7116580 B2 JP7116580 B2 JP 7116580B2 JP 2018077557 A JP2018077557 A JP 2018077557A JP 2018077557 A JP2018077557 A JP 2018077557A JP 7116580 B2 JP7116580 B2 JP 7116580B2
Authority
JP
Japan
Prior art keywords
image
light
row
period
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018077557A
Other languages
Japanese (ja)
Other versions
JP2018175871A (en
Inventor
淳也 福元
裕真 工藤
隆司 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/952,916 priority Critical patent/US10638077B2/en
Publication of JP2018175871A publication Critical patent/JP2018175871A/en
Application granted granted Critical
Publication of JP7116580B2 publication Critical patent/JP7116580B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Studio Devices (AREA)

Description

本発明の実施形態は、撮像装置及び撮像装置の制御プログラムに関する。 An embodiment of the present invention relates to an imaging device and a control program for the imaging device.

撮像装置、例えば、内視鏡装置では、以前は、CCD(Charge Coupled Device)イメージセンサが主流であったが、近年、低コスト化、単電源化、低消費電力化等の利点を有するCMOS(Complementary Metal Oxide Semiconductor)イメージセンサが主流になっている。CMOSイメージセンサでは、ローリングシャッタ方式が一般的に多く採用されている。 CCD (Charge Coupled Device) image sensors used to be the mainstream in imaging devices, for example, endoscope devices, but in recent years, CMOS ( Complementary Metal Oxide Semiconductor) image sensors have become mainstream. CMOS image sensors generally employ a rolling shutter method.

国際公開第2014/125724号WO2014/125724 特許第6019167号公報Japanese Patent No. 6019167

本発明が解決しようとする課題は、観察するのに十分なフレームレートを確保することができる撮像装置及び撮像装置の制御プログラムを提供することである。 A problem to be solved by the present invention is to provide an imaging apparatus and a control program for the imaging apparatus that can ensure a sufficient frame rate for observation.

実施形態の撮像装置は、行列状に配置された、受光により電気信号を発生する複数の画素を含み、前記複数の画素の最初の行から最後の行に向かって、少なくとも1行毎に順次露光を開始し、露光が終了した行から順に前記電気信号を出力する処理を、1フレーム毎に繰り返す、ローリングシャッタ方式のイメージセンサと、第1の光を光源装置から連続的に出射させるとともに、前記第1の光と種類が異なる第2の光を、前記最後の行からの前記電気信号の出力を終了してから、前記最初の行からの前記電気信号の出力を開始するまでの期間に対応するブランキング期間と同期した所定の期間に、前記光源装置から2フレームに1回の割合で非連続的に出射させ、前記所定の期間にのみ、前記複数の画素に前記第2の光を受光させる制御部と、前記最後の行と前記最初の行の期間の中間に位置する露光期間に、前記第2の光の反射光又は前記第2の光によって発生した蛍光を受光しないフレームにおいて出力される電気信号に基づいて第1の画像を生成し、前記露光期間に前記第2の光の反射光又は前記第2の光によって発生した蛍光を受光するフレームにおいて出力される電気信号に基づいて第2の画像を生成し、前記第1の画像と前記第2の画像を用いて、画像を生成する画像生成部とを備え、前記画像生成部は、前記複数の画素が、前記第2の光を、前記ブランキング期間より長い期間受光したときは、前記第1の画像のうち、前記ブランキング期間より長い期間に第2の光を受光した行の映像信号に基づく部分をマスクする撮像装置An imaging device according to an embodiment includes a plurality of pixels arranged in a matrix for generating an electric signal upon receiving light, and the plurality of pixels are arranged sequentially from the first row to the last row for at least one row. A rolling shutter type image sensor that repeats, for each frame, a process of starting exposure and outputting the electric signal in order from the row where the exposure is completed , and continuously emitting the first light from the light source device, A second light different in type from the first light is emitted during a period from the end of the output of the electrical signal from the last row to the start of the output of the electrical signal from the first row During a predetermined period synchronized with the corresponding blanking period, the light source device is discontinuously emitted at a rate of once every two frames, and the plurality of pixels are irradiated with the second light only during the predetermined period. a controller for receiving light, and outputting in a frame in which reflected light of the second light or fluorescence generated by the second light is not received during an exposure period located between the periods of the last row and the first row. a first image is generated based on the electrical signal that is applied, and based on the electrical signal that is output in the frame in which the reflected light of the second light or fluorescence generated by the second light is received during the exposure period an image generation unit that generates a second image and generates an image using the first image and the second image , wherein the image generation unit is configured such that the plurality of pixels correspond to the second image; An imaging device that, when receiving light for a period longer than the blanking period, masks a portion of the first image based on a video signal in a row that received the second light for a period longer than the blanking period. .

図1は、第1の実施形態に係る撮像装置を備える撮像システムの構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of an imaging system including an imaging device according to the first embodiment. 図2は、比較例に係る撮像装置の動作の一例を説明するための図である。FIG. 2 is a diagram for explaining an example of the operation of the imaging device according to the comparative example. 図3は、第1の実施形態に係る撮像装置の撮像動作の一例を説明するための図である。FIG. 3 is a diagram for explaining an example of imaging operation of the imaging device according to the first embodiment. 図4Aは、画像処理回路が実行する画像処理の一例を説明するための図である。FIG. 4A is a diagram for explaining an example of image processing performed by an image processing circuit; 図4Bは、合成画像の一例を示す図である。FIG. 4B is a diagram illustrating an example of a synthesized image; 図5は、第1の実施形態に係る制御処理の流れを示すフローチャートである。FIG. 5 is a flow chart showing the flow of control processing according to the first embodiment. 図6は、第3の実施形態に係る撮像装置の動作の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of the operation of the imaging device according to the third embodiment. 図7は、第4の実施形態に係る画像の一例を説明するための図である。FIG. 7 is a diagram for explaining an example of an image according to the fourth embodiment; 図8は、第5の実施形態に係る撮像装置が行うモード切替の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of mode switching performed by the imaging device according to the fifth embodiment. 図9は、第6の実施形態に係る撮像装置の動作の一例を説明するための図である。FIG. 9 is a diagram for explaining an example of the operation of the imaging device according to the sixth embodiment.

以下、図面を参照して、各実施形態に係る撮像装置及び撮像装置の制御プログラムを説明する。なお、実施形態は、以下の内容に限られるものではない。また、一つの実施形態や変形例に記載した内容は、原則として他の実施形態や変形例にも同様に適用される。 An imaging device according to each embodiment and a control program for the imaging device will be described below with reference to the drawings. In addition, embodiment is not restricted to the following contents. In principle, the contents described in one embodiment and modification are similarly applied to other embodiments and modifications.

(第1の実施形態)
図1は、第1の実施形態に係る撮像装置10を備える撮像システム1の構成例を示す図である。図1に示すように、第1の実施形態に係る撮像システム1は、撮像装置10と、光源装置30と、光ファイバ31とを備える。
(First embodiment)
FIG. 1 is a diagram showing a configuration example of an imaging system 1 including an imaging device 10 according to the first embodiment. As shown in FIG. 1, an imaging system 1 according to the first embodiment includes an imaging device 10, a light source device 30, and an optical fiber 31. As shown in FIG.

撮像装置10は、例えば、医療用の硬性内視鏡として用いられ、被検体100の体内を撮像する装置である。撮像装置10は、スコープ11と、カメラヘッド12と、カメラケーブル13と、CCU(Camera Control Unit)14とを備える。 The imaging device 10 is used as a medical rigid endoscope, for example, and is a device that captures an image of the inside of the subject 100 . The imaging device 10 includes a scope 11 , a camera head 12 , a camera cable 13 and a CCU (Camera Control Unit) 14 .

スコープ11は、撮像が行われる際に、被検体100の体内に挿入される。スコープ11の先端には、対物レンズ11aが設けられている。スコープ11は、屈曲しない硬性を有する。 The scope 11 is inserted into the body of the subject 100 when imaging is performed. An objective lens 11 a is provided at the tip of the scope 11 . The scope 11 has a rigidity that does not bend.

カメラヘッド12は、励起光カットフィルタ12aと、分光プリズム12bと、3つのイメージセンサ12c~12e(12c,12d,12e)と、イメージセンサ制御回路12fとを備える。 The camera head 12 includes an excitation light cut filter 12a, a spectral prism 12b, three image sensors 12c to 12e (12c, 12d, 12e), and an image sensor control circuit 12f.

励起光カットフィルタ12aは、複数の画素の撮像領域に対向するように配置され、光源装置30から出射された励起光以外の光を複数の画素に受光させる光学素子である。励起光カットフィルタ12aは、スコープ11と分光プリズム12bの入射面12b_1との間に配置され、対物レンズ11aから入射される光のうち、励起光をカットし、励起光以外の光を通過させるフィルタである。したがって、分光プリズム12bの入射面12b_1には、光源装置30により被検体100の体内組織に照射された光の反射光(戻り光)のうち、励起光以外の光が入射される。以下の説明では、分光プリズム12bに入射されてイメージセンサ12cに入射される白色光の反射光を、単に、白色光と表記する場合がある。 The excitation light cut filter 12a is an optical element that is arranged to face the imaging regions of the plurality of pixels and causes the pixels to receive light other than the excitation light emitted from the light source device 30 . The excitation light cut filter 12a is arranged between the scope 11 and the incident surface 12b_1 of the spectroscopic prism 12b, cuts the excitation light among the light incident from the objective lens 11a, and allows the light other than the excitation light to pass through. is. Therefore, among the reflected light (return light) of the light irradiated to the body tissue of the subject 100 by the light source device 30, light other than the excitation light is incident on the incident surface 12b_1 of the spectral prism 12b. In the following description, the reflected light of the white light incident on the spectral prism 12b and incident on the image sensor 12c may be simply referred to as white light.

分光プリズム12bは、入射された光を赤色(R)の光、緑色(G)の光及び青色(B)の光に分光する。そして、分光プリズム12bは、青色の光をイメージセンサ12cの撮像面に結像する。また、分光プリズム12bは、緑色の光をイメージセンサ12dの撮像面に結像する。また、分光プリズム12bは、赤色の光をイメージセンサ12eの撮像面に結像する。 The spectral prism 12b splits the incident light into red (R) light, green (G) light, and blue (B) light. Then, the spectral prism 12b forms an image of the blue light on the imaging surface of the image sensor 12c. Also, the spectral prism 12b forms an image of green light on the imaging surface of the image sensor 12d. Further, the spectral prism 12b forms an image of red light on the imaging surface of the image sensor 12e.

イメージセンサ12c~12eのそれぞれは、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。イメージセンサ12c~12eのそれぞれの撮像面と、分光プリズム12bの結像面とが略一致するように、イメージセンサ12c~12eが配置される。3つ(複数)のイメージセンサ12c~12eのそれぞれの複数の画素は、対応する種類の光を受光することにより映像信号を出力する。 Each of the image sensors 12c to 12e is, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The image sensors 12c to 12e are arranged such that the respective imaging planes of the image sensors 12c to 12e substantially coincide with the imaging plane of the spectral prism 12b. A plurality of pixels of each of the three (plurality) image sensors 12c to 12e output a video signal by receiving the corresponding kind of light.

イメージセンサ12c~12eのそれぞれは、複数の画素(撮像要素)を備える。複数の画素は、撮像面において行列状に配置される。各画素は、イメージセンサ制御回路12fによる駆動制御により、光を受光することにより映像信号(電気信号)を発生し、発生した映像信号を出力する。例えば、イメージセンサ12cの各画素は、青色の光を受光することにより、B信号(Bの映像信号)を出力する。また、イメージセンサ12dの各画素は、緑色の光を受光することにより、G信号(Gの映像信号)を出力する。また、イメージセンサ12eの各画素は、赤色の光を受光することにより、R信号(Rの映像信号)を出力する。例えば、イメージセンサ12c~12eを備えるカメラヘッド12は、カメラケーブル13を介して、CCU14にRGB信号を出力する。なお、イメージセンサ12c~12eからは、アナログ形式の映像信号が出力される。 Each of the image sensors 12c-12e has a plurality of pixels (imaging elements). A plurality of pixels are arranged in a matrix on the imaging plane. Each pixel generates a video signal (electrical signal) by receiving light under drive control by the image sensor control circuit 12f, and outputs the generated video signal. For example, each pixel of the image sensor 12c outputs a B signal (B video signal) by receiving blue light. Each pixel of the image sensor 12d outputs a G signal (G video signal) by receiving green light. Each pixel of the image sensor 12e outputs an R signal (R video signal) by receiving red light. For example, a camera head 12 having image sensors 12 c - 12 e outputs RGB signals to CCU 14 via camera cable 13 . Note that analog video signals are output from the image sensors 12c to 12e.

ここで、第1の実施形態に係る撮像装置10は、例えば、被検体100に対して、ICG(インドシアニングリーン)蛍光造影法による外科手術を行う際に用いられる。第1の実施形態では、被検体100に、ICGが投与される。ICGは、IRレーザ30dから出射される励起光により励起され、800~850nm程度の近赤外蛍光(以下、蛍光と称する)を発する。この蛍光は、励起光カットフィルタ12aを通過して、分光プリズム12bによりイメージセンサ12eの撮像面に結像される。すなわち、イメージセンサ12eは、励起光に基づく蛍光を受光することにより、R信号を出力する。以下、イメージセンサ12eが蛍光を受光して、撮像装置10が各種の処理を行う場合について説明するが、撮像装置10は、励起光カットフィルタ12aを設けずに、励起光の反射光をイメージセンサ12eに受光させて同様の処理を行っても良い。 Here, the imaging apparatus 10 according to the first embodiment is used, for example, when performing a surgical operation on the subject 100 using ICG (indocyanine green) fluorescence imaging. In a first embodiment, subject 100 is administered ICG. The ICG is excited by excitation light emitted from the IR laser 30d and emits near-infrared fluorescence (hereinafter referred to as fluorescence) of about 800 to 850 nm. This fluorescence passes through the excitation light cut filter 12a and is imaged on the imaging surface of the image sensor 12e by the spectral prism 12b. That is, the image sensor 12e outputs an R signal by receiving fluorescence based on the excitation light. A case where the image sensor 12e receives fluorescent light and the imaging device 10 performs various processes will be described below. 12e may be made to receive the light and similar processing may be performed.

イメージセンサ12c~12eのそれぞれは、複数の画素の最初の行から最後の行に向かって、少なくとも1行毎に順次露光を開始し、露光が終了した行から順に映像信号を出力する処理を、1フレーム(画像)毎に繰り返すローリングシャッタ方式のイメージセンサである。ここで、露光とは、例えば、画素が電荷を蓄積することを意味する。 Each of the image sensors 12c to 12e sequentially starts exposure for each row from the first row to the last row of a plurality of pixels, and outputs video signals sequentially from the row where the exposure is completed, This is a rolling shutter type image sensor that repeats for each frame (image). Here, exposure means, for example, that a pixel accumulates charge.

ここで、上述したようにカメラヘッド12が複数のイメージセンサ12c~12eを備える場合には、半画素ずらしという手法を用いて、画像の高解像度化を図ってもよい。 Here, when the camera head 12 includes a plurality of image sensors 12c to 12e as described above, a half-pixel shift method may be used to increase the resolution of the image.

なお、カメラヘッド12は、分光プリズム12b及び3つのイメージセンサ12c~12eに代えて、ベイヤフィルタ及び1つのイメージセンサを備えても良い。この場合には、イメージセンサの撮像面側に、各画素に赤色フィルタ、緑色フィルタ及び青色フィルタのいずれかが対向するようにベイヤフィルタが配置される。このように、1つの画素に対して1つの色のフィルタが対応する。イメージセンサは、画素毎に、当該画素に対応するフィルタの色の映像信号を出力する。なお、後述の画像処理回路14cにより、画素毎に、当該画素の周辺の画素から出力される映像信号に基づいて、直接得られない残りの2色の各映像信号を推定する推定処理が実行される。この結果、撮像装置10は、画素毎に、映像信号としてRGB信号を得ることができる。 Note that the camera head 12 may include a Bayer filter and one image sensor instead of the spectral prism 12b and the three image sensors 12c to 12e. In this case, the Bayer filter is arranged on the imaging surface side of the image sensor so that each pixel faces one of the red filter, the green filter, and the blue filter. Thus, one color filter corresponds to one pixel. The image sensor outputs a video signal of the color of the filter corresponding to each pixel. An image processing circuit 14c, which will be described later, performs estimation processing for estimating each of the remaining two-color video signals that cannot be obtained directly, for each pixel, based on video signals output from pixels surrounding the pixel. be. As a result, the imaging device 10 can obtain RGB signals as video signals for each pixel.

イメージセンサ制御回路12fは、後述する制御回路14aから出力された制御信号、並びに、後述するタイミング信号発生回路14fから出力された各種の同期信号に基づいてイメージセンサ12c~12eを駆動制御する。例えば、イメージセンサ制御回路12fは、制御信号及び各種の同期信号に基づいて、イメージセンサ12c~12eから出力されるアナログ形式の映像信号に適宜ゲイン(アナログゲイン)をかけて(映像信号を増幅して)、ゲインがかけられた映像信号をCCU14に出力するように、イメージセンサ12c~12eを制御する。或いは、イメージセンサ12c~12eが図示しないADコンバータを内蔵する場合、イメージセンサ制御回路12fは、イメージセンサ12c~12eから出力されるデジタル形式の映像信号に適宜ゲイン(デジタルゲイン)をかけて、ゲインがかけられた映像信号をCCU14に出力するように、イメージセンサ12c~12eを制御する。 The image sensor control circuit 12f drives and controls the image sensors 12c to 12e based on a control signal output from a control circuit 14a, which will be described later, and various synchronization signals output from a timing signal generation circuit 14f, which will be described later. For example, the image sensor control circuit 12f applies an appropriate gain (analog gain) to analog video signals output from the image sensors 12c to 12e based on control signals and various synchronization signals (amplifies the video signals). ), and controls the image sensors 12c to 12e so as to output the gain-applied video signal to the CCU . Alternatively, when the image sensors 12c to 12e incorporate an AD converter (not shown), the image sensor control circuit 12f applies an appropriate gain (digital gain) to the digital video signal output from the image sensors 12c to 12e to obtain a gain The image sensors 12c to 12e are controlled so as to output to the CCU 14 the video signal multiplied by .

カメラケーブル13は、カメラヘッド12とCCU14との間で映像信号、制御信号及び同期信号を送受信するための信号線を収容するケーブルである。 The camera cable 13 is a cable accommodating signal lines for transmitting and receiving video signals, control signals and synchronization signals between the camera head 12 and the CCU 14 .

CCU14は、カメラヘッド12から出力された映像信号に各種の画像処理を施すことにより、ディスプレイ101に表示させる画像を示す画像データを生成し、CCU14に接続されたディスプレイ101に画像データを出力する。なお、各種の画像処理が施された映像信号は、ディスプレイ101に表示させる画像を示す画像データである。 The CCU 14 performs various image processing on the video signal output from the camera head 12 to generate image data representing an image to be displayed on the display 101, and outputs the image data to the display 101 connected to the CCU 14. Note that the video signal subjected to various image processing is image data representing an image to be displayed on the display 101 .

CCU14は、制御回路14aと、記憶制御回路14bと、画像処理回路14cと、画像合成回路14dと、出力回路14eと、タイミング信号発生回路14fと、記憶回路14gとを備える。なお、イメージセンサ12c~12eがADコンバータを内蔵しない場合、CCU14は、図示しないAD(Analog to Digital)コンバータ等も備える。かかるADコンバータは、例えば、カメラヘッド12から出力されたアナログ形式の映像信号をデジタル形式の映像信号に変換する。 The CCU 14 includes a control circuit 14a, a memory control circuit 14b, an image processing circuit 14c, an image synthesizing circuit 14d, an output circuit 14e, a timing signal generating circuit 14f, and a memory circuit 14g. If the image sensors 12c to 12e do not incorporate an AD converter, the CCU 14 also includes an AD (Analog to Digital) converter (not shown). Such an AD converter converts, for example, an analog video signal output from the camera head 12 into a digital video signal.

制御回路14aは、撮像装置10の各種の構成要素を制御する。例えば、制御回路14aは、イメージセンサ制御回路12f、記憶制御回路14b、画像処理回路14c、画像合成回路14d、出力回路14e及びタイミング信号発生回路14fの各回路に対して制御信号を出力して、各回路を制御する。制御回路14aは、記憶回路14gに記憶された撮像装置10の制御プログラムを読み込み、読み込んだ制御プログラムを実行することで、撮像装置10の各種の構成要素を制御する制御処理を実行する。或いは、制御回路14aは、内部に図示しない記憶回路を有しており、当該記憶回路に記憶された制御プログラムを実行する。制御回路14aは、例えば、MPU(Micro-Processing Unit)等のプロセッサにより実現される。 The control circuit 14 a controls various components of the imaging device 10 . For example, the control circuit 14a outputs a control signal to each circuit of the image sensor control circuit 12f, the memory control circuit 14b, the image processing circuit 14c, the image synthesizing circuit 14d, the output circuit 14e, and the timing signal generating circuit 14f. Control each circuit. The control circuit 14a reads the control program of the imaging device 10 stored in the storage circuit 14g, and executes the read control program to execute control processing for controlling various components of the imaging device 10. FIG. Alternatively, the control circuit 14a has a storage circuit (not shown) therein, and executes a control program stored in the storage circuit. The control circuit 14a is realized by, for example, a processor such as an MPU (Micro-Processing Unit).

記憶制御回路14bは、制御回路14aから出力された制御信号、並びに、タイミング信号発生回路14fから出力された各種の同期信号に基づいて、カメラヘッド12から出力された映像信号を記憶回路14gに記憶させる制御を行う。また、記憶制御回路14bは、制御信号及び同期信号に基づいて、記憶回路14gに記憶された映像信号を1行毎に読み取る。そして、記憶制御回路14bは、読み取った1行分の映像信号を画像処理回路14cに出力する。 The storage control circuit 14b stores the video signal output from the camera head 12 in the storage circuit 14g based on the control signal output from the control circuit 14a and various synchronization signals output from the timing signal generation circuit 14f. control to allow The storage control circuit 14b also reads the video signal stored in the storage circuit 14g row by row based on the control signal and the synchronization signal. Then, the storage control circuit 14b outputs the read video signal for one row to the image processing circuit 14c.

画像処理回路14cは、制御回路14aから出力された制御信号、及び、タイミング信号発生回路14fから出力された各種の同期信号に基づいて、記憶制御回路14bから出力された映像信号に対して各種の画像処理を施す。これにより、画像処理回路14cは、ディスプレイ101に表示させる画像を示す画像データを生成する。すなわち、画像処理回路14cは、映像信号に基づいて、画像を生成する。例えば、画像処理回路14cは、記憶制御回路14bから出力された映像信号に対してゲイン(デジタルゲイン)をかけて、画像の明るさを調整する。また、画像処理回路14cは、記憶制御回路14bから出力された映像信号に対して、ノイズを低減させるノイズリダクション処理や輪郭を強調する輪郭強調処理等を行ってもよい。そして、画像処理回路14cは、各種の画像処理が施された映像信号(ディスプレイ101に表示させる画像を示す画像データ)を画像合成回路14dに出力する。 The image processing circuit 14c performs various operations on the video signal output from the storage control circuit 14b based on the control signal output from the control circuit 14a and various synchronization signals output from the timing signal generation circuit 14f. Apply image processing. Thereby, the image processing circuit 14 c generates image data representing an image to be displayed on the display 101 . That is, the image processing circuit 14c generates an image based on the video signal. For example, the image processing circuit 14c applies a gain (digital gain) to the video signal output from the memory control circuit 14b to adjust the brightness of the image. Further, the image processing circuit 14c may perform noise reduction processing for reducing noise, contour enhancement processing for enhancing contours, and the like on the video signal output from the storage control circuit 14b. Then, the image processing circuit 14c outputs a video signal (image data representing an image to be displayed on the display 101) subjected to various image processing to the image synthesizing circuit 14d.

画像合成回路14dは、制御回路14aから出力された制御信号、並びに、タイミング信号発生回路14fから出力された各種の同期信号に基づいて、画像処理回路14cから出力された映像信号を合成して合成画像データを生成する。そして、画像合成回路14dは、合成画像データをディスプレイ101に出力する。 The image synthesis circuit 14d synthesizes the video signal output from the image processing circuit 14c based on the control signal output from the control circuit 14a and various synchronization signals output from the timing signal generation circuit 14f. Generate image data. The image synthesizing circuit 14 d then outputs the synthetic image data to the display 101 .

例えば、記憶制御回路14b、画像処理回路14c及び画像合成回路14dは、DSP(Digital Signal Processor)等の1つのプロセッサにより実現される。また、例えば記憶制御回路14b、画像処理回路14c及び画像合成回路14d、タイミング信号発生回路14fは、1つのFPGA(Field Programmable Gate Array)により実現される。なお、制御回路14a、記憶制御回路14b、画像処理回路14c、画像合成回路14dは、1つの処理回路により実現されてもよい。この処理回路は、例えば、プロセッサにより実現される。 For example, the memory control circuit 14b, the image processing circuit 14c, and the image synthesizing circuit 14d are realized by one processor such as a DSP (Digital Signal Processor). Also, for example, the memory control circuit 14b, the image processing circuit 14c, the image synthesizing circuit 14d, and the timing signal generating circuit 14f are realized by one FPGA (Field Programmable Gate Array). Note that the control circuit 14a, the memory control circuit 14b, the image processing circuit 14c, and the image synthesizing circuit 14d may be realized by one processing circuit. This processing circuit is implemented by, for example, a processor.

出力回路14eは、画像合成回路14dから出力された合成画像データをディスプレイ101に出力する。これにより、ディスプレイ101は、合成画像データが示す合成画像を表示する。合成画像は、画像の一例である。出力回路14eは、例えば、HDMI(登録商標)(High-Definition Multimedia Interface)ドライバIC(Integrated Circuit)やSDI(Serial Digital Interface)ドライバICなどにより実現される。 The output circuit 14e outputs the synthesized image data output from the image synthesizing circuit 14d to the display 101. FIG. Thereby, the display 101 displays the composite image indicated by the composite image data. A composite image is an example of an image. The output circuit 14e is realized by, for example, an HDMI (registered trademark) (High-Definition Multimedia Interface) driver IC (Integrated Circuit) or an SDI (Serial Digital Interface) driver IC.

タイミング信号発生回路14fは、光源装置30からの光の出射タイミング、イメージセンサ12c~12eの露光タイミング及び映像信号の出力タイミング、記憶制御回路14bによる記憶回路14gの制御タイミング等の各種のタイミングを一元管理する。制御回路14a及びタイミング信号発生回路14fは、制御部の一例である。 The timing signal generation circuit 14f unifies various timings such as the light emission timing from the light source device 30, the exposure timing of the image sensors 12c to 12e and the video signal output timing, and the control timing of the storage circuit 14g by the storage control circuit 14b. to manage. The control circuit 14a and the timing signal generation circuit 14f are an example of a control section.

タイミング信号発生回路14fは、図示しない発振回路により生成されたクロック信号を基に水平同期信号及び垂直同期信号や、撮像装置10全体の同期をとるためのその他の同期信号等の各種の同期信号を生成する。そして、タイミング信号発生回路14fは、生成した各種の同期信号をイメージセンサ制御回路12f、制御回路14a、記憶制御回路14b、画像処理回路14c、画像合成回路14d及び出力回路14eの各回路に出力する。 The timing signal generating circuit 14f generates various synchronizing signals such as a horizontal synchronizing signal, a vertical synchronizing signal, and other synchronizing signals for synchronizing the entire imaging apparatus 10 based on a clock signal generated by an oscillation circuit (not shown). Generate. The timing signal generation circuit 14f then outputs the generated various synchronization signals to the image sensor control circuit 12f, the control circuit 14a, the memory control circuit 14b, the image processing circuit 14c, the image synthesizing circuit 14d, and the output circuit 14e. .

また、タイミング信号発生回路14fは、クロック信号、及び、制御回路14aから出力された制御信号を基に、光源制御信号を生成する。光源制御信号は、光源装置30から出射される光を制御するとともに撮像システム1全体の同期をとるための制御信号である。そして、タイミング信号発生回路14fは、生成した光源制御信号を光源装置30に出力する。 The timing signal generation circuit 14f also generates a light source control signal based on the clock signal and the control signal output from the control circuit 14a. The light source control signal is a control signal for controlling the light emitted from the light source device 30 and synchronizing the imaging system 1 as a whole. The timing signal generation circuit 14 f then outputs the generated light source control signal to the light source device 30 .

例えば、光源制御信号の波形は、矩形波であり、光源制御信号は、ハイ(high)レベル及びロー(low)レベルの2つのレベル(状態)を有する。例えば、光源制御信号は、ハイレベルの間、白色LED30bから白色光を出射させたり、IRレーザ30dから励起光を出射させたりし、ローレベルの間、白色LED30bを消灯させたり、IRレーザ30dからの励起光の出射を停止させたりする制御信号である。 For example, the waveform of the light source control signal is a rectangular wave, and the light source control signal has two levels (states) of a high level and a low level. For example, the light source control signal emits white light from the white LED 30b or emits excitation light from the IR laser 30d while it is at high level, and extinguishes the white LED 30b or emits excitation light from the IR laser 30d while it is at low level. It is a control signal for stopping the emission of the excitation light of the .

記憶回路14gは、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。記憶回路14gは、各種のプログラムを記憶する。例えば、記憶回路14gは、制御回路14aにより実行される制御プログラムを記憶する。また、記憶回路14gには、記憶制御回路14bにより映像信号が一時的に格納される。 The storage circuit 14g is implemented by, for example, a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like. The storage circuit 14g stores various programs. For example, the memory circuit 14g stores a control program executed by the control circuit 14a. A video signal is temporarily stored in the memory circuit 14g by the memory control circuit 14b.

光源装置30は、光源制御信号に基づいて、白色光又は励起光を出射する。光源装置30は、駆動回路30aと、白色LED(Light Emitting Diode)30bと、駆動回路30cと、IRレーザ30dとを備える。 The light source device 30 emits white light or excitation light based on the light source control signal. The light source device 30 includes a drive circuit 30a, a white LED (Light Emitting Diode) 30b, a drive circuit 30c, and an IR laser 30d.

駆動回路30aは、タイミング信号発生回路14fから出力される光源制御信号に基づいて、白色LED30bを駆動させて点灯させる駆動制御を行う。白色LED30bは、駆動回路30aによる駆動制御により、白色光を出射する。白色光は、例えば、可視光である。また、白色光は、光の一例である。また、白色光は、第2の光の一例でもある。 The drive circuit 30a performs drive control for driving and lighting the white LED 30b based on the light source control signal output from the timing signal generation circuit 14f. The white LED 30b emits white light under drive control by the drive circuit 30a. White light is, for example, visible light. Also, white light is an example of light. White light is also an example of the second light.

駆動回路30cは、タイミング信号発生回路14fから出力される光源制御信号に基づいて、IRレーザ30dを駆動させて、IRレーザ30dから励起光を出射させる駆動制御を行う。IRレーザ30dは、駆動回路30cによる駆動制御により、励起光を出射する。なお、上述したように、励起光は、励起光カットフィルタ12aによりカットされる。また、励起光によりICGが励起されてICGから出射された蛍光(励起光に基づく蛍光)は、励起光カットフィルタ12aを通過して、イメージセンサ12eにより受光される。励起光は、光の一例である。また、励起光は、第1の光の一例である。 The drive circuit 30c drives the IR laser 30d based on the light source control signal output from the timing signal generation circuit 14f, and controls the excitation light to be emitted from the IR laser 30d. The IR laser 30d emits excitation light under drive control by the drive circuit 30c. In addition, as described above, the excitation light is cut by the excitation light cut filter 12a. Fluorescence (fluorescence based on the excitation light) emitted from the ICG excited by the excitation light passes through the excitation light cut filter 12a and is received by the image sensor 12e. Excitation light is an example of light. Also, the excitation light is an example of the first light.

光ファイバ31は、光源装置30からの白色光及び励起光をスコープ11の先端部に導いて、スコープ11の先端部から出射させる。 The optical fiber 31 guides the white light and the excitation light from the light source device 30 to the distal end of the scope 11 and emits them from the distal end of the scope 11 .

以上、第1の実施形態に係る撮像システム1の撮像装置10の構成例について説明した。ここで、比較例に係る撮像装置について説明する。比較例に係る撮像装置は、ローリングシャッタ方式のイメージセンサを備える。 The configuration example of the imaging device 10 of the imaging system 1 according to the first embodiment has been described above. Here, an imaging device according to a comparative example will be described. The imaging device according to the comparative example includes a rolling shutter type image sensor.

図2は、比較例に係る撮像装置の動作の一例を説明するための図である。図2には、比較例に係る撮像装置のイメージセンサが備える複数の画素の各行の露光タイミングと、イメージセンサから出力される映像信号の出力タイミングとの関係の一例が示されている。図2に示すように、比較例に係る撮像装置では、1フレーム目の撮像において、複数の画素の最初の行から最後の行に向かって1行毎に順次露光が開始される。比較例に係る撮像装置では、露光期間は、1/60[s]である。ここで、露光期間とは、例えば、画素が電荷の蓄積を開始してから終了するまでの期間を意味する。 FIG. 2 is a diagram for explaining an example of the operation of the imaging device according to the comparative example. FIG. 2 shows an example of the relationship between the exposure timing of each row of a plurality of pixels provided in the image sensor of the imaging device according to the comparative example and the output timing of the video signal output from the image sensor. As shown in FIG. 2, in the imaging apparatus according to the comparative example, in the imaging of the first frame, exposure is sequentially started for each row from the first row to the last row of a plurality of pixels. In the imaging device according to the comparative example, the exposure period is 1/60 [s]. Here, the exposure period means, for example, the period from when pixels start accumulating electric charges to when they finish accumulating electric charges.

そして、図2に示すように、比較例に係る撮像装置では、露光が終了した行から順に映像信号が出力される。すなわち、最初の行から最後の行に向かって各行から映像信号が順々に出力される。ここで、比較例に係る撮像装置では、イメージセンサから1フレームの映像信号が出力される期間(読み出し期間)は、露光期間と同じ1/60[s]である。そして、図2に示すように、2フレーム目以降も同様の処理が行われる。 Then, as shown in FIG. 2, in the image pickup apparatus according to the comparative example, video signals are output in order from the row where the exposure is completed. That is, video signals are sequentially output from each row from the first row to the last row. Here, in the imaging apparatus according to the comparative example, the period (readout period) during which one frame of video signal is output from the image sensor is 1/60 [s], which is the same as the exposure period. Then, as shown in FIG. 2, similar processing is performed for the second and subsequent frames.

比較例に係る撮像装置では、イメージセンサは、複数の画素の全ての行において、光を受光する期間(受光期間)が露光期間と同じ期間である。そのため、最初の行から最後の行に向かって、各行の受光期間が順々に時間軸方向にずれている。このように、比較例に係る撮像装置では、行毎に受光期間が異なるため、画像に歪みが発生してしまう場合がある。この場合、画像を観察する医師等のユーザにとって、観察するのに画質が十分でないという問題がある。 In the image sensor according to the comparative example, the light receiving period (light receiving period) is the same period as the exposure period in all rows of a plurality of pixels of the image sensor. Therefore, the light-receiving period of each row is sequentially shifted in the time axis direction from the first row to the last row. As described above, in the image pickup apparatus according to the comparative example, since the light receiving period is different for each row, the image may be distorted. In this case, there is a problem that the image quality is not sufficient for a user such as a doctor who observes the image.

そこで、第1の実施形態に係る撮像装置10は、上述した構成のもと、ユーザが観察するのに十分な画質及びフレームレートを確保することができるように、以下の動作を行う。 Therefore, the image capturing apparatus 10 according to the first embodiment performs the following operations under the above-described configuration so as to ensure sufficient image quality and frame rate for user observation.

本実施形態では、イメージセンサ12c~12eの露光期間は、撮像装置10からディスプレイ101に1フレームの映像信号が出力される期間の半分である。そして、制御回路14aは、ブランキング期間又はブランキング期間を中心とした期間にのみ、イメージセンサ12c~12eそれぞれの複数の画素を受光させる制御を行う。例えば、制御回路14aは、このような制御をイメージセンサ制御回路12fに行わせるための制御信号をイメージセンサ制御回路12fに出力する。 In this embodiment, the exposure period of the image sensors 12c to 12e is half the period during which one frame of video signal is output from the imaging device 10 to the display 101. FIG. Then, the control circuit 14a controls the plurality of pixels of each of the image sensors 12c to 12e to receive light only during the blanking period or a period around the blanking period. For example, the control circuit 14a outputs a control signal to the image sensor control circuit 12f to cause the image sensor control circuit 12f to perform such control.

ここで、制御回路14aは、読み出し期間以下の期間で、複数の画素を受光させる制御を行う。読み出し期間とは、例えば、イメージセンサ12c~12eから1フレームの映像信号が出力される期間を指す。また、読み出し期間とは、例えば、1フレームにおける最初の行からの映像信号の出力を開始してから最後の行からの映像信号の出力を終了するまでの期間を指す。 Here, the control circuit 14a controls a plurality of pixels to receive light during a period equal to or shorter than the readout period. The readout period refers to, for example, a period during which one frame of video signal is output from the image sensors 12c to 12e. Also, the readout period refers to, for example, a period from the start of outputting the video signal from the first row in one frame to the end of outputting the video signal from the last row.

なお、ブランキング期間とは、例えば、本実施形態では、n(nは、正の整数)フレーム目の撮像において、イメージセンサ12c~12eの最後の行からの映像信号の出力を終了してから、(n+1)フレーム目の撮像において、イメージセンサ12c~12eの最初の行からの映像信号の出力を開始するまでの期間に対応する期間を指す。 Note that, in the present embodiment, for example, the blanking period is defined as the time after output of the video signal from the last row of the image sensors 12c to 12e is finished in the n-th (n is a positive integer) frame imaging. , refers to the period corresponding to the period until the first row of the image sensors 12c to 12e starts outputting the video signal in the (n+1)th frame imaging.

本実施形態では、撮像装置10からディスプレイ101に出力される映像信号(画像)のフレームレートを、A[fps(frame per second)]とする。この場合、読み出し期間を、1/(M・A)[s]とすることが可能なイメージセンサを、撮像装置10のイメージセンサ12c~12eとして用いる。すなわち、1/(M・k・A)[s]毎に、各行から映像信号を出力することが可能なイメージセンサをイメージセンサ12c~12eとして用いる。ただし、「M」は、1よりも大きい数であり、「k」は、イメージセンサ12c~12eそれぞれの画素の行数である。以下、M=2の場合を例に挙げて説明するが、Mは、2とは異なる数であって1よりも大きい数であってもよい。 In this embodiment, the frame rate of the video signal (image) output from the imaging device 10 to the display 101 is assumed to be A [fps (frame per second)]. In this case, an image sensor capable of setting the readout period to 1/(M·A) [s] is used as the image sensors 12c to 12e of the imaging device 10. FIG. That is, the image sensors 12c to 12e are image sensors capable of outputting a video signal from each row every 1/(M·k·A) [s]. However, "M" is a number greater than 1, and "k" is the number of rows of pixels in each of the image sensors 12c-12e. Hereinafter, the case of M=2 will be described as an example, but M may be a number different from 2 and greater than 1.

そして、制御回路14aは、露光期間1/A[s]よりも短い読み出し期間1/(2A)[s]で1フレームの映像信号をイメージセンサ12c~12eに出力させるための制御信号をイメージセンサ制御回路12fに出力する。 Then, the control circuit 14a outputs a control signal for causing the image sensors 12c to 12e to output one frame of video signals in a readout period 1/(2A) [s] shorter than the exposure period 1/A [s]. Output to the control circuit 12f.

以下、A=60の場合を例に挙げて説明する。つまり、露光期間と、撮像装置10からディスプレイ101に1フレームの映像信号が出力される期間とが同一の1/60[s]であり、読み出し期間が1/120[s]である場合について、以下、説明する。 A case where A=60 will be described below as an example. In other words, when the exposure period and the period during which one frame of video signal is output from the imaging device 10 to the display 101 are the same 1/60 [s], and the readout period is 1/120 [s], This will be explained below.

図3は、第1の実施形態に係る撮像装置10の撮像動作の一例を説明するための図である。図3には、第1の実施形態に係る光源装置30から出射される白色光及び励起光の出射タイミングと、撮像装置10のイメージセンサ12c~12eが備える複数の画素の各行の露光タイミングと、イメージセンサ12c~12eから出力される映像信号の出力タイミングと、出力回路14eから出力される映像信号の出力タイミングとの関係の一例が示されている。図3において、横軸は、時間を示す。 FIG. 3 is a diagram for explaining an example of the imaging operation of the imaging device 10 according to the first embodiment. FIG. 3 shows the emission timing of white light and excitation light emitted from the light source device 30 according to the first embodiment, the exposure timing of each row of a plurality of pixels provided in the image sensors 12c to 12e of the imaging device 10, An example of the relationship between the output timing of the video signal output from the image sensors 12c to 12e and the output timing of the video signal output from the output circuit 14e is shown. In FIG. 3, the horizontal axis indicates time.

なお、図3において、図示を簡略化したため、nフレーム目の撮像においてイメージセンサ12c~12eの最後の行からの映像信号の出力を終了した時間(タイミング)、及び、(n+1)フレーム目の撮像においてイメージセンサ12c~12eの最初の行からの映像信号の出力を開始する時間の2つの異なる時間が、同一の「Tp(p=n+1)」で示されている。実際には、上述したように、nフレーム目の撮像において、イメージセンサ12c~12eの最後の行からの映像信号の出力を終了してから、(n+1)フレーム目の撮像において、イメージセンサ12c~12eの最初の行からの映像信号の出力を開始するまでの間の期間として、ブランキング期間が存在する。 In FIG. 3, for simplification of illustration, the time (timing) at which the output of the video signal from the last row of the image sensors 12c to 12e in the nth frame imaging is completed, and the (n+1)th frame imaging , two different times of starting the output of video signals from the first row of the image sensors 12c to 12e are indicated by the same "Tp (p=n+1)". In fact, as described above, after finishing the output of the video signals from the last row of the image sensors 12c to 12e in the nth frame imaging, in the (n+1)th frame imaging, the image sensors 12c to 12e A blanking period exists as a period until the start of outputting the video signal from the first row of 12e.

図3において、(n)は、nフレーム目の撮像における露光タイミングを示す。ただし、nは、上述したように正の整数である。第1の実施形態では、白色LED30bから出射される白色光の反射の光量よりも、励起光の照射によって発生した蛍光の光量の方が小さい。例えば、白色光の反射の光量に比べて、蛍光の光量が無視できるくらい小さい。よって、白色光から得られるカラー画像に及ぼす励起光に基づく蛍光から得られる蛍光画像の影響は著しく小さいと考えられる。このため、第1の実施形態では、IRレーザ30dからは常時(連続的に)励起光が出射されている。したがって、イメージセンサ12eにより受光される蛍光の光量は、常時励起光がIRレーザ30dから出射されていない場合と比べて、大きくなる。このため、蛍光の受光感度を高くすることができ、光量不足による画像の明るさの低下を抑制することができる。 In FIG. 3, (n) indicates the exposure timing in the imaging of the n-th frame. However, n is a positive integer as described above. In the first embodiment, the amount of fluorescent light generated by irradiation of the excitation light is smaller than the amount of reflected white light emitted from the white LED 30b. For example, the amount of fluorescent light is negligibly small compared to the amount of reflected white light. Therefore, it is considered that the effect of the fluorescence image obtained from the fluorescence based on the excitation light on the color image obtained from the white light is remarkably small. Therefore, in the first embodiment, excitation light is constantly (continuously) emitted from the IR laser 30d. Therefore, the amount of fluorescence light received by the image sensor 12e is greater than when excitation light is not constantly emitted from the IR laser 30d. For this reason, it is possible to increase the sensitivity of receiving fluorescence, and to suppress a decrease in brightness of an image due to insufficient amount of light.

図3において、nが奇数の場合には、IRnは、nフレーム目の撮像において、イメージセンサ12eから出力されるR信号を示す。すなわち、nが奇数の場合には、IRnは、励起光に基づく蛍光を受光したイメージセンサ12eから出力されるR信号を示す。 In FIG. 3, when n is an odd number, IRn indicates the R signal output from the image sensor 12e in the nth frame imaging. That is, when n is an odd number, IRn represents the R signal output from the image sensor 12e that received fluorescence based on the excitation light.

図3において、nが偶数の場合には、Gnは、nフレーム目の撮像において、イメージセンサ12dから出力されるG信号を示す。また、nが偶数の場合には、Bnは、nフレーム目の撮像において、イメージセンサ12cから出力されるB信号を示す。また、nが偶数の場合には、「Rn+IRn」は、nフレーム目の撮像において、イメージセンサ12eから出力されるR信号を示す。すなわち、「Rn+IRn」は、nフレーム目の撮像において、白色光、及び、励起光に基づく蛍光を同時に受光したイメージセンサ12eから出力されるR信号を示す。また、「Wn+IRn」は、nフレーム目の撮像において、イメージセンサ12c~12eから出力されるRGB信号を示す。すなわち、「Wn+IRn」は、GnとBnとRnとの合成信号である。 In FIG. 3, when n is an even number, Gn indicates the G signal output from the image sensor 12d in the nth frame imaging. Also, when n is an even number, Bn indicates the B signal output from the image sensor 12c in the n-th frame imaging. Also, when n is an even number, "Rn+IRn" indicates the R signal output from the image sensor 12e in the imaging of the nth frame. That is, "Rn+IRn" represents the R signal output from the image sensor 12e that simultaneously received the white light and the fluorescence based on the excitation light in the nth frame imaging. "Wn+IRn" indicates RGB signals output from the image sensors 12c to 12e in the nth frame imaging. That is, "Wn+IRn" is a combined signal of Gn, Bn and Rn.

図3の例において、1フレーム目の撮像を開始する前または1フレーム目の撮像の開始とともに、制御回路14aは、第1の光源制御信号を出力させるための制御信号をタイミング信号発生回路14fに出力する。第1の光源制御信号は、IRレーザ30dから励起光を連続的に出射させるための制御信号である。 In the example of FIG. 3, the control circuit 14a sends a control signal for outputting the first light source control signal to the timing signal generation circuit 14f before or at the same time as starting the imaging of the first frame. Output. The first light source control signal is a control signal for continuously emitting excitation light from the IR laser 30d.

タイミング信号発生回路14fは、制御回路14aから出力された上述の制御信号に基づき、励起光を連続的に出射させるための第1の光源制御信号を駆動回路30cに出力する。駆動回路30cは、タイミング信号発生回路14fから出力された第1の光源制御信号に基づき、IRレーザ30dから励起光を連続的に出射させる。 The timing signal generation circuit 14f outputs a first light source control signal for continuously emitting the excitation light to the drive circuit 30c based on the control signal output from the control circuit 14a. The drive circuit 30c causes the IR laser 30d to continuously emit excitation light based on the first light source control signal output from the timing signal generation circuit 14f.

図3に示すように、1フレーム目の撮像において、複数の画素の最初の行から最後の行に向かって1行毎に順次露光が開始される。1フレーム目の撮像では、励起光に基づく蛍光がイメージセンサ12eにより受光され、イメージセンサ12eは、時間T1から時間T2までの読み出し期間1/120[s]で、R信号(IR1)を出力する。すなわち、イメージセンサ12eは、1/(120k)[s]毎に、各行から映像信号を出力する。なお、時間T1は、1フレーム目において、最初の行からの映像信号の出力が開始する時間である。時間T2は、1フレーム目において、最後の行からの映像信号の出力が終了する時間である。 As shown in FIG. 3, in the imaging of the first frame, exposure is sequentially started row by row from the first row to the last row of a plurality of pixels. In the imaging of the first frame, fluorescence based on the excitation light is received by the image sensor 12e, and the image sensor 12e outputs an R signal (IR1) during a readout period of 1/120 [s] from time T1 to time T2. . That is, the image sensor 12e outputs a video signal from each row every 1/(120k) [s]. Note that the time T1 is the time when the output of the video signal from the first row starts in the first frame. Time T2 is the time when the output of the video signal from the last row ends in the first frame.

具体的な制御方法について説明すると、制御回路14aは、時間T1から読み出し期間1/120[s]で1フレーム目の映像信号をイメージセンサ12eに出力させるための制御信号をイメージセンサ制御回路12fに出力する。すなわち、制御回路14aは、時間T1から、1/(120k)[s]毎に各行から順々に映像信号を出力することをイメージセンサ12eに開始させるための制御信号をイメージセンサ制御回路12fに出力する。 To explain a specific control method, the control circuit 14a sends a control signal to the image sensor control circuit 12f to cause the image sensor 12e to output the video signal of the first frame in a readout period of 1/120 [s] from time T1. Output. That is, the control circuit 14a sends a control signal to the image sensor control circuit 12f to cause the image sensor 12e to start outputting the video signal from each row in order every 1/(120k) [s] from time T1. Output.

イメージセンサ制御回路12fは、かかる制御信号に基づいて、イメージセンサ12eを駆動制御する。この結果、イメージセンサ12eは、時間T1から時間T2までの読み出し期間1/120[s]で、全ての行(k行)から映像信号を出力する。 The image sensor control circuit 12f drives and controls the image sensor 12e based on this control signal. As a result, the image sensor 12e outputs video signals from all rows (k rows) in a readout period of 1/120 [s] from time T1 to time T2.

そして、記憶制御回路14bは、1フレーム目の撮像において、イメージセンサ12eの各行から出力された映像信号が入力される度に、各行から出力された映像信号を一時的に記憶回路14gに格納する。ここで、記憶制御回路14bは、時間T1から時間T2にかけて、最初の行から順々に最後の行まで、各行から出力された映像信号を記憶回路14gに記憶させる。このようにして1フレーム目の撮像において記憶された映像信号は、少なくとも、時間T5までは記憶回路14gに記憶される。 Then, the storage control circuit 14b temporarily stores the video signal output from each row in the storage circuit 14g each time the video signal output from each row of the image sensor 12e is input in the imaging of the first frame. . Here, the storage control circuit 14b causes the storage circuit 14g to store the video signals output from the first row to the last row in order from the time T1 to the time T2. The video signal thus stored in the imaging of the first frame is stored in the storage circuit 14g at least until time T5.

次に、図3に示すように、2フレーム目の撮像において、イメージセンサ12c~12eそれぞれの複数の画素の最初の行から最後の行に向かって1行毎に順次露光が開始される。 Next, as shown in FIG. 3, in the imaging of the second frame, exposure is sequentially started row by row from the first row to the last row of the plurality of pixels of each of the image sensors 12c to 12e.

ここで、1フレーム目の撮像において、最後の行からの映像信号の出力が終了する時間T2から、2フレーム目の撮像において、最初の行からの映像信号の出力が開始する時間までの期間は、図3に示すように、ブランキング期間40に対応する。なお、ブランキング期間40は、露光期間等と比較して相対的に短い期間であるため、図3において一本の点線で示されているが、実際は、時間軸方向に一定の幅を有する期間である。 Here, the period from the time T2 when the output of the video signal from the last row ends in the imaging of the first frame to the time when the output of the video signal from the first row starts in the imaging of the second frame is , corresponds to the blanking period 40 as shown in FIG. Note that the blanking period 40 is a relatively short period compared to the exposure period and the like, so it is indicated by a single dotted line in FIG. is.

本実施形態では、図3に示すように、2フレーム目の撮像において、ブランキング期間40又はブランキング期間40を中心とした期間41にのみ、白色LED30bから白色光が出射される。例えば、ブランキング期間40を中心とした期間41にのみ白色光が出射される場合、2フレーム目の撮像において、イメージセンサ12c~12eの複数の画素の全ての行のうち、最初の行側の少なくとも1つの行42、及び、最後の行側の少なくとも1つの行43には、期間41よりも短い時間しか白色光が照射されない。 In this embodiment, as shown in FIG. 3, white light is emitted from the white LED 30b only during the blanking period 40 or the period 41 around the blanking period 40 in the imaging of the second frame. For example, when white light is emitted only during a period 41 centering on the blanking period 40, in the second frame imaging, the first row side of all the rows of the plurality of pixels of the image sensors 12c to 12e. At least one row 42 and at least one row 43 on the last row side are irradiated with white light only for a period shorter than the period 41 .

なお、ブランキング期間40内で白色LED30bから白色光が出射されてもよい。この場合には、ブランキング期間40内なら、ブランキング期間40の中心を中心とした期間に限られず、どのようなタイミングでも白色光が出射されてもよい。また、期間41は、例えば、ブランキング期間40よりも長い期間であり、ブランキング期間40を含み、ブランキング期間40よりも前の期間と後ろの期間とを含む。ブランキング期間、ブランキング期間内の期間、及び、ブランキング期間を中心とした期間は、ブランキング期間を基準とした期間の一例である。 White light may be emitted from the white LED 30b during the blanking period 40. FIG. In this case, within the blanking period 40, the white light may be emitted at any timing, not limited to the period around the center of the blanking period 40. FIG. Also, the period 41 is, for example, longer than the blanking period 40 , includes the blanking period 40 , and includes periods before and after the blanking period 40 . The blanking period, the period within the blanking period, and the period around the blanking period are examples of periods based on the blanking period.

一方、図3に示すように、全ての行のうち、行42及び行43を除いた1つ以上の行44では、白色光を受光する受光期間が、略一致する。すなわち、行44と、行42及び行43とでは、受光期間が異なる。このため、撮像装置10は、行42及び行43から出力される映像信号に基づいて得られる画像をマスクし、行44から出力される映像信号に基づいて得られる画像の範囲を有効画像範囲として設定する。これにより、ディスプレイ101には、明るさのムラが発生する可能性がある部分がマスクされた画像が表示される。したがって、画像の歪みの発生を抑制することができる。よって、第1の実施形態に係る撮像装置10によれば、画像を観察する医師等のユーザにとって、観察するのに十分な画質を確保することができる。 On the other hand, as shown in FIG. 3, in one or more rows 44 excluding rows 42 and 43, the white light reception periods are substantially the same. That is, the row 44 and the rows 42 and 43 have different light receiving periods. For this reason, the imaging device 10 masks the image obtained based on the video signals output from the rows 42 and 43, and sets the range of the image obtained based on the video signal output from the row 44 as the effective image range. set. As a result, the display 101 displays an image in which a portion where uneven brightness may occur is masked. Therefore, it is possible to suppress the occurrence of image distortion. Therefore, according to the image pickup apparatus 10 according to the first embodiment, it is possible to ensure image quality sufficient for observation by a user such as a doctor who observes an image.

また、図3に示すように、3フレーム目の撮像において、複数の画素の全ての行のうち、最初の行側の少なくとも1つの行は、露光期間中に、励起光に基づく蛍光のみを受光するのではなく、白色光も受光している。また、1フレーム目の撮像において、複数の画素の全ての行のうち、最後の行側の少なくとも1つの行は、露光期間中に、励起光に基づく蛍光のみを受光するのではなく、白色光も受光している。よって、蛍光に加えて白色光も受光しているこれらの行から出力される映像信号からは、白色光の成分も含まれているため、蛍光成分のみからなる画質が良好な蛍光画像を生成することが困難である。 Further, as shown in FIG. 3, in the third frame imaging, at least one row on the first row side among all the rows of the plurality of pixels receives only fluorescence based on the excitation light during the exposure period. Instead, it also receives white light. Further, in the imaging of the first frame, at least one row on the last row side among all the rows of the plurality of pixels receives white light instead of only fluorescence based on the excitation light during the exposure period. is also received. Therefore, the video signals output from these rows, which receive white light in addition to fluorescence, contain a white light component, so that a high-quality fluorescence image consisting of only the fluorescence component is generated. is difficult.

したがって、第1の実施形態に係る撮像装置10は、1フレーム目の撮像及び3フレーム目の撮像においても同様に、行42及び行43から出力される映像信号に基づいて得られる画像をマスクし、行44から出力される映像信号に基づいて得られる画像の範囲を有効画像範囲として設定する。これにより、ディスプレイ101には、画質が良好でない可能性がある部分がマスクされた画像が表示される。したがって、第1の実施形態に係る撮像装置10によれば、この点からも、画像を観察する医師等のユーザにとって、観察するのに十分な画質を確保することができる。 Therefore, the imaging apparatus 10 according to the first embodiment similarly masks the images obtained based on the video signals output from the rows 42 and 43 in the imaging of the first frame and the imaging of the third frame. , line 44, the range of the image obtained based on the video signal is set as the effective image range. As a result, the display 101 displays an image in which the portion where the image quality may not be good is masked. Therefore, according to the image pickup apparatus 10 according to the first embodiment, it is possible to ensure sufficient image quality for observation by a user such as a doctor who observes the image also from this point.

ここで、期間41がブランキング期間を中心とした期間である理由の一例について説明する。仮に、期間41がブランキング期間を中心としていない期間である場合には、両端がマスクされる画像において、一端側のマスクされている領域の大きさと、他端側のマスクされている領域との大きさとが異なり、画像を観察するユーザに違和感を覚えさせてしまう虞がある。 Here, an example of the reason why the period 41 is a period centered on the blanking period will be described. If the period 41 is a period not centered on the blanking period, in an image masked at both ends, the size of the masked region on the one end side and the masked region on the other end side The difference in size may make the user who observes the image feel uncomfortable.

しかしながら、期間41がブランキング期間を中心とした期間であることで、一端側のマスクされている領域と、他端側のマスクされている領域との大きさが略一致し、ユーザに違和感を与えることを抑制することができる。 However, since the period 41 is a period centered on the blanking period, the size of the masked area on the one end side and the masked area on the other end side are substantially the same, which makes the user uncomfortable. You can restrain yourself from giving.

そして、イメージセンサ12c~12eは、時間T2から時間T3までの読み出し期間1/120[s]で、全ての行(k行)からの映像信号(RGB信号)を出力する。 The image sensors 12c to 12e output video signals (RGB signals) from all rows (k rows) during a readout period of 1/120 [s] from time T2 to time T3.

具体的な制御方法について説明する。制御回路14aは、時間T2から読み出し期間1/120[s]で映像信号をイメージセンサ12c~12eに出力させるための制御信号をイメージセンサ制御回路12fに出力する。すなわち、制御回路14aは、時間T2から1/(120k)[s]毎に各行からの映像信号を出力することをイメージセンサ12c~12eに開始させるための制御信号をイメージセンサ制御回路12fに出力する。 A specific control method will be described. The control circuit 14a outputs to the image sensor control circuit 12f a control signal for causing the image sensors 12c to 12e to output video signals in a readout period of 1/120 [s] from time T2. That is, the control circuit 14a outputs to the image sensor control circuit 12f a control signal for causing the image sensors 12c to 12e to start outputting video signals from each row every 1/(120k) [s] from time T2. do.

イメージセンサ制御回路12fは、かかる制御信号に基づいて、イメージセンサ12c~12eを駆動制御する。この結果、イメージセンサ12cは、時間T2から時間T3までの読み出し期間1/120[s]で、全ての行(k行)から映像信号(B信号)を出力する。また、イメージセンサ12dは、時間T2から時間T3までの読み出し期間1/120[s]で、全ての行(k行)から映像信号(G信号)を出力する。また、イメージセンサ12eは、時間T2から時間T3までの読み出し期間1/120[s]で、2フレーム目の撮像において、全ての行(k行)から映像信号(R信号(R2+IR2))を出力する。 The image sensor control circuit 12f drives and controls the image sensors 12c to 12e based on such control signals. As a result, the image sensor 12c outputs video signals (B signals) from all rows (k rows) during a readout period of 1/120 [s] from time T2 to time T3. Also, the image sensor 12d outputs video signals (G signals) from all rows (k rows) during a readout period of 1/120 [s] from time T2 to time T3. Further, the image sensor 12e outputs video signals (R signal (R2+IR2)) from all rows (k rows) in the second frame imaging during the readout period 1/120 [s] from time T2 to time T3. do.

そして、記憶制御回路14bは、時間T2から時間T3まで、イメージセンサ12cの各行から出力された映像信号が入力される度に、各行から出力された映像信号を一時的に記憶回路14gに格納する。また、記憶制御回路14bは、時間T2から時間T3まで、イメージセンサ12dの各行から出力された映像信号が入力される度に、各行から出力された映像信号を一時的に記憶回路14gに格納する。また、記憶制御回路14bは、時間T2から時間T3まで、イメージセンサ12eの各行から出力された映像信号が入力される度に、各行から出力された映像信号を一時的に記憶回路14gに格納する。ここで、2フレーム目の撮像において、時間T2から時間T3にかけて、最初の行から順々に、最後の行まで、各行から出力された映像信号が記憶回路14gに記憶される。このようにして2フレーム目の撮像において記憶された映像信号は、少なくとも、時間T5までは記憶回路14gに記憶される。 Then, the memory control circuit 14b temporarily stores the video signal output from each row in the memory circuit 14g every time the video signal output from each row of the image sensor 12c is input from time T2 to time T3. . In addition, the storage control circuit 14b temporarily stores the video signal output from each row in the storage circuit 14g every time the video signal output from each row of the image sensor 12d is input from time T2 to time T3. . In addition, the storage control circuit 14b temporarily stores the video signal output from each row in the storage circuit 14g every time the video signal output from each row of the image sensor 12e is input from time T2 to time T3. . Here, in the imaging of the second frame, from time T2 to time T3, the video signals output from each row are stored in the storage circuit 14g in order from the first row to the last row. The video signal thus stored in the imaging of the second frame is stored in the storage circuit 14g at least until time T5.

そして、図3に示すように、3フレーム目の撮像において、複数の画素の最初の行から最後の行に向かって1行毎に順次露光が開始される。3フレーム目の撮像では、励起光に基づく蛍光がイメージセンサ12eにより受光され、イメージセンサ12eは、時間T3から時間T4までの読み出し期間1/120[s]で、R信号(IR3)を出力する。すなわち、イメージセンサ12eの各行は、1/(120k)[s]毎に映像信号を出力する。なお、時間T3は、3フレーム目の撮像において、最初の行からの映像信号の出力が開始する時間である。時間T4は、3フレーム目の撮像において、最後の行からの映像信号の出力が終了する時間である。 Then, as shown in FIG. 3, in the imaging of the third frame, exposure is sequentially started row by row from the first row to the last row of the plurality of pixels. In the imaging of the third frame, fluorescence based on the excitation light is received by the image sensor 12e, and the image sensor 12e outputs an R signal (IR3) during a readout period of 1/120 [s] from time T3 to time T4. . That is, each row of the image sensor 12e outputs a video signal every 1/(120k) [s]. Note that the time T3 is the time when the output of the video signal from the first row starts in the imaging of the third frame. Time T4 is the time when the output of the video signal from the last row ends in the imaging of the third frame.

具体的な制御方法について説明すると、制御回路14aは、時間T3から読み出し期間1/120[s]で映像信号をイメージセンサ12eに出力させるための制御信号をイメージセンサ制御回路12fに出力する。すなわち、制御回路14aは、時間T3から1/(120k)[s]毎に各行から映像信号を出力することをイメージセンサ12eに開始させるための制御信号をイメージセンサ制御回路12fに出力する。 Specifically, the control circuit 14a outputs a control signal to the image sensor control circuit 12f to cause the image sensor 12e to output a video signal in a readout period of 1/120 [s] from time T3. That is, the control circuit 14a outputs to the image sensor control circuit 12f a control signal for causing the image sensor 12e to start outputting a video signal from each row every 1/(120k) [s] from time T3.

イメージセンサ制御回路12fは、かかる制御信号に基づいて、イメージセンサ12eを駆動制御する。この結果、イメージセンサ12eは、時間T3から時間T4までの読み出し期間1/120[s]で、全ての行(k行)から映像信号を出力する。 The image sensor control circuit 12f drives and controls the image sensor 12e based on this control signal. As a result, the image sensor 12e outputs video signals from all rows (k rows) in a readout period of 1/120 [s] from time T3 to time T4.

そして、記憶制御回路14bは、3フレーム目の撮像において、イメージセンサ12eの各行から出力された映像信号が入力される度に、各行から出力された映像信号を一時的に記憶回路14gに格納する。ここで、3フレーム目の撮像において、時間T3から時間T4にかけて、最初の行から順々に最後の行まで、各行から出力された映像信号が記憶回路14gに記憶される。このようにして3フレーム目の撮像において記憶された映像信号は、少なくとも、時間T7までは記憶回路14gに記憶される。 Then, the storage control circuit 14b temporarily stores the video signal output from each row in the storage circuit 14g every time the video signal output from each row of the image sensor 12e is input in the imaging of the third frame. . Here, in the imaging of the third frame, from time T3 to time T4, the video signals output from each row are stored in the storage circuit 14g in order from the first row to the last row. The video signal thus stored in the imaging of the third frame is stored in the storage circuit 14g at least until time T7.

ここで、図3の「(W2+IR2)+(IR1+IR3)/2」が示す処理について説明する。時間T3の段階では、記憶回路14gには、1フレーム目の映像信号(IR1)と、2フレーム目の映像信号(W2+IR2)とが記憶されている。そして、時間T3からは、上述したように、3フレーム目の映像信号(IR3)が記憶回路14gに記憶されることが開始される。 Here, the processing indicated by "(W2+IR2)+(IR1+IR3)/2" in FIG. 3 will be described. At time T3, the storage circuit 14g stores the video signal (IR1) of the first frame and the video signal (W2+IR2) of the second frame. Then, from time T3, as described above, the storage circuit 14g starts to store the video signal (IR3) of the third frame.

そして、本実施形態では、撮像装置10は、1フレーム目の映像信号(IR1)と、2フレーム目の映像信号(W2+IR2)と、3フレーム目の映像信号(IR3)とを合成してディスプレイ101に出力する。 In this embodiment, the imaging device 10 synthesizes the video signal (IR1) of the first frame, the video signal (W2+IR2) of the second frame, and the video signal (IR3) of the third frame, and displays it on the display 101. output to

ここで、単純に、撮像装置10が、3フレーム目の撮像において、イメージセンサ12eの各行から映像信号(IR3)が出力される度に、各行から出力された映像信号(IR3)と、各行から出力された映像信号(IR1)と、イメージセンサ12c~12eの各行から出力された映像信号(W2+IR2)とを合成して、合成画像をディスプレイ101に出力する場合について説明する。この場合、ディスプレイ101には、1/120[s]で、全ての行から出力された映像信号の合成画像が出力される。 Here, whenever the imaging device 10 outputs the video signal (IR3) from each row of the image sensor 12e in the imaging of the third frame, the video signal (IR3) output from each row and the A case in which the output video signal (IR1) and the video signals (W2+IR2) output from the respective rows of the image sensors 12c to 12e are synthesized and the synthesized image is output to the display 101 will be described. In this case, the composite image of the video signals output from all the rows is output to the display 101 at 1/120 [s].

すると、あるフレームの撮像において最後の行の映像信号がディスプレイ101に出力されてから、その次のフレームの撮像において最初の行の映像信号がディスプレイ101に出力されるまでの1/120[s]の間、ディスプレイ101に対して映像信号が出力されない期間が存在することとなる。映像信号が出力されない期間は、ディスプレイ101に表示される画像が更新されない期間でもある。このため、画像が更新される1/120[s]の期間と、画像が更新されない1/120[s]の期間とが交互に並ぶ。このような場合、画像の更新頻度が一定でないため、ディスプレイ101は、このような入力に対応できないことがある。 Then, 1/120 [s] from outputting the video signal of the last row to the display 101 in imaging a certain frame to outputting the video signal of the first row to the display 101 in imaging the next frame. , there is a period during which no video signal is output to the display 101 . The period during which the video signal is not output is also the period during which the image displayed on the display 101 is not updated. Therefore, a period of 1/120 [s] in which the image is updated and a period of 1/120 [s] in which the image is not updated are alternately arranged. In such a case, the display 101 may not be able to respond to such input because the image update frequency is not constant.

そこで、本実施形態では、画像の更新頻度が一定となるように、出力回路14eからディスプレイ101に出力される1フレームの映像信号のフレームレートを、60[fps]に設定している。すなわち、あるフレームの撮像において最後の行の映像信号が出力されてから、その次のフレームの撮像において最初の行の映像信号が出力されるまでの期間を短縮している。 Therefore, in this embodiment, the frame rate of the video signal for one frame output from the output circuit 14e to the display 101 is set to 60 [fps] so that the image update frequency is constant. That is, the period from the output of the video signal of the last row in imaging of a certain frame to the output of the video signal of the first row in imaging of the next frame is shortened.

このため、記憶制御回路14bは、時間T3から、1/(60k)[s]毎に、1フレーム目の撮像において各行から出力された映像信号(IR1)、2フレーム目の撮像において各行から出力された映像信号(W2+IR2)、及び、3フレーム目の撮像において各行から出力された映像信号(IR3)を順々に記憶回路14gから読み出す。例えば、記憶制御回路14bは、イメージセンサ12eのm番目の行から出力された映像信号(IR1)と映像信号(IR3)と、イメージセンサ12c~12eのm番目の行から出力された映像信号(W2+IR2)とを読み出す。なお、mは、正の整数である。そして、記憶制御回路14bは、イメージセンサ12eのm番目の行から出力された映像信号(IR1)と映像信号(IR3)と、イメージセンサ12c~12eのm番目の行から出力された映像信号(W2+IR2)とを画像処理回路14cに出力する。 Therefore, from time T3, the memory control circuit 14b, every 1/(60k) [s], outputs the video signal (IR1) output from each row in the first frame imaging, and the output from each row in the second frame imaging. The video signal (W2+IR2) that has been captured and the video signal (IR3) that has been output from each row in the imaging of the third frame are sequentially read out from the storage circuit 14g. For example, the memory control circuit 14b outputs a video signal (IR1) and a video signal (IR3) output from the m-th row of the image sensor 12e, and a video signal (IR3) output from the m-th row of the image sensors 12c to 12e. W2+IR2). Note that m is a positive integer. Then, the memory control circuit 14b outputs the video signal (IR1) and the video signal (IR3) output from the m-th row of the image sensor 12e, and the video signal (IR3) output from the m-th row of the image sensors 12c to 12e. W2+IR2) is output to the image processing circuit 14c.

そして、画像処理回路14cは、イメージセンサ12eのm番目の行から出力された映像信号(IR1)及び映像信号(IR3)、並びに、イメージセンサ12c~12eのm番目の行から出力された映像信号(W2+IR2)に対して各種の画像処理を施して、画像合成回路14dに出力する。 Then, the image processing circuit 14c processes the image signal (IR1) and the image signal (IR3) output from the m-th row of the image sensor 12e, and the image signals output from the m-th rows of the image sensors 12c to 12e. (W2+IR2) is subjected to various image processing and output to the image synthesizing circuit 14d.

以下、画像処理回路14cにより施される各種の画像処理の一例について説明する。例えば、画像処理回路14cは、1フレーム目の撮像において、イメージセンサ12eのm番目の行から出力された映像信号(IR1)に対して、デジタルゲインをかける。画像処理回路14cは、デジタルゲイン及び上述したアナログゲインによって、イメージセンサ12eのm番目の行から出力された映像信号(IR1)を例えば30倍まで増幅させる。 An example of various image processing performed by the image processing circuit 14c will be described below. For example, in imaging the first frame, the image processing circuit 14c applies a digital gain to the video signal (IR1) output from the m-th row of the image sensor 12e. The image processing circuit 14c amplifies the video signal (IR1) output from the m-th row of the image sensor 12e by a factor of 30, for example, using the digital gain and the above-described analog gain.

同様に、画像処理回路14cは、3フレーム目の撮像において、イメージセンサ12eのm番目の行から出力された映像信号(IR3)に対して、デジタルゲインをかける。画像処理回路14cは、デジタルゲイン及び上述したアナログゲインと合わせて、イメージセンサ12eのm番目の行から出力された映像信号(IR3)を例えば30倍まで増幅させる。 Similarly, the image processing circuit 14c applies a digital gain to the video signal (IR3) output from the m-th row of the image sensor 12e when capturing the third frame. The image processing circuit 14c amplifies the video signal (IR3) output from the m-th row of the image sensor 12e by, for example, 30 times in combination with the digital gain and the above-described analog gain.

なお、画像処理回路14cは、2フレーム目の撮像において、イメージセンサ12c~12eから出力されたm番目の映像信号(W2+IR2)については、デジタルゲイン及びアナログゲインをかけない。 Note that the image processing circuit 14c does not apply the digital gain and the analog gain to the m-th video signal (W2+IR2) output from the image sensors 12c to 12e in the imaging of the second frame.

また、本実施形態に係る画像処理回路14cは、上述した行42及び行43から出力される映像信号に基づいて得られる画像をマスクする。また、画像処理回路14cは、上述した行44から出力される映像信号に基づいて得られる画像の範囲を有効画像範囲として設定する。 Further, the image processing circuit 14c according to this embodiment masks the image obtained based on the video signals output from the rows 42 and 43 described above. The image processing circuit 14c also sets the range of the image obtained based on the video signal output from the row 44 as the effective image range.

図4Aは、画像処理回路14cが実行する画像処理の一例を説明するための図である。図4Aの例に示すように、例えば、画像処理回路14cは、上述した行42及び行43から出力される映像信号(W2+IR2)に基づいて得られる画像を、黒色の画像51に置換し、上述した行44から出力される映像信号(W2+IR2)に基づいて得られる画像の範囲を有効画像範囲52として設定したカラー画像50を生成する。 FIG. 4A is a diagram for explaining an example of image processing performed by the image processing circuit 14c. As shown in the example of FIG. 4A, for example, the image processing circuit 14c replaces the image obtained based on the video signal (W2+IR2) output from the above row 42 and row 43 with the black image 51, A color image 50 is generated in which the image range obtained based on the video signal (W2+IR2) output from the row 44 is set as the effective image range 52 .

図4Aの例に示すカラー画像50は、ブランキング期間を中心とし、ブランキング期間に1/1200[s]を加えた期間にのみイメージセンサ12c~12eの複数の画素を受光させた場合のカラー画像の一例を示す。カラー画像50では、カラー画像50の全体の10%の領域がマスクされている。 The color image 50 shown in the example of FIG. 4A is centered on the blanking period, and is a color image obtained when a plurality of pixels of the image sensors 12c to 12e receive light only during a period obtained by adding 1/1200 [s] to the blanking period. An example of an image is shown. In the color image 50, 10% of the entire color image 50 is masked.

同様に、画像処理回路14cは、上述した行42及び行43から出力される映像信号(IR1)に基づいて得られる画像を、黒色の画像に置換し、上述した行44から出力される映像信号(IR1)に基づいて得られる画像の範囲を有効画像範囲として設定した蛍光画像を生成する。また、画像処理回路14cは、上述した行42及び行43から出力される映像信号(IR3)に基づいて得られる画像を、黒色の画像に置換し、上述した行44から出力される映像信号(IR3)に基づいて得られる画像の範囲を有効画像範囲として設定した蛍光画像を生成する。 Similarly, the image processing circuit 14c replaces the image obtained based on the video signal (IR1) output from the rows 42 and 43 described above with a black image, and replaces the image signal (IR1) output from the row 44 described above with a black image. A fluorescence image is generated in which the range of the image obtained based on (IR1) is set as the effective image range. Further, the image processing circuit 14c replaces the image obtained based on the video signal (IR3) output from the rows 42 and 43 described above with a black image, and the video signal (IR3) output from the row 44 described above. A fluorescence image is generated in which the range of the image obtained based on IR3) is set as the effective image range.

画像合成回路14dは、1フレーム目の撮像においてイメージセンサ12eの各行から出力された映像信号(IR1)と、3フレーム目の撮像においてイメージセンサ12eの各行から出力された映像信号(IR3)とを合成して合成画像を生成する。例えば、画像合成回路14dは、映像信号(IR1)と映像信号(IR3)とを合成して合成画像((IR1+IR3)/2)を生成する。 The image synthesizing circuit 14d combines the video signal (IR1) output from each row of the image sensor 12e in imaging the first frame and the video signal (IR3) output from each row of the image sensor 12e in imaging the third frame. Synthesize to generate a composite image. For example, the image synthesizing circuit 14d synthesizes the video signal (IR1) and the video signal (IR3) to generate a synthesized image ((IR1+IR3)/2).

そして、画像合成回路14dは、例えば、合成画像((IR1+IR3)/2)のうち輝度が閾値以上の部分を抽出する。そして、画像合成回路14dは、抽出した部分と同一の位置及び範囲を有するマーカであって、所定の色(例えば、高彩度の緑色)が付与されたマーカを生成する。そして、画像合成回路14dは、2フレーム目の撮像において、各行から出力された映像信号(W2+IR2)に、生成したマーカを重畳して、合成画像(W2+IR2+(IR1+IR3)/2)を生成する。そして、画像合成回路14dは、生成した合成画像(W2+IR2+(IR1+IR3)/2)を出力回路14eに出力する。画像合成回路14dは、カラー画像、及び、カラー画像の前後に生成された複数(2つ)の蛍光画像を用いて、合成画像を生成する。 Then, the image synthesizing circuit 14d extracts, for example, a portion of the synthetic image ((IR1+IR3)/2) whose brightness is equal to or greater than the threshold. Then, the image synthesizing circuit 14d generates a marker having the same position and range as the extracted portion and having a predetermined color (for example, highly saturated green). Then, in the imaging of the second frame, the image synthesis circuit 14d superimposes the generated marker on the video signal (W2+IR2) output from each row to generate a synthesized image (W2+IR2+(IR1+IR3)/2). The image combining circuit 14d then outputs the generated combined image (W2+IR2+(IR1+IR3)/2) to the output circuit 14e. The image combining circuit 14d generates a combined image using the color image and a plurality of (two) fluorescence images generated before and after the color image.

例えば、被検体100の体内を画像化したカラー画像の色合いは、全体的に赤みがかった色合いである。そのため、例えば、マーカに赤い色を付与しても、マーカが目立たない。そのため、赤色に対して補色である緑色をマーカに付与して、マーカを目立つようにする。 For example, a color image obtained by imaging the inside of the body of the subject 100 has a reddish tint as a whole. Therefore, even if the marker is given a red color, for example, the marker does not stand out. Therefore, green, which is a complementary color to red, is given to the marker to make the marker stand out.

なお、画像合成回路14dは、マーカではなく、蛍光により得られる蛍光画像から輪郭成分を抽出し、抽出した輪郭成分をカラー画像に重畳して合成画像を生成してもよい。 Note that the image synthesizing circuit 14d may extract outline components from a fluorescent image obtained by fluorescence, instead of the markers, and superimpose the extracted outline components on the color image to generate a synthesized image.

このような処理を、画像合成回路14dは、全ての行から出力された映像信号に対して行う。すなわち、画像合成回路14dは、時間T3から時間T5までの期間1/60[s]で、全ての行から出力された映像信号の合成画像を出力回路14eに出力する。これにより、図3の「W2+IR2+(IR1+IR3)/2」によって示されるように、出力回路14eは、時間T3から時間T5までの期間1/60[s]で、全ての行の映像信号の合成画像をディスプレイ101に出力する。このため、ディスプレイ101に表示された合成画像は、1/60[s]毎に更新される。 The image synthesizing circuit 14d performs such processing on the video signals output from all the rows. That is, the image synthesizing circuit 14d outputs a synthetic image of the video signals output from all the rows to the output circuit 14e in a period of 1/60 [s] from time T3 to time T5. As a result, as shown by "W2+IR2+(IR1+IR3)/2" in FIG. 3, the output circuit 14e outputs a composite image of the video signals of all the rows for a period of 1/60 [s] from time T3 to time T5. is output to the display 101 . Therefore, the synthesized image displayed on the display 101 is updated every 1/60 [s].

4フレーム目以降についても、1フレーム目の撮像、2フレーム目の撮像及び3フレーム目の撮像において説明した撮像動作と同様の撮像動作が繰り返し行われる。したがって、制御回路14aは、励起光を光源装置30から連続的に出射させるとともに、励起光と種類が異なる白色光を、ブランキング期間40又は期間41と同期するように、光源装置30から2フレームに1回の割合で出射させる。画像処理回路14cは、励起光に基づく蛍光の受光によりイメージセンサ12eの複数の画素で発生した映像信号に基づいて蛍光画像を生成する。なお、蛍光の受光によりイメージセンサ12eの複数の画素で発生した映像信号は、第1の電気信号の一例である。また、蛍光画像は、第1の画像の一例である。 For the fourth and subsequent frames, the imaging operation similar to that described for the imaging of the first frame, the imaging of the second frame, and the imaging of the third frame is repeated. Therefore, the control circuit 14a continuously emits excitation light from the light source device 30, and emits white light, which is different in type from the excitation light, from the light source device 30 for two frames so as to synchronize with the blanking period 40 or the period 41. is emitted at a rate of 1 time. The image processing circuit 14c generates a fluorescence image based on video signals generated by a plurality of pixels of the image sensor 12e by receiving fluorescence based on the excitation light. Note that the video signal generated by the plurality of pixels of the image sensor 12e by receiving fluorescence is an example of the first electrical signal. Also, the fluorescence image is an example of the first image.

また、画像処理回路14cは、蛍光および白色光の同時受光によりイメージセンサ12c~12eの複数の画素で発生した映像信号に基づいてカラー画像を生成する。なお、蛍光および白色光の同時受光によりイメージセンサ12c~12eの複数の画素で発生した映像信号は、第2の電気信号の一例である。また、カラー画像は、第2の画像の一例である。 Further, the image processing circuit 14c generates a color image based on video signals generated by a plurality of pixels of the image sensors 12c to 12e by simultaneous reception of fluorescent light and white light. A video signal generated by a plurality of pixels of the image sensors 12c to 12e by simultaneously receiving fluorescent light and white light is an example of the second electrical signal. Also, the color image is an example of the second image.

画像合成回路14dは、蛍光画像とカラー画像を用いて、合成画像を生成する。例えば、画像処理回路14c及び画像合成回路14dは、画像生成部の一例である。 The image synthesis circuit 14d uses the fluorescence image and the color image to generate a synthesized image. For example, the image processing circuit 14c and the image synthesizing circuit 14d are examples of the image generator.

図4Bは、合成画像の一例を示す図である。図4Bの例には、明るさのムラが生じる可能性がある部分がマスクされたカラー画像50に、マーカ53が重畳された合成画像の一例が示されている。したがって、ユーザは、例えば、注目すべき箇所であるマーカ53を容易に観察することができる。また、ユーザは、人間が実際に認識できるような内容のカラー画像であるカラー画像50を観察しつつ、マーカ53の情報を得ることができる。 FIG. 4B is a diagram illustrating an example of a synthesized image; The example of FIG. 4B shows an example of a composite image in which a marker 53 is superimposed on a color image 50 in which a portion where uneven brightness may occur is masked. Therefore, the user can easily observe, for example, the marker 53 which is a point of interest. In addition, the user can obtain the information of the marker 53 while observing the color image 50, which is a color image whose contents can actually be recognized by humans.

また、カラー画像50において、露光タイミングは一致している。このため、第1の実施形態に係る撮像装置10によれば、画像の歪みの発生を抑制することができる。したがって、第1の実施形態に係る撮像装置10によれば、画像を観察する医師等のユーザにとって、観察するのに十分な画質を確保することができる。 Also, in the color image 50, the exposure timings are the same. Therefore, according to the imaging device 10 according to the first embodiment, it is possible to suppress the occurrence of image distortion. Therefore, according to the imaging apparatus 10 according to the first embodiment, it is possible to ensure image quality sufficient for observation by a user such as a doctor who observes an image.

図4Bに示すように、画像処理回路14cは、最初の行と最後の行に対応する合成画像の端部を少なくとも除く有効画像範囲52を合成画像に設定する。また、画像処理回路14c及び画像合成回路14dは、有効画像範囲52以外の範囲が黒色の画像(他の画像)51に置き換えられた合成画像を生成する。 As shown in FIG. 4B, the image processing circuit 14c sets an effective image range 52 in the synthesized image, excluding at least the edges of the synthesized image corresponding to the first row and the last row. Further, the image processing circuit 14c and the image synthesizing circuit 14d generate a synthesized image in which the range other than the effective image range 52 is replaced with a black image (another image) 51. FIG.

ここで、合成画像において、撮像対象が所定の方向に移動している場合について説明する。更に、カラー画像(W2+IR2)に対して、蛍光画像(IR1)から得られるマーカを重畳させて、合成画像(W2+IR2+IR1)を生成した場合について説明する。この場合、撮像対象が移動しているため、カラー画像(W2+IR2)に描出された撮像対象の重心位置に対して、マーカの重心位置が時間的に遅れた位置となる。 Here, a case where the object to be imaged is moving in a predetermined direction in the synthesized image will be described. Furthermore, a case will be described in which a composite image (W2+IR2+IR1) is generated by superimposing markers obtained from the fluorescence image (IR1) on the color image (W2+IR2). In this case, since the object to be imaged is moving, the position of the center of gravity of the marker is delayed in time with respect to the position of the center of gravity of the object to be imaged drawn in the color image (W2+IR2).

次に、カラー画像(W2+IR2)に対して、蛍光画像(IR3)から得られるマーカを重畳させて、合成画像(W2+IR2+IR3)を生成した場合について説明する。この場合、撮像対象が移動しているため、カラー画像(W2+IR2)に描出された撮像対象の重心位置に対して、マーカの重心位置が時間的に進んだ位置となる。 Next, a case will be described in which a composite image (W2+IR2+IR3) is generated by superimposing markers obtained from the fluorescence image (IR3) on the color image (W2+IR2). In this case, since the object to be imaged is moving, the position of the center of gravity of the marker is ahead in time with respect to the position of the center of gravity of the object to be imaged depicted in the color image (W2+IR2).

ここで、本実施形態では、カラー画像(W2+IR2)に対して、蛍光画像(IR1)と蛍光画像(IR3)の合成画像((IR1+IR3)/2)から得られるマーカを重畳させて、合成画像(W2+IR2+(IR1+IR3)/2)を生成している。本実施形態によれば、撮像対象が移動していても、カラー画像(W2+IR2)の撮像タイミングから、略同一な時間だけ前後する撮像タイミングで撮像された蛍光画像(IR1)と蛍光画像(IR3)の合成画像((IR1+IR3)/2)から得られるマーカをカラー画像(W2+IR2)に重畳している。このため、カラー画像(W2+IR2)の重心位置と合成画像((IR1+IR3)/2)の重心位置との差は、比較的小さい。したがって、合成画像(W2+IR2+(IR1+IR3)/2)に描出される撮像対象の重心位置に対するマーカの重心位置のずれを抑制することができる。よって、第1の実施形態によれば、動きに対して合成画像(W2+IR2+(IR1+IR3)/2)からユーザに与える違和感を抑制することができる。 Here, in the present embodiment, a marker obtained from a composite image ((IR1+IR3)/2) of the fluorescence image (IR1) and the fluorescence image (IR3) is superimposed on the color image (W2+IR2) to obtain the composite image ( W2+IR2+(IR1+IR3)/2). According to the present embodiment, even if the imaging target is moving, the fluorescence image (IR1) and the fluorescence image (IR3) are captured at imaging timings that are substantially the same time before and after the imaging timing of the color image (W2+IR2). The marker obtained from the composite image ((IR1+IR3)/2) of is superimposed on the color image (W2+IR2). Therefore, the difference between the centroid position of the color image (W2+IR2) and the centroid position of the combined image ((IR1+IR3)/2) is relatively small. Therefore, it is possible to suppress the deviation of the center-of-gravity position of the marker from the center-of-gravity position of the imaging target depicted in the combined image (W2+IR2+(IR1+IR3)/2). Therefore, according to the first embodiment, it is possible to suppress the user's sense of discomfort from the synthesized image (W2+IR2+(IR1+IR3)/2) with respect to movement.

次に、第1の実施形態に係る制御回路14aにより実行される制御処理について説明する。図5は、第1の実施形態に係る制御処理の流れを示すフローチャートである。かかる制御処理は、図示しないマウスやキーボード等のユーザからの指示を受け付ける入力装置により、被検体100の体内の撮像を開始する指示がCCU14に入力された場合に、制御回路14aにより実行される。 Next, control processing executed by the control circuit 14a according to the first embodiment will be described. FIG. 5 is a flow chart showing the flow of control processing according to the first embodiment. Such control processing is executed by the control circuit 14a when an instruction to start imaging the inside of the body of the subject 100 is input to the CCU 14 by an input device that accepts instructions from a user, such as a mouse or keyboard (not shown).

図5に示すように、制御回路14aは、変数Nに「1」を設定する(ステップS101)。そして、制御回路14aは、IRレーザ30dから励起光を連続的に出射させるための光源制御信号を出力させるための制御信号をタイミング信号発生回路14fに出力する(ステップS102)。そして、制御回路14aは、Nフレーム目の撮像を開始させるために、ローリングシャッタ方式によるNフレーム目の露光を開始させるための制御信号を、イメージセンサ制御回路12fに出力する(ステップS103)。 As shown in FIG. 5, the control circuit 14a sets "1" to the variable N (step S101). Then, the control circuit 14a outputs to the timing signal generation circuit 14f a control signal for outputting a light source control signal for continuously emitting excitation light from the IR laser 30d (step S102). Then, the control circuit 14a outputs to the image sensor control circuit 12f a control signal for starting exposure of the Nth frame by the rolling shutter method in order to start imaging the Nth frame (step S103).

そして、制御回路14aは、Nフレーム目の撮像においてイメージセンサ12eの複数の画素の最初の行の映像信号の出力が開始する時間から、読み出し期間1/120[s]で映像信号をイメージセンサ12eに出力させるための制御信号をイメージセンサ制御回路12fに出力する(ステップS104)。なお、ステップS104において、記憶制御回路14bは、イメージセンサ12eの各行から出力された映像信号が入力される度に、各行から出力された映像信号を一時的に記憶回路14gに格納する。 Then, the control circuit 14a outputs the video signal to the image sensor 12e in a readout period of 1/120 [s] from the time when the output of the video signal of the first row of the plurality of pixels of the image sensor 12e starts in the imaging of the Nth frame. to the image sensor control circuit 12f (step S104). In step S104, the storage control circuit 14b temporarily stores the video signal output from each row in the storage circuit 14g each time the video signal output from each row of the image sensor 12e is input.

そして、制御回路14aは、変数Nの値を1つインクリメントする(ステップS105)。そして、制御回路14aは、Nフレーム目の撮像を開始させるために、ローリングシャッタ方式によるNフレーム目の露光を開始させるための制御信号を、イメージセンサ制御回路12fに出力する(ステップS106)。 Then, the control circuit 14a increments the value of the variable N by one (step S105). Then, the control circuit 14a outputs to the image sensor control circuit 12f a control signal for starting exposure of the Nth frame by the rolling shutter method in order to start imaging the Nth frame (step S106).

制御回路14aは、現在の時間が、ブランキング期間又はブランキング期間を中心とした期間であるか否かを判定する(ステップS107)。現在の時間が、ブランキング期間又はブランキング期間を中心とした期間でない場合(ステップS107;No)には、制御回路14aは、再び、ステップS107の判定を行う。 The control circuit 14a determines whether the current time is a blanking period or a period around the blanking period (step S107). If the current time is not the blanking period or the period centered on the blanking period (step S107; No), the control circuit 14a performs the determination of step S107 again.

一方、現在の時間が、ブランキング期間又はブランキング期間を中心とした期間である場合(ステップS107;Yes)には、制御回路14aは、次の処理を行う。すなわち、制御回路14aは、ブランキング期間又はブランキング期間を中心とした期間にのみ、白色LED30bから白色光を出射させる光源制御信号を出力させるための制御信号をタイミング信号発生回路14fに出力する(ステップS108)。 On the other hand, if the current time is a blanking period or a period centered on the blanking period (step S107; Yes), the control circuit 14a performs the following processing. That is, the control circuit 14a outputs a control signal for outputting a light source control signal for emitting white light from the white LED 30b to the timing signal generation circuit 14f only during the blanking period or a period around the blanking period ( step S108).

そして、制御回路14aは、最初の行からの映像信号の出力が開始する時間から、読み出し期間1/120[s]で映像信号をイメージセンサ12c~12eに出力させるための制御信号をイメージセンサ制御回路12fに出力する(ステップS109)。なお、ステップS109において、記憶制御回路14bは、イメージセンサ12c~12eの各行から出力された映像信号が入力される度に、各行から出力された映像信号を一時的に記憶回路14gに格納する。 Then, the control circuit 14a controls the image sensors 12c to 12e by generating a control signal for outputting the video signal to the image sensors 12c to 12e in a readout period of 1/120 [s] from the time when the output of the video signal from the first row starts. Output to the circuit 12f (step S109). In step S109, the storage control circuit 14b temporarily stores the video signal output from each row in the storage circuit 14g every time the video signal output from each row of the image sensors 12c to 12e is input.

そして、制御回路14aは、変数Nの値を1つインクリメントする(ステップS110)。そして、制御回路14aは、Nフレーム目の撮像を開始させるために、ローリングシャッタ方式によるNフレーム目の露光を開始させるための制御信号を、イメージセンサ制御回路12fに出力する(ステップS111)。なお、ステップS111において、記憶制御回路14bは、イメージセンサ12eの各行から出力された映像信号が入力される度に、各行から出力された映像信号を一時的に記憶回路14gに格納する。 Then, the control circuit 14a increments the value of the variable N by one (step S110). Then, the control circuit 14a outputs to the image sensor control circuit 12f a control signal for starting exposure of the Nth frame by the rolling shutter method in order to start imaging the Nth frame (step S111). In step S111, the storage control circuit 14b temporarily stores the video signal output from each row in the storage circuit 14g each time the video signal output from each row of the image sensor 12e is input.

そして、ステップS112では、画像処理回路14cは、1フレーム目の撮像において各行から出力された映像信号(IR1)、2フレーム目の撮像において各行から出力された映像信号(W2+IR2)、及び、3フレーム目の撮像において各行から出力された映像信号(IR3)に対して各種の画像処理を施す。そして、ステップS112では、画像合成回路14dは、映像信号(IR1)、映像信号(W2+IR2)及び映像信号(IR3)の合成画像(W2+IR2+(IR1+IR3)/2)を出力回路14eに出力する。 Then, in step S112, the image processing circuit 14c processes the video signal (IR1) output from each row in the first frame imaging, the video signal (W2+IR2) output from each row in the second frame imaging, and the three frame Various types of image processing are performed on the video signal (IR3) output from each row in imaging the eye. Then, in step S112, the image synthesizing circuit 14d outputs the synthesized image (W2+IR2+(IR1+IR3)/2) of the video signal (IR1), the video signal (W2+IR2), and the video signal (IR3) to the output circuit 14e.

そして、制御回路14aは、制御処理を終了する指示を、入力装置を介して受け付けたか否かを判定する(ステップS113)。制御処理を終了する指示を受け付けていない場合(ステップS113;No)には、制御回路14aは、変数Nの値を1つインクリメントして(ステップS114)、ステップS102に戻る。一方、制御処理を終了する指示を受け付けた場合(ステップS113;Yes)には、制御回路14aは、制御処理を終了する。 Then, the control circuit 14a determines whether or not an instruction to end the control process has been received via the input device (step S113). If an instruction to end the control process has not been received (step S113; No), the control circuit 14a increments the value of the variable N by one (step S114) and returns to step S102. On the other hand, when receiving an instruction to end the control process (step S113; Yes), the control circuit 14a ends the control process.

以上、第1の実施形態に係る撮像装置10について説明した。第1の実施形態に係る撮像装置10によれば、上述したように、ユーザが観察するのに十分な画質を確保することができる。 The imaging device 10 according to the first embodiment has been described above. According to the imaging device 10 according to the first embodiment, as described above, it is possible to ensure sufficient image quality for the user to observe.

また、例えば、上記特許文献1に記載の技術において、波長の異なる2つの光(白色光、及び、IR励起光)を交互に出射し、撮像素子が120[fps]で映像信号を出力し、露光期間を1/60[s]とした場合について説明する。この場合には、白色光画像は、30[fps]でモニタに出力される。 Further, for example, in the technique described in Patent Document 1, two lights with different wavelengths (white light and IR excitation light) are alternately emitted, and the image sensor outputs a video signal at 120 [fps], A case where the exposure period is 1/60 [s] will be described. In this case, the white light image is output to the monitor at 30 [fps].

一方、第1の実施形態では、例えば、イメージセンサ12cが120[fps]で映像信号を出力し、露光期間が1/60[s]である場合に、白色光に基づくカラー画像は、60[fps]でディスプレイ101に出力される。したがって、第1の実施形態に係る撮像装置によれば、フレームレートの低下を抑制することができる。したがって、ユーザが観察するのに十分なフレームレートを確保することができる。 On the other hand, in the first embodiment, for example, when the image sensor 12c outputs a video signal at 120 [fps] and the exposure period is 1/60 [s], the color image based on white light is 60 [fps]. fps] to the display 101. Therefore, according to the imaging device according to the first embodiment, it is possible to suppress a decrease in frame rate. Therefore, it is possible to ensure a sufficient frame rate for user observation.

(第1の実施形態の変形例)
次に、第1の実施形態の変形例について説明する。第1の実施形態において、カラー画像(W2+IR2)には、白色光及び蛍光の同時受光によりイメージセンサ12c~12eから出力された映像信号に基づく画像である。このため、カラー画像(W2+IR2)は、白色光に基づくカラー画像と、蛍光に基づく蛍光画像との合成画像である。このように、カラー画像(W2+IR2)には、蛍光画像が含まれている。
(Modification of the first embodiment)
Next, a modification of the first embodiment will be described. In the first embodiment, the color image (W2+IR2) is an image based on video signals output from the image sensors 12c to 12e by simultaneous reception of white light and fluorescence. Therefore, the color image (W2+IR2) is a composite image of a color image based on white light and a fluorescence image based on fluorescence. Thus, the color image (W2+IR2) contains the fluorescence image.

第1の実施形態では、白色光の反射の光量に比べて、蛍光の光量が無視できるくらい小さいことが前提であるが、第1の実施形態の変形例では、白色光の反射の光量に比べて、蛍光の光量が無視できないくらいの大きさである場合について説明する。この場合には、蛍光画像が赤みがかかった色合いであるため、カラー画像(W2+IR2)も赤みがかかったような色合いとなる。 In the first embodiment, it is assumed that the amount of fluorescent light is negligibly small compared to the amount of reflected white light. Therefore, the case where the amount of fluorescence light cannot be ignored will be described. In this case, since the fluorescent image has a reddish hue, the color image (W2+IR2) also has a reddish hue.

そこで、第1の実施形態の変形例では、画像処理回路14cは、カラー画像(W2+IR2)から、蛍光画像(IR1)と蛍光画像(IR3)との合成画像((IR1+IR3)/2)を減算することで、略白色光のみに基づくカラー画像を生成する。すなわち、画像処理回路14cは、カラー画像(W2+IR2)の前後に生成された複数の蛍光画像(IR1)及び蛍光画像(IR3)を用いて、蛍光の成分が低減されるようにカラー画像(W2+IR2)を補正する。したがって、第1の実施形態の変形例によれば、カラー画像(W2+IR2)から蛍光成分を抑制する補正を行うことができる。なお、蛍光の成分は、第1の光による成分の一例である。 Therefore, in the modified example of the first embodiment, the image processing circuit 14c subtracts the composite image ((IR1+IR3)/2) of the fluorescence image (IR1) and the fluorescence image (IR3) from the color image (W2+IR2). This produces a color image based on only substantially white light. That is, the image processing circuit 14c uses a plurality of fluorescence images (IR1) and fluorescence images (IR3) generated before and after the color image (W2+IR2) to reduce the fluorescence component of the color image (W2+IR2). is corrected. Therefore, according to the modified example of the first embodiment, it is possible to perform correction for suppressing the fluorescent component from the color image (W2+IR2). Note that the fluorescence component is an example of the component of the first light.

(第2の実施形態)
次に、第2の実施形態に係る撮像装置について説明する。第2の実施形態において、第1の実施形態と同様の構成については、同一の符号を付して説明を省略する場合がある。第2の実施形態に係る撮像装置は、画像の明るさが、目標の明るさとなるように、白色LED30bが発する白色光を制御する点以外は、第1の実施形態に係る撮像装置10の動作と同様の動作を行う。また、第2の実施形態に係る撮像装置及び撮像システムの構成は、第1の実施形態と同様である。
(Second embodiment)
Next, an imaging device according to the second embodiment will be described. In the second embodiment, the same reference numerals may be given to the same configurations as in the first embodiment, and the description thereof may be omitted. The imaging device according to the second embodiment operates in the same manner as the imaging device 10 according to the first embodiment, except that the white light emitted by the white LED 30b is controlled so that the brightness of the image reaches the target brightness. performs the same operation as Also, the configurations of the imaging apparatus and imaging system according to the second embodiment are the same as those of the first embodiment.

例えば、ローリングシャッタ方式のイメージセンサ12c~12eでは、あるフレームの撮像中に、複数の画素の全ての行で、それまで蓄積していた電荷を全て排出し(リセットし)、電荷を排出後、露光を再び行って電荷を再蓄積するシャッタ機能がある。このようなシャッタ機能が動作すると、上述した行44で受光期間が同一にならない場合がある。この場合には、画像に明るさのムラが発生することがある。 For example, in the rolling shutter type image sensors 12c to 12e, during imaging of a certain frame, in all rows of a plurality of pixels, all the charges accumulated so far are discharged (reset), and after discharging the charges, There is a shutter function that re-exposures and re-accumulates the charge. When such a shutter function operates, the light receiving periods may not be the same in row 44 described above. In this case, uneven brightness may occur in the image.

そこで、第2の実施形態に係る撮像装置は、シャッタ機能が動作しないように、画像の明るさが、閾値以下の目標の明るさとなるように、白色LED30bが発する白色光を制御する。 Therefore, the imaging apparatus according to the second embodiment controls the white light emitted by the white LED 30b so that the brightness of the image becomes a target brightness below the threshold so that the shutter function does not operate.

ここで、画像の明るさの算出方法の一例について説明する。第2の実施形態では、制御回路14aは、フレームごとに、以下の処理を実行する。例えば、制御回路14aは、各種の画像処理が施された結果得られたカラー画像の画像データを画像処理回路14cから取得する。そして、制御回路14aは、画像データが示すカラー画像を構成する各画素のRの輝度、Gの輝度及びBの輝度の中から最も高い輝度を画素毎に選択する。なお、例えば、画像を構成する各画素は、イメージセンサ12c~12eの各画素に対応する。そして、制御回路14aは、画素毎に選択した輝度の合計を算出する。そして、制御回路14aは、算出した輝度の合計を、画像を構成する画素の数(画素数)で除して、1つの画素あたりの輝度の平均値を算出する。そして、制御回路14aは、算出した輝度の平均値を画像の明るさとして扱う。 Here, an example of a method for calculating the brightness of an image will be described. In the second embodiment, the control circuit 14a executes the following processes for each frame. For example, the control circuit 14a acquires, from the image processing circuit 14c, image data of a color image obtained as a result of performing various types of image processing. Then, the control circuit 14a selects, for each pixel, the highest luminance among the R luminance, the G luminance, and the B luminance of each pixel forming the color image indicated by the image data. For example, each pixel forming an image corresponds to each pixel of the image sensors 12c to 12e. Then, the control circuit 14a calculates the sum of the luminances selected for each pixel. Then, the control circuit 14a divides the calculated total brightness by the number of pixels (the number of pixels) constituting the image to calculate the average brightness per pixel. Then, the control circuit 14a treats the calculated average luminance value as the brightness of the image.

そして、制御回路14aは、画像の明るさと、目標の明るさとを比較する。なお、目標の明るさは、例えば、ユーザにより指定される輝度の値である。また、目標の明るさは、所定の明るさの一例である。制御回路14aは、目標の明るさよりも、画像の明るさの方が大きければ、被検体100に照射される白色光の光量を小さくするために、画像の明るさと目標の明るさとの差分に応じて、ハイレベルの期間の長さを短くした光源制御信号をタイミング信号発生回路14fに出力させる。例えば、制御回路14aは、画像の明るさと目標の明るさとの差分が大きくなるほど、ハイレベルの期間の長さを短くした光源制御信号をタイミング信号発生回路14fに出力させる。具体例を挙げて説明すると、制御回路14aは、画像の明るさと目標の明るさとの差分に応じて、ハイレベルの期間の長さを計算して、計算の結果得られたハイレベルの期間の長さをタイミング信号発生回路14fに出力する。これにより、タイミング信号発生回路14fは、ハイレベルの期間の長さを短くした光源制御信号を駆動回路30aに出力する。 Then, the control circuit 14a compares the brightness of the image with the target brightness. Note that the target brightness is, for example, a luminance value designated by the user. Also, the target brightness is an example of predetermined brightness. If the brightness of the image is higher than the brightness of the target, the control circuit 14a reduces the amount of white light applied to the subject 100 according to the difference between the brightness of the image and the target brightness. Then, the timing signal generating circuit 14f is caused to output a light source control signal with a short high level period. For example, the control circuit 14a causes the timing signal generation circuit 14f to output a light source control signal with a shorter high-level period as the difference between the brightness of the image and the target brightness increases. Specifically, the control circuit 14a calculates the length of the high level period according to the difference between the brightness of the image and the target brightness, and calculates the length of the high level period obtained as a result of the calculation. The length is output to the timing signal generation circuit 14f. As a result, the timing signal generation circuit 14f outputs to the drive circuit 30a a light source control signal whose high level period is shortened.

また、画像の明るさよりも目標の明るさのほうが大きければ、制御回路14aは、画像の明るさと目標の明るさとの差分に応じて、読み出し期間以下の範囲で、ハイレベルの期間の長さを長くした光源制御信号をタイミング信号発生回路14fに出力させる。 Also, if the target brightness is greater than the image brightness, the control circuit 14a adjusts the length of the high-level period within the readout period or less according to the difference between the image brightness and the target brightness. The lengthened light source control signal is output to the timing signal generation circuit 14f.

すなわち、制御回路14a及びタイミング信号発生回路14fは、画像の明るさが目標の明るさとなるように、ハイレベルの期間の長さを変更することにより、複数の画素により受光される白色光を制御する。具体的には、制御回路14a及びタイミング信号発生回路14fは、画像の明るさが目標の明るさとなるように、受光期間を制御する。制御回路14a及びタイミング信号発生回路14fは、受光期間を制御することにより、被検体100に照射される白色光の光量を制御する。制御回路14a及びタイミング信号発生回路14fは、受光期間を制御することにより、カラー画像の明るさを制御する。 That is, the control circuit 14a and the timing signal generation circuit 14f control the white light received by the plurality of pixels by changing the length of the high level period so that the brightness of the image reaches the target brightness. do. Specifically, the control circuit 14a and the timing signal generation circuit 14f control the light receiving period so that the brightness of the image reaches the target brightness. The control circuit 14a and the timing signal generation circuit 14f control the amount of white light with which the subject 100 is irradiated by controlling the light receiving period. The control circuit 14a and the timing signal generation circuit 14f control the brightness of the color image by controlling the light receiving period.

(第3の実施形態)
次に、第3の実施形態に係る撮像装置について説明する。第3の実施形態の説明において、上述した各実施形態、及び、上述した変形例と同様の構成については、同一の符号を付して説明を省略する場合がある。
(Third embodiment)
Next, an imaging device according to the third embodiment will be described. In the description of the third embodiment, the same reference numerals may be assigned to the same configurations as those of the above-described embodiments and modifications, and the description thereof may be omitted.

第3の実施形態に係る撮像装置は、白色光及び励起光(蛍光)の光量が十分である場合や、白色光と励起光との混在を抑制する場合に用いられる。 The imaging apparatus according to the third embodiment is used when the white light and the excitation light (fluorescence) have sufficient amounts of light, or when the mixing of the white light and the excitation light is suppressed.

図6は、第3の実施形態に係る撮像装置の動作の一例を説明するための図である。図6には、第3の実施形態に係る光源装置30から出射される白色光及び励起光の出射タイミングと、撮像装置10のイメージセンサ12c~12eが備える複数の画素の各行の露光タイミングと、イメージセンサ12c~12eから出力される映像信号の出力タイミングと、出力回路14eから出力される映像信号の出力タイミングとの関係の一例が示されている。図6において、横軸は、時間を示す。 FIG. 6 is a diagram for explaining an example of the operation of the imaging device according to the third embodiment. FIG. 6 shows the emission timing of white light and excitation light emitted from the light source device 30 according to the third embodiment, the exposure timing of each row of a plurality of pixels provided in the image sensors 12c to 12e of the imaging device 10, An example of the relationship between the output timing of the video signal output from the image sensors 12c to 12e and the output timing of the video signal output from the output circuit 14e is shown. In FIG. 6, the horizontal axis indicates time.

図6に示す第3の実施形態に係る撮像装置の動作が、図3に示す第1の実施形態に係る撮像装置10の動作と異なる点について説明する。第1の実施形態では、制御回路14aが、連続的に励起光を出射させていた場合について説明した。しかしながら、第3の実施形態では、制御回路14aは、複数の画素が受光する光の種類を、1フレーム毎に切り替える。具体的には、制御回路14aは、1フレームごとに、交互に、光源装置30から出射させる光を、白色光又は励起光に切り替える。これにより、制御回路14aは、複数の画素に受光させる光を、1フレームごとに、交互に、白色光又は蛍光に切り替える。 Differences between the operation of the imaging apparatus according to the third embodiment shown in FIG. 6 and the operation of the imaging apparatus 10 according to the first embodiment shown in FIG. 3 will be described. 1st Embodiment demonstrated the case where the control circuit 14a emitted excitation light continuously. However, in the third embodiment, the control circuit 14a switches the type of light received by the plurality of pixels for each frame. Specifically, the control circuit 14a alternately switches the light emitted from the light source device 30 to white light or excitation light for each frame. Thereby, the control circuit 14a alternately switches the light to be received by the plurality of pixels to white light or fluorescent light for each frame.

第3の実施形態では、制御回路14aは、種類が異なる励起光と白色光を、ブランキング期間又はブランキング期間を中心とした期間と同期するように、光源装置30から交互に出射させる。画像処理回路14cは、励起光に基づく蛍光の受光により複数の画素で発生した映像信号に基づいて蛍光画像を生成し、白色光の受光により複数の画素で発生した映像信号に基づいてカラー画像を生成する。画像合成回路14dは、蛍光画像とカラー画像を用いて、合成画像を生成する。なお、励起光に基づく蛍光の受光によりイメージセンサ12eの複数の画素で発生した映像信号は、第1の電気信号の一例である。白色光の受光によりイメージセンサ12c~12eの複数の画素で発生した映像信号は、第2の電気信号の一例である。 In the third embodiment, the control circuit 14a alternately emits different types of excitation light and white light from the light source device 30 so as to synchronize with the blanking period or a period around the blanking period. The image processing circuit 14c generates a fluorescence image based on video signals generated in a plurality of pixels by receiving fluorescence based on excitation light, and generates a color image based on video signals generated in a plurality of pixels by receiving white light. Generate. The image synthesis circuit 14d uses the fluorescence image and the color image to generate a synthesized image. Note that the video signal generated by the plurality of pixels of the image sensor 12e by receiving fluorescence based on the excitation light is an example of the first electrical signal. A video signal generated by a plurality of pixels of the image sensors 12c to 12e by receiving white light is an example of the second electrical signal.

第3の実施形態に係る撮像装置は、第1の実施形態と同様に、観察するのに十分な画質を確保することができる。 The imaging apparatus according to the third embodiment can ensure image quality sufficient for observation, as in the first embodiment.

また、例えば、上記特許文献1に記載の技術において、波長の異なる2つの光(白色光、及び、IR励起光)を交互に出射し、撮像素子が120[fps]で映像信号を出力し、露光期間を1/60[s]とした場合について説明する。この場合には、白色光画像及び蛍光観察画像それぞれは、30[fps]でモニタに出力される。 Further, for example, in the technique described in Patent Document 1, two lights with different wavelengths (white light and IR excitation light) are alternately emitted, and the image sensor outputs a video signal at 120 [fps], A case where the exposure period is 1/60 [s] will be described. In this case, the white light image and the fluorescence observation image are each output to the monitor at 30 [fps].

一方、第3の実施形態では、例えば、波長の異なる2つの光(白色光、及び、励起光)を交互に出射し、イメージセンサ12c~12eが120[fps]で映像信号を出力し、露光期間が1/60[s]である場合に、白色光に基づくカラー画像、及び、蛍光に基づく蛍光画像の合成画像は、60[fps]でディスプレイ101に出力される。したがって、第3の実施形態に係る撮像装置によれば、フレームレートの低下を抑制することができる。 On the other hand, in the third embodiment, for example, two lights with different wavelengths (white light and excitation light) are alternately emitted, the image sensors 12c to 12e output video signals at 120 [fps], and exposure When the period is 1/60 [s], the composite image of the color image based on the white light and the fluorescence image based on the fluorescence is output to the display 101 at 60 [fps]. Therefore, according to the imaging device according to the third embodiment, it is possible to suppress a decrease in frame rate.

(第4の実施形態)
次に、第4の実施形態に係る撮像装置について説明する。第4の実施形態の説明において、上述した各実施形態、及び、上述した変形例と同様の構成については、同一の符号を付して説明を省略する場合がある。
(Fourth embodiment)
Next, an imaging device according to the fourth embodiment will be described. In the description of the fourth embodiment, the same reference numerals may be assigned to the same configurations as those of the above-described embodiments and modifications, and the description thereof may be omitted.

第1の実施形態では、例えば、ブランキング期間を中心とし、ブランキング期間に1/1200[s]を加えた期間にのみ、イメージセンサ12c~12eの複数の画素に受光させる場合について説明した。この場合、マスクされる領域は、全画面の領域のおよそ10%となる。 In the first embodiment, for example, the case where a plurality of pixels of the image sensors 12c to 12e are allowed to receive light only during a blanking period plus 1/1200 [s] has been described. In this case, the masked area is approximately 10% of the total screen area.

図7は、第4の実施形態に係る画像の一例を説明するための図である。しかしながら、光量を確保するために、イメージセンサ12c~12eの複数の画素の受光期間を伸ばして、例えば、図7の例に示すように、全画面の領域のおよそ50%をマスクされる領域としてもよい。この場合には、画像処理回路14cは、有効画像範囲52が拡大された画像(拡大画像)50aを生成してもよい。図7の例に示すように、拡大されたことで、ユーザは、マーカ53aを、より容易に観察することができる。 FIG. 7 is a diagram for explaining an example of an image according to the fourth embodiment; However, in order to secure the amount of light, the light-receiving period of the plurality of pixels of the image sensors 12c to 12e is extended, and, for example, as shown in the example of FIG. good too. In this case, the image processing circuit 14c may generate an image (enlarged image) 50a in which the effective image range 52 is enlarged. As shown in the example of FIG. 7, the enlargement allows the user to observe the marker 53a more easily.

(第5の実施形態)
次に、第5の実施形態に係る撮像装置について説明する。第5の実施形態の説明において、上述した各実施形態、及び、上述した変形例と同様の構成については、同一の符号を付して説明を省略する場合がある。
(Fifth embodiment)
Next, an imaging device according to the fifth embodiment will be described. In the description of the fifth embodiment, the same reference numerals may be assigned to the same configurations as those of the above-described embodiments and modifications, and the description thereof may be omitted.

第5の実施形態に係る撮像装置の制御回路14aは、第1の実施形態~第4の実施形態のうちの1つの実施形態に係る制御処理を実行するモード(第1のモード)と、白色LED30b又はIRレーザ30dのみを駆動させて白色光に基づくカラー画像又は励起光に基づく蛍光画像の撮像を実行するモード(第2のモード)とを、ユーザの指示に応じて切り替える。 The control circuit 14a of the imaging device according to the fifth embodiment has a mode (first mode) for executing control processing according to one of the first to fourth embodiments, and a white A mode (second mode) in which only the LED 30b or the IR laser 30d is driven to capture a color image based on white light or a fluorescent image based on excitation light is switched according to a user's instruction.

例えば、第2のモードでは、露光期間が、第1~第4の実施形態に係る露光期間1/120[s]の2倍の期間である1/60となる。そして、第2のモードでは、制御回路14aは、イメージセンサ12c~12eの複数の画素に、蛍光又は白色光を受光させ、蛍光画像又はカラー画像を所定のフレームレート1/60[s]でディスプレイ101に出力させる。 For example, in the second mode, the exposure period is 1/60, which is twice the exposure period of 1/120 [s] according to the first to fourth embodiments. In the second mode, the control circuit 14a causes the plurality of pixels of the image sensors 12c to 12e to receive fluorescent light or white light, and displays fluorescent images or color images at a predetermined frame rate of 1/60 [s]. output to 101.

図8は、第5の実施形態に係る撮像装置が行うモード切替の一例を説明するための図である。図8の例に示すように、例えば、医師等のユーザが、第2のモードでカラー画像60を観察している最中に、精査したい箇所がある場合には、入力装置(図示せず)を介して第1のモードに切り替える指示を入力する。制御回路14aは、入力されたユーザの指示に応じて、第1のモードに切り替えて、カラー画像50にマーカ53が重畳された合成画像をディスプレイ101に表示させる。 FIG. 8 is a diagram for explaining an example of mode switching performed by the imaging device according to the fifth embodiment. As shown in the example of FIG. 8, for example, while a user such as a doctor is observing the color image 60 in the second mode, if there is a portion to be examined, an input device (not shown) is used. to enter the first mode via . The control circuit 14a switches to the first mode according to the input user's instruction, and causes the display 101 to display a composite image in which the marker 53 is superimposed on the color image 50. FIG.

第5の実施形態では、モードが切り替わった場合であっても、撮像装置からディスプレイ101に出力されるフレームレートは変わらない。したがって、第5の実施形態に係る撮像装置によれば、モードの切り替え時にユーザに与える違和感を抑制することができる。 In the fifth embodiment, even when the mode is switched, the frame rate output from the imaging device to the display 101 does not change. Therefore, according to the image capturing apparatus according to the fifth embodiment, it is possible to suppress the feeling of strangeness given to the user at the time of mode switching.

(第6の実施形態)
次に、第6の実施形態に係る撮像装置について説明する。上述した第1の実施形態~第4の実施形態及び第1の実施形態の変形例では、制御回路14aが、ブランキング期間を基準とした期間として、ブランキング期間、ブランキング期間内の期間、又は、ブランキング期間を中心とした期間にのみ、複数の画素を受光させる場合について説明した。しかしながら、制御回路14aは、ブランキング期間を基準とした期間として、ブランキング期間を中心とした期間の一部の期間のみ、複数の画素を受光させてもよい。そこで、このような実施形態を第6の実施形態として説明する。
(Sixth embodiment)
Next, an imaging device according to the sixth embodiment will be described. In the above-described first to fourth embodiments and the modification of the first embodiment, the control circuit 14a sets the blanking period, the period within the blanking period, Alternatively, a case has been described in which a plurality of pixels receive light only during a period centered on the blanking period. However, the control circuit 14a may allow the plurality of pixels to receive light only during a part of the period centering on the blanking period as a period based on the blanking period. Therefore, such an embodiment will be described as a sixth embodiment.

図9は、第6の実施形態に係る撮像装置の動作の一例を説明するための図である。図9において横軸は、時間を示す。例えば、まず、第1の実施形態と同様に、制御回路14aが、励起光を光源装置30から連続的に出射させるとともに、白色光を、ブランキング期間40を基準とした期間と同期するように、光源装置30から2フレームに1回の割合で出射させる場合について説明する。 FIG. 9 is a diagram for explaining an example of the operation of the imaging device according to the sixth embodiment. In FIG. 9, the horizontal axis indicates time. For example, as in the first embodiment, the control circuit 14a causes the light source device 30 to emit excitation light continuously, and emits white light so as to synchronize with the period based on the blanking period 40. , the case where light is emitted from the light source device 30 once every two frames.

この場合、図9に示すように、制御回路14aは、白色光を、2フレームに1回の割合でブランキング期間40を中心とした期間41の一部の期間41aのみ、光源装置30から出射させる。これにより、複数の画素は、期間41の一部の期間41aのみ受光される。ここで、期間41aは、ブランキング期間40よりも時系列において前の期間である。 In this case, as shown in FIG. 9, the control circuit 14a emits white light from the light source device 30 only during a period 41a, which is a part of the period 41 centered on the blanking period 40, once every two frames. Let Accordingly, the plurality of pixels receive light only during a partial period 41 a of the period 41 . Here, the period 41a is a period preceding the blanking period 40 in time series.

次に、第3の実施形態と同様に、制御回路14aが、種類が異なる励起光と白色光を、ブランキング期間40を基準とした期間と同期するように、光源装置30から交互に出射させる場合について説明する。 Next, as in the third embodiment, the control circuit 14a causes the light source device 30 to alternately emit different types of excitation light and white light in synchronization with the period based on the blanking period 40. A case will be described.

この場合においても、図9に示すように、制御回路14aは、励起光と白色光を、期間41aのみ、光源装置30から交互に出射させる。これによっても、複数の画素は、期間41の一部の期間41aのみ受光される。 Also in this case, as shown in FIG. 9, the control circuit 14a alternately emits the excitation light and the white light from the light source device 30 only during the period 41a. Also by this, a plurality of pixels receive light only during a partial period 41 a of the period 41 .

第6の実施形態によれば、ディスプレイ101に表示される合成画像の一端側のマスクされている領域の大きさと、他端側のマスクされている領域との大きさとが異なるものの、他の実施形態と同様に、画像を観察する医師等のユーザにとって、観察するのに十分なフレームレート及び画質を確保することができる。 According to the sixth embodiment, the size of the masked area on one end side of the composite image displayed on the display 101 differs from the size of the masked area on the other end side. As with the morphology, it is possible to ensure a sufficient frame rate and image quality for a user, such as a doctor, to observe the image.

以上、各実施形態について説明した。なお、各実施形態において、撮像装置10が、白色光の反射光をイメージセンサ12c~12eを受光させて、各種の処理を行う場合について説明した。しかしながら、撮像装置10は、白色光によりICGが励起されてICGから出射された蛍光(白色光に基づく蛍光)をイメージセンサ12eに受光させて、同様の処理を行ってもよい。 Each embodiment has been described above. In each embodiment, the case where the imaging device 10 causes the image sensors 12c to 12e to receive reflected light of white light and performs various processes has been described. However, the imaging device 10 may cause the image sensor 12e to receive fluorescence (fluorescence based on white light) emitted from the ICG when the ICG is excited by white light, and perform similar processing.

以上述べた少なくとも1つの実施形態又は変形例に係る撮像装置によれば、ユーザが観察するのに十分なフレームレートを確保することができる。 According to the imaging device according to at least one embodiment or modified example described above, it is possible to secure a sufficient frame rate for user observation.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.

1 撮像システム
10 撮像装置
12c,12d,12e イメージセンサ
14a 制御回路
14c 画像処理回路
14d 画像合成回路
1 imaging system 10 imaging device 12c, 12d, 12e image sensor 14a control circuit 14c image processing circuit 14d image synthesizing circuit

Claims (17)

行列状に配置された、受光により電気信号を発生する複数の画素を含み、前記複数の画素の最初の行から最後の行に向かって、少なくとも1行毎に順次露光を開始し、露光が終了した行から順に前記電気信号を出力する処理を、1フレーム毎に繰り返す、ローリングシャッタ方式のイメージセンサと、
第1の光を光源装置から連続的に出射させるとともに、前記第1の光と種類が異なる第2の光を、前記最後の行からの前記電気信号の出力を終了してから、前記最初の行からの前記電気信号の出力を開始するまでの期間に対応するブランキング期間と同期した所定の期間に、前記光源装置から2フレームに1回の割合で非連続的に出射させ、前記所定の期間にのみ、前記複数の画素に前記第2の光を受光させる制御部と、
前記最後の行と前記最初の行の期間の中間に位置する露光期間に、前記第2の光の反射光又は前記第2の光によって発生した蛍光を受光しないフレームにおいて出力される電気信号に基づいて第1の画像を生成し、前記露光期間に前記第2の光の反射光又は前記第2の光によって発生した蛍光を受光するフレームにおいて出力される電気信号に基づいて第2の画像を生成し、前記第1の画像と前記第2の画像を用いて、画像を生成する画像生成部とを備え、
前記画像生成部は、前記複数の画素が、前記第2の光を、前記ブランキング期間より長い期間受光したときは、前記第1の画像のうち、前記ブランキング期間より長い期間に第2の光を受光した行の映像信号に基づく部分をマスクする撮像装置。
including a plurality of pixels arranged in a matrix for generating an electric signal upon receiving light; exposure is sequentially started and completed for each row from the first row to the last row of the plurality of pixels; a rolling shutter type image sensor that repeats the process of outputting the electric signal in order from the row where the image is drawn, for each frame;
The first light is continuously emitted from the light source device, and the second light different in kind from the first light is emitted from the first light after finishing the output of the electrical signal from the last row. During a predetermined period synchronized with the blanking period corresponding to the period until the output of the electrical signal from the row is started, the light source device is caused to discontinuously emit light at a rate of once every two frames, and the predetermined a control unit that causes the plurality of pixels to receive the second light only during a period;
Based on an electrical signal output in a frame in which the reflected light of the second light or the fluorescence generated by the second light is not received during the exposure period located between the periods of the last row and the first row to generate a first image, and generate a second image based on an electrical signal output in a frame in which reflected light of the second light or fluorescence generated by the second light is received during the exposure period. and an image generation unit that generates an image using the first image and the second image,
When the plurality of pixels receive the second light for a period longer than the blanking period, the image generation unit generates a second light during a period longer than the blanking period in the first image. An imaging device that masks a portion based on a video signal of a row that receives light .
前記ブランキング期間と同期した所定の期間は前記ブランキング期間を含むことを特徴とする請求項1に記載の撮像装置。2. The imaging apparatus according to claim 1, wherein the predetermined period synchronized with the blanking period includes the blanking period. 行列状に配置された、受光により電気信号を発生する複数の画素を含み、前記複数の画素の最初の行から最後の行に向かって、少なくとも1行毎に順次露光を開始し、露光が終了した行から順に前記電気信号を出力する処理を、1フレーム毎に繰り返す、ローリングシャッタ方式のイメージセンサと、
前記電気信号に基づいて、画像を生成する画像生成部と、
第1の光を光源装置から連続的に出射させるとともに、前記第1の光と種類が異なる第2の光を、前記最後の行からの前記電気信号の出力を終了してから、前記最初の行からの前記電気信号の出力を開始するまでの期間に対応するブランキング期間の間、又は前記ブランキング期間と、前記ブランキング期間の前のフレームの最後の行と前記ブランキング期間の後のフレームの最初の行のそれぞれの露光期間とを含んだ期間の間、またはその部分期間にのみ、前記光源装置から2フレームに1回の割合で非連続的に出射させる制御部と、を有し、
前記画像生成部は、前記第1の光の反射光又は前記第1の光によって発生した蛍光の受光により前記複数の画素で発生した第1の電気信号に基づいて第1の画像を生成し、前記第1の光の反射光又は前記蛍光と、前記第2の光の反射光又は前記第2の光によって発生した蛍光との同時受光により前記複数の画素で発生した第2の電気信号に基づいて第2の画像を生成し、前記第1の画像と前記第2の画像を用いて、前記画像を生成する撮像装置。
including a plurality of pixels arranged in a matrix for generating an electric signal upon receiving light; exposure is sequentially started and completed for each row from the first row to the last row of the plurality of pixels; a rolling shutter type image sensor that repeats the process of outputting the electric signal in order from the row where the image is drawn, for each frame;
an image generator that generates an image based on the electrical signal;
The first light is continuously emitted from the light source device, and the second light different in kind from the first light is emitted from the first light after finishing the output of the electrical signal from the last row. During a blanking period corresponding to the period until the output of the electrical signal from the row is started, or between the blanking period and the last row of the frame before the blanking period and after the blanking period and a control unit that causes the light source device to discontinuously emit light at a rate of once every two frames during a period including each exposure period of the first row of the frame, or only during a partial period thereof. ,
The image generation unit generates a first image based on first electrical signals generated in the plurality of pixels by receiving reflected light of the first light or fluorescence generated by the first light, Based on a second electrical signal generated in the plurality of pixels by simultaneous reception of the reflected light of the first light or the fluorescence and the reflected light of the second light or fluorescence generated by the second light and generating a second image using the first image and the second image to generate the image.
前記画像生成部は、前記第2の画像と、前記第2の画像のフレームの直前のフレームの前記第1の画像と、前記第2の画像のフレームの直後のフレームの前記第1の画像とを用いて、前記画像を生成する請求項1乃至3のいずれか1項に記載の撮像装置。 The image generator generates the second image, the first image in the frame immediately before the frame of the second image, and the first image in the frame immediately after the frame of the second image. 4. The imaging apparatus according to any one of claims 1 to 3, wherein the image is generated using 行列状に配置された、受光により電気信号を発生する複数の画素を含み、前記複数の画素の最初の行から最後の行に向かって、少なくとも1行毎に順次露光を開始し、露光が終了した行から順に前記電気信号を出力する処理を、1フレーム毎に繰り返す、ローリングシャッタ方式のイメージセンサと、
前記最後の行からの前記電気信号の出力を終了してから、前記最初の行からの前記電気信号の出力を開始するまでの期間に対応するブランキング期間と同期した所定の期間にのみ、前記複数の画素を受光させる制御部と、
前記電気信号に基づいて、画像を生成する画像生成部と、を有し、
前記制御部は、種類が異なる第1の光と第2の光とを、前記ブランキング期間と同期した所定の期間に、光源装置から1フレーム毎に交互に出射させ、
前記画像生成部は、前記最後の行と前記最初の行の期間の中間に位置する露光期間に、前記第2の光の反射光又は前記第2の光によって発生した蛍光を受光しないフレームにおいて出力される電気信号に基づいて第1の画像を生成し、前記露光期間に前記第2の光の反射光又は前記第2の光によって発生した蛍光を受光するフレームにおいて出力される電気信号に基づいて第2の画像を生成し、前記第2の画像と、前記第2の画像のフレームの直前のフレームの前記第1の画像と、前記第2の画像のフレームの直後のフレームの前記第1の画像とを用いて前記画像を生成し、前記第1の画像のうち露光期間に第2の光を受光した行の映像信号に基づく部分をマスクする撮像装置。
including a plurality of pixels arranged in a matrix for generating an electric signal upon receiving light; exposure is sequentially started and completed for each row from the first row to the last row of the plurality of pixels; a rolling shutter type image sensor that repeats the process of outputting the electric signal in order from the row where the image is drawn, for each frame;
Only during a predetermined period synchronized with a blanking period corresponding to a period from the end of outputting the electrical signal from the last row to the start of outputting the electrical signal from the first row a control unit that receives light from a plurality of pixels;
an image generator that generates an image based on the electrical signal;
The control unit alternately emits the first light and the second light of different types from the light source device for each frame during a predetermined period synchronized with the blanking period,
The image generator outputs in a frame in which the reflected light of the second light or the fluorescence generated by the second light is not received in an exposure period located between the periods of the last row and the first row. a first image is generated based on the electrical signal that is applied, and based on the electrical signal that is output in the frame in which the reflected light of the second light or fluorescence generated by the second light is received during the exposure period generating a second image, the second image, the first image in the frame immediately preceding the frame of the second image, and the first image in the frame immediately following the frame of the second image; and masking a portion of the first image based on a video signal in a row receiving the second light during the exposure period .
行列状に配置された、受光により電気信号を発生する複数の画素を含み、前記複数の画素の最初の行から最後の行に向かって、少なくとも1行毎に順次露光を開始し、露光が終了した行から順に前記電気信号を出力する処理を、1フレーム毎に繰り返す、ローリングシャッタ方式のイメージセンサと、
前記最後の行からの前記電気信号の出力を終了してから、前記最初の行からの前記電気信号の出力を開始するまでの期間に対応するブランキング期間の間、又は前記ブランキング期間とその前のフレームの最後の行とその後のフレームの最初の行のそれぞれの露光期間とを含んだ期間の間、又はその部分期間にのみ、前記複数の画素を受光させる制御部と、
前記電気信号に基づいて、画像を生成する画像生成部と、を有し、
前記制御部は、種類が異なる第1の光と第2の光とを、前記複数の画素が受光する期間と同期するように、光源装置から1フレーム毎に交互に出射させ、
前記画像生成部は、前記第1の光の反射光又は前記第1の光によって発生した蛍光の受光により前記複数の画素で発生した第1の電気信号に基づいて第1の画像を生成し、前記第2の光の反射光又は前記第2の光によって発生した蛍光の受光により前記複数の画素で発生した第2の電気信号に基づいて第2の画像を生成し、前記第2の画像と、前記第2の画像のフレームの直前のフレームの前記第1の画像と、前記第2の画像のフレームの直後のフレームの前記第1の画像とを用いて前記画像を生成する撮像装置。
including a plurality of pixels arranged in a matrix for generating an electric signal upon receiving light; exposure is sequentially started and completed for each row from the first row to the last row of the plurality of pixels; a rolling shutter type image sensor that repeats the process of outputting the electric signal in order from the row where the image is drawn, for each frame;
During a blanking period corresponding to a period from the end of outputting the electrical signal from the last row to the start of outputting the electrical signal from the first row, or the blanking period and the blanking period a controller for causing the plurality of pixels to receive light only during a period including the exposure period of the last row of the previous frame and the exposure period of each of the first row of the subsequent frame, or only during a partial period thereof;
an image generator that generates an image based on the electrical signal;
The control unit alternately emits the first light and the second light of different types from the light source device for each frame so as to be synchronized with a period during which the plurality of pixels receive light;
The image generation unit generates a first image based on first electrical signals generated in the plurality of pixels by receiving reflected light of the first light or fluorescence generated by the first light, generating a second image based on second electrical signals generated in the plurality of pixels by receiving reflected light of the second light or fluorescence generated by the second light; , an imaging device that generates the image using the first image in a frame immediately before the frame of the second image and the first image in a frame immediately after the frame of the second image .
前記画像生成部は、前記最初の行と前記最後の行に対応する前記画像の端部を少なくとも除く有効画像範囲を前記画像に設定する、請求項1乃至6のいずれか1に記載の撮像装置。 7. The imaging according to any one of claims 1 to 6, wherein said image generation unit sets to said image an effective image range excluding at least edges of said image corresponding to said first row and said last row. Device. 前記画像生成部は、前記有効画像範囲以外の範囲が他の画像に置き換えられた前記画像を生成する、請求項7に記載の撮像装置。 8. The imaging apparatus according to claim 7, wherein said image generator generates said image in which a range other than said effective image range is replaced with another image. 前記画像生成部は、前記有効画像範囲が拡大された前記画像を生成する、請求項7又は8に記載の撮像装置。 9. The imaging apparatus according to claim 7, wherein said image generator generates said image with said effective image range expanded. 前記画像生成部は、前記第2の画像を生成したフレームの前後のフレームに生成された複数の前記第1の画像を用いて、前記第1の光による成分が低減されるように前記第2の画像を補正する、請求項1乃至8のいずれか1項に記載の撮像装置。 The image generation unit uses a plurality of the first images generated in frames before and after a frame in which the second image is generated so as to reduce the component of the first light. 9. The imaging device according to any one of claims 1 to 8 , wherein the image is corrected. 前記複数の画素の撮像領域に対向するように配置され、前記光源装置から前記第1の光として出射された励起光以外の光を前記複数の画素に受光させる光学素子を更に備える、請求項1乃至10のいずれか1に記載の撮像装置。 2. The optical element further comprises an optical element arranged to face the imaging regions of the plurality of pixels and causing the plurality of pixels to receive light other than the excitation light emitted as the first light from the light source device. 11. The imaging device according to any one of items 1 to 10. 前記制御部は、前記画素の受光期間を制御することにより、前記画像の明るさを制御する、請求項1乃至11のいずれか1に記載の撮像装置。 The imaging device according to any one of claims 1 to 11, wherein the control section controls the brightness of the image by controlling light receiving periods of the pixels. 前記制御部は、指示に応じて、前記複数の画素の所定の露光期間中に、前記ブランキング期間に同期した所定の期間にのみ前記複数の画素を受光させて、前記画像を所定のフレームレートで出力させる第1のモードと、前記所定の露光期間の2倍の露光期間中に、前記複数の画素に、前記第1の光の反射光、前記第1の光によって発生した蛍光、前記第2の光の反射光及び前記第2の光によって発生した蛍光のうちの1つの光を受光させ、当該1つの光に基づく画像を前記所定のフレームレートで出力せる第2のモードとを切り替える、請求項1乃至11のいずれか1に記載の撮像装置。 In response to an instruction, the control unit causes the plurality of pixels to receive light only during a predetermined period synchronized with the blanking period during a predetermined exposure period of the plurality of pixels, and reproduces the image at a predetermined frame rate. and during an exposure period twice as long as the predetermined exposure period, the plurality of pixels are subjected to reflected light of the first light, fluorescence generated by the first light, and the first light. One of the reflected light of the second light and the fluorescence generated by the second light is received, and an image based on the one light is output at the predetermined frame rate. 12. The imaging device according to any one of claims 1 to 11. 複数の前記イメージセンサを備え、
前記複数のイメージセンサのそれぞれは、対応する種類の光を受光することにより電気信号を出力する、請求項1乃至13のいずれか1に記載の撮像装置。
comprising a plurality of the image sensors,
14. The imaging device according to any one of claims 1 to 13, wherein each of said plurality of image sensors outputs an electrical signal by receiving a corresponding type of light.
前記画像生成部は、前記第1の画像と前記第2の画像とを合成した前記画像を生成する、請求項1乃至14のいずれか1に記載の撮像装置。 15. The imaging apparatus according to any one of claims 1 to 14, wherein said image generator generates said image by synthesizing said first image and said second image. 行列状に配置された、受光により電気信号を発生する複数の画素を含み、前記複数の画素の最初の行から最後の行に向かって、少なくとも1行毎に順次露光を開始し、露光が終了した行から順に前記電気信号を出力する処理を、1フレーム毎に繰り返す、ローリングシャッタ方式のイメージセンサを備えた撮像装置を制御する方法であって、
第1の光を光源装置から連続的に出射させるとともに、前記第1の光と種類が異なる第2の光を、前記最後の行からの前記電気信号の出力を終了してから、前記最初の行からの前記電気信号の出力を開始するまでの期間に対応するブランキング期間と同期した所定の期間に、前記光源装置から2フレームに1回の割合で非連続的に出射させ、前記所定の期間にのみ、前記複数の画素に前記第2の光を受光させ、
前記最後の行と前記最初の行の期間の中間に位置する露光期間に、前記第2の光の反射光又は前記第2の光によって発生した蛍光を受光しないフレームの電気信号に基づいて第1の画像を生成し、前記露光期間に前記第2の光の反射光又は前記第2の光によって発生した蛍光を受光するフレームの電気信号に基づいて第2の画像を生成し、
前記第1の画像のうち前記露光期間に第2の光を受光した行の映像信号に基づく部分をマスクする
撮像装置を制御するための方法
including a plurality of pixels arranged in a matrix for generating an electric signal upon receiving light; exposure is sequentially started and completed for each row from the first row to the last row of the plurality of pixels; A method for controlling an imaging device equipped with a rolling shutter type image sensor, wherein the process of outputting the electric signal is repeated for each frame in order from the row where the
The first light is continuously emitted from the light source device, and the second light different in kind from the first light is emitted from the first light after finishing the output of the electrical signal from the last row. During a predetermined period synchronized with the blanking period corresponding to the period until the output of the electrical signal from the row is started, the light source device is caused to discontinuously emit light at a rate of once every two frames, and the predetermined causing the plurality of pixels to receive the second light only during a period;
Based on the electrical signal of the frame in which the reflected light of the second light or the fluorescence generated by the second light is not received during the exposure period positioned between the last row period and the first row period generating an image of and generating a second image based on an electrical signal of a frame receiving reflected light of the second light or fluorescence generated by the second light during the exposure period;
masking a portion of the first image based on the video signal of the row receiving the second light during the exposure period;
A method for controlling an imaging device .
請求項16に記載の撮像装置を制御するための方法をコンピュータに実行させるプログラム。A program that causes a computer to execute the method for controlling the imaging device according to claim 16 .
JP2018077557A 2017-04-14 2018-04-13 IMAGING DEVICE, METHOD AND PROGRAM FOR CONTROLLING IMAGING DEVICE Active JP7116580B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/952,916 US10638077B2 (en) 2017-04-14 2018-04-13 Imaging device and control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017080974 2017-04-14
JP2017080974 2017-04-14

Publications (2)

Publication Number Publication Date
JP2018175871A JP2018175871A (en) 2018-11-15
JP7116580B2 true JP7116580B2 (en) 2022-08-10

Family

ID=64281752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018077557A Active JP7116580B2 (en) 2017-04-14 2018-04-13 IMAGING DEVICE, METHOD AND PROGRAM FOR CONTROLLING IMAGING DEVICE

Country Status (1)

Country Link
JP (1) JP7116580B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7265823B2 (en) 2018-10-19 2023-04-27 キヤノン株式会社 Imaging device and program
JP2020137614A (en) * 2019-02-27 2020-09-03 Hoya株式会社 Electronic endoscope system
JP7352411B2 (en) 2019-08-22 2023-09-28 キヤノン株式会社 Imaging device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115963A (en) 2004-10-20 2006-05-11 Fujinon Corp Electronic endoscope apparatus
JP2009022579A (en) 2007-07-20 2009-02-05 Olympus Corp Electronic endoscope
WO2012176561A1 (en) 2011-06-21 2012-12-27 オリンパスメディカルシステムズ株式会社 Medical device
JP2015037565A (en) 2014-09-12 2015-02-26 富士フイルム株式会社 Endoscope system and drive method therefor
JP2015119762A (en) 2013-12-20 2015-07-02 富士フイルム株式会社 Imaging system, and endoscope apparatus
WO2015114906A1 (en) 2014-01-29 2015-08-06 オリンパス株式会社 Imaging system and imaging device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3560671B2 (en) * 1995-02-23 2004-09-02 オリンパス株式会社 Fluorescence observation device
JP3525235B2 (en) * 1995-12-06 2004-05-10 松下電器産業株式会社 Optical diagnostic equipment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115963A (en) 2004-10-20 2006-05-11 Fujinon Corp Electronic endoscope apparatus
JP2009022579A (en) 2007-07-20 2009-02-05 Olympus Corp Electronic endoscope
WO2012176561A1 (en) 2011-06-21 2012-12-27 オリンパスメディカルシステムズ株式会社 Medical device
JP2015119762A (en) 2013-12-20 2015-07-02 富士フイルム株式会社 Imaging system, and endoscope apparatus
WO2015114906A1 (en) 2014-01-29 2015-08-06 オリンパス株式会社 Imaging system and imaging device
JP2015037565A (en) 2014-09-12 2015-02-26 富士フイルム株式会社 Endoscope system and drive method therefor

Also Published As

Publication number Publication date
JP2018175871A (en) 2018-11-15

Similar Documents

Publication Publication Date Title
JP7265823B2 (en) Imaging device and program
WO2019123796A1 (en) Endoscope system
EP2664268B1 (en) Medical instrument
US20200337540A1 (en) Endoscope system
US20120026339A1 (en) White balance adjustment method and imaging device
JP7116580B2 (en) IMAGING DEVICE, METHOD AND PROGRAM FOR CONTROLLING IMAGING DEVICE
JP7374600B2 (en) Medical image processing device and medical observation system
JP6355527B2 (en) Endoscope system and operating method thereof
JP2018182580A (en) Imaging apparatus and control program for imaging apparatus
JP6430880B2 (en) Endoscope system and method for operating endoscope system
JP6355531B2 (en) Endoscope light source device, endoscope system and operating method thereof
US10901199B2 (en) Endoscope system having variable focal length lens that switches between two or more values
US10638077B2 (en) Imaging device and control method
US11789283B2 (en) Imaging apparatus
JP7224963B2 (en) Medical controller and medical observation system
JP7402637B2 (en) Imaging device, its control method and program
US20210052149A1 (en) Imaging apparatus
JP7281308B2 (en) Medical image processing device and medical observation system
US20230255460A1 (en) Image processing apparatus and image processing method
WO2023090044A1 (en) Processor for electronic endoscope and electronic endoscopic system
WO2022172574A1 (en) Endoscope system and operation method for endoscope system
JP4415162B2 (en) Electronic endoscope device
JP6386889B2 (en) Endoscope light source device, endoscope system and operating method thereof
JP2022080732A (en) Medical image processing device and medical observation system
JP6312254B2 (en) Endoscope system and operating method thereof

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191001

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220729

R151 Written notification of patent or utility model registration

Ref document number: 7116580

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151