JP2013207415A - Imaging system and imaging method - Google Patents

Imaging system and imaging method Download PDF

Info

Publication number
JP2013207415A
JP2013207415A JP2012072284A JP2012072284A JP2013207415A JP 2013207415 A JP2013207415 A JP 2013207415A JP 2012072284 A JP2012072284 A JP 2012072284A JP 2012072284 A JP2012072284 A JP 2012072284A JP 2013207415 A JP2013207415 A JP 2013207415A
Authority
JP
Japan
Prior art keywords
light receiving
receiving surface
laser
data
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012072284A
Other languages
Japanese (ja)
Inventor
Takashi Toriu
隆 鳥生
Hiromitsu Hama
裕光 濱
Thi Zin Thi
ティ ズィン ティ
Ting Pai
ティン パイ
Shigeyoshi Nakajima
重義 中島
Yukie Hashimoto
幸枝 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Osaka City University
Original Assignee
Osaka University NUC
Osaka City University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC, Osaka City University filed Critical Osaka University NUC
Priority to JP2012072284A priority Critical patent/JP2013207415A/en
Publication of JP2013207415A publication Critical patent/JP2013207415A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging system capable of easily associating distance data by a range-finding unit which uses a laser with pixels in image data by an imaging unit.SOLUTION: An imaging system comprises: an irradiation source which irradiates a laser; an imaging unit having a first light-receiving surface which selectively responds to a wave of a wavelength region different from a wavelength region of the laser and a second light-receiving surface which captures the same imaging range as the first light-receiving surface and selectively responds to a wave of a wavelength region of the laser; a measuring unit which is irradiated from the irradiation source and measures distance data to a subject on the basis of a reflective wave of the laser reflected on the subject; an image formation unit which forms image data of the subject on the basis of the wave received on the first light-receiving surface; and a superimposing unit which identifies a light-receiving element which received the reflective wave of the laser on the second light-receiving surface and superimposes distance data on image data by associating pixel data included in the image data and corresponding to the identified light-receiving element with the distance data.

Description

本発明は、被写体までの距離を測定しつつ、被写体の画像を撮像する撮像システム及び撮像方法に関する。   The present invention relates to an imaging system and an imaging method for capturing an image of a subject while measuring a distance to the subject.

従来より、レーザを利用する測距装置と、被写体を撮像する撮像装置とを組み合わせて三次元計測を行う技術が公知である(例えば、特許文献1,2)。ここで、レーザを利用する測距装置とは、測距装置から照射された後、被写体に反射して戻ってきたレーザの反射波を捉えることにより、被写体までの距離を測定する装置である。   2. Description of the Related Art Conventionally, a technique for performing three-dimensional measurement by combining a distance measuring device using a laser and an imaging device that images a subject is known (for example, Patent Documents 1 and 2). Here, the distance measuring device using a laser is a device that measures the distance to the subject by capturing the reflected wave of the laser that has been irradiated from the distance measuring device and then reflected back to the subject.

特許文献1では、三次元画像を撮像する多眼カメラが利用され、この三次元画像から得られる距離画像と、レーザレンジファインダによる距離画像とを組み合わせることにより、被写体までの距離データが高精度に算出される。そして、これら2つの距離画像を組み合わせるに当たっては、両距離画像上の画素と画素とを位置合わせするための複雑な演算処理が実行される。具体的には、特徴点やエッジの抽出等の画像処理が実行される。   In Patent Document 1, a multi-lens camera that captures a three-dimensional image is used. By combining a distance image obtained from the three-dimensional image and a distance image obtained by a laser range finder, distance data to a subject can be obtained with high accuracy. Calculated. When combining these two distance images, a complicated calculation process for aligning the pixels on both distance images is executed. Specifically, image processing such as feature point and edge extraction is executed.

また、特許文献2では、デジタルカメラにより測定対象空間を撮像するとともに、レーザ距離計から測定対象空間の特徴点に向けて正確にレーザを照射し、特徴点までの距離を測定する。そして、レーザを特徴点に正確に照射する方法としては、測定対象空間の映像を捉えるファインダを覗きながら、レーザ距離計を動かし、レーザが照射されている点を手動で測定対象空間の特徴点に正確に一致させる方法が採られている。   In Patent Document 2, a measurement target space is imaged by a digital camera, and a laser is accurately emitted from a laser distance meter toward a feature point in the measurement target space, thereby measuring a distance to the feature point. And as a method of accurately irradiating the laser with the feature point, move the laser distance meter while looking through the finder that captures the image of the measurement target space, and manually set the point irradiated with the laser as the feature point of the measurement target space. The method of making it correspond exactly is taken.

特開平9−5050号公報Japanese Patent Laid-Open No. 9-5050 特開2004−163271号公報JP 2004-163271 A

以上のような三次元計測では、測距装置から照射されたレーザの反射点を、撮像装置により撮像される画像上の点(画素)に対応付けることが肝要である。ここで、レーザを利用する測距装置とは、測距装置から反射点までの距離を測定するものであるから、レーザの反射点と画像上の点とを対応付けることは、測距装置による距離データと、撮像装置による画像データ内の画素とを対応付けることに等しい。そして、この対応付けを実現するために、上記のとおり、特許文献1では、計算負荷の高い画像処理が実行され、特許文献2では、測距装置のレーザの照射方向を設定するための面倒な手作業が要求される。
本発明は、距離データが重畳された画像データを取得するに当たり、レーザを利用する測距ユニットによる距離データを撮像ユニットによる画像データ内の画素に容易に対応付けることが可能な撮像システムを提供することを目的とする。
In the above three-dimensional measurement, it is important to associate the reflection point of the laser emitted from the distance measuring device with the point (pixel) on the image captured by the imaging device. Here, the distance measuring device using a laser measures the distance from the distance measuring device to the reflection point, and associating the reflection point of the laser with the point on the image is a distance by the distance measuring device. This is equivalent to associating data with pixels in image data obtained by the imaging device. And in order to implement | achieve this matching, as above-mentioned, in patent document 1, an image process with a high calculation load is performed, and in patent document 2, it is troublesome for setting the irradiation direction of the laser of a distance measuring device. Manual work is required.
The present invention provides an imaging system capable of easily associating distance data obtained by a distance measuring unit using a laser with pixels in image data obtained by an imaging unit when acquiring image data on which distance data is superimposed. With the goal.

本発明の第1観点に係る撮像システムは、照射源と、撮像部と、測定部と、画像形成部と、重畳部とを備える。照射源は、レーザを照射する。撮像部は、レーザと異なる波長領域の波に選択的に感応する第1受光面と、レーザの波長領域の波に選択的に感応する第2受光面とを有する。第2受光面は、第1受光面と同じ撮像範囲を捉える。測定部は、照射源から照射され、被写体で反射したレーザの反射波に基づいて、被写体までの距離データを測定する。画像形成部は、第1受光面で受光された波に基づいて、被写体の画像データを形成する。重畳部は、第2受光面上のレーザの反射波を受光した受光素子を特定し、画像データに含まれる、特定された受光素子に対応する画素データに距離データを対応付けることにより、画像データに距離データを重畳した合成データを生成する。   An imaging system according to a first aspect of the present invention includes an irradiation source, an imaging unit, a measuring unit, an image forming unit, and a superimposing unit. The irradiation source irradiates a laser. The imaging unit includes a first light receiving surface that is selectively sensitive to waves in a wavelength region different from that of the laser, and a second light receiving surface that is selectively sensitive to waves in the wavelength region of the laser. The second light receiving surface captures the same imaging range as the first light receiving surface. The measurement unit measures distance data to the subject based on the reflected wave of the laser emitted from the irradiation source and reflected by the subject. The image forming unit forms image data of the subject based on the wave received by the first light receiving surface. The superimposing unit identifies the light receiving element that has received the reflected wave of the laser on the second light receiving surface, and associates the distance data with the pixel data corresponding to the identified light receiving element, which is included in the image data. Synthetic data on which the distance data is superimposed is generated.

この撮像システムは、照射源から照射された後、被写体に反射して戻ってきたレーザの反射波を捉えることにより、被写体までの距離を測定する。また、この撮像システムは、異なる波長領域の波に選択的に感応する2つの受光面、すなわち、第1受光面及び第2受光面を有する。具体的には、第1受光面は、被写体の画像を形成するための波を受光する一方、第2受光面は、照射源から照射されるレーザの反射波を受光する。しかし、これら2つの受光面は、同じ撮像範囲を捉えるものであり、従って、これら2つの受光面上の同じ被写点を捉える受光素子どうしは、一定の対応関係を有することになる。その結果、重畳部は、第2受光面上のレーザの反射波を捉えた受光素子を特定することにより、測定部で測定された距離が、第1受光面で撮像された画像上のどの画素に対応する物体までの距離であるのかを容易に判断し、この距離と画像上の特定の画素とを容易に対応付けることができる。従って、ここでは、距離データが重畳された画像データを取得するに当たり、レーザを利用する測距ユニットによる距離データを撮像ユニットによる画像データ内の画素に容易に対応付けることができる。   This imaging system measures the distance to the subject by capturing the reflected wave of the laser that has been irradiated from the irradiation source and then reflected back to the subject. In addition, this imaging system has two light receiving surfaces that are selectively sensitive to waves in different wavelength regions, that is, a first light receiving surface and a second light receiving surface. Specifically, the first light receiving surface receives a wave for forming an image of the subject, while the second light receiving surface receives a reflected wave of a laser emitted from an irradiation source. However, these two light receiving surfaces capture the same imaging range. Therefore, light receiving elements that capture the same object point on these two light receiving surfaces have a certain correspondence. As a result, the superimposing unit specifies the light receiving element that captures the reflected wave of the laser on the second light receiving surface, so that the distance measured by the measuring unit is the pixel on the image captured by the first light receiving surface. It is possible to easily determine whether the distance is to the object corresponding to, and easily associate this distance with a specific pixel on the image. Therefore, here, when acquiring the image data on which the distance data is superimposed, the distance data obtained by the distance measuring unit using the laser can be easily associated with the pixels in the image data obtained by the imaging unit.

なお、レーザの反射波に基づいて被写体までの距離データを測定する方法としては、例えば、レーザが照射されてからその反射波が戻ってくるまでの時間や位相差、レーザの反射波が受光される受光面上の位置、レーザの反射波の強度等から算出する方法があり、当業者は公知の方法の中から任意のものを適宜選択し得る。   As a method of measuring the distance data to the subject based on the reflected wave of the laser, for example, the time and phase difference from when the laser is irradiated until the reflected wave returns, the reflected wave of the laser is received. There are methods for calculating from the position on the light receiving surface, the intensity of the reflected wave of the laser, etc., and those skilled in the art can appropriately select any one of known methods.

また、第1受光面及び第2受光面が同じ撮像範囲を有する場合には、これらの受光面の撮像範囲が完全に同じである場合だけでなく、これらの受光面の撮像範囲の一部が重複する場合も含まれるものとする。ただし、後者の場合には、重複領域内の受光素子群どうしの対応関係が一定である必要がある。なぜならば、上記のとおり、測定された距離と、撮像された画像上の特定の画素とを容易に対応付けるためには、第1受光面及び第2受光面上の同じ被写点を捉える受光素子どうしが一定の対応関係を有することが前提となるからである。なお、2つの受光面の撮像範囲が完全に同じである場合とは、例えば、2つの受光面が同じ光学系を介して入射される波を受光する場合であり、2つの受光面の撮像範囲の一部が重複する場合とは、例えば、2つの受光面が近接した異なる光学系を介してそれぞれ入射される波を受光する場合である。   Further, when the first light receiving surface and the second light receiving surface have the same imaging range, not only when the imaging ranges of these light receiving surfaces are completely the same, but also a part of the imaging ranges of these light receiving surfaces. The case of duplication is also included. However, in the latter case, the correspondence between the light receiving element groups in the overlapping region needs to be constant. This is because, as described above, in order to easily associate the measured distance with a specific pixel on the captured image, the light receiving element that captures the same subject point on the first light receiving surface and the second light receiving surface. This is because it is assumed that there is a certain correspondence between them. The case where the imaging ranges of the two light receiving surfaces are completely the same is, for example, the case where the two light receiving surfaces receive a wave incident through the same optical system, and the imaging ranges of the two light receiving surfaces. The case where a part of them overlaps is, for example, a case where two incident light waves are received via different optical systems in close proximity to each other.

本発明の第2観点に係る撮像システムは、第1観点に係る撮像システムであって、第3受光面をさらに備える。第3受光面は、レーザの反射波を受光する。測定部は、第3受光面で受光された反射波に基づいて、距離データを測定する。   The imaging system which concerns on the 2nd viewpoint of this invention is an imaging system which concerns on a 1st viewpoint, Comprising: The 3rd light-receiving surface is further provided. The third light receiving surface receives the reflected wave of the laser. The measurement unit measures distance data based on the reflected wave received by the third light receiving surface.

この撮像システムは、第1受光面及び第2受光面とは別に、被写体までの距離を測定するべくレーザの反射波を受光するための第3受光面を有する。従って、例えば、本発明の照射源、第3受光面及び測定部を1つの筐体内に有し(筐体の表面に取り付けられている場合を含む)又は同じ基板上に有し、被写体までの距離データを出力するような市販の測距センサーを、本発明に係る撮像システムに利用することも可能になる。すなわち、ここでは、測距ユニットの受光面が撮像ユニットの受光面から分離されており、撮像システムの設計の自由度が高くなる。   In addition to the first light receiving surface and the second light receiving surface, this imaging system has a third light receiving surface for receiving the reflected wave of the laser to measure the distance to the subject. Therefore, for example, the irradiation source of the present invention, the third light receiving surface, and the measurement unit are included in one casing (including a case where the irradiation source is attached to the surface of the casing) or on the same substrate, A commercially available distance measuring sensor that outputs distance data can also be used in the imaging system according to the present invention. That is, here, the light receiving surface of the distance measuring unit is separated from the light receiving surface of the imaging unit, and the degree of freedom in designing the imaging system is increased.

本発明の第3観点に係る撮像システムは、第1観点に係る撮像システムであって、測定部は、第2受光面で受光された反射波に基づいて、距離データを測定する。すなわち、ここでは、第2受光面は、被写体上でのレーザの反射点を被写体の画像上の画素に対応付ける役割と、被写体までの距離の算出用にレーザの反射波を受光する役割とを兼ねる。従って、部品点数を減らし、撮像システムの構築のコストを下げることができる。   The imaging system which concerns on the 3rd viewpoint of this invention is an imaging system which concerns on a 1st viewpoint, Comprising: A measurement part measures distance data based on the reflected wave received by the 2nd light-receiving surface. In other words, here, the second light receiving surface has both the role of associating the reflection point of the laser on the subject with the pixel on the image of the subject and the role of receiving the reflected wave of the laser for calculating the distance to the subject. . Therefore, the number of parts can be reduced and the cost for constructing the imaging system can be reduced.

本発明の第4観点に係る撮像システムは、第1観点から第3観点のいずれかに係る撮像システムであって、三次元処理部をさらに備える。三次元処理部は、合成データを参照することにより、被写体の三次元画像データを形成する。すなわち、ここでは、被写体までの距離データと被写体の画像データとを組み合わせることにより、被写体の三次元画像データを得ることができる。   An imaging system according to a fourth aspect of the present invention is the imaging system according to any one of the first to third aspects, and further includes a three-dimensional processing unit. The three-dimensional processing unit forms three-dimensional image data of the subject by referring to the composite data. That is, here, the three-dimensional image data of the subject can be obtained by combining the distance data to the subject and the image data of the subject.

本発明の第5観点に係る撮像システムは、第1観点から第4観点のいずれかに係る撮像システムであって、照射源は、レーザを走査する。測定部は、走査されたレーザの反射波に基づいて、距離データを順次測定する。重畳部は、第2受光面上の、走査されたレーザの反射波を受光した受光素子を順次特定し、順次特定される受光素子に対応する画素データに距離データを順次対応付けることにより、画像データに距離データを順次重畳する。   The imaging system which concerns on the 5th viewpoint of this invention is an imaging system which concerns on either of the 1st viewpoint to the 4th viewpoint, Comprising: An irradiation source scans a laser. The measurement unit sequentially measures the distance data based on the reflected laser wave of the scanned laser. The superimposing unit sequentially identifies the light receiving elements that receive the reflected laser beam on the second light receiving surface, and sequentially associates the distance data with the pixel data corresponding to the sequentially identified light receiving elements, thereby obtaining the image data. The distance data is sequentially superimposed on the.

ここでは、照射源からのレーザが走査されることにより、レーザの複数の反射点までの距離が測定され、画像上の複数の画素にそれぞれ対応付けられる。従って、被写体の画像をより立体的に捉えることが可能になる。なお、レーザは、線的に走査されてもよいし、面的に走査されてもよい。あるいは、数点のみが走査されるものとしてもよい。   Here, by scanning the laser from the irradiation source, the distances to the plurality of reflection points of the laser are measured, and are respectively associated with the plurality of pixels on the image. Therefore, it is possible to capture the image of the subject more three-dimensionally. Note that the laser may be scanned linearly or may be scanned planarly. Alternatively, only a few points may be scanned.

本発明の第6観点に係る撮像システムは、第1観点から第5観点のいずれかに係る撮像システムであって、第1受光面及び第2受光面に共通する光学系をさらに備える。従って、ここでは、第1受光面及び第2受光面が、同じ撮像範囲を容易に捉えることができる。   An imaging system according to a sixth aspect of the present invention is the imaging system according to any one of the first to fifth aspects, and further includes an optical system common to the first light receiving surface and the second light receiving surface. Therefore, here, the first light receiving surface and the second light receiving surface can easily capture the same imaging range.

本発明の第7観点に係る撮像システムは、第1観点から第6観点のいずれかに係る撮像システムであって、第1受光面で受光される波は、可視光線であり、レーザは、赤外線である。すなわち、ここでは、赤外線レーザにより距離が測定され、可視光線から画像が形成される。従って、人が視認することのできる画像を立体的に再現することが可能になる。   An imaging system according to a seventh aspect of the present invention is the imaging system according to any one of the first to sixth aspects, wherein the wave received by the first light receiving surface is visible light, and the laser is infrared It is. That is, here, the distance is measured by an infrared laser, and an image is formed from visible light. Therefore, an image that can be visually recognized by a person can be three-dimensionally reproduced.

本発明の第8観点に係る撮像方法は、撮像システムを用いて、被写体を撮像する撮像方法であって、照射ステップと、測定ステップと、画像形成ステップと、重畳ステップとを備える。撮像システムは、第1波長領域の波に選択的に感応する第1受光面と、第2波長領域の波に選択的に感応する第2受光面とを有する。第2受光面は、第1受光面と同じ撮像範囲を捉える。照射ステップは、第2波長領域のレーザを照射源から照射するステップである。測定ステップは、照射源から照射され、被写体で反射したレーザの反射波に基づいて、撮像システムから被写体までの距離データを測定するステップである。画像形成ステップは、第1受光面で受光された第1波長領域の波に基づいて、被写体の画像データを形成するステップである。重畳ステップは、第2受光面上の反射波を受光した受光素子を特定し、被写体の画像データに含まれる、特定された受光素子に対応する画素データに距離データを対応付けることにより、画像データに距離データを重畳した合成データを生成するステップである。   An imaging method according to an eighth aspect of the present invention is an imaging method for imaging a subject using an imaging system, and includes an irradiation step, a measurement step, an image formation step, and a superimposition step. The imaging system includes a first light receiving surface that is selectively sensitive to waves in the first wavelength region and a second light receiving surface that is selectively sensitive to waves in the second wavelength region. The second light receiving surface captures the same imaging range as the first light receiving surface. The irradiation step is a step of irradiating the laser in the second wavelength region from the irradiation source. The measurement step is a step of measuring distance data from the imaging system to the subject based on the reflected wave of the laser irradiated from the irradiation source and reflected by the subject. The image forming step is a step of forming image data of the subject based on the wave in the first wavelength region received by the first light receiving surface. The superimposing step identifies the light receiving element that has received the reflected wave on the second light receiving surface, and associates the distance data with the pixel data corresponding to the identified light receiving element included in the image data of the subject, thereby generating the image data. This is a step of generating synthesized data in which distance data is superimposed.

この撮像方法では、照射源から照射された後、被写体に反射して戻ってきたレーザの反射波を捉えることにより、被写体までの距離が測定される。また、この撮像方法で用いられる撮像システムは、異なる波長領域の波に選択的に感応する2つの受光面、すなわち、第1受光面及び第2受光面を有する。より具体的には、第1受光面は、被写体の画像を形成するための波を受光する一方、第2受光面は、照射源から照射されるレーザの反射波を受光する。しかし、これら2つの受光面は、同じ撮像範囲を捉えるものであり、従って、これら2つの受光面上の同じ被写点を捉える受光素子どうしは、一定の対応関係を有することになる。その結果、第2受光面上のレーザの反射波を捉えた受光素子を特定することにより、測定された距離が、第1受光面で撮像された画像上のどの画素に対応する物体までの距離であるのかを容易に判断し、この距離と画像上の特定の画素とを容易に対応付けることができる。従って、ここでは、距離データが重畳された画像データを取得するに当たり、レーザを利用する測距ユニットによる距離データを撮像ユニットによる画像データ内の画素に容易に対応付けることができる。   In this imaging method, the distance to the subject is measured by capturing the reflected wave of the laser that has been irradiated from the irradiation source and then reflected back to the subject. The imaging system used in this imaging method has two light receiving surfaces that are selectively sensitive to waves in different wavelength regions, that is, a first light receiving surface and a second light receiving surface. More specifically, the first light receiving surface receives a wave for forming an image of the subject, while the second light receiving surface receives a reflected wave of the laser emitted from the irradiation source. However, these two light receiving surfaces capture the same imaging range. Therefore, light receiving elements that capture the same object point on these two light receiving surfaces have a certain correspondence. As a result, by specifying the light receiving element that captures the reflected wave of the laser on the second light receiving surface, the measured distance is the distance to the object corresponding to which pixel on the image imaged on the first light receiving surface. This distance can be easily associated with a specific pixel on the image. Therefore, here, when acquiring the image data on which the distance data is superimposed, the distance data obtained by the distance measuring unit using the laser can be easily associated with the pixels in the image data obtained by the imaging unit.

本発明によれば、距離データが重畳された画像データを取得するに当たり、レーザを利用する測距ユニットによる距離データを撮像ユニットによる画像データ内の画素に容易に対応付けることができる。   According to the present invention, when acquiring image data on which distance data is superimposed, distance data obtained by a distance measuring unit using a laser can be easily associated with pixels in image data obtained by an imaging unit.

本発明の一実施形態に係る撮像システム及びその対象空間の全体構成を示す図。The figure which shows the whole structure of the imaging system which concerns on one Embodiment of this invention, and its object space. レーザの走査方向を示す図。The figure which shows the scanning direction of a laser. デジタルカメラの受光面を示す図。The figure which shows the light-receiving surface of a digital camera. デジタルカメラの受光面に含まれるフィルタの部分拡大図。The elements on larger scale of the filter contained in the light-receiving surface of a digital camera. 撮像システムの撮像処理を示すシーケンス図。The sequence diagram which shows the imaging process of an imaging system. カラー画像データのデータ構造を示す図。The figure which shows the data structure of color image data. 距離データ及び赤外線画像データが関連付けて記憶される様子を示す図。The figure which shows a mode that distance data and infrared image data are linked | related and memorize | stored. 合成データのデータ構造を示す図。The figure which shows the data structure of synthetic | combination data. (a)監視映像の一例を示す図。(b)監視映像内の人の軌跡を示す図。(c)監視映像内の人の軌跡を示す別の図。(A) The figure which shows an example of the monitoring image | video. (B) The figure which shows the locus | trajectory of the person in the monitoring image | video. (C) Another diagram showing the trajectory of a person in the monitoring video. 監視映像の一例を示す図。The figure which shows an example of the monitoring image | video. 変形例に係るデジタルカメラの光学系及び受光面を示す図。The figure which shows the optical system and light-receiving surface of the digital camera which concern on a modification.

以下、図面を参照しつつ、本発明の一実施形態に係る撮像システム及び撮像方法について説明する。
<1.撮像システムの概要>
本発明の一実施形態に係る撮像システム1は、図1に示すように、測距センサー10と、デジタルカメラ20とを有し、対象空間S1を撮像する。また、撮像システム1は、対象空間S1内の物体(人物P1,P2等)までの距離を計測し、距離データの重畳された画像データを生成する。ここで、距離データの重畳された画像データとは、奥行き情報を有する画像データであり、以下、合成データと呼ぶ。測距センサー10は、レーザ式であり、対象空間S1内の物体に向けてレーザL1を照射し、それらの物体で反射して戻ってきたレーザL1の反射波L2を受光することにより、それらの物体までの距離を測定する。
Hereinafter, an imaging system and an imaging method according to an embodiment of the present invention will be described with reference to the drawings.
<1. Overview of imaging system>
As shown in FIG. 1, the imaging system 1 according to an embodiment of the present invention includes a distance measuring sensor 10 and a digital camera 20 and images a target space S1. Further, the imaging system 1 measures the distance to an object (person P1, P2, etc.) in the target space S1, and generates image data on which the distance data is superimposed. Here, the image data on which the distance data is superimposed is image data having depth information, and is hereinafter referred to as composite data. The distance measuring sensor 10 is of a laser type, irradiates a laser L1 toward an object in the target space S1, and receives a reflected wave L2 of the laser L1 reflected and returned by these objects, thereby Measure the distance to the object.

また、撮像システム1は、コンピュータ30を有し、このコンピュータ30には、測距センサー10により測定された距離データと、デジタルカメラ20により撮像された画像データとがリアルタイムに出力される。コンピュータ30は、これらのデータを組み合わせた合成データを生成するとともに、ユーザからの指示に応じて、この合成データに基づく三次元画像データを形成する。   In addition, the imaging system 1 includes a computer 30, and distance data measured by the distance measuring sensor 10 and image data captured by the digital camera 20 are output to the computer 30 in real time. The computer 30 generates combined data combining these data, and forms three-dimensional image data based on the combined data in response to an instruction from the user.

さらに、撮像システム1は、測距センサー10の向き及び位置を変更する位置決めユニット40を有する。位置決めユニット40は、コンピュータ30により制御され、測距センサー10の向き及び位置を変更することにより、距離を測定する対象(対象空間S1内の物体)を変化させる。   Furthermore, the imaging system 1 includes a positioning unit 40 that changes the direction and position of the distance measuring sensor 10. The positioning unit 40 is controlled by the computer 30, and changes the object (object in the target space S1) whose distance is to be measured by changing the direction and position of the distance measuring sensor 10.

<2.各部の詳細な構成>
<2−1.測距センター>
図1に示すように、測距センサー10は、レーザL1を照射する照射源11と、レーザL1の反射波L2を受光する受光面12とを有する。照射源11及び受光面13は、同じ筐体16内に収容されている。なお、本実施形態において、照射源11が照射するレーザL1は、指向性の高い近赤外線であり、受光面12は、照射源11が照射するレーザL1の波長領域の波に選択的に感応する。受光面12は、略同一平面上に格子状に配列され、レーザL1の波長領域の波のみを透過させる近赤外線フィルタや、CCDイメージセンサー等からなる受光素子群を有する。受光面12の前方には、光を集束させるレンズ(図示されない)が配置されている。なお、特に断わらない限り、本実施形態では、「前」又は「正面」とは、撮像システム1から対象空間S1へ向かう方向を意味し、「後」又は「背面」とは、その反対の方向を意味するものとする。
<2. Detailed configuration of each part>
<2-1. Ranging Center>
As shown in FIG. 1, the distance measuring sensor 10 includes an irradiation source 11 that irradiates a laser L1, and a light receiving surface 12 that receives a reflected wave L2 of the laser L1. The irradiation source 11 and the light receiving surface 13 are accommodated in the same housing 16. In the present embodiment, the laser L1 irradiated by the irradiation source 11 is near-infrared light with high directivity, and the light receiving surface 12 selectively responds to waves in the wavelength region of the laser L1 irradiated by the irradiation source 11. . The light receiving surface 12 is arranged in a lattice pattern on substantially the same plane, and has a light receiving element group including a near infrared filter that transmits only waves in the wavelength region of the laser L1, a CCD image sensor, and the like. A lens (not shown) that focuses light is disposed in front of the light receiving surface 12. Unless otherwise specified, in this embodiment, “front” or “front” means a direction from the imaging system 1 toward the target space S1, and “rear” or “back” is the opposite direction. Means.

照射源11は、LED等からなり、筐体16の前面に配置され、レーザL1を前方へ照射する。照射源11から照射されたレーザL1は、対象空間S1内の物体に衝突し、その衝突点で乱反射する。受光面12は、照射源11と同じく前方を向くように、照射源11と同じく筐体16の前面に配置されている。その結果、受光面12は、対象空間S1内の物体に衝突して反射し、測距センサー10まで戻ってきたレーザL1の反射波L2を安定して検出することができる。   The irradiation source 11 is composed of an LED or the like, and is disposed on the front surface of the housing 16 to irradiate the laser L1 forward. The laser L1 emitted from the irradiation source 11 collides with an object in the target space S1, and is irregularly reflected at the collision point. The light receiving surface 12 is disposed on the front surface of the housing 16 in the same manner as the irradiation source 11 so as to face the same as the irradiation source 11. As a result, the light receiving surface 12 can stably detect the reflected wave L2 of the laser L1 that collides with and reflects the object in the target space S1 and returns to the distance measuring sensor 10.

また、測距センサー10は、測距センサー10全体の動作を制御する制御部13を有する。制御部13は、筐体16内に収容され、照射源11及び受光面12に接続されている。制御部13は、照射源11のLEDを駆動する駆動回路や、受光面12からの出力信号を処理する信号処理部等からなり、照射源11からレーザL1が照射されるタイミングを制御するとともに、受光面12でレーザL1の反射波L2が検出されたタイミングを監視する。そして、制御部13は、これらのタイミングに基づいて、測距センサー10からレーザL1の衝突点までの距離データを算出する。この距離データは、算出後、直ちに制御部13からコンピュータ30へと出力される。   In addition, the distance measuring sensor 10 includes a control unit 13 that controls the operation of the entire distance measuring sensor 10. The control unit 13 is accommodated in the housing 16 and connected to the irradiation source 11 and the light receiving surface 12. The control unit 13 includes a drive circuit that drives the LED of the irradiation source 11, a signal processing unit that processes an output signal from the light receiving surface 12, and the like, and controls the timing at which the laser L1 is irradiated from the irradiation source 11. The timing at which the reflected wave L2 of the laser L1 is detected on the light receiving surface 12 is monitored. Based on these timings, the control unit 13 calculates distance data from the distance measuring sensor 10 to the collision point of the laser L1. The distance data is output from the control unit 13 to the computer 30 immediately after the calculation.

また、測距センサー10は、デジタルカメラ10に近接してその直上方に、図示されない支持機構により固定的に配置されている。従って、測距センサー10により測定された距離データは、厳密には、測距センサー10からレーザL1が衝突した物体までの距離データであるものの、デジタルカメラ10からレーザL1が衝突した物体までの距離データに近似し、これと見做すことができる。   The distance measuring sensor 10 is fixedly disposed near the digital camera 10 and directly above it by a support mechanism (not shown). Accordingly, the distance data measured by the distance measuring sensor 10 is strictly distance data from the distance measuring sensor 10 to the object on which the laser L1 collides, but the distance from the digital camera 10 to the object on which the laser L1 has collided. Approximate to data and can be considered as this.

<2−2.位置決め変更ユニット>
図1に示すように、位置決めユニット40は、測距センサー10の筐体16の背面に固定された棒状の回転軸41と、回転軸41の動作を制御する制御部42とを有する。回転軸41は、軸心A1の周りを回転可能であるとともに、軸心A1が延びる方向に伸縮可能である。制御部42は、回転軸41を駆動する駆動回路や、コンピュータ30からの制御信号を処理する信号処理部等からなり、コンピュータ30からの制御信号に従って、この回転運動及び伸縮運動を制御する。そして、この回転運動及び伸縮運動により、測距センサー10によるレーザL1の照射方向が、矢印K1の方向に沿って走査範囲R1内を段階的に隈なく走査されることになる(図2参照)。なお、走査範囲R1は、前後方向に略垂直な面内に規定される。言い換えると、制御部42は、回転軸41の動作を制御することにより、測距センサー10の向き及び位置を変更し、それにより、レーザL1の照射方向が走査範囲R1内を左右方向に往復動しつつ、往路と復路との折り返し地点で上から下へ小刻みに移動するようにする。
<2-2. Positioning change unit>
As shown in FIG. 1, the positioning unit 40 includes a rod-shaped rotating shaft 41 fixed to the back surface of the casing 16 of the distance measuring sensor 10 and a control unit 42 that controls the operation of the rotating shaft 41. The rotation shaft 41 can rotate around the axis A1 and can expand and contract in the direction in which the axis A1 extends. The control unit 42 includes a drive circuit that drives the rotary shaft 41, a signal processing unit that processes a control signal from the computer 30, and the like, and controls the rotational motion and the expansion and contraction motion according to the control signal from the computer 30. Then, by this rotational movement and expansion / contraction movement, the irradiation direction of the laser L1 by the distance measuring sensor 10 is scanned in a stepwise manner within the scanning range R1 along the direction of the arrow K1 (see FIG. 2). . The scanning range R1 is defined in a plane substantially perpendicular to the front-rear direction. In other words, the control unit 42 changes the direction and position of the distance measuring sensor 10 by controlling the operation of the rotating shaft 41, so that the irradiation direction of the laser L 1 reciprocates in the horizontal direction within the scanning range R 1. However, it moves from top to bottom in small increments at the turnaround point between the forward path and the return path.

なお、図2中には、参考として、デジタルカメラ20による撮像範囲R2が示されている。ここで、撮像範囲R2は、レーザL1の走査面(前後方向に略垂直な面)上への、対象空間S1の投影図である。そして、後述するとおり、デジタルカメラ20の画角、すなわち、撮像範囲R2は調整可能であるが、画角が最大の時にも撮像範囲R2が走査範囲R1内に収まるように、回転軸41の回転運動及び伸縮運動の移動範囲が設計されている。   In FIG. 2, an imaging range R2 by the digital camera 20 is shown as a reference. Here, the imaging range R2 is a projection view of the target space S1 on the scanning surface (a surface substantially perpendicular to the front-rear direction) of the laser L1. As will be described later, the angle of view of the digital camera 20, that is, the imaging range R2, can be adjusted, but the rotation shaft 41 rotates so that the imaging range R2 is within the scanning range R1 even when the angle of view is maximum. The movement range of motion and telescopic motion is designed.

<2−3.デジタルカメラ>
デジタルカメラ20は、対象空間S1を可視光線に基づいて撮像するカラーカメラであり、ユーザの操作に応じて、静止画及び動画の両方を撮像することができる。図1に示すように、デジタルカメラ20は、光学系21と、光学系21を介し入射した波を受光する受光面22とを有する。本実施形態では、光学系21には、ズームレンズ及びフォーカスレンズが含まれている。ズームレンズは、ズームボタン等の操作インターフェース(図示されない)に対するユーザの操作に従って、光学系21の光軸A2に沿って移動することにより、光学系21で結像する画像の画角、すなわち、撮像範囲R2を拡大及び縮小させる。一方、フォーカスレンズは、フォーカスボタン等の操作インターフェース(図示されない)に対するユーザの操作に従って、光学系21の光軸A2に沿って移動することにより、光学系21で結像する画像のピントを調整する。なお、ユーザは、画角及びピントの調整を、コンピュータ30経由でデジタルカメラ20に指示することも可能である。
<2-3. Digital camera>
The digital camera 20 is a color camera that captures the target space S1 based on visible light, and can capture both a still image and a moving image in accordance with a user operation. As shown in FIG. 1, the digital camera 20 includes an optical system 21 and a light receiving surface 22 that receives a wave incident through the optical system 21. In the present embodiment, the optical system 21 includes a zoom lens and a focus lens. The zoom lens moves along the optical axis A2 of the optical system 21 in accordance with a user operation on an operation interface (not shown) such as a zoom button. The range R2 is enlarged and reduced. On the other hand, the focus lens adjusts the focus of an image formed by the optical system 21 by moving along the optical axis A2 of the optical system 21 in accordance with a user operation on an operation interface (not shown) such as a focus button. . The user can also instruct the digital camera 20 via the computer 30 to adjust the angle of view and the focus.

光学系21及び受光面22は、デジタルカメラ20の筐体26内に収容されている。光学系21は、筐体26の前面側、すなわち、対象空間S1側に配置されており、受光面22、光学系21、対象空間S1は、この順番に後方から前方へ向かう方向に一直線状に配列されている。   The optical system 21 and the light receiving surface 22 are accommodated in a housing 26 of the digital camera 20. The optical system 21 is disposed on the front surface side of the casing 26, that is, on the target space S1 side, and the light receiving surface 22, the optical system 21, and the target space S1 are arranged in a straight line in the order from the rear to the front in this order. It is arranged.

図3に示すように、受光面22は、略同一平面上に多数のフィルタ素子が格子状に配列されたフィルタ22aと、略同一平面上に多数のフォトダイオードが配列されたCCDイメージセンサー22bとを有する。そして、フィルタ22aに含まれるフィルタ素子と、CCDイメージセンサー22bに含まれるフォトダイオードとは、1対1で対応しており、対応関係にある1のフィルタ素子と1のフォトダイオードとは、1の受光素子を形成している。また、対応関係にある1のフィルタ素子と1のフォトダイオードとは、前後方向に対面するような態様で配置されており、その結果、特定のフィルタ素子を透過した波は、特定のフォトダイオードを感光させて電荷を蓄積させる。なお、図3では、分かり易くするために、フィルタ22aとCCDイメージセンサー22bとの間の距離を大きく示しているが、実際には両者の距離は近接しているものとする。   As shown in FIG. 3, the light-receiving surface 22 includes a filter 22a in which a large number of filter elements are arranged in a grid on a substantially same plane, and a CCD image sensor 22b in which a large number of photodiodes are arranged on a substantially same plane. Have The filter elements included in the filter 22a and the photodiodes included in the CCD image sensor 22b have a one-to-one correspondence, and one filter element and one photodiode that are in a corresponding relationship are one in one. A light receiving element is formed. In addition, one filter element and one photodiode that are in a corresponding relationship are arranged in a manner facing each other in the front-rear direction. As a result, a wave that has passed through a specific filter element It is exposed to light to accumulate charge. In FIG. 3, for the sake of easy understanding, the distance between the filter 22a and the CCD image sensor 22b is shown to be large, but it is assumed that the distance between them is actually close.

図4は、フィルタ22aの部分拡大図である。図4に示すとおり、フィルタ22aでは、赤色光のみを透過させるRフィルタ素子(図4中で「R」で示す)と、緑色光のみを透過させるGフィルタ素子(図4中で「G」で示す)と、青色光のみを透過させるBフィルタ素子(図4中で「B」で示す)と、レーザL1の波長領域の波(近赤外線)のみを透過させるIRフィルタ素子(図4中で「IR」で示す)とが、一定の規則に沿って同数だけ繰り返し出現するパターンで配列されている。すなわち、フィルタ22aとは、Rフィルタ素子と、Gフィルタ素子と、Bフィルタ素子と、IRフィルタ素子とを1つずつ2×2のマトリクス状に並べたユニットUFが、格子状に配列されたものである。フィルタ22aに含まれるユニットUFは、光学系21で撮像される画像に含まれる画素に1対1で対応する。   FIG. 4 is a partially enlarged view of the filter 22a. As shown in FIG. 4, in the filter 22a, an R filter element that transmits only red light (indicated by “R” in FIG. 4) and a G filter element that transmits only green light (indicated by “G” in FIG. 4). 4), a B filter element that transmits only blue light (indicated by “B” in FIG. 4), and an IR filter element that transmits only waves (near infrared rays) in the wavelength region of the laser L1 (in FIG. IR ”) are arranged in a pattern that repeatedly appears the same number according to a certain rule. That is, the filter 22a is an array of units UF in which R filter elements, G filter elements, B filter elements, and IR filter elements are arranged in a matrix of 2 × 2 one by one. It is. The unit UF included in the filter 22a has a one-to-one correspondence with the pixels included in the image captured by the optical system 21.

そして、以上の説明から明らかなとおり、フィルタ22aと、CCDイメージセンサー22bとは、略同一平面上に重なるように配置される4つの受光面を形成する。4つの受光面とは、赤色光の波長領域の波に選択的に感応する多数の受光素子(R受光素子)が格子状に配列されたR受光面と、緑色光の波長領域の波に選択的に感応する多数の受光素子(G受光素子)が格子状に配列されたG受光面と、青色光の波長領域の波に選択的に感応する多数の受光素子(B受光素子)が格子状に配列されたB受光面と、レーザL1の波長領域の波(近赤外線)に選択的に感応する多数の受光素子(IR受光素子)が配列されたIR受光面である。なお、R受光面と、G受光面と、B受光面との3つの受光面は、全体として、可視光線に選択的に感応するRGB受光面と捉えることができる。   As is clear from the above description, the filter 22a and the CCD image sensor 22b form four light receiving surfaces arranged so as to overlap each other on substantially the same plane. The four light-receiving surfaces are selected as an R light-receiving surface in which a large number of light-receiving elements (R light-receiving elements) that are selectively responsive to waves in the wavelength region of red light are arranged in a lattice pattern and waves in the wavelength region of green light G light-receiving surface in which a large number of light-sensitive elements (G light-receiving elements) that are sensitively arranged are arranged in a lattice pattern, and a large number of light-receiving elements (B light-receiving elements) that are selectively sensitive to waves in the wavelength region of blue light are in a lattice shape And an IR light receiving surface on which a large number of light receiving elements (IR light receiving elements) that are selectively sensitive to waves in the wavelength region of the laser L1 (near infrared rays) are arranged. Note that the three light receiving surfaces of the R light receiving surface, the G light receiving surface, and the B light receiving surface can be regarded as RGB light receiving surfaces that selectively respond to visible light as a whole.

ここで、R受光面と、G受光面と、B受光面と、IR受光面とは、共通する光学系21を透過した波を受光する。つまり、これら4つの受光面は、同じ撮像範囲R2を捉えるものであり、従って、これら4つの受光面上の同じ被写点を捉える受光素子どうしは、一定の対応関係を有する。   Here, the R light receiving surface, the G light receiving surface, the B light receiving surface, and the IR light receiving surface receive a wave transmitted through the common optical system 21. That is, these four light receiving surfaces capture the same imaging range R2, and therefore, the light receiving elements that capture the same object point on these four light receiving surfaces have a certain correspondence.

ところで、さらに、デジタルカメラ20は、筐体26内に制御部23と、メモリ24とを有する。制御部23は、適当な制御回路、CPU、RAM、ROM等からなり、ROMやメモリ24内に格納されているプログラムを実行することにより、デジタルカメラ20全体の動作を制御する。具体的には、制御部23は、受光面22に接続されており、受光面22での露光のタイミングや、受光面22上の受光素子群に蓄積された電荷を出力するタイミング等を制御する。また、制御部23は、受光素子群から出力された電荷の量を受光素子単位で画素データに換算し、これらの画素データから対象空間S1を写す平面的な画像データを形成する。なお、以下では、R受光素子に対応する画素データをRデータ、G受光素子に対応する画素データをGデータ、B受光素子に対応する画素データをBデータ、IR受光素子に対応する画素データをIRデータと呼ぶ。また、制御部23には、メモリ24が接続されている。制御部23により形成された画像データは、メモリ24内に蓄積されるとともに、リアルタイムにコンピュータ30に転送される。なお、メモリ24は、フラッシュメモリ等の不揮発性メモリである。   Incidentally, the digital camera 20 further includes a control unit 23 and a memory 24 in the housing 26. The control unit 23 includes an appropriate control circuit, CPU, RAM, ROM, and the like, and controls the operation of the entire digital camera 20 by executing a program stored in the ROM or memory 24. Specifically, the control unit 23 is connected to the light receiving surface 22 and controls the timing of exposure on the light receiving surface 22, the timing of outputting the charge accumulated in the light receiving element group on the light receiving surface 22, and the like. . Further, the control unit 23 converts the amount of charge output from the light receiving element group into pixel data in units of light receiving elements, and forms planar image data that captures the target space S1 from these pixel data. In the following, pixel data corresponding to the R light receiving element is R data, pixel data corresponding to the G light receiving element is G data, pixel data corresponding to the B light receiving element is B data, and pixel data corresponding to the IR light receiving element is This is called IR data. A memory 24 is connected to the control unit 23. The image data formed by the control unit 23 is stored in the memory 24 and transferred to the computer 30 in real time. The memory 24 is a nonvolatile memory such as a flash memory.

<2−4.コンピュータ>
コンピュータ30は、画像処理プログラム2がインストールされている汎用のパーソナルコンピュータである。画像処理プログラム2は、測距センサー10により測定された距離データ及びデジタルカメラ20により撮像された画像データから合成データを生成したり、合成データに基づいて三次元画像データを形成したり、三次元画像データを表示部34に表示したりするためのソフトウェアである。画像処理プログラム2は、コンピュータ30に後述する以下の動作を実行させる。
<2-4. Computer>
The computer 30 is a general-purpose personal computer in which the image processing program 2 is installed. The image processing program 2 generates composite data from the distance data measured by the distance measuring sensor 10 and the image data captured by the digital camera 20, forms 3D image data based on the composite data, This is software for displaying image data on the display unit. The image processing program 2 causes the computer 30 to execute the following operations described later.

図1に示すように、コンピュータ30は、制御部31と、記憶部32と、入力部33と、表示部34と、通信部35とを有し、これらの部31〜35は、相互に通信可能である。本実施形態では、制御部31は、CPU、ROMおよびRAM等から構成されており、記憶部32は、ハードディスク等から構成されている。画像処理プログラム2は、記憶部32内に格納されており、制御部31は、記憶部32から画像処理プログラムを読み出して実行することにより、重畳部31a及び三次元処理部31bとして動作する。重畳部31a及び三次元処理部31bの動作については、後述する。入力部33は、マウスおよびキーボート等から構成されており、コンピュータ30に対するユーザからの操作を受け付けるユーザインターフェースである。表示部34は、液晶ディスプレイ、電子ホログラフィ方式のデバイス等から構成されており、三次元画像データ等をユーザに対し表示するユーザインターフェースである。通信部35は、コンピュータ30を外部機器である測距センサー10、位置決めユニット40及びデジタルカメラ20に接続する通信インターフェースである。   As illustrated in FIG. 1, the computer 30 includes a control unit 31, a storage unit 32, an input unit 33, a display unit 34, and a communication unit 35, and these units 31 to 35 communicate with each other. Is possible. In this embodiment, the control part 31 is comprised from CPU, ROM, RAM, etc., and the memory | storage part 32 is comprised from the hard disk etc. The image processing program 2 is stored in the storage unit 32, and the control unit 31 reads and executes the image processing program from the storage unit 32, thereby operating as the superimposing unit 31a and the three-dimensional processing unit 31b. The operations of the superimposing unit 31a and the three-dimensional processing unit 31b will be described later. The input unit 33 includes a mouse, a keyboard, and the like, and is a user interface that receives an operation from the user on the computer 30. The display unit 34 includes a liquid crystal display, an electronic holographic device, and the like, and is a user interface that displays 3D image data and the like to the user. The communication unit 35 is a communication interface that connects the computer 30 to the distance measuring sensor 10, the positioning unit 40, and the digital camera 20 that are external devices.

<3.撮像システムの動作>
以下、図5を参照しつつ、撮像システム1により対象空間S1が撮像され、奥行き情報を有するカラー画像データである合成データが形成されるまでの撮像処理について説明する。なお、簡単のため、以下では、1枚の静止画が撮像される様子について説明するが、動画が撮像される場合には、各フレームについて図5の撮像処理が繰り返されるものとする。
<3. Operation of imaging system>
Hereinafter, with reference to FIG. 5, an imaging process until the target space S1 is imaged by the imaging system 1 and composite data that is color image data having depth information is formed will be described. For simplicity, the following describes how a single still image is captured. However, when a moving image is captured, it is assumed that the imaging process of FIG. 5 is repeated for each frame.

ユーザが、デジタルカメラ20の筐体26上に配置されるレリーズボタン等の操作インターフェース(図示されない)を操作すると、デジタルカメラ20の制御部13によりその旨が検知され、図5の撮像処理が開始する。なお、図5の撮像処理は、ユーザがコンピュータ30経由で指示を与えることによっても開始し得る。その場合には、コンピュータ30の制御部31からデジタルカメラ20の制御部23へ、撮像処理の開始命令が送信される。ここで、ユーザは、撮像処理を開始させる前に、デジタルカメラ20のズームレンズ及びフォーカスレンズの位置を調整し、所望のとおり撮像範囲R2を設定し、ピントを調整しておく必要がある。   When the user operates an operation interface (not shown) such as a release button arranged on the casing 26 of the digital camera 20, that effect is detected by the control unit 13 of the digital camera 20, and the imaging process of FIG. To do. Note that the imaging process of FIG. 5 can also be started when the user gives an instruction via the computer 30. In this case, an imaging process start command is transmitted from the control unit 31 of the computer 30 to the control unit 23 of the digital camera 20. Here, before starting the imaging process, the user needs to adjust the zoom lens and focus lens positions of the digital camera 20, set the imaging range R2 as desired, and adjust the focus.

まず、ステップS11として、デジタルカメラ20の制御部23は、図示されないシャッターを開く等して、受光面22に可視光線に基づいて対象空間S1を撮像させる。その結果、R受光面上の各R受光素子に蓄積された電荷と、G受光面上の各G受光素子に蓄積された電荷と、B受光面上の各B受光素子に蓄積された電荷とが制御部23により処理され、対象空間S1を写す画像データが形成される。この画像データは、R受光素子に蓄積された電荷の量に応じたRデータと、G受光素子に蓄積された電荷の量に応じたGデータと、B受光素子に蓄積された電荷の量に応じたBデータとを画素単位で合成したカラー画像データである。そして、このカラー画像データは、メモリ24内に格納されるとともに、直ちに制御部23からコンピュータ30へ転送され、図6に示す態様で記憶部32内に記録される。すなわち、図6に示すとおり、カラー画像データの各画素の番号(m1,m2)に関連付けて、記憶部32内にRGBデータが格納される。なお、番号(m1,m2)の画素とは、このカラー画像の左からm1番目かつ上からm2番目の画素である(ただし、m1=1,2,・・・,M1であり、m2=1,2,・・・,M2)。従って、このカラー画像データのサイズは、M1×M2となる。   First, as step S11, the control unit 23 of the digital camera 20 opens the shutter (not shown) and causes the light receiving surface 22 to image the target space S1 based on visible light. As a result, the charge accumulated in each R light receiving element on the R light receiving surface, the charge accumulated in each G light receiving element on the G light receiving surface, and the charge accumulated in each B light receiving element on the B light receiving surface Are processed by the control unit 23, and image data representing the target space S1 is formed. The image data includes R data corresponding to the amount of charge accumulated in the R light receiving element, G data corresponding to the amount of charge accumulated in the G light receiving element, and the amount of charge accumulated in the B light receiving element. Color image data obtained by compositing the corresponding B data in units of pixels. The color image data is stored in the memory 24 and immediately transferred from the control unit 23 to the computer 30 and recorded in the storage unit 32 in the manner shown in FIG. That is, as shown in FIG. 6, RGB data is stored in the storage unit 32 in association with the number (m1, m2) of each pixel of the color image data. The number (m1, m2) pixels are the m1th pixel from the left and the m2th pixel from the top of the color image (where m1 = 1, 2,..., M1 and m2 = 1). , 2,..., M2). Therefore, the size of this color image data is M1 × M2.

続くステップS12では、測距センサー10により対象空間S1内の物体までの距離データが測定される。具体的には、コンピュータ30の制御部31は、位置決めユニット40、測距センサー10及びデジタルカメラ20を同期させつつ、以下の処理を実行する。すなわち、制御部31は、測距センサー10の制御部13へ計測命令を送信するとともに、デジタルカメラ20の制御部23へ撮像命令を送信する。計測命令を受信した制御部13は、照射源11にレーザL1を照射させ、受光面12にその反射波L2を検出させる。そして、制御部13は、レーザL1が照射されてからその反射波L2が検出されるまでの時間を計測し、その時間や赤外線の伝播速度(光速)等から、レーザL1が衝突した物体までの距離データを算出する。そして、この距離データは、直ちに制御部23からコンピュータ30へ転送され、記憶部32内に記録される。   In subsequent step S12, distance data to the object in the target space S1 is measured by the distance measuring sensor 10. Specifically, the control unit 31 of the computer 30 executes the following processing while synchronizing the positioning unit 40, the distance measuring sensor 10, and the digital camera 20. That is, the control unit 31 transmits a measurement command to the control unit 13 of the distance measuring sensor 10 and transmits an imaging command to the control unit 23 of the digital camera 20. The control unit 13 that has received the measurement command causes the irradiation source 11 to irradiate the laser L1 and causes the light receiving surface 12 to detect the reflected wave L2. And the control part 13 measures the time after the laser L1 is irradiated until the reflected wave L2 is detected, and from the time, the propagation speed (light speed) of infrared rays, etc. to the object which the laser L1 collided with Calculate distance data. The distance data is immediately transferred from the control unit 23 to the computer 30 and recorded in the storage unit 32.

一方、撮像命令を受信したデジタルカメラ20の制御部23は、測距センサー10が距離データを算出するのと並列に、照射源11から照射されたレーザL1の別の反射波L3を受光面22に受光させる。すなわち、ここでは、IR受光面上の各IR受光素子に蓄積された電荷が制御部23により処理され、対象空間S1を写す画像データが形成される。この画像データは、IR受光素子に蓄積された電荷の量に応じたIRデータを画素データとして含む赤外線画像データである。そして、この赤外線画像データは、メモリ24内に格納されるとともに、直ちに制御部23からコンピュータ30へ転送され、記憶部32内に記録される。なお、上記のとおり、この赤外線画像データと、ステップS11のカラー画像データとは、同じ撮像領域R2を捉える同じサイズの画像データである。従って、上記カラー画像データと同様、この赤外線画像データのサイズは、M1×M2であり、この赤外線画像の左からm1番目かつ上からm2番目の画素の番号は、(m1,m2)と表される(ただし、m1=1,2,・・・,M1であり、m2=1,2,・・・,M2)。   On the other hand, the control unit 23 of the digital camera 20 that has received the imaging command receives another reflected wave L3 of the laser L1 emitted from the irradiation source 11 in parallel with the distance sensor 10 calculating the distance data. To receive light. That is, here, the charge accumulated in each IR light receiving element on the IR light receiving surface is processed by the control unit 23, and image data representing the target space S1 is formed. This image data is infrared image data including, as pixel data, IR data corresponding to the amount of charge accumulated in the IR light receiving element. The infrared image data is stored in the memory 24, and immediately transferred from the control unit 23 to the computer 30 and recorded in the storage unit 32. As described above, the infrared image data and the color image data in step S11 are image data of the same size that captures the same imaging region R2. Accordingly, the size of the infrared image data is M1 × M2 as in the case of the color image data, and the number of the m1st pixel from the left and the m2th pixel from the top of the infrared image is represented as (m1, m2). (Where m1 = 1, 2,..., M1, and m2 = 1, 2,..., M2).

そして、1回の計測動作と、1回の赤外線画像データの取得動作とが終了すると、コンピュータ30の制御部31は、位置決めユニット40の制御部42へ走査命令を送信する。走査命令を受信した制御部42は、照射源11からのレーザL1の照射方向が図2中の矢印K1に沿って次の照射位置に移動するように、回転軸41を回転又は伸縮させる。その後、コンピュータ30の制御部31は、位置決めユニット40の制御部42から回転軸41の回転又は伸縮が終了した旨の通知を受け付け、これに応じて、上述したのと同様の態様で、測距センサー10による計測動作と、デジタルカメラ20による赤外線画像データの取得動作とを再度実行させる。この計測動作と、赤外線画像データの取得動作とは、照射源11からのレーザL1が、図2に示される走査範囲R1内を隈なく走査するまで繰り返し実行される。そして、その間、コンピュータ30の制御部31は、測距センサー10の制御部13から順次送信されてくる距離データと、デジタルカメラ20の制御部23から順次送信されてくる赤外線画像データとを、受信の順番n=1,2,・・・,N1×N2に関連付けて、記憶部32内に順次記録してゆく。すなわち、連続的に取得される距離データD(n)と、赤外線画像データIIR(n)とは、図7に示すような態様で、記憶部32内に記憶される。ここで、N1は、走査の横方向の解像度であり、N2は、走査の縦方向の解像度である。なお、測距センサー10の走査の全体の解像度N1×N2は、デジタルカメラ40の解像度M1×M2と同じであることが望ましいが、例えば、これより小さくてもよい。 When one measurement operation and one infrared image data acquisition operation are completed, the control unit 31 of the computer 30 transmits a scanning command to the control unit 42 of the positioning unit 40. The control unit 42 that has received the scanning command rotates or expands and contracts the rotating shaft 41 so that the irradiation direction of the laser L1 from the irradiation source 11 moves to the next irradiation position along the arrow K1 in FIG. Thereafter, the control unit 31 of the computer 30 receives a notification from the control unit 42 of the positioning unit 40 that the rotation or expansion / contraction of the rotary shaft 41 has ended, and in accordance with this, the distance measurement is performed in the same manner as described above. The measurement operation by the sensor 10 and the infrared image data acquisition operation by the digital camera 20 are executed again. This measurement operation and the infrared image data acquisition operation are repeatedly executed until the laser L1 from the irradiation source 11 scans the entire scanning range R1 shown in FIG. In the meantime, the control unit 31 of the computer 30 receives the distance data sequentially transmitted from the control unit 13 of the distance measuring sensor 10 and the infrared image data sequentially transmitted from the control unit 23 of the digital camera 20. Are sequentially recorded in the storage unit 32 in association with the order n = 1, 2,..., N1 × N2. That is, the distance data D (n) and the infrared image data I IR (n) acquired continuously are stored in the storage unit 32 in the manner shown in FIG. Here, N1 is the horizontal resolution of scanning, and N2 is the vertical resolution of scanning. Note that the overall resolution N1 × N2 of the scanning of the distance measuring sensor 10 is preferably the same as the resolution M1 × M2 of the digital camera 40, but may be smaller, for example.

続いて、ステップS13では、コンピュータ30の重畳部31aにより、ステップS11で取得されたカラー画像データと、ステップS12で取得された距離データとを合成した合成データが生成される。具体的には、重畳部31aは、各nの値について、赤外線画像データIIR(n)を参照することにより、カラー画像データに含まれる特定の画素データ(RGBデータ)に距離データD(n)を順次対応付けてゆく。すなわち、重畳部31aは、各nの値について、赤外線画像データIIR(n)に係る画像に含まれる全ての画素のうち、レーザL1の反射波L2を捉えた画素(例えば、画素値が所定範囲に収まる画素)の番号(m1,m2)を特定する。これは、IR受光面上のIR受光素子群の中から、レーザL1の反射波L2を受光したIR受光素子を特定することと同じである。なお、1の赤外線画像について特定される画素ないし受光素子の数は、0個の場合も、1個の場合も、複数個の場合もあり、これは、光学系21のピントの状態や、測距センサー10の解像度N1×N2や、赤外線画像データIIR(n)及びカラー画像データの解像度M1×M2等によって決まる。 Subsequently, in step S13, the superimposition unit 31a of the computer 30 generates composite data obtained by combining the color image data acquired in step S11 and the distance data acquired in step S12. Specifically, the superimposing unit 31a refers to the infrared image data I IR (n) for each value of n, so that the specific pixel data (RGB data) included in the color image data is converted into the distance data D (n ) In order. That is, for each value of n, the superimposing unit 31a captures a pixel that captures the reflected wave L2 of the laser L1 among all the pixels included in the image related to the infrared image data I IR (n) (for example, the pixel value is predetermined). The number (m1, m2) of the pixels within the range is specified. This is the same as specifying the IR light receiving element that receives the reflected wave L2 of the laser L1 from the IR light receiving element group on the IR light receiving surface. Note that the number of pixels or light receiving elements specified for one infrared image may be zero, one, or a plurality, and this may be the focus state of the optical system 21 or the measurement. It is determined by the resolution N1 × N2 of the distance sensor 10, the infrared image data I IR (n), the resolution M1 × M2 of the color image data, and the like.

続いて、重畳部31aは、カラー画像データに含まれる、特定された番号(m1,m2)の画素のRGBデータ(特定されたIR受光素子に対応するRGBデータ)に距離データD(n)を関連付けることにより、カラー画像データに距離データD(n)を重畳する。なお、特定されたIR受光素子に対応するRGBデータとは、特定されたIR受光素子と同じユニットUFに含まれるR,G及びB受光素子に対応するRGBデータである。   Subsequently, the superimposing unit 31a adds the distance data D (n) to the RGB data (RGB data corresponding to the specified IR light receiving element) of the pixel of the specified number (m1, m2) included in the color image data. By associating, the distance data D (n) is superimposed on the color image data. The RGB data corresponding to the specified IR light receiving element is RGB data corresponding to the R, G, and B light receiving elements included in the same unit UF as the specified IR light receiving element.

以上の結果、図8に示すデータ構造を有する合成データが形成される。すなわち、カラー画像データの各画素の番号(m1,m2)に関連付けて、RGBデータの他、距離データが格納されてゆく。なお、関連付けられるべき距離データが存在しない画素については、「NULL」値が格納される。従って、例えば、図8の合成データを解析すれば、番号(1,1)の画素に写っている物体の色は、R値=12,G値=110,B値=250の色であり、かつ、その物体までの距離が35.00mであると判断することができる。また、番号(1,2)の画素に写っている物体の色は、R値=210,G値=40,B値=65の色であり、かつ、その物体までの距離が不明であると判断することができる。   As a result, composite data having the data structure shown in FIG. 8 is formed. That is, the distance data is stored in addition to the RGB data in association with the number (m1, m2) of each pixel of the color image data. Note that a “NULL” value is stored for a pixel for which there is no distance data to be associated. Therefore, for example, if the synthesized data of FIG. 8 is analyzed, the color of the object shown in the pixel of number (1, 1) is the color of R value = 12, G value = 110, and B value = 250, And it can be judged that the distance to the object is 35.00 m. Further, the color of the object shown in the pixel of number (1, 2) is the color of R value = 210, G value = 40, B value = 65, and the distance to the object is unknown. Judgment can be made.

以上の態様で合成データが生成されると、コンピュータ30は、この合成データに基づいて三次元画像データを表示部34に表示することが可能な状態となる。具体的には、三次元処理部30bは、ユーザが入力部33を介して所定の操作を行ったことを検知すると、記憶部32内の合成データを参照することにより、三次元画像データを形成する。ここで形成される三次元画像データの種類は、ユーザが入力部33を介して選択可能である。なお、ユーザが選択可能な三次元画像データの種類には、左眼画像及び右眼画像を有するステレオ画像データや、空間内に三次元的に映像を写し出すホログラフデータや、立体物を平面上に投影した投影図の画像データ等が含まれる。三次元処理部30bは、画像処理プログラム2に含まれる、ユーザにより選択された三次元画像データの種類に応じたプログラムモジュールを実行することにより、合成データに含まれる距離データ及びRGBデータから三次元画像データを形成する。この三次元画像データは、表示部34上で表示される。なお、三次元処理部30bは、ユーザの操作を待たず、合成データが形成される度にリアルタイムに三次元画像データを形成し、表示部34に表示することも可能である。これは、動画が撮像される場合も同様である。   When the composite data is generated in the above manner, the computer 30 is in a state where the three-dimensional image data can be displayed on the display unit 34 based on the composite data. Specifically, when the three-dimensional processing unit 30b detects that the user has performed a predetermined operation via the input unit 33, the three-dimensional processing unit 30b forms three-dimensional image data by referring to the composite data in the storage unit 32. To do. The type of 3D image data formed here can be selected by the user via the input unit 33. The types of 3D image data that can be selected by the user include stereo image data having a left-eye image and a right-eye image, holographic data for projecting a three-dimensional image in space, and a three-dimensional object on a plane. The image data of the projected image is included. The three-dimensional processing unit 30b executes a program module corresponding to the type of the three-dimensional image data selected by the user, which is included in the image processing program 2, so that three-dimensional processing is performed from the distance data and RGB data included in the synthesized data. Form image data. This three-dimensional image data is displayed on the display unit 34. The three-dimensional processing unit 30b can also form three-dimensional image data in real time and display it on the display unit 34 every time composite data is formed without waiting for a user operation. This is the same when moving images are captured.

<4.用途>
本実施形態に係る撮像システム1は、様々な用途で利用することが可能であるが、例えば、防犯システムとして利用することも可能である。そのようなケースでは、測距センサー10及びデジタルカメラ20は、その前面側が監視対象となる領域を向くような見通しのよい位置等に配置され、コンピュータ30は、監視ルーム等に配置される。そして、デジタルカメラ20で撮像される画像データは、監視映像の動画データとしてコンピュータ30にリアルタイムに転送される。
<4. Application>
The imaging system 1 according to the present embodiment can be used for various purposes. For example, it can also be used as a security system. In such a case, the distance measuring sensor 10 and the digital camera 20 are arranged at a position with good visibility such that the front side faces the area to be monitored, and the computer 30 is arranged in a monitoring room or the like. The image data captured by the digital camera 20 is transferred to the computer 30 in real time as moving image data of a monitoring video.

ところで、一般の平面的な画像データを取得する監視カメラでは、例えば、図9(a)に示すようなフレームが時系列に並ぶ、2人の人物を捉えた動画データが得られたとしても、この二人が図9(b)に示すような奇跡を描いてすれ違ったのか、それとも図9(c)に示すような奇跡を描いてUターンしたのかを判別することが困難である。ところが、撮像システム1では、二人の人物の奥行き情報が得られるため、両者がすれ違ったのか、Uターンしたのかを容易に判別することができる。また、図10に示すような例においても、人が地面で体操をしているのか、ジャンプしているのかの判別が困難である。しかしながら、平面的な画像データに奥行き情報が加えられる撮像システム1では、そのような判別を容易に行うことができる。   By the way, in a surveillance camera that acquires general planar image data, for example, even if moving image data that captures two persons arranged in a time series as shown in FIG. 9A is obtained, It is difficult to determine whether these two people passed each other with a miracle as shown in FIG. 9B or made a U-turn with a miracle as shown in FIG. 9C. However, since the imaging system 1 can obtain depth information of two persons, it is possible to easily determine whether the two have passed each other or have made a U-turn. Also in the example as shown in FIG. 10, it is difficult to determine whether a person is doing gymnastics on the ground or jumping. However, in the imaging system 1 in which depth information is added to planar image data, such a determination can be easily performed.

なお、防犯システムにおいては、様々な公知の画像処理技術と組み合わせて、合成データないし三次元画像データをコンピュータ30により自動的に解析することにより、両者がすれ違ったのか、Uターンしたのか等、立体的な情報を必要とする判断を自動的に行ってもよい。そして、異常が予知又は検出されれば、その旨がコンピュータ30から自動的に出力されるようにしてもよい。このような異常の報知の態様としては、スピーカから音声を出力したり、ディスプレイ上にメッセージを表示させたり、電子メールやFAX等で所定の連絡先に報知する態様等が考えられる。これにより、不審者や不審物等を早期発見することが可能になる。   In the crime prevention system, a combination of various known image processing techniques is used to automatically analyze composite data or three-dimensional image data by the computer 30 to determine whether the two have passed each other or have made a U-turn. The determination that requires specific information may be made automatically. If an abnormality is predicted or detected, the fact may be automatically output from the computer 30. Examples of such an abnormality notification mode include a mode in which voice is output from a speaker, a message is displayed on a display, and a predetermined contact is notified by e-mail, FAX, or the like. Thereby, it becomes possible to detect a suspicious person, a suspicious object, etc. at an early stage.

撮像システム1の他の用途としては、例えば、美術品等の映像を記録するデジタルアーカイブシステムとして利用することや、高齢者や病人等の見守りシステムとして利用すること等が考えられる。   As other uses of the imaging system 1, for example, it can be used as a digital archive system for recording images such as works of art, or as a monitoring system for elderly people, sick people, and the like.

<5.特徴>
上記実施形態では、撮像システム1は、照射源11から照射された後、被写体に反射して戻ってきたレーザL1の反射波L2を捉えることにより、被写体までの距離を測定する。また、撮像システム1は、異なる波長領域の波に選択的に感応する異なる受光面、すなわち、RGB受光面及びIR受光面を有する。具体的には、RGB受光面は、被写体の画像を形成するための可視光線を受光する一方、IR受光面は、照射源11から照射されるレーザL1の反射波L3を受光する。しかし、これらの受光面は、同じ撮像範囲を捉えるものであり、従って、これらの受光面上の同じ被写点を捉える受光素子どうしは、一定の対応関係を有することになる。つまり、撮像システム1は、受光素子群により捉えられる画素値を参照するまでもなく(言い換えると、受光素子群により撮像された画像を画像処理するまでもなく)、これらの受光面上の受光素子群の対応関係を把握している。その結果、重畳部31aは、IR受光面上のレーザL1の反射波L3を捉えた受光素子を特定することにより、測距センサー10で測定された距離が、RGB受光面で撮像された画像上のどの画素に対応する物体までの距離であるのかを容易に判断し、この距離と画像上の特定の画素とを容易に対応付けることができる。従って、ここでは、測距センサー10による距離データを、デジタルカメラ20によるカラー画像データ内の画素に容易に対応付けることができる。
<5. Features>
In the above embodiment, the imaging system 1 measures the distance to the subject by capturing the reflected wave L2 of the laser L1 that has been irradiated from the irradiation source 11 and then reflected back to the subject. The imaging system 1 has different light receiving surfaces that are selectively sensitive to waves in different wavelength regions, that is, RGB light receiving surfaces and IR light receiving surfaces. Specifically, the RGB light receiving surface receives visible light for forming an image of the subject, while the IR light receiving surface receives the reflected wave L3 of the laser L1 emitted from the irradiation source 11. However, these light receiving surfaces capture the same imaging range. Accordingly, light receiving elements that capture the same subject point on these light receiving surfaces have a certain correspondence. That is, the imaging system 1 does not need to refer to pixel values captured by the light receiving element group (in other words, without performing image processing on an image captured by the light receiving element group), and the light receiving elements on these light receiving surfaces. The relationship between groups is grasped. As a result, the superimposing unit 31a identifies the light receiving element that captures the reflected wave L3 of the laser L1 on the IR light receiving surface, so that the distance measured by the distance measuring sensor 10 is on the image captured by the RGB light receiving surface. It is possible to easily determine which of the pixels corresponds to the distance to the object, and easily associate this distance with a specific pixel on the image. Therefore, here, the distance data from the distance measuring sensor 10 can be easily associated with the pixels in the color image data from the digital camera 20.

つまり、上記実施形態では、測距センサー10が距離を測定する点と、デジタルカメラ20により撮像されるカラー画像データ上の点とを対応付けるために、計算負荷の高い複雑な演算を必要としない。従って、撮像システム1による計算時の推論誤差がなくなり、また、測距センサー10及びデジタルカメラ20に関する各種のパラメータが未知であっても、上記対応付けが可能になる。   That is, in the above embodiment, in order to associate the point at which the distance measuring sensor 10 measures the distance with the point on the color image data captured by the digital camera 20, a complicated calculation with a high calculation load is not required. Therefore, the inference error at the time of calculation by the imaging system 1 is eliminated, and the above association is possible even if various parameters regarding the distance measuring sensor 10 and the digital camera 20 are unknown.

<6.変形例>
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。例えば、以下の変更が可能である。
<6. Modification>
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the said embodiment, A various change is possible unless it deviates from the meaning. For example, the following changes can be made.

<6−1>
受光面12及び受光面22としては、CMOSセンサー等、CCDイメージセンサー以外のものを使用してもよい。
<6−2>
受光面22を、図11に示すようなものに変更してもよい。すなわち、赤色光、緑色光、青色光及び赤外線をプリズムにより分光し、R受光面、G受光面、B受光面及びIR受光面が平行でなく、異なる平面上に配置されるようにしてもよい。また、同様の考え方に従って、例えば、光学系21へ入射する波をプリズムにより可視光線及び赤外線の2つに分光してもよい。
<6-1>
As the light receiving surface 12 and the light receiving surface 22, a sensor other than a CCD image sensor such as a CMOS sensor may be used.
<6-2>
The light receiving surface 22 may be changed to the one shown in FIG. That is, red light, green light, blue light, and infrared light may be dispersed by a prism so that the R light receiving surface, the G light receiving surface, the B light receiving surface, and the IR light receiving surface are not parallel but arranged on different planes. . Further, according to the same concept, for example, a wave incident on the optical system 21 may be split into two rays of visible light and infrared light by a prism.

<6−3>
受光面12を省略し、デジタルカメラ20のIR受光面で受光されたレーザL1の反射波L3に基づいて距離データを測定するようにしてもよい。この場合、デジタルカメラ20のIR受光面での反射波L3の受光に関する情報を、デジタルカメラ20の制御部23から測距センサー10の制御部13に転送することにより、制御部13により距離データを測定可能とすることができる。あるいは、照射源11からのレーザL1の照射に関する情報を、制御部13から制御部23に転送することにより、制御部23が距離データを測定するようにしてもよい。あるいは、これらの情報をコンピュータ30の制御部31に転送することにより、制御部31が距離データを測定するようにしてもよい。この変形例によれば、デジタルカメラ20のIR受光面は、被写体上でのレーザL1の反射点をその被写体の画像上の画素に対応付ける役割と、被写体までの距離の算出用にレーザL1の反射波を受光する役割とを兼ねる。従って、部品点数を減らし、撮像システム1の構築のコストを下げることができる。
<6-3>
The light receiving surface 12 may be omitted, and the distance data may be measured based on the reflected wave L3 of the laser L1 received by the IR light receiving surface of the digital camera 20. In this case, by transmitting information related to the reception of the reflected wave L3 on the IR light receiving surface of the digital camera 20 from the control unit 23 of the digital camera 20 to the control unit 13 of the distance measuring sensor 10, the distance data is obtained by the control unit 13. It can be measurable. Or you may make it the control part 23 measure distance data by transferring the information regarding irradiation of the laser L1 from the irradiation source 11 from the control part 13 to the control part 23. FIG. Alternatively, the control unit 31 may measure the distance data by transferring the information to the control unit 31 of the computer 30. According to this modification, the IR light receiving surface of the digital camera 20 has a role of associating the reflection point of the laser L1 on the subject with a pixel on the image of the subject and the reflection of the laser L1 for calculating the distance to the subject. It also serves to receive waves. Therefore, the number of parts can be reduced, and the cost of constructing the imaging system 1 can be reduced.

<6−4>
測距センサー10の制御部13、デジタルカメラ20の制御部23及びコンピュータ30の制御部31における処理の分担は、上述したものに限られず、制御部13における処理の一部又は全部を制御部23又は制御部31が実行してもよいし、制御部23における処理の一部又は全部を制御部13又は制御部31が実行してもよいし、制御部31における処理の一部又は全部を制御部13又は制御部23が実行してもよい。
<6-4>
The sharing of processing in the control unit 13 of the distance measuring sensor 10, the control unit 23 of the digital camera 20, and the control unit 31 of the computer 30 is not limited to that described above. Alternatively, the control unit 31 may execute, or part or all of the processing in the control unit 23 may be executed by the control unit 13 or the control unit 31, or part or all of the processing in the control unit 31 may be controlled. The unit 13 or the control unit 23 may execute.

<6−5>
レーザL1の反射波L2,L3に基づいて対象空間S1内の物体までの距離データを測定する方法は、上述したものに限られない。例えば、レーザL1が照射されてからその反射波L2,L3が戻ってくるまでの位相差、レーザL1の反射波L2,L3が受光される受光面12,22上の位置、レーザL1の反射波L2,L3の強度から算出する等、当業者は公知の方法の中から任意のものを適宜選択し得る。
<6-5>
The method of measuring the distance data to the object in the target space S1 based on the reflected waves L2 and L3 of the laser L1 is not limited to the above. For example, the phase difference from when the laser L1 is irradiated until the reflected waves L2 and L3 return, the position on the light receiving surfaces 12 and 22 where the reflected waves L2 and L3 of the laser L1 are received, and the reflected wave of the laser L1 Those skilled in the art can appropriately select an arbitrary method from known methods such as calculating from the intensity of L2 and L3.

<6−6>
レーザL1は、近赤外線に限られず、中赤外線や遠赤外線であってもよいし、赤外線以外の波であってもよい。また、デジタルカメラ20は、カラー画像データの代わりに、白黒画像データや赤外線画像データ等の他の種類の画像を撮像するカメラであってもよい。なお、デジタルカメラ20がカラー画像データの代わりに赤外線画像データを撮像する場合には、照射源11から照射されるレーザL1を可視光線等の赤外線以外の波としたり、同じ赤外線であってもレーザL1とは異なる波長領域の赤外線とする等、受光面22で異なる種類の波長領域の波を選択的に受光できるようにする必要がある。
<6-6>
The laser L1 is not limited to near infrared rays, but may be mid infrared rays or far infrared rays, or may be waves other than infrared rays. The digital camera 20 may be a camera that captures other types of images such as black and white image data and infrared image data instead of color image data. When the digital camera 20 captures infrared image data instead of color image data, the laser L1 emitted from the irradiation source 11 is a wave other than infrared rays such as visible rays, or even the same infrared ray is a laser. It is necessary to be able to selectively receive waves of different types of wavelength regions on the light receiving surface 22, such as infrared rays having a wavelength region different from L1.

<6−7>
デジタルカメラ20は、平面的な画像データを撮像するものに限らず、一定の間隔を空けて略平行に並ぶ左眼用及び右眼用の2つの光学系を有するもの等、立体画像データを撮像可能なものであってもよい。このように、デジタルカメラ20自体が立体的な画像データを撮像する場合には、測距センサー10で撮像される距離データを奥行き情報の補正用に使用することができる。
<6-7>
The digital camera 20 is not limited to capturing planar image data, and captures stereoscopic image data such as a camera having two optical systems for the left eye and the right eye that are arranged in parallel at a certain interval. It may be possible. As described above, when the digital camera 20 itself captures stereoscopic image data, the distance data captured by the distance measuring sensor 10 can be used for correcting depth information.

<6−8>
デジタルカメラ20は、例えば、魚眼レンズカメラや、全方位カメラ等、任意のタイプのカメラとすることができる。
<6−9>
合成データから得られる三次元画像データは、上述したものに限られず、立体的な視覚を得ることが可能な任意のタイプの画像データとすることができる。
<6-8>
The digital camera 20 can be an arbitrary type of camera such as a fisheye lens camera or an omnidirectional camera.
<6-9>
The three-dimensional image data obtained from the composite data is not limited to the one described above, and can be any type of image data that can obtain a stereoscopic vision.

<6−10>
赤外線画像データIIR(n)に係る画像に含まれる全ての画素のうち、レーザL1の反射波L2を捉えた画素を特定する態様は、上述したもの、すなわち、画素値が所定範囲に収まる画素を検出する態様に限られない。例えば、レーザL1を照射していないタイミングでIR受光面により撮像される赤外線画像データと比較し、画素値が有意に大きい画素を検出してもよい。
<6-10>
Among all the pixels included in the image related to the infrared image data I IR (n), the mode for identifying the pixel that captures the reflected wave L2 of the laser L1 is as described above, that is, a pixel whose pixel value falls within a predetermined range. It is not restricted to the aspect which detects. For example, a pixel having a significantly large pixel value may be detected by comparing with infrared image data captured by the IR light receiving surface at a timing when the laser L1 is not irradiated.

<6−11>
測距センサー10の照射源11からのレーザL1の走査の態様は、面的な走査に限られず、例えば、数点のみを走査するものとしてもよいし、線的に走査するものとしてもよい。
<6−12>
デジタルカメラ10から対象空間S1内の物体までの距離データがより正確に得られるよう、測距センサー10により測定される、測距センサー10から物体までの距離データを補正してもよい。例えば、測距センサー10とデジタルカメラ10の位置関係に関するパラメータ等をコンピュータ30の記憶部32に予め記憶させておけば、これを利用することができる。また、位置決めユニット40による回転軸41の、ひいては測距センサー10の回転運動及び伸縮運動の情報も利用することができる。
<6-11>
The mode of scanning of the laser L1 from the irradiation source 11 of the distance measuring sensor 10 is not limited to planar scanning. For example, only a few points may be scanned, or linear scanning may be performed.
<6-12>
The distance data from the distance measuring sensor 10 to the object measured by the distance measuring sensor 10 may be corrected so that the distance data from the digital camera 10 to the object in the target space S1 can be obtained more accurately. For example, if parameters relating to the positional relationship between the distance measuring sensor 10 and the digital camera 10 are stored in the storage unit 32 of the computer 30 in advance, this can be used. In addition, information on the rotational movement and expansion / contraction movement of the rotation shaft 41 of the positioning unit 40, and thus the distance measuring sensor 10, can also be used.

<6−13>
RGB受光面の撮像範囲とIR受光面の撮像範囲とは、完全に同じである必要はなく、一部のみが重複するものであってもよい。このような構成を実現するためには、例えば、近接した2つの光学系を用意し、これら2つの光学系を介して入射される波をそれぞれRGB受光面とIR受光面で受光するようにすればよい。また、RGB受光面の撮像範囲内の重複領域と、IR受光面の撮像範囲内の重複領域との対応関係を示すデータを、予め算出してコンピュータ30の記憶部32内に格納しておく等し、ステップS13で特別な画像処理を実行せずともこの対応関係を把握できるようにしておくことが望ましい。
<6-13>
The imaging range of the RGB light receiving surface and the imaging range of the IR light receiving surface do not have to be completely the same, and only a part of them may overlap. In order to realize such a configuration, for example, two adjacent optical systems are prepared, and waves incident through these two optical systems are received by the RGB light receiving surface and the IR light receiving surface, respectively. That's fine. In addition, data indicating the correspondence between the overlapping area in the imaging range of the RGB light receiving surface and the overlapping area in the imaging range of the IR light receiving surface is calculated in advance and stored in the storage unit 32 of the computer 30. However, it is desirable to be able to grasp this correspondence without executing special image processing in step S13.

<6−14>
カラー画像データと赤外線画像データの解像度は、等しくなくてもよく、例えば、後者の方が小さくていもよい。ただし、測距センサー10の解像度N1×N2と、赤外線画像データの解像度とは、等しいことが望ましい。赤外線画像データは、測距センサー10で距離データが測定された時の走査位置を示す画像データであるからである。
<6-14>
The resolution of the color image data and the infrared image data may not be equal. For example, the latter may be smaller. However, it is desirable that the resolution N1 × N2 of the distance measuring sensor 10 and the resolution of the infrared image data are equal. This is because the infrared image data is image data indicating a scanning position when the distance data is measured by the distance measuring sensor 10.

1 撮像システム
10 測距センサー
11 照射源
12 受光面(第3受光面)
13 制御部(測定部)
20 デジタルカメラ
21 光学系
22 受光面(撮像部)
23 制御部(画像形成部)
30 コンピュータ
31 制御部
31a 重畳部
31b 三次元処理部
L1 レーザ
L2,L3 レーザの反射波
P1,P2 人物(被写体)
S1 対象空間(被写体)
DESCRIPTION OF SYMBOLS 1 Imaging system 10 Distance sensor 11 Irradiation source 12 Light receiving surface (3rd light receiving surface)
13 Control unit (measurement unit)
20 Digital camera 21 Optical system 22 Light-receiving surface (imaging part)
23 Control unit (image forming unit)
30 Computer 31 Control unit 31a Superimposition unit 31b Three-dimensional processing unit L1 Laser L2, L3 Laser reflected waves P1, P2 Person (subject)
S1 Target space (subject)

Claims (8)

レーザを照射する照射源と、
前記レーザと異なる波長領域の波に選択的に感応する第1受光面と、前記第1受光面と同じ撮像範囲を捉え、前記レーザの波長領域の波に選択的に感応する第2受光面とを有する撮像部と、
前記照射源から照射され、被写体で反射した前記レーザの反射波に基づいて、前記被写体までの距離データを測定する測定部と、
前記第1受光面で受光された波に基づいて、前記被写体の画像データを形成する画像形成部と、
前記第2受光面上の前記反射波を受光した受光素子を特定し、前記画像データに含まれる、前記特定された受光素子に対応する画素データに前記距離データを対応付けることにより、前記画像データに前記距離データを重畳した合成データを生成する重畳部と
を備える、撮像システム。
An irradiation source for irradiating a laser;
A first light-receiving surface that is selectively sensitive to waves in a wavelength region different from the laser; and a second light-receiving surface that captures the same imaging range as the first light-receiving surface and is selectively sensitive to waves in the wavelength region of the laser; An imaging unit having
A measurement unit that measures distance data to the subject based on a reflected wave of the laser emitted from the irradiation source and reflected by the subject;
An image forming unit for forming image data of the subject based on the wave received by the first light receiving surface;
A light receiving element that has received the reflected wave on the second light receiving surface is identified, and the distance data is associated with pixel data corresponding to the identified light receiving element included in the image data. An imaging system comprising: a superimposing unit that generates composite data in which the distance data is superimposed.
前記反射波を受光する第3受光面
をさらに備え、
前記測定部は、前記第3受光面で受光された前記反射波に基づいて、前記距離データを測定する、
請求項1に記載の撮像システム。
A third light receiving surface for receiving the reflected wave;
The measuring unit measures the distance data based on the reflected wave received by the third light receiving surface;
The imaging system according to claim 1.
前記測定部は、前記第2受光面で受光された前記反射波に基づいて、前記距離データを測定する、
請求項1に記載の撮像システム。
The measuring unit measures the distance data based on the reflected wave received by the second light receiving surface;
The imaging system according to claim 1.
前記合成データを参照することにより、前記被写体の三次元画像データを形成する三次元処理部
をさらに備える、
請求項1から3のいずれかに記載の撮像システム。
Further comprising a three-dimensional processing unit that forms three-dimensional image data of the subject by referring to the composite data;
The imaging system according to claim 1.
前記照射源は、前記レーザを走査し、
前記測定部は、前記走査された前記レーザの前記反射波に基づいて、前記距離データを順次測定し、
前記重畳部は、前記第2受光面上の、前記走査された前記レーザの前記反射波を受光した受光素子を順次特定し、前記順次特定される受光素子に対応する画素データに前記距離データを順次対応付けることにより、前記画像データに前記距離データを順次重畳する、
請求項1から4のいずれかに記載の撮像システム。
The irradiation source scans the laser;
The measurement unit sequentially measures the distance data based on the reflected wave of the scanned laser,
The superimposing unit sequentially identifies a light receiving element that has received the reflected wave of the scanned laser on the second light receiving surface, and adds the distance data to pixel data corresponding to the sequentially specified light receiving element. By sequentially associating, the distance data is sequentially superimposed on the image data.
The imaging system according to claim 1.
前記第1受光面及び前記第2受光面に共通する光学系
をさらに備える、
請求項1から5のいずれかに記載の撮像システム。
An optical system common to the first light receiving surface and the second light receiving surface;
The imaging system according to claim 1.
前記第1受光面で受光される波は、可視光線であり、
前記レーザは、赤外線である、
請求項1から6のいずれかに記載の撮像システム。
The wave received by the first light receiving surface is visible light,
The laser is infrared;
The imaging system according to claim 1.
第1波長領域の波に選択的に感応する第1受光面と、前記第1受光面と同じ撮像範囲を捉え、第2波長領域の波に選択的に感応する第2受光面とを有する撮像システムを用いて、被写体を撮像する撮像方法であって、
前記第2波長領域のレーザを照射源から照射するステップと、
前記照射源から照射され、前記被写体で反射した前記レーザの反射波に基づいて、前記撮像システムから前記被写体までの距離データを測定するステップと、
前記第1受光面で受光された前記第1波長領域の波に基づいて、前記被写体の画像データを形成するステップと、
前記第2受光面上の前記反射波を受光した受光素子を特定し、前記被写体の画像データに含まれる、前記特定された受光素子に対応する画素データに前記距離データを対応付けることにより、前記画像データに前記距離データを重畳した合成データを生成するステップと
を備える、撮像方法。
Imaging having a first light receiving surface that is selectively sensitive to waves in the first wavelength region, and a second light receiving surface that captures the same imaging range as the first light receiving surface and is selectively sensitive to waves in the second wavelength region An imaging method for imaging a subject using a system,
Irradiating a laser of the second wavelength region from an irradiation source;
Measuring distance data from the imaging system to the subject based on a reflected wave of the laser emitted from the illumination source and reflected by the subject;
Forming image data of the subject based on the wave in the first wavelength region received by the first light receiving surface;
By identifying a light receiving element that has received the reflected wave on the second light receiving surface and associating the distance data with pixel data corresponding to the identified light receiving element included in the image data of the subject, the image Generating synthetic data obtained by superimposing the distance data on the data.
JP2012072284A 2012-03-27 2012-03-27 Imaging system and imaging method Pending JP2013207415A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012072284A JP2013207415A (en) 2012-03-27 2012-03-27 Imaging system and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012072284A JP2013207415A (en) 2012-03-27 2012-03-27 Imaging system and imaging method

Publications (1)

Publication Number Publication Date
JP2013207415A true JP2013207415A (en) 2013-10-07

Family

ID=49526131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012072284A Pending JP2013207415A (en) 2012-03-27 2012-03-27 Imaging system and imaging method

Country Status (1)

Country Link
JP (1) JP2013207415A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015075926A1 (en) * 2013-11-20 2015-05-28 パナソニックIpマネジメント株式会社 Distance measurement and imaging system
JP2016151423A (en) * 2015-02-16 2016-08-22 株式会社トプコン Posture detection device and data acquisition device
JP2016151422A (en) * 2015-02-16 2016-08-22 株式会社トプコン Measurement device and three-dimensional camera
JP2017505734A (en) * 2014-01-31 2017-02-23 ハフ ヒュエルスベック ウント フュルスト ゲーエムベーハー ウント コー. カーゲー Automotive mark with sensor system and method of operating the same
JPWO2015166714A1 (en) * 2014-05-02 2017-04-20 富士フイルム株式会社 Ranging device, ranging method, and ranging program
KR20180081007A (en) * 2017-01-05 2018-07-13 (주)카네비컴 Wide angle LiDAR and operation method thereof
CN108574796A (en) * 2017-03-08 2018-09-25 英特尔公司 The digital camera method and apparatus applied and optimized for computer vision
JP2019078716A (en) * 2017-10-27 2019-05-23 キヤノン株式会社 Distance measuring device, distance measuring system, imaging apparatus, mobile body, method for controlling distance measuring device, and program
JP2019138889A (en) * 2018-02-07 2019-08-22 直之 村上 Method of calculating three-dimensional driving value of three-dimensional numerical-driven control device by driving measurement of tracking laser distance instrument
JP2020008531A (en) * 2018-07-12 2020-01-16 ファナック株式会社 Distance measuring device with distance correction function
JP2020030189A (en) * 2018-08-24 2020-02-27 独立行政法人日本スポーツ振興センター Position measuring system and position measuring method
JPWO2021005659A1 (en) * 2019-07-05 2021-01-14
CN112513677A (en) * 2018-09-28 2021-03-16 松下知识产权经营株式会社 Depth acquisition device, depth acquisition method, and program
WO2021131431A1 (en) * 2019-12-25 2021-07-01 ソニーセミコンダクタソリューションズ株式会社 Light-receiving device, method for controlling light-receiving device, and electronic apparatus
US11953600B2 (en) 2019-05-13 2024-04-09 Ouster, Inc. Synchronized image capturing for electronic scanning LIDAR systems comprising an emitter controller and plural sensor controllers
CN111699412B (en) * 2018-02-07 2024-05-31 村上直之 Method for calculating three-dimensional driving value of three-dimensional numerical driving control instrument by using driving measurement of laser tracking distance meter

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108919294A (en) * 2013-11-20 2018-11-30 松下知识产权经营株式会社 Ranging camera system and solid-state imager
US11175406B2 (en) 2013-11-20 2021-11-16 Nuvoton Technology Corporation Japan Range imaging system and solid-state imaging device
CN105723239B (en) * 2013-11-20 2020-12-18 松下半导体解决方案株式会社 Distance measurement imaging system and solid-state imaging element
JPWO2015075926A1 (en) * 2013-11-20 2017-03-16 パナソニックIpマネジメント株式会社 Ranging imaging system
CN105723239A (en) * 2013-11-20 2016-06-29 松下知识产权经营株式会社 Distance measurement and imaging system
WO2015075926A1 (en) * 2013-11-20 2015-05-28 パナソニックIpマネジメント株式会社 Distance measurement and imaging system
US10302766B2 (en) 2013-11-20 2019-05-28 Panasonic Intellectual Property Management Co., Ltd. Range imaging system and solid-state imaging device
JP2018185342A (en) * 2013-11-20 2018-11-22 パナソニックIpマネジメント株式会社 Ranging imaging system
CN108919294B (en) * 2013-11-20 2022-06-14 新唐科技日本株式会社 Distance measurement imaging system and solid-state imaging element
JP2021139285A (en) * 2014-01-31 2021-09-16 ハフ ヒュエルスベック ウント フュルスト ゲーエムベーハー ウント コー. カーゲー Emblem for automobile with sensor system and operating method thereof
JP2017505734A (en) * 2014-01-31 2017-02-23 ハフ ヒュエルスベック ウント フュルスト ゲーエムベーハー ウント コー. カーゲー Automotive mark with sensor system and method of operating the same
JPWO2015166714A1 (en) * 2014-05-02 2017-04-20 富士フイルム株式会社 Ranging device, ranging method, and ranging program
US11137496B2 (en) 2014-05-02 2021-10-05 Fujifilm Corporation Distance measurement device, distance measurement method, and distance measurement program
US10627513B2 (en) 2014-05-02 2020-04-21 Fujifilm Corporation Distance measurement device, distance measurement method, and distance measurement program
US11650315B2 (en) 2014-05-02 2023-05-16 Fujifilm Corporation Distance measurement device, distance measurement method, and distance measurement program
JP2016151423A (en) * 2015-02-16 2016-08-22 株式会社トプコン Posture detection device and data acquisition device
JP2016151422A (en) * 2015-02-16 2016-08-22 株式会社トプコン Measurement device and three-dimensional camera
KR20180081007A (en) * 2017-01-05 2018-07-13 (주)카네비컴 Wide angle LiDAR and operation method thereof
KR102084302B1 (en) * 2017-01-05 2020-03-03 (주)카네비컴 Wide angle LiDAR and operation method thereof
CN108574796A (en) * 2017-03-08 2018-09-25 英特尔公司 The digital camera method and apparatus applied and optimized for computer vision
JP7057097B2 (en) 2017-10-27 2022-04-19 キヤノン株式会社 Control methods and programs for distance measuring devices, distance measuring systems, imaging devices, moving objects, and distance measuring devices
JP2019078716A (en) * 2017-10-27 2019-05-23 キヤノン株式会社 Distance measuring device, distance measuring system, imaging apparatus, mobile body, method for controlling distance measuring device, and program
WO2019156186A3 (en) * 2018-02-07 2019-10-10 直之 村上 Method for using driven measurement by tracking laser rangefinder to calculate three-dimensional drive value for device controlled by three-dimensional numerical driving
CN111699412B (en) * 2018-02-07 2024-05-31 村上直之 Method for calculating three-dimensional driving value of three-dimensional numerical driving control instrument by using driving measurement of laser tracking distance meter
CN111699412A (en) * 2018-02-07 2020-09-22 村上直之 Method for calculating three-dimensional driving numerical value of three-dimensional numerical value driving control instrument by using driving measurement of laser tracking distance measuring instrument
JP2019138889A (en) * 2018-02-07 2019-08-22 直之 村上 Method of calculating three-dimensional driving value of three-dimensional numerical-driven control device by driving measurement of tracking laser distance instrument
US11536814B2 (en) 2018-07-12 2022-12-27 Fanuc Corporation Distance measuring apparatus having distance correction function
JP2020008531A (en) * 2018-07-12 2020-01-16 ファナック株式会社 Distance measuring device with distance correction function
JP2020030189A (en) * 2018-08-24 2020-02-27 独立行政法人日本スポーツ振興センター Position measuring system and position measuring method
CN112513677A (en) * 2018-09-28 2021-03-16 松下知识产权经营株式会社 Depth acquisition device, depth acquisition method, and program
US11953600B2 (en) 2019-05-13 2024-04-09 Ouster, Inc. Synchronized image capturing for electronic scanning LIDAR systems comprising an emitter controller and plural sensor controllers
WO2021005659A1 (en) * 2019-07-05 2021-01-14 パナソニックセミコンダクターソリューションズ株式会社 Information processing system, sensor system, information processing method, and program
JP7372970B2 (en) 2019-07-05 2023-11-01 ヌヴォトンテクノロジージャパン株式会社 Information processing system, sensor system, information processing method and program
JPWO2021005659A1 (en) * 2019-07-05 2021-01-14
WO2021131431A1 (en) * 2019-12-25 2021-07-01 ソニーセミコンダクタソリューションズ株式会社 Light-receiving device, method for controlling light-receiving device, and electronic apparatus

Similar Documents

Publication Publication Date Title
JP2013207415A (en) Imaging system and imaging method
JP6641470B2 (en) Stereo camera and stereo camera control method
JP5929553B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6305053B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
CN102494609B (en) Three-dimensional photographing process based on laser probe array and device utilizing same
US20140168424A1 (en) Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene
US9253470B2 (en) 3D camera
JP6822230B2 (en) Imaging device and imaging method
US10298858B2 (en) Methods to combine radiation-based temperature sensor and inertial sensor and/or camera output in a handheld/mobile device
CN105472237B (en) Picture pick-up device and image capture method
JP2015049200A (en) Measuring device, measuring method, and measuring program
US10122910B2 (en) Focus detection device and image-capturing apparatus
KR101175780B1 (en) 3-Dimension depth camera using the Infrared laser projection display
JP2023115356A (en) Measurement device, imaging device, control method, and program
JP2011044970A (en) Photographing system
US20200128188A1 (en) Image pickup device and image pickup system
TW201804366A (en) Image processing device and related depth estimation system and depth estimation method
JP2018134712A (en) Robot system and control method for robot system
US9794468B2 (en) Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method of image capturing apparatus using pupil division in different directions
JP2016048825A (en) Imaging apparatus
JP2022106868A (en) Imaging device and method for controlling imaging device
JP2014194502A (en) Imaging apparatus and imaging system
JP2016046774A (en) Imaging device
KR101839357B1 (en) Imaging apparatus and imaging method
JP7446455B2 (en) Location information acquisition system, location information acquisition method, and location information acquisition device