JP2022036339A - センサフュージョンシステム、同期制御装置、及び同期制御方法 - Google Patents

センサフュージョンシステム、同期制御装置、及び同期制御方法 Download PDF

Info

Publication number
JP2022036339A
JP2022036339A JP2018193152A JP2018193152A JP2022036339A JP 2022036339 A JP2022036339 A JP 2022036339A JP 2018193152 A JP2018193152 A JP 2018193152A JP 2018193152 A JP2018193152 A JP 2018193152A JP 2022036339 A JP2022036339 A JP 2022036339A
Authority
JP
Japan
Prior art keywords
unit
light
light source
pixel
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018193152A
Other languages
English (en)
Inventor
正剛 斉藤
Masatake Saito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2018193152A priority Critical patent/JP2022036339A/ja
Priority to EP19870087.4A priority patent/EP3865911B1/en
Priority to PCT/JP2019/038088 priority patent/WO2020075525A1/ja
Priority to US17/282,986 priority patent/US20210341616A1/en
Publication of JP2022036339A publication Critical patent/JP2022036339A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/767Horizontal readout lines, multiplexers or registers

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

【課題】測距装置と撮像装置とを同期させてフュージョン認識性能を向上させることができるようにする。【解決手段】光源部を含む光源モジュールと光源制御部と受光部とを備える測距装置と、画素部とAD変換部と露光制御部とを備える撮像装置と、光源部が所定の領域へ光を出射するタイミングと、所定の領域に対応する画素群が露光するタイミングとが同期するように、光源制御部と露光制御部とを制御する同期制御部とを具備するセンサフュージョンシステムが提供される。本開示は、例えば、ライダとイメージャとを同期させて使用するセンサフュージョンシステムに適用することができる。【選択図】図10

Description

本開示は、センサフュージョンシステム、同期制御装置、及び同期制御方法に関し、特に、測距装置と撮像装置とを同期させてフュージョン認識性能を向上させたセンサフュージョンシステム、同期制御装置、及び同期制御方法に関する。
近年、様々な種類のセンサが普及しており、複数の種類のセンサを組み合わせた技術の開発も行われている(例えば、特許文献1参照)。
特開2015-212941号公報
ところで、複数の種類のセンサの組み合わせとして、測距装置と撮像装置との組み合わせがある。しかしながら、測距装置と撮像装置とを同期させてフュージョン認識性能を向上させるための技術の方式は確立されておらず、測距装置と撮像装置とを同期させるための技術が求められていた。
本開示はこのような状況に鑑みてなされたものであり、測距装置と撮像装置とを同期させてフュージョン認識性能を向上させることができるようにするものである。
本開示の一側面のセンサフュージョンシステムは、第1の方向に延びる光を出射する光源部と、前記第1の方向と直交する第2の方向へ前記光の出射方向を駆動する駆動部とを有する光源モジュールと、前記光源部が前記光を出射するタイミングを制御する光源制御部と、所定の受光範囲を有し、前記光源部から出射されて物体で反射された前記光を受光する受光部と、前記光源部が前記光を出射してから前記受光部が前記物体で反射された前記光を受光するまでの時間を計測する時間計測部と、計測した前記時間に基づいて、前記受光部又は前記光源モジュールから前記物体までの距離を算出する距離算出部とを備える測距装置と、2次元状に配置される複数の画素を有し、前記光源部が光を出射する出射範囲の少なくとも一部を含む撮像範囲を有する画素部と、前記第1の方向に並べて配置され、前記画素部にて前記第1の方向に並んだ画素群から出力された信号をAD変換するAD変換部と、前記複数の画素が前記第2の方向へ走査されるように前記複数の画素の露光を制御する露光制御部とを備える撮像装置と、前記光源部が所定の領域へ前記光を出射するタイミングと、前記所定の領域に対応する前記画素群が露光するタイミングとが同期するように、前記光源制御部と前記露光制御部とを制御する同期制御部とを具備するセンサフュージョンシステムである。
本開示の一側面のセンサフュージョンシステムにおいては、測距装置によって、第1の方向に延びる光を出射する光源部と第1の方向と直交する第2の方向へ光の出射方向を駆動する駆動部とを有する光源モジュールにおける光源部が光を出射するタイミングが制御され、所定の受光範囲を有して光源部から出射されて物体で反射された光が受光され、光源部が光を出射してから受光部が物体で反射された光を受光するまでの時間が計測され、計測された時間に基づいて、受光部又は光源モジュールから物体までの距離が算出される。また、撮像装置によって、第1の方向に並べて配置され、2次元状に配置される複数の画素を有し、光源部が光を出射する出射範囲の少なくとも一部を含む撮像範囲を有する画素部にて第1の方向に並んだ画素群から出力された信号がAD変換され、複数の画素が第2の方向へ走査されるように複数の画素の露光が制御される。そして、同期制御部によって、光源部が所定の領域へ光を出射するタイミングと、所定の領域に対応する画素群が露光するタイミングとが同期するように、光源制御部と露光制御部とが制御される。
本開示の一側面の同期制御装置は、測距装置と撮像装置との同期を制御する同期制御装置において、前記測距装置は、第1の方向に延びる光を出射する光源部と、前記第1の方向と直交する第2の方向へ前記光の出射方向を駆動する駆動部とを有する光源モジュールと、前記光源部が前記光を出射するタイミングを制御する光源制御部と、所定の受光範囲を有し、前記光源部から出射されて物体で反射された前記光を受光する受光部と、前記光源部が前記光を出射してから前記受光部が前記物体で反射された前記光を受光するまでの時間を計測する時間計測部と、計測した前記時間に基づいて、前記受光部又は前記光源モジュールから前記物体までの距離を算出する距離算出部とを備え、前記撮像装置は、2次元状に配置される複数の画素を有し、前記光源部が光を出射する出射範囲の少なくとも一部を含む撮像範囲を有する画素部と、前記第1の方向に並べて配置され、前記画素部にて前記第1の方向に並んだ画素群から出力された信号をAD変換するAD変換部と、前記複数の画素が前記第2の方向へ走査されるように前記複数の画素の露光を制御する露光制御部とを備え、前記光源部が所定の領域へ前記光を出射するタイミングと、前記所定の領域に対応する前記画素群が露光するタイミングとが同期するように、前記光源制御部と前記露光制御部とを制御する同期制御部を具備する同期制御装置である。
本開示の一側面の同期制御方法は、上述した本開示の一側面の同期制御装置に対応する同期制御方法である。
本開示の一側面の同期制御装置及び同期制御方法においては、光源部が所定の領域へ光を出射するタイミングと、所定の領域に対応する画素群が露光するタイミングとが同期するように、光源制御部と露光制御部とが制御される。
なお、測距装置、撮像装置、及び同期制御装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。
本開示に係る技術を適用したセンサフュージョンシステムの構成の例を示す図である。 測距装置による2次元スキャン方式の光源制御の第1の例を示す図である。 測距装置による2次元スキャン方式の光源制御の第2の例を示す図である。 測距装置による1次元スキャン方式の光源制御の例を示す図である。 1次元スキャン方式として往復方向スキャンで光源照射を行う場合の機構の例を示す図である。 1次元スキャン方式として往復方向スキャンで光源照射を行う場合の移動物体の伸縮の例を示す図である。 撮像装置におけるイメージセンサの構成の第1の例を示す図である。 撮像装置におけるイメージセンサの構成の第2の例を示す図である。 撮像装置におけるイメージセンサの構成の第3の例を示す図である。 本開示に係る技術を適用したセンサフュージョンシステムの詳細な構成の例を示す図である。 同期制御装置における設定レジスタ部による設定レジスタの例を示す図である。 設定レジスタの具体的な例を示す図である。 イメージセンサの画素部に配置された複数の画素における、レーザ受光部の受光面におけるレーザ光を受光する点群との関係の例を示す図である。 露光ライン数の設定の例を示す図である。 行並列ADC方式を用いたイメージセンサの構成の第1の例を示す図である。 行並列ADC方式を用いたイメージセンサの構成の第2の例を示す図である。 行並列ADC方式を用いたイメージセンサにおけるリセット成分と信号成分の読み出しの例を示すタイミングチャートである。 左から右方向へのスキャン時の露光タイミングの例を示すタイミングチャートである。 右から左方向へのスキャン時の露光タイミングの例を示すタイミングチャートである。 ブランキング期間を活かした時分割使用方式を用いた場合における露光タイミングの切り替えの第1の例を示すタイミングチャートである。 ブランキング期間を活かした時分割使用方式を用いた場合における露光タイミングの切り替えの第2の例を示すタイミングチャートである。 イメージセンサの画素部に配置された複数の画素に含まれる余剰画素の位置の例を示す図である。 空間分割使用方式を用いた異なるスキャン方向に対応した画像の同時並列撮像の例を示す図である。 空間分割使用方式を用いた場合における露光タイミングの切り替えの第1の例を示すタイミングチャートである。 空間分割使用方式を用いた場合における露光タイミングの切り替えの第2の例を示すタイミングチャートである。 余剰画素の使用の第1の例を示す図である。 余剰画素の使用の第2の例を示す図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、図面を参照しながら本開示に係る技術(本技術)の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.本技術の実施の形態
2.変形例
3.移動体への応用例
<1.本技術の実施の形態>
(センサフュージョンシステムの構成)
図1は、本開示に係る技術を適用したセンサフュージョンシステムの構成の例を示す図である。
センサフュージョンシステム1は、測距装置10と撮像装置20とを同期させて、距離画像(距離情報)と撮像画像(2次元画像、以下、2D画像と記述する)とを融合した物体認識を行うことが可能なシステムである。
図1において、センサフュージョンシステム1は、測距装置10、撮像装置20、同期制御装置30、及び画像フュージョン装置40から構成される。また、センサフュージョンシステム1は、所定のインターフェースを介して物体認識装置2と接続される。
測距装置10は、物体3に光を照射して距離を測定する装置である。例えば、測距装置10は、ライダ(LiDAR:Light Detection and Ranging)などとして構成される。
測距装置10は、同期制御装置30からの同期信号及び設定情報に従い、光源部から出射される光を物体3に照射してその反射光を受光部により受光して、光を出射してから反射光を受光するまでの時間を計測することで、計測した時間に基づき、光源部又は受光部から物体3までの距離を算出する。測距装置10は、算出した距離情報(距離画像)のデータを、画像フュージョン装置40に出力する。
撮像装置20は、物体3を撮像する装置である。例えば、撮像装置20は、イメージセンサを有するイメージャ(Imager)などとして構成される。ここで、イメージセンサは、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサ、又は有機光電変換膜を用いたイメージセンサなど、光電変換素子を含む画素が2次元状に配置された画素部(画素アレイ部)やAD変換部などを有している。
撮像装置20は、同期制御装置30からの同期信号及び設定情報に従い、光学レンズ系を介して物体3からの入射光(像光)を取り込んで、イメージセンサの撮像面上に結像された入射光の光量を画素単位で電気信号に変換することで、2D画像を生成する。撮像装置20は、2D画像のデータを、画像フュージョン装置40に出力する。
同期制御装置30は、測距装置10の動作と撮像装置20の動作との同期を制御する装置である。例えば、同期制御装置30は、CPU(Central Processing Unit)、マイクロコンピュータ、FPGA(Field Programmable Gate Array)などを含んで構成される。
同期制御装置30は、測距装置10の光源が物体3の所定の領域に光を出射するタイミングと、撮像装置20にて所定の領域に対応する画素群が露光するタイミングとが同期するための同期信号及び設定情報を生成し、測距装置10と撮像装置20にそれぞれ出力する。
画像フュージョン装置40は、測距装置10から出力される距離画像と、撮像装置20から出力される2D画像とをフュージョンし、その結果得られるフュージョン情報(フュージョン画像)を、物体認識装置2に出力する。例えば、画像フュージョン装置40は、CPUやGPU(Graphics Processing Unit)、マイクロコンピュータ、FPGAや各種のメモリなどを含んで構成される。
なお、物体認識装置2では、センサフュージョンシステム1(の画像フュージョン装置40)から出力されるフュージョン情報に基づき、物体認識処理が行われ、物体3が認識される。例えば、センサフュージョンシステム1が車両に搭載される場合、当該車両の周辺に存在する物体3として、歩行者や他の車両、障害物などが認識される。
以上のように構成されるセンサフュージョンシステム1では、測距装置10で得られる距離画像と、撮像装置20で得られる2D画像とをフュージョンして物体認識処理を行っているが、その理由としては、例えば、次のような理由を挙げることができる。
すなわち、ライダ等の測距装置10単体では、物体3までの距離情報(距離画像)を得ることができるが、その形状に関する情報を得ることはできない。また、測距装置10で得られる距離画像は、撮像装置20で得られる2D画像と比べてその解像度が低く、距離画像を用いた物体認識処理による認識性能は十分であるとは言い難い。
一方で、イメージャ等の撮像装置20単体では、物体3の2D画像が得られるため、2次元の面内での物体3の形状を認識することができるが、奥行きに関する情報を得ることはできない。そのため、2D画像を用いた物体認識処理では、例えば写真の看板などを誤認識する可能性がある。
そこで、センサフュージョンシステム1においては、測距装置10で得られる距離画像と、撮像装置20で得られる2D画像とをフュージョンして、3次元での物体認識処理が行われるようにすることで、その認識性能(フュージョン認識性能)を向上させるようにしている。
その際に、距離画像と2D画像との同期がとれた状態でフュージョンしないと、時間ずれや位置ずれのために、3次元の認識性能を十分に向上させることができない。そこで、センサフュージョンシステム1では、測距装置10と撮像装置20との同期を通じて、3次元の認識性能が向上するようにする。
(測距装置のスキャン方式)
ここで、測距装置10のスキャン方式としては、ビーム状の光を用いて測距対象空間内を走査する方式であるビームスキャン方式がある。
このビームスキャン方式には、2次元スキャン方式と1次元スキャン方式がある。2次元スキャン方式では、1点のレーザビームを使用して2次元方向にスキャンされる。1次元スキャン方式では、複数のレーザビームを直線状(1次元方向)に並べるか、又は1点のレーザビーム(単一の光源)を直線状に拡散することで1次元に照射し、直交する1次元方向にスキャンされる。
各スキャン軸には、速度と方向に関する属性がある。2次元スキャン方式においては、高速スキャン軸と低速スキャン軸という直交する2つのスキャン軸が存在し、各スキャン軸は片側方向スキャン又は往復方向スキャンのいずれかのスキャンパターンとなる。一方、1次元スキャン方式においては、低速スキャン軸のみが存在し、片側方向スキャン又は往復方向スキャンのいずれかのスキャンパターンとなる。
ただし、高速スキャン軸はレーザビームを高速にスキャンする方向軸であり、低速スキャン軸はレーザビームを低速にスキャンする方向軸であって、いずれのスキャン軸も水平方向の場合と垂直方向の場合が存在する。
また、片側方向スキャンは、対象スキャン軸に対して同一方向に固定でスキャンする方式である。一方で、往復方向スキャンは、対象スキャン軸に対して往復方向(一方の方向とその反対の方向)に交互にスキャンする方式である。
ここで、図2ないし図4を参照して、測距装置10におけるスキャン方式の具体的な例を説明する。
図2,図3は、ビームスキャン方式における2次元スキャン方式の例を示している。図2は、2次元スキャン方式における高速スキャン軸が片側方向スキャンの例として、垂直方向の高速スキャン軸が上から下方向に固定されている。このとき、水平方向の低速スキャン軸は、左から右方向又は右から左方向のどちらかにスキャン方向を固定した場合と、フレーム毎にスキャン方向を反転した場合を示している。また、図3は、2次元スキャン方式における高速スキャン軸が往復方向スキャンの例として、垂直方向の高速スキャン軸が上から下方向と下から上方向に交互に反転する。このとき、水平方向の低速スキャン軸は、左から右方向又は右から左方向のどちらかにスキャン方向を固定した場合と、フレーム毎にスキャン方向を反転した場合を示している。
図4は、ビームスキャン方式における1次元スキャン方式の例を示している。図4においては、1次元スキャン方式における低速スキャン軸が片側方向スキャンの例として、水平方向の低速スキャン軸は、左から右方向又は右から左方向からのどちらかにスキャン方向を固定した場合を示している。また、図4においては、1次元スキャン方式における低速スキャン軸が往復方向スキャンの例として、水平方向の低速スキャン軸はフレーム毎にスキャン方向を反転した場合を示している。
ここで、図5,図6を参照して、ビームスキャン方式の1次元スキャン方式において、低速スキャン軸が水平方向の往復方向スキャンによって光源照射を行う場合の構成の例として、図5に示した光源モジュールを用いた構成を説明する。図5の光源モジュールは、光源部161、1軸ガルバノミラー162、及び拡散レンズ163を含む。
図5において、光源部161から出射されたレーザ光は、1軸ガルバノミラー162により反射されることで水平方向に走査され、拡散レンズ163に入射される。拡散レンズ163では、1軸ガルバノミラー162によって水平方向に走査されたレーザ光が、垂直方向に拡散されることで、1軸ガルバノミラー162による往復揺動スキャンがなされる。
このように、測距装置10においては、1軸ガルバノミラー162等を含む光源モジュールを用いることで、各フレーム内を、左から右方向への第1の方向と、右から左方向への第2の方向(第1の方向と反対の向きの方向)のように、交互に往復スキャンすることができる。ここで、図6には、1軸ガルバノミラー162等を含む光源モジュールを用い、フレーム毎にスキャン方向を反転させた場合における距離画像内の移動物体(移動する物体3)の伸縮の様子を示している。
図6において、左から右方向へのスキャン(以下、左-右スキャンとも記述する)が行われるフレームでは、図中の正方形の格子状の模様を含む物体3が矢印A1の方向に移動している場合、その画像中央の縦線に対する画像左側と画像右側の縦線の間隔が縮んでいる。すなわち、この場合、左-右スキャンの方向と矢印A1の方向とは反対の方向であり、スキャン方向と反対方向に移動する物体3は縮むと言える。
一方で、右から左方向へのスキャン(以下、右-左スキャンとも記述する)が行われるフレームでは、図中の正方形の格子状の模様を含む物体3が矢印A2の方向に移動している場合、その画像中央の縦線に対する画像左側と画像右側の縦線の間隔が伸びている。すなわち、この場合、右-左スキャンの方向と矢印A2の方向とは同一の方向であり、スキャン方向と同一の方向に移動する物体3は伸びると言える。
なお、ここでは、ビームスキャン方式の1次元スキャン方式において、往復方向スキャンによって光源照射を行う場合の構成として、1軸ガルバノミラー162等を含む光源モジュールの構成の例を示したが、1次元スキャン方式において、片側方向スキャンによって光源照射を行う場合には、例えば、1軸ポリゴンミラーを含む光源モジュールを用いることができる。
また、ビームスキャン方式の2次元スキャン方式において、往復方向スキャンによって光源照射を行う場合には、例えば、2軸ガルバノミラーを含む光源モジュールを用い、片側方向スキャンによって光源照射を行う場合には、例えば、2軸ポリゴンミラーを含む光源モジュールを用いることができる。
以上のように、測距装置10のスキャン方式としては様々な方式があるが、本開示では、ビームスキャン方式における1次元スキャン方式として、水平方向の往復方向スキャンを採用した場合を一例に説明する。以下の説明では、このスキャン方式を採用した測距装置10のことを、特に、水平方向の往復スキャン型の測距装置10とも称する。なお、本開示に係る技術の手法は、水平方向の往復スキャン型のみならず、他の光源照射方式の測距装置10にも適用可能である。また、本開示においては、「フレーム」と「フィールド」を区別せずに、「フレーム」の表記に統一して説明しているが、「フレーム」の代わりに、「フィールド」が用いられる場合がある。特に、測距装置10のスキャン方式として往復方向スキャンが行われる場合には、「フレーム」を、「フィールド」と称することが多い。
(撮像装置のイメージセンサの構成)
ところで、撮像装置20に搭載されるイメージセンサ211としては、その露光タイミングを、測距装置10に同期させるために、例えば、図7ないし図9に示すようなADC(Analog to Digital Converter)部222の構成を採用することが想定される。
図7は、列並列ADC方式を採用したADC部222を有するイメージセンサ211の構成の例を示している。
図7において、イメージセンサ211では、画素部221に2次元状に配置された複数の画素231による光電変換で得られる信号値が、垂直信号線を介して列並列ADC部222Aにそれぞれ入力され、画素部221の列方向でADCを並列処理する。なお、列並列ADC方式を採用した場合、画素部221の行方向については、時分割で処理する。
ここで、列並列ADC方式においては、画素部221の行方向にADCを時分割で共有するため、露光タイミングは、行毎にしか制御できない。そのため、撮像装置20において、イメージセンサ211で列並列ADC方式を採用できるのは、同期の対象となる測距装置10が、その光源照射方式として、ビームスキャン方式で、かつ、低速スキャン軸が垂直方向となる場合が該当する。
図8は、行並列ADC方式を採用したADC部222を有するイメージセンサ211の構成の例を示している。
図8において、イメージセンサ211では、画素部221に2次元状に配置された複数の画素231による光電変換で得られる信号値が、水平信号線を介して行並列ADC部222Bにそれぞれ入力され、画素部221の行方向でADCを並列処理する。なお、行並列ADC方式を採用した場合、画素部221の列方向については、時分割で処理する。
ここで、行並列ADC方式においては、画素部221の列方向にADCを時分割で共有するため、露光タイミングは、列毎にしか制御できない。そのため、撮像装置20において、イメージセンサ211で行並列ADC方式を採用できるのは、同期の対象となる測距装置10が、その光源照射方式として、ビームスキャン方式で、かつ、低速スキャン軸が水平方向となる場合が該当する。
図9は、画素並列ADC方式を採用したADC部222を有するイメージセンサ211の構成の例を示している。
図9において、イメージセンサ211では、画素部221に配置された画素231に対応したADC部を2次元状に配置した画素並列ADC部222Cを設けることで、各画素231による光電変換で得られる信号値が、信号線を介して画素231毎に設けられたADC部にそれぞれ入力され、画素部221の各画素毎にADCを並列処理する。
このように、画素並列ADC方式においては、AD変換時の参照電圧用のDAC(Digital to Analog Converter)を共有している場合、露光のタイミングをフレーム毎にしか制御できない。そのため、撮像装置20において、イメージセンサ211で画素並列ADC方式を採用できるのは、同期の対象となる測距装置10が、その光源照射方式として、フラッシュ方式となる場合が該当する。
なお、イメージセンサ211において、グローバルシャッタ方式での露光が行われる場合には、同一のタイミングで、すべての画素231をAD変換するため、DACを共通化することができる。また、フラッシュ方式は、測距装置10において、レーザ光を測距対象空間に対して広範囲に拡散照射する方式である。
以上のように、測距装置10側のレーザ光原の照射方式により、撮像装置20側で対応可能な同期手法は異なるが、本開示では、同期の対象となる測距装置10のスキャン方式として、ビームスキャン方式における1次元スキャン方式の水平方向の往復方向スキャンを採用した場合を一例に説明するため、撮像装置20のADC方式としては、行並列ADC方式を採用して、ローリングシャッタ方式での露光が行われるようにした場合を一例に説明する。以下の説明では、この方式を採用した撮像装置20のことを、特に、行並列ADC方式の撮像装置20とも称する。なお、本開示に係る技術の手法は、行並列ADC方式のみならず、他のADC方式の撮像装置20にも適用可能である。
(センサフュージョンシステムの詳細な構成)
図10は、本開示に係る技術を適用したセンサフュージョンシステムの詳細な構成の例を示す図である。
図10のセンサフュージョンシステム1は、水平方向の往復スキャン型の測距装置10と、行並列ADC方式の撮像装置20と、タイミングジェネレータ30A及び設定レジスタ部30Bと、画像フュージョン装置40とを含む。なお、タイミングジェネレータ30A及び設定レジスタ部30Bは、同期制御装置30(図1)に含まれる。
タイミングジェネレータ30Aは、タイミングの基準となる共通のクロックと同期信号を生成し、測距装置10と撮像装置20にそれぞれ供給する。この同期信号としては、例えば、フレーム同期信号(Fsync)、垂直同期信号(Vsync)、及び水平同期信号(Hsync)を含む。
設定レジスタ部30Bは、各種の設定レジスタ(設定情報)を保持し、測距装置10と撮像装置20にそれぞれ供給する。この設定レジスタとしては、例えば、同期タイミング制御に関するパラメータ(例えば、レーザ照射制御用や露光タイミング制御用の各種パラメータ)を含む。
測距装置10は、タイミング制御された距離画像を生成(取得)する。測距装置10は、レーザ光源部111、レジスタ112、レーザドライバ113、レーザ受光部114、及び信号処理部115などを含んで構成される。
なお、レーザ光源部111は、例えば、図5に示した1軸ガルバノミラー162等を含む光源モジュールとして構成される。また、レーザ受光部114は、SPAD(Single Photon Avalanche Diode)部121、TDC(Time to Digital Converter)部122、及びフレームメモリ123などから構成される。
レジスタ112は、例えばレーザ照射制御用のパラメータや、距離画像に対する信号処理用のパラメータなどの各種のパラメータを保持する。より具体的には、例えば、測距装置10がライダ(LiDAR)である場合、レジスタ112には、全体仮想領域に対するライダの有効領域を示す一連の設定レジスタ群(Voffset_lidar,Vsize_lidar,Vstep_lidar,Hoffset_lidar,Hsize_lidar,Hstep_lidar)等の設定レジスタ部30Bから供給される設定レジスタ(設定情報)が保持される。
レーザドライバ113は、レジスタ112から取得したレーザ照射制御用のパラメータ、及びタイミングジェネレータ30Aからの同期信号に基づいて、レーザ光源部111により照射されるレーザ光の照射の方向とタイミングを制御する。
レーザ光源部111は、レーザドライバ113からの制御に従い、レーザ光を出射してレンズ101を介して物体3に照射する。そして、レーザ光源部111から出射されたレーザ光は、物体3で反射され、その反射光が、レンズ102を介してレーザ受光部114により受光される。
レーザ受光部114において、SPAD部121では、SPADによって物体3からの反射光が受光されて電気的なパルスに変換され、その信号値がTDC部122により計測される。ここで、長距離物体からのレーザ反射光は微弱であり、1回の計測で安定した測距結果を得ることは難しいため、各点毎に複数回計測を行い、信号処理により測距結果を安定化させる手法がある。計測された信号値は、フレームメモリ123により点群内の各点の計測データ及び各点間のタイミングのずれが吸収され、フレーム単位で信号処理部115に供給される。
信号処理部115は、レジスタ112から取得した距離画像に対する信号処理用のパラメータに基づいて、レーザ受光部114からフレーム単位で入力される信号値に対する距離画像信号処理を行う。この距離画像信号処理では、例えば、TDC部122により計測された信号値(時間)に基づき、レーザ受光部114又はレーザ光源部111から物体3までの距離が算出され、距離画像(距離情報)が生成される。信号処理部115は、生成した距離画像を、画像フュージョン装置40に出力する。
撮像装置20は、タイミング制御された2D画像を生成(取得)する。撮像装置20は、イメージセンサ211、レジスタ212、ラインドライバ213、及び信号処理部214などを含んで構成される。また、イメージセンサ211は、画素部221、行並列AD変換部222、及びフレームメモリ223などから構成される。
レジスタ212は、例えば露光タイミング制御用のパラメータや、2D画像に対する信号処理用のパラメータなどの各種のパラメータを保持する。より具体的には、例えば、撮像装置20がイメージャ(Imager)である場合、レジスタ212には、全体仮想領域に対するイメージャの有効領域を示す一連の設定レジスタ群(Voffset_imager,Vsize_imager,Vstep_imager,Hoffset_imager,Hsize_imager,Hstep_imager)や露光ライン数等の設定レジスタ部30Bから供給される設定レジスタ(設定情報)が保持される。
ラインドライバ213は、レジスタ212から取得した露光タイミング制御用のパラメータ、及びタイミングジェネレータ30Aからの同期信号に基づいて、イメージセンサ211の画素部221の各ラインの露光タイミング制御信号を生成し、画素部221(に配置された各画素231)に供給する。
なお、行並列ADC方式の撮像装置20では、イメージセンサ211にて、行並列AD変換部222が設けられるため、ラインドライバ213によって、画素部221に配置された複数の画素231の露光タイミングを列毎に制御して、ローリングシャッタ方式での露光が行われるようにしている。そのため、ラインドライバ213から画素部221への制御線は、垂直方向(画素部221における列方向)に配置される。
イメージセンサ211において、画素部221では、ラインドライバ213からの露光タイミング制御信号に従い、2次元状に配置された各画素231が露光されて光電変換素子により光電変換され、行並列AD変換部222により行方向でADCが並列処理され、デジタル信号の信号値が得られる。この信号値は、フレームメモリ223により画素間の読み出しタイミングのずれが吸収され、フレーム単位で信号処理部214に供給される。
信号処理部214は、レジスタ212から取得した2D画像信号に対する処理用のパラメータに基づいて、イメージセンサ211からフレーム単位で入力される信号値に対する2D画像信号処理を行う。この2D画像信号処理で得られる2D画像は、画像フュージョン装置40に出力される。
画像フュージョン装置40には、測距装置10からの距離画像と、撮像装置20からの2D画像とが同期して入力される。画像フュージョン装置40は、距離画像と2D画像とをフュージョンし、その結果得られるフュージョン画像を、物体認識装置2(図1)に出力する。
(設定レジスタの例)
次に、図11ないし図14を参照して、設定レジスタの詳細について説明する。
図11は、設定レジスタ部30Bによって、測距装置10のレジスタ112と、撮像装置20のレジスタ212にそれぞれ設定される同期タイミング制御に関するパラメータの例を示している。
全体仮想領域には、Imager有効領域と、LiDAR有効領域を内包する仮想領域を設定する。この全体仮想領域は、垂直方向と水平方向の大きさとして、例えばVsize_whole,Hsize_wholeにより設定される。
LiDAR有効領域は、測距装置10がライダ(LiDAR)である場合における有効な領域を表している。LiDAR有効領域は、全体仮想領域内におけるLiDAR有効領域の位置と大きさを設定する。このLiDAR有効領域は、垂直方向と水平方向の位置と大きさとして、例えばVoffset_lidar,Hoffset_lidar,Vsize_lidar,Hsize_lidarにより設定される。
LiDAR点群間隔は、LiDAR点群内の各点の間隔を、全体仮想領域の座標系を基準に設定する。このLiDAR点群間隔は、垂直方向と水平方向の間隔として、例えばVstep_lidar,Hstep_lidarにより設定される。なお、LiDAR点群は、レーザ受光部114(のSPAD部121)にて物体3からの反射光を受光する点群である。
Imager有効領域は、撮像装置20がイメージャ(Imager)である場合における有効な領域を表している。Imager有効領域は、全体仮想領域内におけるImager有効領域の位置と大きさを設定する。このImager有効領域は、水平方向と垂直方向の位置と大きさとして、例えばVoffset_imager,Hoffset_imager,Vsize_imager,Hsize_imagerにより設定される。
Imager画素間隔は、画素231間の間隔を、全体仮想領域の座標系を基準に設定する。このImager画素間隔は、垂直方向と水平方向の間隔として、例えばVstep_imager,Hstep_imagerにより設定される。
図12は、測距装置10と撮像装置20が異なる有効領域を有する場合における同期タイミング制御系の設定レジスタの設定値の例を示している。
図12において、測距装置10のLiDAR有効領域は、有効点群数が垂直方向と水平方向で、Vnum_lidar = 64,Hnum_lidar = 1280に設定される一方で、撮像装置20のImager有効領域は、有効画素数が垂直方向と水平方向で、Vnum_imager = 1080,Hnum_imager = 1920に設定される。この場合、撮像装置20の有効画素間隔がVstep_imager = 1,Hstep_imager = 1となるときに測距装置10の有効点群間隔は、Vstep_lidar = 8,Hstep_lidar = 2となる(図13)。
すなわち、図12の例では、Imager有効領域が、Vsize_imager = 1080,Hsize_imager = 1920に設定されるとき、LiDAR有効領域は、Vsize_lidar = 512(64×8),Hsize_lidar = 2560(1280×2)に設定される。また、全体仮想領域は、LiDAR有効領域とImager有効領域を内包するように適宜設定され、図12の例では、Vsize_whole = 1080,Hsize_whole = 2700に設定される。
さらに、図12の例では、LiDAR有効領域として、Voffset_lidar = 284,Hoffset_lidar = 70が設定され、Imager有効領域として、Voffset_imager = 0,Hoffset_imager = 390が設定される。
ここで、図14に示すように、所定の列において、測距装置10(のレーザ光源部111)によるレーザ光の発光期間T1よりも、撮像装置20(のイメージセンサ211)による露光期間T2のほうが通常は長くなる。その場合、露光期間T2の中心Cが、発光期間T1内となるように設定することができる。これにより、測距装置10と撮像装置20との同期の精度をさらに向上させることができる。なお、撮像装置20の露光期間の設定は、例えば露光ライン数のパラメータにより設定可能となる。
この所定の列は、LiDAR有効領域とImager有効領域とが重なる領域(例えば領域A)内において、測距装置10のレーザ光源部111から出射されたレーザ光に対応する列であって、撮像装置20のイメージセンサ211における画素部221に配置された複数の画素231の中の露光された画素群に対応する領域に含まれる。
(測距装置と撮像装置の同期の例)
次に、図15ないし図25を参照して、水平方向の往復スキャン型の測距装置10と、行並列ADC方式の撮像装置20との同期の詳細について説明する。
撮像装置20において、イメージセンサ211では、画素部221に2次元状に配置された複数の画素231がローリングシャッタ方式により列毎に露光され、各画素231の光電変換素子により光電変換された信号値に対し、行並列AD変換部222により行方向でADCの並列処理がなされることで、アナログ信号からデジタル信号に変換される。
ここで、行並列ADC方式の構成としては、画素部221に対して、行並列AD変換部222を片側に設けた片側ADC構成(図15)や、行並列AD変換部222-1,222-2を両側に設けた両側ADC構成(図16)などがある。ここで、ローリングシャッタ方式では異なるライン間でADCを時分割で共有するため、ADCの数が少ないとスループットが低下してしまうが、例えば、両側ADC構成などを用いてADCの並列度を増すことで、スループットの低下を抑制することが可能となる。
図15に示すように、片側ADC構成を用いた場合、画素部221に配置されたすべての列の画素231に対し、片側の行並列AD変換部222によって行方向でADCが並列処理される。一方で、図16に示すように、両側ADC構成を用いた場合、画素部221に配置された複数の画素231のうち、第1の列(例えば偶数列)の画素231は、一方の行並列AD変換部222-1によって行方向でADCが並列処理され、第1の列を除いた第2の列(例えば奇数列)の画素231は、他方のAD変換部222-2によって行方向でADCが並列処理される。
また、行並列ADC方式では、画素部221に配置された複数の画素231が、列方向にADCを共有するため、異なる列間でADCを同時に使用することはできない。すなわち、図17のタイミングチャートに示すように、行並列ADC方式では、画素部221の各列において、各画素231のAD変換を行う際には列毎に時分割の排他制御が必要になる。
なお、図17に示すように、行並列AD変換部222では、各画素231のリセット成分と信号成分を順に読み出して、それぞれをAD変換し、信号成分からリセット成分を差し引くことで、相関二重サンプリング(CDS:Correlated Double Sample)の動作が行われ、kTCノイズがキャンセルされる。
ここで、行並列ADC方式の撮像装置20が、水平方向の往復スキャン型の測距装置10と同期する場合において、フレーム間のブランキング期間が蓄積時間よりも短い場合、左-右スキャン時と右-左スキャン時において、画素231毎の露光のタイミングが一部で重なるため、同一の画素231を、往復スキャン時に連続して使用することができない。
具体的には、図18は、左-右スキャンにスキャン方向を固定した測距装置10と同期する行並列ADC方式の撮像装置20における露光タイミングのタイミングチャートを示している。一方で、図19は、右-左スキャンにスキャン方向を固定した測距装置10と同期する行並列ADC方式の撮像装置20における露光タイミングのタイミングチャートを示している。ただし、図18及び図19のタイミングチャートにおいては、いずれもフレーム間のブランキング期間がない場合を図示している。また、このブランキング期間(Hoffset_L_imager:左側ブランキング期間,Hoffset_R_imager:右側ブランキング期間)は、Hoffset_L_imager = Hoffset_imager,Hoffset_R_imager = Hsize_whole - (Hoffset_imager + Hsize_imager)により表され、設定レジスタにより任意のライン数を設定可能である。
図18及び図19のタイミングチャートは、2D画像の画像フレームとして、時間的に連続した1stフレームと2ndフレームの撮像(生成)時における画素部221の任意の行における各列Column[0]~[m](図15又は図16)の画素231のシャッタ動作時の電荷の排出と、リード動作時の信号の読み出しのタイミングを示している。ここでは、各画素231において、シャッタ動作が行われてからリード動作が行われるまでの時間が、電荷の蓄積時間となる(図中の右方向の矢印)。
図18では、測距装置10において左から右方向へのスキャンが行われているため、任意の行における各列Column[0]~[m]の画素231に対応して、シャッタ動作や読み出し動作を表す四角が、右斜め下方向に向かって列番号の昇順に連続している。一方で、図19では、測距装置10において右から左方向へのスキャンが行われているため、任意の行における各列Column[m]~[0]の画素231に対応して、シャッタ動作や読み出し動作を表す四角が、右斜め上方向に向かって列番号の降順に連続している。
ここで、図18及び図19において、任意の行の左端列Column[0]の画素231における1stフレームと2ndフレームの境界付近に注目すれば、図19の1stフレームにおいて右-左スキャンの最後列である左端列Column[0]の蓄積時間A12と、図18の2ndフレームにおいて左-右スキャンの最前列である左端列Column[0]の蓄積時間A11とが重なっている。そのため、画素部221において、同一の画素231(任意の行の左端列Column[0]の画素231)を、往復スキャン時に連続して使用することはできない。
そこで、本開示に係る技術では、水平方向の往復スキャン型の測距装置10と、行並列ADC方式の撮像装置20との同期を行うに際して、時分割使用方式と空間分割使用方式の2方式を提案する。
(時分割使用方式)
まず、図20及び図21を参照して、時分割使用方式について説明する。
時分割使用方式は、左-右スキャン時と右-左スキャン時とで、露光のタイミングを切り替える方式である。ここでは、例えば、図11に示したように、LiDAR有効領域とImager有効領域とは水平方向のサイズ(例えば、Hsize_lidar = 2560,Hsize_imager = 1920)が異なるため、時分割使用方式では、そのブランキング期間(例えば、Hoffset_imager = 390)を利用して左右端列の画素231においても蓄積時間を確保するようにする。
図20のタイミングチャートは、2D画像の画像フレームとして、時間的に連続した1stフレームと2ndフレームと3rdフレームの撮像(生成)時における画素部221の任意の行(の各列Column[0]~[m])の画素231における、シャッタ動作時の電荷の排出と、リード動作時の信号の読み出しのタイミングを示している。
図20において、1stフレームと3rdフレームでは、測距装置10において左から右方向へのスキャンが行われているため、任意の行における各列Column[0]~[m]の画素231に対応して、シャッタ動作と読み出し動作を表す四角が、右斜め下方向に向かって列番号の昇順に連続している。一方で、2ndフレームでは、測距装置10において右から左方向へのスキャンが行われているため、任意の行における各列Column[m]~[0]の画素231に対応して、シャッタ動作と読み出し動作を表す四角が、右斜め上に向かって列番号の降順に連続している。
ここで、各フレームのスキャンフレームのうち、Hsize_imagerを除いたHoffset_imager(Hoffset_R_imager:右側ブランキング期間,Hoffset_L_imager:左側ブランキング期間)の領域に注目すれば、蓄積時間に対してHoffset_imagerの期間(ブランキング期間)が十分に長く、スキャン方向の折り返し時に前後のフレームでの蓄積時間が重ならない場合には、同一の画素231を、往復スキャン時に連続して使用することが可能となる。
すなわち、図20において、任意の行の右端列Column[m]の画素231における1stフレームと2ndフレームの境界付近に注目すれば、1stフレームにおいて左-右スキャンの最後列である右端列Column[m]の蓄積時間A21と、2ndフレームにおいて右-左スキャンの最前列である右端列Column[m]の蓄積時間A22とは重なっていないため、右端列Column[m]の画素231を、往復スキャン時に連続して使用可能である。このとき、蓄積時間に対して、左-右スキャン時に生じる1stフレームの右側ブランキング期間と、それに続く右-左スキャン時に生じる2ndフレームの右側の右側ブランキング期間に相当する時間が十分に長ければ(所定の期間以上であれば)、スキャン方向の折り返し時に1stフレームと2ndフレームでの蓄積時間は重ならない。
また、図20において、任意の行の左端列Column[0]の画素231における2ndフレームと3rdフレームの境界付近に注目すれば、2ndフレームにおいて右-左スキャンの最後列である左端列Column[0]の蓄積時間A23と、3rdフレームにおいて左-右スキャンの最前列である左端列Column[0]の蓄積時間A24とは重なっていないため、左端列Column[0]の画素231を、往復スキャン時に連続して使用可能である。このとき、蓄積時間に対して、右-左スキャン時に生じる2ndフレームの左側ブランキング時間と、それに続く左-右スキャン時に生じる3rdフレームの左側ブランキング期間に相当する時間が十分に長ければ(所定の期間以上であれば)、スキャン方向の折り返し時に2ndフレームと3rdフレームでの蓄積時間は重ならない。
なお、図20の例において、左側ブランキング期間は、Hoffset_L_imager = Hoffset_imagerの関係を有する。また、右側ブランキング期間は、Hoffset_R_imager = Hsize_whole - (Hoffset_imager + Hsize_imager)の関係を有する。
また、図20の例では、測距装置10の測距タイミング(不図示)に、撮像装置20の読み出しタイミングを同期させる例として、時間位相を調整していない場合を示したが、実際には、撮像装置20の蓄積時間は読み出し時刻に対して過去方向に伸びているため、測距装置10の測距タイミングに撮像装置20の読み出しタイミングを合わせてしまうと、測距装置10に対して撮像装置20の時間位相が過去方向にずれてしまう。そこで、図21には、時間位相の調整を行った場合の例を示している。
図21の例では、図20の例と比べて、測距装置10による測距タイミング相当を点線の四角により表している。そして、図21の例では、この測距タイミングに、撮像装置20の時間位相が合うように、シャッタ動作時の電荷の排出と、リード動作時の信号の読み出しのタイミングを調整する。ここでは、撮像装置20において、例えば、電荷の排出と信号の読み出しのタイミングを蓄積時間の半分(略半分)に相当する時間だけ遅れるように制御することで、測距装置10による測距タイミングに撮像装置20の蓄積時間の中央が合うように時間位相の調整を行うことができる。この調整により、測距装置10と撮像装置20との同期の精度をさらに向上させることができる。
すなわち、図21において、任意の行の右端列Column[m]の画素231における1stフレームと2ndフレームの境界付近に注目すれば、1stフレームにおいて左-右スキャンの最後列である右端列Column[m]の蓄積時間A31と、2ndフレームにおいて右-左スキャンの最前列である右端列Column[m]の蓄積時間A32とは重なっていないため、右端列Column[m]の画素231を、往復スキャン時に連続して使用可能である。また、ここでは、蓄積時間に対して、1stフレームの右側ブランキング期間と2ndフレームの右側ブランキング期間に相当する時間が十分に長く(所定の期間以上であり)、さらに、電荷の排出と信号の読み出しのタイミングが、蓄積時間の略半分に相当する時間だけ遅らされている。これにより、測距装置10による測距タイミングに対して、撮像装置20の蓄積時間の中央が合うように時間位相が調整されている。
また、図21において、任意の行の左端列Column[0]の画素231における2ndフレームと3rdフレームの境界付近に注目すれば、2ndフレームにおいて右-左スキャンの最後列である左端列Column[0]の蓄積時間A33と、3rdフレームにおいて左-右スキャンの最前列である左端列Column[0]の蓄積時間A34とは重なっていないため、左端列Column[0]の画素231を、往復スキャン時に連続して使用可能である。また、ここでは、蓄積時間に対して、2ndフレームの左側ブランキング期間と3rdフレームの左側ブランキング期間に相当する時間が十分に長く(所定の期間以上であり)、さらに、電荷の排出と信号の読み出しのタイミングが、蓄積時間の略半分に相当する時間だけ遅らされているため、測距装置10による測距タイミングに対して撮像装置20の蓄積時間の中央が合っている。
以上のように、時分割使用方式を用いることで、水平方向の往復スキャン型の測距装置10と、行並列ADC方式の撮像装置20との同期を行うに際して、測距装置10による往復スキャン時に、撮像装置20においてイメージセンサ211の画素部221に配置された任意の画素231(例えば、任意の行の左端列Column[0]又は右端列Column[m]の画素231)を連続して使用することができる。このとき、撮像装置20においては、測距装置10による測距タイミングに対して、撮像装置20の蓄積時間の中央が合うように時間位相が調整されていることが望ましい。
(空間分割使用方式)
次に、図22ないし図25を参照して、空間分割使用方式について説明する。
空間分割使用方式は、画素部221に配置される複数の画素231を、左-右スキャン用の画素と、右-左スキャン用の画素に空間分割して、スキャン方向に応じて読み出し画素と露光タイミングを切り替える方式である。
ここで、一般的に、物体3の対象領域内において、測距装置10で取得される点群数よりも撮像装置20で取得可能な画素数のほうが多いのは先に述べた通りである。
このとき、撮像装置20において、イメージセンサ211の画素部221に2次元状に配置される複数の画素231は、例えば、図22に示すような対応関係を有する。すなわち、図22においては、画素部221に配置される複数の画素231のうち、測距装置10で取得される点群位置に対応する画素231を、「LiDAR対応画素」と表記し、測距装置10で取得される点群位置に対応しない画素231を、「LiDAR非対応画素」と表記している。例えば、図22においては、撮像装置20の有効画素間隔がVstep_imager = 1,Hstep_imager = 1であるのに対し、測距装置10の有効点群間隔は、Vstep_lidar = 4,Hstep_lidar = 2となる場合を例示している。
図22に示すように、測距装置10で取得される点群位置は、水平方向に密で、かつ、垂直方向に疎であることが多いため、画素部221では、垂直方向に余剰画素(「LiDAR非対応画素」)がより多く発生している。そして、画素部221に配置される複数の画素231のうち、測距装置10で取得される点群位置に対応する画素231(「LiDAR対応画素」)の露光タイミングは、測距装置10(の測距タイミング)に同期させるが、測距装置10で取得される点群位置に対応しない余剰画素(「LiDAR非対応画素」)の使い方には様々なケースが想定される。通常は、測距装置10で取得される点群数だけでは認識性能が十分ではないため、撮像装置20の余剰画素の一部又は全部を測距装置10に同期させて、フュージョン認識率の向上を図ることが考えられる。
そこで、空間分割使用方式では、水平方向の往復スキャン型の測距装置10と、行並列ADC方式の撮像装置20との同期の際に、撮像装置20の余剰画素を、左-右スキャン用の画素、又は右-左スキャン用の画素として利用して、左-右スキャンに同期した画像(左-右スキャン同期画像)と、右-左スキャンに同期した画像(右-左スキャン同期画像)を同時並行して撮像するようにする。なお、空間分割使用方式を実現するためには、左-右スキャン同期画像と右-左スキャン同期画像とで、露光時間や読み出しタイミングなどが別々に制御できるように、予めハードウェア回路を設計しておく必要がある。
図23は、空間分割使用方式を用いた異なるスキャン方向に対応した画像の同時並列撮像の例を示している。ここでは、垂直方向に多く発生している余剰画素を活かして、左-右スキャン用の画素と右-左スキャン用の画素に垂直方向に空間分割した例を示す。
図23において、撮像装置20におけるイメージセンサ211の画素部221に2次元状に配置される複数の画素231に対応する四角に表記された「Pixel_LiDAR_LR(m, n)」は、左-右スキャン同期画像用に使用する画素231を表し、「Pixel_LiDAR_RL(m, n)」は、右-左スキャン同期画像用に使用する画素231を表す。
図23においては、水平方向の2行毎に、左-右スキャン同期画像用の領域と、右-左スキャン同期画像用の領域とが繰り返されている。左-右スキャン同期画像用の領域には、左-右スキャン同期画像用の画素231(余剰画素に相当する画素と図中の太枠で示した「LiDAR対応画素」に相当する画素)が含まれる。右-左スキャン同期画像用の領域には、右-左スキャン同期画像用の画素231(余剰画素に相当する画素)が含まれる。
図24のタイミングチャートは、撮像装置20による2D画像の画像フレームとして、時間的に連続した1stフレームと2ndフレームの撮像(生成)時において、画素部221における左-右スキャン同期画像用の領域の画素231(Pixel_LiDAR_LR(m, n))の露光タイミングを示している。
図24において、1stフレームでは、測距装置10による左-右スキャンに同期した露光が行われるため、左-右スキャン同期画像用の任意の行の画素231(Pixel_LiDAR_LR(m, n))に対応して、シャッタ動作と読み出し動作を表す四角が、1stフレーム内で読み出し動作が行われるように、右斜め下方向に向かって列番号の昇順に連続している。なお、ここでも、シャッタ動作が行われてからリード動作が行われるまでの時間が、電荷の蓄積時間となる(図中の右方向の矢印)。
このようにして、撮像装置20においては、シャッタ動作と読み出し動作が行われ、読み出された信号値が行並列AD変換部222によりAD変換され、1stフレーム(の信号値)がフレームメモリ223に格納される。
ここで、水平方向の往復スキャン型の測距装置10では、フレーム毎にスキャン方向が反転するため、行並列ADC方式の撮像装置20においては、1stフレームの撮像時に、左-右スキャンに同期した動作が行われた後、2ndフレームの撮像時には、右-左スキャンに同期した動作が行われる。
なお、1stフレームの撮像時にフレームメモリ223に格納された1stフレーム(の信号値)は、2ndフレームの撮像時のタイミングで、外部の信号処理部214へ読み出される。そして、信号処理部214により2D画像信号処理が行われ、1stフレームの画像フレームが生成されるが、この画像フレーム(2D画像)は、左-右スキャン同期画像である。
図25のタイミングチャートは、撮像装置20による2D画像の画像フレームとして、時間的に連続した1stフレームと2ndフレームの撮像(生成)時において、画素部221における右-左スキャン同期画像用の領域の画素231(Pixel_LiDAR_RL(m, n))の露光タイミングを示している。
図25において、2ndフレームでは、測距装置10による右-左スキャンに同期した露光が行われるため、右-左スキャン同期画像用の任意の行の画素231(Pixel_LiDAR_RL(m, n))に対応して、シャッタ動作と読み出し動作を表す四角が、2ndフレーム内で読み出し動作が行われるように、右斜め上方向に向かって列番号の降順に連続している。
このようにして、撮像装置20においては、シャッタ動作と読み出し動作が行われ、読み出された信号値が行並列AD変換部222によりAD変換され、2ndフレーム(の信号値)がフレームメモリ223に格納される。そして、3rdフレームの撮像時のタイミングで、フレームメモリ223から2ndフレーム(の信号値)が読み出される。そして、信号処理部214により2D画像信号処理が行われ、2ndフレームの画像フレームが生成されるが、この画像フレーム(2D画像)は、右-左スキャン同期画像である。
なお、3rdフレーム以降については繰り返しになるので、その説明は省略するが、撮像装置20では、3rdフレーム等の奇数フレームの撮像時には、図24のタイミングチャートに示したように、画素部221における左-右スキャン同期画像用の領域の画素231(Pixel_LiDAR_LR(m, n))を利用して、測距装置10による左-右スキャンに同期した撮像が行われ、左-右スキャン同期画像の信号値が得られる。
また、撮像装置20では、4thフレーム等の偶数フレームの撮像時には、図25のタイミングチャートに示したように、画素部221における右-左スキャン同期画像用の領域の画素231(Pixel_LiDAR_RL(m, n))を利用して、測距装置10による右-左スキャンに同期した撮像が行われ、右-左スキャン同期画像の信号値が得られる。
以上のように、空間分割使用方式を用いることで、水平方向の往復スキャン型の測距装置10と、行並列ADC方式の撮像装置20との同期を行うに際して、測距装置10による往復スキャン時に、撮像装置20において、そのスキャン方向に応じて、画素部221における左-右スキャン同期画像用の領域内の画素群(余剰画素を含む画素群)と、右-左スキャン同期画像用の領域内の画素群(余剰画素を含む画素群)とで、読み出し画素と露光タイミングを切り替えることができる。これにより、行並列ADC方式の撮像装置20において、水平方向の往復スキャン型の測距装置10と同期する場合に、左-右スキャン時と右-左スキャン時において、画素231毎の露光のタイミングが一部で重なるという事象(図18,図19)を回避することができる。なお、空間分割使用方式においては、フレーム間のブランキング期間の長さによらずに、交互に繰り返される左-右スキャン同期画像と右-左スキャン同期画像の連続取得が可能となる。
以上、本開示のセンサフュージョンシステムについて説明した。本開示によれば、センサフュージョンシステムは、次のような構成を有している。
すなわち、本開示のセンサフュージョンシステム(図10のセンサフュージョンシステム1)は、測距装置(図10の測距装置10)と、撮像装置(図10の撮像装置20)と、測距装置と撮像装置との同期を制御する同期制御部(図10のタイミングジェネレータ30A)とを含む。
この測距装置(図10の測距装置10)は、第1の方向(垂直方向)に延びる光(レーザ光)を出射する光源部(図5の光源部161と拡散レンズ163)と、第1の方向と直交する第2の方向(水平方向)へ光の出射方向を駆動する駆動部(図5の1軸ガルバノミラー162)とを有する光源モジュール(図10のレーザ光源部111)と、光源部が光を出射するタイミングを制御する光源制御部(図10のレーザドライバ113)と、所定の受光範囲を有し、光源部から出射されて物体(図10の物体3)で反射された光を受光する受光部(図10のレーザ受光部114)と、光源部が光を出射してから受光部が物体で反射された光を受光するまでの時間を計測する時間計測部(図10のTDC部122)と、計測した時間に基づいて、受光部又は光源モジュールから物体までの距離を算出する距離算出部(図10の信号処理部115)とを備える。
また、撮像装置(図10の撮像装置20)は、2次元状に配置される複数の画素(図8等の画素231)を有し、光源部が光を出射する出射範囲(図11のLiDAR有効領域)の少なくとも一部を含む撮像範囲(図11のImager有効領域)を有する画素部(図8,図10等の画素部221)と、第1の方向(垂直方向)に並べて配置され、画素部にて第1の方向に並んだ画素群から出力された信号をAD変換するAD変換部(図8,図10等の行並列ADC部222)と、複数の画素が第2の方向(水平方向)へ走査されるように複数の画素の露光を制御する露光制御部(図10のラインドライバ213)とを備える。
さらに、同期制御部(図10のタイミングジェネレータ30A)は、光源部(図5の光源部161)が所定の領域(図14の領域A内の領域)へ光を出射するタイミングと、所定の領域(図14の領域A内の領域)に対応する画素群(図10等の画素部221に配置される画素231)が露光するタイミングとが同期するように、光源制御部(図10のレーザドライバ113)と露光制御部(図10のラインドライバ213)とを制御する。
本開示のセンサフュージョンシステム(図10のセンサフュージョンシステム1)は、以上の構成を有することで、測距装置(図10の測距装置10)と撮像装置(図10の撮像装置20)とを同期させてフュージョン認識性能を向上させることができる。
<2.変形例>
上述した説明では、測距装置10と撮像装置20とを同期させる場合に、測距装置10のスキャン方式としてビームスキャン方式における1次元スキャン方式の水平方向の往復方向スキャンを採用し、撮像装置20のADC方式としては、行並列ADC方式を採用して、ローリングシャッタ方式での露光が行われるようにした場合を説明したが、それらの方式の組み合わせは一例である。すなわち、スキャン方式やADC方式の組み合わせは、多数存在するため、上述した組み合わせ以外の方式を採用するようにしてもよい。なお、上述した説明では、測距装置10は、TOF(Time Of Flight)方式のライダ(LiDAR)であるとして説明したが、他の方式を採用した距離画像センサを用いるようにしてもよい。
また、上述した説明では、空間分割使用方式で、余剰画素を利用した例を説明したが、この余剰画素の使い方は様々である。以下、余剰画素の使い方の他の例を示す。
例えば、物体認識処理に必要なデプス解像度(奥行き情報)が、測距装置10で取得される点群数では十分ではない場合に、撮像装置20での2次元解像度(2D解像度)をすべて、測距装置10に同期させることで、フュージョン認識率の向上を図るケース(以下、ケースAという)が想定される。
このケースAの場合、図26に示すように、撮像装置20において、イメージセンサ211の画素部221に配置される複数の画素231のうち、測距装置10で取得される点群位置に対応しない余剰画素(「LiDAR準対応画素」)の露光タイミングは、近接する(測距装置10で取得される)点群位置に対応する画素231(「LiDAR対応画素」)の露光タイミングから空間的に補間して制御する。具体的には、図26の例では、ハッチングが施された余剰画素(「LiDAR準対応画素」)の露光タイミングが、図中の矢印で示した左上、右上、左下、及び右下の4つの画素231(「LiDAR対応画素」)の露光タイミングから空間的に補間されている。
ただし、撮像装置20における画素部221に配置された画素231の露光タイミングは、測距装置10に比べて粗くすることができるため、同一のタイミングとなる画素領域単位でタイミング制御用の信号線を共通化することができる。
また、例えば、物体認識処理に必要なデプス解像度が、測距装置10で取得される点群数である程度十分であり、撮像装置20での2D解像度の一部を、測距装置10に同期して使用しないケース(以下、ケースBという)が想定される。
このケースBの場合、図27に示すように、点群位置に対応しない余剰画素のうち、一部の余剰画素(「LiDAR準対応画素」)の露光タイミングは、近接の点群位置に対応する画素231(「LiDAR対応画素」)の露光タイミングにより空間的に補間され、残りの余剰画素(「静止画用画素」)は、例えば、グローバルシャッタ方式で別に撮像してフォーカルプレーン歪のない静止画像をも同時に取得できるようにする。具体的には、図27の例では、1,2,5,6行目の余剰画素は、前者の「LiDAR準対応画素」として使用されている一方で、3,4,7,8行目の余剰画素は、後者の「静止画用画素」として使用されている。なお、ケースBを実現するためには、前者の「LiDAR準対応画素」と後者の「静止画用画素」とで、露光時間や読み出しタイミングなどが別々に制御できるように、予めハードウェア回路を設計しておく必要がある。
なお、ここで示したケースAとケースBの余剰画素の使い方の他の例は、上述した実施の形態と組み合わせて使用するようにしてもよい。
また、本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
<3.移動体への応用例>
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
図28は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図28に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図28の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
図29は、撮像部12031の設置位置の例を示す図である。
図29では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図29には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12101に適用され得る。具体的には、図10のセンサフュージョンシステム1は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、センサフュージョンシステム1において測距装置10と撮像装置20とを同期させることができるため、例えば、距離画像と2D画像をフュージョンして3次元での物体認識を行い、物体の認識性能(フュージョン認識性能)を向上させることができる。その結果として、例えば、より正確に、車両、歩行者、障害物、信号機、交通標識又は車線等の物体を認識することが可能になる。
また、ライダ(LiDAR)等の測距装置10の特徴として、近赤外線を使用するのが一般的であるため、夜間でも測距が可能であり、光環境の急激な変化にも強いが、距離画像の解像度は、2D画像よりも低くなる。一方で、イメージセンサを含む撮像装置20の特徴として、主に可視光線を撮像するため、測距装置10に対してロバスト性は劣る傾向があるが、2D画像の解像度は他の画像よりも高くなる。ところで、様々な道路環境において、測距装置10と撮像装置20の信頼性及び有効性はダイナミックに変化するため、道路環境に適応してフュージョンの仕方や割合を最適に制御する必要があるが、測距装置10と撮像装置20との同期がとれていないと、フュージョンの制御を著しく困難にする可能性がある。図10のセンサフュージョンシステム1では、測距装置10と撮像装置20との同期を通じて、フュージョンの制御を容易にし、全体としてのロバスト性を向上させることができる。
なお、上述した実施の形態において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本開示に係る技術の要旨を逸脱しない範囲において種々の変更が可能である。
さらに、本開示に係る技術は、以下のような構成をとることができる。
(1)
第1の方向に延びる光を出射する光源部と、前記第1の方向と直交する第2の方向へ前記光の出射方向を駆動する駆動部とを有する光源モジュールと、
前記光源部が前記光を出射するタイミングを制御する光源制御部と、
所定の受光範囲を有し、前記光源部から出射されて物体で反射された前記光を受光する受光部と、
前記光源部が前記光を出射してから前記受光部が前記物体で反射された前記光を受光するまでの時間を計測する時間計測部と、
計測した前記時間に基づいて、前記受光部又は前記光源モジュールから前記物体までの距離を算出する距離算出部と
を備える測距装置と、
2次元状に配置される複数の画素を有し、前記光源部が光を出射する出射範囲の少なくとも一部を含む撮像範囲を有する画素部と、
前記第1の方向に並べて配置され、前記画素部にて前記第1の方向に並んだ画素群から出力された信号をAD変換するAD変換部と、
前記複数の画素が前記第2の方向へ走査されるように前記複数の画素の露光を制御する露光制御部と
を備える撮像装置と、
前記光源部が所定の領域へ前記光を出射するタイミングと、前記所定の領域に対応する前記画素群が露光するタイミングとが同期するように、前記光源制御部と前記露光制御部とを制御する同期制御部と
を具備するセンサフュージョンシステム。
(2)
前記第1の方向は、垂直方向であり、
前記第2の方向は、水平方向である
前記(1)に記載のセンサフュージョンシステム。
(3)
前記光源部が光を出射する前記出射範囲の第1の有効領域、及び前記画素部が有する前記撮像範囲の第2の有効領域を設定する設定部をさらに具備する
前記(1)又は(2)に記載のセンサフュージョンシステム。
(4)
前記設定部は、
前記第1の有効領域及び前記第2の有効領域を含む仮想領域を設定し、
前記仮想領域内の前記第1の有効領域の位置と大きさを設定し、
前記仮想領域内の前記第2の有効領域の位置と大きさを設定する
前記(3)に記載のセンサフュージョンシステム。
(5)
前記設定部は、
前記仮想領域の座標系を基準にして、前記受光部における前記光を受光する点群の間隔を設定し、
前記仮想領域の座標系を基準にして、前記画素部に配置された前記複数の画素の間隔を設定する
前記(4)に記載のセンサフュージョンシステム。
(6)
前記点群の間隔は、前記複数の画素の間隔よりも広い
前記(5)に記載のセンサフュージョンシステム。
(7)
前記駆動部は、前記光の出射方向が同一方向に固定されるように駆動するか、又は前記光の出射方向が往復方向に交互になるように駆動する
前記(1)ないし(6)のいずれかに記載のセンサフュージョンシステム。
(8)
前記露光制御部は、前記光の出射方向が往復方向に交互になるように駆動される場合、一方の方向に駆動されるときの露光タイミングと、その反対の方向に駆動されるときの露光タイミングとを切り替える
前記(7)に記載のセンサフュージョンシステム。
(9)
前記出射範囲と前記撮像範囲とが異なることで、前記撮像範囲に対してブランキング期間が所定の期間以上であるとともに、前記一方の方向から前記反対の方向への折り返し時に、前記画素部における同一の画素で電荷の蓄積時間が重ならない場合、前記同一の画素を連続して使用する
前記(8)に記載のセンサフュージョンシステム。
(10)
前記同一の画素は、時間位相が調整される
前記(9)に記載のセンサフュージョンシステム。
(11)
前記露光制御部は、前記光の出射方向が往復方向に交互になるように駆動される場合、一方の方向の駆動に対応した第1の領域の露光タイミングと、その反対の方向の駆動に対応した前記第1の領域と異なる第2の領域の露光タイミングとを切り替える
前記(7)に記載のセンサフュージョンシステム。
(12)
前記第1の領域は、前記画素部に配置された前記複数の画素の数が、前記受光部における前記光を受光する点群数よりも多いことで余剰となる余剰画素を含み、
前記第2の領域は、前記余剰画素を含む
前記(11)に記載のセンサフュージョンシステム。
(13)
前記第1の領域及び前記第2の領域の少なくとも一方の領域は、前記受光部における前記光を受光する点群に対応した画素を含む
前記(11)又は(12)に記載のセンサフュージョンシステム。
(14)
前記光源部は、単一の光源を1次元方向に拡散照射するか、又は複数の光源を1次元方向に並列に配置している
前記(1)ないし(13)のいずれかに記載のセンサフュージョンシステム。
(15)
前記露光制御部から前記画素部への制御線は、前記第1の方向に配線される
前記(1)ないし(14)のいずれかに記載のセンサフュージョンシステム。
(16)
前記測距装置のスキャン方式は、水平方向の往復方向スキャンであり、
前記撮像装置のADC方式は、行並列ADC方式である
前記(1)ないし(15)のいずれかに記載のセンサフュージョンシステム。
(17)
前記露光制御部は、ローリングシャッタ方式での露光を制御する
前記(1)ないし(16)のいずれかに記載のセンサフュージョンシステム。
(18)
前記測距装置は、ライダであり、
前記撮像装置は、イメージセンサを含む
前記(1)ないし(17)のいずれかに記載のセンサフュージョンシステム。
(19)
測距装置と撮像装置との同期を制御する同期制御装置において、
前記測距装置は、
第1の方向に延びる光を出射する光源部と、前記第1の方向と直交する第2の方向へ前記光の出射方向を駆動する駆動部とを有する光源モジュールと、
前記光源部が前記光を出射するタイミングを制御する光源制御部と、
所定の受光範囲を有し、前記光源部から出射されて物体で反射された前記光を受光する受光部と、
前記光源部が前記光を出射してから前記受光部が前記物体で反射された前記光を受光するまでの時間を計測する時間計測部と、
計測した前記時間に基づいて、前記受光部又は前記光源モジュールから前記物体までの距離を算出する距離算出部と
を備え、
前記撮像装置は、
2次元状に配置される複数の画素を有し、前記光源部が光を出射する出射範囲の少なくとも一部を含む撮像範囲を有する画素部と、
前記第1の方向に並べて配置され、前記画素部にて前記第1の方向に並んだ画素群から出力された信号をAD変換するAD変換部と、
前記複数の画素が前記第2の方向へ走査されるように前記複数の画素の露光を制御する露光制御部と
を備え、
前記光源部が所定の領域へ前記光を出射するタイミングと、前記所定の領域に対応する前記画素群が露光するタイミングとが同期するように、前記光源制御部と前記露光制御部とを制御する同期制御部を具備する
同期制御装置。
(20)
第1の方向に延びる光を出射する光源部と、前記第1の方向と直交する第2の方向へ前記光の出射方向を駆動する駆動部とを有する光源モジュールと、
前記光源部が前記光を出射するタイミングを制御する光源制御部と、
所定の受光範囲を有し、前記光源部から出射されて物体で反射された前記光を受光する受光部と、
前記光源部が前記光を出射してから前記受光部が前記物体で反射された前記光を受光するまでの時間を計測する時間計測部と、
計測した前記時間に基づいて、前記受光部又は前記光源モジュールから前記物体までの距離を算出する距離算出部と
を備える測距装置と、
2次元状に配置される複数の画素を有し、前記光源部が光を出射する出射範囲の少なくとも一部を含む撮像範囲を有する画素部と、
前記第1の方向に並べて配置され、前記画素部にて前記第1の方向に並んだ画素群から出力された信号をAD変換するAD変換部と、
前記複数の画素が前記第2の方向へ走査されるように前記複数の画素の露光を制御する露光制御部と
を備える撮像装置と
の同期を制御する同期制御装置が、
前記光源部が所定の領域へ前記光を出射するタイミングと、前記所定の領域に対応する前記画素群が露光するタイミングとが同期するように、前記光源制御部と前記露光制御部とを制御する
同期制御方法。
1 センサフュージョンシステム, 2 物体認識装置, 3 物体, 10 測距装置, 20 撮像装置, 30 同期制御装置, 30A タイミングジェネレータ, 30B 設定レジスタ部, 40 画像フュージョン装置, 111 レーザ光源部, 112 レジスタ, 113 レーザドライバ, 114 レーザ受光部, 115 信号処理部, 121 SPAD部, 122 TDC部, 123 フレームメモリ, 161 光源部, 162 1軸ガルバノミラー, 163 拡散レンズ, 211 イメージセンサ, 212 レジスタ, 213 ラインドライバ, 214 信号処理部, 221 画素部, 231 画素, 222 ADC部,222B 行並列ADC部, 223 フレームメモリ, 12031 撮像部

Claims (20)

  1. 第1の方向に延びる光を出射する光源部と、前記第1の方向と直交する第2の方向へ前記光の出射方向を駆動する駆動部とを有する光源モジュールと、
    前記光源部が前記光を出射するタイミングを制御する光源制御部と、
    所定の受光範囲を有し、前記光源部から出射されて物体で反射された前記光を受光する受光部と、
    前記光源部が前記光を出射してから前記受光部が前記物体で反射された前記光を受光するまでの時間を計測する時間計測部と、
    計測した前記時間に基づいて、前記受光部又は前記光源モジュールから前記物体までの距離を算出する距離算出部と
    を備える測距装置と、
    2次元状に配置される複数の画素を有し、前記光源部が光を出射する出射範囲の少なくとも一部を含む撮像範囲を有する画素部と、
    前記第1の方向に並べて配置され、前記画素部にて前記第1の方向に並んだ画素群から出力された信号をAD変換するAD変換部と、
    前記複数の画素が前記第2の方向へ走査されるように前記複数の画素の露光を制御する露光制御部と
    を備える撮像装置と、
    前記光源部が所定の領域へ前記光を出射するタイミングと、前記所定の領域に対応する前記画素群が露光するタイミングとが同期するように、前記光源制御部と前記露光制御部とを制御する同期制御部と
    を具備するセンサフュージョンシステム。
  2. 前記第1の方向は、垂直方向であり、
    前記第2の方向は、水平方向である
    請求項1に記載のセンサフュージョンシステム。
  3. 前記光源部が光を出射する前記出射範囲の第1の有効領域、及び前記画素部が有する前記撮像範囲の第2の有効領域を設定する設定部をさらに具備する
    請求項1に記載のセンサフュージョンシステム。
  4. 前記設定部は、
    前記第1の有効領域及び前記第2の有効領域を含む仮想領域を設定し、
    前記仮想領域内の前記第1の有効領域の位置と大きさを設定し、
    前記仮想領域内の前記第2の有効領域の位置と大きさを設定する
    請求項3に記載のセンサフュージョンシステム。
  5. 前記設定部は、
    前記仮想領域の座標系を基準にして、前記受光部における前記光を受光する点群の間隔を設定し、
    前記仮想領域の座標系を基準にして、前記画素部に配置された前記複数の画素の間隔を設定する
    請求項4に記載のセンサフュージョンシステム。
  6. 前記点群の間隔は、前記複数の画素の間隔よりも広い
    請求項5に記載のセンサフュージョンシステム。
  7. 前記駆動部は、前記光の出射方向が同一方向に固定されるように駆動するか、又は前記光の出射方向が往復方向に交互になるように駆動する
    請求項1に記載のセンサフュージョンシステム。
  8. 前記露光制御部は、前記光の出射方向が往復方向に交互になるように駆動される場合、一方の方向に駆動されるときの露光タイミングと、その反対の方向に駆動されるときの露光タイミングとを切り替える
    請求項7に記載のセンサフュージョンシステム。
  9. 前記出射範囲と前記撮像範囲とが異なることで、前記撮像範囲に対してブランキング期間が所定の期間以上であるとともに、前記一方の方向から前記反対の方向への折り返し時に、前記画素部における同一の画素で電荷の蓄積時間が重ならない場合、前記同一の画素を連続して使用する
    請求項8に記載のセンサフュージョンシステム。
  10. 前記同一の画素は、時間位相が調整される
    請求項9に記載のセンサフュージョンシステム。
  11. 前記露光制御部は、前記光の出射方向が往復方向に交互になるように駆動される場合、一方の方向の駆動に対応した第1の領域の露光タイミングと、その反対の方向の駆動に対応した前記第1の領域と異なる第2の領域の露光タイミングとを切り替える
    請求項7に記載のセンサフュージョンシステム。
  12. 前記第1の領域は、前記画素部に配置された前記複数の画素の数が、前記受光部における前記光を受光する点群数よりも多いことで余剰となる余剰画素を含み、
    前記第2の領域は、前記余剰画素を含む
    請求項11に記載のセンサフュージョンシステム。
  13. 前記第1の領域及び前記第2の領域の少なくとも一方の領域は、前記受光部における前記光を受光する点群に対応した画素を含む
    請求項12に記載のセンサフュージョンシステム。
  14. 前記光源部は、単一の光源を1次元方向に拡散照射するか、又は複数の光源を1次元方向に並列に配置している
    請求項1に記載のセンサフュージョンシステム。
  15. 前記露光制御部から前記画素部への制御線は、前記第1の方向に配線される
    請求項1に記載のセンサフュージョンシステム。
  16. 前記測距装置のスキャン方式は、水平方向の往復方向スキャンであり、
    前記撮像装置のADC方式は、行並列ADC方式である
    請求項1に記載のセンサフュージョンシステム。
  17. 前記露光制御部は、ローリングシャッタ方式での露光を制御する
    請求項16に記載のセンサフュージョンシステム。
  18. 前記測距装置は、ライダであり、
    前記撮像装置は、イメージセンサを含む
    請求項1に記載のセンサフュージョンシステム。
  19. 測距装置と撮像装置との同期を制御する同期制御装置において、
    前記測距装置は、
    第1の方向に延びる光を出射する光源部と、前記第1の方向と直交する第2の方向へ前記光の出射方向を駆動する駆動部とを有する光源モジュールと、
    前記光源部が前記光を出射するタイミングを制御する光源制御部と、
    所定の受光範囲を有し、前記光源部から出射されて物体で反射された前記光を受光する受光部と、
    前記光源部が前記光を出射してから前記受光部が前記物体で反射された前記光を受光するまでの時間を計測する時間計測部と、
    計測した前記時間に基づいて、前記受光部又は前記光源モジュールから前記物体までの距離を算出する距離算出部と
    を備え、
    前記撮像装置は、
    2次元状に配置される複数の画素を有し、前記光源部が光を出射する出射範囲の少なくとも一部を含む撮像範囲を有する画素部と、
    前記第1の方向に並べて配置され、前記画素部にて前記第1の方向に並んだ画素群から出力された信号をAD変換するAD変換部と、
    前記複数の画素が前記第2の方向へ走査されるように前記複数の画素の露光を制御する露光制御部と
    を備え、
    前記光源部が所定の領域へ前記光を出射するタイミングと、前記所定の領域に対応する前記画素群が露光するタイミングとが同期するように、前記光源制御部と前記露光制御部とを制御する同期制御部を具備する
    同期制御装置。
  20. 第1の方向に延びる光を出射する光源部と、前記第1の方向と直交する第2の方向へ前記光の出射方向を駆動する駆動部とを有する光源モジュールと、
    前記光源部が前記光を出射するタイミングを制御する光源制御部と、
    所定の受光範囲を有し、前記光源部から出射されて物体で反射された前記光を受光する受光部と、
    前記光源部が前記光を出射してから前記受光部が前記物体で反射された前記光を受光するまでの時間を計測する時間計測部と、
    計測した前記時間に基づいて、前記受光部又は前記光源モジュールから前記物体までの距離を算出する距離算出部と
    を備える測距装置と、
    2次元状に配置される複数の画素を有し、前記光源部が光を出射する出射範囲の少なくとも一部を含む撮像範囲を有する画素部と、
    前記第1の方向に並べて配置され、前記画素部にて前記第1の方向に並んだ画素群から出力された信号をAD変換するAD変換部と、
    前記複数の画素が前記第2の方向へ走査されるように前記複数の画素の露光を制御する露光制御部と
    を備える撮像装置と
    の同期を制御する同期制御装置が、
    前記光源部が所定の領域へ前記光を出射するタイミングと、前記所定の領域に対応する前記画素群が露光するタイミングとが同期するように、前記光源制御部と前記露光制御部とを制御する
    同期制御方法。
JP2018193152A 2018-10-12 2018-10-12 センサフュージョンシステム、同期制御装置、及び同期制御方法 Pending JP2022036339A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018193152A JP2022036339A (ja) 2018-10-12 2018-10-12 センサフュージョンシステム、同期制御装置、及び同期制御方法
EP19870087.4A EP3865911B1 (en) 2018-10-12 2019-09-27 Sensor fusion system, synchronization control device, and synchronization control method
PCT/JP2019/038088 WO2020075525A1 (ja) 2018-10-12 2019-09-27 センサフュージョンシステム、同期制御装置、及び同期制御方法
US17/282,986 US20210341616A1 (en) 2018-10-12 2019-09-27 Sensor fusion system, synchronization control apparatus, and synchronization control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018193152A JP2022036339A (ja) 2018-10-12 2018-10-12 センサフュージョンシステム、同期制御装置、及び同期制御方法

Publications (1)

Publication Number Publication Date
JP2022036339A true JP2022036339A (ja) 2022-03-08

Family

ID=70164535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018193152A Pending JP2022036339A (ja) 2018-10-12 2018-10-12 センサフュージョンシステム、同期制御装置、及び同期制御方法

Country Status (4)

Country Link
US (1) US20210341616A1 (ja)
EP (1) EP3865911B1 (ja)
JP (1) JP2022036339A (ja)
WO (1) WO2020075525A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102615478B1 (ko) * 2019-10-24 2023-12-19 현대모비스 주식회사 자동차용 센서 통합 모듈
KR20210150765A (ko) * 2020-06-04 2021-12-13 에스케이하이닉스 주식회사 이미지 센싱 장치 및 이를 포함하는 촬영 장치
US20220018940A1 (en) * 2020-07-16 2022-01-20 Comotomo Corporation Vision first light detection and ranging system
JP7140229B1 (ja) 2021-04-28 2022-09-21 沖電気工業株式会社 推定装置、推定方法およびプログラム
DE102021118427A1 (de) 2021-07-16 2023-01-19 Schölly Fiberoptic GmbH Bildaufnahmevorrichtung für verbesserte Bildgebung bei schwacher Lichtintensität sowie zugehöriges Bildaufnahmeverfahren
DE112022003998T5 (de) 2021-10-21 2024-06-27 Hitachi Astemo, Ltd. Fahrzeugmontierte steuervorrichtung und verfahren zur erfassung dreidimensionaler informationen
CN114063111A (zh) * 2022-01-14 2022-02-18 探维科技(北京)有限公司 图像融合激光的雷达探测***及方法
WO2024106376A1 (ja) * 2022-11-15 2024-05-23 ヌヴォトンテクノロジージャパン株式会社 画像センシング装置、画像センシング方法およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07333339A (ja) * 1994-06-03 1995-12-22 Mitsubishi Electric Corp 自動車用障害物検知装置
JP2005114542A (ja) * 2003-10-08 2005-04-28 Hitachi Ltd 障害物検知装置及びそれを用いた障害物警報装置
US7706978B2 (en) * 2005-09-02 2010-04-27 Delphi Technologies, Inc. Method for estimating unknown parameters for a vehicle object detection system
JP2008172441A (ja) * 2007-01-10 2008-07-24 Omron Corp 検出装置および方法、並びに、プログラム
JP5416026B2 (ja) * 2010-04-23 2014-02-12 本田技研工業株式会社 車両の周辺監視装置
KR101665567B1 (ko) * 2010-05-20 2016-10-12 삼성전자주식회사 3차원 뎁스 영상 시간 보간 방법 및 장치
US9098753B1 (en) 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using multiple sensors
JP6609980B2 (ja) * 2015-04-30 2019-11-27 株式会社デンソー 光飛行時間測定装置及び光学的測距装置
CA2999697A1 (en) * 2015-09-30 2017-04-06 Sony Corporation Information processing apparatus, information processing method and program

Also Published As

Publication number Publication date
WO2020075525A1 (ja) 2020-04-16
EP3865911A1 (en) 2021-08-18
US20210341616A1 (en) 2021-11-04
EP3865911A4 (en) 2021-11-17
EP3865911B1 (en) 2024-02-07

Similar Documents

Publication Publication Date Title
EP3865911B1 (en) Sensor fusion system, synchronization control device, and synchronization control method
US10746874B2 (en) Ranging module, ranging system, and method of controlling ranging module
WO2018042887A1 (ja) 測距装置、および、測距装置の制御方法
JP7044107B2 (ja) 光センサ、及び、電子機器
JP2020136958A (ja) イベント信号検出センサ及び制御方法
EP3654063B1 (en) Electronic device and method for controlling electronic device
TWI744876B (zh) 圖像辨識裝置、固體攝像裝置及圖像辨識方法
US11454723B2 (en) Distance measuring device and distance measuring device control method
WO2021085128A1 (ja) 測距装置、測定方法、および、測距システム
CN111434105A (zh) 固态成像元件、成像装置和固态成像元件的控制方法
WO2020184224A1 (ja) 距離測定装置及びスキュー補正方法
JP2018064257A (ja) 撮像システム
JP2023003308A (ja) 撮像装置、電子機器、および光検出方法
WO2020137318A1 (ja) 測定装置、測距装置および測定方法
JP2020205507A (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2021235033A1 (ja) センシングシステム
WO2021166344A1 (ja) センシングシステム、および、測距システム
WO2021002071A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2021192459A1 (ja) 撮像装置
WO2021100593A1 (ja) 測距装置及び測距方法
WO2021215113A1 (ja) 固体撮像素子、センシングシステム、および、固体撮像素子の制御方法
WO2022075065A1 (ja) 半導体装置、光学構造物
WO2020153262A1 (ja) 計測装置および測距装置