JP7223559B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP7223559B2
JP7223559B2 JP2018215454A JP2018215454A JP7223559B2 JP 7223559 B2 JP7223559 B2 JP 7223559B2 JP 2018215454 A JP2018215454 A JP 2018215454A JP 2018215454 A JP2018215454 A JP 2018215454A JP 7223559 B2 JP7223559 B2 JP 7223559B2
Authority
JP
Japan
Prior art keywords
image
light
detected
unit
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018215454A
Other languages
Japanese (ja)
Other versions
JP2020085486A (en
Inventor
智之 石川
栄嗣 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Signal Co Ltd
Original Assignee
Nippon Signal Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Signal Co Ltd filed Critical Nippon Signal Co Ltd
Priority to JP2018215454A priority Critical patent/JP7223559B2/en
Publication of JP2020085486A publication Critical patent/JP2020085486A/en
Application granted granted Critical
Publication of JP7223559B2 publication Critical patent/JP7223559B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、物体検知装置に関する。 The present invention relates to an object detection device.

光の往復時間により物体までの距離を計測する距離センサを用いて、距離を画素値とする距離画像を生成する技術がある。そのような技術はLidar(Light Detection and Ranging、Laser Imaging Detection and Ranging)と呼ばれる。 There is a technique for generating a distance image in which the distance is a pixel value using a distance sensor that measures the distance to an object based on the round trip time of light. Such technology is called Lidar (Light Detection and Ranging, Laser Imaging Detection and Ranging).

例えば、特許文献1には、Lidarにより背景画像を生成しておき、運用時にLidarにより生成した距離画像と背景画像との差分画像により人物や物などの対象物を検知する技術が記載されている。 For example, Patent Literature 1 describes a technique for generating a background image by Lidar and detecting an object such as a person or an object from a difference image between the background image and the distance image generated by Lidar during operation. .

特開2014-196963号公報JP 2014-196963 A

或る環境下においては、Lidarにより検知すべき対象物(障害物、人物等)を表す距離画像が生成されない場合がある。例えば、霧、煙、微細な粉体(砂埃等)等の空中浮遊物が存在している環境下においてLidarにより距離画像を生成した場合、距離センサが近くの空中浮遊物までの距離を計測してしまい、空中浮遊物の向こう側に存在する検知すべき対象物を表す画像が得られない場合がある。そのような環境下においては、Lidarにより生成される距離画像から、検知すべき対象物を検知できない。 Under certain circumstances, Lidar may not generate a distance image representing objects (obstacles, people, etc.) to be detected. For example, when a distance image is generated by Lidar in an environment where airborne objects such as fog, smoke, and fine powder (dust etc.) exist, the distance sensor measures the distance to nearby airborne objects. image of objects to be detected beyond the airborne object may not be obtained. Under such an environment, the object to be detected cannot be detected from the distance image generated by Lidar.

上記の背景に鑑み、本発明は、距離画像による物体の検知が困難な環境下においても、当該物体の検知を可能とする技術を提供する。 In view of the above background, the present invention provides a technique that enables detection of an object even in an environment in which it is difficult to detect an object using a range image.

上述した課題を解決するために、本発明は、投光から受光部による反射光の受光までの往復時間により測距した距離を画素値とする距離画像を生成し、順次繰り返して行われる前記投光におけるある投光から次の投光までの期間において前記受光部で受光した光の光量に基づいた値を画素値とする光量画像を生成し、前記距離画像と前記光量画像の各々から物体を検知する物体検知装置であって、前記距離画像から検知した物体が、検知すべき対象物の検知を阻害する物体であると判定した場合、前記光量画像から前記対象物を検知する物体検知装置を第1の態様として提供する。 In order to solve the above-described problems, the present invention generates a distance image having pixel values of distances measured by the round-trip time from the projection of light to the reception of reflected light by a light-receiving section, and repeats the projection in sequence. generating a light quantity image having a pixel value based on the light quantity of light received by the light receiving unit in a period from one light projection to the next light projection, and determining an object from each of the distance image and the light quantity image; an object detection device that detects the object from the light amount image when it is determined that the object detected from the distance image is an object that hinders detection of the object to be detected; Provided as a first aspect.

第1の態様の物体検知装置によれば、距離画像による物体の検知が困難な環境下においても、光量画像により物体を検知できる。 According to the object detection device of the first aspect, it is possible to detect an object using a light amount image even in an environment where it is difficult to detect an object using a distance image.

また、の態様の物体検知装置によれば、何らかの物体に阻害されて対象物の画像が距離画像に含まれない場合であっても、光量画像により対象物を検知できる。 Further, according to the object detection device of the first aspect, even when the image of the object is not included in the distance image due to obstruction by some object, the object can be detected from the light intensity image.

の態様の物体検知装置において、前記検知すべき対象物の検知を阻害する物体は、空中浮遊物である、という構成が第の態様として採用されてもよい。 In the object detection device of the first aspect, a configuration may be adopted as a second aspect in which the object that hinders detection of the object to be detected is an object floating in the air.

の態様の物体検知装置によれば、空中浮遊物が存在する環境下でも、対象物を検知できる。 According to the object detection device of the second aspect, the object can be detected even in an environment where airborne objects exist.

第1又は第2の態様の物体検知装置において、前記光量画像と前記距離画像の各々から検知した物体の同定を行う、という構成が第の態様として採用されてもよい。 In the object detection device of the first or second aspect, a configuration may be adopted as a third aspect in which the detected object is identified from each of the light quantity image and the distance image.

の態様の物体検知装置によれば、光量画像と距離画像の両方から同じ物体が検知されたか否かが判る。 According to the object detection device of the third aspect, it can be determined whether or not the same object has been detected from both the light intensity image and the distance image.

の態様の物体検知装置において、前記光量画像から検知した物体であって、前記距離画像から検知した物体と同定した物体までの距離を、前記距離画像から推定する、という構成が第の態様として採用されてもよい。 In the object detection device according to the third aspect, the fourth configuration is that the object detected from the light quantity image and the distance to the object identified as the object detected from the distance image is estimated from the distance image. You may employ|adopt as an aspect.

の態様の物体検知装置によれば、距離画像から物体が検知できなくなった場合でも、光量画像から検知される物体までの距離が推定できる。 According to the object detection device of the fourth aspect, even when the object cannot be detected from the distance image, the distance to the detected object can be estimated from the light intensity image.

一実施形態に係る画像生成装置の構成を示したブロック図。1 is a block diagram showing the configuration of an image generating device according to one embodiment; FIG. 一実施形態に係る時間差計測部が行う時間差の計測と光量計測部が行う光量の計測の方法を説明するための図。FIG. 4 is a diagram for explaining a time difference measurement method performed by a time difference measurement unit and a light amount measurement method performed by a light amount measurement unit according to an embodiment; 一実施形態に係る距離画像生成部が生成した距離画像と光量画像生成部が生成した光量画像の例を示した図。FIG. 4 is a diagram showing an example of a distance image generated by a distance image generation unit and a light amount image generated by a light amount image generation unit according to one embodiment; 一実施形態に係る物体検知部が行う距離画像と光量画像とから物体を検知する処理のフローを例示した図。The figure which illustrated the flow of the process which detects an object from a distance image and a light quantity image which the object detection part which concerns on one Embodiment performs. 一変形例に係る物体検知部が行う距離画像と光量画像とから物体を検知する処理のフローを例示した図。The figure which illustrated the flow of the process which detects an object from a distance image and a light quantity image which the object detection part which concerns on a modified example performs. 一変形例に係る物体検知部が行う距離画像と光量画像とから物体を検知する処理のフローを例示した図。The figure which illustrated the flow of the process which detects an object from a distance image and a light quantity image which the object detection part which concerns on a modified example performs. 一変形例に係る物体検知部が行う処理を説明するための図。The figure for demonstrating the process which the object detection part which concerns on a modified example performs. 一変形例に係る光量計測部が光量を計測する方法を説明するための図。The figure for demonstrating the method which the light amount measuring part which concerns on a modification measures a light amount.

[実施形態]
以下に、本発明の一実施形態に係る物体検知装置1を説明する。図1は、物体検知装置1の構成を示したブロック図である。
[Embodiment]
An object detection device 1 according to an embodiment of the present invention will be described below. FIG. 1 is a block diagram showing the configuration of the object detection device 1. As shown in FIG.

投光部11は、レーザ光を発光する発光素子と、発光素子の駆動回路と、発光したレーザ光を走査部13へと導く光学系等を備えている。発光素子が発光するタイミングは、タイミング制御部14で制御される。 The light projecting unit 11 includes a light emitting element that emits laser light, a drive circuit for the light emitting element, an optical system that guides the emitted laser light to the scanning unit 13, and the like. The timing at which the light emitting element emits light is controlled by the timing control section 14 .

走査部13は、投光部11から投光されるレーザ光の方向を、検知領域D内の複数方向の各々に順次変更してゆく走査処理を行う。以下、それらの複数方向を方向d(1)~d(n)(ただし、nは所定の自然数)とする。走査部13の構成としては、種々のものが採用可能であるが、本実施形態では、走査部13は、可動部131と、可動部131に取り付けられたミラー132と、不図示の永久磁石とを備えている。ミラー132には、投光部11から投光されたレーザ光が入射する。 The scanning unit 13 performs scanning processing in which the direction of the laser light projected from the light projecting unit 11 is sequentially changed to each of a plurality of directions within the detection area D. These multiple directions are hereinafter referred to as directions d(1) to d(n) (where n is a predetermined natural number). Various configurations can be adopted for the scanning unit 13. In this embodiment, the scanning unit 13 includes a movable unit 131, a mirror 132 attached to the movable unit 131, and a permanent magnet (not shown). It has The laser light projected from the light projection unit 11 is incident on the mirror 132 .

可動部131に電流が流れると、永久磁石との間に発生する力により可動部131が傾く。走査部13は、タイミング制御部14から入力される駆動信号に従い可動部131に流す電流を制御することにより、可動部131の傾きの方向と大きさを変更し、可動部131に取り付けられているミラー132の方向を変更する。以下、「ミラー132の方向」とは、投光部11からミラー132に向けて投光されたレーザ光がミラー132で反射した後に進む方向を意味するものとする。 When a current flows through the movable portion 131, the movable portion 131 tilts due to the force generated between the movable portion 131 and the permanent magnet. The scanning section 13 is attached to the movable section 131 by controlling the current flowing through the movable section 131 in accordance with the drive signal input from the timing control section 14 to change the tilt direction and magnitude of the movable section 131 . Change the orientation of the mirror 132 . Hereinafter, “the direction of the mirror 132 ” means the direction in which the laser light projected from the light projecting section 11 toward the mirror 132 travels after being reflected by the mirror 132 .

走査部13から検知領域D内のいずれかの方向に照射されたレーザ光が物体に当たると、反射光が発生する。反射光のうちミラー132に向かった反射光は、ミラー132で反射して受光部12へ向かう。 When the laser beam emitted from the scanning unit 13 in any direction within the detection area D hits an object, reflected light is generated. Of the reflected light, the reflected light directed toward the mirror 132 is reflected by the mirror 132 and directed toward the light receiving section 12 .

受光部12は、受光した光の光量の瞬時値を示す光量信号を継続的に出力する。受光部12は、光学系と、受光素子と、増幅回路等を備えている。ミラー132からの反射光は、光学系により受光素子へと導かれる。受光素子は光学系により導かれた反射光の光量の瞬時値を示す光量信号を増幅回路に出力し、増幅回路はその光量信号を増幅して出力する。 The light receiving section 12 continuously outputs a light intensity signal indicating an instantaneous value of the light intensity of the received light. The light receiving section 12 includes an optical system, a light receiving element, an amplifier circuit, and the like. Reflected light from the mirror 132 is guided to the light receiving element by the optical system. The light-receiving element outputs a light intensity signal indicating the instantaneous value of the light intensity of the reflected light guided by the optical system to the amplifier circuit, and the amplifier circuit amplifies and outputs the light intensity signal.

タイミング制御部14は、走査部13に対しミラー132の方向の変更のタイミングを通知するとともに、投光部11に対し投光のタイミングを通知する。走査部13はタイミング制御部14からの通知に応じてミラー132の方向を変更し、投光部11はタイミング制御部14からの通知に応じてレーザ光の投光を行う。これにより、方向d(1)~d(n)の各々に順次、レーザ光の照射が行われることになる。以下に、タイミング制御部14、走査部13及び投光部11の動作を説明する。 The timing control unit 14 notifies the timing of changing the direction of the mirror 132 to the scanning unit 13 and notifies the timing of light projection to the light projecting unit 11 . The scanning unit 13 changes the direction of the mirror 132 according to the notification from the timing control unit 14 , and the light projecting unit 11 projects laser light according to the notification from the timing control unit 14 . As a result, laser light irradiation is sequentially performed in each of the directions d(1) to d(n). The operations of the timing control section 14, the scanning section 13 and the light projecting section 11 will be described below.

タイミング制御部14は、まず、方向d(1)をその時点においてレーザ光の照射を行いたい方向として選択する。以下、タイミング制御部14が選択している方向を「選択方向」という。 The timing control unit 14 first selects the direction d(1) as the direction in which laser light irradiation is desired at that time. Hereinafter, the direction selected by the timing control unit 14 will be referred to as "selected direction".

タイミング制御部14は、走査部13に対しミラー132の方向を選択方向に向かわせる駆動信号を生成し、生成した駆動信号を走査部13に出力する。この駆動信号が、走査部13に対しミラー132の方向の変更のタイミングを通知する信号の役割を果たす。走査部13は、タイミング制御部14から入力される駆動信号に応じた電流を可動部131に流すことによってミラー132の方向を変更するとともに、現在のミラー132の方向を示す方向信号を継続的にタイミング制御部14に出力する。 The timing control unit 14 generates a driving signal for causing the scanning unit 13 to direct the direction of the mirror 132 in the selected direction, and outputs the generated driving signal to the scanning unit 13 . This drive signal serves as a signal that notifies the scanning unit 13 of the timing of changing the direction of the mirror 132 . The scanning unit 13 changes the direction of the mirror 132 by causing a current corresponding to the drive signal input from the timing control unit 14 to flow through the movable unit 131, and continuously outputs a direction signal indicating the current direction of the mirror 132. Output to the timing control unit 14 .

タイミング制御部14は、走査部13から継続的に入力される方向信号が示すミラー132の方向が選択方向と一致したタイミングで、投光部11に投光を指示する投光信号を出力する。投光信号は、投光部11に対し投光のタイミングを通知する信号の役割を果たす。また、投光信号は、計測部15にも出力される。 The timing control unit 14 outputs a projection signal instructing the projection unit 11 to project light at the timing when the direction of the mirror 132 indicated by the direction signal continuously input from the scanning unit 13 matches the selected direction. The light projection signal serves as a signal that notifies the light projection unit 11 of the timing of light projection. The light projection signal is also output to the measurement unit 15 .

投光部11は、タイミング制御部14から入力される投光信号に応じて、ごく短い所定時間、レーザ光を投光する。その結果、方向d(1)にパルス状のレーザ光が照射され、受光部12によりそのレーザ光の反射光が受光される。 The light projecting unit 11 projects laser light for a very short predetermined time in accordance with a light projecting signal input from the timing control unit 14 . As a result, a pulsed laser beam is emitted in the direction d(1), and the light receiving section 12 receives the reflected light of the laser beam.

タイミング制御部14は、方向d(1)を選択したタイミングから所定時間が経過すると、その時点の選択方向である方向d(1)に隣接する方向d(2)を新たな選択方向として選択する。その後、新たに選択した方向d(2)に関し、上述した走査部13に対する駆動信号の出力等の処理を行う。その結果、方向d(2)にパルス状のレーザ光が照射され、受光部12によりそのレーザ光の反射光が受光される。 When a predetermined time elapses from the timing when direction d(1) is selected, the timing control unit 14 selects direction d(2) adjacent to direction d(1), which is the selected direction at that time, as a new selected direction. . After that, regarding the newly selected direction d(2), processing such as output of the driving signal to the scanning unit 13 described above is performed. As a result, a pulsed laser beam is emitted in the direction d(2), and the light receiving section 12 receives the reflected light of the laser beam.

タイミング制御部14が、方向d(1)、d(2)、・・・、d(n)の順に選択方向を変更しながら、選択方向に関し上述した走査部13に対する駆動信号の出力等の処理を行うと、方向d(1)~d(n)の各々に関し、レーザ光の照射と反射光の受光が行われる。これにより、物体検知装置1による、検知領域Dの全域に渡るレーザ光の照射と反射光の受光の処理(以下、「スキャン処理」という)が完了する。 While the timing control unit 14 changes the selection direction in order of directions d(1), d(2), . , laser light irradiation and reflected light reception are performed in each of the directions d(1) to d(n). As a result, the process of irradiating the laser beam and receiving the reflected light over the entire detection area D by the object detection device 1 (hereinafter referred to as "scanning process") is completed.

タイミング制御部14は、1回目のスキャン処理が完了した後、引き続き、2回目のスキャン処理のために、方向d(1)、d(2)、・・・、d(n)の順に選択方向を変更しながら、選択方向に関し上述した走査部13に対する駆動信号の出力等の処理を行う。その結果、方向d(1)~d(n)の各々に関し、レーザ光の照射と反射光の受光が繰り返され、2回目のスキャン処理が完了する。このように、物体検知装置1は動作中、検知領域Dに関するスキャン処理を繰り返す。 After the first scan process is completed, the timing control unit 14 continues to select directions d(1), d(2), . . . , d(n) for the second scan process. is changed, processing such as the output of the driving signal to the scanning unit 13 described above with respect to the selection direction is performed. As a result, laser light irradiation and reflected light reception are repeated in each of the directions d(1) to d(n), completing the second scanning process. In this way, the object detection device 1 repeats the scanning process for the detection area D during operation.

なお、タイミング制御部14が選択方向を選択する順序は、常に方向d(1)、d(2)、・・・、d(n)の順でなくてもよい。例えば、タイミング制御部14は、或るスキャン処理において方向d(1)、d(2)、・・・、d(n)の順に選択方向を選択した後、次のスキャン処理においてはd(n)、d(n-1)、・・・、d(1)のように逆の順序で選択方向を選択してもよい。 Note that the order in which the timing control unit 14 selects the selection direction does not always have to be the order of directions d(1), d(2), . . . , d(n). For example, the timing control unit 14 selects directions d(1), d(2), . ), d(n−1), . . . , d(1).

計測部15は、距離計測部151と光量計測部152を備える。距離計測部151と光量計測部152の各々には、受光部12から継続的に光量信号が入力され、タイミング制御部14から所定時間の経過毎に投光信号が入力される。 The measurement unit 15 includes a distance measurement unit 151 and a light intensity measurement unit 152 . Each of the distance measuring unit 151 and the light amount measuring unit 152 is continuously input with the light amount signal from the light receiving unit 12, and is input with the light projection signal from the timing control unit 14 each time a predetermined time elapses.

距離計測部151は、タイミング制御部14から投光信号を受信した後、次の投稿信号を受信するまでの期間において、受光部12から入力される光量信号の波形から、受光部12により最初の反射光が受光された時刻を特定する。そして、距離計測部151は、投光信号を受信した時刻、すなわち、投光部11によるレーザ光の照射時刻から、最初の反射光が受光された時刻、すなわち、受光部12による反射光の受光時刻までの時間差を計測する。この時間差は、物体検知装置1から照射され、物体で反射して物体検知装置1に戻ってくる光の往復時間である。 Distance measurement unit 151 receives the light projection signal from timing control unit 14 and receives the next posted signal from the waveform of the light amount signal input from light reception unit 12. Identify the time when the reflected light was received. Then, the distance measuring unit 151 measures the time from the time when the light projection signal is received, that is, the time when the laser light is irradiated by the light projecting unit 11 to the time when the first reflected light is received, that is, when the light receiving unit 12 receives the reflected light. Measure the time difference to the time. This time difference is the round trip time of the light emitted from the object detection device 1, reflected by the object, and returned to the object detection device 1. FIG.

例えば、距離計測部151は、タイミング制御部14から、方向d(1)に関する投光信号を時刻T0において受信した後、方向d(2)に関する投光信号を時刻T1において受信した場合、時刻T0から時刻T1までの期間において、受光部12から入力される光量信号が所定の閾値を上回った最初の時刻T2を最初の反射光が受光された時刻として特定する。そして、距離計測部151は、時刻T0と時刻T2の時間差を、方向d(1)に関する時間差として計測する。 For example, when the distance measurement unit 151 receives the light projection signal for the direction d(1) from the timing control unit 14 at the time T0 and then receives the light projection signal for the direction d(2) at the time T1, the distance measurement unit 151 receives the light projection signal for the direction d(2) at the time T0. to time T1, the first time T2 at which the light amount signal input from the light receiving unit 12 exceeds a predetermined threshold is specified as the time when the first reflected light is received. Then, the distance measurement unit 151 measures the time difference between the time T0 and the time T2 as the time difference regarding the direction d(1).

距離計測部151は、光の速度と、上記のように計測した時間差により、その選択方向に存在する最も近い物体までの距離を算出し、算出した距離を示す距離データを画像生成部16が備える距離画像生成部161に引き渡す。 The distance measurement unit 151 calculates the distance to the closest object existing in the selected direction from the speed of light and the time difference measured as described above, and the image generation unit 16 provides distance data indicating the calculated distance. It is handed over to the distance image generation unit 161 .

投光部11、受光部12、走査部13、タイミング制御部14、及び、距離計測部151は、光の往復時間により測距する距離センサを構成する。 The light projecting unit 11, the light receiving unit 12, the scanning unit 13, the timing control unit 14, and the distance measuring unit 151 constitute a distance sensor that measures the distance based on the round trip time of light.

光量計測部152は、タイミング制御部14から投光信号を受信した後、次の投稿信号を受信するまでの期間において、受光部12から入力される光量信号が示す値の時間軸方向の積分値を計測する。この積分値は、投光部11から検知領域D内へ照射された1回のパルス状のレーザ光のうち、その照射方向において何らかの物体に反射して受光部12まで戻ってきた反射光の光量の総量を示す。以下、光量画像の生成に関し単に「光量」という場合、この積分値を意味するものとする。 The light amount measuring unit 152 integrates the value indicated by the light amount signal input from the light receiving unit 12 in the time axis direction during the period from when the light amount signal is received from the timing control unit 14 to when the next posting signal is received. to measure This integrated value is the amount of light reflected by some object in the irradiation direction and returned to the light receiving unit 12, out of the pulsed laser light irradiated from the light projecting unit 11 into the detection region D once. indicates the total amount of In the following description, simply referring to the "light amount" with respect to the generation of the light amount image means this integrated value.

光量計測部152は、上記のように計測した光量を示す光量データを画像生成部16が備える光量画像生成部162に引き渡す。 The light amount measurement unit 152 transfers the light amount data indicating the light amount measured as described above to the light amount image generation unit 162 included in the image generation unit 16 .

画像生成部16は、距離画像生成部161と光量画像生成部162を備える。 The image generator 16 includes a distance image generator 161 and a light amount image generator 162 .

距離画像生成部161は、1回のスキャン処理に応じて距離計測部151から順次引き渡される方向d(1)~d(n)の各々に関する距離データを全て受け取ると、それらの距離データが示す距離を、方向d(1)~d(n)の各々に応じた画素値とする距離画像を生成する。距離画像は、検知領域D内における投光部11(又は受光部12)から最も近い物体までの距離の分布を表す。距離画像生成部161は、スキャン処理の完了毎に1フレームの距離画像を生成する。距離画像生成部161は、生成した距離画像を表す距離画像データを物体検知部17に引き渡す。 Upon receiving all the distance data regarding each of the directions d(1) to d(n) that are sequentially transferred from the distance measurement unit 151 in accordance with one scan process, the distance image generation unit 161 calculates the distances indicated by the distance data. is a pixel value corresponding to each of the directions d(1) to d(n). The distance image represents the distribution of distances from the light projecting section 11 (or the light receiving section 12) to the closest object within the detection area D. FIG. The distance image generation unit 161 generates a distance image of one frame each time scanning processing is completed. The distance image generation unit 161 delivers distance image data representing the generated distance image to the object detection unit 17 .

光量画像生成部162は、1回のスキャン処理に応じて光量計測部152から順次引き渡される方向d(1)~d(n)の各々に関する光量データを全て受け取ると、それらの光量データが示す光量を、方向d(1)~d(n)の各々に応じた画素値とする光量画像を生成する。光量画像は、検知領域D内へ照射したレーザ光の反射光の光量の、検知領域D内における分布を表す。光量画像生成部162は、スキャン処理の完了毎に1フレームの光量画像を生成する。光量画像生成部162は、生成した光量画像を表す光量画像データを物体検知部17に引き渡す。 When the light intensity image generation unit 162 receives all the light intensity data for each of the directions d(1) to d(n) sequentially delivered from the light intensity measurement unit 152 in accordance with one scan process, the light intensity indicated by the light intensity data is a pixel value corresponding to each of the directions d(1) to d(n). The light quantity image represents the distribution in the detection region D of the light quantity of the reflected light of the laser beam irradiated into the detection region D. FIG. The light amount image generation unit 162 generates a light amount image of one frame each time scanning processing is completed. The light intensity image generation unit 162 delivers light intensity image data representing the generated light intensity image to the object detection unit 17 .

物体検知部17は、距離画像生成部161から引き渡される距離画像データが表す距離画像と、光量画像生成部162から引き渡される光量画像データが表す光量画像から、物体を検知する。物体検知部17は、例えば不図示の移動体の制御部等に、物体の検知の結果を通知する通知データを引き渡す。移動体の制御部等は、物体検知部17から受け取った通知データが示す物体の検知の結果に応じた所定の制御(例えば、動作の停止等)を行う。 The object detection unit 17 detects an object from the distance image represented by the distance image data handed over from the distance image generation unit 161 and the light amount image represented by the light amount image data handed over from the light amount image generation unit 162 . The object detection unit 17 delivers notification data for notifying the detection result of the object to, for example, a control unit of a moving body (not shown). The control unit or the like of the moving body performs predetermined control (for example, operation stop, etc.) according to the detection result of the object indicated by the notification data received from the object detection unit 17 .

図2は、距離計測部151が行う時間差の計測と、光量計測部152が行う光量の計測の方法を説明するための図である。図2は、或る選択方向にレーザ光が照射された場合に、タイミング制御部14から計測部15に入力される投光信号、受光部12から計測部15に入力される光量信号、及び、光量計測部152が計測する積分値(光量)の時間的変化を示したグラフである。 FIG. 2 is a diagram for explaining the method of measuring the time difference performed by the distance measuring unit 151 and the method of measuring the amount of light performed by the light amount measuring unit 152 . FIG. 2 shows a light projection signal input from the timing control unit 14 to the measurement unit 15, a light intensity signal input from the light receiving unit 12 to the measurement unit 15, and 4 is a graph showing a temporal change in an integrated value (amount of light) measured by a light amount measuring unit 152;

図2(A)は、選択方向に空中浮遊物が存在せず、選択方向に検知すべき対象物(障害物、人物等)が存在する場合のグラフを示している。図2(B)は、選択方向に空中浮遊物が存在し、選択方向に検知すべき対象物が存在する場合のグラフを示している。図2(C)は、選択方向に空中浮遊物が存在し、選択方向に検知すべき対象物が存在しない場合のグラフを示している。 FIG. 2A shows a graph when there is no object floating in the air in the selected direction and there is an object (an obstacle, a person, etc.) to be detected in the selected direction. FIG. 2(B) shows a graph when there is an object floating in the air in the selected direction and there is an object to be detected in the selected direction. FIG. 2(C) shows a graph when there is an object floating in the air in the selected direction and there is no object to be detected in the selected direction.

図2(A)の光量信号が立ち上がる時刻t1は、投光信号が立ち上がる時刻t0に照射され、検知すべき対象物で反射したレーザ光の反射光が受光部12により受光された時刻を示す。この場合、距離計測部151は時刻t0から時刻t1までの時間差T1を計測し、時間差T1を用いて算出した距離を示す距離データを距離画像生成部161に引き渡す。また、この場合、光量計測部152が計測する積分値は、時刻t1から増加し、V1に達した後、変化しない。光量計測部152は、積分値V1を光量として示す光量データを光量画像生成部162に引き渡す。 The time t1 at which the light amount signal rises in FIG. 2A indicates the time at which the light receiving section 12 receives the reflected light of the laser beam that was irradiated at the time t0 at which the light projection signal rises and was reflected by the object to be detected. In this case, the distance measurement unit 151 measures the time difference T1 from the time t0 to the time t1, and passes the distance data indicating the distance calculated using the time difference T1 to the distance image generation unit 161. Also, in this case, the integrated value measured by the light amount measuring unit 152 increases from time t1 and does not change after reaching V1. The light amount measuring unit 152 delivers light amount data indicating the integrated value V1 as the light amount to the light amount image generating unit 162 .

図2(B)の光量信号が最初に立ち上がる時刻t2は、投光信号が立ち上がる時刻t0に照射され、空中浮遊物のうち投光部11に最も近いもので反射したレーザ光の反射光が受光部12により受光された時刻を示す。また、図2(B)の光量信号が2番目に立ち上がる時刻t3は、投光信号が立ち上がる時刻t0に照射され、検知すべき対象物で反射したレーザ光の反射光が受光部12により受光された時刻を示す。この場合、距離計測部151は時刻t0から時刻t2までの時間差T2を計測し、時間差T2を用いて算出した距離を示す距離データを距離画像生成部161に引き渡す。また、この場合、光量計測部152が計測する積分値は、時刻t2から増加した後、変化しない期間を経て、時刻t3から再び増加し、V2に達した後、変化しない。光量計測部152は、積分値V2を光量として示す光量データを光量画像生成部162に引き渡す。 At the time t2 when the light amount signal first rises in FIG. 2B, the light is emitted at the time t0 when the light projection signal rises, and the reflected light of the laser light reflected by the object closest to the light projecting unit 11 among the objects floating in the air is received. It shows the time when the light was received by the unit 12 . At time t3 when the light amount signal rises second in FIG. time. In this case, the distance measurement unit 151 measures the time difference T2 from the time t0 to the time t2, and passes the distance data indicating the distance calculated using the time difference T2 to the distance image generation unit 161. Also, in this case, the integrated value measured by the light amount measuring unit 152 increases from time t2, passes through a period of no change, increases again from time t3, and does not change after reaching V2. The light amount measuring unit 152 transfers the light amount data representing the integrated value V2 as the light amount to the light amount image generating unit 162 .

図2(C)の光量信号が立ち上がる時刻t4は、投光信号が立ち上がる時刻t0に照射され、空中浮遊物のうち投光部11に最も近いもので反射したレーザ光の反射光が受光部12により受光された時刻を示す。この場合、距離計測部151は時刻t0から時刻t4までの時間差T4を計測し、時間差T4を用いて算出した距離を示す距離データを距離画像生成部161に引き渡す。また、この場合、光量計測部152が計測する積分値は、時刻t4から増加し、V3に達した後、変化しない。光量計測部152は、積分値V3を光量として示す光量データを光量画像生成部162に引き渡す。 At time t4 when the light amount signal rises in FIG. indicates the time when the light was received. In this case, the distance measurement unit 151 measures the time difference T4 from the time t0 to the time t4, and passes the distance data indicating the distance calculated using the time difference T4 to the distance image generation unit 161. Also, in this case, the integrated value measured by the light amount measuring unit 152 increases from time t4 and does not change after reaching V3. The light amount measuring unit 152 delivers light amount data indicating the integrated value V3 as the light amount to the light amount image generating unit 162 .

図3は、距離画像生成部161が生成した距離画像と、光量画像生成部162が生成した光量画像の例を示した図である。図3(A)と図3(B)は、空中浮遊物が存在していない環境下で同時に生成された距離画像と光量画像を各々示している。図3(C)と図3(D)は、空中浮遊物が存在している環境下で同時に生成された距離画像と光量画像を各々示している。なお、距離画像は、例えば、画素値に応じた色により距離の分布を表す。ただし、距離画像が、画素値に応じた濃淡により距離の分布を表してもよい。また、光量画像は、例えば、画素値に応じた濃淡により光量の分布を表す。ただし、光量画像が、画素値に応じた色により光量の分布を表してもよい。 3A and 3B are diagrams showing examples of the distance image generated by the distance image generation unit 161 and the light amount image generated by the light amount image generation unit 162. FIG. FIGS. 3(A) and 3(B) respectively show a distance image and a light amount image simultaneously generated in an environment in which airborne objects do not exist. FIGS. 3(C) and 3(D) respectively show a distance image and a light quantity image simultaneously generated in an environment in which airborne objects exist. Note that the distance image represents the distance distribution by, for example, colors corresponding to pixel values. However, the distance image may represent the distribution of distances by shading corresponding to pixel values. Further, the light amount image represents the light amount distribution by, for example, shading corresponding to the pixel value. However, the light intensity image may represent the light intensity distribution with colors corresponding to pixel values.

図3(A)及び図3(B)に示されるように、空中浮遊物が存在していない環境下においては、距離画像と光量画像のいずれにも、検知すべき対象物の画像が含まれている。従って、距離画像と光量画像のいずれからも、検知すべき対象物の検知が可能である。 As shown in FIGS. 3(A) and 3(B), both the distance image and the light amount image include the image of the object to be detected in an environment where there are no objects floating in the air. ing. Therefore, the object to be detected can be detected from both the distance image and the light quantity image.

一方、図3(C)に示されるように、空中浮遊物が存在している環境下においては、距離画像に検知すべき対象物の画像は含まれない。これは、距離画像が、検知すべき対象物より手前にある空中浮遊物までの距離の分布を表してしまうためである。従って、距離画像から、空中浮遊物の向こう側に存在する検知すべき対象物の検知を行うことは不可能である。 On the other hand, as shown in FIG. 3C, in an environment where airborne objects exist, the range image does not include the image of the object to be detected. This is because the distance image represents the distribution of the distances to the objects floating in the air in front of the object to be detected. Therefore, it is impossible to detect an object to be detected that exists on the other side of the airborne object from the distance image.

しかしながら、図3(D)に示されるように、空中浮遊物が存在している環境下においても、光量画像には検知すべき対象物の画像が含まれている。これは、投光部11から照射されたレーザ光の光束のうち、空中浮遊物に当たらず検知すべき対象物に達し、その対象物で反射した後、空中浮遊物に当たらず受光部12に達するものが、光量計測部152により計測される積分値(光量)を増加させるためである。従って、光量画像からは、検知すべき対象物の検知が可能である。 However, as shown in FIG. 3D, the image of the object to be detected is included in the light intensity image even in an environment where airborne objects are present. This is because the beam of laser light emitted from the light projecting unit 11 reaches the object to be detected without hitting the object floating in the air, and after being reflected by the object, it reaches the light receiving unit 12 without hitting the object floating in the air. This is because the integrated value (light amount) measured by the light amount measuring unit 152 is increased. Therefore, the object to be detected can be detected from the light quantity image.

図4は、物体検知部17が行う、距離画像と光量画像とから物体を検知する処理のフローを例示した図である。図4のフローは画像生成部16により1フレームの距離画像及び光量画像が生成され、物体検知部17に距離画像データ及び光量画像データが引き渡される毎に実行される。 FIG. 4 is a diagram exemplifying the flow of processing performed by the object detection unit 17 to detect an object from a distance image and a light intensity image. The flow of FIG. 4 is executed each time the image generating unit 16 generates one frame of distance image and light amount image and the object detecting unit 17 receives the distance image data and the light amount image data.

物体検知部17は、光量画像生成部162から距離画像データ及び光量画像データを取得すると(ステップS101)、まず、距離画像データが表す距離画像に対し、物体を表す画像を抽出するための既知の画像処理を行う(ステップS102)。ステップS102において物体検知部17が行う画像処理には、例えば、エッジ検出、2値化、領域の膨張・収縮等が含まれる。 When the object detection unit 17 acquires the distance image data and the light amount image data from the light amount image generation unit 162 (step S101), first, the distance image represented by the distance image data is subjected to a known method for extracting an image representing an object. Image processing is performed (step S102). Image processing performed by the object detection unit 17 in step S102 includes, for example, edge detection, binarization, expansion/contraction of an area, and the like.

続いて、物体検知部17は、ステップS102において画像処理を行った距離画像に基づき、物体の有無の判定と、物体が有る場合にその物体が検知すべき対象物の検知を阻害する物体(空中浮遊物等)であるか否かの判定とを行う(ステップS103)。ステップS102において画像処理を行った距離画像に所定の大きさ以上の塊が含まれていない場合、物体検知部17は検知領域Dに検知すべき対象物が無いと判定する(ステップS103;1)。ステップS102において画像処理を行った距離画像に所定の大きさ以上の塊が含まれ、その塊が距離画像に占める比率が閾値(例えば90%)以上であり、その塊を構成する距離画像の画素値が示す距離が閾値(例えば0.5m)以下である場合、物体検知部17は検知領域Dに検知すべき対象物の検知を阻害する物体が有ると判定する(ステップS103;2)。その他の場合、すなわち、ステップS102において画像処理を行った距離画像に所定の大きさ以上の塊が含まれ、その塊が距離画像に占める比率が閾値(例えば90%)未満であり、その塊を構成する距離画像の画素値が示す距離が閾値(例えば0.5m)より大きい場合、物体検知部17は検知領域Dに検知すべき対象物が有ると判定する(ステップS103;3)。 Subsequently, the object detection unit 17 determines the presence or absence of an object based on the distance image subjected to the image processing in step S102, and if there is an object, an object (aerial It is determined whether or not the object is a floating object (step S103). If the distance image subjected to the image processing in step S102 does not contain a mass of a predetermined size or larger, the object detection unit 17 determines that there is no object to be detected in the detection area D (step S103; 1). . The distance image subjected to the image processing in step S102 includes a mass of a predetermined size or more, the ratio of the mass to the distance image is equal to or greater than a threshold value (for example, 90%), and the pixels of the distance image that constitute the mass. If the distance indicated by the value is equal to or less than a threshold value (for example, 0.5 m), the object detection unit 17 determines that there is an object obstructing detection of the object to be detected in the detection area D (step S103; 2). In other cases, that is, when the distance image subjected to image processing in step S102 includes a mass of a predetermined size or larger, and the percentage of the mass in the distance image is less than a threshold value (for example, 90%), the mass is removed. When the distance indicated by the pixel value of the distance image to be constructed is greater than a threshold value (for example, 0.5 m), the object detection unit 17 determines that there is an object to be detected in the detection area D (step S103; 3).

検知領域Dに検知すべき対象物が無いと判定した場合(ステップS103;1)、物体検知部17は対象物が無いことを通知する通知データを移動体の制御部等に出力し(ステップS104)、処理を終了する。検知領域Dに検知すべき対象物が有ると判定した場合(ステップS103;3)、物体検知部17は対象物が有ることを通知する通知データを移動体の制御部等に出力し(ステップS105)、処理を終了する。 When it is determined that there is no object to be detected in the detection area D (step S103; 1), the object detection unit 17 outputs notification data for notifying that there is no object to the control unit of the moving object (step S104). ) and terminate the process. When it is determined that there is an object to be detected in the detection area D (step S103; 3), the object detection unit 17 outputs notification data notifying that there is an object to the control unit of the moving object (step S105). ) and terminate the process.

一方、検知領域Dに検知すべき対象物の検知を阻害する物体が有ると判定した場合(ステップS103;2)、物体検知部17はステップS101において取得した光量画像データが表す光量画像に対し、物体を表す画像を抽出するための既知の画像処理を行う(ステップS106)。ステップS106において物体検知部17が行う画像処理には、例えば、エッジ検出、2値化、領域の膨張・収縮等が含まれる。 On the other hand, when it is determined that there is an object obstructing the detection of the target object to be detected in the detection area D (step S103; 2), the object detection unit 17 detects the amount of light in the light amount image represented by the light amount image data acquired in step S101. Known image processing is performed to extract an image representing the object (step S106). Image processing performed by the object detection unit 17 in step S106 includes, for example, edge detection, binarization, expansion/contraction of an area, and the like.

続いて、物体検知部17は、ステップS106において画像処理を行った距離画像に基づき、物体の有無の判定を行う(ステップS107)。ステップS106において画像処理を行った距離画像に所定の大きさ以上の塊が含まれている場合、物体検知部17は検知領域Dに検知すべき対象物が有ると判定し(ステップS107;Yes)、対象物が有ることを通知する通知データを移動体の制御部等に出力し(ステップS105)、処理を終了する。一方、ステップS106において画像処理を行った距離画像に所定の大きさ以上の塊が含まれていない場合、物体検知部17は検知領域Dに検知すべき対象物が有るか否かは不明と判定し(ステップS107;No)、対象物が有るか否かが不明であることを通知する通知データを移動体の制御部等に出力し(ステップS108)、処理を終了する。 Subsequently, the object detection unit 17 determines the presence or absence of an object based on the distance image subjected to the image processing in step S106 (step S107). If the distance image subjected to the image processing in step S106 contains a mass of a predetermined size or larger, the object detection unit 17 determines that there is an object to be detected in the detection area D (step S107; Yes). , output notification data for notifying that there is an object to the control unit of the moving body or the like (step S105), and terminate the process. On the other hand, if the distance image subjected to the image processing in step S106 does not contain a mass of a predetermined size or larger, the object detection unit 17 determines whether or not there is an object to be detected in the detection area D is unknown. Then (step S107; No), notification data for notifying that it is unknown whether or not there is an object is output to the control unit of the moving body (step S108), and the process is terminated.

上述した物体検知装置1によれば、空中浮遊物が存在する環境下においても、検知すべき対象物を検知することができる。 According to the object detection device 1 described above, it is possible to detect an object to be detected even in an environment in which objects floating in the air exist.

[変形例]
上述した実施形態は様々に変形することができる。以下にそれらの変形の例を示す。なお、上述した実施形態及び以下に示す変形例は適宜組み合わされてもよい。
[Modification]
Various modifications can be made to the embodiments described above. Examples of these modifications are shown below. In addition, the embodiment described above and the modifications described below may be appropriately combined.

(1)上述した実施形態において、物体検知部17はフレーム毎に距離画像及び光量画像から物体を検知するが、異なるフレームの画像から検知した物体の同定は行わない。また、上述した実施形態において、物体検知部17は距離画像と光量画像の各々から検知した物体の同定は行わない。物体検知部17がこれらの同定の少なくとも1つを行ってもよい。 (1) In the above-described embodiment, the object detection unit 17 detects an object from the range image and the light amount image for each frame, but does not identify the object detected from the images of different frames. Further, in the above-described embodiment, the object detection unit 17 does not identify the object detected from each of the distance image and the light amount image. The object detection unit 17 may perform at least one of these identifications.

図5A及び図5B(以下、これらの図を図5という)は、この変形例において物体検知部17が行う、距離画像と光量画像とから物体を検知する処理のフローを例示した図である。図5のフローは画像生成部16により1フレームの距離画像及び光量画像が生成され、物体検知部17に距離画像データ及び光量画像データが引き渡される毎に実行される。 5A and 5B (hereinafter referred to as FIG. 5) are diagrams illustrating the flow of processing for detecting an object from a distance image and a light amount image, which is performed by the object detection unit 17 in this modification. The flow of FIG. 5 is executed each time the image generating unit 16 generates one frame of distance image and light amount image, and the object detecting unit 17 receives the distance image data and the light amount image data.

物体検知部17は、距離画像データを取得すると(ステップS201)、距離画像データが表す距離画像に対し、物体を表す塊を抽出するための既知の画像処理を行い、それらの画像処理を行った距離画像から塊の検知を行う(ステップS202)。 When the object detection unit 17 acquires the distance image data (step S201), the distance image represented by the distance image data is subjected to known image processing for extracting a mass representing an object, and the image processing is performed. Lumps are detected from the distance image (step S202).

なお、この変形例においては、ステップS202において、検知した塊が検知すべき対象物を示すものであるか、もしくは、対象物の検知を阻害する物体を示すものであるかの判定は行わない。 In this modified example, it is not determined in step S202 whether the detected mass indicates an object to be detected or an object that obstructs the detection of the object.

以下、説明の簡易化のため、ステップS202において1つの塊が検知されるものとする。また、ステップS202において検知される塊を以下、塊X(i)と呼ぶ。ここで「i」はフレームの番号を意味する。 For simplicity of explanation, it is assumed that one cluster is detected in step S202. Also, the chunk detected in step S202 is hereinafter referred to as chunk X(i). Here, "i" means the frame number.

続いて、物体検知部17は塊X(i)に、その塊が表す物体を識別するためのラベルを付与する(ステップS203)。 Subsequently, the object detection unit 17 assigns a label to the lump X(i) for identifying the object represented by the lump (step S203).

ステップS201~S203と並行して、物体検知部17はステップS201~S203と同様の処理を光量画像データに関して行う(ステップS301~S303)。ステップS302においても、説明の簡易化のため、1つの塊が検知されるものとする。また、ステップS302において検知される塊を以下、塊Y(i)と呼ぶ。 In parallel with steps S201 to S203, the object detection unit 17 performs processing similar to steps S201 to S203 on the light amount image data (steps S301 to S303). Also in step S302, for the sake of simplification of explanation, it is assumed that one lump is detected. Also, the chunk detected in step S302 is hereinafter referred to as chunk Y(i).

なお、この段階では、ステップS202において距離画像から検知された塊X(i)が表す物体と、ステップS302において光量画像から検知された塊Y(i)が表す物体が同一であるか否かは不明であるため、ステップS203において塊X(i)に付与されるラベルと、ステップS303において塊Y(i)に付与されるラベルは異なる。 At this stage, it is determined whether or not the object represented by the mass X(i) detected from the distance image in step S202 is the same as the object represented by the mass Y(i) detected from the light amount image in step S302. Since it is unknown, the label given to chunk X(i) in step S203 is different from the label given to chunk Y(i) in step S303.

続いて、物体検知部17は、塊X(i)が表す物体と、1つ前のフレームの距離画像から検知された塊X(i-1)が表す物体の同定のための処理として、以下のステップS401~S404を行う。 Subsequently, the object detection unit 17 performs the following processing for identifying the object represented by the mass X(i) and the object represented by the mass X(i−1) detected from the range image of the previous frame. Steps S401 to S404 are performed.

まず、物体検知部17は、塊X(i)が表す物体と塊X(i-1)が表す物体が同一であるか否かを示すフラグである距離画像フレーム間ペアリングフラグ(i)に初期値「0」を設定する(ステップS401)。なお、この変形例において、フラグが「0」の場合、2つの物体は異なることを示し、フラグが「1」の場合、2つの物体が同じであることを示す。 First, the object detection unit 17 sets the pairing flag (i) between distance image frames, which is a flag indicating whether or not the object represented by the mass X(i) and the object represented by the mass X(i−1) are the same. An initial value of "0" is set (step S401). In this modification, a flag of "0" indicates that the two objects are different, and a flag of "1" indicates that the two objects are the same.

続いて、物体検知部17は、塊X(i)が表す物体と塊X(i-1)が表す物体が同一であるか否かを判定する(ステップS402)。ステップS402の判定において、物体検知部17は、例えば、2つの塊の位置、形状、大きさ、距離(距離画像の画素値)等に関し所定の基準に従い類似度を算出し、その類似度が所定の閾値以上であれば2つの塊が表す物体が同一であり、類似度が所定の閾値未満であれば2つの塊が表す物体が異なる、と判定する。 Subsequently, the object detection unit 17 determines whether or not the object represented by the mass X(i) and the object represented by the mass X(i−1) are the same (step S402). In the determination in step S402, the object detection unit 17 calculates the degree of similarity with respect to, for example, the position, shape, size, distance (pixel value of the distance image), etc. of the two lumps according to a predetermined standard, and the degree of similarity If the similarity is equal to or greater than the threshold, it is determined that the objects represented by the two lumps are the same, and if the similarity is less than the predetermined threshold, the objects represented by the two lumps are determined to be different.

2つの塊が表す物体が同一であると判定した場合(ステップS402;Yes)、物体検知部17は塊X(i)に付与されているラベルを、塊X(i-1)に付与されているラベルで上書きし(ステップS403)、距離画像フレーム間ペアリングフラグ(i)に「1」を設定する(ステップS404)。 When it is determined that the objects represented by the two lumps are the same (step S402; Yes), the object detection unit 17 assigns the label given to the lump X(i) to the lump X(i−1). The existing label is overwritten (step S403), and the pairing flag (i) between distance image frames is set to "1" (step S404).

ステップS401~S404と並行して、物体検知部17はステップS401~S404と同様の処理を光量画像から検知した塊Y(i)と塊Y(i-1)に関して行う(ステップS501~S504)。ただし、ステップS501及びS504で用いられるフラグは、光量画像フレーム間ペアリングフラグ(i)である。また、ステップS502においては、塊Y(i)が表す物体と塊Y(i-1)が表す物体が同一であるか否かが判定される。 In parallel with steps S401 to S404, the object detection unit 17 performs the same processing as steps S401 to S404 on masses Y(i) and Y(i−1) detected from the light amount image (steps S501 to S504). However, the flag used in steps S501 and S504 is the inter-light amount image frame pairing flag (i). Also, in step S502, it is determined whether or not the object represented by the mass Y(i) and the object represented by the mass Y(i-1) are the same.

ステップS401~S404と、ステップS501~S504の処理が完了すると、物体検知部17はステップS401~S404(又はステップS501~S504)と同様の処理を距離画像から検知した塊X(i)と光量画像から検知した塊Y(i)に関して行う(ステップS601~S604)。ただし、ステップS601及びS604で用いられるフラグは、異種画像間ペアリングフラグ(i)である。また、ステップS602においては、塊X(i)が表す物体と塊Y(i)が表す物体が同一であるか否かが判定される。 When the processes in steps S401 to S404 and steps S501 to S504 are completed, the object detection unit 17 performs the same processes as in steps S401 to S404 (or steps S501 to S504) to detect a mass X(i) detected from the distance image and the light amount image. (steps S601 to S604). However, the flag used in steps S601 and S604 is the heterogeneous image pairing flag (i). Also, in step S602, it is determined whether or not the object represented by the mass X(i) and the object represented by the mass Y(i) are the same.

続いて、物体検知部17は、以下の条件1~3が全て満たされるか否かを判定する(ステップS701)。
(条件1)異種画像間ペアリングフラグ(i-1)=1
(条件2)距離画像フレーム間ペアリングフラグ(i)=0
(条件3)光量画像フレーム間ペアリングフラグ(i)=1
Subsequently, the object detection unit 17 determines whether or not all of the following conditions 1 to 3 are satisfied (step S701).
(Condition 1) Heterogeneous image pairing flag (i-1)=1
(Condition 2) Pairing flag between distance image frames (i)=0
(Condition 3) Pairing flag between light intensity image frames (i)=1

条件1は、1つ前のフレームにおいて、距離画像から検知された塊X(i-1)が表す物体と光量画像から検知された塊Y(i-1)が表す物体が同一であり、それらの塊に同じラベルが付されていることを意味する。 Condition 1 is that the object represented by the lump X(i−1) detected from the range image and the object represented by the lump Y(i−1) detected from the light intensity image are the same in the previous frame, and have the same label.

条件2は、距離画像から検知された塊X(i)が表す物体が、1つ前のフレームの距離画像から検知された塊X(i-1)が表す物体と異なり、それらの塊に異なるラベルが付されていることを意味する。 Condition 2 is that the object represented by the mass X(i) detected from the range image is different from the object represented by the mass X(i−1) detected from the range image of the previous frame, and the masses are different. means labeled.

条件3は、光量画像から検知された塊Y(i)が表す物体が、1つ前のフレームの光量画像から検知された塊Y(i-1)が表す物体と同一であり、それらの塊に同じラベルが付されていることを意味する。 Condition 3 is that the object represented by the mass Y(i) detected from the light amount image is the same as the object represented by the mass Y(i−1) detected from the light amount image of the previous frame, and these masses have the same label.

例えば、突然、砂埃が舞い上がり、距離画像から検知すべき対象物を表す塊が消失した場合、条件1~3の全てが満たされる。 For example, when dust suddenly rises and a mass representing an object to be detected disappears from the range image, all of conditions 1 to 3 are satisfied.

条件1~3の全てが満たされると判定した場合(ステップS701;Yes)、物体検知部17は、光量画像から検知された塊Y(i)と同じ位置に、塊Y(i)が表す物体と同一の物体を表す仮想的な塊X’(i)を生成する(ステップS702)。この塊X’(i)には、塊Y(i)に付与されているラベルが付与される。また、この塊X’(i)を構成する画素値は、1つ前の距離画像から検知された塊X(i-1)を構成する画素値と同じとみなされる。 If it is determined that all of the conditions 1 to 3 are satisfied (step S701; Yes), the object detection unit 17 detects the object represented by the mass Y(i) at the same position as the mass Y(i) detected from the light intensity image. A virtual mass X'(i) representing the same object as is generated (step S702). This block X'(i) is given the label given to the block Y(i). In addition, the pixel values forming this block X'(i) are considered to be the same as the pixel values forming the block X(i-1) detected from the previous range image.

ステップS702において生成される仮想的な塊X’(i)は、後続のフレームに関し図5のフローに従う処理が行われる際、1つ前のフレームの距離画像から検知された塊として扱われる。従って、砂埃等により対象物の画像を含まない距離画像が生成される間、距離画像から検知される塊に代えて、光量画像から検知される塊とペアリングされた仮想的な塊が順次生成されることになる。 The virtual lump X'(i) generated in step S702 is treated as a lump detected from the range image of the previous frame when the subsequent frame is processed according to the flow of FIG. Therefore, while a distance image that does not include an image of an object due to dust or the like is generated, instead of the lumps detected from the distance image, virtual lumps paired with the lumps detected from the light intensity image are sequentially generated. will be

ステップ201~S702の処理が完了すると、物体検知部17は判定結果を移動体の制御部等に通知し(ステップS703)、一連の処理を終了する。ステップS703において物体検知部17が通知する判定結果には、例えば、塊X(i)(又は塊X’(i))及び塊Y(i)が表す物体までの距離、検知領域D内におけるその物体の位置、その物体の形状等が含まれる。 When the processing of steps 201 to S702 is completed, the object detection unit 17 notifies the determination result to the control unit or the like of the moving body (step S703), and terminates the series of processing. The determination result notified by the object detection unit 17 in step S703 includes, for example, the distance to the object represented by the mass X(i) (or the mass X'(i)) and the mass Y(i), This includes the position of an object, the shape of that object, and so on.

図6は、この変形例において、物体検知部17が行う処理を説明するための図である。図6の左列の画像は距離画像であり、右列の画像は光量画像である。また、図6の1段目~4段目の画像は、それぞれ、i番目~(i+3)番目のフレームの画像である。 FIG. 6 is a diagram for explaining the processing performed by the object detection unit 17 in this modification. The images in the left column of FIG. 6 are distance images, and the images in the right column are light intensity images. Also, the images in the 1st to 4th rows of FIG. 6 are the images of the i-th to (i+3)-th frames, respectively.

図6の例においては、説明のため、(i+1)番目のフレームの画像が生成されるまでの期間は空中浮遊物がなかったが、(i+2)番目のフレームの画像が生成される期間中に空中浮遊物が発生し、(i+3)番目のフレームの画像が生成される前に空中浮遊物がなくなった、という状況が想定されている。ただし、1フレームの画像が生成される期間は短いため、実際には空中浮遊物が図6の例のように速やかに消失することはなく、距離画像から検知されたとみなされる仮想的な塊が複数フレームに渡り継続して生成されることになる。 In the example of FIG. 6, for the sake of explanation, there were no airborne objects during the period until the (i+1)th frame image was generated, but during the period when the (i+2)th frame image was generated, A situation is assumed in which a floating object occurs and disappears before the image of the (i+3)th frame is generated. However, since the period during which one frame of image is generated is short, the airborne objects do not actually disappear as quickly as in the example of Fig. 6, and virtual masses that are considered to have been detected from the range image are formed. It will be generated continuously over a plurality of frames.

図6の例では、i番目のフレームに関し、距離画像から検知された塊X(i)と光量画像から検知された塊Y(i)のペアリングが行われ、それらに同じラベルが付与されている。 In the example of FIG. 6, regarding the i-th frame, clusters X(i) detected from the range image and clusters Y(i) detected from the light intensity image are paired and given the same label. there is

続いて、(i+1)番目のフレームに関し、距離画像から検知された塊X(i+1)は1つ前のフレームの距離画像から検知された塊X(i)とペアリングが行われている。また、光量画像から検知された塊Y(i+1)は1つ前のフレームの光量画像から検知された塊Y(i)とペアリングが行われている。さらに、距離画像から検知された塊X(i+1)と光量画像から検知された塊Y(i+1)のペアリングが行われている。従って、塊X(i)、塊X(i+1)、塊Y(i)、塊Y(i+1)の全てに同じラベルが付与されている。 Subsequently, regarding the (i+1)-th frame, the mass X(i+1) detected from the range image is paired with the mass X(i) detected from the range image of the previous frame. Also, the lump Y(i+1) detected from the light amount image is paired with the lump Y(i) detected from the light amount image of the previous frame. Further, the cluster X(i+1) detected from the distance image and the cluster Y(i+1) detected from the light intensity image are paired. Therefore, the same label is assigned to all of chunk X(i), chunk X(i+1), chunk Y(i), and chunk Y(i+1).

続いて、(i+2)番目のフレームに関し、距離画像から検知された塊X(i+2)はいずれの塊ともペアリングされていない。なお、塊X(i+2)は砂埃等の空中浮遊物を表す塊である。(i+2)番目のフレームに関しては、光量画像から検知された塊Y(i+2)に基づき仮想的な塊X’(i+2)が生成されており、塊X’(i+2)は1つ前のフレームの距離画像から検知された塊X(i+1)とペアリングが行われている。また、光量画像から検知された塊Y(i+2)は1つ前のフレームの光量画像から検知された塊Y(i+1)とペアリングが行われている。さらに、仮想的な塊X’(i+2)と光量画像から検知された塊Y(i+2)のペアリングが行われている。従って、塊X(i+1)、塊X’(i+2)、塊Y(i+1)、塊Y(i+2)の全てに同じラベルが付与されている。 Subsequently, for the (i+2)th frame, the blob X(i+2) detected from the range image is not paired with any blob. Note that the mass X(i+2) is a mass representing airborne matter such as dust. As for the (i+2)-th frame, a virtual block X'(i+2) is generated based on the block Y(i+2) detected from the light amount image, and the block X'(i+2) is the previous frame. A cluster X(i+1) detected from the range image is paired. Also, the lump Y(i+2) detected from the light amount image is paired with the lump Y(i+1) detected from the light amount image of the previous frame. Furthermore, pairing is performed between the virtual block X'(i+2) and the block Y(i+2) detected from the light amount image. Therefore, the same label is assigned to all of chunk X(i+1), chunk X'(i+2), chunk Y(i+1), and chunk Y(i+2).

続いて、(i+2)番目のフレームに関し、距離画像から検知された塊X(i+3)は1つ前のフレームにおいて生成された仮想的な塊X’(i+2)とペアリングが行われている。また、光量画像から検知された塊Y(i+3)は1つ前のフレームの光量画像から検知された塊Y(i+2)とペアリングが行われている。さらに、距離画像から検知された塊X(i+3)と光量画像から検知された塊Y(i+3)のペアリングが行われている。従って、塊X’(i+2)、塊X(i+3)、塊Y(i+2)、塊Y(i+3)の全てに同じラベルが付与されている。 Subsequently, for the (i+2)-th frame, the cluster X(i+3) detected from the range image is paired with the virtual cluster X'(i+2) generated in the previous frame. Also, the lump Y(i+3) detected from the light amount image is paired with the lump Y(i+2) detected from the light amount image of the previous frame. Further, the cluster X(i+3) detected from the distance image and the cluster Y(i+3) detected from the light intensity image are paired. Therefore, the same label is assigned to all of chunk X'(i+2), chunk X(i+3), chunk Y(i+2), and chunk Y(i+3).

この変形例によれば、図6の(i+2)番目のフレームのように、空中浮遊物等の影響を受けて、距離画像から検知すべき対象物を表す塊が検知できなくても、光量画像から検知された塊に基づき仮想的な塊が生成される。そのため、距離画像において同じ物体を表す塊が不連続となっても、仮想的な塊により欠落した部分が補完され、物体の追尾が途切れない。また、仮想的な塊の画素値は同じラベルの付与された、前のフレームの距離画像から検知された塊の画素値(または、前のフレームにおける仮想的な塊の画素値)と同じとみなされる。そのため、物体検知部17は、空中浮遊物等が発生して、距離画像から対象物を表す塊を検知できない場合であっても、光量画像から検知した塊が表す物体までの距離を、その塊にペアリングした仮想的な塊の画素値から推定することができる。 According to this modification, as in the (i+2)-th frame in FIG. 6, even if a mass representing an object to be detected cannot be detected from the distance image due to the influence of objects floating in the air, the light amount image Virtual chunks are generated based on the chunks detected from . Therefore, even if the lumps representing the same object in the distance image become discontinuous, the missing portions are complemented by the virtual lumps, and tracking of the object is not interrupted. In addition, the pixel value of the virtual blob is regarded as the same as the pixel value of the blob detected from the range image of the previous frame (or the pixel value of the virtual blob in the previous frame) with the same label. be Therefore, even in the case where an object floating in the air or the like occurs and a mass representing the target object cannot be detected from the distance image, the object detection unit 17 can detect the distance to the object represented by the detected mass from the light intensity image. can be estimated from the pixel values of the virtual cluster paired with .

(2)上述した実施形態において、物体検知部17は検知領域D内に検知すべき物体が有るか否かの判定は行うが、検知領域D内に検知すべき物体が有ると判定した場合にその物体の種別を推定はしない。これに代えて、物体検知部17が、検知領域D内において検知した物体の種別を推定してもよい。この変形例において、物体検知部17は、既知の画像認識手法により、光量画像又は距離画像から検知した物体の種別の推定を行う。既知の画像認識手法としては、例えば、既知の物体の画像の特徴量と、認識対象の画像の特徴量との比較結果により、認識対象の画像が既知の物体と同種の物体であるか否かの判定を行う手法が挙げられる。 (2) In the above-described embodiment, the object detection unit 17 determines whether or not there is an object to be detected within the detection area D. However, if it is determined that there is an object to be detected within the detection area D, It does not infer the type of the object. Instead of this, the object detection unit 17 may estimate the type of the object detected within the detection area D. FIG. In this modification, the object detection unit 17 estimates the type of the detected object from the light amount image or the distance image by a known image recognition method. As a known image recognition method, for example, whether or not the image to be recognized is the same type of object as the known object is determined by comparing the feature amount of the image of the known object and the feature amount of the image to be recognized. A method for determining the

この変形例において、物体検知部17は、光量画像又は距離画像から推定した物体の種別に応じて、移動体の制御部等に対し通知データを出力するか否かを決定したり、異なる通知データを出力したりしてもよい。例えば、物体検知部17は、光量画像又は距離画像から検知した物体が人物や障害物等であると推定した場合、移動体の制御部等に対し通知データを引き渡し、光量画像又は距離画像から検知した物体が鳥、昆虫等の小動物であると推定した場合、移動体の制御部等に対し通知データを引き渡さないように構成されてもよい。 In this modification, the object detection unit 17 determines whether or not to output notification data to the control unit of the moving body, etc., according to the type of the object estimated from the light amount image or the distance image, or determines whether to output different notification data. may be output. For example, when the object detection unit 17 estimates that the object detected from the light amount image or the distance image is a person or an obstacle, the object detection unit 17 passes notification data to the control unit of the moving body, etc., and detects from the light amount image or the distance image. It may be configured not to hand over the notification data to the control unit or the like of the moving body when it is estimated that the received object is a small animal such as a bird or an insect.

(3)上述した実施形態において、光量計測部152は、光量信号が示す光量の瞬時値の時間軸方向の積分値を、光量画像の生成に用いる光量として計測する。これに代えて、光量計測部152が、光量信号が示す光量のピーク値の合計値を、光量画像の生成に用いる光量として計測してもよい。 (3) In the above-described embodiment, the light intensity measurement unit 152 measures the integrated value in the time axis direction of the instantaneous value of the light intensity indicated by the light intensity signal as the light intensity used for generating the light intensity image. Alternatively, the light intensity measurement unit 152 may measure the total value of the peak values of the light intensity indicated by the light intensity signal as the light intensity used for generating the light intensity image.

また、光量計測部152が、光量信号をデジタル化(すなわち、標本化及び量子化)した値の合計値を、光量画像の生成に用いる光量として計測してもよい。 Alternatively, the light amount measuring unit 152 may measure the total value of the values obtained by digitizing (that is, sampling and quantizing) the light amount signal as the light amount used for generating the light amount image.

図7は、この変形例において光量計測部152が光量を計測する方法を説明するための図である。図7(A)に例示の光量信号の波形には2つのピークが含まれる。光量計測部152は、1番目のピーク値V11と、2番目のピーク値V12の合計値を光量として算出してもよい。 FIG. 7 is a diagram for explaining a method for measuring the amount of light by the amount-of-light measurement unit 152 in this modification. The waveform of the light amount signal illustrated in FIG. 7A includes two peaks. The light intensity measurement unit 152 may calculate the total value of the first peak value V11 and the second peak value V12 as the light intensity.

また、図7(B)の下側のグラフは、図7(A)の上側に示されるアナログ信号である光量信号をデジタル化して得られる信号を構成する複数のサンプル値を示している。光量計測部152は、デジタル化された光量信号を構成する複数のサンプル値の合計値を光量として算出してもよい。 The graph on the lower side of FIG. 7B shows a plurality of sample values constituting a signal obtained by digitizing the light quantity signal, which is an analog signal shown on the upper side of FIG. 7A. The light intensity measurement unit 152 may calculate the total value of a plurality of sample values forming the digitized light intensity signal as the light intensity.

(4)上述した実施形態の説明において、検知すべき対象物の検知を阻害する物体は空中浮遊物であるものとした、対象物の検知を阻害する物体は空中浮遊物に限られない。例えば、投光部11、走査部13、受光部12のいずれかに付着する水滴や汚れ等も、検知すべき対象物の検知を阻害する物体に含まれる。 (4) In the description of the above-described embodiments, objects that hinder detection of objects to be detected are objects floating in the air, but objects that hinder detection of objects are not limited to objects floating in the air. For example, water droplets, dirt, and the like adhering to any one of the light projecting unit 11, the scanning unit 13, and the light receiving unit 12 are included in the objects that hinder the detection of the object to be detected.

1…物体検知装置、11…投光部、12…受光部、13…走査部、14…タイミング制御部、15…計測部、16…画像生成部、17…物体検知部、131…可動部、132…ミラー、151…距離計測部、152…光量計測部、161…距離画像生成部、162…光量画像生成部。 DESCRIPTION OF SYMBOLS 1... Object detection apparatus 11... Light-projection part 12... Light-receiving part 13... Scanning part 14... Timing control part 15... Measurement part 16... Image generation part 17... Object detection part 131... Movable part, Reference numerals 132: mirror, 151: distance measuring unit, 152: light amount measuring unit, 161: distance image generating unit, 162: light amount image generating unit.

Claims (4)

投光から受光部による反射光の受光までの往復時間により測距した距離を画素値とする距離画像を生成し、
順次繰り返して行われる前記投光におけるある投光から次の投光までの期間において前記受光部で受光した光の光量に基づいた値を画素値とする光量画像を生成し、
前記距離画像と前記光量画像の各々から物体を検知する物体検知装置であって、
前記距離画像から検知した物体が、検知すべき対象物の検知を阻害する物体であると判定した場合、前記光量画像から前記対象物を検知する物体検知装置。
Generating a distance image with a pixel value of a distance measured by the round-trip time from light projection to reception of reflected light by the light receiving unit,
generating a light amount image having a pixel value based on the light amount of light received by the light receiving unit in a period from one light projection to the next light projection in the light projection that is performed repeatedly in sequence ;
An object detection device that detects an object from each of the distance image and the light amount image,
An object detection apparatus for detecting the object from the light amount image when it is determined that the object detected from the distance image is an object that hinders detection of the object to be detected.
前記検知すべき対象物の検知を阻害する物体は、空中浮遊物である
ことを特徴とする請求項1に記載の物体検知装置。
The object detection device according to claim 1, wherein the object that hinders detection of the object to be detected is an airborne object.
前記光量画像と前記距離画像の各々から検知した物体の同定を行う
ことを特徴とする請求項1又は2に記載の物体検知装置。
3. The object detection device according to claim 1, wherein the detected object is identified from each of the light intensity image and the distance image.
前記光量画像から検知した物体であって、前記距離画像から検知した物体と同定した物体までの距離を、前記距離画像から推定する
ことを特徴とする請求項3に記載の物体検知装置。
4. The object detection device according to claim 3, wherein a distance to an object identified as an object detected from the light amount image is estimated from the distance image.
JP2018215454A 2018-11-16 2018-11-16 Object detection device Active JP7223559B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018215454A JP7223559B2 (en) 2018-11-16 2018-11-16 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018215454A JP7223559B2 (en) 2018-11-16 2018-11-16 Object detection device

Publications (2)

Publication Number Publication Date
JP2020085486A JP2020085486A (en) 2020-06-04
JP7223559B2 true JP7223559B2 (en) 2023-02-16

Family

ID=70909877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018215454A Active JP7223559B2 (en) 2018-11-16 2018-11-16 Object detection device

Country Status (1)

Country Link
JP (1) JP7223559B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7290605B2 (en) * 2020-06-08 2023-06-13 株式会社神戸製鋼所 Aluminum alloy brazing sheet and aluminum alloy brazing body
JP7046144B1 (en) 2020-11-05 2022-04-01 日本信号株式会社 Optical equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003028959A (en) 2001-07-17 2003-01-29 Kawasaki Heavy Ind Ltd Target extraction method
JP2006046960A (en) 2004-07-30 2006-02-16 Matsushita Electric Works Ltd Image processing device
JP2014056494A (en) 2012-09-13 2014-03-27 Omron Corp Image processor, object detection method, and object detection program
JP2014109537A (en) 2012-12-04 2014-06-12 Mitsubishi Electric Corp Laser radar apparatus
JP2014170368A (en) 2013-03-04 2014-09-18 Univ Of Tokyo Image processing device, method and program and movable body
WO2014181871A1 (en) 2013-05-10 2014-11-13 三菱電機株式会社 Communication device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5852492A (en) * 1996-06-07 1998-12-22 Lockheed Martin Vought Systems Corp. Fused lasar range/intensity image display for a human interpretation of lasar data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003028959A (en) 2001-07-17 2003-01-29 Kawasaki Heavy Ind Ltd Target extraction method
JP2006046960A (en) 2004-07-30 2006-02-16 Matsushita Electric Works Ltd Image processing device
JP2014056494A (en) 2012-09-13 2014-03-27 Omron Corp Image processor, object detection method, and object detection program
JP2014109537A (en) 2012-12-04 2014-06-12 Mitsubishi Electric Corp Laser radar apparatus
JP2014170368A (en) 2013-03-04 2014-09-18 Univ Of Tokyo Image processing device, method and program and movable body
WO2014181871A1 (en) 2013-05-10 2014-11-13 三菱電機株式会社 Communication device

Also Published As

Publication number Publication date
JP2020085486A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP7465312B2 (en) High resolution lidar using high frequency pulse emission.
US10775507B2 (en) Adaptive transmission power control for a LIDAR
JP6477083B2 (en) Optical distance measuring device
JP7223559B2 (en) Object detection device
JP2007122508A (en) Intrusion detection apparatus
CN114585943B (en) Techniques for detecting crosstalk in LIDAR imaging sensors
WO2017192474A1 (en) System and method for wide-area surveillance
EP3309583B1 (en) Distance measuring apparatus, distance measuring method, and distance measuring program
JP6465772B2 (en) Laser radar equipment
US10955555B2 (en) Depth sensor combining line triangulation and time of flight
JP6851986B2 (en) Vehicle and vehicle image acquisition method equipped with vehicle image acquisition device, control device, vehicle image acquisition device or control device
KR20180046081A (en) Obstacle detecting apparatus and method
JP2014109537A (en) Laser radar apparatus
JP2009168751A (en) Obstacle detection system and obstacle detection method
JP2006208076A (en) Person number detector and detecting method
JP2009192526A (en) Laser distance measuring device and shield object detection method therefor
CN113167862A (en) Lidar device with accelerated travel time analysis
JP2019128221A (en) Time measurement device, distance measurement device, moving body device, time measurement method, and distance measurement method
JP2017156177A (en) Obstacle detector and obstacle detection method
WO2023074407A1 (en) Optical ranging device
JP2009259070A (en) Device for generating distance image data for vehicle
JP5468502B2 (en) Pseudo target generator
EP3872527A1 (en) Image processing device, control program, and image processing method
RU2549210C2 (en) Method of detecting object at short distances and device therefor
KR20220164774A (en) Imaging device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230206

R150 Certificate of patent or registration of utility model

Ref document number: 7223559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150