JP7223559B2 - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP7223559B2 JP7223559B2 JP2018215454A JP2018215454A JP7223559B2 JP 7223559 B2 JP7223559 B2 JP 7223559B2 JP 2018215454 A JP2018215454 A JP 2018215454A JP 2018215454 A JP2018215454 A JP 2018215454A JP 7223559 B2 JP7223559 B2 JP 7223559B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- light
- detected
- unit
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
Description
本発明は、物体検知装置に関する。 The present invention relates to an object detection device.
光の往復時間により物体までの距離を計測する距離センサを用いて、距離を画素値とする距離画像を生成する技術がある。そのような技術はLidar(Light Detection and Ranging、Laser Imaging Detection and Ranging)と呼ばれる。 There is a technique for generating a distance image in which the distance is a pixel value using a distance sensor that measures the distance to an object based on the round trip time of light. Such technology is called Lidar (Light Detection and Ranging, Laser Imaging Detection and Ranging).
例えば、特許文献1には、Lidarにより背景画像を生成しておき、運用時にLidarにより生成した距離画像と背景画像との差分画像により人物や物などの対象物を検知する技術が記載されている。
For example,
或る環境下においては、Lidarにより検知すべき対象物(障害物、人物等)を表す距離画像が生成されない場合がある。例えば、霧、煙、微細な粉体(砂埃等)等の空中浮遊物が存在している環境下においてLidarにより距離画像を生成した場合、距離センサが近くの空中浮遊物までの距離を計測してしまい、空中浮遊物の向こう側に存在する検知すべき対象物を表す画像が得られない場合がある。そのような環境下においては、Lidarにより生成される距離画像から、検知すべき対象物を検知できない。 Under certain circumstances, Lidar may not generate a distance image representing objects (obstacles, people, etc.) to be detected. For example, when a distance image is generated by Lidar in an environment where airborne objects such as fog, smoke, and fine powder (dust etc.) exist, the distance sensor measures the distance to nearby airborne objects. image of objects to be detected beyond the airborne object may not be obtained. Under such an environment, the object to be detected cannot be detected from the distance image generated by Lidar.
上記の背景に鑑み、本発明は、距離画像による物体の検知が困難な環境下においても、当該物体の検知を可能とする技術を提供する。 In view of the above background, the present invention provides a technique that enables detection of an object even in an environment in which it is difficult to detect an object using a range image.
上述した課題を解決するために、本発明は、投光から受光部による反射光の受光までの往復時間により測距した距離を画素値とする距離画像を生成し、順次繰り返して行われる前記投光におけるある投光から次の投光までの期間において前記受光部で受光した光の光量に基づいた値を画素値とする光量画像を生成し、前記距離画像と前記光量画像の各々から物体を検知する物体検知装置であって、前記距離画像から検知した物体が、検知すべき対象物の検知を阻害する物体であると判定した場合、前記光量画像から前記対象物を検知する物体検知装置を第1の態様として提供する。 In order to solve the above-described problems, the present invention generates a distance image having pixel values of distances measured by the round-trip time from the projection of light to the reception of reflected light by a light-receiving section, and repeats the projection in sequence. generating a light quantity image having a pixel value based on the light quantity of light received by the light receiving unit in a period from one light projection to the next light projection, and determining an object from each of the distance image and the light quantity image; an object detection device that detects the object from the light amount image when it is determined that the object detected from the distance image is an object that hinders detection of the object to be detected; Provided as a first aspect.
第1の態様の物体検知装置によれば、距離画像による物体の検知が困難な環境下においても、光量画像により物体を検知できる。 According to the object detection device of the first aspect, it is possible to detect an object using a light amount image even in an environment where it is difficult to detect an object using a distance image.
また、第1の態様の物体検知装置によれば、何らかの物体に阻害されて対象物の画像が距離画像に含まれない場合であっても、光量画像により対象物を検知できる。 Further, according to the object detection device of the first aspect, even when the image of the object is not included in the distance image due to obstruction by some object, the object can be detected from the light intensity image.
第1の態様の物体検知装置において、前記検知すべき対象物の検知を阻害する物体は、空中浮遊物である、という構成が第2の態様として採用されてもよい。 In the object detection device of the first aspect, a configuration may be adopted as a second aspect in which the object that hinders detection of the object to be detected is an object floating in the air.
第2の態様の物体検知装置によれば、空中浮遊物が存在する環境下でも、対象物を検知できる。 According to the object detection device of the second aspect, the object can be detected even in an environment where airborne objects exist.
第1又は第2の態様の物体検知装置において、前記光量画像と前記距離画像の各々から検知した物体の同定を行う、という構成が第3の態様として採用されてもよい。 In the object detection device of the first or second aspect, a configuration may be adopted as a third aspect in which the detected object is identified from each of the light quantity image and the distance image.
第3の態様の物体検知装置によれば、光量画像と距離画像の両方から同じ物体が検知されたか否かが判る。 According to the object detection device of the third aspect, it can be determined whether or not the same object has been detected from both the light intensity image and the distance image.
第3の態様の物体検知装置において、前記光量画像から検知した物体であって、前記距離画像から検知した物体と同定した物体までの距離を、前記距離画像から推定する、という構成が第4の態様として採用されてもよい。 In the object detection device according to the third aspect, the fourth configuration is that the object detected from the light quantity image and the distance to the object identified as the object detected from the distance image is estimated from the distance image. You may employ|adopt as an aspect.
第4の態様の物体検知装置によれば、距離画像から物体が検知できなくなった場合でも、光量画像から検知される物体までの距離が推定できる。 According to the object detection device of the fourth aspect, even when the object cannot be detected from the distance image, the distance to the detected object can be estimated from the light intensity image.
[実施形態]
以下に、本発明の一実施形態に係る物体検知装置1を説明する。図1は、物体検知装置1の構成を示したブロック図である。
[Embodiment]
An
投光部11は、レーザ光を発光する発光素子と、発光素子の駆動回路と、発光したレーザ光を走査部13へと導く光学系等を備えている。発光素子が発光するタイミングは、タイミング制御部14で制御される。
The
走査部13は、投光部11から投光されるレーザ光の方向を、検知領域D内の複数方向の各々に順次変更してゆく走査処理を行う。以下、それらの複数方向を方向d(1)~d(n)(ただし、nは所定の自然数)とする。走査部13の構成としては、種々のものが採用可能であるが、本実施形態では、走査部13は、可動部131と、可動部131に取り付けられたミラー132と、不図示の永久磁石とを備えている。ミラー132には、投光部11から投光されたレーザ光が入射する。
The
可動部131に電流が流れると、永久磁石との間に発生する力により可動部131が傾く。走査部13は、タイミング制御部14から入力される駆動信号に従い可動部131に流す電流を制御することにより、可動部131の傾きの方向と大きさを変更し、可動部131に取り付けられているミラー132の方向を変更する。以下、「ミラー132の方向」とは、投光部11からミラー132に向けて投光されたレーザ光がミラー132で反射した後に進む方向を意味するものとする。
When a current flows through the
走査部13から検知領域D内のいずれかの方向に照射されたレーザ光が物体に当たると、反射光が発生する。反射光のうちミラー132に向かった反射光は、ミラー132で反射して受光部12へ向かう。
When the laser beam emitted from the
受光部12は、受光した光の光量の瞬時値を示す光量信号を継続的に出力する。受光部12は、光学系と、受光素子と、増幅回路等を備えている。ミラー132からの反射光は、光学系により受光素子へと導かれる。受光素子は光学系により導かれた反射光の光量の瞬時値を示す光量信号を増幅回路に出力し、増幅回路はその光量信号を増幅して出力する。
The light receiving
タイミング制御部14は、走査部13に対しミラー132の方向の変更のタイミングを通知するとともに、投光部11に対し投光のタイミングを通知する。走査部13はタイミング制御部14からの通知に応じてミラー132の方向を変更し、投光部11はタイミング制御部14からの通知に応じてレーザ光の投光を行う。これにより、方向d(1)~d(n)の各々に順次、レーザ光の照射が行われることになる。以下に、タイミング制御部14、走査部13及び投光部11の動作を説明する。
The
タイミング制御部14は、まず、方向d(1)をその時点においてレーザ光の照射を行いたい方向として選択する。以下、タイミング制御部14が選択している方向を「選択方向」という。
The
タイミング制御部14は、走査部13に対しミラー132の方向を選択方向に向かわせる駆動信号を生成し、生成した駆動信号を走査部13に出力する。この駆動信号が、走査部13に対しミラー132の方向の変更のタイミングを通知する信号の役割を果たす。走査部13は、タイミング制御部14から入力される駆動信号に応じた電流を可動部131に流すことによってミラー132の方向を変更するとともに、現在のミラー132の方向を示す方向信号を継続的にタイミング制御部14に出力する。
The
タイミング制御部14は、走査部13から継続的に入力される方向信号が示すミラー132の方向が選択方向と一致したタイミングで、投光部11に投光を指示する投光信号を出力する。投光信号は、投光部11に対し投光のタイミングを通知する信号の役割を果たす。また、投光信号は、計測部15にも出力される。
The
投光部11は、タイミング制御部14から入力される投光信号に応じて、ごく短い所定時間、レーザ光を投光する。その結果、方向d(1)にパルス状のレーザ光が照射され、受光部12によりそのレーザ光の反射光が受光される。
The
タイミング制御部14は、方向d(1)を選択したタイミングから所定時間が経過すると、その時点の選択方向である方向d(1)に隣接する方向d(2)を新たな選択方向として選択する。その後、新たに選択した方向d(2)に関し、上述した走査部13に対する駆動信号の出力等の処理を行う。その結果、方向d(2)にパルス状のレーザ光が照射され、受光部12によりそのレーザ光の反射光が受光される。
When a predetermined time elapses from the timing when direction d(1) is selected, the
タイミング制御部14が、方向d(1)、d(2)、・・・、d(n)の順に選択方向を変更しながら、選択方向に関し上述した走査部13に対する駆動信号の出力等の処理を行うと、方向d(1)~d(n)の各々に関し、レーザ光の照射と反射光の受光が行われる。これにより、物体検知装置1による、検知領域Dの全域に渡るレーザ光の照射と反射光の受光の処理(以下、「スキャン処理」という)が完了する。
While the
タイミング制御部14は、1回目のスキャン処理が完了した後、引き続き、2回目のスキャン処理のために、方向d(1)、d(2)、・・・、d(n)の順に選択方向を変更しながら、選択方向に関し上述した走査部13に対する駆動信号の出力等の処理を行う。その結果、方向d(1)~d(n)の各々に関し、レーザ光の照射と反射光の受光が繰り返され、2回目のスキャン処理が完了する。このように、物体検知装置1は動作中、検知領域Dに関するスキャン処理を繰り返す。
After the first scan process is completed, the
なお、タイミング制御部14が選択方向を選択する順序は、常に方向d(1)、d(2)、・・・、d(n)の順でなくてもよい。例えば、タイミング制御部14は、或るスキャン処理において方向d(1)、d(2)、・・・、d(n)の順に選択方向を選択した後、次のスキャン処理においてはd(n)、d(n-1)、・・・、d(1)のように逆の順序で選択方向を選択してもよい。
Note that the order in which the
計測部15は、距離計測部151と光量計測部152を備える。距離計測部151と光量計測部152の各々には、受光部12から継続的に光量信号が入力され、タイミング制御部14から所定時間の経過毎に投光信号が入力される。
The
距離計測部151は、タイミング制御部14から投光信号を受信した後、次の投稿信号を受信するまでの期間において、受光部12から入力される光量信号の波形から、受光部12により最初の反射光が受光された時刻を特定する。そして、距離計測部151は、投光信号を受信した時刻、すなわち、投光部11によるレーザ光の照射時刻から、最初の反射光が受光された時刻、すなわち、受光部12による反射光の受光時刻までの時間差を計測する。この時間差は、物体検知装置1から照射され、物体で反射して物体検知装置1に戻ってくる光の往復時間である。
例えば、距離計測部151は、タイミング制御部14から、方向d(1)に関する投光信号を時刻T0において受信した後、方向d(2)に関する投光信号を時刻T1において受信した場合、時刻T0から時刻T1までの期間において、受光部12から入力される光量信号が所定の閾値を上回った最初の時刻T2を最初の反射光が受光された時刻として特定する。そして、距離計測部151は、時刻T0と時刻T2の時間差を、方向d(1)に関する時間差として計測する。
For example, when the
距離計測部151は、光の速度と、上記のように計測した時間差により、その選択方向に存在する最も近い物体までの距離を算出し、算出した距離を示す距離データを画像生成部16が備える距離画像生成部161に引き渡す。
The
投光部11、受光部12、走査部13、タイミング制御部14、及び、距離計測部151は、光の往復時間により測距する距離センサを構成する。
The
光量計測部152は、タイミング制御部14から投光信号を受信した後、次の投稿信号を受信するまでの期間において、受光部12から入力される光量信号が示す値の時間軸方向の積分値を計測する。この積分値は、投光部11から検知領域D内へ照射された1回のパルス状のレーザ光のうち、その照射方向において何らかの物体に反射して受光部12まで戻ってきた反射光の光量の総量を示す。以下、光量画像の生成に関し単に「光量」という場合、この積分値を意味するものとする。
The light
光量計測部152は、上記のように計測した光量を示す光量データを画像生成部16が備える光量画像生成部162に引き渡す。
The light
画像生成部16は、距離画像生成部161と光量画像生成部162を備える。
The
距離画像生成部161は、1回のスキャン処理に応じて距離計測部151から順次引き渡される方向d(1)~d(n)の各々に関する距離データを全て受け取ると、それらの距離データが示す距離を、方向d(1)~d(n)の各々に応じた画素値とする距離画像を生成する。距離画像は、検知領域D内における投光部11(又は受光部12)から最も近い物体までの距離の分布を表す。距離画像生成部161は、スキャン処理の完了毎に1フレームの距離画像を生成する。距離画像生成部161は、生成した距離画像を表す距離画像データを物体検知部17に引き渡す。
Upon receiving all the distance data regarding each of the directions d(1) to d(n) that are sequentially transferred from the
光量画像生成部162は、1回のスキャン処理に応じて光量計測部152から順次引き渡される方向d(1)~d(n)の各々に関する光量データを全て受け取ると、それらの光量データが示す光量を、方向d(1)~d(n)の各々に応じた画素値とする光量画像を生成する。光量画像は、検知領域D内へ照射したレーザ光の反射光の光量の、検知領域D内における分布を表す。光量画像生成部162は、スキャン処理の完了毎に1フレームの光量画像を生成する。光量画像生成部162は、生成した光量画像を表す光量画像データを物体検知部17に引き渡す。
When the light intensity
物体検知部17は、距離画像生成部161から引き渡される距離画像データが表す距離画像と、光量画像生成部162から引き渡される光量画像データが表す光量画像から、物体を検知する。物体検知部17は、例えば不図示の移動体の制御部等に、物体の検知の結果を通知する通知データを引き渡す。移動体の制御部等は、物体検知部17から受け取った通知データが示す物体の検知の結果に応じた所定の制御(例えば、動作の停止等)を行う。
The
図2は、距離計測部151が行う時間差の計測と、光量計測部152が行う光量の計測の方法を説明するための図である。図2は、或る選択方向にレーザ光が照射された場合に、タイミング制御部14から計測部15に入力される投光信号、受光部12から計測部15に入力される光量信号、及び、光量計測部152が計測する積分値(光量)の時間的変化を示したグラフである。
FIG. 2 is a diagram for explaining the method of measuring the time difference performed by the
図2(A)は、選択方向に空中浮遊物が存在せず、選択方向に検知すべき対象物(障害物、人物等)が存在する場合のグラフを示している。図2(B)は、選択方向に空中浮遊物が存在し、選択方向に検知すべき対象物が存在する場合のグラフを示している。図2(C)は、選択方向に空中浮遊物が存在し、選択方向に検知すべき対象物が存在しない場合のグラフを示している。 FIG. 2A shows a graph when there is no object floating in the air in the selected direction and there is an object (an obstacle, a person, etc.) to be detected in the selected direction. FIG. 2(B) shows a graph when there is an object floating in the air in the selected direction and there is an object to be detected in the selected direction. FIG. 2(C) shows a graph when there is an object floating in the air in the selected direction and there is no object to be detected in the selected direction.
図2(A)の光量信号が立ち上がる時刻t1は、投光信号が立ち上がる時刻t0に照射され、検知すべき対象物で反射したレーザ光の反射光が受光部12により受光された時刻を示す。この場合、距離計測部151は時刻t0から時刻t1までの時間差T1を計測し、時間差T1を用いて算出した距離を示す距離データを距離画像生成部161に引き渡す。また、この場合、光量計測部152が計測する積分値は、時刻t1から増加し、V1に達した後、変化しない。光量計測部152は、積分値V1を光量として示す光量データを光量画像生成部162に引き渡す。
The time t1 at which the light amount signal rises in FIG. 2A indicates the time at which the
図2(B)の光量信号が最初に立ち上がる時刻t2は、投光信号が立ち上がる時刻t0に照射され、空中浮遊物のうち投光部11に最も近いもので反射したレーザ光の反射光が受光部12により受光された時刻を示す。また、図2(B)の光量信号が2番目に立ち上がる時刻t3は、投光信号が立ち上がる時刻t0に照射され、検知すべき対象物で反射したレーザ光の反射光が受光部12により受光された時刻を示す。この場合、距離計測部151は時刻t0から時刻t2までの時間差T2を計測し、時間差T2を用いて算出した距離を示す距離データを距離画像生成部161に引き渡す。また、この場合、光量計測部152が計測する積分値は、時刻t2から増加した後、変化しない期間を経て、時刻t3から再び増加し、V2に達した後、変化しない。光量計測部152は、積分値V2を光量として示す光量データを光量画像生成部162に引き渡す。
At the time t2 when the light amount signal first rises in FIG. 2B, the light is emitted at the time t0 when the light projection signal rises, and the reflected light of the laser light reflected by the object closest to the
図2(C)の光量信号が立ち上がる時刻t4は、投光信号が立ち上がる時刻t0に照射され、空中浮遊物のうち投光部11に最も近いもので反射したレーザ光の反射光が受光部12により受光された時刻を示す。この場合、距離計測部151は時刻t0から時刻t4までの時間差T4を計測し、時間差T4を用いて算出した距離を示す距離データを距離画像生成部161に引き渡す。また、この場合、光量計測部152が計測する積分値は、時刻t4から増加し、V3に達した後、変化しない。光量計測部152は、積分値V3を光量として示す光量データを光量画像生成部162に引き渡す。
At time t4 when the light amount signal rises in FIG. indicates the time when the light was received. In this case, the
図3は、距離画像生成部161が生成した距離画像と、光量画像生成部162が生成した光量画像の例を示した図である。図3(A)と図3(B)は、空中浮遊物が存在していない環境下で同時に生成された距離画像と光量画像を各々示している。図3(C)と図3(D)は、空中浮遊物が存在している環境下で同時に生成された距離画像と光量画像を各々示している。なお、距離画像は、例えば、画素値に応じた色により距離の分布を表す。ただし、距離画像が、画素値に応じた濃淡により距離の分布を表してもよい。また、光量画像は、例えば、画素値に応じた濃淡により光量の分布を表す。ただし、光量画像が、画素値に応じた色により光量の分布を表してもよい。
3A and 3B are diagrams showing examples of the distance image generated by the distance
図3(A)及び図3(B)に示されるように、空中浮遊物が存在していない環境下においては、距離画像と光量画像のいずれにも、検知すべき対象物の画像が含まれている。従って、距離画像と光量画像のいずれからも、検知すべき対象物の検知が可能である。 As shown in FIGS. 3(A) and 3(B), both the distance image and the light amount image include the image of the object to be detected in an environment where there are no objects floating in the air. ing. Therefore, the object to be detected can be detected from both the distance image and the light quantity image.
一方、図3(C)に示されるように、空中浮遊物が存在している環境下においては、距離画像に検知すべき対象物の画像は含まれない。これは、距離画像が、検知すべき対象物より手前にある空中浮遊物までの距離の分布を表してしまうためである。従って、距離画像から、空中浮遊物の向こう側に存在する検知すべき対象物の検知を行うことは不可能である。 On the other hand, as shown in FIG. 3C, in an environment where airborne objects exist, the range image does not include the image of the object to be detected. This is because the distance image represents the distribution of the distances to the objects floating in the air in front of the object to be detected. Therefore, it is impossible to detect an object to be detected that exists on the other side of the airborne object from the distance image.
しかしながら、図3(D)に示されるように、空中浮遊物が存在している環境下においても、光量画像には検知すべき対象物の画像が含まれている。これは、投光部11から照射されたレーザ光の光束のうち、空中浮遊物に当たらず検知すべき対象物に達し、その対象物で反射した後、空中浮遊物に当たらず受光部12に達するものが、光量計測部152により計測される積分値(光量)を増加させるためである。従って、光量画像からは、検知すべき対象物の検知が可能である。
However, as shown in FIG. 3D, the image of the object to be detected is included in the light intensity image even in an environment where airborne objects are present. This is because the beam of laser light emitted from the
図4は、物体検知部17が行う、距離画像と光量画像とから物体を検知する処理のフローを例示した図である。図4のフローは画像生成部16により1フレームの距離画像及び光量画像が生成され、物体検知部17に距離画像データ及び光量画像データが引き渡される毎に実行される。
FIG. 4 is a diagram exemplifying the flow of processing performed by the
物体検知部17は、光量画像生成部162から距離画像データ及び光量画像データを取得すると(ステップS101)、まず、距離画像データが表す距離画像に対し、物体を表す画像を抽出するための既知の画像処理を行う(ステップS102)。ステップS102において物体検知部17が行う画像処理には、例えば、エッジ検出、2値化、領域の膨張・収縮等が含まれる。
When the
続いて、物体検知部17は、ステップS102において画像処理を行った距離画像に基づき、物体の有無の判定と、物体が有る場合にその物体が検知すべき対象物の検知を阻害する物体(空中浮遊物等)であるか否かの判定とを行う(ステップS103)。ステップS102において画像処理を行った距離画像に所定の大きさ以上の塊が含まれていない場合、物体検知部17は検知領域Dに検知すべき対象物が無いと判定する(ステップS103;1)。ステップS102において画像処理を行った距離画像に所定の大きさ以上の塊が含まれ、その塊が距離画像に占める比率が閾値(例えば90%)以上であり、その塊を構成する距離画像の画素値が示す距離が閾値(例えば0.5m)以下である場合、物体検知部17は検知領域Dに検知すべき対象物の検知を阻害する物体が有ると判定する(ステップS103;2)。その他の場合、すなわち、ステップS102において画像処理を行った距離画像に所定の大きさ以上の塊が含まれ、その塊が距離画像に占める比率が閾値(例えば90%)未満であり、その塊を構成する距離画像の画素値が示す距離が閾値(例えば0.5m)より大きい場合、物体検知部17は検知領域Dに検知すべき対象物が有ると判定する(ステップS103;3)。
Subsequently, the
検知領域Dに検知すべき対象物が無いと判定した場合(ステップS103;1)、物体検知部17は対象物が無いことを通知する通知データを移動体の制御部等に出力し(ステップS104)、処理を終了する。検知領域Dに検知すべき対象物が有ると判定した場合(ステップS103;3)、物体検知部17は対象物が有ることを通知する通知データを移動体の制御部等に出力し(ステップS105)、処理を終了する。
When it is determined that there is no object to be detected in the detection area D (step S103; 1), the
一方、検知領域Dに検知すべき対象物の検知を阻害する物体が有ると判定した場合(ステップS103;2)、物体検知部17はステップS101において取得した光量画像データが表す光量画像に対し、物体を表す画像を抽出するための既知の画像処理を行う(ステップS106)。ステップS106において物体検知部17が行う画像処理には、例えば、エッジ検出、2値化、領域の膨張・収縮等が含まれる。
On the other hand, when it is determined that there is an object obstructing the detection of the target object to be detected in the detection area D (step S103; 2), the
続いて、物体検知部17は、ステップS106において画像処理を行った距離画像に基づき、物体の有無の判定を行う(ステップS107)。ステップS106において画像処理を行った距離画像に所定の大きさ以上の塊が含まれている場合、物体検知部17は検知領域Dに検知すべき対象物が有ると判定し(ステップS107;Yes)、対象物が有ることを通知する通知データを移動体の制御部等に出力し(ステップS105)、処理を終了する。一方、ステップS106において画像処理を行った距離画像に所定の大きさ以上の塊が含まれていない場合、物体検知部17は検知領域Dに検知すべき対象物が有るか否かは不明と判定し(ステップS107;No)、対象物が有るか否かが不明であることを通知する通知データを移動体の制御部等に出力し(ステップS108)、処理を終了する。
Subsequently, the
上述した物体検知装置1によれば、空中浮遊物が存在する環境下においても、検知すべき対象物を検知することができる。
According to the
[変形例]
上述した実施形態は様々に変形することができる。以下にそれらの変形の例を示す。なお、上述した実施形態及び以下に示す変形例は適宜組み合わされてもよい。
[Modification]
Various modifications can be made to the embodiments described above. Examples of these modifications are shown below. In addition, the embodiment described above and the modifications described below may be appropriately combined.
(1)上述した実施形態において、物体検知部17はフレーム毎に距離画像及び光量画像から物体を検知するが、異なるフレームの画像から検知した物体の同定は行わない。また、上述した実施形態において、物体検知部17は距離画像と光量画像の各々から検知した物体の同定は行わない。物体検知部17がこれらの同定の少なくとも1つを行ってもよい。
(1) In the above-described embodiment, the
図5A及び図5B(以下、これらの図を図5という)は、この変形例において物体検知部17が行う、距離画像と光量画像とから物体を検知する処理のフローを例示した図である。図5のフローは画像生成部16により1フレームの距離画像及び光量画像が生成され、物体検知部17に距離画像データ及び光量画像データが引き渡される毎に実行される。
5A and 5B (hereinafter referred to as FIG. 5) are diagrams illustrating the flow of processing for detecting an object from a distance image and a light amount image, which is performed by the
物体検知部17は、距離画像データを取得すると(ステップS201)、距離画像データが表す距離画像に対し、物体を表す塊を抽出するための既知の画像処理を行い、それらの画像処理を行った距離画像から塊の検知を行う(ステップS202)。
When the
なお、この変形例においては、ステップS202において、検知した塊が検知すべき対象物を示すものであるか、もしくは、対象物の検知を阻害する物体を示すものであるかの判定は行わない。 In this modified example, it is not determined in step S202 whether the detected mass indicates an object to be detected or an object that obstructs the detection of the object.
以下、説明の簡易化のため、ステップS202において1つの塊が検知されるものとする。また、ステップS202において検知される塊を以下、塊X(i)と呼ぶ。ここで「i」はフレームの番号を意味する。 For simplicity of explanation, it is assumed that one cluster is detected in step S202. Also, the chunk detected in step S202 is hereinafter referred to as chunk X(i). Here, "i" means the frame number.
続いて、物体検知部17は塊X(i)に、その塊が表す物体を識別するためのラベルを付与する(ステップS203)。
Subsequently, the
ステップS201~S203と並行して、物体検知部17はステップS201~S203と同様の処理を光量画像データに関して行う(ステップS301~S303)。ステップS302においても、説明の簡易化のため、1つの塊が検知されるものとする。また、ステップS302において検知される塊を以下、塊Y(i)と呼ぶ。
In parallel with steps S201 to S203, the
なお、この段階では、ステップS202において距離画像から検知された塊X(i)が表す物体と、ステップS302において光量画像から検知された塊Y(i)が表す物体が同一であるか否かは不明であるため、ステップS203において塊X(i)に付与されるラベルと、ステップS303において塊Y(i)に付与されるラベルは異なる。 At this stage, it is determined whether or not the object represented by the mass X(i) detected from the distance image in step S202 is the same as the object represented by the mass Y(i) detected from the light amount image in step S302. Since it is unknown, the label given to chunk X(i) in step S203 is different from the label given to chunk Y(i) in step S303.
続いて、物体検知部17は、塊X(i)が表す物体と、1つ前のフレームの距離画像から検知された塊X(i-1)が表す物体の同定のための処理として、以下のステップS401~S404を行う。
Subsequently, the
まず、物体検知部17は、塊X(i)が表す物体と塊X(i-1)が表す物体が同一であるか否かを示すフラグである距離画像フレーム間ペアリングフラグ(i)に初期値「0」を設定する(ステップS401)。なお、この変形例において、フラグが「0」の場合、2つの物体は異なることを示し、フラグが「1」の場合、2つの物体が同じであることを示す。
First, the
続いて、物体検知部17は、塊X(i)が表す物体と塊X(i-1)が表す物体が同一であるか否かを判定する(ステップS402)。ステップS402の判定において、物体検知部17は、例えば、2つの塊の位置、形状、大きさ、距離(距離画像の画素値)等に関し所定の基準に従い類似度を算出し、その類似度が所定の閾値以上であれば2つの塊が表す物体が同一であり、類似度が所定の閾値未満であれば2つの塊が表す物体が異なる、と判定する。
Subsequently, the
2つの塊が表す物体が同一であると判定した場合(ステップS402;Yes)、物体検知部17は塊X(i)に付与されているラベルを、塊X(i-1)に付与されているラベルで上書きし(ステップS403)、距離画像フレーム間ペアリングフラグ(i)に「1」を設定する(ステップS404)。
When it is determined that the objects represented by the two lumps are the same (step S402; Yes), the
ステップS401~S404と並行して、物体検知部17はステップS401~S404と同様の処理を光量画像から検知した塊Y(i)と塊Y(i-1)に関して行う(ステップS501~S504)。ただし、ステップS501及びS504で用いられるフラグは、光量画像フレーム間ペアリングフラグ(i)である。また、ステップS502においては、塊Y(i)が表す物体と塊Y(i-1)が表す物体が同一であるか否かが判定される。
In parallel with steps S401 to S404, the
ステップS401~S404と、ステップS501~S504の処理が完了すると、物体検知部17はステップS401~S404(又はステップS501~S504)と同様の処理を距離画像から検知した塊X(i)と光量画像から検知した塊Y(i)に関して行う(ステップS601~S604)。ただし、ステップS601及びS604で用いられるフラグは、異種画像間ペアリングフラグ(i)である。また、ステップS602においては、塊X(i)が表す物体と塊Y(i)が表す物体が同一であるか否かが判定される。
When the processes in steps S401 to S404 and steps S501 to S504 are completed, the
続いて、物体検知部17は、以下の条件1~3が全て満たされるか否かを判定する(ステップS701)。
(条件1)異種画像間ペアリングフラグ(i-1)=1
(条件2)距離画像フレーム間ペアリングフラグ(i)=0
(条件3)光量画像フレーム間ペアリングフラグ(i)=1
Subsequently, the
(Condition 1) Heterogeneous image pairing flag (i-1)=1
(Condition 2) Pairing flag between distance image frames (i)=0
(Condition 3) Pairing flag between light intensity image frames (i)=1
条件1は、1つ前のフレームにおいて、距離画像から検知された塊X(i-1)が表す物体と光量画像から検知された塊Y(i-1)が表す物体が同一であり、それらの塊に同じラベルが付されていることを意味する。
条件2は、距離画像から検知された塊X(i)が表す物体が、1つ前のフレームの距離画像から検知された塊X(i-1)が表す物体と異なり、それらの塊に異なるラベルが付されていることを意味する。
条件3は、光量画像から検知された塊Y(i)が表す物体が、1つ前のフレームの光量画像から検知された塊Y(i-1)が表す物体と同一であり、それらの塊に同じラベルが付されていることを意味する。
例えば、突然、砂埃が舞い上がり、距離画像から検知すべき対象物を表す塊が消失した場合、条件1~3の全てが満たされる。
For example, when dust suddenly rises and a mass representing an object to be detected disappears from the range image, all of
条件1~3の全てが満たされると判定した場合(ステップS701;Yes)、物体検知部17は、光量画像から検知された塊Y(i)と同じ位置に、塊Y(i)が表す物体と同一の物体を表す仮想的な塊X’(i)を生成する(ステップS702)。この塊X’(i)には、塊Y(i)に付与されているラベルが付与される。また、この塊X’(i)を構成する画素値は、1つ前の距離画像から検知された塊X(i-1)を構成する画素値と同じとみなされる。
If it is determined that all of the
ステップS702において生成される仮想的な塊X’(i)は、後続のフレームに関し図5のフローに従う処理が行われる際、1つ前のフレームの距離画像から検知された塊として扱われる。従って、砂埃等により対象物の画像を含まない距離画像が生成される間、距離画像から検知される塊に代えて、光量画像から検知される塊とペアリングされた仮想的な塊が順次生成されることになる。 The virtual lump X'(i) generated in step S702 is treated as a lump detected from the range image of the previous frame when the subsequent frame is processed according to the flow of FIG. Therefore, while a distance image that does not include an image of an object due to dust or the like is generated, instead of the lumps detected from the distance image, virtual lumps paired with the lumps detected from the light intensity image are sequentially generated. will be
ステップ201~S702の処理が完了すると、物体検知部17は判定結果を移動体の制御部等に通知し(ステップS703)、一連の処理を終了する。ステップS703において物体検知部17が通知する判定結果には、例えば、塊X(i)(又は塊X’(i))及び塊Y(i)が表す物体までの距離、検知領域D内におけるその物体の位置、その物体の形状等が含まれる。
When the processing of steps 201 to S702 is completed, the
図6は、この変形例において、物体検知部17が行う処理を説明するための図である。図6の左列の画像は距離画像であり、右列の画像は光量画像である。また、図6の1段目~4段目の画像は、それぞれ、i番目~(i+3)番目のフレームの画像である。
FIG. 6 is a diagram for explaining the processing performed by the
図6の例においては、説明のため、(i+1)番目のフレームの画像が生成されるまでの期間は空中浮遊物がなかったが、(i+2)番目のフレームの画像が生成される期間中に空中浮遊物が発生し、(i+3)番目のフレームの画像が生成される前に空中浮遊物がなくなった、という状況が想定されている。ただし、1フレームの画像が生成される期間は短いため、実際には空中浮遊物が図6の例のように速やかに消失することはなく、距離画像から検知されたとみなされる仮想的な塊が複数フレームに渡り継続して生成されることになる。 In the example of FIG. 6, for the sake of explanation, there were no airborne objects during the period until the (i+1)th frame image was generated, but during the period when the (i+2)th frame image was generated, A situation is assumed in which a floating object occurs and disappears before the image of the (i+3)th frame is generated. However, since the period during which one frame of image is generated is short, the airborne objects do not actually disappear as quickly as in the example of Fig. 6, and virtual masses that are considered to have been detected from the range image are formed. It will be generated continuously over a plurality of frames.
図6の例では、i番目のフレームに関し、距離画像から検知された塊X(i)と光量画像から検知された塊Y(i)のペアリングが行われ、それらに同じラベルが付与されている。 In the example of FIG. 6, regarding the i-th frame, clusters X(i) detected from the range image and clusters Y(i) detected from the light intensity image are paired and given the same label. there is
続いて、(i+1)番目のフレームに関し、距離画像から検知された塊X(i+1)は1つ前のフレームの距離画像から検知された塊X(i)とペアリングが行われている。また、光量画像から検知された塊Y(i+1)は1つ前のフレームの光量画像から検知された塊Y(i)とペアリングが行われている。さらに、距離画像から検知された塊X(i+1)と光量画像から検知された塊Y(i+1)のペアリングが行われている。従って、塊X(i)、塊X(i+1)、塊Y(i)、塊Y(i+1)の全てに同じラベルが付与されている。 Subsequently, regarding the (i+1)-th frame, the mass X(i+1) detected from the range image is paired with the mass X(i) detected from the range image of the previous frame. Also, the lump Y(i+1) detected from the light amount image is paired with the lump Y(i) detected from the light amount image of the previous frame. Further, the cluster X(i+1) detected from the distance image and the cluster Y(i+1) detected from the light intensity image are paired. Therefore, the same label is assigned to all of chunk X(i), chunk X(i+1), chunk Y(i), and chunk Y(i+1).
続いて、(i+2)番目のフレームに関し、距離画像から検知された塊X(i+2)はいずれの塊ともペアリングされていない。なお、塊X(i+2)は砂埃等の空中浮遊物を表す塊である。(i+2)番目のフレームに関しては、光量画像から検知された塊Y(i+2)に基づき仮想的な塊X’(i+2)が生成されており、塊X’(i+2)は1つ前のフレームの距離画像から検知された塊X(i+1)とペアリングが行われている。また、光量画像から検知された塊Y(i+2)は1つ前のフレームの光量画像から検知された塊Y(i+1)とペアリングが行われている。さらに、仮想的な塊X’(i+2)と光量画像から検知された塊Y(i+2)のペアリングが行われている。従って、塊X(i+1)、塊X’(i+2)、塊Y(i+1)、塊Y(i+2)の全てに同じラベルが付与されている。 Subsequently, for the (i+2)th frame, the blob X(i+2) detected from the range image is not paired with any blob. Note that the mass X(i+2) is a mass representing airborne matter such as dust. As for the (i+2)-th frame, a virtual block X'(i+2) is generated based on the block Y(i+2) detected from the light amount image, and the block X'(i+2) is the previous frame. A cluster X(i+1) detected from the range image is paired. Also, the lump Y(i+2) detected from the light amount image is paired with the lump Y(i+1) detected from the light amount image of the previous frame. Furthermore, pairing is performed between the virtual block X'(i+2) and the block Y(i+2) detected from the light amount image. Therefore, the same label is assigned to all of chunk X(i+1), chunk X'(i+2), chunk Y(i+1), and chunk Y(i+2).
続いて、(i+2)番目のフレームに関し、距離画像から検知された塊X(i+3)は1つ前のフレームにおいて生成された仮想的な塊X’(i+2)とペアリングが行われている。また、光量画像から検知された塊Y(i+3)は1つ前のフレームの光量画像から検知された塊Y(i+2)とペアリングが行われている。さらに、距離画像から検知された塊X(i+3)と光量画像から検知された塊Y(i+3)のペアリングが行われている。従って、塊X’(i+2)、塊X(i+3)、塊Y(i+2)、塊Y(i+3)の全てに同じラベルが付与されている。 Subsequently, for the (i+2)-th frame, the cluster X(i+3) detected from the range image is paired with the virtual cluster X'(i+2) generated in the previous frame. Also, the lump Y(i+3) detected from the light amount image is paired with the lump Y(i+2) detected from the light amount image of the previous frame. Further, the cluster X(i+3) detected from the distance image and the cluster Y(i+3) detected from the light intensity image are paired. Therefore, the same label is assigned to all of chunk X'(i+2), chunk X(i+3), chunk Y(i+2), and chunk Y(i+3).
この変形例によれば、図6の(i+2)番目のフレームのように、空中浮遊物等の影響を受けて、距離画像から検知すべき対象物を表す塊が検知できなくても、光量画像から検知された塊に基づき仮想的な塊が生成される。そのため、距離画像において同じ物体を表す塊が不連続となっても、仮想的な塊により欠落した部分が補完され、物体の追尾が途切れない。また、仮想的な塊の画素値は同じラベルの付与された、前のフレームの距離画像から検知された塊の画素値(または、前のフレームにおける仮想的な塊の画素値)と同じとみなされる。そのため、物体検知部17は、空中浮遊物等が発生して、距離画像から対象物を表す塊を検知できない場合であっても、光量画像から検知した塊が表す物体までの距離を、その塊にペアリングした仮想的な塊の画素値から推定することができる。
According to this modification, as in the (i+2)-th frame in FIG. 6, even if a mass representing an object to be detected cannot be detected from the distance image due to the influence of objects floating in the air, the light amount image Virtual chunks are generated based on the chunks detected from . Therefore, even if the lumps representing the same object in the distance image become discontinuous, the missing portions are complemented by the virtual lumps, and tracking of the object is not interrupted. In addition, the pixel value of the virtual blob is regarded as the same as the pixel value of the blob detected from the range image of the previous frame (or the pixel value of the virtual blob in the previous frame) with the same label. be Therefore, even in the case where an object floating in the air or the like occurs and a mass representing the target object cannot be detected from the distance image, the
(2)上述した実施形態において、物体検知部17は検知領域D内に検知すべき物体が有るか否かの判定は行うが、検知領域D内に検知すべき物体が有ると判定した場合にその物体の種別を推定はしない。これに代えて、物体検知部17が、検知領域D内において検知した物体の種別を推定してもよい。この変形例において、物体検知部17は、既知の画像認識手法により、光量画像又は距離画像から検知した物体の種別の推定を行う。既知の画像認識手法としては、例えば、既知の物体の画像の特徴量と、認識対象の画像の特徴量との比較結果により、認識対象の画像が既知の物体と同種の物体であるか否かの判定を行う手法が挙げられる。
(2) In the above-described embodiment, the
この変形例において、物体検知部17は、光量画像又は距離画像から推定した物体の種別に応じて、移動体の制御部等に対し通知データを出力するか否かを決定したり、異なる通知データを出力したりしてもよい。例えば、物体検知部17は、光量画像又は距離画像から検知した物体が人物や障害物等であると推定した場合、移動体の制御部等に対し通知データを引き渡し、光量画像又は距離画像から検知した物体が鳥、昆虫等の小動物であると推定した場合、移動体の制御部等に対し通知データを引き渡さないように構成されてもよい。
In this modification, the
(3)上述した実施形態において、光量計測部152は、光量信号が示す光量の瞬時値の時間軸方向の積分値を、光量画像の生成に用いる光量として計測する。これに代えて、光量計測部152が、光量信号が示す光量のピーク値の合計値を、光量画像の生成に用いる光量として計測してもよい。
(3) In the above-described embodiment, the light
また、光量計測部152が、光量信号をデジタル化(すなわち、標本化及び量子化)した値の合計値を、光量画像の生成に用いる光量として計測してもよい。
Alternatively, the light
図7は、この変形例において光量計測部152が光量を計測する方法を説明するための図である。図7(A)に例示の光量信号の波形には2つのピークが含まれる。光量計測部152は、1番目のピーク値V11と、2番目のピーク値V12の合計値を光量として算出してもよい。
FIG. 7 is a diagram for explaining a method for measuring the amount of light by the amount-of-
また、図7(B)の下側のグラフは、図7(A)の上側に示されるアナログ信号である光量信号をデジタル化して得られる信号を構成する複数のサンプル値を示している。光量計測部152は、デジタル化された光量信号を構成する複数のサンプル値の合計値を光量として算出してもよい。
The graph on the lower side of FIG. 7B shows a plurality of sample values constituting a signal obtained by digitizing the light quantity signal, which is an analog signal shown on the upper side of FIG. 7A. The light
(4)上述した実施形態の説明において、検知すべき対象物の検知を阻害する物体は空中浮遊物であるものとした、対象物の検知を阻害する物体は空中浮遊物に限られない。例えば、投光部11、走査部13、受光部12のいずれかに付着する水滴や汚れ等も、検知すべき対象物の検知を阻害する物体に含まれる。
(4) In the description of the above-described embodiments, objects that hinder detection of objects to be detected are objects floating in the air, but objects that hinder detection of objects are not limited to objects floating in the air. For example, water droplets, dirt, and the like adhering to any one of the
1…物体検知装置、11…投光部、12…受光部、13…走査部、14…タイミング制御部、15…計測部、16…画像生成部、17…物体検知部、131…可動部、132…ミラー、151…距離計測部、152…光量計測部、161…距離画像生成部、162…光量画像生成部。
DESCRIPTION OF
Claims (4)
順次繰り返して行われる前記投光におけるある投光から次の投光までの期間において前記受光部で受光した光の光量に基づいた値を画素値とする光量画像を生成し、
前記距離画像と前記光量画像の各々から物体を検知する物体検知装置であって、
前記距離画像から検知した物体が、検知すべき対象物の検知を阻害する物体であると判定した場合、前記光量画像から前記対象物を検知する物体検知装置。 Generating a distance image with a pixel value of a distance measured by the round-trip time from light projection to reception of reflected light by the light receiving unit,
generating a light amount image having a pixel value based on the light amount of light received by the light receiving unit in a period from one light projection to the next light projection in the light projection that is performed repeatedly in sequence ;
An object detection device that detects an object from each of the distance image and the light amount image,
An object detection apparatus for detecting the object from the light amount image when it is determined that the object detected from the distance image is an object that hinders detection of the object to be detected.
ことを特徴とする請求項1に記載の物体検知装置。 The object detection device according to claim 1, wherein the object that hinders detection of the object to be detected is an airborne object.
ことを特徴とする請求項1又は2に記載の物体検知装置。 3. The object detection device according to claim 1, wherein the detected object is identified from each of the light intensity image and the distance image.
ことを特徴とする請求項3に記載の物体検知装置。 4. The object detection device according to claim 3, wherein a distance to an object identified as an object detected from the light amount image is estimated from the distance image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018215454A JP7223559B2 (en) | 2018-11-16 | 2018-11-16 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018215454A JP7223559B2 (en) | 2018-11-16 | 2018-11-16 | Object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020085486A JP2020085486A (en) | 2020-06-04 |
JP7223559B2 true JP7223559B2 (en) | 2023-02-16 |
Family
ID=70909877
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018215454A Active JP7223559B2 (en) | 2018-11-16 | 2018-11-16 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7223559B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7290605B2 (en) * | 2020-06-08 | 2023-06-13 | 株式会社神戸製鋼所 | Aluminum alloy brazing sheet and aluminum alloy brazing body |
JP7046144B1 (en) | 2020-11-05 | 2022-04-01 | 日本信号株式会社 | Optical equipment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003028959A (en) | 2001-07-17 | 2003-01-29 | Kawasaki Heavy Ind Ltd | Target extraction method |
JP2006046960A (en) | 2004-07-30 | 2006-02-16 | Matsushita Electric Works Ltd | Image processing device |
JP2014056494A (en) | 2012-09-13 | 2014-03-27 | Omron Corp | Image processor, object detection method, and object detection program |
JP2014109537A (en) | 2012-12-04 | 2014-06-12 | Mitsubishi Electric Corp | Laser radar apparatus |
JP2014170368A (en) | 2013-03-04 | 2014-09-18 | Univ Of Tokyo | Image processing device, method and program and movable body |
WO2014181871A1 (en) | 2013-05-10 | 2014-11-13 | 三菱電機株式会社 | Communication device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5852492A (en) * | 1996-06-07 | 1998-12-22 | Lockheed Martin Vought Systems Corp. | Fused lasar range/intensity image display for a human interpretation of lasar data |
-
2018
- 2018-11-16 JP JP2018215454A patent/JP7223559B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003028959A (en) | 2001-07-17 | 2003-01-29 | Kawasaki Heavy Ind Ltd | Target extraction method |
JP2006046960A (en) | 2004-07-30 | 2006-02-16 | Matsushita Electric Works Ltd | Image processing device |
JP2014056494A (en) | 2012-09-13 | 2014-03-27 | Omron Corp | Image processor, object detection method, and object detection program |
JP2014109537A (en) | 2012-12-04 | 2014-06-12 | Mitsubishi Electric Corp | Laser radar apparatus |
JP2014170368A (en) | 2013-03-04 | 2014-09-18 | Univ Of Tokyo | Image processing device, method and program and movable body |
WO2014181871A1 (en) | 2013-05-10 | 2014-11-13 | 三菱電機株式会社 | Communication device |
Also Published As
Publication number | Publication date |
---|---|
JP2020085486A (en) | 2020-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7465312B2 (en) | High resolution lidar using high frequency pulse emission. | |
US10775507B2 (en) | Adaptive transmission power control for a LIDAR | |
JP6477083B2 (en) | Optical distance measuring device | |
JP7223559B2 (en) | Object detection device | |
JP2007122508A (en) | Intrusion detection apparatus | |
CN114585943B (en) | Techniques for detecting crosstalk in LIDAR imaging sensors | |
WO2017192474A1 (en) | System and method for wide-area surveillance | |
EP3309583B1 (en) | Distance measuring apparatus, distance measuring method, and distance measuring program | |
JP6465772B2 (en) | Laser radar equipment | |
US10955555B2 (en) | Depth sensor combining line triangulation and time of flight | |
JP6851986B2 (en) | Vehicle and vehicle image acquisition method equipped with vehicle image acquisition device, control device, vehicle image acquisition device or control device | |
KR20180046081A (en) | Obstacle detecting apparatus and method | |
JP2014109537A (en) | Laser radar apparatus | |
JP2009168751A (en) | Obstacle detection system and obstacle detection method | |
JP2006208076A (en) | Person number detector and detecting method | |
JP2009192526A (en) | Laser distance measuring device and shield object detection method therefor | |
CN113167862A (en) | Lidar device with accelerated travel time analysis | |
JP2019128221A (en) | Time measurement device, distance measurement device, moving body device, time measurement method, and distance measurement method | |
JP2017156177A (en) | Obstacle detector and obstacle detection method | |
WO2023074407A1 (en) | Optical ranging device | |
JP2009259070A (en) | Device for generating distance image data for vehicle | |
JP5468502B2 (en) | Pseudo target generator | |
EP3872527A1 (en) | Image processing device, control program, and image processing method | |
RU2549210C2 (en) | Method of detecting object at short distances and device therefor | |
KR20220164774A (en) | Imaging device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211014 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7223559 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |