JP2020098194A - Photoelectronic sensor and object detection method - Google Patents

Photoelectronic sensor and object detection method Download PDF

Info

Publication number
JP2020098194A
JP2020098194A JP2019190117A JP2019190117A JP2020098194A JP 2020098194 A JP2020098194 A JP 2020098194A JP 2019190117 A JP2019190117 A JP 2019190117A JP 2019190117 A JP2019190117 A JP 2019190117A JP 2020098194 A JP2020098194 A JP 2020098194A
Authority
JP
Japan
Prior art keywords
light
lens
optical system
sensor
light receiving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019190117A
Other languages
Japanese (ja)
Other versions
JP6880140B2 (en
Inventor
ギンペル ハルトムート
Gimpel Hartmut
ギンペル ハルトムート
イェーゲル マティアス
Jaegel Matthias
イェーゲル マティアス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Publication of JP2020098194A publication Critical patent/JP2020098194A/en
Application granted granted Critical
Publication of JP6880140B2 publication Critical patent/JP6880140B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

To provide a photoelectric sensor for detecting an object in a monitoring area.SOLUTION: A photoelectronic sensor includes: at least one light emitter (22) for delivering a plurality of light beams 26 that are separated from each other from one light emission point respectively; a light emission optical system (24) for the delivered light beam 26; at least one light receiver (32) for generating each light reception signal from each reflection light beam (28) reflected by an object and incident on each light reception point; a light reception optical system (30) for the reflection light beam (28); and an evaluation unit (40) for obtaining information on the object from the light reception signal. The light reception optical system (30) and/or the light emission optical system (24) are a dual-lens type objective lens for an annular image field of an image field angle α. The objective lens includes a first lens and a second lens. The first lens is configured such that a light flux of any individual light emission point and/or light reception point having the image field angle α hits on only a half of the second lens.SELECTED DRAWING: Figure 1

Description

本発明は、請求項1又は11のプレアンブルに記載の光電センサ及び監視領域内の物体の検出方法に関する。 The present invention relates to a photoelectric sensor according to the preamble of claim 1 or 11, and a method for detecting an object in a monitoring area.

多くの光電センサは、監視領域内へ光線を送出し、物体により反射された光線を再び受光して、受光信号を電子的に評価する、という検知原理により作動する。また、公知の位相法又はパルス法で光伝播時間を測定することで、検知された物体の距離を特定することも多い。 Many photoelectric sensors operate on the sensing principle of sending a light beam into the monitored area, receiving the light beam reflected by the object again, and evaluating the received signal electronically. In addition, the distance of the detected object is often specified by measuring the light transit time by a known phase method or pulse method.

単一光線式の光検知器の測定領域を広げるために、まず、レーザスキャナで行われるように光線を動かすことが考えられる。この場合、レーザから発せられた光線が偏向ユニットを介して周期的に監視領域を掃引する。測定された距離情報に加えて、偏向ユニットの角度位置から監視領域内での物体の位置が推定され、以て監視領域内での物体の位置が2次元極座標で検出される。 In order to increase the measuring area of the single-beam photodetector, it is conceivable to first move the beam, as is done with a laser scanner. In this case, the light beam emitted from the laser sweeps the monitoring area periodically via the deflection unit. In addition to the measured distance information, the position of the object in the monitoring area is estimated from the angular position of the deflection unit, and the position of the object in the monitoring area is detected by two-dimensional polar coordinates.

測定範囲の拡大と追加の距離データの取得を行う別の可能性として、複数の走査光線で複数の測定点を同時に検出することが挙げられる。これをレーザスキャナと組み合わせることもできる。そうすれば、単一の監視平面だけでなく、多数の監視平面を通じて3次元空間領域が捕らえられる。大抵のレーザスキャナでは走査運動が回転ミラーによって達成される。ただし、まさに複数の走査光線を用いる場合については、例えば特許文献1に記載されているように、発光器と受光器を有する測定ヘッド全体を回転させるという方法も従来技術で知られている。 Another possibility for expanding the measuring range and acquiring additional distance data is to detect multiple measuring points simultaneously with multiple scanning rays. It can also be combined with a laser scanner. Then, a three-dimensional spatial region can be captured not only through a single monitoring plane but through multiple monitoring planes. In most laser scanners, the scanning movement is accomplished by rotating mirrors. However, when exactly a plurality of scanning light beams are used, a method of rotating the entire measuring head having a light emitter and a light receiver is also known in the related art, as described in Patent Document 1, for example.

原理的には、単一光線式の装置の部品を重複させることで複数の走査光線を生じさせることができる。しかしそれは不必要にコストがかかり、また複雑である。そこで、従来技術として、同じ部品を多重的に利用するというアプローチがある。例えば特許文献2では、複数の発光器の走査光線が1つの共通の発光光学系を通じて生成され、所望の方向へ偏向される。 In principle, multiple scanning beams can be produced by overlapping the components of a single beam system. However, it is unnecessarily costly and complicated. Therefore, as a conventional technique, there is an approach of using the same component multiple times. For example, in Japanese Unexamined Patent Application Publication No. 2004-163242, scanning light beams of a plurality of light emitters are generated through one common light emitting optical system and are deflected in a desired direction.

さて、発光光学系でも、あるいは受光光学系でも、複数の光線に対して同時に用いることは確かに望ましい。しかしそうすると矛盾する要求が光学系に課される。即ち、一方でそれはコスト上の理由からできるだけ簡素であるべきだが、他方でそれはできるだけ広い画像フィールドにおいて全ての光線を同時に鮮明に結像させなければならない。 Now, it is certainly desirable to use the light emitting optical system or the light receiving optical system simultaneously for a plurality of light rays. But doing so imposes conflicting requirements on the optical system. That is, on the one hand it should be as simple as possible for cost reasons, but on the other hand it must sharply image all rays simultaneously in the widest image field possible.

簡単な光学系は単式レンズを用いて実現できる。しかしそうすると十分に大きな口径(例えばF値がk≦3)と十分に小さな点像を得るという与えられた境界条件の下ではせいぜい±5度という狭い角度範囲の画像フィールドしか得られない。従って、単式レンズでは密集した走査光線しか実現できない。走査光線間の有意義な間隔が数度であるとすると、先に挙げた5度未満という画像フィールド角の場合、単式レンズでは高々2〜3本の光線しか利用できず、従って、例えば30度といったより広い測定範囲は不可能である。 A simple optical system can be realized by using a single lens. However, then, under the given boundary conditions of obtaining a sufficiently large aperture (for example, F value k≦3) and a sufficiently small point image, only an image field having a narrow angle range of ±5 degrees can be obtained. Therefore, a single lens can realize only a dense scanning beam. Given a meaningful spacing between the scanning rays of a few degrees, for image field angles of less than 5 degrees as mentioned above, only a few rays are available at most in a simplex lens, so for example 30 degrees. A wider measuring range is not possible.

他方、簡単な光学系を諦めて複数レンズ型の対物レンズを用いることも可能である。これにより、例えば±20度といったより広い画像フィールド角でも小さな点像を生成することができる。もっとも、それには通常少なくとも3個のレンズが必要であり、しかもそれ自体を調整しなければならない。 On the other hand, it is also possible to give up a simple optical system and use a multiple lens type objective lens. This makes it possible to generate a small point image even at a wider image field angle such as ±20 degrees. However, it usually requires at least 3 lenses and has to be adjusted itself.

製造及び調整のコストの増大は受け入れるとしても、光学的な妥協がなおも必要である。単式レンズでは光軸に沿ったほぼ0度の画像フィールドだけであればk=1というF値を達成できるのに対し、例えば±15度という広い画像フィールド用の対物レンズではk≦3又はk≦2というF値さえ達成が難しい。しかし、受光口径を小さくすると装置の射程が短くなる。複数レンズ型の対物レンズの別の欠点は主光線が非常に大きな角度を持って像面に入射するということである。このような対物レンズを発光光学系として用いるとすれば、そもそも対物レンズに光を当てるために光源を傾けなければならない。一方、主光線の角度が非常に小さいテレセントリックな対物レンズで代用することは問題にならない。なぜなら3個より明らかに多くのレンズが必要となってしまうからである。 Despite the increased manufacturing and adjustment costs, optical compromises are still needed. With a single lens, an F-number of k=1 can be achieved only with an image field of almost 0 degrees along the optical axis, whereas with an objective lens for a wide image field of, for example, ±15 degrees, k≦3 or k≦. Even an F value of 2 is difficult to achieve. However, the smaller the light receiving aperture, the shorter the range of the device. Another drawback of multi-lens objectives is that the chief rays are incident on the image plane at a very large angle. If such an objective lens is used as a light emitting optical system, the light source must be tilted in order to illuminate the objective lens. On the other hand, there is no problem in substituting a telecentric objective lens having a very small chief ray angle. This is because obviously more lenses than three are needed.

DE 197 57 849 B4DE 197 57 849 B4 DE 10 2015 121 839 A1DE 10 2015 121 839 A1

本発明の課題は、前述した種類の多光線システムを簡素化すること及び改良することである。 The object of the invention is to simplify and improve a multi-beam system of the kind described above.

この課題は、請求項1又は11に記載の光電センサ及び監視領域内の物体の検出方法により解決される。本発明に係るセンサは、少なくとも1つの発光器を用いて複数の光線をそれぞれ1つの発光点から送出する多重式センサである。各発光点は実質的に発光器であり、そこから各々の送出光線が出て行くが、これらの発光点に物理的な発光器が存在することは差し当たり絶対に必要というわけではない。代わりに、いくつかの実施形態では、後でまた説明するように、1つの物理的な発光器でも複数の送出光線を複数又は全ての発光点で生成することができる。また、送出光線は、より大きな光束の内部にある光線という光線光学的な意味での光線と理解すべきではなく、互いに分離した光束、つまり、監視領域内で物体に当たったときに互いに間隔を空けた別々の光スポットをそれぞれ生成する個別化された走査光線と理解すべきものである。 This problem is solved by the photoelectric sensor and the method of detecting an object in the monitoring area according to claim 1 or 11. The sensor according to the present invention is a multiplex type sensor that emits a plurality of light rays from one light emitting point using at least one light emitter. Each emission point is essentially an emitter from which the respective emitted light beam exits, but it is not absolutely necessary for the moment that there is a physical emitter at these emission points. Alternatively, in some embodiments, a single physical light emitter can also generate multiple emitted light rays at multiple or all emission points, as will also be described below. Also, the outgoing rays should not be understood as rays within the larger bundle of rays in the ray-optical sense, but rather as separate bundles of rays, i.e. when spaced apart from each other when they strike an object in the surveillance area. It is to be understood as an individualized scanning beam, each producing a separate and distinct light spot.

少なくとも1つの受光器が、物体の表面で反射されてそれぞれの受光点に当たる様々な方向からの反射光線から、それぞれの受光信号を生成することができる。発光点について述べたのと同様、各受光点は実質的に受光器であるが、各受光点にそれぞれ1つの受光器が物理的に存在している必要はない。こうして生成された受光信号が、物体に関する情報を得るために評価される。 At least one receiver can generate a respective received signal from reflected rays from different directions that are reflected from the surface of the object and hit the respective receiving points. As described with respect to the light emitting point, each light receiving point is substantially a light receiver, but it is not necessary that one light receiver is physically present at each light receiving point. The received light signal thus generated is evaluated to obtain information about the object.

送出光線は発光光学系を通過する。この光学系は、例えば、各送出光線が所望の形状になるように、互いに明確に分かれるように、又は特定の放射方向を向くようにするものである。発光光学系は全ての発光点の全ての光線に対して1つだけ設けられている。もっとも、非常に多数の光線を用いるセンサのために、それぞれ複数の発光点と単一の発光光学系を備える複数のモジュールを組み合わせることは考えられる。複数の反射光線及びそれらの共通の受光光学系についても同様である。 The outgoing light beam passes through the light emitting optics. The optical system is, for example, such that each emitted light beam has a desired shape, is clearly separated from each other, or is directed in a specific radiation direction. Only one light emitting optical system is provided for all the light rays at all the light emitting points. However, it is conceivable to combine a plurality of light emitting points and a plurality of modules each having a single light emitting optical system for a sensor using a very large number of light rays. The same applies to a plurality of reflected light beams and their common light receiving optical system.

本発明の出発点となる基本思想は、発光光学系及び/又は受光光学系として画像フィールド角αを持つ円形の画像フィールド用の2レンズ式対物レンズを用いるということである。2レンズ式対物レンズは正確に2個のレンズ、つまり第1レンズと第2レンズを含み、他にレンズはない。ここでレンズとは特に集光レンズのことである。第1レンズは、画像フィールド角αを持ついずれの個別の像点乃至は発光点及び/又は受光点についても入射光束がそれぞれ第2レンズの半分にのみ当たるように成形されている。従って、このような光束、しかも好ましくは画像フィールド角αの全ての光束は、第2レンズの位置においては光軸の一方の側にのみ存在する。光軸を挟んで対向するフィールド点からの光束は第2レンズの面内では互いに交差しない。それらはもはや第2レンズの中心点をまともには照らさない。つまり、通常の対物レンズとは違ってここでは空間的につながった広い範囲の画像フィールド角(例えば−α〜0度〜α)は用いられず、分離した単独の画像フィールド角αだけが用いられる。画像フィールド角αの近傍には前記特性がまだ十分に実現されるような一定の許容範囲を含めてもよい。 The basic idea which is the starting point of the present invention is to use a two-lens objective lens for a circular image field having an image field angle α as a light emitting optical system and/or a light receiving optical system. A two-lens objective lens includes exactly two lenses, a first lens and a second lens, and no other lens. Here, the lens particularly means a condenser lens. The first lens is shaped such that the incident light beam impinges on only half of the second lens at any individual image point or emission point and/or reception point having an image field angle α. Therefore, such a light beam, and preferably all the light beams having the image field angle α, exist only on one side of the optical axis at the position of the second lens. Light beams from field points facing each other across the optical axis do not intersect with each other in the plane of the second lens. They no longer properly illuminate the center point of the second lens. That is, unlike a normal objective lens, a wide range of spatially connected image field angles (for example, -α to 0 degrees to α) is not used here, but only a separated single image field angle α is used. .. In the vicinity of the image field angle α, a certain allowable range may be included so that the above characteristics are sufficiently realized.

本発明には、2レンズ式対物レンズの特殊な設計によって単式レンズと対物レンズの両方の有用な特性が一つにまとめられるという利点がある。当然ながら、2レンズは3レンズや多レンズに比べて製造も調整も容易である。その代わり設計の自由度そのものはより制限されるが、本発明ではそれが十分に利用されるため、コストが下がるにもかかわらずより多くの走査光線がより広い画像フィールドにわたって鮮明に像を結ぶ。例えば、点像を大きくすることなく±20度のフィールド角を達成できる。これは例えば0.5ミリラジアン未満という要求を満たす。これにより、多数の互いに間隔を空けた光線を同じ光学系で生成することができる。この点で3レンズ又は多レンズの場合に比べて性能が劣ることはない。これが成功するのは、鮮明な境界を持つ光線が全面的には要求されず、画像フィールド角αに対応する円環上でのみ要求されるということによる。それでも2レンズ式対物レンズでは多レンズ式対物レンズとは違ってk≦2又はk=1にさえなる大きな口径、つまり小さなF値、ひいては大きな口径と、長い射程を得ることができる。しかも像面内での主光線の角度を非常に小さく保つことができ、それにより像側でほぼテレセントリックになった光学系を設計することができる。そうすると、発光路内で用いる場合に光源を傾ける必要がなくなり、回路基板上に平面的に半田付けすることができる。 The invention has the advantage that the special design of the two-lens objective lens brings together the useful properties of both the single lens and the objective lens. Of course, the two lenses are easier to manufacture and adjust than the three lenses and the multiple lenses. Instead, the design freedom itself is more limited, but it is fully utilized in the present invention so that more scanning rays sharply image over a wider image field, albeit at a lower cost. For example, a field angle of ±20 degrees can be achieved without increasing the point image. This meets the requirement of less than 0.5 milliradians, for example. This allows a large number of spaced rays to be generated with the same optical system. In this respect, the performance is not inferior to that of the case of using three lenses or multiple lenses. This is successful because rays with sharp boundaries are not required entirely, but only on the annulus corresponding to the image field angle α. Still, unlike the multi-lens objective lens, the two-lens objective lens can obtain a large aperture with k≦2 or even k=1, that is, a small F value, and thus a large aperture, and a long range. In addition, the angle of the chief ray in the image plane can be kept very small, which makes it possible to design an optical system that is almost telecentric on the image side. Then, it is not necessary to tilt the light source when used in the light emitting path, and it is possible to solder the light source on the circuit board in a plane.

2レンズ式対物レンズに関して、第1レンズの焦点距離をf1、直径をD1、第1レンズと第2レンズの間の距離をdとしたときに不等式d≧(D1*f1)/(D1+2*f1*tanα)が満たされることが好ましい。ここで距離dは好ましくは第1レンズの主面と第2レンズの第1の作用レンズ面(即ち、第1レンズの方に向いたレンズ面)の間で測定する。これは、画像フィールド角αの光束が第2レンズの半分にのみ当たるという既に提示した条件を数学的に定式化したものである。 For a two-lens objective lens, the inequality d≧(D1*f1)/(D1+2*f1) where f1 is the focal length of the first lens, D1 is the diameter, and d is the distance between the first lens and the second lens. *Tan α) is preferably satisfied. Here, the distance d is preferably measured between the principal surface of the first lens and the first working lens surface of the second lens (ie the lens surface facing the first lens). This is a mathematical formulation of the already presented condition that the light flux at the image field angle α hits only half of the second lens.

好ましくは少なくとも近似的に等式、即ちd=(D1*f1)/(D1+2*f1*tanα)が成り立つことが有用である。「少なくとも近似的に」とは、例えば5%又は10%という程度の許容差がまだ可能であり、光学系の特性が急には変化しない、という意味である。むしろ重要なのは、第2レンズもなお顕著な作用を発揮できるように、不等式の条件下でもなお光学系の像面に対して第2レンズの距離をできる限り大きく保つことである。そして、等式はこの距離が最大になっているという意味での最適解であり、この最適解は、近似的ではあるが、先に述べた許容差でもって達成してもよい。 Preferably, it is useful that at least approximately equality holds, ie d=(D1*f1)/(D1+2*f1*tanα). By "at least approximately" is meant that a tolerance of, for example, 5% or 10% is still possible and the characteristics of the optical system do not change abruptly. Rather, it is important to keep the distance of the second lens to the image plane of the optical system as large as possible even under the condition of inequality so that the second lens can still exert a remarkable effect. Then, the equation is an optimum solution in the sense that this distance is maximized, and this optimum solution may be achieved with the above-mentioned tolerance although it is approximate.

第2レンズの焦点距離f2は第1レンズと第2レンズの間の距離と一致していることが好ましい。そうすると2レンズ式対物レンズは像側でテレセントリックになる。これによりとりわけ、既に述べたように、発光光学系として用いる際に光源を互いに平行に向けることが可能になる。ここでの第1レンズと第2レンズの間の距離は、既に導入した距離dではなく、第2レンズの中央の厚みのほぼ半分だけずれた距離d’、つまり2つのレンズの主面間の距離であることが好ましい。もっとも、これを守ることは必須ではない。前の段落で論じたように、焦点距離f2が第1レンズと第2レンズの間の距離と近似的に等しければ既に有利であり、そうすれば2レンズ式対物レンズは像側で少なくともほぼテレセントリックになる。少なくとも中央の厚みの半分という範囲内の許容差は十分にまだ受け入れ可能である。 The focal length f2 of the second lens preferably coincides with the distance between the first lens and the second lens. Then, the two-lens objective lens becomes telecentric on the image side. This, among other things, makes it possible, as already mentioned, to direct the light sources parallel to one another when used as emission optics. The distance between the first lens and the second lens here is not the distance d that has already been introduced, but the distance d′ deviated by approximately half the thickness of the center of the second lens, that is, between the principal surfaces of the two lenses. It is preferably a distance. However, it is not essential to protect this. As discussed in the previous paragraph, it is already advantageous if the focal length f2 is approximately equal to the distance between the first lens and the second lens, then the two-lens objective lens is at least nearly telecentric on the image side. become. Tolerances in the range of at least half the central thickness are still sufficiently acceptable.

第1レンズのF値k1が小さいこと、特にk1=1であることが好ましい。これがそもそも可能であると言うことが多レンズ式対物レンズに対する2レンズ式対物レンズの一つの利点である。k1をこのように選ぶと対物レンズ全体のF値の値kも小さくなる。このように小さなF値を用いれば特に高感度で射程の長いセンサを実装できる。 It is preferable that the F value k1 of the first lens is small, and particularly k1=1. It is one of the advantages of the two-lens objective lens over the multi-lens objective lens that this is possible in the first place. When k1 is selected in this way, the F value k of the entire objective lens also becomes small. By using such a small F value, a sensor having a particularly high sensitivity and a long range can be mounted.

発光点が第1の円周上に配置されていること、及び/又は、受光点が第2の円周上に配置されていることが好ましい。これらの円環は、2レンズ式対物レンズを設計する際の目標となる画像フィールド角αに対応している。このように発光点又は受光点と2レンズ式対物レンズの配置を互いに適合させれば、その最適化された特性がまさに利用される一方、代償として他の画像フィールド角に対する設計上の損失を受け入れたとしてももはや何ら影響はない。発光点又は受光点を円形に配置することは特にレーザスキャナにとっては一見すると意味がないように思われる。なぜなら、そこでは簡単な線上の配置で十分であり、それを用いて回転運動により一群の平面が走査されるからである。しかし、円環ではなく線にすると、本発明に従って2レンズ式対物レンズを通じて高い画質で所要の広い画像範囲にわたって像を結ぶことができない。また、円周に合わせて配置された発光点又は受光点でも、レーザスキャナにおいて等間隔に配置された平面を走査することは可能である。なぜなら、レーザスキャナの回転方向のずれは、必要とあれば補償も可能な時間的なずれを測定値に生じさせるにすぎないからである。 It is preferable that the light emitting points are arranged on the first circumference and/or the light receiving points are arranged on the second circumference. These circular rings correspond to the image field angle α that is a target when designing the two-lens objective lens. Thus adapting the arrangement of the emitting or receiving point and the two-lens objective lens to each other just takes advantage of its optimized properties, but at the cost of accepting design losses for other image field angles. Even if it does, it has no effect anymore. Arranging the light emitting points or the light receiving points in a circular shape seems to be meaningless, especially for a laser scanner. Because a simple linear arrangement is sufficient there, by means of which a rotary movement is used to scan a group of planes. However, if a line is used instead of a ring, it is not possible to form an image with a high image quality over a required wide image range through the two-lens objective lens according to the present invention. Further, even at light emitting points or light receiving points arranged according to the circumference, it is possible to scan flat surfaces arranged at equal intervals in the laser scanner. This is because the deviation in the rotational direction of the laser scanner only causes a time deviation in the measured value that can be compensated if necessary.

第1の円周が発光光学系の光学的な中心軸を中心としていること、及び/又は、第2の円周が受光光学系の光学的な中心軸を中心としていることが好ましい。言い換えれば、各光学系の光学的な中心軸が円周の中心を貫通している。このようにすれば、光学系の特性が回転対称的である場合に各光線がそれぞれ同じ光線成形作用と偏向作用を受ける。 It is preferable that the first circumference is centered on the optical center axis of the light emitting optical system, and/or the second circumference is centered on the optical center axis of the light receiving optical system. In other words, the optical center axis of each optical system penetrates the center of the circumference. In this way, when the characteristics of the optical system are rotationally symmetric, the respective rays are subjected to the same ray shaping action and deflection action.

発光点が第1の円周上に均等に配分されていること、及び/又は、受光点が第2の円周上に均等に配分されていることが好ましい。発光点又は受光点が正n角形を成すこのような均等な配置は、特に走査光線の間の角度間隔を均等にする上で、取り扱いがより簡単である。もっとも、円周上で不規則に配分することも可能であり、それでも走査光線間の角度間隔を均等に調節することができないことは決してない。 It is preferable that the light emitting points are evenly distributed on the first circle and/or the light receiving points are evenly distributed on the second circle. Such a uniform arrangement in which the light emitting points or the light receiving points form a regular n-sided polygon is easier to handle, especially in order to equalize the angular spacing between the scanning rays. However, it is also possible to distribute them irregularly on the circumference and nevertheless it is not possible to evenly adjust the angular spacing between the scanning rays.

3個以上の発光点又は受光点が設けられていることが好ましい。特に有利な個数としては5個、6個、8個又は16個が挙げられる。4個の場合は発光点及び/又は受光点を正方形又は長方形に配置しないことが好ましい。繰り返しになるが、前記個数は1つの光学センサ内に複数組み込むことができる発光/受光モジュールの個数であってもよい。その場合、走査光線の総数は組み込まれたモジュールの数に基づいて加算されるため、他の個数を作り出すことができる。 It is preferable that three or more light emitting points or light receiving points are provided. Particularly advantageous numbers include 5, 6, 8 or 16. In the case of four, it is preferable that the light emitting points and/or the light receiving points are not arranged in a square or rectangle. Again, the number may be the number of light emitting/receiving modules that can be incorporated in one optical sensor. In that case, the total number of scanning rays is added based on the number of installed modules, so other numbers can be created.

本センサが多数の発光器又は光源、特に発光点毎に1つの発光器を備えていること、及び/又は、多数の受光器又は受光素子、特に受光点毎に1つの受光器を備えていることが好ましい。つまり、送出光線は、全てではないにしても少なくとも一部が専用の発光器により発光点において直接生成される。同じことが反射光線、受光点及び受光器についても言える。 The sensor comprises a large number of light emitters or light sources, in particular one light emitter for each light emitting point, and/or multiple light receivers or light receiving elements, in particular one light receiver for each light receiving point. It is preferable. That is, at least some, if not all, of the emitted light is generated directly at the point of emission by a dedicated light emitter. The same is true for reflected rays, receiving points and receivers.

発光器にはその光を複数の送出光線に分割するために光線分割素子が割り当てられていることが好ましい。このようにすれば単一の物理的な発光器が複数の発光点又は全ての発光点の担当にさえなる。また、複数の物理的な発光器の光を分割すること、例えば2個の発光器からの光線をそれぞれ3分割して6個の発光点を得ることも考えられる。 Preferably, the light emitter is assigned a ray splitting element to split the light into a plurality of outgoing rays. In this way, a single physical light emitter is responsible for multiple light emission points or even for all light emission points. It is also conceivable to divide the light of a plurality of physical light emitters, for example, to divide the light rays from the two light emitters into three parts to obtain six light emitting points.

受光器は位置分解され、複数の作動領域を受光点に有していることが好ましい。この実施形態では同じ受光器が複数又は全ての受光点の担当となる。そのために該受光器は特に画素マトリックスを備えており、受光信号を取得するために受光点上の画素だけが用いられる。他の画素も場合によっては信号を生成するが、それは無視される又は読み出されない。また、そのような画素を完全に非作動状態にすること、例えばSPAD(シングルフォトンアバランシェダイオード)のマトリックスにおいて受光点上の画素にだけ狙いを定めて降伏電圧を超えるバイアス電圧をかけることも考えられる。 Preferably, the light receiver is positionally resolved and has a plurality of active areas at the light receiving points. In this embodiment, the same light receiver is responsible for a plurality of or all light receiving points. To that end, the light receiver comprises in particular a pixel matrix and only the pixels on the light-receiving points are used to acquire the light-reception signal. Other pixels may also produce a signal, which is ignored or not read. It is also conceivable to completely deactivate such a pixel, for example, in a SPAD (single photon avalanche diode) matrix, aiming only at the pixel on the light receiving point and applying a bias voltage exceeding the breakdown voltage. ..

発光器と受光器が同軸配置を成し、発光光学系と受光光学系が共通の光学系にまとめられていることが好ましい。これにより非常にコンパクトな構造が得られる。この場合、1つの2レンズ式対物レンズだけが共通の光学系としてあり、それが発光及び受光光学系として二重の役割を果たす。 It is preferable that the light emitting device and the light receiving device are coaxially arranged, and the light emitting optical system and the light receiving optical system are integrated into a common optical system. This results in a very compact structure. In this case, only one two-lens type objective lens serves as a common optical system, and it plays a dual role as a light emitting and receiving optical system.

本センサがレーザスキャナとして構成され、可動の偏向ユニットを備え、該ユニットを用いて周期的に監視領域を通過するように送出光線を案内することが好ましい。冒頭で説明したように、レーザスキャナは可動の偏向ユニットの運動とともに監視領域を複数の平面において走査する。2レンズ式対物レンズの広い画像フィールドによって、平面間の間隔を広げること、又は走査平面により全体としてカバーされる仰角方向の空間角度範囲を広げることができる。偏向ユニットは、少なくとも発光器とそれに備わる共通の発光光学系並びに場合によっては受光器及び少なくとも評価ユニットの一部を収納した、実質的に可動の測定ヘッドを成している回転可能な走査ユニットの形で構成されていることが好ましい。 Preferably, the sensor is configured as a laser scanner and comprises a movable deflection unit, which is used to guide the emitted light beam periodically through the monitoring area. As explained at the beginning, the laser scanner scans the monitoring area in several planes with the movement of the movable deflection unit. The wide image field of the two-lens objective allows the spacing between the planes to be widened or the spatial angular range in the elevation direction covered entirely by the scanning planes to be widened. The deflection unit is of a rotatable scanning unit, which forms a substantially movable measuring head, which houses at least the light emitter and the common light-emitting optics associated with it, and optionally the light receiver and at least part of the evaluation unit. It is preferably configured in a shape.

評価ユニットは光線の送出から反射光線の受光までの光伝播時間から物体の距離を測定するように構成されていることが好ましい。これにより本センサは距離測定型となる。あるいは、単に物体の有無を確認して例えばスイッチ信号として出力する。 The evaluation unit is preferably arranged to measure the distance of the object from the light transit time from the emission of the light rays to the reception of the reflected light rays. This makes the sensor a distance measuring type. Alternatively, the presence/absence of an object is simply confirmed and output as a switch signal.

本発明に係る方法は、前記と同様のやり方で仕上げていくことが可能であり、それにより同様の効果を奏する。そのような効果をもたらす特徴は、例えば本願の独立請求項に続く従属請求項に模範的に記載されているが、それらに限られるものではない。 The method according to the present invention can be finished in the same manner as described above, and thereby achieves the same effect. The features which bring about such effects are exemplarily described in the dependent claims following the independent claims of the present application, but are not limited thereto.

以下、本発明について、更なる特徴及び利点をも考慮しつつ、模範的な実施形態に基づき、添付の図面を参照しながら詳しく説明する。 The invention will be described in more detail below on the basis of exemplary embodiments and with reference to the accompanying drawings, while also considering further features and advantages.

レーザスキャナの概略断面図。The schematic sectional drawing of a laser scanner. (a)画像フィールド点の円形の配置の概略図、(b)画像フィールド点の直線的な配置の概略図、及び(c)画像フィールド点の円環状の配置の概略図。(A) Schematic diagram of a circular arrangement of image field points, (b) Schematic diagram of a linear arrangement of image field points, and (c) Schematic diagram of a circular arrangement of image field points. 円形に配置された発光点又は受光点の平面図。FIG. 3 is a plan view of light emitting points or light receiving points arranged in a circle. 円環状の画像フィールド用の2レンズ式対物レンズと光線の模範的な進路の概略図。2 is a schematic diagram of a two-lens objective lens for an annular image field and an exemplary path of light rays. FIG. 図4の対物レンズの第2レンズの平面図であって、第1レンズの光学的な作用を具体的に示すための図。FIG. 5 is a plan view of a second lens of the objective lens of FIG. 4, specifically showing the optical action of the first lens.

図1はレーザスキャナとしての実施形態における光電センサ10の概略断面図である。本センサ10は大きく分けて可動式の走査ユニット12と台座ユニット14を含む。走査ユニット12は光学的な測定ヘッドである一方、台座ユニット14には、給電部、評価用電子機器、接続部等、その他の要素が収納されている。稼働時には、監視領域20を周期的に走査するために、台座ユニット14の駆動装置16を用いて走査ユニット12が回転軸18を中心として回転駆動される。 FIG. 1 is a schematic sectional view of a photoelectric sensor 10 in an embodiment as a laser scanner. The sensor 10 roughly includes a movable scanning unit 12 and a base unit 14. The scanning unit 12 is an optical measuring head, while the pedestal unit 14 houses other elements such as a power feeding section, evaluation electronic equipment, a connecting section, and the like. In operation, the scanning unit 12 is rotationally driven around the rotation shaft 18 by using the driving device 16 of the pedestal unit 14 in order to scan the monitoring region 20 periodically.

走査ユニット12において、複数の光源22a(例えばLED又は端面放射型発光器若しくはVCSELの形をしたレーザ)を有する発光器22が、共通の発光光学系24の助けを借りて、互いに対して角度のずれを持つ複数の発射光線26を生成し、これらの光線が監視領域20内へ送出される。発射光線26が監視領域20内で物体に当たると、それに対応する反射光線28がセンサ10まで戻ってくる。反射光線28は共通の受光光学系30により複数の受光素子32aを有する発光器32へと導かれ、各受光素子32aがそれぞれ電気的な受光信号を生成する。受光素子32aは別々の部品でも、統合されたマトリックス配置の画素であってもよく、例えばフォトダイオード、APD(アバランシェダイオード)、又はSPAD(シングルフォトンアバランシェダイオード)である。 In the scanning unit 12, the light emitters 22 having a plurality of light sources 22a (eg LEDs or edge emitting light emitters or lasers in the form of VCSELs) are angled with respect to one another with the aid of common light emitting optics 24. A plurality of offset rays 26 are generated and these rays are emitted into the monitoring area 20. When the emitted ray 26 strikes an object in the surveillance area 20, the corresponding reflected ray 28 returns to the sensor 10. The reflected light beam 28 is guided by a common light receiving optical system 30 to a light emitter 32 having a plurality of light receiving elements 32a, and each light receiving element 32a generates an electric light receiving signal. The light-receiving element 32a may be a separate component or an integrated matrix-arranged pixel, for example, a photodiode, an APD (avalanche diode), or a SPAD (single photon avalanche diode).

全くの模範例として4つの光源22aと受光素子32aが断面図において上下に描かれている。実際にはこれらのグループのうち少なくとも1つが本発明の好ましい実施形態では円形内又は円周上に配置されている。これについてはまた後でより詳しく説明する。ただし、それは物理的な光源22a及び受光素子32aに関することではなく、発射光線26の出発点としての実質的な発光点及び反射光線28の終点としての受光点に関するのみである(もっとも今の例では発光点及び受光点は発光器及び受光器と一致している)。図1から離れて、1つの物理的な光源で複数の発光点を生成すること、又は複数の受光点を同じ物理的な受光部品に収めることも考えられる。 As a pure example, four light sources 22a and a light receiving element 32a are drawn at the top and bottom in the sectional view. In fact, at least one of these groups is arranged in a circle or on a circumference in a preferred embodiment of the invention. This will also be explained in more detail later. However, it does not relate to the physical light source 22a and the light receiving element 32a, but to the substantial light emitting point as the starting point of the emitted light beam 26 and the light receiving point as the end point of the reflected light beam 28 (in the present example, though). The light emitting point and the light receiving point coincide with those of the light emitting device and the light receiving device). Apart from FIG. 1, it is also conceivable to generate a plurality of light emitting points with one physical light source or to house a plurality of light receiving points in the same physical light receiving component.

発光器22と受光器32は、図1に示した実施形態では共に回路基板34上に配置されている。この基板は回転軸18上にあり、駆動部16のシャフト36に結合されている。なお、これは単なる模範例と理解すべきであり、実際には任意の数及び配置の回路基板が考えられる。発光器22と受光器32が二軸型で隣接している光学的な基本構造も必須ではなく、単一光線式の光電センサ又はレーザスキャナに関係する公知のいかなる構造でも置き換え可能である。一例としてビームスプリッタを持つ又は持たない同軸配置が挙げられる。 The light emitter 22 and the light receiver 32 are both arranged on the circuit board 34 in the embodiment shown in FIG. This substrate is on the rotary shaft 18 and is connected to the shaft 36 of the drive unit 16. It should be understood that this is merely an example, and in fact any number and arrangement of circuit boards are possible. The optical basic structure in which the light emitter 22 and the light receiver 32 are adjacent to each other in a biaxial type is not essential, and any known structure related to a single-beam type photoelectric sensor or a laser scanner can be replaced. An example is a coaxial arrangement with or without a beam splitter.

非接触式の給電及びデータインターフェイス38が可動式の走査ユニット12と静止した台座ユニット14とを接続している。台座ユニット14内には制御及び評価ユニット40があるが、少なくともその一部は走査ユニット12内の回路基板34上又は他の場所に収納されていてもよい。制御及び評価ユニット40は発光器22を制御し、受光器32の受光信号を受け取って更に評価する。また、同ユニットは駆動部16を制御し、レーザスキャナに関して公知である角度測定ユニット(図示せず)の信号を受け取る。角度測定ユニットは各時点における走査ユニット12の角度位置を特定する。 A non-contact power supply and data interface 38 connects the movable scanning unit 12 and the stationary pedestal unit 14. There is a control and evaluation unit 40 in the pedestal unit 14, but at least a part of it may be housed on the circuit board 34 in the scanning unit 12 or elsewhere. The control and evaluation unit 40 controls the light emitter 22 and receives the light reception signal of the light receiver 32 for further evaluation. The unit also controls the drive 16 and receives signals from an angle measuring unit (not shown) known for laser scanners. The angle measuring unit identifies the angular position of the scanning unit 12 at each point in time.

前記評価のため、好ましくは、検知された物体までの距離が公知の光伝播時間法で測定される。これを角度測定ユニットから得られる角度位置に関する情報と合わせれば、走査平面内にある全ての対象点の2次元極座標が各走査周期の完了毎に角度と距離で利用可能となる。各時点の走査平面はその都度の反射光線28の識別情報と受光素子32aのいずれかにおける該光線の検出とを通じて同様に分かるから、結果として全体で3次元的な空間領域が走査される。 For the evaluation, the distance to the detected object is preferably measured by the known time-of-flight method. Combining this with the information about the angular position obtained from the angle measuring unit, the two-dimensional polar coordinates of all target points in the scanning plane are available in angle and distance at each completion of each scanning cycle. The scanning plane at each time is similarly known through the identification information of the reflected light ray 28 and the detection of the light ray in any one of the light receiving elements 32a, and as a result, the three-dimensional spatial region is entirely scanned.

これにより物体の位置又は輪郭が分かり、それをセンサインターフェイス42経由で出力することができる。センサインターフェイス42又は別の接続部(図示せず)は逆にパラメータ設定用インターフェイスとして機能する。また、センサ10は危険の発生源(例えば危険な機械)を監視するための安全技術に用いられる安全センサとして構成することもできる。その場合、機械の稼働中に操作者の進入を許してはならない防護区域が監視される。操作者の脚等の防護区域への許可なき侵入を認識すると、センサ10は機械の緊急停止を発動する。安全技術に用いられるセンサ10は特に高い信頼性で作動しなければならないため、例えば機械の安全に関する規格EN13849や非接触型防護装置(beruehrungslos wirkende Schutzeinrichtungen;BWS)に関する機器規格EN61496といった高い安全要求を満たさなければならない。その場合、防護区域への物体の侵入時に安全確保用の電源停止信号を出力するために、特にセンサインターフェイス42を安全な出力インターフェイス(Output Signal Switching Device;OSSD)として構成することができる。 This allows the position or contour of the object to be known and output via the sensor interface 42. On the contrary, the sensor interface 42 or another connection portion (not shown) functions as a parameter setting interface. The sensor 10 can also be configured as a safety sensor used in safety technology for monitoring a source of danger (for example, a dangerous machine). In that case, the protected area, which must not allow operator entry while the machine is in operation, is monitored. Upon recognizing unauthorized entry into the protected area, such as the operator's legs, the sensor 10 triggers an emergency stop of the machine. Since the sensor 10 used in safety technology must operate with particularly high reliability, it fulfills high safety requirements, for example, the standard EN13849 for machine safety and the equipment standard EN61496 for berehrungslos wirkende Schutzeinrichtungen (BWS). There must be. In that case, in order to output a power stop signal for ensuring safety when an object enters the protected area, the sensor interface 42 can be particularly configured as a safe output signal switching device (OSSD).

図示したセンサ10は回転式の測定ヘッド、即ち走査ユニット12を有するレーザスキャナである。なお、図示したように発光・受光モジュールだけが一緒に回転するのではなく、他にも類似のモジュールを回転軸18との関係で高さ又は角度をずらして設けることも考えられる。あるいは回転ミラー又は切り子面ミラーホイールを用いて周期的な偏向を行うことも考えられる。なお、複数の発射光線26の場合、該複数の発射光線26が監視領域20にどのように入射するかはその都度の回転位置に依存するということに注意が必要である。なぜなら、公知の幾何学的な考察から分かるようにそれらの光線の配置が回転ミラーにより回転するからである。更に別の実施形態では走査ユニット12が回転運動の代わりに又は追加的に該回転運動の軸に垂直な第2の軸を中心として上下に揺動することで、仰角方向にも走査運動を生じさせる。 The illustrated sensor 10 is a laser scanner with a rotary measuring head, i.e. a scanning unit 12. It should be noted that not only the light-emitting/light-receiving modules rotate together as shown in the drawing, but it is also conceivable to install other similar modules with their heights or angles shifted in relation to the rotation shaft 18. Alternatively, it is also conceivable to use a rotating mirror or facetted mirror wheel to perform the periodic deflection. It should be noted that in the case of a plurality of emitted light rays 26, how the plurality of emitted light rays 26 are incident on the monitoring area 20 depends on the rotational position of each case. This is because the arrangement of those rays is rotated by the rotating mirror, as is known from known geometrical considerations. In yet another embodiment, the scanning unit 12 instead of or additionally swings up and down about a second axis perpendicular to the axis of the rotational movement, so that a scanning movement is also produced in the elevation direction. Let

レーザスキャナとしての実施も模範例である。周期的な運動がない多重式センサも可能である。これは実質的に、静止した走査ユニット12とそれに対応する電子機器(但し台座ユニット14はない)のみから成り、特にフラッシュLiDARの変型となる。 Implementation as a laser scanner is also an example. Multiple sensors without periodic movements are also possible. This consists essentially of a stationary scanning unit 12 and its corresponding electronics (but not the pedestal unit 14), and is in particular a variant of the flash LiDAR.

センサ10の回転中、各発射光線26によりそれぞれ1つの面が走査される。偏向角が0°の場合、つまり図1にはない水平な発射光線によってのみ、監視領域20の平面が走査される。他の発射光線は、偏向角に応じて異なる鋭さで形成される円錐の側面を走査する。上方及び下方に異なる角度で偏向される複数の発射光線26の場合、全体的な走査構造は複数の砂時計を入れ子にしたようなものになる。本明細書ではこれらの円錐側面も単に走査平面と呼ぶことがある。 During the rotation of the sensor 10, each emitted beam 26 scans one surface in each case. The plane of the monitoring area 20 is scanned only when the deflection angle is 0°, that is to say by the horizontal emitted light rays which are not present in FIG. Other emitted rays scan the sides of a cone that is formed with different sharpness depending on the deflection angle. For a plurality of launch rays 26 that are deflected upward and downward at different angles, the overall scanning structure is like a nested hourglass. These cone flanks may also be referred to herein simply as the scan plane.

本発明では発光光学系24及び/又は受光光学系30が画像フィールド角αの円環状の画像フィールドのために設計されている。その動機付けについて図2(a)〜(c)に基づいて説明する。 In the present invention, the emission optics 24 and/or the reception optics 30 are designed for an annular image field with an image field angle α. The motivation will be described based on FIGS. 2(a) to 2(c).

理想的な場合、光学系24、30は図2(a)のようにイメージサークル44の内側に全ての画像フィールド位置46を鮮明に映し出すはずである。しかし、冒頭での議論によると、単式レンズではそれは非常に小さなイメージサークル44に対してしか達成されない。一方、それに適した対物レンズはコストがかかりすぎる上、他の光学的な制限を必然的に伴う。 In an ideal case, the optical systems 24 and 30 should clearly project all the image field positions 46 inside the image circle 44 as shown in FIG. However, according to the opening discussion, with a single lens it is only achieved for a very small image circle 44. On the other hand, an objective lens suitable for it is too costly and inevitably has other optical limitations.

レーザスキャナにとって面的な結像は必ずしも必要ではない。なぜなら、光源22a及び受光素子32aを直線的に配置すればもう仰角方向に互いにずれた走査平面が生じるからである。それには図2(b)のように画像フィールド位置46の直線的な配置の上で鮮明な像を結ぶような光学系があれば足りる。しかしそれも、より大きなイメージサークル44に対してはコストの高い対物レンズがなければ不可能である。 Planar imaging is not necessary for the laser scanner. This is because if the light source 22a and the light receiving element 32a are linearly arranged, scanning planes that are displaced from each other in the elevation angle direction will already occur. For this purpose, it is sufficient if there is an optical system which forms a clear image on the linear arrangement of the image field position 46 as shown in FIG. But that is also not possible for larger image circles 44 without expensive objectives.

一方、本実施形態では、図2(c)に示したように、鮮明な結像はただ1つの画像フィールド角αに対してしか要求されない。同図では画像フィールド位置46の円環が画像フィールド角αに対応している。光学系の設計はこの固定された画像フィールド角αに向けられることが好ましいが、一定の周辺領域においてもなお結像が鮮明であることは排除されない。もっとも、円環から逸れた(特に、小さくなる側の)画像フィールド角については、それはもはや設計上の要求事項ではない。十分に鮮明な結像の一定の許容帯を持つ画像フィールド角αは、センサ10の光線26、28の間にできるだけ大きな間隔を得るため、図2(c)ではできるだけ大きく、例えばα±15度とする。この円環状の画像フィールドへの限定により、既に単式レンズでもカバー角がある程度改善されて、例えば±8度に達することができる。後で図4及び5に基づいて説明する本発明の光学系24、30の設計ではそれがもっと明らかに改善される。 On the other hand, in the present embodiment, as shown in FIG. 2C, clear image formation is required for only one image field angle α. In the figure, the circle at the image field position 46 corresponds to the image field angle α. The optics design is preferably directed to this fixed image field angle α, but it is not excluded that the image is still sharp even in certain peripheral areas. However, for image field angles that deviate from the annulus (especially on the smaller side), it is no longer a design requirement. The image field angle α with a certain tolerance band of sufficiently sharp image formation is as large as possible in FIG. 2(c), for example α±15 degrees, in order to obtain the largest possible spacing between the rays 26, 28 of the sensor 10. And Due to this limitation to the toroidal image field, the cover angle can already be improved to some extent, even with single-lens lenses, reaching, for example, ±8 degrees. The design of the optical system 24, 30 of the present invention, which will be described later with reference to FIGS. 4 and 5, improves this more clearly.

図3は円周48a〜b上の光源22a又は受光素子32aの好ましい配置を平面図で示している。好ましくは、図示したように光学系24、30の光学的な中心軸が円周48a〜bの中心を貫通するようにする。図3は実施形態に応じて発光路及び/又は受光路に該当するため参照符号が二重に記入されている。 FIG. 3 shows, in plan view, a preferred arrangement of the light source 22a or the light receiving element 32a on the circumference 48a-b. Preferably, as shown, the optical center axes of the optical systems 24, 30 penetrate the centers of the circumferences 48a-b. Since FIG. 3 corresponds to the light emitting path and/or the light receiving path according to the embodiment, the reference numeral is doubled.

円周48a〜b上の配置に基づいて、画像フィールド角αに対応する円環状の画像フィールドだけが実質的に光学系24、30により利用される。故にこの配置は、光学系24、30のうち最適化された領域がまさに利用されるため、特に有利である。αから外れた画像フィールド角に関する光学系24、30の結像誤差は実際には重要ではない。 Due to the arrangement on the circumferences 48a-b, only the annular image field corresponding to the image field angle α is substantially utilized by the optical system 24, 30. This arrangement is therefore particularly advantageous, since the optimized areas of the optics 24, 30 are just used. The imaging error of the optics 24, 30 for image field angles deviating from α is not really significant.

図1に関して光源22aと発光点22bとの違いについて既に簡単に述べた。発光点22bは発射光線26の起点である。これは同時に物理的な光源22aの場所でもよい。しかし、一方で光源22aには半導体部品として一定の(ここでは正方形の)底面があり、それは発光面そのものより大きい。その上、同じ1つの物理的な光源22aを用いて複数の発光点22bから発射光線を発生させることもあり得る。もちろん、発光点22bは厳密には数学的な意味での点ではなく有限の広がりを持つため、一部(特に中心)だけしか円周48a〜bの上には配置できない。発光点22bに関する以上の説明は受光点32bにも当てはまる。センサ10の光学的な特性にとって最終的には発光点22b又は受光点32bの配置が重要なのであって、発光器22、光源22a、受光器26又は受光素子32aの配置ではない。 The difference between the light source 22a and the light emitting point 22b has already been briefly described with reference to FIG. The light emitting point 22b is the starting point of the emitted light beam 26. This may also be the location of the physical light source 22a at the same time. However, on the other hand, the light source 22a has a constant (here, square) bottom surface as a semiconductor component, which is larger than the light emitting surface itself. Moreover, it is possible to use the same one physical light source 22a to generate the emission rays from a plurality of emission points 22b. Of course, the light emitting point 22b is not a point in a strict mathematical sense but has a finite spread, so that only a part (particularly the center) can be arranged on the circumference 48a-b. The above description regarding the light emitting point 22b also applies to the light receiving point 32b. The arrangement of the light emitting point 22b or the light receiving point 32b is ultimately important for the optical characteristics of the sensor 10, and not the arrangement of the light emitting device 22, the light source 22a, the light receiving device 26, or the light receiving element 32a.

図1の実施形態では各発光点22bが専用の光源22aにより、また各受光点32bが専用の受光素子32aによりそれぞれ実現されている。これに代えて様々な方法で変形が可能である。例えば、同じ光源22aが光線分割素子等を通じて複数の又は全ての発光点22bから発射光線26を発生させることができる。光源22aを機械的に動かすことで、複数の又は全ての発光点22bから順番に発射光線26を生成することができる。光源22aの機械的な運動なしでも、MEMSミラー、光学フェイズドアレイ又は音響光学変調器等を用いて発射光線26に円周48a又はその一部を巡回させることができる。 In the embodiment of FIG. 1, each light emitting point 22b is realized by a dedicated light source 22a, and each light receiving point 32b is realized by a dedicated light receiving element 32a. Instead, it can be modified in various ways. For example, the same light source 22a can generate emitted light rays 26 from a plurality or all of the light emitting points 22b through a light splitting element or the like. By mechanically moving the light source 22a, it is possible to sequentially generate the emission rays 26 from a plurality of or all the light emitting points 22b. Even without mechanical movement of the light source 22a, the emitted light beam 26 can be circulated around the circumference 48a or a part thereof using a MEMS mirror, an optical phased array, an acousto-optic modulator, or the like.

一方、複数の受光点32bも同様に別々の受光素子32aで実現してもよいし、受光素子32aを集積した多重配列の画素又は画素領域で実現してもよい。受光側でも円周48b又はその一部に沿って受光素子32aを機械的に動かしたり、可動のMEMSミラー等を用いて反射光線28を適宜偏向させたりすることが考えられる。別の実施形態では複数又は全ての受光点32bの受信光が共通の受光素子へ導かれる。それでも各々の反射光線28の同一性を確認できるようにするために、発射光線26を順次オンにしたり発射光線の多重パルス列を時間的に符号化したりすることによって多重化することが考えられる。 On the other hand, the plurality of light receiving points 32b may be similarly realized by separate light receiving elements 32a, or may be realized by pixels or pixel regions in a multiple array in which the light receiving elements 32a are integrated. Also on the light receiving side, it is possible to mechanically move the light receiving element 32a along the circumference 48b or a part thereof, or to appropriately deflect the reflected light beam 28 using a movable MEMS mirror or the like. In another embodiment, the received light at a plurality of or all the light receiving points 32b is guided to a common light receiving element. Nevertheless, in order to be able to ascertain the identity of each reflected ray 28, it is conceivable to multiplex them by sequentially turning on the emission rays 26 or temporally encoding multiple pulse trains of the emission rays.

図3は3個の発光点22b又は受光点32bが円周48a〜bに沿って均等に配分された例を示している。これ以外にも3、4、5、6、7、8、…16及びそれ以上の様々な個数が考えられ、その配置を不規則にすることも考えられる。 FIG. 3 shows an example in which the three light emitting points 22b or the light receiving points 32b are evenly distributed along the circumference 48a-b. Other than this, various numbers of 3, 4, 5, 6, 7, 8,... 16 and more are conceivable, and it is also conceivable to make the arrangement irregular.

図4は第1レンズ50と第2レンズ52を有する2レンズ式対物レンズの概略図である。両レンズ50、52は好ましくは集光レンズである。この対物レンズは発光光学系24及び/又は受光光学系32として用いることができる。先に図2に関して説明したように、円環状の画像フィールドに対して最適化された単式レンズでは最大±8度の画像フィールド角が可能である。2レンズ式対物レンズではそれが大幅に改善され、±20度以上となる。 FIG. 4 is a schematic view of a two-lens type objective lens having a first lens 50 and a second lens 52. Both lenses 50, 52 are preferably condenser lenses. This objective lens can be used as the light emitting optical system 24 and/or the light receiving optical system 32. As described above with respect to FIG. 2, image field angles of up to ±8 degrees are possible with simplex lenses optimized for toroidal image fields. With a two-lens objective lens, it is greatly improved to ±20 degrees or more.

図4には、光軸を挟んで互いに反対側にある、画像フィールド角αに対応した2本の模範的な光束54、56が描かれている。この画像フィールド角αとそれにより決まる円環状の画像フィールドに対して2レンズ式対物レンズが最適化されている。 In FIG. 4, two exemplary light beams 54, 56 corresponding to the image field angle α are drawn on opposite sides of the optical axis. The two-lens objective lens is optimized for the image field angle α and the annular image field determined thereby.

第1レンズ50は光束54、56の光線直径を所定の断面まで減少させるが、それは最大でまだ第1レンズ50への入射時の半分もある。そしてこの縮小された断面は第2レンズ52の半分だけに当たる。これにより第2レンズ52は所与の箇所では常に1つのフィールド点からの光でのみ照らされ、光軸を挟んでその反対側にあるフィールド点からの光では照らされない。 The first lens 50 reduces the ray diameter of the light bundles 54, 56 to a given cross section, which is at most half as high as when it was incident on the first lens 50. The reduced cross section hits only half of the second lens 52. As a result, the second lens 52 is always illuminated with light from only one field point at a given point, and is not illuminated with light from the field point on the opposite side of the optical axis.

図5は2レンズ式対物レンズのこの光学的な特性を第2レンズ52の平面図で再度示している。互いに反対側にあるフィールド点の光束54、56並びに54’、56’は交差せず、それぞれ光軸を挟んで反対側の第2レンズ52の半分には到達しない。横方向に隣接するフィールド点は多少重なっても構わない。第2レンズ52の中心は照らされない状態にある。 FIG. 5 shows again this optical characteristic of the two-lens objective lens in a plan view of the second lens 52. The light beams 54, 56 and 54', 56' at the field points on the opposite sides do not cross each other and do not reach the half of the second lens 52 on the opposite side across the optical axis. Field points adjacent in the lateral direction may overlap to some extent. The center of the second lens 52 is not illuminated.

この定性的に説明した特性は2レンズ式対物レンズのパラメータに基づいてより正確に説明することができる。求めるのは、1本の光束54、56の全ての光線が光軸に対して完全に一方の側でフィールド点まで到達するような、第1レンズ50の主面と第2レンズ52の第1の光学的な作用面との間の距離dである。 This qualitatively explained characteristic can be explained more accurately based on the parameters of the two-lens objective lens. What is required is that the first surface of the first lens 50 and the first surface of the second lens 52 be such that all the rays of one light beam 54, 56 reach the field point completely on one side of the optical axis. Is the distance d from the optical working surface of the.

dが可変である場合、第1レンズの中心を通る光束50、52の主光線は横方向のずれtanα*dを持ち、関係する周縁光線は更に追加の横方向のずれ(D1/2)/f1*dを持つ。ここでD1は用いられる直径、f1は第1レンズ50の焦点距離である。全体としてこの横方向のずれにより周縁光線が光軸を超えて外へ動くようにする必要がある。それには横方向のずれD1/2が必要である。従って、以下の不等式が満たされなければならない。
[(D1/2)/f1+tanα]*d≧D1/2
これは次のように変形できる。
d≧(D1*f1)/(D1+2*f1*tanα)
If d is variable, the chief rays of the light bundles 50, 52 passing through the center of the first lens have a lateral offset tan α*d, and the relevant marginal rays have an additional lateral offset (D1/2)/ It has f1*d. Here, D1 is the diameter used, and f1 is the focal length of the first lens 50. Overall, this lateral offset requires the marginal rays to move out of the optical axis. It requires a lateral shift D1/2. Therefore, the following inequalities must be satisfied.
[(D1/2)/f1+tan α]*d≧D1/2
This can be transformed as follows.
d≧(D1*f1)/(D1+2*f1*tanα)

ここで、dには少なくとも等式に近い数値を選ぶことが有利である。不等式において残余の差が大きければ大きいほど、第2レンズ52はむしろ像面のすぐ近くまで接近する。そこではレンズは有効な作用をほとんど発揮できない。 Here, it is advantageous to choose a value for d that is at least close to the equation. The greater the residual difference in the inequality, the closer the second lens 52 is to the image plane. There, the lens can hardly exert any effective action.

2つのレンズ50、52は平凸型、凸平型、両凸型、及び、可能であれば凸凹型又は凹凸型として実装することができる。ただし最後の2つの場合もなお集光レンズである。古典的な屈折レンズ、フレネルレンズ若しくは回折型の光学系又はそれらの組み合わせが可能である。2つのレンズ50、52はこれらの一般的な成形特性及び作用原理において互いに違っていてもよいし、一致していてもよい。2つのレンズ50、52は異なる焦点距離f1、f2、異なる直径D1、D2及び異なる形状を有していてもよい。 The two lenses 50, 52 can be implemented as plano-convex, convex-convex, biconvex, and possibly convex or concave or concave. However, the last two cases are still condenser lenses. Classic refractive lenses, Fresnel lenses or diffractive optics or combinations thereof are possible. The two lenses 50, 52 may differ from each other or may coincide in their general molding characteristics and working principle. The two lenses 50, 52 may have different focal lengths f1, f2, different diameters D1, D2 and different shapes.

有利な実施形態では、先に示した不等式に基づいて2つのレンズ50、52の間の距離が選ばれるだけでなく、f2=d’という選択も行われる。ここでd’はレンズ50、52の主面間の距離である。これは第2レンズ52の中央の厚みに応じて前記距離dより若干大きくなる。 In an advantageous embodiment, not only is the distance between the two lenses 50, 52 chosen on the basis of the inequalities given above, but also the choice f2=d'. Here, d'is the distance between the principal surfaces of the lenses 50 and 52. This is slightly larger than the distance d depending on the thickness of the center of the second lens 52.

この焦点距離f2では第2レンズ52の前側の焦点面が第1レンズ50の主面内に置かれる。その結果、主光線が対物レンズの像面内で光軸に平行に走る。つまり対物レンズが像側でテレセントリックになる。これにより、とりわけ発光光学系24としての利用に際して、光源22aを互いに平行に向けてもよくなり、傾斜させる必要がなくなる。焦点距離f2を距離d’に厳密に合わせなくても、f2≒d’とするだけでも利点はある。なぜなら、そうすればもう像側の主光線の角度が0度にはならないにせよ明らかに小さくなるからである。 At this focal length f2, the front focal plane of the second lens 52 is placed within the main surface of the first lens 50. As a result, the chief ray runs parallel to the optical axis in the image plane of the objective lens. That is, the objective lens becomes telecentric on the image side. This makes it possible to direct the light sources 22a to be parallel to each other, especially when used as the light emission optical system 24, and it is not necessary to incline them. Even if the focal length f2 is not strictly adjusted to the distance d', there is an advantage only by setting f2≈d'. This is because the angle of the chief ray on the image side will obviously be smaller if it is not 0 degrees.

更に好ましくは、第2レンズ52の直径D2が、光束54、56の貫通に必要とされる程度の大きさしかないように選ばれる。このようにすれば2レンズ式対物レンズが3つのパラメータだけで完全に決まる。即ち、第1レンズの直径D1と焦点距離f1は自由に選択できる。第2レンズ52の距離dは前述の不等式から得られる。最後に焦点距離f2は距離d’に設定される。 More preferably, the diameter D2 of the second lens 52 is selected to be as large as is required for penetrating the light beams 54, 56. In this way, the two-lens type objective lens is completely determined by only three parameters. That is, the diameter D1 and the focal length f1 of the first lens can be freely selected. The distance d of the second lens 52 is obtained from the above inequality. Finally, the focal length f2 is set to the distance d'.

こうして分かったこれらの寸法から、それ自体公知である幾何光学(近軸光学)の公式を用いて対物レンズの全体の焦点距離fを算出することもできる。逆に2レンズ式対物レンズをその近軸的な基本寸法だけで確定することができる。即ち、対物レンズの焦点距離f、対物レンズの口径D=D1、円形の画像フィールドのフィールド角αである。 From these dimensions thus found, it is also possible to calculate the overall focal length f of the objective lens by using the geometrical optics (paraxial optics) formula known per se. Conversely, a two-lens objective lens can be defined only by its paraxial basic dimensions. That is, the focal length f of the objective lens, the aperture D of the objective lens D=D1, and the field angle α of the circular image field.

別の好ましい実施形態では、非常に大きいがまだ実現可能な第1レンズのf値k1:=f1/D1=1を用いて前記関係を非常に分かりやすい方法で簡略化する。
d=f1/(1+2tanα)、例えばα=30度ならd≒0.5*f1
f2=d’≒d≒f1/(1+2tanα)
In another preferred embodiment, a very large but still feasible f-value k1:=f1/D1=1 for the first lens is used to simplify the relationship in a very straightforward manner.
d=f1/(1+2tan α), for example, if α=30 degrees, d≈0.5*f1
f2=d'≈d≈f1/(1+2tan α)

こうして、この好ましい実施形態については、所望のフィールド角α毎及び所望の口径D=D1毎に、全ての焦点距離f1、f2と距離d又はd’が2レンズ式対物レンズの設計のために定まる。ここでも必要に応じて、組み合わされた2つのレンズの全体の焦点距離を計算するためのそれ自体公知である公式を用いてこれらの全ての値を対物レンズのfとDの所望の値から直接求めることもできる。 Thus, for this preferred embodiment, for every desired field angle α and every desired aperture D=D1, all focal lengths f1, f2 and the distance d or d'are determined for the design of the two-lens objective lens. .. Again, if desired, all these values are directly derived from the desired values of f and D of the objective lens using a formula known per se for calculating the total focal length of the two lenses combined. You can also ask.

最後にまた数値例を挙げる。
対物レンズの焦点距離 f=19mm
口径 D=20mm(レンズ1の直径)→k=D/f=1.05
第1レンズ F2-ガラス:f1=29.8mm、中央の厚み4mm、非球面の凸平型
第2レンズ F2-ガラス:f2=21.6mm、中央の厚み5mm、球面の凸平型
レンズ間の距離 d=14.8mm、第2レンズから像面までの距離:4.2mm
画像フィールド角 α=±15.4度
スポット径 20μm(=約1mrad)
Finally, another numerical example will be given.
Focal length of objective lens f=19mm
Aperture D=20 mm (diameter of lens 1)→k=D/f=1.05
First lens F2-glass: f1=29.8 mm, central thickness 4 mm, aspherical convex flat type Second lens F2-glass: f2=21.6 mm, central thickness 5 mm, spherical convex flat type Between lenses Distance d=14.8 mm, distance from the second lens to the image plane: 4.2 mm
Image field angle α=±15.4 degrees Spot diameter 20 μm (=about 1 mrad)

Claims (11)

監視領域(20)内の物体を検出するための光電センサ(10)であって、互いに分離した複数の光線(26)をそれぞれ1つの発光点(22b)から送出するための少なくとも1つの発光器(22)と、送出された前記光線(26)のための発光光学系(24)と、物体により反射されてそれぞれ受光点(32b)において入射する各反射光線(28)からそれぞれの受光信号を生成するための少なくとも1つの受光器(32)と、前記反射光線(28)のための受光光学系(30)と、前記受光信号から前記物体に関する情報を得るための評価ユニット(40)とを備える光電センサ(10)において、
前記受光光学系(30)及び/又は前記発光光学系(24)が画像フィールド角αの円環状の画像フィールド用の2レンズ式対物レンズであり、該対物レンズが第1レンズ(50)及び第2レンズ(52)を備え、前記第1レンズ(50)が、画像フィールド角αを持ついずれの個別の発光点及び/又は受光点の光束(54、56)も前記第2レンズ(52)の半分にのみ当たるように構成されていることを特徴とする光電センサ(10)。
A photoelectric sensor (10) for detecting an object in a surveillance area (20), wherein the photoelectric sensor (10) emits a plurality of light beams (26) separated from each other from one light emitting point (22b). (22), a light emitting optical system (24) for the transmitted light ray (26), and respective received light signals from reflected light rays (28) reflected by an object and incident at respective light receiving points (32b). At least one light receiver (32) for generating, a light receiving optical system (30) for the reflected light beam (28), and an evaluation unit (40) for obtaining information about the object from the light received signal. In the provided photoelectric sensor (10),
The light receiving optical system (30) and/or the light emitting optical system (24) is a two-lens type objective lens for an annular image field having an image field angle α, and the objective lens includes a first lens (50) and a first lens (50). Two lenses (52) are provided, and the first lens (50) allows any luminous flux (54, 56) of any individual light emitting point and/or light receiving point having an image field angle α to be generated by the second lens (52). A photoelectric sensor (10), characterized in that it is configured to hit only half.
前記2レンズ式対物レンズに関して、前記第1レンズ(50)の焦点距離をf1、直径をD1、該第1レンズ(50)と前記第2レンズ(52)の間の距離をdとしたときに不等式d≧(D1*f1)/(D1+2*f1*tanα)が満たされることを特徴とする請求項1に記載のセンサ(10)。 Regarding the two-lens objective lens, when the focal length of the first lens (50) is f1, the diameter is D1, and the distance between the first lens (50) and the second lens (52) is d. Sensor (10) according to claim 1, characterized in that the inequality d≧(D1*f1)/(D1+2*f1*tanα) is fulfilled. 少なくとも近似的にd=(D1*f1)/(D1+2*f1*tanα)が成り立つことを特徴とする請求項2に記載のセンサ(10)。 Sensor (10) according to claim 2, characterized in that d=(D1*f1)/(D1+2*f1*tanα) at least approximately. 前記第2レンズ(52)の焦点距離f2が第1レンズ(50)と第2レンズ(52)の間の距離と一致していることを特徴とする請求項1〜3のいずれかに記載のセンサ(10)。 The focal length f2 of the second lens (52) is equal to the distance between the first lens (50) and the second lens (52). Sensor (10). 前記第1レンズ(50)のF値k1が小さいこと、特にk1=1であることを特徴とする請求項1〜4のいずれかに記載のセンサ(10)。 Sensor (10) according to any of the preceding claims, characterized in that the F-number k1 of the first lens (50) is small, in particular k1=1. 前記発光点(22b)が第1の円周(48a)上に配置されていること、及び/又は、前記受光点(32b)が第2の円周(48b)上に配置されていることを特徴とする請求項1〜5のいずれかに記載のセンサ(10)。 The light emitting point (22b) is arranged on the first circumference (48a), and/or the light receiving point (32b) is arranged on the second circumference (48b). Sensor (10) according to any of claims 1 to 5, characterized in that 多数の発光器(22、22a)、特に発光点(22b)毎に1つの発光器(22、22a)を備えていること、及び/又は、多数の受光器(32、32a)、特に受光点(32b)毎に1つの受光器(32、32a)を備えていることを特徴とする請求項1〜6のいずれかに記載のセンサ(10)。 Multiple light emitters (22, 22a), in particular one light emitter (22, 22a) per light emitting point (22b) and/or multiple light receivers (32, 32a), in particular light receiving point Sensor (10) according to any of claims 1 to 6, characterized in that it comprises one light receiver (32, 32a) for each (32b). 発光器(22)と受光器(32)が同軸配置を成し、発光光学系(24)と受光光学系(30)が共通の光学系にまとめられていることを特徴とする請求項1〜7のいずれかに記載のセンサ(10)。 The light emitting device (22) and the light receiving device (32) are coaxially arranged, and the light emitting optical system (24) and the light receiving optical system (30) are integrated into a common optical system. Sensor (10) according to any of 7. レーザスキャナとして構成され、可動の偏向ユニット(12)を備え、該偏向ユニット(12)を用いて周期的に監視領域を通過するように送出光線(26)を案内し、特に該偏向ユニット(12)が前記発光器(22)及び/又は前記受光器(32)を収納した回転可能な走査ユニットの形で構成されていることを特徴とする請求項1〜8のいずれかに記載のセンサ(10)。 It is configured as a laser scanner and comprises a movable deflection unit (12) which is used to guide the emitted light beam (26) to periodically pass through the monitoring area, in particular the deflection unit (12). Sensor) according to any one of the preceding claims, characterized in that (4) is configured in the form of a rotatable scanning unit accommodating the light emitter (22) and/or the light receiver (32). 10). 前記評価ユニット(40)が前記光線(26)の送出から前記反射光線(28)の受光までの光伝播時間から前記物体の距離を測定するように構成されていることを特徴とする請求項1〜9のいずれかに記載のセンサ(10)。 The evaluation unit (40) is arranged to measure the distance of the object from the light transit time from the emission of the light beam (26) to the reception of the reflected light beam (28). A sensor (10) according to any of claims 9 to 10. 監視領域(20)内の物体を検出するための方法であって、互いに分離した複数の光線(26)がそれぞれ発光点(22b)から出発して発光光学系(24)を通じて送出され、物体により反射されて受光光学系(30)を通過した後でそれぞれ受光点(32b)に入射する各反射光線(28)からそれぞれの受光信号が生成され、前記物体に関する情報を得るために該受光信号が評価される方法において、
前記受光光学系(30)及び/又は発光光学系(24)が画像フィールド角αの円環状の画像フィールド用の2レンズ式対物レンズであり、該対物レンズが第1レンズ(50)及び第2レンズ(52)を備え、前記第1レンズ(50)の造形に基づいて、画像フィールド角αを持ついずれの個別の発光点及び/又は受光点の光束(54、56)も前記第2レンズ(52)の半分にのみ当たることを特徴とする方法。
A method for detecting an object in a surveillance area (20), wherein a plurality of light rays (26) separated from each other are emitted from an emission point (22b) and are emitted through an emission optical system (24), depending on the object. Each received light signal is generated from each reflected light ray (28) which is reflected and passes through the light receiving optical system (30) and then enters the light receiving point (32b), and the received light signal is obtained in order to obtain information about the object. In the evaluated way,
The light receiving optical system (30) and/or the light emitting optical system (24) is a two-lens type objective lens for an annular image field having an image field angle α, and the objective lens is a first lens (50) and a second lens (50). A lens (52) is provided, and based on the shaping of the first lens (50), the luminous flux (54, 56) at any individual light emitting point and/or light receiving point having an image field angle α is converted into the second lens ( 52) A method characterized by hitting only half of step 52).
JP2019190117A 2018-10-18 2019-10-17 Photoelectric sensor and object detection method Active JP6880140B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018125826.7A DE102018125826A1 (en) 2018-10-18 2018-10-18 Optoelectronic sensor and method for detecting objects
DE102018125826.7 2018-10-18

Publications (2)

Publication Number Publication Date
JP2020098194A true JP2020098194A (en) 2020-06-25
JP6880140B2 JP6880140B2 (en) 2021-06-02

Family

ID=68084719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019190117A Active JP6880140B2 (en) 2018-10-18 2019-10-17 Photoelectric sensor and object detection method

Country Status (5)

Country Link
US (1) US11698442B2 (en)
EP (1) EP3640667B1 (en)
JP (1) JP6880140B2 (en)
CN (1) CN111077509B (en)
DE (1) DE102018125826A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023004830A (en) * 2021-06-25 2023-01-17 奇景光電股▲ふん▼有限公司 Dot pattern projector used in three-dimensional distance measurement system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112585488B (en) * 2019-07-29 2023-08-04 深圳市速腾聚创科技有限公司 Receiving optical system, laser receiving module, laser radar and light modulation method
DE102020102247A1 (en) 2020-01-30 2021-08-05 Sick Ag Optoelectronic sensor and method for detecting objects
CN115616679B (en) * 2022-09-26 2024-04-12 广州晨日电子技术有限公司 Diffuse reflection type detection light curtain and object detection method
CN116299339B (en) * 2023-05-25 2023-08-04 西安炬光科技股份有限公司 Laser transmitting device, laser receiving device and laser radar

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08178749A (en) * 1994-09-13 1996-07-12 Matra Marconi Space Fr Sa Backscattering measuring device of light suitable for use inmachine
US20060187470A1 (en) * 2005-02-24 2006-08-24 Massey Cameron G Optical metrology system
JP2015148605A (en) * 2014-02-04 2015-08-20 ジック アーゲー Photoelectric sensor and method for detecting object within monitoring area
CN107861317A (en) * 2017-12-19 2018-03-30 浙江舜宇光学有限公司 Projection lens
US20180292512A1 (en) * 2017-04-10 2018-10-11 Sick Ag Optoelectronic sensor and method for detecting an object

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19757849C5 (en) 1997-12-24 2013-11-21 Sick Ag Scanner and device for the optical detection of obstacles, and their use
US7532311B2 (en) * 2005-04-06 2009-05-12 Lockheed Martin Coherent Technologies, Inc. Efficient lidar with flexible target interrogation pattern
JP2009236774A (en) * 2008-03-27 2009-10-15 Hokuyo Automatic Co Three dimensional ranging device
JP5568363B2 (en) * 2010-04-22 2014-08-06 株式会社トプコン Laser scanner
EP3045936A1 (en) * 2015-01-13 2016-07-20 XenomatiX BVBA Surround sensing system with telecentric optics
DE102015121839A1 (en) 2015-12-15 2017-06-22 Sick Ag Optoelectronic sensor and method for detecting an object
DE102016122712B3 (en) * 2016-11-24 2017-11-23 Sick Ag Optoelectronic sensor and method for acquiring object information
DE102017106380B4 (en) * 2017-03-24 2021-10-07 Sick Ag Optoelectronic sensor and method for detecting objects
US11143843B2 (en) * 2017-12-19 2021-10-12 Zhejiang Sunny Optical Co., Ltd. Projection lens assembly

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08178749A (en) * 1994-09-13 1996-07-12 Matra Marconi Space Fr Sa Backscattering measuring device of light suitable for use inmachine
US20060187470A1 (en) * 2005-02-24 2006-08-24 Massey Cameron G Optical metrology system
JP2015148605A (en) * 2014-02-04 2015-08-20 ジック アーゲー Photoelectric sensor and method for detecting object within monitoring area
US20180292512A1 (en) * 2017-04-10 2018-10-11 Sick Ag Optoelectronic sensor and method for detecting an object
CN107861317A (en) * 2017-12-19 2018-03-30 浙江舜宇光学有限公司 Projection lens

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023004830A (en) * 2021-06-25 2023-01-17 奇景光電股▲ふん▼有限公司 Dot pattern projector used in three-dimensional distance measurement system
JP7374165B2 (en) 2021-06-25 2023-11-06 奇景光電股▲ふん▼有限公司 Dot pattern projector used in 3D distance measurement system

Also Published As

Publication number Publication date
US20200124708A1 (en) 2020-04-23
EP3640667B1 (en) 2021-02-24
EP3640667A1 (en) 2020-04-22
CN111077509B (en) 2022-12-16
US11698442B2 (en) 2023-07-11
CN111077509A (en) 2020-04-28
DE102018125826A1 (en) 2020-04-23
JP6880140B2 (en) 2021-06-02

Similar Documents

Publication Publication Date Title
JP6880140B2 (en) Photoelectric sensor and object detection method
US10613201B2 (en) Three-dimensional lidar sensor based on two-dimensional scanning of one-dimensional optical emitter and method of using same
US10509109B2 (en) Optoelectronic sensor and method for detecting an object
US10996322B2 (en) Lidar sensor
CN110082771B (en) Photoelectric sensor and method for detecting object
US10859677B2 (en) Laser scanner for motor vehicles
JP6866048B2 (en) Photoelectric sensor and method for detecting objects in the monitoring area
JP6682569B2 (en) Photoelectric sensor and object detection method
KR20180128447A (en) Multi-wavelength LIDAR system
JP2019215324A (en) Photoelectric sensor and distance measurement method
US10436935B2 (en) Optoelectronic sensor and method of detecting objects in a monitored zone
US20210132196A1 (en) Flat optics with passive elements functioning as a transformation optics and a compact scanner to cover the vertical elevation field-of-view
KR20190066220A (en) 3-dimensional lidar device and distance measuring method
CN110300900B (en) Lidar sensor for sensing objects
CN110312947B (en) Lidar sensor for detecting objects
JP6506672B2 (en) Photoelectric sensor
JP7102561B2 (en) Photoelectric sensor and object detection method
EP4283330A1 (en) Lidar device with spatial light modulators
US11493606B1 (en) Multi-beam scanning system
US20200150245A1 (en) Lidar device having increased transmission power while taking eye safety into consideration, and method for scanning a region to be scanned

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210430

R150 Certificate of patent or registration of utility model

Ref document number: 6880140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250