JP2006047134A - Pedestrian position detector - Google Patents
Pedestrian position detector Download PDFInfo
- Publication number
- JP2006047134A JP2006047134A JP2004229362A JP2004229362A JP2006047134A JP 2006047134 A JP2006047134 A JP 2006047134A JP 2004229362 A JP2004229362 A JP 2004229362A JP 2004229362 A JP2004229362 A JP 2004229362A JP 2006047134 A JP2006047134 A JP 2006047134A
- Authority
- JP
- Japan
- Prior art keywords
- pedestrian
- leg
- walking
- case
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
この発明は歩行者位置検出装置に関し、特にたとえば、歩行訓練装置や歩行感覚提示装置などに利用できる、歩行者位置検出装置に関する。 The present invention relates to a pedestrian position detection device, and more particularly, to a pedestrian position detection device that can be used for a walking training device, a walking sensation presentation device, and the like.
人***置検出装置の一例が、特許文献1に開示されている。この特許文献1の人***置検出装置では、複数の2次元赤外線センサ装置を用い、検出対象領域の平面図上で、検出視野における角度情報の方向に、その情報を出力したそれぞれの2次元赤外線センサ装置を設置位置から直線を引いた場合にできる交点を求め、その交点の座標を人体補正位置とし、その補正位置を示す座標を予め表示されている検出対象領域の平面図上にプロットして現在の人***置として表示する。
特許文献1の人***置検出装置では複数の赤外線センサを用いることによって、人***置を精度よく検出できるとはいうものの、この発明を適用する歩行者の位置検出には必ずしも適した方式ではない。
Although the human body position detection device of
つまり、歩行者の位置を検出する目的は、歩行者が正しい位置を歩行しているかどうかを検出することであり、そのためには、歩行者の足または脚部の位置を認識する必要があるが、この従来技術ではそのことは意識されていない。 In other words, the purpose of detecting the position of the pedestrian is to detect whether the pedestrian is walking at the correct position. For this purpose, it is necessary to recognize the position of the foot or leg of the pedestrian. However, this prior art is not aware of that.
それゆえに、この発明の主たる目的は、新規な歩行者位置検出装置を提供することである。 Therefore, a main object of the present invention is to provide a novel pedestrian position detection device.
この発明の他の目的は、特別に歩行平面を準備しなくても簡単に自由歩行する歩行者の位置を検出できる、歩行者位置検出装置を提供することである。 Another object of the present invention is to provide a pedestrian position detection device that can easily detect the position of a pedestrian who freely walks without preparing a special walking plane.
この発明のその他の目的は、歩行者に何も付けなくても歩行者の位置を検出できる、歩行者位置検出装置を提供することである。 Another object of the present invention is to provide a pedestrian position detection device that can detect the position of a pedestrian without attaching anything to the pedestrian.
請求項1の発明は、2次元座標で定義できる歩行平面、および歩行平面を挟んで設けられる少なくとも2台のレーザスキャナを備え、レーザスキャナは、それぞれ、歩行平面の上方にレーザパルスを発射し、歩行平面上を歩行する歩行者の脚部表面からの反射光がかえってくるまでの時間を計測することによって、歩行者の脚部表面を表す位置データを取得し、さらに位置データを2次元座標の座標データに変換する座標データ変換手段、および座標データ変換手段で得られる脚部表面の座標データに基づいて歩行者の擬似重心を計算する擬似重心計算手段を備える、歩行者位置検出装置である。
The invention of
請求項1の発明では、その上を歩行者が自由歩行できる歩行平面を規定する。この歩行平面を挟んで、1対またはそれ以上のレーザスキャナを設ける。1つのレーザスキャナは、それぞれ、レーザパルスをたとえば1度ごとに方向を変えてスキャンしながら出射する。そのレーザパルスが歩行者の脚部に当ると、レーザパルスは反射してレーザスキャナに戻る。レーザスキャナでは反射光がかえってくるまでの時間を計測することによって、歩行者の脚部表面を表す位置(距離)データを取得する。この位置データは、したがって、設置されているレーザスキャナごとに1組得られるので、2台のレーザスキャナを設置しているなら1つの脚部について2組の位置データの組が取得できる。そして、擬似重心計算手段は、全ての組の位置データの平均値を擬似重心位置すなわち歩行者の位置として計算する。
In the invention of
したがって、請求項1の発明では、レーザスキャナを適宜数設置するだけで簡単に歩行者の位置(擬似重心)が計算できる。 Therefore, according to the first aspect of the present invention, the position of the pedestrian (pseudo centroid) can be calculated simply by installing an appropriate number of laser scanners.
請求項2の発明は、座標データに基づいて脚部の個数を検出する個数検出手段、および個数検出手段が独立した2つの脚部を検出したとき各脚部の足位置を検出する足位置検出手段をさらに備える、請求項1記載の歩行者位置検出装置である。
The invention according to
請求項2の発明では、2つの脚部が検出できたとき、その脚部の足位置を検出できるので、歩行者が正しい足位置で歩行しているかどうかを確認することができる。
In the invention of
請求項3の発明は、足位置検出手段は、同じ脚部を異なる方向からスキャンしたときに異なるレーザスキャナで得られる位置データの異なる組ごとに中心を計算し、その組ごとの中心の中心を当該脚部の足位置として計算する、請求項2記載の歩行者位置検出装置である。
In the invention of
請求項3の発明では、簡単に各脚部の足位置が計算できる。
In the invention of
この発明によれば、歩行者の脚部を検出することによって歩行者の位置を検出するようにしているため、歩行者が正しい位置を歩行しているかどうかを検出することができる。さらに、この発明によれば、歩行平面を挟んで適宜数のレーザスキャナを設置するだけで、簡単に自由歩行する歩行者の位置を検出できる。しかも、歩行者にたとえばタグのようなものを付ける必要もない。 According to the present invention, since the position of the pedestrian is detected by detecting the legs of the pedestrian, it is possible to detect whether the pedestrian is walking at the correct position. Furthermore, according to the present invention, it is possible to easily detect the position of a pedestrian who freely walks by simply installing an appropriate number of laser scanners with the walking plane in between. Moreover, it is not necessary to attach a pedestrian such as a tag.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1および図2を参照して、この発明の一実施例である歩行者位置検出装置統10は、歩行平面12を有し、この歩行平面12上を歩行者14が自由歩行できる。歩行平面12を挟むように2台のレーザスキャナ16aおよび16bが設けられる。
Referring to FIGS. 1 and 2, a pedestrian position
レーザスキャナ16aおよび16bは、それぞれ、歩行平面12の上方に、たとえば近赤外領域のレーザパルス18aおよび18bを発射し、歩行平面12の上を歩行する歩行者14の脚部表面からの反射光がかえってくるまでの時間を計測することによって、その歩行者14の脚部表面を表す位置データを取得する。つまり、レーザスキャナ18aおよび18bは、図2からよくわかるように、たとえば1度でのスキャンピッチで360度の範囲をスキャンすることによって、歩行平面12の全域をカバーする。このようなレーザパルスのスキャンのためには、レーザをオプティカルヘッド(図示せず)に設け、そのオプティカルヘッド全体をモータで360度回転させる。ただし、この実施例の場合には、360度全範囲ではなく、たとえば前方180度の範囲だけをスキャンさせるだけでも十分利用できる。
The
なお、この実施例ではレーザスキャナ16aおよび16bから出射するレーザパルスが歩行平面12の上方に位置するように設定した。具体的には、歩行平面上20−30cmの範囲、もしくは人間の足首から膝までの範囲、特にふくらはぎの位置に設定する。このように歩行平面12の「上方」にレーザパルス位置を設定することによって、或る程度足を上げても脚部を確実に検出できる。
In this embodiment, the laser pulses emitted from the
図3には一方のレーザスキャナ16bからのレーザパルスとそれによる脚部F1およびF2の検出の状態が図示される。ただし、他方のレーザスキャナ16aによる検出態様も同様であることを予め指摘しておく。
FIG. 3 shows a laser pulse from one of the
レーザスキャナ16bからのレーザパルス18bはレーザスキャナ16bの前面中央から扇形にスキャンして出射され、前方に目標が存在しない場合にはそのまま前方に進行するが、前方にたとえば脚部F1およびF2が存在すると、その表面でレーザパルスが反射される。レーザスキャナ16bでは、この目標物(実施例の場合には、歩行者14の脚部)からの反射光を受光し、その反射光が帰ってくるまでの時間で、目標物までの距離を計測する。つまり、この実施例のレーザスキャナ18aおよび18bは、赤外領域のレーザパルスの飛行時間測定原理に基づいて、ターゲット表面の距離を測定できる。測定した距離データは、他の測定データたとえば受光強度や角度のデータとともに、8ビットパラレルデータとして出力される。ここでは、特に距離のデータを「位置データ」と呼ぶ。
The
位置データは、レーザスキャナ16aや16bのスキャンピッチが上述のように1度であるとすると、180度の範囲をスキャンするとき、その範囲に何かが存在すれば理論的には181個の位置データが取得できる。ところが実際には、歩行者の脚部からだけ反射光が戻るので、位置データの数は、それぞれより少ないが、それでも数個から数十個の位置データが得られる。そこで1つのレーザスキャナで取得できる位置データを1組の位置データとする。
Assuming that the scan pitch of the
なお、このようなレーザスキャナ18aおよび18bとして、一例として、ジック株式会社 (http://www.sick.co.jp)が市販する2次元レーザスキャナたとえば「LMS−200」などが利用可能である。
As
なお、図3に示すように、歩行平面12はXY(2次元)座標で定義できるものであり、X軸の最小位置をxminとし最大位置をxmaxとし、Y軸の最小位置をyminとし最大位置をymaxと設定する。また、図2および図3における「F1」および「F2」はそれぞれ歩行者14の脚部(実施例では、ふくらはぎ)の位置を表している。
As shown in FIG. 3, the
レーザスキャナ18aおよび18bからの位置データは、図4に示すように、コンピュータ20に入力され、このコンピュータ20において、入力された位置データに基づいて歩行者の重心を計算する。計算した重心位置が、必要に応じて、歩行者の足の位置(F1,F2)とともに、たとえばCRTまたはその他プラズマディスプレイなどのテレビジョンモニタ22に表示される。ただし、図4のブロック図では、図面の簡単化のため、インタフェースの図解は省略している。
As shown in FIG. 4, the position data from the
ここで、図5を参照して、図1の実施例で歩行者の脚部を検出する5つのパターン、ケース1、ケース2、ケース3、ケース4およびケース5について説明する。
Here, with reference to FIG. 5, the five patterns for detecting the pedestrian's legs in the embodiment of FIG. 1,
ケース1は、図5(a)に示すように、レーザスキャナ16aおよび16bがともに、2組の独立した脚部の位置データを取得できる場合である。この状態を(2,2)として表現する。この表現方法において、前の「2」はたとえばレーザスキャナ16aで検出できた位置データの組の数を表し、後の「2」はレーザスキャナ16bで検出できた位置データの組の数を示す。以下、同様である。
そして、この図5で、後の図8−10でも同様であるが、波線表記はレーザスキャナ16aが検出した位置データを示し、点線表記はレーザスキャナ16bが検出した位置データを示す。ケース1の場合には、2つの脚部が歩行平面12の座標のX軸方向にもY軸方向にも識別可能な程度に離れているため、いずれのレーザスキャナによっても、それぞれ2つの位置データの組を検出することができる。
In FIG. 5, the same applies to FIGS. 8 to 10, but the wavy line notation indicates position data detected by the
図5(b)に示すケース2もケース1と同様に、2つのレーザスキャナ16aおよび16bがともに2個の位置データを検出できる場合である。ただし、このケース2は、歩行者の体の向きDが、ケース1ではX軸方向であるのに対し、Y軸方向であるという点で相違する。
ケース3は、図5(c)に示すように、Y軸方向において2つの脚部が完全に重なった場合である。この場合、一方のレーザスキャナ16aではそのレーザスキャナ16a側の脚部(F1)の表面を検出できるだけであり、レーザスキャナ16b側の脚部(F2)の表面は検出できない。同じように、レーザスキャナ16bではそのレーザスキャナ16b側の脚部(F2)の表面を検出できるだけであり、レーザスキャナ16a側の脚部(F1)の表面は検出できない。したがって、いずれのレーザスキャナも検出できる位置データの組の数は1つであり、(1,1)と表記する。
ケース4は、図5(d)に示すように、X軸、Y軸の両方向において2つの脚部が一部重なった場合である。この場合には、2つの脚部がX軸方向に分離できないため、一方のレーザスキャナ16aでは、2つの脚部のレーザスキャナ16a側の表面を一連で検出してしまう。同じように、レーザスキャナ16bではそのレーザスキャナ16b側の脚部表面を一連で検出することになる。したがって、この場合も、いずれのレーザスキャナも検出できる位置データの組数は1つであり、(1,1)と表記する。
ケース5は、図5(e)に示すように、X軸方向において2つの脚部が微妙に重なった場合である。この場合には、一方のレーザスキャナ16aでは、2つの脚部のレーザスキャナ16a側の表面を個別に検出できるが、レーザスキャナ16bではそのレーザスキャナ16b側の脚部表面を一連で検出することになる。あるいは、その逆に、レーザスキャナ16aが1組の位置データを検出し、レーザスキャナ16bが2組の位置データを検出することもある。したがって、この場合は、(2,1)または(1,2)と表記できる。
Case 5 is a case where two legs are slightly overlapped in the X-axis direction, as shown in FIG. In this case, one
図6に示す表は,2つのレーザスキャナ16aおよび16bが検出した位置データの組の数がって、エッジ個数の関係を示すものであり、この表で、「C1」はレーザスキャナ16aを示し、「C2」はレーザスキャナ16bのことである。つまり、レーザスキャナ16aでの検出位置データの組数が「1」のときには図5で示すケース3かケース4かケース5の可能性であり、そのときにレーザスキャナ16bでの検出位置データ組数が「1」なら、ケース3またはケース4となり、レーザスキャナ16bでの検出位置データ組数が「2」なら、ケース5である。レーザスキャナ16aの検出位置データ組数が「2」のときは、可能性として、ケース5か、ケース1またはケース2である。そして、レーザスキャナ16bの検出位置データ組数が「1」のときは、結局、ケース5であり、「2」のときは、2つのレーザスキャナの検出位置データ組数がともに2つのであるため、ケース1かケース2である。
The table shown in FIG. 6 shows the relationship between the number of position data sets detected by the two
そして、図6に示すように、いずれかのレーザスキャナでの検出位置データ組数が「0」のとき、あるいはいずれかのレーザスキャナの検出位置データ組数が「3以上」のときには、いずれも、擬似重心計算は行わない(図6で「×」で示す)。 As shown in FIG. 6, when the number of detection position data sets in any laser scanner is “0”, or when the number of detection position data sets in any laser scanner is “3 or more”, The pseudo centroid calculation is not performed (indicated by “x” in FIG. 6).
ここで、図7に示すフローチャートを参照して、コンピュータ20(図4)の動作を説明する。 Here, the operation of the computer 20 (FIG. 4) will be described with reference to the flowchart shown in FIG.
最初のステップS1で、コンピュータ20は、図4に示すように、第1レーザスキャナ16aおよび第2レーザスキャナ16bから位置データを取得する。つづいて、ステップS3では、各脚部や擬似重心の位置を歩行面12(図1、2)のXY座標(2次元座標)で表現する必要があるので、ステップS1で入力した位置データを、歩行平面12のXY系の座標データに変換する。
In the first step S1, the
そして、コンピュータ20は、ステップS5およびS7を実行し、2つのレーザスキャナ16a、16bの位置データがX軸方向またはY軸方向に分離可能かどうかあるいは連続しているかどうか、つまり、X軸方向およびY軸方向にそれぞれ何組の位置データがあるかを計算することによって、図5のケースのいずれに該当するか判別する。
Then, the
ケース3かケース4の場合、つまり(1,1)のときには、コンピュータ20はステップS9において、図8に示す数式(1)に従って、擬似重心Gの座標GxおよびGyを計算する。この数式(1)の計算方法は、全ての位置データの合計を、合計した位置データの個数で割る、単純平均の計算方法である。X軸方向のレーザスキャナ16aおよび16bの位置データをC1xおよびC2xとし、Y軸方向のレーザスキャナ16aおよび16bの位置データをC1yおよびC2yとし、それらを全て合計し、位置データの個数m−n+1+Q−P+1で除算することによって単純平均を求めることができる。ここで、「m-n」に+1するのは、nからmまでスキャンしたときの位置データの数は「m−n+1」だからである。「O−P+1」も同じ理由である。
In
ケース5の場合、つまり(2,1)または(1,2)のときには、コンピュータ20はステップS11において、図9に示す数式(2)に従って、擬似重心座標GxおよびGyを計算する。この数式(2)も基本的には、全位置データの単純平均でGx,Gyを求める。ただし、この場合には、図8の例では位置データの組数が2つであったので「+2」したのに対して、位置データの組が3つなので、分母に「+3」している。
In case 5, that is, (2, 1) or (1, 2), the
ケース1かケース2の場合、つまり(2,2)のときには、コンピュータ20はステップS13において、図10に示す数式(3)に従って、擬似重心座標GxおよびGyを計算する。この数式(3)も基本的には、全位置データの単純平均でGx,Gyを求める。ただし、この場合には、位置データの組が4つあるので、分母に「+4」している。
In
このようにして、ステップS9、S11またはS13で擬似重心位置を計算して歩行者の位置を検出する。 In this way, the position of the pedestrian is detected by calculating the pseudo center of gravity position in step S9, S11 or S13.
ただし、2つの脚部を独立して検出できたときに実行するステップS13の後には、ステップS15で、コンピュータ20は、2つの脚部の位置(G1)(G2)を検出する処理(両足検出)を実行する。
However, after step S13 executed when the two legs can be detected independently, in step S15, the
(2,2)の場合であれば、1つの脚部についてみると図11に示すように2つのレーザスキャナ16aおよび16bで1つずつ、2つの脚部で合計4組の位置データが得られる。この4組の位置データを用いて、数式(4)の上半分で示す単純平均の方法で、各位置データの組毎に中心を計算する。したがって、4つの平均値データが得られる。そして、4つの平均値データから4つ組の位置データの中心P1,P2,P3,P4が求まる。そして、このこれらの中心位置の距離を比較してペアをつくる。一例として、エッジ重心P1とP3とでペアを作り、P2とP4とでペアを作る。そしてた、各ペアの中点が推定足重心G1(他方の足ではG2)となる。
In the case of (2, 2), when one leg is viewed, a total of four sets of position data are obtained by two
図11では1つの脚部だけが図示されているので、この場合であれば、nからmへのスキヤンで得られる位置データの組で1つの中心P1を計算し、PからQへのスキヤンで得られる位置データの組で1つの中心P3を計算する。そして、各位置データP1,P3の中点がこの脚部の推定重心の擬似重心となる。このようにして、ステップS15で、各脚部F1,F2の位置(上述のG1,G2)が計算できる。 Since only one leg is shown in FIG. 11, in this case, one center P1 is calculated from a set of position data obtained by scanning from n to m, and scanning from P to Q is performed. One center P3 is calculated from the obtained position data set. The midpoint of each of the position data P1 and P3 becomes a pseudo centroid of the estimated centroid of the leg. In this way, the positions of the legs F1 and F2 (G1 and G2 described above) can be calculated in step S15.
その後、ステップS17において、コンピュータ20は、各ステップS9、S11またはS13で求めた擬似重心座標データ(歩行者位置)と、ステップS15で求めた両足位置とをメモリ(図示せず)に保存する。このメモリとしては、コンピュータ20の内蔵メモリの他、外部メモリであってよい。
Thereafter, in step S17, the
そして、ステップS19で、コンピュータ20は、図12に示すように、図4に示すテレビジョンモニタ22に、擬似重心位置(歩行者位置)Gと各脚部位置F1,F2とを表示する。そのことによって、歩行者の位置だけでなく、歩行者の足がどの位置にあるかを明確に知ることができる。
In step S19, as shown in FIG. 12, the
なお、コンピュータ20は、上述のようにステップS17で保存したデータを、必要があれば、上位もしくはメインコンピュータに提供することも考えられる。この上位またはメインコンピュータ(図示せず)は、歩行訓練装置や歩行感覚提示装置などのむ全体の制御を実行するコンピュータである。メインコンピュータは、その擬似重心位置や脚部の位置のデータを受信し、それらのデータに基づいて、たとえばトレッドミルのベルト速度やヘルト角度などを、そのときの歩行者の位置等に応じて最適制御することができる。
Note that the
そして、ステップS21で繰り返しの必要がなくなったと判断したときは、そのまま処理を終了するが、繰り返すべきときには、先のステップS1に戻る。 If it is determined in step S21 that it is no longer necessary to repeat, the processing is terminated as it is. If it should be repeated, the process returns to the previous step S1.
ただし、ステップS7で、図5で示すいずれのケースにも該当しないと判断したとき、コンピュータは、続くステップS23で、検出数(検出できた脚部の数)が「3」以上かどうか判断する。歩行平面12上に3以上の脚部が存在するということは、被験者の他にだれか少なくとも1人の人間か、あるいは他の物体が存在することを意味しており、この場合には、歩行者に危険が及ぶ可能性がるので、コンピュータ20は、メインコンピュータ(図示せず)に、歩行平面12上に2人以上が存在するという警告を発するように、指示または要請する。
However, when it is determined in step S7 that none of the cases shown in FIG. 5 applies, the computer determines in step S23 whether the number of detections (number of detected leg portions) is “3” or more. . The presence of three or more legs on the walking
その後、ステップS27で、そのメインコンピュータへ、システムの停止、たとえば歩行訓練装置や歩行感覚提示装置の停止を指示する。 Thereafter, in step S27, the main computer is instructed to stop the system, for example, stop the walking training device or the walking sensation presentation device.
なお、ステップS23で“NO”が判断されたときは、歩行平面12上に1人も被験者がいないことを意味し、この場合にも、コンピュータ20は、ステップS27で、インコンピュータへ、システムの停止を指示する。
If “NO” is determined in step S23, it means that there is no subject on the walking
上で説明したように、この実施例によれば、歩行者の位置(擬似重心)が検出できるので、その位置の変化方向および変化量に基づいて、歩行者がどの方向へどの程度の速度で歩行しようとしているかをかなり正確に予測できる。したがって、全方向歩行感覚提示装置になどに有利に適用できる。 As described above, according to this embodiment, since the position of the pedestrian (pseudo centroid) can be detected, based on the change direction and the change amount of the position, the pedestrian moves in which direction and at what speed. You can predict quite accurately whether you are walking. Therefore, it can be advantageously applied to an omnidirectional walking sensation presentation device.
また、実施例では、2つの脚部を分離して検出できたときには、各脚部の位置を計算によって求めるようにした。したがって、その足の位置の変化量や変化方向から、歩行者の次の足位置を予測できる。したがって、たとえばトレッドミル上で歩行している場合に、その歩行者の足がベルト上から脱落したりする事故が生じるかどうかなどを監視することができる。 In the embodiment, when two legs can be detected separately, the position of each leg is obtained by calculation. Therefore, the next foot position of the pedestrian can be predicted from the change amount and direction of the foot position. Therefore, for example, when walking on a treadmill, it is possible to monitor whether or not an accident occurs in which the pedestrian's foot falls off the belt.
なお、上述の実施例における重心等の具体的計算方法(数式1−4)は単なる一例であり、他の計算方法が採用されてもよい。 In addition, the specific calculation method (Formula 1-4) of the gravity center etc. in the above-mentioned Example is a mere example, and another calculation method may be employ | adopted.
また、この発明の歩行者重心検出装置は、上述の歩行訓練装置や歩行感覚提示装置などの他、任意の装置やシステムに応用できることはもちろんである。 In addition, the pedestrian center-of-gravity detection device of the present invention can be applied to any device or system other than the above-described walking training device and walking sense presentation device.
さらに、上述の実施例では2台のレーザスキャナを用いたが、それ以上の数のレーザスキャナを用いることも考えられる。たとえば、図2で歩行平面12の異なる対辺にそれぞれレーザスキャナを設置してもよい。この場合にも、擬似重心の計算は上で説明した方法(全ての位置データの単純平均を計算する方法)がそのまま採用できる。しかも、レーザパルスの死角が少なくなるので、一方方向に重なった脚部でも他方方向からは分離して検出することができるので、検出精度が向上する。
Furthermore, in the above-described embodiment, two laser scanners are used. However, it is possible to use more laser scanners. For example, laser scanners may be installed on opposite sides of the walking
また、レーザスキャナとしては、2次元スキャナだけでなく、3次元スキャナも利用できる。 As the laser scanner, not only a two-dimensional scanner but also a three-dimensional scanner can be used.
10 …歩行者位置検出装置
12 …歩行平面
14 …歩行者
16a,16b …レーザスキャナ
18a,18b …レーザパルス
20 …コンピュータ
22 …テレビジョンモニタ
DESCRIPTION OF
Claims (3)
前記歩行平面を挟んで設けられる少なくとも2台のレーザスキャナを備え、
前記レーザスキャナは、それぞれ、前記歩行平面の上方にレーザパルスを発射し、前記歩行平面上を歩行する歩行者の脚部表面からの反射光がかえってくるまでの時間を計測することによって、前記歩行者の前記脚部表面を表す位置データを取得し、さらに
前記位置データを前記2次元座標の座標データに変換する座標データ変換手段、および
前記座標データ変換手段で得られる前記脚部表面の前記座標データに基づいて前記歩行者の擬似重心を計算する擬似重心計算手段を備える、歩行者位置検出装置。 A walking plane that can be defined by two-dimensional coordinates, and at least two laser scanners provided across the walking plane,
Each of the laser scanners emits a laser pulse above the walking plane, and measures the time until reflected light from the leg surface of a pedestrian walking on the walking plane changes. Position data representing the surface of the leg of the person, coordinate data conversion means for converting the position data into coordinate data of the two-dimensional coordinates, and the coordinates of the surface of the leg obtained by the coordinate data conversion means A pedestrian position detecting device comprising pseudo centroid calculating means for calculating the pedestrian's pseudo centroid based on data.
前記個数検出手段が独立した2つの脚部を検出したとき各脚部の足位置を検出する足位置検出手段をさらに備える、請求項1記載の歩行者位置検出装置。 A number detecting means for detecting the number of legs based on the coordinate data; and a foot position detecting means for detecting a foot position of each leg when the number detecting means detects two independent legs. The pedestrian position detection device according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004229362A JP2006047134A (en) | 2004-08-05 | 2004-08-05 | Pedestrian position detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004229362A JP2006047134A (en) | 2004-08-05 | 2004-08-05 | Pedestrian position detector |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006047134A true JP2006047134A (en) | 2006-02-16 |
Family
ID=36025845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004229362A Withdrawn JP2006047134A (en) | 2004-08-05 | 2004-08-05 | Pedestrian position detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006047134A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008275442A (en) * | 2007-04-27 | 2008-11-13 | Univ Of Tokyo | Laser measurement system and method |
JP2009168578A (en) * | 2008-01-15 | 2009-07-30 | Advanced Telecommunication Research Institute International | Measurement device and measurement method |
JP2011047772A (en) * | 2009-08-26 | 2011-03-10 | Konan Gakuen | Object detection system, control method of the same, control program, and recording medium |
JP2011226880A (en) * | 2010-04-19 | 2011-11-10 | Advanced Telecommunication Research Institute International | Measuring device, measuring method and measuring program |
CN102298145A (en) * | 2011-08-15 | 2011-12-28 | 天津职业技术师范大学 | Pseudo-random code measuring device with capacity of simultaneously extracting walking features of multiple pedestrians |
JP2012073683A (en) * | 2010-09-27 | 2012-04-12 | Fujitsu Ltd | Person detection device, person detection method and program |
JP2013068599A (en) * | 2011-09-09 | 2013-04-18 | Mitsubishi Electric Corp | Stay degree detection apparatus and passenger conveyor |
WO2013065563A1 (en) * | 2011-11-04 | 2013-05-10 | 村田機械株式会社 | Gait characteristic acquisition device |
JP2015174715A (en) * | 2014-03-13 | 2015-10-05 | 三菱電機ビルテクノサービス株式会社 | human detection device of passenger conveyor |
JP2016028665A (en) * | 2014-07-25 | 2016-03-03 | 村田機械株式会社 | Leg state detection device, leg state detection method, and leg state detection program |
JP2020085522A (en) * | 2018-11-19 | 2020-06-04 | 株式会社Ihi | Monitoring system and processor |
JP2020085521A (en) * | 2018-11-19 | 2020-06-04 | 株式会社Ihi | Monitoring system |
JP2020085523A (en) * | 2018-11-19 | 2020-06-04 | 株式会社Ihi | Monitoring system and processor |
-
2004
- 2004-08-05 JP JP2004229362A patent/JP2006047134A/en not_active Withdrawn
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008275442A (en) * | 2007-04-27 | 2008-11-13 | Univ Of Tokyo | Laser measurement system and method |
JP2009168578A (en) * | 2008-01-15 | 2009-07-30 | Advanced Telecommunication Research Institute International | Measurement device and measurement method |
JP2011047772A (en) * | 2009-08-26 | 2011-03-10 | Konan Gakuen | Object detection system, control method of the same, control program, and recording medium |
JP2011226880A (en) * | 2010-04-19 | 2011-11-10 | Advanced Telecommunication Research Institute International | Measuring device, measuring method and measuring program |
JP2012073683A (en) * | 2010-09-27 | 2012-04-12 | Fujitsu Ltd | Person detection device, person detection method and program |
CN102298145A (en) * | 2011-08-15 | 2011-12-28 | 天津职业技术师范大学 | Pseudo-random code measuring device with capacity of simultaneously extracting walking features of multiple pedestrians |
JP2013068599A (en) * | 2011-09-09 | 2013-04-18 | Mitsubishi Electric Corp | Stay degree detection apparatus and passenger conveyor |
JPWO2013065563A1 (en) * | 2011-11-04 | 2015-04-02 | 村田機械株式会社 | Walking characteristic acquisition device |
WO2013065563A1 (en) * | 2011-11-04 | 2013-05-10 | 村田機械株式会社 | Gait characteristic acquisition device |
JP2015174715A (en) * | 2014-03-13 | 2015-10-05 | 三菱電機ビルテクノサービス株式会社 | human detection device of passenger conveyor |
JP2016028665A (en) * | 2014-07-25 | 2016-03-03 | 村田機械株式会社 | Leg state detection device, leg state detection method, and leg state detection program |
JP2020085522A (en) * | 2018-11-19 | 2020-06-04 | 株式会社Ihi | Monitoring system and processor |
JP2020085521A (en) * | 2018-11-19 | 2020-06-04 | 株式会社Ihi | Monitoring system |
JP2020085523A (en) * | 2018-11-19 | 2020-06-04 | 株式会社Ihi | Monitoring system and processor |
JP7205179B2 (en) | 2018-11-19 | 2023-01-17 | 株式会社Ihi | Monitoring system |
JP7205181B2 (en) | 2018-11-19 | 2023-01-17 | 株式会社Ihi | Monitoring system and processing equipment |
JP7205180B2 (en) | 2018-11-19 | 2023-01-17 | 株式会社Ihi | Monitoring system and processing equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3262439B1 (en) | Using intensity variations in a light pattern for depth mapping of objects in a volume | |
US10481237B2 (en) | Method and apparatus for using gestures to control a measurement device | |
JP2006047134A (en) | Pedestrian position detector | |
US11320536B2 (en) | Imaging device and monitoring device | |
CN105589607B (en) | Touch-control system, touch control display system and touch-control exchange method | |
US7123351B1 (en) | Method and apparatus for measuring distances using light | |
US20100225588A1 (en) | Methods And Systems For Optical Detection Of Gestures | |
JP2016510243A5 (en) | ||
US11150318B2 (en) | System and method of camera-less optical motion capture | |
JP7194015B2 (en) | Sensor system and distance measurement method | |
KR19980080509A (en) | Hand pointing device | |
KR20160028891A (en) | An objection recognition device for a blind person using a depth camera and a direction-detecting sensor | |
US20200160566A1 (en) | Display apparatus for computer-mediated reality | |
US20080062124A1 (en) | Mouse interface apparatus using camera, system and method using the same, and computer recordable medium for implementing the same | |
TWI471765B (en) | Three-dimensional interaction display and operation method thereof | |
JP2016180724A (en) | Distance measuring device | |
US11266307B2 (en) | Evaluation device, evaluation method, and non-transitory storage medium | |
TW201321712A (en) | Systems and methods for determining three-dimensional absolute coordinates of objects | |
TWI472988B (en) | Optical touch-sensing system and method | |
US10403002B2 (en) | Method and system for transforming between physical images and virtual images | |
KR101388400B1 (en) | putting device the compensation function, with starting point | |
WO2020121975A1 (en) | Evaluation device, evaluation method, and evaluation program | |
JP2004198237A (en) | Human body detection system | |
Kang et al. | SafeAR: AR alert system assisting obstacle avoidance for pedestrians | |
KR20200063378A (en) | Gesture Recognition Apparatus for Human Body Using Complementary Complex Sensor and Gesture Recognition Method for Human Body Using the Same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20071106 |