WO2012111138A1 - 歩行者移動情報検出装置 - Google Patents

歩行者移動情報検出装置 Download PDF

Info

Publication number
WO2012111138A1
WO2012111138A1 PCT/JP2011/053487 JP2011053487W WO2012111138A1 WO 2012111138 A1 WO2012111138 A1 WO 2012111138A1 JP 2011053487 W JP2011053487 W JP 2011053487W WO 2012111138 A1 WO2012111138 A1 WO 2012111138A1
Authority
WO
WIPO (PCT)
Prior art keywords
intensity distribution
pedestrian
trajectory
detection
intensity
Prior art date
Application number
PCT/JP2011/053487
Other languages
English (en)
French (fr)
Inventor
岡田 祐子
朋之 濱田
柄川 索
航 田中
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2011/053487 priority Critical patent/WO2012111138A1/ja
Publication of WO2012111138A1 publication Critical patent/WO2012111138A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Definitions

  • the present invention relates to a pedestrian movement information detection device.
  • Patent Literature 1 As conventional techniques for detecting pedestrian movement information, there are Patent Documents 1, 2, and 3, for example.
  • the prior art of Patent Literature 1 is a passer-by behavior analysis system that analyzes the behavior of passers-by in a predetermined space.
  • position detection means for obtaining the position coordinates of each passerby that passes through the space
  • tracking processing means for tracking the position of the same passerby and obtaining temporal changes in the position coordinates of each passer
  • a predetermined Storage means for storing temporal change data of position coordinates in time for each passer-by, and determining the trajectory of each passerby in the space from temporal change data of position coordinates stored in the storage means
  • Means and display means for displaying the trajectories of all passers-by who have passed within a predetermined time in a predetermined space.
  • the passer-by behavior analysis device in order to improve the accuracy of the passer-by tracking process when a large number of people are present in a relatively large area, It receives distance data indicating the distance from the sensor, and generates sensing image data indicating the detection position of the laser sensor on the spatial plane at the same time using a plurality of distance data acquired by a plurality of laser sensors. .
  • a plurality of detection positions in the sensing image data are clustered, and a cluster corresponding to the foot of one passer-by is identified from the clustering result, the position of the foot point of the passer-by, the walking direction, the stride, the walking cycle, and the walking Phase parameters are determined, and the trajectory of passersby is analyzed using each parameter and the particle filter algorithm.
  • the memory stores topics related to stores in the shopping mall and a movement trajectory representing a global action toward the store, etc.
  • the laser range finder (LRF) stores the inside of the shopping mall. Human movement trajectory is detected, the most similar global behavior movement trajectory is identified from the memory, and topics corresponding to the identified global behavior movement trajectory are read out and the robot speaks to provide recommendation information to the human. .
  • a specific pedestrian is tracked to obtain a movement trajectory, and the global behavior of the specific pedestrian is predicted to provide a service.
  • An object of the present invention is to provide an apparatus for easily acquiring information relating to pedestrian movement, such as crowd flow lines and distribution of human flow density, when an unspecified number of pedestrians visit a relatively large area. There is.
  • the purpose of the present invention is to detect the distribution density of a pedestrian density in space and to detect a movement trajectory of one or more pedestrians from the intensity distribution acquired by the intensity distribution detection means of the pedestrian density.
  • a flow line extraction means, an intensity distribution detection target position setting means for determining an installation location of the intensity distribution detection means of the human flow density based on the position of the flow lines extracted by the crowd flow line extraction means, and the intensity distribution detection target position This is achieved by including an intensity distribution detection moving means for moving the intensity distribution detection means of the human flow density to an installation place determined by the setting means.
  • the intensity distribution detecting means for the human flow density measures a distance measuring means for measuring a distance from an object, a distance image generating means for generating a distance image based on a value measured by the distance measuring means, and the distance
  • a pedestrian trajectory analyzing means for analyzing a pedestrian trajectory from the distance image generated by the image generating means, a trajectory counting means for calculating the number of trajectories analyzed by the pedestrian trajectory analyzing means, and the pedestrian trajectory analyzing means It is preferable to include a trajectory storage unit that stores the trajectory analyzed by the above.
  • the purpose of the present invention is to provide a threshold value setting means for setting a threshold value for separating the intensity distribution acquired by the intensity distribution detecting means for the human flow density, and a threshold value determined by the intensity threshold setting means.
  • An intensity separation means for separating the intensity distribution on the basis of the flow rate, an inflow / outflow direction for determining the inflow / outflow direction of the pedestrian's movement line based on the human flow density intensity distribution separated by the intensity separation means and the locus stored in the locus storage means It is preferable to provide direction calculation means.
  • the intensity distribution detection moving means is a mobile robot.
  • the distance measuring means is the same as an obstacle detection sensor mounted on the mobile robot.
  • the detection position of the pedestrian trajectory is moved according to the crowd movement line, so that it is possible to immediately respond to the change in the situation, so an unspecified number of walks in a wide place having a complicated passage such as a station concourse.
  • pedestrian movement information such as crowd flow lines and distribution of human flow density can be easily provided.
  • a flow planning simulation that examines environmental design that facilitates the flow of people in architectural design and urban development
  • a crowd guidance simulation that examines effective crowd guidance methods to avoid crowd accidents in the event of a disaster It is.
  • Such information on the movement lines of the crowd has been used for a long time and has been calculated by various means. For example, there are a method of directly counting people by placing people with counters at important points in the street, and a method of calculating movement flow lines by analyzing data from video cameras installed in stations and on the street. .
  • the inventors of the present invention obtained hints from the keyword of tracking the crowd, and as a result of various studies, the following examples were obtained.
  • FIG. 1 is a flowchart showing the configuration of the pedestrian movement information detection apparatus of this embodiment.
  • reference numeral 1 denotes a human flow density intensity distribution detecting means. This intensity distribution detection means 1 measures the distribution density of pedestrians in space.
  • Reference numeral 2 denotes group movement line extraction means, 3 denotes intensity distribution detection target position setting means, and 4 denotes intensity distribution detection moving means for moving the intensity distribution detection means 1.
  • the intensity distribution detection moving means an autonomous mobile robot or the like can be considered.
  • the intensity distribution detection means 1 is connected to the group distribution line extraction means 2, the group collection line extraction means 2 is connected to the intensity distribution detection target position setting means 3, and the intensity distribution detection target position setting means 3 is the intensity distribution detection movement means 4. It is connected to the.
  • FIG. 2 is a flowchart showing a detailed configuration of the intensity distribution detecting means.
  • the intensity distribution detecting means 1 includes a sensor for measuring the distance from the intensity distribution detecting means 1 to an object, for example, a laser range finder (LRF) 10 (hereinafter referred to as LRF 10).
  • LRF 10 laser range finder
  • Reference numeral 11 denotes an arithmetic processing unit for data measured by the LRF 10.
  • the arithmetic processing unit 11 includes a distance image generation unit 12, a pedestrian track analysis unit 13, a track count unit 14, and a track storage unit 15.
  • the distance image generation means 12 is connected to the pedestrian trajectory analysis means 13, and the pedestrian trajectory analysis means 13 is connected to the trajectory counting means 14 and the trajectory storage means 15.
  • the distance image generation means 12, the pedestrian trajectory analysis means 13, the trajectory count means 14, and the trajectory storage means 15 are realized by, for example, a computer having a central processing unit, storage means, an input / output interface, and a communication function.
  • FIG. 3 is a flowchart showing the configuration of the group flow line extraction means.
  • 20 is an intensity threshold setting means
  • 21 is an intensity separating means for separating an intensity distribution by the threshold
  • 22 is an inflow / outflow direction calculating means.
  • the intensity threshold setting means 20 is connected to the intensity separating means 21, and the intensity separating means 21 is connected to the inflow / outflow direction calculating means 22.
  • the intensity threshold setting means 20 is connected to the trajectory counting means 14, and the inflow / outflow direction calculating means 22 is connected to the trajectory storage means 15.
  • the intensity threshold setting means 20, the intensity separation means 21, and the inflow / outflow direction calculation means 22 are realized by a computer having the same configuration as the data calculation processor 11, for example.
  • the computer may be the same computer as the data processor 11 or may be another computer.
  • the intensity distribution detection target position setting means 3 is realized, for example, by a computer having the same configuration as the data arithmetic processor 11 and the group collecting line extraction means 2.
  • the computer may be the same as the computer that implements the data processor 11 and the group flow line extraction unit 2, or may be another computer.
  • FIG. 4 is a flowchart showing the configuration of the intensity distribution detection moving means 4.
  • 40 is a moving mechanism
  • 41 is a control device for the moving mechanism
  • 42 is an obstacle sensor for detecting the position and obstacle of the moving mechanism
  • 43 is an environmental map of the space in which the moving mechanism moves
  • 44 is moving. It is a calibration means for associating the real space position of the mechanism with the position on the environmental map.
  • the moving mechanism 40, the obstacle sensor 42, the environmental map 43, and the calibration means 44 are connected to the control device 41 of the moving mechanism.
  • the intensity distribution detection target position setting means 3 is connected to the control device 41 of the moving mechanism.
  • the LRF 10 is connected to the moving mechanism 40.
  • the moving mechanism 40 is an autonomous mobile robot disclosed in Patent Document 13, for example.
  • the control device 41 for the moving mechanism is a central control device for an autonomous mobile robot as disclosed in Patent Document 13 as well.
  • the obstacle sensor 42 is, for example, an infrared distance sensor or LRF.
  • the obstacle sensor 42 and the LRF 10 are illustrated as separate components, but the obstacle sensor 42 may also be used in the LRF 10.
  • the environment map 43 is a virtual map stored in a storage unit on a computer, for example.
  • the calibration means 44 uses the obstacle sensor 42 and the environment map 43 to detect an obstacle serving as a calibration reference by the obstacle sensor 42 and performs a matching processing calculation on the computer with respect to the detected obstacle. realizable.
  • the environmental map 43 and the calibration means 44 may be realized as internal functions of the control device 41, or may be realized by another computer.
  • the pedestrian movement information detection apparatus of the present embodiment described above extracts crowd flow lines by the crowd flow line extraction means 2 from the pedestrian density density distribution detected by the pedestrian density distribution detection means 1. Then, the detection position of the next human flow density intensity distribution is determined by the intensity distribution detection target position setting means 3 from the extracted crowd flow line, and the intensity distribution detection means 1 is moved by the intensity distribution detection moving means 4 to the detection position, so that the pedestrian Detecting movement information.
  • FIG. 5 is an image diagram of a situation in which pedestrian movement information is measured by LRF.
  • the pedestrian movement information detection device performs scanning while irradiating the laser sensor in the horizontal direction toward the crowd with the LRF 10 as an axis.
  • the movement direction of the crowd obtained by the LRF 10 is measured, and the pedestrian movement information detection device tracks the crowd along the direction in which the most people move. By continuing the measurement by tracking a plurality of times, the movement pattern of the pedestrian in a predetermined area can be known.
  • FIGS. 6 to 8 are diagrams for explaining the operation of the intensity distribution detecting means 1.
  • FIG. 6 is a schematic diagram of the LRF detection range and a movement trajectory of a pedestrian existing within the detection range.
  • the alternate long and short dash point extending from the LRF 10 is the detection front of the LRF 10
  • the arrow arc is the direction of the detection angle ⁇ of the LRF 10
  • the solid line arrow extending from the LRF 10 is the detection distance direction
  • the fan-shaped region indicated by A is The maximum detection range of LRF10 is shown.
  • the range of the detection angle ⁇ of the LRF 10 is illustrated as being from ⁇ 135 degrees to 135 degrees.
  • Small black circles scattered in the fan-shaped area A indicate the positions of pedestrians at a certain moment.
  • a curve extending from the small black circle represents the movement trajectory of each pedestrian.
  • a distance image is generated by the distance image generation means 12 from detection data of the LRF 10, and a particle filter is applied to the distance image by the pedestrian trajectory analysis means 13 to detect the current position of the pedestrian. Estimate the change and get the movement vector of the person. By executing this process for a predetermined time, a movement trajectory of the pedestrian in the area A as shown in FIG. 6 is obtained.
  • FIG. 7 is a schematic diagram showing the virtual grid plane and the moving direction of the pedestrian.
  • the virtual grid plane represents the floor surface on which the pedestrian moves, and is a virtual grid divided into small areas of 0.5 m square as an average area occupied by one person, for example. The place where the pedestrian was present at a certain moment can be specified by the position of this virtual mesh.
  • the trajectory counting unit 14 counts the number of trajectories that have passed within the predetermined detection time on the virtual grid plane, thereby obtaining the intensity value of the human flow density. it can. By superimposing the obtained intensity values over the entire detection area A, an intensity distribution can be obtained.
  • FIG. 8 is a diagram showing an example of the intensity distribution of the human flow density.
  • this figure shows the cumulative number of trajectories that have passed through the region A entered in each grid.
  • the maximum intensity 11 is four
  • the grids having the intensity 10 and 9 are widely distributed in the vertical direction of the central portion
  • the grids having the intensity 5 and 4 extend in the left-right direction.
  • it is expressed by a numerical value, but as shown in Patent Document 1, an image may be displayed as a change in shading. From the intensity distribution illustrated in FIG. 8, the human flow line is separated by the group flow line extraction means 2.
  • FIG. 9 is a diagram for explaining the operation of the group flow line extracting means 2.
  • the intensity threshold setting means 20 sets, for example, a value obtained by subtracting 2 from the maximum intensity value in FIG. 8 as the threshold.
  • the threshold value is 9. Therefore, if the grid value ⁇ 9 with respect to all grids in the area A by the intensity separating means 21, 255 (black) 0 (white) if grid value ⁇ 9 Execute separation determination processing. As a result, as shown in FIG. 9, only a portion having a grid value of 9 or more is extracted.
  • FIG. 9 shows an example in which a grid is extracted with a threshold value of one step.
  • a multi-stage configuration in which two types of threshold values are set according to the maximum value and the intermediate value of the intensity value and a grid of main flow lines and sub flow lines is extracted. Extraction is also possible.
  • the extracted grid is the position of the crowd flow line.
  • the inflow / outflow direction calculation means 22 calculates the inflow / outflow direction from the grids at both ends of the extracted flow line.
  • a normal line is first drawn from the LRF 10 to the boundary line of the region A including the flow line grid. Then, with the normal direction as the Y axis, the X axis is determined in the tangential direction so as to form a right-handed system.
  • the trajectory passing through the flow line grid at the boundary of the region A is selected from the trajectory storage means 15 connected to the inflow / outflow direction calculating means 22.
  • the direction angle ⁇ of the trajectory vector on the boundary line of the region A is in a coordinate system in which the normal line defined above is the Y axis and the tangent line is the X axis. If 0 degree ⁇ ⁇ ⁇ 180 degrees, the outflow direction is determined as 180 degrees ⁇ ⁇ 360 degrees as the inflow direction.
  • the group current line is as indicated by the dotted arrows in FIG. The direction is from G1 to G2.
  • a trajectory passing through the end of the flow line is selected, and the inflow / exit direction of the entrance / exit is determined from the direction of the trajectory vector.
  • the next detection position of the intensity distribution detection means 1 is determined by the intensity distribution detection target position setting means 3 on the basis of the group crowding line and the direction thus obtained. For example, if it is desired to acquire pedestrian movement information at a place where a crowd gathers, the main flow line may be detected, and therefore the intensity distribution detection means 1 may be moved to the main flow line outflow point in the region A. In the example of FIG. 9, the intensity distribution detection means 1 at P0 may be moved to the center position P1 of the G2 side flow line grid. On the other hand, when it is desired to acquire pedestrian movement information in a place with poor customer collection, it may be moved onto a grid on the boundary line of region A where no flow line passes.
  • the next detection position determined by the intensity distribution detection target position setting means 3 is given to the intensity distribution detection moving means 4, and the moving mechanism 40 connected to the LRF 10 is moved to the target position.
  • FIG. 10 is a schematic diagram when a station concourse and a plurality of conventional LRFs are arranged.
  • the white portion of the station premises map in the figure is a pedestrian-accessible floor surface, and the portions other than white are non-passable floor surfaces such as pillars, walls, stairs, and stores.
  • the fan-shaped area indicates the maximum detection range of one LRF, and the black circle indicates the fixed position of the LRF.
  • the maximum detection distance of LRF is shown as about 30 m.
  • the LRF detection range is drawn to the outside of the station premises, but in actuality, detection is hindered by wall surfaces or the like.
  • FIG. 11 is a flowchart for explaining main flow line detection processing by the pedestrian movement information detection apparatus according to this embodiment.
  • reference numerals 101 to 113 denote processing blocks of the flow.
  • an LRF measurement time Te is determined.
  • the measurement time Te is a value obtained by dividing the LRF detectable distance by the average walking speed on the basis of the time when the pedestrian crosses the LRF detectable range. For example, if the LRF detectable distance is 30 m and the average walking speed is 1.5 m / s, Te is 20 s.
  • measurements are made in the LRF detection region during Te.
  • distance image generation, pedestrian trajectory analysis, and trajectory count data calculation processing are performed to determine the intensity distribution of the human flow density in the detection region.
  • the maximum value Dmax of the human flow density intensity value obtained in block 104 is calculated.
  • the determination block 105 it is determined whether or not the grid having the Dmax is connected to the grid having the intensity value Dmax. If there is a grid having a value of Dmax in any of adjacent grids with respect to a grid having a value of Dmax, the Dmax grid is connected. If all adjacent grids have a value smaller than Dmax, the Dmax grids are in an independent state where they are not connected.
  • Dmax is set as a threshold for extracting a flow line, and a flow line is extracted in block 106.
  • the inflow / outflow direction at the detection region boundary is determined with respect to the extraction flow line by the method described in FIG.
  • the center position of the grid at the outlet of the extraction flow line is set as the next LRF detection position. If the Dmax grid is not connected in the decision block 105, the Dmax value is decreased by one in the block 109. Then, in block 110, it is determined whether or not the new Dmax value is greater than zero.
  • the determination in block 105 is repeated. If the value of the new Dmax is 0, it is determined that the flow lines cannot be separated in the detection area, that is, it is difficult to extract the flow lines because pedestrians are dispersed. In this case, the next LRF detection position is extended in the current LRF detection front direction, and the front area boundary grid position is set to the next detection position in block 111.
  • the LRF is moved to the next detection position determined in block 108 or block 111.
  • the LRF may be controlled by using the next detection position determined in block 108 or block 111 as the movement target value.
  • the processing is repeated again from 101 until data collection of pedestrian movement information throughout the station concourse is completed.
  • FIG. 12 shows the overall distribution of the human flow density intensity in the station concourse and the movement result of the LRF position in the case where the main traffic line that is most congested according to this embodiment is tracked.
  • FIG. 12 is a schematic diagram when detection is performed using the station concourse and the LRF according to the present embodiment.
  • the LRF is initially located at 1- (1) in FIG.
  • a human flow density intensity distribution as shown in the detection range of the region A- (1) is obtained. From this intensity distribution, a main flow line grid flowing in the direction indicated by the dotted arrow can be extracted. Therefore, the LRF is moved to the main flow line outflow position 1- (2), and the next detection is performed.
  • a main flow line grid running straight in the right passage can be extracted, and the next detection location 1- (3) is determined.
  • the 1- (3) area there is no pedestrian flow line in the right narrow passage, and the main flow line that goes straight and turns to the left can be extracted. Perform the next detection.
  • the trajectory of the crowd and the information on the density density distribution of people flow are tracked while tracking the flow of the most crowded people throughout the station concourse shown in FIG. Can be obtained. Further, if detection is performed for the same time as the detection time Te illustrated in FIG. 11 at each detection position, the LRF detection required time for one place is 20 seconds, so the LRF detection required time for four places is 80 seconds. . Even considering the LRF detection data processing time and the travel time between detection positions, it is possible to obtain information on the main flow line in the station concourse in a short time, so that it can respond quickly to changes in the congestion situation in the station concourse. To obtain information about pedestrian movement.
  • the distance measuring means is not limited to the LRF.
  • the autonomous mobile robot is shown as the intensity distribution detecting / moving means.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

 不特定多数の歩行者が往来するエリアで簡便に群集動線や人流密度の分布情報を計測するために、空間上の歩行者の分布密度を測定する人流密度の強度分布検出手段と、前記人流密度の強度分布検出手段によって取得した強度分布からひとり以上の歩行者の移動軌跡を抽出する群集動線抽出手段と、前記群集動線抽出手段によって抽出した動線の位置に基づいて前記人流密度の強度分布検出手段の設置場所を定める強度分布検出目標位置設定手段と、前記強度分布検出目標位置設定手段によって定めた設置場所へ前記人流密度の強度分布検出手段を移動させる強度分布検出移動手段とを備えるようにした。

Description

歩行者移動情報検出装置
 本発明は、歩行者移動情報検出装置に関する。
 歩行者移動情報検出の従来技術として、例えば特許文献1,2,3がある。 
 特許文献1の従来技術は所定の空間内における通行人の行動を解析する通行人行動解析システムである。このシステムでは、空間内を通行する通行人それぞれの位置座標を求める位置検出手段と、同一の通行人の位置をトラッキングして各通行人の位置座標の時間的変化を求めるトラッキング処理手段と、所定時間内の位置座標の時間的変化のデータを各通行人毎に記憶する記憶手段と、記憶手段に記憶されている位置座標の時間的変化データから空間内の各通行人それぞれの通行軌跡を求める手段と、所定空間の所定時間内に通行した通行人全ての通行軌跡を表示する表示手段とを備えたものである。
 また、特許文献2に開示された通行人行動解析装置では、比較的に広い場所に大勢の人が存在するような場合における通行人の追跡処理の精度を向上させるため、通行人の足のレーザセンサからの距離を示す距離データを受信し、複数のレーザセンサによって取得された距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するものである。そして、センシング画像データにおける複数の検出位置をクラスタリングし、クラスタリング結果から一人の通行人の足に対応するクラスタを特定し、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相のパラメータを決定し、各パラメータとparticle filter・アルゴリズムとを用いて通行人の軌跡を解析するものである。
 また、特許文献3に開示された情報提供システムでは、メモリにショッピングモール内の店舗などに関するトピックスと、店舗などに向かう大局行動を表わす移動軌跡を記憶させ、レーザレンジファインダ(LRF)によってショッピングモール内の人間の移動軌跡を検出し、メモリから最も類似する大局行動移動軌跡を特定し、特定した大局行動移動軌跡に対応するトピックスを読み出しロボットに発話させることで人間にリコメンド情報を提供するものである。
特開2005-346617号公報 特開2009-110185号公報 特開2010-231470号公報
 上記特許文献1に開示された通行人行動解析システムでは、同一の歩行者の位置をトラッキングして、所定空間の所定時間内に通行した歩行者全ての通行軌跡を表示させるようになっている。しかしながら、検出範囲が限定されており、広い空間の群集の移動動線を得ることができない。
 また、特許文献2に開示された通行人行動解析装置では、複数のレーザセンサを配置し、歩行者の追跡処理精度を向上させるものである。しかしながら、あらかじめ検出空間に複数台のレーザセンサを適切に設置して調整を行う必要があり、広い空間では膨大な台数が必要となり手間がかかる。また、検出空間での工事やイベントなどの状況変化に対して、その都度配置の変更と調整が必要となり、実時間で柔軟に対応することができない。
 また、特許文献3に開示された情報提供システムでは、特定の歩行者を追跡して移動軌跡を得て、特定歩行者の大局行動を予測してサービスを提供するものである。しかしながら、広範囲に亘り非常に多くの歩行者全体の移動軌跡を得て、広範囲での混雑状況などを判断することはできない。
 本発明の目的は、比較的に広い場所を不特定多数の歩行者が往来するような場合に、簡便に群集動線や人流密度の分布などの歩行者移動に関する情報を取得する装置を提供することにある。
 上記目的は、空間上の歩行者の分布密度を測定する人流密度の強度分布検出手段と、前記人流密度の強度分布検出手段によって取得した強度分布からひとり以上の歩行者の移動軌跡を抽出する群集動線抽出手段と、前記群集動線抽出手段によって抽出した動線の位置に基づいて前記人流密度の強度分布検出手段の設置場所を定める強度分布検出目標位置設定手段と、前記強度分布検出目標位置設定手段によって定めた設置場所へ前記人流密度の強度分布検出手段を移動させる強度分布検出移動手段とを備えることにより達成される。
 また上記目的は、前記人流密度の強度分布検出手段は物体との距離を測定する距離測定手段と、前記距離測定手段によって測定した値に基づいて距離画像を生成する距離画像生成手段と、前記距離画像生成手段によって生成した距離画像から歩行者の軌跡を解析する歩行者軌跡解析手段と、前記歩行者軌跡解析手段によって解析された軌跡の数を算出する軌跡カウント手段と、前記歩行者軌跡解析手段によって解析された軌跡を記憶する軌跡記憶手段とを備えたことが好ましい。
 また上記目的は、前記群集動線抽出手段は前記人流密度の強度分布検出手段によって取得した強度分布を分離するための閾値を設定する強度閾値設定手段と、前記強度閾値設定手段によって定めた閾値に基づいて前記強度分布を分離する強度分離手段と、前記強度分離手段によって分離した人流密度強度分布と前記軌跡記憶手段に記憶した軌跡に基づいて歩行者の移動動線の流出入方向を定める流出入方向演算手段とを備えることが好ましい。
 また上記目的は、前記強度分布検出移動手段は移動ロボットであることが好ましい。
 また上記目的は、前記距離測定手段は前記移動ロボットに搭載された障害物検出センサと同一であることが好ましい。
 本発明によれば、群集動線に応じて歩行者軌跡の検出位置を移動させることで、状況の変化に即応できるので、駅コンコースなどの複雑な通路を有する広い場所を不特定多数の歩行者が往来するような場合に、簡便に群集動線や人流密度の分布などの歩行者移動情報を提供できる。
本実施例に係る歩行者移動情報検出装置の構成を示すフロー図である。 本実施例に係る強度分布検出手段の詳細な構成を示すフロー図である。 本実施例に係る群集動線抽出手段の構成を示すフロー図である。 本実施例に係る強度分布検出移動手段4の構成を示すフロー図である。 本実施例に係るLRFで歩行者の移動情報を計測している状況のイメージ図である。 本実施例に係るLRFの検出範囲と検出範囲内に存在する歩行者の移動軌跡模式図である。 本実施例に係る仮想グリッド平面と歩行者の移動方向を示す模式図である。 本実施例に係る人流密度の強度分布の例を示す図である。 本実施例に係る群集動線抽出手段2の動作を説明する図である。 駅のコンコースと従来技術による複数台のLRFを配置した場合の模式図である。 本実施例に係る歩行者移動情報検出装置による主動線検出の処理を説明するフロー図である。 駅のコンコースと本実施例にかかるLRFで検出を行った場合の模式図である。
 さて、近年建築や交通工学分野において、人間の群集の流れをシミュレートする群集流動シミュレーションの需要が高まっている。
 例えば、建築設計や都市開発などにおいて人の流れがスムーズになるような環境設計を検討する動線計画シミュレーションや災害時に群集事故回避のための効果的な群集の誘導法を検討する群集誘導シミュレーションなどである。
 ところで、鉄道の駅やショッピングモールなどの不特定多数の歩行者が移動したり滞留したりする空間において、群集の移動動線や人流密度の分布を検出することは安全面やマーケティング開発において非常に重要な情報と言える。
 例えば、火事や地震発生時に人間を安全に誘導させるためには駅の構造を把握しておくことは勿論のこと、平常時の人間の動きを把握し、これらの情報から避難誘導の経路を決定する必要がある。
 また、近年流行のアウトレットショッピングモールのように数多くの店舗が配置されるエリアでは、群集の移動動線が商品の売れ行きを左右するため非常に重要な情報となる。
 このような群集の移動動線の情報は古くから利用され、いろいろな手段で算出されている。例えば街頭の要所々にカウンターを持った人を配置して直接人数をカウントする方法や、駅構内や街頭に設置されたビデオカメラからのデータを分析して移動動線を算出する方法などがある。
 しかしながら、これらの方法はいずれもコストの面で不利と言える。つまり、人による直接的な検出は要所々にカウントする人員を配置しなくてはならないことから多くの人員を必要としてしまう。またビデオカメラの場合も角々にビデオカメラを設置しなければならないため多くのビデオカメラを必要とする点である。
 そこで本発明の発明者らは群集の追尾というキーワードからヒント得て種々検討した結果、以下のごとき実施例を得た。
 以下、本発明の実施例を、図面を用いて説明する。
 図1は本実施例の歩行者移動情報検出装置の構成を示すフロー図である。 
 図1において、1は人流密度の強度分布検出手段である。この強度分布検出手段1は空間上の歩行者の分布密度を測定するものである。2は群集動線抽出手段、3は強度分布検出目標位置設定手段、4は強度分布検出手段1を移動させる強度分布検出移動手段である。この強度分布検出移動手段4としては自律移動ロボット等が考えられる。
 強度分布検出手段1は群集動線抽出手段2に接続され、群集動線抽出手段2は強度分布検出目標位置設定手段3に接続され、強度分布検出目標位置設定手段3は強度分布検出移動手段4に接続されている。
 図2は強度分布検出手段の詳細な構成を示すフロー図である。 
 図2において、強度分布検出手段1は強度分布検出手段1から物体までの距離を測定するためのセンサ、例えばレーザ・レンジ・ファインダ(LRF)10(以下、LRF10という)を備えている。11は、LRF10で測定したデータの演算処理機である。この演算処理機11は距離画像生成手段12と歩行者軌跡解析手段13と軌跡カウント手段14と軌跡記憶手段15とを備えている。
 距離画像生成手段12は歩行者軌跡解析手段13に接続され、歩行者軌跡解析手段13は軌跡カウント手段14と軌跡記憶手段15に接続される。距離画像生成手段12と歩行者軌跡解析手段13と軌跡カウント手段14と軌跡記憶手段15は、例えば中央演算処理装置と記憶手段と入出力インタフェースと通信機能を備えた計算機によって実現される。
 図3は群集動線抽出手段の構成を示すフロー図である。 
 図3において、20は強度閾値設定手段、21は閾値によって強度分布を分離する強度分離手段、22は流出入方向演算手段である。強度閾値設定手段20は強度分離手段21に接続され、強度分離手段21は流出入方向演算手段22に接続される。また、強度閾値設定手段20は軌跡カウント手段14に接続され、流出入方向演算手段22は軌跡記憶手段15に接続される。強度閾値設定手段20と強度分離手段21と流出入方向演算手段22は、例えばデータ演算処理機11と同様の構成の計算機で実現される。当該計算機はデータ演算処理機11と同一の計算機であってもよく、また別の計算機であってもよい。
 強度分布検出目標位置設定手段3は、例えばデータ演算処理機11や群集動線抽出手段2と同様の構成の計算機で実現される。当該計算機は、データ演算処理機11や群集動線抽出手段2を実現する計算機と同一であってもよく、また別の計算機であってもよい。
 図4は強度分布検出移動手段4の構成を示すフロー図である。 
 図4において、40は移動機構、41は移動機構の制御装置、42は移動機構の位置や障害物を検出するための障害物センサ、43は移動機構が移動する空間の環境地図、44は移動機構の実空間上の位置と環境地図上の位置を関連付けるための較正手段である。移動機構40と障害物センサ42と環境地図43と較正手段44が移動機構の制御装置41に接続される。さらに強度分布検出目標位置設定手段3が移動機構の制御装置41に接続される。またLRF10が移動機構40に接続される。移動機構40は、例えば特許文献13に開示される自律移動ロボットである。また移動機構の制御装置41は、同じく特許文献13に開示されているような自律移動ロボットの中央制御装置である。また障害物センサ42は、例えば赤外線距離センサやLRFである。
 図4では、障害物センサ42とLRF10を別の構成要素として図示したが、LRF10で障害物センサ42を兼用してもよい。また環境地図43は、例えば計算機上の記憶手段に記憶させた仮想的な地図である。また較正手段44は、障害物センサ42と環境地図43を用いて、障害物センサ42で較正基準となる障害物を検出させ、検出した障害物に対して計算機上でマッチング処理演算を行うことで実現できる。環境地図43と較正手段44は制御装置41の内部機能として実現してもよく、また別の計算機によって実現してもよい。
 上記で説明した本実施例の歩行者移動情報検出装置は、人流密度の強度分布検出手段1によって検出した歩行者の人流密度強度分布から、群集動線抽出手段2により群集の動線を抽出し、抽出した群集動線から強度分布検出目標位置設定手段3によって次の人流密度強度分布の検出位置を定め、当該検出位置へ強度分布検出移動手段4によって強度分布検出手段1を移動させ、歩行者の移動情報を検出する。
 図5はLRFで歩行者の移動情報を計測している状況のイメージ図である。 
 図5において、歩行者移動情報検出装置はLRF10を軸として群集に向かってレーザセンサを水平方向に照射しながらスキャンしている。このLRF10によって得られた群集の移動方向が計測され、最も多くの人が移動する方向に沿って歩行者移動情報検出装置は群集を追尾する。この追尾による計測を複数回継続することにより、所定のエリアにおける歩行者の移動パターンを知ることができるものである。
 次に図6~図9を用いて、歩行者移動情報検出装置の動作を説明する。 
 図6~図8は、強度分布検出手段1の動作を説明する図である。 
 図6は、LRFの検出範囲と検出範囲内に存在する歩行者の移動軌跡模式図である。
 図6において、LRF10から延びている一点鎖点はLRF10の検出正面、矢印円弧はLRF10の検出角度θの方向、LRF10から延びている実線矢印は検出距離方向、Aで示した扇型の領域がLRF10の最大検出範囲を示す。 
 図6ではLRF10の検出角度θの範囲を-135度から135度として図示してある。扇型の領域A内に点在する小黒丸は、ある瞬間の歩行者の位置を示す。この小黒丸から延びる曲線が各歩行者の移動軌跡を表わす。
 特許文献3に開示されているように、LRF10の検出データから距離画像生成手段12によって距離画像を生成し、歩行者軌跡解析手段13で距離画像にパーティクルフィルタを適用して歩行者の現在位置の変化を推定し、人の移動ベクトルを取得する。この処理を所定時間実行することにより、図6に示すような領域A内の歩行者の移動軌跡が得られる。
 図7は仮想グリッド平面と歩行者の移動方向を示す模式図である。 
 図7において、仮想グリッド平面は歩行者が移動する床面を表しており、例えば人ひとりが占有する平均的な広さとして0.5m四方の小領域に分割した仮想的な升目となっている。ある瞬間に歩行者が存在した場所は、この仮想的な升目の位置によって特定することができる。
 特許文献1で開示されているように、軌跡カウント手段14で、この仮想グリッド平面上の升目を所定検出時間内に通過した軌跡の個数をカウントすることで、人流密度の強度値を得ることができる。得られた強度値を検出領域Aの全域で重ね合せることで、強度分布を得ることができる。
 図8は人流密度の強度分布の例を示す図である。 
 図8において、本図は領域Aを通過した軌跡の累積個数を各グリッドに記入したものである。図8の例では、最大強度11が4個、強度10と9のグリッドが中央部の上下方向に広く分布し、強度5と4のグリッドが左右方向にのびている。ここでは数値で表現したが、特許文献1で示されているように濃淡変化として画像表示してもよい。図8で例示した強度分布から、群集動線抽出手段2により人流動線を分離する。
 図9は群集動線抽出手段2の動作を説明する図である。 
 図9において、主動線を抽出するために、強度閾値設定手段20で、例えば図8の強度値の最大値から2を減算した値を閾値として設定する。図8の場合、閾値は9となる。そこで、強度分離手段21によって領域A内の全グリッドに対して
 グリッドの値≧9ならば255(黒)
 グリッドの値<9ならば0(白)
と分離判定処理を実行する。その結果、図9に示すようにグリッド値9以上の部分だけが抽出される。
 図9では1段階の閾値でグリッドを抽出した例を示したが、強度値の最大値と中間値によって2種類の閾値を設定し、主動線と副動線のグリッドを抽出するような多段の抽出も可能である。抽出したグリッドが群集の動線の位置となる。さらに、流出入方向演算手段22により、抽出した動線の両端にあるグリッドから流出入方向を算出する。
 図9の例では動線両端が領域境界線上にあるので、まずLRF10から動線グリッドを含む領域Aの境界線へ法線を引く。そして法線方向をY軸として、右手系を成すように接線方向にX軸を定めておく。流出入方向演算手段22に接続される軌跡記憶手段15から、領域Aの境界にある動線グリッドを通る軌跡を選択する。領域Aの境界線上での軌跡ベクトルの方向角度αが、先に定めた法線をY軸と接線をX軸とする座標系に対して、
 0度≦α≦180度ならば流出方向
 180度<α<360度ならば流入方向
と定める。
 図9中のG1とG2で示した動線グリッド上の軌跡の向きが、平均してG1が流入方向、G2が流出方向ならば、群集動線としては図9中に点線矢印で示したようにG1からG2へ向かう向きとなる。また領域Aの内部に出入り口があって、そこから動線がのびている場合は、動線の端を通る軌跡を選択し、当該軌跡ベクトルの向きから出入り口の流入出方向を定める。
 このようにして得られた群集動線とその向きに基づき、強度分布検出目標位置設定手段3によって、強度分布検出手段1の次の検出位置を定める。 
 例えば、群集が大勢集まる場所の歩行者移動情報を取得したい場合は主動線を検出すればよいので、強度分布検出手段1を領域Aの主動線流出個所に移動させればよい。図9の例では、P0にあった強度分布検出手段1をG2側の動線グリッドの中央位置P1へ移動させればよい。逆に、集客性の悪い場所の歩行者移動情報を取得したい場合は、領域Aの境界線上で動線が通っていないグリッド上へ移動させればよい。強度分布検出目標位置設定手段3で定めた次の検出位置を、強度分布検出移動手段4へ与え、LRF10と接続された移動機構40を当該目標位置へ移動させる。
 図10~図12を用いて、駅のコンコース内で主動線の検出を行う例を説明する。 
 図10は駅のコンコースと従来技術による複数台のLRFを配置した場合の模式図である。 
 図10において、図中の駅構内図の白い部分が歩行者の通行可能床面となり、白色以外の部分は柱、壁、階段、店舗などの通行不可能床面である。また扇型の領域が1個のLRFの最大検出範囲、黒丸がLRFの固定位置を示す。
 図10ではLRFの最大検出距離を約30mとして図示した。従来技術では、柱や壁の死角を避け、すべての通行可能床面がいずれかのLRFの検出範囲に入るようにするために、図示したようにLRFを数多く配置する必要がある。なお図10ではLRFの検出範囲を駅構内図の外側に広げて描いてあるが、実際には壁面等により検出は妨げられている。
 図11は本実施例に係る歩行者移動情報検出装置による主動線検出の処理を説明するフロー図である。
 図11において、図中101から113はフローの各処理ブロックを示す。 
 ブロック101でLRFの測定時間Teを定める。測定時間Teは、LRFの検出可能範囲を歩行者が横断する時間を基準とし、LRFの検出可能距離を平均歩行速度で割った値とする。例えばLRFの検出可能距離を30m、平均歩行速度を1.5m/sとするとTeは20sとなる。ブロック102でTeの間LRF検出領域内の測定を行う。ブロック103で距離画像生成、歩行者軌跡解析、軌跡カウントのデータ演算処理を行い、検出領域内の人流密度の強度分布を求める。ブロック104で求めた人流密度強度値の最大値Dmaxを算出する。
 判定ブロック105で、強度値がDmaxであるグリッドについて、Dmaxのグリッドが連結しているか否かを判定する。Dmaxの値をもつグリッドに対して、隣合うグリッドのいずれかにDmaxの値を持つグリッドがあれば、Dmaxグリッドは連結している。また隣合うグリッドがすべてDmaxより小さい値であったならば、当該Dmaxグリッドは連結していない独立状態となる。
 Dmaxグリッドがすべて連結していたならばDmaxを動線抽出の閾値とし、ブロック106で動線を抽出する。ブロック107で、図10で説明した方法により、抽出動線に対して検出領域境界での流出入方向を定める。そしてブロック108で抽出動線の流出口のグリッド中央位置を次のLRF検出位置に設定する。また判定ブロック105でDmaxのグリッドが連結していなければ、ブロック109でDmaxの値を1つ減らす。そしてブロック110で新しいDmaxの値が0より大きいか否かを判定する。
 新しいDmaxの値が0より大きければ、ブロック105の判定を繰り返す。また新しいDmaxの値が0であったならば、検出領域内で動線の分離が不可能、すなわち歩行者が分散しており動線の抽出が困難であると判断する。この場合は、次のLRF検出位置を現在のLRF検出正面方向に延長することにして、ブロック111で正面の領域境界グリッド位置を次の検出位置に設定する。
 ブロック112で、ブロック108またはブロック111で定めた次の検出位置へLRFを移動させる。このLRFの移動は、移動手段として移動ロボット用いる場合、ブロック108またはブロック111で定めた次の検出位置を移動目標値としてロボットを制御すればよい。ブロック113で、駅コンコース全域の歩行者移動情報のデータ収集が完了するまで、再び101から処理を繰り返す。
 図12に、駅コンコース内の人流密度強度の全体分布と、本実施例により最も混雑する主動線を追跡した場合のLRF位置の移動結果を重ねて示す。
 図12は駅のコンコースと本実施例にかかるLRFで検出を行った場合の模式図である。
 図12において、初めLRFは図12の1-(1)の位置にある。当該位置のLRFで検出すると、領域A-(1)の検出範囲内に示されるような人流密度強度分布が得られる。この強度分布から、点線矢印で示した方向に流れる主動線グリッドが抽出できる。そこで、LRFを主動線流出位置1-(2)へ移動させ、次の検出を行う。位置1-(2)では右通路を直進する主動線グリッドが抽出でき、次の検出個所1-(3)が定まる。1-(3)の領域では右側の細い通路には歩行者動線がなく、直進して左に曲がる主動線が抽出できるので、細い通路は検出せずに1-(4)へ移動して次の検出を行う。
 このようにして、1台のLRFで4個所検出することで、図12に示す駅コンコース全体で、一番混雑する人の流れを追跡しながら、群集の移動軌跡や人流密度強度分布の情報を得ることができる。また各検出位置で、図11で例示した検出時間Teと同じ時間検出するならば、1か所当たりのLRF検出所要時間は20秒であるので、4個所のLRF検出所要時間は80秒である。LRFの検出データ処理時間と検出位置間の移動時間を考慮しても、短時間で駅コンコース内の主動線の情報を得ることができるため、駅コンコース内の混雑状況の変化に即応して歩行者移動に関する情報を得ることができる。
 上記の実施例では、物体との距離を測定する距離測定手段としてLRFを用いた場合について説明したが、距離測定手段はLRFに限るものではない。例えばビデオカメラと画像処理装置を用いて距離画像と歩行者の移動軌跡を得る構成も可能である。また、上記の実施例では、強度分布検出移動手段として自律移動ロボットを示したが、例えば距離測定手段を搭載したラジコンを遠隔操作する構成も可能である。
 1・・・人流密度の強度分布検出手段、2・・・群集動線抽出手段、3・・・強度分布検出目標位置設定手段、4・・・強度分布検出移動手段、10 ・・・レーザレンジファインダ(LRF)、11・・・データ演算処理機、12・・・距離画像生成手段、13・・・歩行者軌跡解析手段、14・・・軌跡カウント手段、15・・・軌跡記憶手段、20・・・強度閾値設定手段、21・・・強度分離手段、22・・・流出入方向演算手段、40・・・移動機構、41・・・制御装置、42・・・障害物センサ、43・・・環境地図、44・・・ 較正手段、101~113・・・処理フローのブロック。

Claims (5)

  1.  空間上の歩行者の分布密度を測定する人流密度の強度分布検出手段と、
     前記人流密度の強度分布検出手段によって取得した強度分布からひとり以上の歩行者の移動軌跡を抽出する群集動線抽出手段と、
     前記群集動線抽出手段によって抽出した動線の位置に基づいて前記人流密度の強度分布検出手段の設置場所を定める強度分布検出目標位置設定手段と、
     前記強度分布検出目標位置設定手段によって定めた設置場所へ前記人流密度の強度分布検出手段を移動させる強度分布検出移動手段とを備えたことを特徴とする歩行者移動情報検出装置。
  2.  請求項1記載の歩行者移動情報検出装置において、
     前記人流密度の強度分布検出手段は物体との距離を測定する距離測定手段と、
     前記距離測定手段によって測定した値に基づいて距離画像を生成する距離画像生成手段と、
     前記距離画像生成手段によって生成した距離画像から歩行者の軌跡を解析する歩行者軌跡解析手段と、
     前記歩行者軌跡解析手段によって解析された軌跡の数を算出する軌跡カウント手段と、
     前記歩行者軌跡解析手段によって解析された軌跡を記憶する軌跡記憶手段とを備えたことを特徴とする歩行者移動情報検出装置。
  3.  請求項1記載の歩行者移動情報検出装置において、
     前記群集動線抽出手段は前記人流密度の強度分布検出手段によって取得した強度分布を分離するための閾値を設定する強度閾値設定手段と、
     前記強度閾値設定手段によって定めた閾値に基づいて前記強度分布を分離する強度分離手段と、
     前記強度分離手段によって分離した人流密度強度分布と前記軌跡記憶手段に記憶した軌跡に基づいて歩行者の移動動線の流出入方向を定める流出入方向演算手段とを備えたことを特徴とする歩行者移動情報検出装置。
  4.  請求項1記載の歩行者移動情報検出装置において、
     前記強度分布検出移動手段は、移動ロボットであることを特徴とする歩行者移動情報検出装置。
  5.  請求項1、2又は4のいずれかに記載の歩行者移動情報検出装置において、
     前記距離測定手段は前記移動ロボットに搭載された障害物検出センサと同一であることを特徴とする歩行者移動情報検出装置。
PCT/JP2011/053487 2011-02-18 2011-02-18 歩行者移動情報検出装置 WO2012111138A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/053487 WO2012111138A1 (ja) 2011-02-18 2011-02-18 歩行者移動情報検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/053487 WO2012111138A1 (ja) 2011-02-18 2011-02-18 歩行者移動情報検出装置

Publications (1)

Publication Number Publication Date
WO2012111138A1 true WO2012111138A1 (ja) 2012-08-23

Family

ID=46672099

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/053487 WO2012111138A1 (ja) 2011-02-18 2011-02-18 歩行者移動情報検出装置

Country Status (1)

Country Link
WO (1) WO2012111138A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015014919A (ja) * 2013-07-05 2015-01-22 綜合警備保障株式会社 経路生成装置および経路生成方法
US9285388B2 (en) 2013-04-12 2016-03-15 International Business Machines Corporation Analysis of pedestrian congestion
CN105791774A (zh) * 2016-03-31 2016-07-20 北京工业大学 一种基于视频内容分析的监控视频传输方法
CN110827316A (zh) * 2019-10-29 2020-02-21 贵州民族大学 人群恐慌四散检测方法、***、可读存储介质和电子设备
WO2020090540A1 (ja) * 2018-10-29 2020-05-07 日本電信電話株式会社 無線通信の伝搬損失を利用した混雑度の推定方法、推定装置および推定プログラム
CN112598725A (zh) * 2019-09-17 2021-04-02 佳能株式会社 图像处理设备、图像处理方法和计算机可读介质
JPWO2021064943A1 (ja) * 2019-10-03 2021-04-08
US20220076566A1 (en) * 2018-12-21 2022-03-10 Telecom Italia S.P.A. Statistical tracking of population dynamics over an area
JP7138879B1 (ja) 2021-08-03 2022-09-20 株式会社インフォマティクス 人流可視化システム、人流可視化装置、人流可視化方法及びプログラム
JP2022166067A (ja) * 2015-01-14 2022-11-01 日本電気株式会社 情報処理システム、情報処理方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10334207A (ja) * 1997-05-29 1998-12-18 Matsushita Electric Ind Co Ltd 人流計測装置
JP2005346617A (ja) * 2004-06-07 2005-12-15 East Japan Railway Co 通行人行動解析システム
JP2010231470A (ja) * 2009-03-27 2010-10-14 Advanced Telecommunication Research Institute International 情報提供システム
JP2010231359A (ja) * 2009-03-26 2010-10-14 Advanced Telecommunication Research Institute International 遠隔操作装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10334207A (ja) * 1997-05-29 1998-12-18 Matsushita Electric Ind Co Ltd 人流計測装置
JP2005346617A (ja) * 2004-06-07 2005-12-15 East Japan Railway Co 通行人行動解析システム
JP2010231359A (ja) * 2009-03-26 2010-10-14 Advanced Telecommunication Research Institute International 遠隔操作装置
JP2010231470A (ja) * 2009-03-27 2010-10-14 Advanced Telecommunication Research Institute International 情報提供システム

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9285388B2 (en) 2013-04-12 2016-03-15 International Business Machines Corporation Analysis of pedestrian congestion
US10436592B2 (en) 2013-04-12 2019-10-08 International Business Machines Corporation Analysis of pedestrian congestion
US10852144B2 (en) 2013-04-12 2020-12-01 Nec Corporation Analysis of pedestrian congestion
JP2015014919A (ja) * 2013-07-05 2015-01-22 綜合警備保障株式会社 経路生成装置および経路生成方法
JP7428213B2 (ja) 2015-01-14 2024-02-06 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP2022166067A (ja) * 2015-01-14 2022-11-01 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
CN105791774A (zh) * 2016-03-31 2016-07-20 北京工业大学 一种基于视频内容分析的监控视频传输方法
WO2020090540A1 (ja) * 2018-10-29 2020-05-07 日本電信電話株式会社 無線通信の伝搬損失を利用した混雑度の推定方法、推定装置および推定プログラム
JP2020071042A (ja) * 2018-10-29 2020-05-07 日本電信電話株式会社 無線通信の伝搬損失を利用した混雑度の推定方法、推定装置および推定プログラム
JP7047705B2 (ja) 2018-10-29 2022-04-05 日本電信電話株式会社 無線通信の伝搬損失を利用した混雑度の推定方法、推定装置および推定プログラム
US20220076566A1 (en) * 2018-12-21 2022-03-10 Telecom Italia S.P.A. Statistical tracking of population dynamics over an area
CN112598725A (zh) * 2019-09-17 2021-04-02 佳能株式会社 图像处理设备、图像处理方法和计算机可读介质
JP6996669B2 (ja) 2019-10-03 2022-02-04 三菱電機株式会社 表示処理装置、表示処理方法及びプログラム
WO2021064943A1 (ja) * 2019-10-03 2021-04-08 三菱電機株式会社 表示処理装置、表示処理方法及びプログラム
JPWO2021064943A1 (ja) * 2019-10-03 2021-04-08
CN110827316A (zh) * 2019-10-29 2020-02-21 贵州民族大学 人群恐慌四散检测方法、***、可读存储介质和电子设备
JP7138879B1 (ja) 2021-08-03 2022-09-20 株式会社インフォマティクス 人流可視化システム、人流可視化装置、人流可視化方法及びプログラム
JP2023022623A (ja) * 2021-08-03 2023-02-15 株式会社インフォマティクス 人流可視化システム、人流可視化装置、人流可視化方法及びプログラム

Similar Documents

Publication Publication Date Title
WO2012111138A1 (ja) 歩行者移動情報検出装置
US10108863B2 (en) System and method for detecting and tracking objects
JP6984379B2 (ja) 道路構造データ生成装置
JP4493415B2 (ja) 通行人行動解析システム
Fu et al. Pedestrian crosswalk safety at nonsignalized crossings during nighttime: Use of thermal video data and surrogate safety measures
JPH056500A (ja) 移動体・施設制御システム
Zuo et al. Reference-free video-to-real distance approximation-based urban social distancing analytics amid COVID-19 pandemic
Lesani et al. Development and evaluation of a real-time pedestrian counting system for high-volume conditions based on 2D LiDAR
KR102511626B1 (ko) 인공지능 기반 엣지 컴퓨팅을 활용한 유형별 객체 계수를 위한 장치 및 방법
JP4631036B2 (ja) 通行人行動解析装置及び通行人行動解析方法並びにそのプログラム
US11727580B2 (en) Method and system for gathering information of an object moving in an area of interest
Dridi Tracking individual targets in high density crowd scenes analysis of a video recording in hajj 2009
JP2019012494A (ja) 人流推定装置及び人流推定システム並びに人流測定方法
CN107221175A (zh) 一种行人意图检测方法和***
JP6584048B2 (ja) 経路生成装置および経路生成方法
JP6419260B1 (ja) 交通情報取得装置、交通情報取得システム、交通情報取得方法、および交通情報取得プログラム
Dinh et al. Development of a tracking-based system for automated traffic data collection for roundabouts
Hussein et al. Analysis of road user behavior and safety during New York City’s summer streets program
JP2004005206A (ja) 道路状況撮影装置、交通管制設備及び交通管制方法
Ettehadieh Systematic parameter optimization and application of automated tracking in pedestrian-dominant situations
JP2018088108A (ja) 情報処理装置、情報処理方法およびプログラム
KR20230150020A (ko) 실시간 주차장 정보 스마트 안내 시스템
CN102542574B (zh) 用于将源和宿分配给个体的路线的方法和设备
JP2007241960A (ja) 移動体カウント装置
Charreyron et al. Toward a flexible system for pedestrian data collection with a Microsoft Kinect motion-sensing device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11858691

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11858691

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP