WO2023187958A1 - 交通流分析装置、交通流分析方法及びプログラム記録媒体 - Google Patents

交通流分析装置、交通流分析方法及びプログラム記録媒体 Download PDF

Info

Publication number
WO2023187958A1
WO2023187958A1 PCT/JP2022/015321 JP2022015321W WO2023187958A1 WO 2023187958 A1 WO2023187958 A1 WO 2023187958A1 JP 2022015321 W JP2022015321 W JP 2022015321W WO 2023187958 A1 WO2023187958 A1 WO 2023187958A1
Authority
WO
WIPO (PCT)
Prior art keywords
traffic flow
camera
flow analysis
moving object
analysis device
Prior art date
Application number
PCT/JP2022/015321
Other languages
English (en)
French (fr)
Inventor
直子 福士
慎太郎 知久
修栄 山田
正規 久喜
修平 水口
航生 小林
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/015321 priority Critical patent/WO2023187958A1/ja
Publication of WO2023187958A1 publication Critical patent/WO2023187958A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors

Definitions

  • the present invention relates to a traffic flow analysis device, a traffic flow analysis method, and a program recording medium.
  • Patent Document 1 discloses a crowd flow prediction device that can predict crowd flow robustly against changes in space. According to the document, this human flow prediction device selects the prediction model from the model storage means based on prediction conditions including the prediction target period to be predicted, and permissible conditions regarding the characteristics of the prediction model created in advance. do. Then, this crowd flow prediction device predicts crowd flow data under the prediction conditions based on the selected prediction model.
  • Patent Document 1 describes prediction of the flow of people using a prediction model, but does not mention detailed analysis of traffic flow including people and vehicles, particularly measures to improve its accuracy.
  • An object of the present invention is to provide a traffic flow analysis device, a traffic flow analysis method, and a program recording medium that can improve the accuracy of analyzing people and vehicles that make up the traffic flow.
  • an acquisition means for acquiring an image from a camera installed at a position where a moving object that is a target of traffic flow analysis can be photographed, and a method for identifying the attributes of the moving object captured by the camera.
  • a storage means for storing a plurality of types of identification methods;
  • a selection means for selecting an identification method suitable for a tendency of a moving object captured by the camera from among the plurality of types of identification methods stored in the storage means;
  • a traffic flow analysis device is provided, comprising an identification means for identifying the moving object and its attributes in the acquired image using the identification method selected by the selection means.
  • a storage means for storing multiple types of identification methods for identifying the attributes of a moving object captured by a camera installed in a position where the moving object that is the target of traffic flow analysis can be photographed. From among the plurality of stored identification methods, an identification method that matches the tendency of the moving object captured by the camera is selected, an image is acquired from the camera, and the image is acquired using the selected identification method.
  • a traffic flow analysis method is provided that identifies attributes of moving objects shown in images.
  • a storage means for storing multiple types of identification methods for identifying the attributes of a moving object captured by a camera installed in a position where the moving object that is the target of traffic flow analysis can be photographed.
  • a program recording medium is provided that causes a computer to execute the following steps: , and identifying the attributes of the moving body shown in the acquired image.
  • a traffic flow analysis device a traffic flow analysis method, and a program recording medium that can improve the accuracy of analyzing people and vehicles that make up the traffic flow.
  • FIG. 1 is a diagram showing the configuration of an embodiment of the present invention.
  • 3 is a flowchart showing the operation of an embodiment of the present invention.
  • FIG. 3 is a diagram for explaining the operation of an embodiment of the present invention.
  • 1 is a diagram showing the configuration of a traffic flow analysis device according to a first embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of the arrangement of a traffic flow analysis device and a camera according to the first embodiment of the present invention.
  • FIG. 3 is a diagram for explaining a classification model selection operation according to the first embodiment of the present invention. It is a flowchart showing the operation of the traffic flow analysis device of the first embodiment of the present invention.
  • FIG. 1 is a diagram showing the configuration of an embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of the arrangement of a traffic flow analysis device and a camera according to the first embodiment of the present invention.
  • FIG. 3 is a diagram for explaining a classification model selection operation according to the first embodiment of
  • FIG. 3 is a diagram showing the configuration of a traffic flow analysis device according to a second embodiment of the present invention.
  • FIG. 7 is a diagram for explaining a classification model selection operation according to the second embodiment of the present invention. It is a flowchart showing the operation of the traffic flow analysis device according to the second embodiment of the present invention.
  • FIG. 3 is a diagram showing the configuration of a traffic flow analysis device according to a third embodiment of the present invention.
  • FIG. 7 is a diagram for explaining the selection operation of a classification model according to the third embodiment of the present invention. It is a flowchart showing the operation of the traffic flow analysis device of the third embodiment of the present invention. It is a figure showing the composition of the traffic flow analysis device of a 4th embodiment of the present invention.
  • FIG. 7 is a diagram for explaining the selection operation of a classification model according to the fourth embodiment of the present invention. It is a flowchart showing the operation of the traffic flow analysis device according to the fourth embodiment of the present invention. It is a figure showing the composition of the traffic flow analysis device of the 5th embodiment of the present invention. FIG. 7 is a diagram for explaining a classification model selection operation according to the fifth embodiment of the present invention. 1 is a diagram showing the configuration of a computer that can function as a traffic flow analysis device of the present invention.
  • connection lines between blocks in the drawings and the like referred to in the following description include both bidirectional and unidirectional connections.
  • the unidirectional arrows schematically indicate the main signal (data) flow, and do not exclude bidirectionality.
  • the program is executed via a computer device, and the computer device includes, for example, a processor, a storage device, an input device, a communication interface, and, if necessary, a display device.
  • this computer device is configured to be able to communicate with equipment (including a computer) inside or outside the device via a communication interface, regardless of whether it is wired or wireless. Furthermore, although there are ports or interfaces at the input/output connection points of each block in the figure, illustration thereof is omitted.
  • the present invention can be implemented in a traffic flow analysis device 10 connected to one or more cameras 500a, 500b, as shown in FIG. More specifically, the traffic flow analysis device 10 includes an acquisition means 11 , a storage means 14 , a selection means 13 , and an identification means 12 .
  • the acquisition means 11 acquires images from cameras 500a and 500b installed at positions where they can photograph moving objects that are targets of traffic flow analysis.
  • the storage means 14 stores a plurality of types of identification methods for identifying attributes of moving objects photographed by the cameras 500a and 500b. Quite simply, the storage means 14 stores classification models and processing algorithms for identifying the gender and age group of the person photographed by the cameras 500a and 500b.
  • the classification model can be created by various types of machine learning using teacher data that associates images of people captured by the cameras 500a and 500b with attribute information (correct data) of the people.
  • a processing algorithm one that is optimized based on the trend of the flow of people expected to be captured by the cameras 500a and 500b can be used.
  • the selection means 13 selects, from among the plurality of types of identification methods stored in the storage means 14, an identification method that matches the tendency of the moving object captured by the cameras 500a and 500b.
  • the identification means 12 uses the identification method selected by the selection means 13 to identify the moving object shown in the acquired image and its attributes (class).
  • a plurality of types of the identification methods stored in the traffic flow analysis device 10 are created based on the trends of moving objects captured by the cameras 500a and 500b investigated in advance, and the selection means 13 selects the plurality of identification methods.
  • An identification method is selected from among the species identification methods using a selection rule determined to match the tendency of the moving object seen by the cameras 500a and 500b.
  • FIG. 2 is a flowchart showing the operation of the traffic flow analysis device 10 described above.
  • the traffic flow analysis device 10 selects an identification method from among the plurality of identification methods (step S001).
  • the traffic flow analysis device 100 selects an identification method using a selection rule that is determined to select an identification method that matches the tendency of the moving object captured by the cameras 500a and 500b.
  • the traffic flow analysis device 10 acquires image data from the cameras 500a and 500b (step S002).
  • the traffic flow analysis device 10 uses the selected identification method to identify moving objects and their attribute information from the acquired image data (step S003).
  • the mobile object and its attribute information are identified at once, but the identification of the mobile object and the identification of the attribute of the mobile object may be performed separately.
  • the traffic flow analysis device 10 detects a moving object based on frame differences forming an image, cuts out an image of the detected moving object, and performs identification processing.
  • FIG. 3 is a diagram for explaining the operation of one embodiment of the present invention.
  • the camera 500a is installed at a location where a large number of women pass by based on past statistical data.
  • the camera 500b is installed at a location where there is a large amount of male traffic based on past statistical data.
  • the selection means 13 selects an identification method suitable for a location where a large number of women pass by for analysis of the image data acquired from the camera 500a. Thereby, it is possible to improve the accuracy of identifying the moving object and its attribute information from the image data acquired from the camera 500a.
  • the selection means 13 selects an identification method suitable for a place with a large amount of male traffic for analysis of the image data acquired from the camera 500b. Thereby, it is possible to improve the accuracy of identifying the moving object and its attribute information from the image data acquired from the camera 500b.
  • the traffic flow analysis device 10 selects the identification method that matches the tendency of the moving objects captured by the cameras 500a and 500b to analyze the traffic flow. This makes it possible to improve the accuracy of analyzing the people and vehicles that make up the traffic flow.
  • the identification method is selected, but the same effect can be obtained by changing the classification model or processing algorithm for identifying a moving object as one aspect of the identification method.
  • the identification method is changed depending on the cameras 500a and 500b that captured the image data, but the identification method can also be changed depending on other conditions. For example, if the subject of analysis changes from a person to a vehicle, the identification method can be changed. For example, if a camera is installed at a certain intersection, the identification method may be changed depending on the signal lights related to the target of analysis, such as analyzing people during green lights and vehicles during red lights. good. Furthermore, the identification method may be changed depending on the analysis time period related to the analysis target, such as analyzing people from morning to night and analyzing vehicles from midnight to dawn.
  • the selection conditions for these identification methods may be defined as selection rules, and the traffic flow analysis device 10 may select an identification method by referring to the selection rules.
  • the moving object is a person, but the moving object is not limited to a person.
  • the mobile object may be a vehicle, a bicycle or other light vehicle, a UAV (Unmanned Aerial Vehicle), an automatic guided vehicle, or the like.
  • the explanation has been made on the assumption that a plurality of types of identification methods for identifying the attributes of a moving object are set in advance in the storage means 14, but these identification methods can be selected as appropriate. , it is desirable to be added or updated.
  • a classification model or a processing algorithm with higher prediction accuracy is set in the storage means 14 periodically or when an event occurs, and the selection means 13 selects the most optimal one.
  • the periodic additions and updates may be once a month, once a week, etc.
  • the event may include, for example, the release or version upgrade of a processing algorithm for a classification model, a revision of a law, or a change in the required precision of attribute identification due to a change in the safety level.
  • FIG. 4 is a diagram showing the configuration of a traffic flow analysis device according to the first embodiment of the present invention.
  • the traffic flow analysis device 100 includes an acquisition means 101, a model storage means 104, a model selection means 103, and an identification means 102.
  • the acquisition means 101 acquires images from cameras 500a and 500b installed at positions where they can photograph moving objects that are targets of traffic flow analysis.
  • the model storage means 104 stores a plurality of classification models for identifying attributes of moving objects photographed by the cameras 500a and 500b. Very simply, the model storage means 104 stores a classification model for identifying the gender and age group of the person photographed by the cameras 500a, 500b. Such a classification model can be created by various types of machine learning using teacher data that associates images of people captured by the cameras 500a and 500b with attribute information (correct data) of the people.
  • the model selection means 103 selects a classification model from the model storage means 104.
  • the identification means 102 uses the classification model selected by the model selection means 103 to identify the moving object shown in the acquired image and its attributes (classes).
  • the classification models stored in the traffic flow analysis device 100 are created based on the trends of moving objects observed by the cameras 500a and 500b investigated in advance, and the model selection means 103 selects the A classification model is selected from a plurality of classification models using a model selection rule determined to match the tendency of the moving object seen by the cameras 500a and 500b.
  • FIG. 5 is a diagram showing an example of the arrangement of the traffic flow analysis device 100 and cameras 500a and 500b in the first embodiment of the present invention.
  • the camera 500a is set on the north side of the station STA, and is capable of photographing passersby.
  • the camera 500b is set on the south side of the station STA and is capable of photographing passersby.
  • the traffic flow analysis device 100 is capable of acquiring images taken by cameras 500a and 500b, and analyzes the flow of people.
  • FIG. 6 is a diagram for explaining the classification model selection operation of this embodiment.
  • the model storage means 104 of this embodiment stores a plurality of classification models for identifying attributes of pedestrians photographed by the cameras 500a and 500b.
  • Such a traffic flow analysis device 100 may be arranged for each area or each intersection. For example, a configuration may be adopted in which the traffic flow analysis device 100 installed in each area or near the area acquires and analyzes images from cameras installed in the respective areas. Similarly, a configuration can be adopted in which the traffic flow analysis device 100 installed at each intersection or near the intersection acquires and analyzes images from a camera installed at the intersection.
  • Such a traffic flow analysis device 100 may be one or more MEC servers that are placed at the edge of the network and transmit analysis results to an information processing device placed on the cloud side.
  • MEC is an abbreviation for Multi-access Edge Computing or Mobile Edge Computing.
  • the model storage means 104 holds a classification model A and a classification model B.
  • Classification model A is a classification model tuned for identifying attributes of pedestrians photographed by camera 500a. Such a classification model is created by performing machine learning using images actually taken with the camera 500a (or images taken at a similar position) and actual human flow data (correct data) as training data. It can be created with .
  • classification model B is a classification model tuned for identifying attributes of pedestrians photographed by camera 500b.
  • the model selection means 103 of this embodiment selects a classification model using a model selection rule that selects an appropriate classification model according to the installation position of the cameras 500a, 500b. Specifically, the model selection means 103 selects classification model A for the image taken by camera 500a, and selects classification model B for the image taken by camera 500b.
  • FIG. 7 is a flow chart showing the operation of the traffic flow analysis device 100 according to the first embodiment of the present invention.
  • the traffic flow analysis device 100 selects a classification model for each camera and sets it in the identification means 102 (step S101).
  • the traffic flow analysis device 100 repeats the process of detecting pedestrians appearing in images taken by the cameras 500a and 500b and identifying their attributes (step S102).
  • the model selection means 103 selects an appropriate classification model according to the installation positions of the cameras 500a and 500b. For example, as shown in FIG. 6, since there are many adults at the installation position of the camera 500a, classification model A specialized for adults is selected. Since pedestrians of various attributes pass at the installation position of the camera 500b, classification model B specialized for identifying these attributes is selected. This allows the traffic flow analysis device 100 to accurately identify attributes of pedestrians.
  • FIG. 8 is a diagram showing the configuration of a traffic flow analysis device 100a according to the second embodiment of the present invention.
  • the difference from the traffic flow analysis device of the first embodiment shown in FIG. The key point is to select a classification model based on the time of day in addition to the location. Since the other configurations are the same as those in the first embodiment, the explanation will be omitted and the differences will be mainly explained below.
  • the model storage means 114 holds a plurality of classification models for each time period, such as classification model A0810 to classification model A1416.
  • Classification model A0810 is a classification model tuned to identify attributes of pedestrians photographed by camera 500a between 8:00 and 10:00.
  • the classification model A1416 is a classification model tuned to identify the attributes of pedestrians photographed by the camera 500a between 14:00 and 16:00.
  • Such a classification model is actually a machine that uses images taken at each time period with the camera 500a (or images taken at similar positions) and actual human flow data (correct data) as training data. It can be created by learning.
  • classification models can be maintained for other time periods as well. Alternatively, one classification model may be used in multiple time periods. Further, in the example of FIG. 9, the classification model for the camera 500b is omitted, but a classification model for each time period may also be prepared for the camera 500b.
  • FIG. 10 is a flowchart showing the operation of the traffic flow analysis device 100a according to the second embodiment of the present invention.
  • the traffic flow analysis device 100a selects a classification model corresponding to the time period in which the analysis is to be performed for each camera, and sets it in the identification means 102 (step S201).
  • the traffic flow analysis device 100a repeats the process of detecting pedestrians appearing in images taken by the cameras 500a and 500b and identifying their attributes (step S202).
  • the model selection means 113 selects an appropriate classification model according to the installation position of the camera 500a and the time period. For example, as shown in FIG. 9, even if the camera 500a is the same, there are many commuters and adults between 8:00 and 10:00 in the morning, so the classification model A0810 specialized for that time is selected. Ru. On the other hand, in the afternoon from 14:00 to 16:00, children and the elderly also pass by, so classification model A1416 specialized for that time period is selected.
  • the present embodiment which operates as described above, it is possible to improve the accuracy of identifying attributes of pedestrians in places where trends can change depending on the time of day.
  • the reason for this is that we have prepared a classification model that takes time of day into account and adopted a configuration that selects it.
  • FIG. 11 is a diagram showing the configuration of a traffic flow analysis device 100b according to the third embodiment of the present invention.
  • the difference from the traffic flow analysis device of the first embodiment shown in FIG. the classification model is selected based on the latest human flow analysis results. Since the other configurations are the same as those in the first embodiment, the explanation will be omitted and the differences will be mainly explained below.
  • the model storage means 124 holds a plurality of classification models classified by human flow trends, such as classification model a to classification model x.
  • Classification model a is a classification model tuned for identifying attributes of pedestrians under the circumstances of an adult male.
  • classification model b is a classification model tuned for identifying attributes of pedestrians in situations where attributes vary widely.
  • Classification model c is a classification model tuned to identify attributes of pedestrians in a situation where the same number of adult males and adult females are passing by.
  • FIG. 13 is a flow chart showing the operation of the traffic flow analysis device 100b according to the third embodiment of the present invention.
  • the traffic flow analysis device 100b obtains the latest analysis results for each of the cameras 500a and 500b (step S301).
  • the latest analysis result may be one held by the traffic flow analysis device 100b, or may be one managed by a higher-level device that has received the analysis result from the traffic flow analysis device 100b.
  • the traffic flow analysis device 100b selects a classification model that is close to the latest analysis result for each of the cameras 500a and 500b, and sets it in the identification means 102 (step S302). For example, if the most recent analysis result of the image taken by the camera 500a shows that there are many adult males, the model selection means 123 selects the classification model a that is tuned to identify the attributes of pedestrians in a situation where there are many adult males. Similarly, if the most recent analysis result of the image taken by the camera 500b shows large variations in attributes, the model selection means 123 selects the classification model b.
  • the traffic flow analysis device 100b repeats the process of detecting pedestrians appearing in the images taken by the cameras 500a and 500b and identifying their attributes (step S303).
  • the present embodiment which operates as described above, it is possible to further improve the accuracy of identifying attributes of pedestrians in comparison with the first embodiment.
  • the reason for this is that we have prepared multiple types of classification models for different targets and have adopted a configuration in which the classification model is selected based on the trends in the flow of people obtained in the most recent analysis.
  • FIG. 14 is a diagram showing the configuration of a traffic flow analysis device 100c according to the fourth embodiment of the present invention.
  • the first difference from the traffic flow analysis device of the first embodiment shown in FIG. 2 is that a signal light information acquisition means 135 is added.
  • the second difference is that the model storage means 134 stores color-based classification models for the lights of traffic lights, and the model selection means 133 stores the classification models for each color of traffic light lights in addition to the installation positions of the cameras 500a and 500b.
  • the point is to select a classification model based on the color of the lights. Since the other configurations are the same as those in the first embodiment, the explanation will be omitted and the differences will be mainly explained below.
  • the signal light information acquisition means 135 acquires the color of the traffic signal light at the intersection where the cameras 500a and 500b are installed.
  • the signal light information acquisition means 135 can acquire the color of the traffic signal light by acquiring signal control information from a signal control device that controls the traffic signal, or by acquiring the color of the light from the image taken by the cameras 500a and 500b. It is possible to use a method of determining from the color of the traffic signal lights.
  • FIG. 15 is a diagram showing an example of the arrangement of facilities around the intersection where the camera 500a is installed.
  • the model storage means 134 of this embodiment holds two classification models, a classification model ASIG1 and a classification model ASIG2.
  • the classification model ASIG1 is a classification model tuned for identifying the attributes of pedestrians photographed during the period when the pedestrian traffic light SIG1 is green.
  • the classification model ASIG2 is a classification model tuned to identify the attributes of pedestrians photographed during the period when the pedestrian traffic light SIG2 is green.
  • Such a classification model actually uses images taken in the belt at the timing of each signal light by the camera 500a (or images taken at similar positions) and actual human flow data (correct data) as training data. It can be created by performing machine learning using . Note that although the example in FIG.
  • 16 shows the classification model that is applied when the pedestrian traffic lights SIG1 and SIG2 are respectively blue, classification models for other lighting states may be held. Further, in the examples of FIGS. 15 and 16, the classification model for the camera 500b is omitted, but a classification model for each color of traffic signal lights may be similarly prepared for the camera 500b.
  • FIG. 17 is a flowchart showing the operation of the traffic flow analysis device 100c according to the fourth embodiment of the present invention.
  • the traffic flow analysis device 100c acquires the color of the light of the pedestrian traffic light for each camera (step S401).
  • the traffic flow analysis device 100c selects a classification model corresponding to the color of the pedestrian traffic light for each camera, and sets it in the identification means 102 (step S402).
  • the traffic flow analysis device 100c repeats the process of detecting pedestrians appearing in the images taken by the cameras 500a and 500b and identifying their attributes using the selected classification model (step S403).
  • the model selection means 133 selects an appropriate classification model according to the installation position of the camera 500a and the color of the light of the pedestrian traffic light. For example, as shown in FIG. 16, when the pedestrian traffic light SIG1 is green at the intersection where the camera 500a is set, the classification model ASIG1 specialized for the period is selected. On the other hand, when the pedestrian traffic light SIG2 is green at the intersection where the camera 500a is installed, the classification model ASIG2 specialized for the period is selected.
  • the present embodiment which operates as described above, it is possible to further improve the accuracy of identifying attributes of pedestrians in comparison with the first embodiment.
  • the reason for this is that, in addition to the location of the camera, we have prepared a classification model that takes into account the color of traffic lights, which affects the flow of people, and then selects one.
  • FIG. 18 is a diagram showing the configuration of a traffic flow analysis device 100d according to the fifth embodiment of the present invention.
  • the difference from the traffic flow analysis device of the first embodiment shown in FIG. The point is to select a classification model according to the Since the other configurations are the same as those in the first embodiment, the explanation will be omitted and the differences will be mainly explained below.
  • the model storage means 144 holds a classification model VA and a classification model VB.
  • the classification model VA is a classification model tuned for identifying attributes of vehicles photographed by the camera 500a. Such a classification model is created by performing machine learning using images actually taken with the camera 500a (or images taken at a similar position) and actual traffic flow data (correct data). can be created.
  • classification model VB is a classification model tuned for identifying attributes of vehicles photographed by camera 500b. Note that vehicles may include bicycles, electric kickboards, and other light vehicles.
  • the model selection means 143 of this embodiment selects a classification model using a model selection rule that selects an appropriate classification model according to the installation position of the cameras 500a, 500b. Specifically, the model selection means 143 selects the classification model VA for the image taken by the camera 500a, and selects the classification model VB for the image taken by the camera 500b.
  • the traffic flow analysis device 100d selects a classification model for each camera and sets it in the identification means 102 (step S101 ). Thereafter, the traffic flow analysis device 100d repeats the process of detecting pedestrians appearing in images taken by the cameras 500a and 500b and identifying their attributes (step S102).
  • the present invention can also be applied to a traffic flow analysis device that detects vehicles and identifies their attributes. Also, in this embodiment, similar to the second to fourth embodiments for the first embodiment, classification models are prepared according to the time of day, the analysis results of the latest traffic flow, and the color of the traffic signal light. It is possible to change or develop these into a selected form.
  • the analysis target is a pedestrian or a vehicle, but the analysis target is not particularly limited. Furthermore, the analysis target may be limited by specific gender, age, presence or absence of handicap, etc.
  • each of the embodiments described above is merely an example, and the configuration can be changed so that the traffic flow analysis device 100 selects an identification method such as a classification model or a processing algorithm under various conditions.
  • the traffic flow analysis device 100 can select a classification model based on any combination of conditions such as the location where the image was taken, the time of day, and recent trends.
  • each component of each device represents a functional unit block.
  • a part or all of each component of each device is realized by an arbitrary combination of an information processing device 900 and a program as shown in FIG. 20, for example.
  • FIG. 20 is a block diagram illustrating an example of the hardware configuration of the information processing device 900 that implements each component of each device.
  • the information processing device 900 includes the following configuration, for example.
  • Each component of each device in each embodiment is realized by the CPU 901 acquiring and executing a program 904 that realizes these functions. That is, the CPU 901 in FIG. 20 executes the vehicle detection program and the determination program to update each calculation parameter stored in the RAM 903, the storage device 905, etc.
  • a program 904 that realizes the functions of each component of each device is stored in advance in a program recording medium such as a storage device 905 or a ROM 902, and is read out by the CPU 901 as necessary.
  • the program 904 may be supplied to the CPU 901 via the communication network 909, or may be stored in the program recording medium 906 in advance, and the drive device 907 may read the program and supply it to the CPU 901.
  • this program 904 can display the processing results, including intermediate states, step by step via a display device, if necessary, or can communicate with the outside via a communication interface. Further, this program 904 can be recorded on a computer-readable (non-transitory) program recording medium.
  • each device may be realized by any combination of separate information processing device 900 and program for each component.
  • a plurality of components included in each device may be realized by an arbitrary combination of one information processing device 900 and a program. That is, it is realized by a computer program that causes the communication terminals, network control devices, and processors installed in these devices shown in the first to third embodiments described above to execute each of the above-described processes using their hardware. can do.
  • each device is realized by other general-purpose or dedicated circuits, processors, etc., or combinations thereof. These may be configured by a single chip or multiple chips connected via a bus.
  • each component of each device may be realized by a combination of the circuits and the like described above and a program.
  • each device When some or all of the components of each device are realized by multiple information processing devices, circuits, etc., the multiple information processing devices, circuits, etc. may be centrally located or distributed. Good too.
  • information processing devices, circuits, etc. may be implemented as a client and server system, a cloud computing system, or the like, in which each is connected via a communication network.
  • an acquisition means for acquiring an image from a camera installed at a position capable of photographing a moving object that is a target of traffic flow analysis; a storage means for storing a plurality of types of identification methods for identifying attributes of the moving object captured by the camera; Selection means for selecting an identification method that matches the tendency of the moving object reflected in the camera from among the plurality of types of identification methods stored in the storage means; an identification means for identifying a moving object shown in the acquired image and its attributes using the identification method selected by the selection means; Traffic flow analysis device.
  • the selection means of the traffic flow analysis device described above may be configured to select the identification method based on the position of the camera.
  • the selection means of the traffic flow analysis device described above may be configured to select the identification method based on the time period in which the image was taken.
  • the selection means of the traffic flow analysis device described above may be configured to select the identification method based on the tendency of the attributes identified by the identification means.
  • the selection means of the above-described traffic flow analysis device may be configured to select the identification method based on the color of a light of a traffic signal installed around the camera.
  • the identification method selected by the above-described traffic flow analysis device may be a classification model or a processing algorithm for identifying attributes of a moving object captured by a camera.
  • the selection means selects the classification model or processing algorithm from among the plurality of classification models or processing algorithms, using a selection rule that is determined to select a classification model or processing algorithm that matches the tendency of the moving object seen by the camera.
  • a configuration can be adopted in which a processing algorithm is selected.
  • the moving object may be a person
  • the classification model may be a classification model created by machine learning using statistical data on the flow of people at a position where the camera is installed as training data.
  • the moving object may be a person, and the classification model may be created by machine learning using statistical data of the flow of people by time zone photographed by the camera as training data.
  • a plurality of types of identification stored in a storage means for storing a plurality of types of identification methods for identifying attributes of a moving object captured by a camera installed at a position where a moving object to be subjected to traffic flow analysis can be photographed; Selecting an identification method that matches the tendency of the moving object reflected in the camera from among the methods, obtaining an image from the camera; A traffic flow analysis method, wherein attributes of a moving object shown in the acquired image are identified using the selected identification method.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

[課題]交通流を構成する人や車両の分析精度の向上。 [解決手段]交通流分析装置は、交通流分析の対象となる移動体を撮影可能な位置に設置されたカメラから画像を取得する取得手段と、前記カメラに映った移動体の属性を識別するための複数種の識別方式を記憶する記憶手段と、前記記憶手段に記憶される前記複数種の識別方式の中から、前記カメラに映る移動体の傾向に適合する識別方式を選択する選択手段と、前記選択手段により選択された識別方式を用いて、前記取得した画像に映った移動体とその属性を識別する識別手段と、を備える。

Description

交通流分析装置、交通流分析方法及びプログラム記録媒体
 本発明は、交通流分析装置、交通流分析方法及びプログラム記録媒体に関する。
 特許文献1に、空間の変化に対してロバストに人流を予測できるという人流予測装置が開示されている。同文献によると、この人流予測装置は、予測対象とする予測対象期間を含む予測条件と、事前に作成した予測モデルの特徴に関する許容条件とに基づいて、前記モデル記憶手段から前記予測モデルを選択する。そして、この人流予測装置は、前記選択した前記予測モデルに基づいて、前記予測条件における人流データを予測する。
国際公開第2021/130926号
 特許文献1では、予測モデルを用いた人流の予測について記載されているが、人や車両を含む交通流の詳細な分析、特にその精度の向上策については言及されていない。
 本発明は、交通流を構成する人や車両の分析精度を向上させることのできる交通流分析装置、交通流分析方法及びプログラム記録媒体を提供することを目的とする。
 第1の視点によれば、交通流分析の対象となる移動体を撮影可能な位置に設置されたカメラから画像を取得する取得手段と、前記カメラに映った移動体の属性を識別するための複数種の識別方式を記憶する記憶手段と、前記記憶手段に記憶される前記複数種の識別方式の中から、前記カメラに映る移動体の傾向に適合する識別方式を選択する選択手段と、前記選択手段により選択された識別方式を用いて、前記取得した画像に映った移動体とその属性を識別する識別手段と、を備える、交通流分析装置が提供される。
 第2の視点によれば、交通流分析の対象となる移動体を撮影可能な位置に設置されたカメラに映った移動体の属性を識別するための複数種の識別方式を記憶する記憶手段に記憶された前記複数種の識別方式の中から、前記カメラに映る移動体の傾向に適合する識別方式を選択し、前記カメラから画像を取得し、前記選択された識別方式を用いて、前記取得した画像に映った移動体の属性を識別する、交通流分析方法が提供される。
 第3の視点によれば、交通流分析の対象となる移動体を撮影可能な位置に設置されたカメラに映った移動体の属性を識別するための複数種の識別方式を記憶する記憶手段に記憶された前記複数種の識別方式の中から、前記カメラに映る移動体の傾向に適合する識別方式を選択する処理と、前記カメラから画像を取得する処理と、前記選択した識別方式を用いて、前記取得した画像に映った移動体の属性を識別する処理と、をコンピュータに実行させるプログラム記録媒体が提供される。
 本発明によれば、交通流を構成する人や車両の分析精度を向上させることのできる交通流分析装置、交通流分析方法及びプログラム記録媒体が提供される。
本発明の一実施形態の構成を示す図である。 本発明の一実施形態の動作を表した流れ図である。 本発明の一実施形態の動作を説明するための図である。 本発明の第1の実施形態の交通流分析装置の構成を示す図である。 本発明の第1の実施形態における交通流分析装置とカメラの配置例を示す図である。 本発明の第1の実施形態の分類モデルの選択動作を説明するための図である。 本発明の第1の実施形態の交通流分析装置の動作を表した流れ図である。 本発明の第2の実施形態の交通流分析装置の構成を示す図である。 本発明の第2の実施形態の分類モデルの選択動作を説明するための図である。 本発明の第2の実施形態の交通流分析装置の動作を表した流れ図である。 本発明の第3の実施形態の交通流分析装置の構成を示す図である。 本発明の第3の実施形態の分類モデルの選択動作を説明するための図である。 本発明の第3の実施形態の交通流分析装置の動作を表した流れ図である。 本発明の第4の実施形態の交通流分析装置の構成を示す図である。 本発明の第4の実施形態におけるカメラが設置されている交差点周辺の施設の配置の例を示す図である。 本発明の第4の実施形態の分類モデルの選択動作を説明するための図である。 本発明の第4の実施形態の交通流分析装置の動作を表した流れ図である。 本発明の第5の実施形態の交通流分析装置の構成を示す図である。 本発明の第5の実施形態の分類モデルの選択動作を説明するための図である。 本発明の交通流分析装置として機能可能なコンピュータの構成を示す図である。
 はじめに本発明の一実施形態の概要について図面を参照して説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本発明を図示の態様に限定することを意図するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。プログラムはコンピュータ装置を介して実行され、コンピュータ装置は、例えば、プロセッサ、記憶装置、入力装置、通信インターフェース、及び必要に応じ表示装置を備える。また、このコンピュータ装置は、通信インターフェースを介して装置内又は外部の機器(コンピュータを含む)と、有線、無線を問わず、通信可能に構成される。また、図中の各ブロックの入出力の接続点には、ポート乃至インターフェースがあるが図示を省略する。
 本発明は、その一実施形態において、図1に示すように、1台以上のカメラ500a、500bと接続された交通流分析装置10にて実現することができる。より具体的には、交通流分析装置10は、取得手段11と、記憶手段14と、選択手段13と、識別手段12と、を備える。
 取得手段11は、交通流分析の対象となる移動体を撮影可能な位置に設置されたカメラ500a、500bから画像を取得する。
 記憶手段14は、前記カメラ500a、500bで撮影される移動体の属性を識別するための複数種の識別方式を記憶する。ごく簡単には、記憶手段14は、カメラ500a、500bに映った人物の性別や年齢層を識別するための分類モデルや処理アルゴリズムを記憶する。分類モデルは、カメラ500a、500bに映った人物の画像と、その人物の属性情報(正解データ)とを対応付けた教師データを用いて各種の機械学習により作成することができる。処理アルゴリズムとしては、カメラ500a、500bに映ることが想定される人流の傾向に基づき最適化したものを用いることができる。
 選択手段13は、前記記憶手段14に記憶されている前記複数種の識別方式の中から、前記カメラ500a、500bに映る移動体の傾向に適合する識別方式を選択する。識別手段12は、前記選択手段13により選択された識別方式を用いて、前記取得した画像に映った移動体とその属性(クラス)を識別する。
 上記構成において、交通流分析装置10が記憶する前記識別方式は、事前に調査した前記カメラ500a、500bに映る移動体の傾向に基づいて複数種作成されており、前記選択手段13は、前記複数種の識別方式の中から、前記カメラ500a、500bに映る移動体の傾向に適合するよう定めた選択ルールを用いて、識別方式を選択する。
 続いて、本実施形態の交通流分析装置10に用いられる交通流分析方法について図面を参照して詳細に説明する。図2は、上記した交通流分析装置10の動作を表した流れ図である、まず、交通流分析装置10は、前記複数種の識別方式の中から、識別方式を選択する(ステップS001)。このとき、交通流分析装置100は、前記カメラ500a、500bに映る移動体の傾向に適合する識別方式を選択するよう定めた選択ルールを用いて識別方式を選択する。
 次に、交通流分析装置10は、カメラ500a、500bから画像データを取得する(ステップS002)。交通流分析装置10は、前記選択した識別方式を用いて、取得した画像データから、移動体とその属性情報を識別する(ステップS003)。なお、図2の例では、移動体とその属性情報を一括して識別するものとして説明したが、移動体の識別と、移動体の属性の識別を別々に行ってもよい。この場合、交通流分析装置10は、画像を構成するフレーム差分等から移動体を検出し、検出した移動体の像を切り出して、識別処理を実施することになる。
 ここで、上記選択ルールを用いた識別方式の選択動作について説明する。図3は、本発明の一実施形態の動作を説明するための図である。例えば、カメラ500aは、過去の統計データ上、女性の通行量が多い箇所に設置されているものとする。一方、カメラ500bは、過去の統計データ上、男性の通行量が多い箇所に設置されているものとする。この場合、選択手段13は、カメラ500aから取得した画像データの分析用に、女性の通行量が多い箇所に適した識別方式を選択する。これにより、カメラ500aから取得した画像データからの移動体とその属性情報の識別精度を向上させることができる。同様に、選択手段13は、カメラ500bから取得した画像データの分析用に、男性の通行量が多い箇所に適した識別方式を選択する。これにより、カメラ500bから取得した画像データからの移動体とその属性情報の識別精度を向上させることができる。
 以上、説明したように、本実施形態によれば、交通流分析装置10は、前記カメラ500a、500bに映る移動体の傾向に適合する識別方式を選択して、交通流の分析を行う。これにより、交通流を構成する人や車両の分析精度を向上させることが可能となる。
 また、上記した説明では、識別方式を選択するものとして説明したが、識別方式の一態様として、移動体の識別用の分類モデルや処理アルゴリズムを変えることでも同様の効果を得ることができる。
 また、上記した説明では、画像データを撮影したカメラ500a、500bによって識別方式を変えるものとして説明したが、識別方式は、その他の条件によっても変えることができる。例えば、分析対象が人から車両に変わった場合、識別方式を変えることもできる。また例えば、ある交差点にカメラが設置されている場合、青信号の間、人を分析し、赤信号の間、車両を分析するというように分析対象に関連する信号灯火等により識別方式を変えてもよい。また、朝から夜は、人を分析し、深夜から明け方は車両を分析するというように分析対象に関連する分析時間帯等により識別方式を変えてもよい。もちろん、これらの識別方式の選択条件を選択ルールとして定めておき、交通流分析装置10が選択ルールを参照して識別方式を選択するようにしてもよい。
 また、上記した実施形態では、移動体が人である例を挙げて説明したが、移動体は、人に限られない。例えば、移動体は、車両、自転車その他の軽車両、UAV(Unmanned Aerial Vehicle)、無人搬送車等であってもよい。
 また、上記した実施形態では、記憶手段14に、移動体の属性を識別するための複数種の識別方式が事前に設定されているものとして説明したが、これらの識別方式は適宜最適なものに、追加、更新されることが望ましい。例えば、分類モデルや処理アルゴリズムは、定期的にあるいはイベント発生時に予測精度がより高いものが記憶手段14に設定され、選択手段13がより最適なものを選択する。前記定期的な追加、更新としては、月1回、週1回等が考えられる。また前記イベントとしては、例えば、分類モデルの処理アルゴリズムのリリース、バージョンアップのほか、法律の改正、安全性レベルの変更による属性識別の要求精度の変更時などが考えられる。
[第1の実施形態]
 続いて、前記識別方式の一例として分類モデルを選択するようにした本発明の第1の実施形態について図面を参照して詳細に説明する。また、以下の説明では、カメラの位置に基づいて分類モデルを選択するモデル選択ルールを用いて分類モデルを選択する例を挙げて説明する。
 図4は、本発明の第1の実施形態の交通流分析装置の構成を示す図である。交通流分析装置100は、取得手段101と、モデル記憶手段104と、モデル選択手段103と、識別手段102と、を備える。
 取得手段101は、交通流分析の対象となる移動体を撮影可能な位置に設置されたカメラ500a、500bから画像を取得する。
 モデル記憶手段104は、前記カメラ500a、500bで撮影される移動体の属性を識別するための複数種の分類モデルを記憶する。ごく簡単には、モデル記憶手段104は、カメラ500a、500bに映った人物の性別や年齢層を識別するための分類モデルを記憶する。このような分類モデルは、カメラ500a、500bに映った人物の画像と、その人物の属性情報(正解データ)とを対応付けた教師データを用いて各種の機械学習により作成することができる。
 モデル選択手段103は、前記モデル記憶手段104から分類モデルを選択する。識別手段102は、前記モデル選択手段103により選択された分類モデルを用いて、前記取得した画像に映った移動体とその属性(クラス)を識別する。
 上記構成において、交通流分析装置100が記憶する前記分類モデルは、事前に調査した前記カメラ500a、500bに映る移動体の傾向に基づいて複数種作成されており、前記モデル選択手段103は、前記複数種の分類モデルの中から、前記カメラ500a、500bに映る移動体の傾向に適合するよう定めたモデル選択ルールを用いて、分類モデルを選択する。
 図5は、本発明の第1の実施形態における交通流分析装置100とカメラ500a、500bの配置例を示す図である。図5に示すとおり、第1の実施形態では、カメラ500aは、駅STAの北側に設定され、通行人を撮影可能となっている。一方、カメラ500bは、駅STAの南側に設定され、通行人を撮影可能となっている。交通流分析装置100は、カメラ500a、500bで撮影された画像を取得可能となっており、人流を分析する。
 交通流分析装置100の構成は、図1の構成とほぼ同様であるため説明を省略する。図6は、本実施形態の分類モデルの選択動作を説明するための図である。本実施形態のモデル記憶手段104には、前記カメラ500a、500bで撮影される歩行者の属性を識別するための複数種の分類モデルを記憶する。このような交通流分析装置100は、エリア毎や交差点毎に配置されていてもよい。例えば、各エリア又は当該エリア付近に設置される交通流分析装置100が、それぞれ担当するエリアに設置されるカメラの画像を取得し、分析を行う構成を採ることができる。同様に、各交差点又は当該交差点の近くに設置される交通流分析装置100が、同交差点に設置されるカメラの画像を取得して分析する構成を採ることができる。また、このような交通流分析装置100は、ネットワークのエッジに配置され、クラウド側に配置された情報処理装置に分析結果を送信する1台以上のMECサーバであってもよい。なお、「MEC」は、Multi-access Edge Computing又はMobile Edge Computing の略である。
 図6に示すように、本実施形態では、モデル記憶手段104は分類モデルAと分類モデルBとを保持している。分類モデルAは、カメラ500aで撮影される歩行者の属性の識別用にチューニングされた分類モデルである。このような分類モデルは、実際に、カメラ500aで撮影された画像(又は類似の位置で撮影された画像)と、実際の人流データ(正解データ)とを教師データとして用いた機械学習を行うことで作成することができる。同様に、分類モデルBは、カメラ500bで撮影される歩行者の属性の識別用にチューニングされた分類モデルである。
 そして、本実施形態のモデル選択手段103は、カメラ500a、500bの設置位置に応じ適切な分類モデルを選択するモデル選択ルールを用いて、分類モデルを選択する。具体的には、モデル選択手段103は、カメラ500aで撮影された画像については分類モデルAを選択し、カメラ500bで撮影された画像については分類モデルBを選択する。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図7は、本発明の第1の実施形態の交通流分析装置100の動作を表した流れ図である。図7を参照すると、まず、交通流分析装置100は、カメラ毎に、分類モデルを選択し、識別手段102にセットする(ステップS101)。
 以降、交通流分析装置100は、カメラ500a、500bで撮影された画像中に映った歩行者を検出し、その属性を識別する処理を繰り返す(ステップS102)。
 ここで、前述のとおり、モデル選択手段103が、カメラ500a、500bの設置位置に応じた適切な分類モデルを選択している。例えば、図6に示すように、カメラ500aの設置位置では成人が多いため、成人に特化した分類モデルAが選択される。カメラ500bの設置位置では、さまざまな属性の歩行者が通るため、これらの属性の識別に特化した分類モデルBが選択される。これにより、交通流分析装置100は、歩行者の属性を精度よく識別することができるようになる。
[第2の実施形態]
 続いて、画像を撮影した時間帯に基づいて分類モデルを選択するモデル選択ルールを用いて前記分類モデルを選択するようにした本発明の第2の実施形態について図面を参照して詳細に説明する。図8は、本発明の第2の実施形態の交通流分析装置100aの構成を示す図である。図2に示す第1の実施形態の交通流分析装置との相違点は、モデル記憶手段114に、時間帯別の分類モデルが記憶されており、モデル選択手段113が、カメラ500a、500bの設置位置に加えて、分析を行う時間帯に応じた分類モデルを選択する点である。その他の構成は、第1の実施形態と同様であるため、説明を省略し、以下、相違点を中心に説明する。
 図9に示すように、本実施形態では、モデル記憶手段114は、分類モデルA0810~分類モデルA1416というように複数の時間帯別の分類モデルを保持している。分類モデルA0810は、カメラ500aで8:00-10:00に撮影される歩行者の属性の識別用にチューニングされた分類モデルである。同様に、分類モデルA1416は、カメラ500aで14:00-16:00に撮影される歩行者の属性の識別用にチューニングされた分類モデルである。このような分類モデルは、実際に、カメラ500aで各時間帯に撮影された画像(又は類似の位置で撮影された画像)と、実際の人流データ(正解データ)とを教師データとして用いた機械学習を行うことで作成することができる。
 なお、図9の例では、8:00-10:00及び14:00-16:00の2つの時間帯の分類モデルを示しているが、その他の時間帯についても同様に、分類モデルを保持していてもよいし、1つの分類モデルを複数の時間帯で利用するようにしてもよい。また、図9の例では、カメラ500bの分類モデルを省略しているが、カメラ500bについても時間帯別の分類モデルを用意してもよい。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図10は、本発明の第2の実施形態の交通流分析装置100aの動作を表した流れ図である。図10を参照すると、まず、交通流分析装置100aは、カメラ毎に、分析を実施する時間帯に対応する分類モデルを選択し、識別手段102にセットする(ステップS201)。
 以降、交通流分析装置100aは、カメラ500a、500bで撮影された画像中に映った歩行者を検出し、その属性を識別する処理を繰り返す(ステップS202)。
 ここで、前述のとおり、モデル選択手段113は、カメラ500aの設置位置と時間帯に応じた適切な分類モデルを選択する。例えば、図9に示すように、同一のカメラ500aであっても、朝の8:00-10:00は通勤者が多く成人が多いため、その時間帯に特化した分類モデルA0810が選択される。一方、午後の14:00-16:00は、子供やお年寄りも通行するため、その時間帯に特化した分類モデルA1416が選択される。
 以上のように動作する本実施形態によれば、時間帯によって傾向が変わりうる場所における歩行者の属性の識別精度を向上させることができる。その理由は、時間帯を考慮した分類モデルを用意し、選択する構成を採用したことにある。
[第3の実施形態]
 続いて、識別手段で識別した属性の傾向に基づいて前記分類モデルを選択するモデル選択ルールを用いて動的に分類モデルの選択を行うようにした本発明の第3の実施形態について図面を参照して詳細に説明する。図11は、本発明の第3の実施形態の交通流分析装置100bの構成を示す図である。図2に示す第1の実施形態の交通流分析装置との相違点は、モデル記憶手段124に、人流傾向別の分類モデルが記憶されており、モデル選択手段123が、カメラ500a、500bの設置位置に加えて、直近の人流分析結果に基づき分類モデルを選択する点である。その他の構成は、第1の実施形態と同様であるため、説明を省略し、以下、相違点を中心に説明する。
 図12に示すように、本実施形態では、モデル記憶手段124は、分類モデルa~分類モデルxというように複数の人流傾向別の分類モデルを保持している。分類モデルaは、成人男性が状況下での歩行者の属性の識別用にチューニングされた分類モデルである。同様に、分類モデルbは、属性のばらつきが大きい状況下での歩行者の属性の識別用にチューニングされた分類モデルである。分類モデルcは、成人男性と成人女性が同程度に通行している状況下での歩行者の属性の識別用にチューニングされた分類モデルである。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図13は、本発明の第3の実施形態の交通流分析装置100bの動作を表した流れ図である。図13を参照すると、まず、交通流分析装置100bは、カメラ500a、500bについてそれぞれ直近の分析結果を取得する(ステップS301)。なお、直近の分析結果は、交通流分析装置100bが保持していたものでもよいし、交通流分析装置100bから分析結果を受信した上位の装置で管理されているものであってもよい。
 次に、交通流分析装置100bは、カメラ500a、500bについてそれぞれ直近の分析結果に近い分類モデルを選択し、識別手段102にセットする(ステップS302)。例えば、カメラ500aの画像の直近の分析結果では成人男性が多い場合、モデル選択手段123は、成人男性が多い状況下での歩行者の属性の識別用にチューニングされた分類モデルaを選択する。同様に、カメラ500bの画像の直近の分析結果では属性のばらつきが大きい場合、モデル選択手段123は、分類モデルbを選択する。
 以降、交通流分析装置100bは、カメラ500a、500bで撮影された画像中に映った歩行者を検出し、その属性を識別する処理を繰り返す(ステップS303)。
 以上のように動作する本実施形態によれば、第1の実施形態との比較において、さらに歩行者の属性の識別精度を向上させることができる。その理由は、ターゲットの異なる複数のタイプの分類モデルを用意しておき、直近の分析で得られた人流の傾向に基づいて、分類モデルを選択する構成を採用したことにある。
[第4の実施形態]
 続いて、カメラの周辺に設置された交通信号機の灯火の色に基づいて分類モデルを選択するモデル選択ルールを用いて分類モデルの選択を行うようにした本発明の第4の実施形態について図面を参照して詳細に説明する。図14は、本発明の第4の実施形態の交通流分析装置100cの構成を示す図である。図2に示す第1の実施形態の交通流分析装置との第1の相違点は、信号灯火情報取得手段135が追加されている点である。また、第2の相違点は、モデル記憶手段134に、交通信号機の灯火の色別の分類モデルが記憶されており、モデル選択手段133が、カメラ500a、500bの設置位置に加えて、交通信号機の灯火の色に基づいて分類モデルを選択する点である。その他の構成は、第1の実施形態と同様であるため、説明を省略し、以下、相違点を中心に説明する。
 信号灯火情報取得手段135は、カメラ500a、500bが設置された交差点の交通信号機の灯火の色を取得する。信号灯火情報取得手段135が、交通信号機の灯火の色を取得する方法としては、交通信号機を制御する信号制御装置から信号制御情報を取得する方法や、カメラ500a、500bで撮影された画像に映った交通信号機の灯器の色から判定する方法を採ることができる。
 図15は、カメラ500aが設置されている交差点周辺の施設の配置の例を示す図である。図15の例では、歩行者用信号機SIG1の先に事務所があり、歩行者用信号機SIG2の先に小学校がある。このため、歩行者用信号機SIG1が青になると、事務所を行き来する歩行者がカメラ500aに撮影される。その後、歩行者用信号機SIG2が青になると、小学校に通う児童等がカメラ500aに撮影される。
 本実施形態のモデル記憶手段134は、図16に示すように、分類モデルASIG1と、分類モデルASIG2との2つの分類モデルを保持している。分類モデルASIG1は、歩行者用信号機SIG1が青である期間に撮影される歩行者の属性の識別用にチューニングされた分類モデルである。同様に、分類モデルASIG2は、歩行者用信号機SIG2が青である期間に撮影される歩行者の属性の識別用にチューニングされた分類モデルである。このような分類モデルは、実際に、カメラ500aで各信号灯火のタイミングで帯に撮影された画像(又は類似の位置で撮影された画像)と、実際の人流データ(正解データ)とを教師データとして用いた機械学習を行うことで作成することができる。なお、図16の例では、歩行者用信号機SIG1、SIG2がそれぞれ青であるときに適用される分類モデルを示しているが、その他の灯火状態の分類モデルを保持していてもよい。また、図15、図16の例では、カメラ500bの分類モデルを省略しているが、カメラ500bについても同様に、交通信号機の灯火の色別の分類モデルを用意してもよい。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図17は、本発明の第4の実施形態の交通流分析装置100cの動作を表した流れ図である。図17を参照すると、まず、交通流分析装置100cは、カメラ毎に、歩行者用信号機の灯火の色を取得する(ステップS401)。
 次に、交通流分析装置100cは、カメラ毎に、歩行者用信号機の灯火の色に対応する分類モデルを選択し、識別手段102にセットする(ステップS402)。
 以降、交通流分析装置100cは、前記選択した分類モデルを用いてカメラ500a、500bで撮影された画像中に映った歩行者を検出し、その属性を識別する処理を繰り返す(ステップS403)。
 ここで、前述のとおり、モデル選択手段133は、カメラ500aの設置位置と歩行者用信号機の灯火の色に応じた適切な分類モデルを選択する。例えば、図16に示すように、カメラ500aの設定されている交差点において歩行者用信号機SIG1が青である場合、当該期間に特化した分類モデルASIG1が選択される。一方、カメラ500aの設置されている交差点において歩行者用信号機SIG2が青である場合、当該期間に特化した分類モデルASIG2が選択される。
 以上のように動作する本実施形態によれば、第1の実施形態との比較において、さらに歩行者の属性の識別精度を向上させることができる。その理由は、カメラの位置に加えて、人流に影響を及ぼす、交通信号機の灯火の色を考慮した分類モデルを用意し、選択する構成を採用したことにある。
[第5の実施形態]
 続いて、交通流として車両の属性の分析を行うようにした本発明の第5の実施形態について図面を参照して詳細に説明する。図18は、本発明の第5の実施形態の交通流分析装置100dの構成を示す図である。図2に示す第1の実施形態の交通流分析装置との相違点は、モデル記憶手段144に、車両用の分類モデルが記憶されており、モデル選択手段143が、カメラ500a、500bの設置位置に応じた分類モデルを選択する点である。その他の構成は、第1の実施形態と同様であるため、説明を省略し、以下、相違点を中心に説明する。
 図19に示すように、本実施形態では、モデル記憶手段144は分類モデルVAと分類モデルVBとを保持している。分類モデルVAは、カメラ500aで撮影される車両の属性の識別用にチューニングされた分類モデルである。このような分類モデルは、実際に、カメラ500aで撮影された画像(又は類似の位置で撮影された画像)と、実際の交通流データ(正解データ)とを用いて、機械学習を行うことで作成することができる。同様に、分類モデルVBは、カメラ500bで撮影される車両の属性の識別用にチューニングされた分類モデルである。なお、車両には、自転車や電動キックボードその他の軽車両を含めてもよい。
 そして、本実施形態のモデル選択手段143は、カメラ500a、500bの設置位置に応じ適切な分類モデルを選択するモデル選択ルールを用いて、分類モデルを選択する。具体的には、モデル選択手段143は、カメラ500aで撮影された画像については分類モデルVAを選択し、カメラ500bで撮影された画像については分類モデルVBを選択する。
 本実施形態の動作は第1の実施形態と同様であり、図7に示したように、交通流分析装置100dは、カメラ毎に、分類モデルを選択し、識別手段102にセットする(ステップS101)。以降、交通流分析装置100dは、カメラ500a、500bで撮影された画像中に映った歩行者を検出し、その属性を識別する処理を繰り返す(ステップS102)。
 以上説明したように、本発明は、車両の検出と、その属性の識別を行う交通流分析装置にも適用することが可能となる。また、本実施形態は、第1の実施形態に対する第2~第4の実施形態と同様に、時間帯や、直近の交通流の分析結果、交通信号機の灯火の色に応じた分類モデルを用意しておき、これらを選択する形態に変更ないし展開することが可能である。
 以上、本発明の各実施形態を説明したが、本発明は、上記した実施形態に限定されるものではなく、本発明の基本的技術思想を逸脱しない範囲で、更なる変形・置換・調整を加えることができる。例えば、各図面に示したネットワーク構成、各要素の構成、データの表現形態は、本発明の理解を助けるための一例であり、これらの図面に示した構成に限定されるものではない。
 例えば、上記した各実施形態では、分析対象が歩行者や車両である例を挙げて説明したが、分析対象は、特に限定されない。また、分析対象を、特定の性別、年齢、ハンディキャップの有無等で限定してもよい。
 また上記した各実施形態はあくまで一例であり、交通流分析装置100が、種々の条件で、分類モデルや処理アルゴリズム等の識別方式を選択する構成に変更することが可能である。例えば、交通流分析装置100は、画像が撮影された位置、時間帯、直近の傾向などといった任意の組み合わせ条件で分類モデルを選択することができる。
(ハードウェア構成について)
 本開示の各実施形態において、各装置の各構成要素は、機能単位のブロックを示している。各装置の各構成要素の一部又は全部は、例えば図20に示すような情報処理装置900とプログラムとの任意の組み合わせにより実現される。図20は、各装置の各構成要素を実現する情報処理装置900のハードウェア構成の一例を示すブロック図である。情報処理装置900は、一例として、以下のような構成を含む。
・CPU(Central  Processing  Unit)901
・ROM(Read  Only  Memory)902
・RAM(Random  Access  Memory)903
・RAM903にロードされるプログラム904
・プログラム904を格納する記憶装置905
・プログラム記録媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インターフェース908
・データの入出力を行う入出力インターフェース910
・各構成要素を接続するバス911
 各実施形態における各装置の各構成要素は、これらの機能を実現するプログラム904をCPU901が取得して実行することで実現される。すなわち、図20のCPU901にて、車両検出プログラムや判定プログラムを実行し、RAM903や記憶装置905等に保持された各計算パラメーターの更新処理を実施させればよい。各装置の各構成要素の機能を実現するプログラム904は、例えば、予め記憶装置905やROM902などのプログラム記録媒体に格納されており、必要に応じてCPU901が読み出す。なお、プログラム904は、通信ネットワーク909を介してCPU901に供給されてもよいし、予めプログラム記録媒体906に格納されており、ドライブ装置907が当該プログラムを読み出してCPU901に供給してもよい。
 また、このプログラム904は、必要に応じ中間状態を含めその処理結果を段階毎に表示装置を介して表示することができ、あるいは通信インターフェースを介して、外部と通信することができる。また、このプログラム904は、コンピュータが読み取り可能な(非トランジトリーな)プログラム記録媒体に記録することができる。
 各装置の実現方法には、様々な変形例がある。例えば、各装置は、構成要素毎にそれぞれ別個の情報処理装置900とプログラムとの任意の組み合わせにより実現されてもよい。また、各装置が備える複数の構成要素が、一つの情報処理装置900とプログラムとの任意の組み合わせにより実現されてもよい。即ち、上記した第1~第3の実施形態に示した通信端末やネットワーク制御装置、これらの装置に搭載されたプロセッサに、そのハードウェアを用いて、上記した各処理を実行させるコンピュータプログラムにより実現することができる。
 また、各装置の各構成要素の一部又は全部は、その他の汎用または専用の回路、プロセッサ等やこれらの組み合わせによって実現される。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。
 各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組み合わせによって実現されてもよい。
 各装置の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントアンドサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。
 なお、上述した各実施の形態は、本開示の好適な実施の形態であり、上記各実施の形態にのみ本開示の範囲を限定するものではない。即ち、本開示の要旨を逸脱しない範囲において当業者が上記各実施の形態の修正や代用を行い、種々の変更を施した形態を構築することが可能である。
 上記の実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
[付記1]
 交通流分析の対象となる移動体を撮影可能な位置に設置されたカメラから画像を取得する取得手段と、
 前記カメラに映った移動体の属性を識別するための複数種の識別方式を記憶する記憶手段と、
 前記記憶手段に記憶される前記複数種の識別方式の中から、前記カメラに映る移動体の傾向に適合する識別方式を選択する選択手段と、
 前記選択手段により選択された識別方式を用いて、前記取得した画像に映った移動体とその属性を識別する識別手段と、を備える、
 交通流分析装置。
[付記2]
 上記した交通流分析装置の前記選択手段は、前記カメラの位置に基づいて、前記識別方式を選択する構成を採ることができる。
[付記3]
 上記した交通流分析装置の前記選択手段は、前記画像を撮影した時間帯に基づいて、前記識別方式を選択する構成を採ることができる。
[付記4]
 上記した交通流分析装置の前記選択手段は、前記識別手段で識別した属性の傾向に基づいて、前記識別方式を選択する構成を採ることができる。
[付記5]
 上記した交通流分析装置の前記選択手段は、前記カメラの周辺に設置された交通信号機の灯火の色に基づいて、前記識別方式を選択する構成を採ることができる。
[付記6]
 上記した交通流分析装置が選択する前記識別方式は、カメラに映った移動体の属性を識別するための分類モデル又は処理アルゴリズムであってもよい。
[付記7]
 上記した交通流分析装置において、
 前記分類モデル又は処理アルゴリズムは、事前に調査した前記カメラに映る移動体の傾向に基づいて複数種作成されており、
 前記選択手段は、前記複数種の分類モデル又は処理アルゴリズムの中から、前記カメラに映る移動体の傾向に適合する分類モデル又は処理アルゴリズムを選択するよう定めた選択ルールを用いて、前記分類モデル又は処理アルゴリズムを選択する構成を採ることができる。
[付記8]
 上記した交通流分析装置において、
 前記移動体は人物であり、前記分類モデルは、前記カメラが設置された位置の人流の統計データを教師データとして用いた機械学習により作成された分類モデルであってもよい。
[付記9]
 上記した交通流分析装置において、
 前記移動体は人物であり、前記分類モデルは、前記カメラで撮影された時間帯別の人流の統計データを教師データとして用いた機械学習により作成されていてもよい。
[付記10]
 交通流分析の対象となる移動体を撮影可能な位置に設置されたカメラに映った移動体の属性を識別するための複数種の識別方式を記憶する記憶手段に記憶された前記複数種の識別方式の中から、前記カメラに映る移動体の傾向に適合する識別方式を選択し、
 前記カメラから画像を取得し、
 前記選択された識別方式を用いて、前記取得した画像に映った移動体の属性を識別する、交通流分析方法。
[付記11]
 交通流分析の対象となる移動体を撮影可能な位置に設置されたカメラに映った移動体の属性を識別するための複数種の識別方式を記憶する記憶手段に記憶された前記複数種の識別方式の中から、前記カメラに映る移動体の傾向に適合する識別方式を選択する処理と、
 前記カメラから画像を取得する処理と、
 前記選択した識別方式を用いて、前記取得した画像に映った移動体の属性を識別する処理と、をコンピュータに実行させるプログラムを記録したプログラム記録媒体。
 なお、上記付記10~付記11の形態は、付記1と同様に、付記2~付記9の形態に展開することが可能である。
 なお、上記の特許文献の各開示は、本書に引用をもって繰り込み記載されているものとし、必要に応じて本発明の基礎ないし一部として用いることが出来るものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし選択(部分的削除を含む)が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。さらに、上記引用した文献の各開示事項は、必要に応じ、本発明の趣旨に則り、本発明の開示の一部として、その一部又は全部を、本書の記載事項と組み合わせて用いることも、本願の開示事項に含まれるものと、みなされる。
 500a、500b カメラ
 10、100、100a、100b、100c、100d 交通流分析装置
 11、101 取得手段
 12、102 識別手段
 13 選択手段
 14 記憶手段
 103、113、123、133、143 モデル選択手段
 104、114、124、134、144 モデル記憶手段
 135 信号灯火情報取得手段
 900 情報処理装置
 901 CPU(Central  Processing  Unit)
 902 ROM(Read  Only  Memory)
 903 RAM(Random  Access  Memory)
 904 プログラム
 905 記憶装置
 906 プログラム記録媒体
 907 ドライブ装置
 908 通信インターフェース
 909 通信ネットワーク
 910 入出力インターフェース
 911 バス
 SIG1、SIG2 歩行者用信号機
 STA 駅

Claims (11)

  1.  交通流分析の対象となる移動体を撮影可能な位置に設置されたカメラから画像を取得する取得手段と、
     前記カメラに映った移動体の属性を識別するための複数種の識別方式を記憶する記憶手段と、
     前記記憶手段に記憶される前記複数種の識別方式の中から、前記カメラに映る移動体の傾向に適合する識別方式を選択する選択手段と、
     前記選択手段により選択された識別方式を用いて、前記取得した画像に映った移動体とその属性を識別する識別手段と、を備える、
     交通流分析装置。
  2.  前記選択手段は、前記カメラの位置に基づいて、前記識別方式を選択する請求項1の交通流分析装置。
  3.  前記選択手段は、前記画像を撮影した時間帯に基づいて、前記識別方式を選択する請求項1又は2の交通流分析装置。
  4.  前記選択手段は、前記識別手段で識別した属性の傾向に基づいて、前記識別方式を選択する請求項1から3いずれか一の交通流分析装置。
  5.  前記選択手段は、前記カメラの周辺に設置された交通信号機の灯火の色に基づいて、前記識別方式を選択する請求項1から4いずれか一の交通流分析装置。
  6.  前記識別方式は、カメラに映った移動体の属性を識別するための分類モデル又は処理アルゴリズムである請求項1から5いずれか一の交通流分析装置。
  7.  前記分類モデル又は処理アルゴリズムは、事前に調査した前記カメラに映る移動体の傾向に基づいて複数種作成されており、
     前記選択手段は、前記複数種の分類モデル又は処理アルゴリズムの中から、前記カメラに映る移動体の傾向に適合する分類モデル又は処理アルゴリズムを選択するよう定めた選択ルールを用いて、前記分類モデル又は処理アルゴリズムを選択する請求項6の交通流分析装置。
  8.  前記移動体は人物であり、前記分類モデルは、前記カメラが設置された位置の人流の統計データを教師データとして用いた機械学習により作成された分類モデルである請求項7の交通流分析装置。
  9.  前記移動体は人物であり、前記分類モデルは、前記カメラで撮影された時間帯別の人流の統計データを教師データとして用いた機械学習により作成されている請求項7の交通流分析装置。
  10.  交通流分析の対象となる移動体を撮影可能な位置に設置されたカメラに映った移動体の属性を識別するための複数種の識別方式を記憶する記憶手段に記憶された前記複数種の識別方式の中から、前記カメラに映る移動体の傾向に適合する識別方式を選択し、
     前記カメラから画像を取得し、
     前記選択された識別方式を用いて、前記取得した画像に映った移動体の属性を識別する、交通流分析方法。
  11.  交通流分析の対象となる移動体を撮影可能な位置に設置されたカメラに映った移動体の属性を識別するための複数種の識別方式を記憶する記憶手段に記憶された前記複数種の識別方式の中から、前記カメラに映る移動体の傾向に適合する識別方式を選択する処理と、
     前記カメラから画像を取得する処理と、
     前記選択した識別方式を用いて、前記取得した画像に映った移動体の属性を識別する処理と、をコンピュータに実行させるプログラムを記録したプログラム記録媒体。
PCT/JP2022/015321 2022-03-29 2022-03-29 交通流分析装置、交通流分析方法及びプログラム記録媒体 WO2023187958A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/015321 WO2023187958A1 (ja) 2022-03-29 2022-03-29 交通流分析装置、交通流分析方法及びプログラム記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/015321 WO2023187958A1 (ja) 2022-03-29 2022-03-29 交通流分析装置、交通流分析方法及びプログラム記録媒体

Publications (1)

Publication Number Publication Date
WO2023187958A1 true WO2023187958A1 (ja) 2023-10-05

Family

ID=88199958

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/015321 WO2023187958A1 (ja) 2022-03-29 2022-03-29 交通流分析装置、交通流分析方法及びプログラム記録媒体

Country Status (1)

Country Link
WO (1) WO2023187958A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068965A (ja) * 2010-09-24 2012-04-05 Denso Corp 画像認識装置
JP2012221162A (ja) * 2011-04-07 2012-11-12 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
JP2017130871A (ja) * 2016-01-22 2017-07-27 トヨタ自動車株式会社 車両用画像生成装置
JP2020096255A (ja) * 2018-12-11 2020-06-18 東京電力ホールディングス株式会社 情報処理方法、プログラム、情報処理装置、学習済みモデルの生成方法及び学習済みモデル

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068965A (ja) * 2010-09-24 2012-04-05 Denso Corp 画像認識装置
JP2012221162A (ja) * 2011-04-07 2012-11-12 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
JP2017130871A (ja) * 2016-01-22 2017-07-27 トヨタ自動車株式会社 車両用画像生成装置
JP2020096255A (ja) * 2018-12-11 2020-06-18 東京電力ホールディングス株式会社 情報処理方法、プログラム、情報処理装置、学習済みモデルの生成方法及び学習済みモデル

Similar Documents

Publication Publication Date Title
CN112400192B (zh) 多模态深度交通信号控制的方法和***
US20220139070A1 (en) Learning apparatus, estimation apparatus, data generation apparatus, learning method, and computer-readable storage medium storing a learning program
CN108009477B (zh) 图像的人流数量检测方法、装置、存储介质及电子设备
CN110264495A (zh) 一种目标跟踪方法及装置
US20210272017A1 (en) Machine learning on a blockchain
US20200372412A1 (en) System and methods to share machine learning functionality between cloud and an iot network
CN116091900A (zh) 图像处理方法、装置及存储介质
CN112329616B (zh) 目标检测方法、装置、设备以及存储介质
CN115470884A (zh) 用于自动驾驶***的感知***开发的平台
US20190137953A1 (en) Adaptive control systems for buildings with redundant circuitry
CN112115372A (zh) 一种停车场的推荐方法及装置
WO2023187958A1 (ja) 交通流分析装置、交通流分析方法及びプログラム記録媒体
CN113221695B (zh) 训练肤色识别模型的方法、识别肤色的方法及相关装置
US12051015B2 (en) Artificial intelligence model integration and deployment for providing a service
US20220348232A1 (en) Fleet-level av simulation system and method
Sardinha et al. Context-aware demand prediction in bike sharing systems: Incorporating spatial, meteorological and calendrical context
US20240012378A1 (en) Building automation system with validated commissioning workflow and digital twin population
US11508241B2 (en) Parking area mapping using image-stream derived vehicle description and space information
US20230343083A1 (en) Training Method for Multi-Task Recognition Network Based on End-To-End, Prediction Method for Road Targets and Target Behaviors, Computer-Readable Storage Media, and Computer Device
US10735660B2 (en) Method and device for object identification
CN110135517B (zh) 用于获取车辆相似度的方法及装置
CN105827936B (zh) 一种图像处理方法及移动终端
WO2022025244A1 (ja) 車両事故予測システム、車両事故予測方法、車両事故予測プログラム、及び、学習済みモデル生成システム
CN112101185B (zh) 一种训练皱纹检测模型的方法、电子设备及存储介质
Eryilmaz et al. Adaptive service selection for enabling the mobility of autonomous vehicles

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22935111

Country of ref document: EP

Kind code of ref document: A1