WO2022097260A1 - 情報処理装置、情報処理方法、情報処理システム、及びコンピュータ読み取り可能な記憶媒体 - Google Patents

情報処理装置、情報処理方法、情報処理システム、及びコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
WO2022097260A1
WO2022097260A1 PCT/JP2020/041479 JP2020041479W WO2022097260A1 WO 2022097260 A1 WO2022097260 A1 WO 2022097260A1 JP 2020041479 W JP2020041479 W JP 2020041479W WO 2022097260 A1 WO2022097260 A1 WO 2022097260A1
Authority
WO
WIPO (PCT)
Prior art keywords
passengers
information
vehicle
information processing
signal
Prior art date
Application number
PCT/JP2020/041479
Other languages
English (en)
French (fr)
Inventor
純平 奥野
政弘 兼松
優介 只野
崇 栗原
啓行 秋葉
俊樹 竹内
太一 大辻
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2020/041479 priority Critical patent/WO2022097260A1/ja
Priority to JP2022560590A priority patent/JPWO2022097260A5/ja
Publication of WO2022097260A1 publication Critical patent/WO2022097260A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles

Definitions

  • This disclosure relates to a technique for utilizing a signal output from a communication device.
  • Patent Document 1 discloses a technique for estimating the number of passengers in a vehicle by performing a process of detecting a person on a photographed image taken by a camera and integrating the detection result of the person.
  • the number of passengers in a vehicle is estimated based only on the information obtained from the photographed image. Therefore, for example, when the vehicle is not clearly reflected in the captured image due to bad weather such as fog or snowfall, or when some abnormality occurs in the camera and the captured image cannot be reliably acquired, boarding. It may be difficult to estimate the number of people.
  • the present disclosure has been made in view of the above problems, and provides an information processing device and the like capable of estimating the number of passengers even when it is difficult to estimate the number of passengers of the vehicle from the captured image. That is one of the purposes.
  • the information processing device of one aspect of the present disclosure is a determination means for determining whether or not the number of passengers of the vehicle can be estimated from the captured image of the vehicle, and when it is determined that the number of passengers cannot be estimated, the vehicle.
  • the information processing method of one aspect of the present disclosure determines whether or not the number of passengers of the vehicle can be estimated from the captured image of the vehicle, and if it is determined that the number of passengers cannot be estimated, the range including the vehicle. The number of passengers is estimated based on the information about the signal detected from.
  • the computer-readable storage medium of one aspect of the present disclosure is a process of determining whether or not the number of passengers of the vehicle can be estimated from the captured image taken by the vehicle, and when it is determined that the number of passengers cannot be estimated.
  • a program for causing a computer to execute a process of estimating the number of passengers based on information about a signal detected from a range including the vehicle is stored.
  • the number of passengers in a vehicle can be estimated.
  • FIG. 1 is a diagram schematically showing an example of the configuration of the information processing system 1000 of the first embodiment.
  • the information processing system 1000 includes an information processing device 100, a photographing device 200, and a sensor 300.
  • the information processing device 100 is connected to the photographing device 200 and the sensor 300 so as to be able to communicate with each other by wire or wirelessly.
  • the photographing device 200 and the sensor 300 may be an integrated device.
  • the information processing device 100 may be a device integrated with either or both of the photographing device 200 and the sensor 300.
  • the information processing device 100 may also be connected to the storage device 400 and the terminal 500 so as to be communicable by wire or wirelessly.
  • the storage device 400 may be mounted on the information processing device 100.
  • the terminal 500 is a device provided with an information processing device 100 and input / output means for communicating via a network.
  • the terminal 500 may be a personal computer or a portable terminal such as a smartphone or a tablet terminal.
  • the photographing device 200 is photographing the vehicle.
  • the sensor 300 detects a predetermined signal in a range including a range taken by the photographing device 200.
  • the photographing device 200 and the sensor 300 may be installed at a plurality of places.
  • the information processing apparatus 100 estimates the number of passengers in the vehicle based on the information regarding the detected signal. Here, one or more people are on board the vehicle.
  • the information processing device 100 can calculate the number of communication devices by acquiring information about a signal output from a communication device such as a smartphone owned by a person. Then, the information processing apparatus 100 estimates the number of passengers in the vehicle based on the calculated number of communication devices.
  • the photographing apparatus 200 photographs a predetermined range and generates photographing data.
  • the range in the real space taken by the photographing apparatus 200 is also referred to as an imaging range
  • the image captured by the photographing apparatus 200 is also referred to as a captured image.
  • the captured image may be a still image or any one of a plurality of frames constituting the moving image. If there is a vehicle in the shooting range, the vehicle will appear in the shot image.
  • the shooting data indicates information constituting the shot image. Further, the shooting data may be data in which the shot image is encoded. Then, the photographing device 200 transmits the photographing data to the information processing apparatus 100.
  • the information processing device 100 acquires a photographed image by, for example, decoding the photographed data received from the image pickup device 200.
  • the shooting data may include information for identifying the shooting device 200. Further, the shooting data may include information on the shooting time, information indicating the shooting location, and information for identifying the shooting device 200.
  • the photographing apparatus 200 includes a function of calculating the time and a storage unit (not shown) for storing information indicating the photographing place.
  • the photographing device 200 may continuously photograph the photographing range and sequentially transmit the photographed data to the information processing apparatus 100. Further, a moving body sensor (not shown) that is communicably connected to the photographing device 200 may be installed around the photographing range. Then, when the moving object sensor detects a moving object, that is, when it detects that the vehicle has passed, the photographing device 200 may take an image.
  • the sensor 300 detects a signal output from a communication device existing in a predetermined range and generates detection data.
  • the range in real space in which the sensor 300 detects a signal is also referred to as a detection range.
  • the communication device that outputs the signal is, for example, a mobile phone, a smartphone, a tablet terminal, or the like, but the present invention is not limited to this example.
  • the sensor 300 can detect a signal in a range including, for example, a shooting range.
  • the sensor 300 is, for example, one sensor capable of detecting a signal in a predetermined frequency band, but the example of the sensor 300 is not limited to this example.
  • the sensor 300 may be composed of a plurality of sensors. At this time, the plurality of sensors may be sensors capable of detecting signals in different frequency bands.
  • the detection data is information indicating a signal detected by the sensor 300.
  • the sensor 300 transmits the detected data to the information processing apparatus 100.
  • the detected signal may be a radio wave output from a communication device. That is, the sensor 300 can detect radio waves output from communication devices existing in the detection range and generate detection data, for example.
  • the communication device may be a device that outputs radio waves of any communication method.
  • the detection data includes information indicating the signal waveform of the detected radio wave.
  • the information indicating the signal waveform of the radio wave is, for example, the information indicating the amplitude value of the radio wave signal in time series.
  • the radio wave detected by the sensor 300 may be, for example, a radio wave such as LTE (Long Term Evolution), wireless LAN (Local Area Network), or short-range radio wave.
  • LTE Long Term Evolution
  • wireless LAN Local Area Network
  • short-range radio wave When the communication device is a smartphone or the like, the timing at which the radio wave is output is, for example, a voice call, communication by operating an application, polling communication between the communication device and the base station, and the like.
  • the sensor 300 transmits the detected data to the information processing device 100.
  • the detection data may include the identification information of the sensor 300.
  • the detection data may include information indicating the time when the radio wave is detected, information indicating the location where the sensor 300 is installed, and information for identifying the sensor 300.
  • the sensor 300 is provided with a function of calculating the time and a storage unit (not shown) for storing information indicating the location.
  • the sensor 300 may be controlled by the information processing device 100. For example, the sensor 300 may start and stop signal detection in response to an instruction from the information processing apparatus 100. Further, the sensor 300 may change the detection range according to the instruction from the information processing apparatus 100.
  • FIG. 2 is a diagram showing an example of the functional configuration of the information processing apparatus 100.
  • the information processing apparatus 100 includes a determination unit 110, a first estimation unit 120, an extraction unit 130, a second estimation unit 140, and a registration unit 150.
  • the determination unit 110 determines whether or not the number of passengers can be estimated from the captured image. For example, the determination unit 110 acquires shooting environment data, which is data that may affect the shooting performed by the shooting device 200. Then, the determination unit 110 determines whether or not the number of passengers can be estimated based on the shooting environment data. For example, the determination unit 110 acquires the weather data of the place where the photographing apparatus 200 is installed as the photographing environment data through the Internet. Then, the determination unit 110 may determine that the number of passengers cannot be estimated from the photographed image when it is raining, snowing, or fog in the place where the photographing apparatus 200 is installed. .. At this time, the determination unit 110 may determine that the number of passengers cannot be estimated from the captured image when the weather data includes information indicating a warning or warning such as heavy rain, heavy snow, and heavy fog.
  • the weather data includes information indicating a warning or warning such as heavy rain, heavy snow, and heavy fog.
  • the determination unit 110 may determine that the number of passengers cannot be estimated from the photographed image by acquiring information on the abnormality of the image pickup device 200 as the image shooting environment data, for example. For example, it is assumed that a lens failure, a power supply failure, or the like occurs in the photographing apparatus 200. At this time, the photographing apparatus 200 notifies the information processing apparatus 100 that a failure has occurred. The determination unit 110 may use the notification as information regarding an abnormality and determine that the number of passengers cannot be estimated from the captured image. The determination unit 110 may acquire information regarding the abnormality of the photographing apparatus 200 by the user inputting the information through the terminal 500.
  • the captured image may be overexposed or underexposed, or the captured image may be blurred due to vibration or lens deposits.
  • the determination unit 110 may acquire information on the quality of the photographed image as the photographing environment data and determine whether or not the number of passengers can be estimated from the photographed image based on the information on the quality.
  • the quality information is information that can be obtained from the captured image.
  • the information regarding quality is a histogram of the pixel value of the captured image and an index regarding the amount of edges detected from the captured image, but is not limited to this example.
  • the information regarding the quality may be the result of performing various image processing on the captured image.
  • the determination unit 110 acquires a histogram of the pixel values from the captured image, and determines that overexposure or underexposure has occurred in the captured image due to the bias of the histogram. Then, the determination unit 110 may determine that the number of passengers cannot be estimated from the captured image when overexposure or underexposure occurs in the captured image. Further, for example, the determination unit 110 acquires an index relating to the amount of edges detected from the captured image, and when the index is less than a predetermined threshold value, the amount of edges detected from the captured image is small, that is, the captured image is Determined to be blurry. Then, the determination unit 110 may determine that the number of passengers cannot be estimated from the captured image when the captured image is blurred.
  • the determination unit 110 determines whether or not the number of passengers in the vehicle can be estimated from the captured image of the vehicle.
  • the determination unit 110 is an example of the determination means.
  • the first estimation unit 120 estimates the number of passengers in a vehicle based on the information regarding the signal detected from the range including the vehicle when it is determined that the number of passengers cannot be estimated from the captured image.
  • the information regarding the signal is, for example, information for identifying the communication device included in the signal output from the communication device.
  • the first estimation unit 120 acquires, for example, information for identifying a communication device, which is extracted from information indicating a signal detected by the sensor 300 (that is, detection data). Then, the first estimation unit 120 calculates the number of communication devices that output signals using the information that identifies the communication devices, and estimates the number of passengers in the vehicle based on the calculated number of communication devices.
  • the first estimation unit 120 may use the radio wave feature information as information for identifying the communication device. ..
  • the radio wave characteristic information is information extracted from information indicating the signal waveform of the radio wave, and is information showing the characteristics of the signal waveform of the radio wave, which differs depending on the communication device that outputs the radio wave.
  • the first estimation unit 120 may calculate the number of communication devices based on the radio wave feature information.
  • the radio wave feature information is, for example, a feature amount based on a modulation error by modulation analysis, a feature amount based on a time waveform of a radio wave, or the like.
  • the radio wave characteristic information includes the transient (rising and falling) of the received signal, the power spectral density of the preamble portion, the error vector amplitude (EVM), the IQ (In-phase Quadrature-phase) phase error, and the like. It may be a feature quantity indicating one or more of the IQ imbalance amount, the frequency offset, and the symbol clock error, but is not limited thereto.
  • the radio wave feature information depends on the hardware of the communication device, it is difficult to rewrite it manually. Therefore, the radio wave feature information is information that is unlikely to be intentionally disguised. Further, the radio wave feature information is information that can identify an individual communication device regardless of the type of information transmitted by the radio wave, for example, a mobile phone operator.
  • the process of extracting radio wave feature information from the information indicating the signal waveform of the radio wave is performed by, for example, the extraction unit 130 according to a predetermined rule.
  • the extraction unit 130 can use machine learning when extracting radio wave feature information from information indicating a radio wave signal waveform.
  • the extraction unit 130 can extract radio wave feature information from the information indicating the signal waveform of the radio wave by using the extraction model generated based on the learning data.
  • the learning data includes information indicating radio wave signal waveforms output from various communication devices and radio wave feature information corresponding to each of the information indicating radio wave signal waveforms. By using such learning data, it is possible to generate an extraction model in which information indicating a signal waveform of a radio wave is input and radio wave feature information is output.
  • the training data and the extraction model may be stored in the storage device 400 in advance. Further, the extraction unit 130 may generate the learning model. In this way, the extraction unit 130 extracts information for identifying the communication device from the signal detected from the range including the vehicle.
  • the extraction unit 130 is an example of an extraction means.
  • the first estimation unit 120 calculates the number of communication devices existing in the detection range, for example, based on the type or number of radio wave feature information.
  • the first estimation unit 120 can estimate, for example, the calculated number of communication devices as the number of passengers in the vehicle.
  • the calculated number of communication devices does not have to be used as the number of passengers.
  • the first estimation unit 120 may estimate that the number of passengers is 2 to 4. That is, the first estimation unit 120 may output a value in a predetermined range as the estimated number of passengers.
  • the first estimation unit 120 may store the information indicating the estimation result in the storage device 400 or output it to the terminal 500.
  • the first estimation unit 120 estimates the number of passengers based on the information regarding the signal detected from the range including the vehicle.
  • the first estimation unit 120 is an example of the first estimation means.
  • the second estimation unit 140 estimates the number of passengers in the vehicle based on the captured image. For example, the second estimation unit 140 detects a person from the photographed image taken by the photographing apparatus 200 and estimates the number of passengers by calculating the number of detected persons. As a method of detecting a person from a captured image, a method of detecting the shape of the face or body of the person may be used, or a person is detected from the captured image by performing pattern matching using the image of the person. You may. When performing pattern matching, an image of a person may be stored in advance in, for example, a storage device 400. Further, the method of estimating the number of passengers from the captured image may be, for example, the method described in Patent Document 1.
  • the second estimation unit is an example of the second estimation means.
  • the registration unit 150 registers the information related to the signal, the estimated number of passengers, and the data associated with the captured image in the database.
  • the database is stored, for example, in the storage device 400.
  • the registration unit 150 associates the information regarding the plurality of signals with the estimated number of passengers and the captured image.
  • the image associated with the information related to the signal or the like may be an image obtained by processing the image taken by the photographing apparatus 200.
  • the registration unit 150 may register an image obtained by cutting out an area in which a vehicle is reflected in an image taken by the photographing device 200 in a database in association with information related to a signal or the like. Further, the registration unit 150 may further associate and register the information about the vehicle extracted from the captured image in the database.
  • the registration unit 150 may read the license plate of the vehicle from the captured image and register the read license plate information in the database in association with the information related to the signal or the like.
  • the process of reading the license plate may be performed by, for example, the extraction unit 130. Further, the process of reading the license plate may be performed by an external device (not shown) connected to the information processing device 100. Further, the registration unit 150 may further associate the passenger capacity of the vehicle shown in the captured image.
  • the extraction unit 130 may estimate the passenger capacity of the vehicle from the size and shape of the vehicle reflected in the captured image.
  • FIG. 3 is a diagram showing an example of a database.
  • radio wave feature information is set as information about the signal.
  • data A and “data B” which are radio wave characteristic information
  • data 1 which is a photographed image
  • "2" which shows the number of passengers are associated with each other.
  • the registration unit 150 may further associate the time and place information with the data in which the information regarding the signal, the captured image, and the number of passengers are associated with each other.
  • the time information may be, for example, either the time taken by the photographing device 200 or the time when the sensor 300 detects the signal, or the time when the information processing apparatus 100 acquires the photographed data or the detected data. May be good.
  • the location information may be, for example, information on the installation location of the imaging device 200 included in the imaging data, or information on the installation location of the sensor 300 included in the detection data. If the shooting data and the detection data do not include location information, the registration unit 150 may use the shooting data to identify the shooting device 200, or the detection data to identify the sensor 300. May be used to obtain location information. In this case, a database in which the information for identifying the photographing device 200 and the information on the installation location of the photographing device 200 are associated with each other, or a database in which the information for identifying the sensor 300 and the information on the installation location of the sensor 300 are associated in advance is created. It is stored in the storage device 400. For example, the registration unit 150 identifies from the database information on the location associated with the information that identifies the sensor 300, which is included in the detection data.
  • the registration unit 150 registers the information about the signal, the estimated number of passengers, and the captured image in the database in association with each other.
  • the registration unit 150 is an example of registration means.
  • the registration unit 150 may register data in which any two of the signal information, the number of passengers, and the captured image are associated with each other.
  • the registration unit 150 may register data in which information about a signal is associated with a captured image, or may register data in which information about a signal is associated with the number of passengers.
  • FIG. 4 is a flowchart illustrating an example of the operation of the information processing apparatus 100.
  • the determination unit 110 determines whether or not the number of passengers can be estimated from the captured image based on the imaging environment data (S101).
  • the extraction unit 130 extracts radio wave feature information from the information indicating the signal waveform of the radio wave included in the detection data (S103).
  • the first estimation unit 120 estimates the number of passengers based on the extracted radio wave feature information (S104).
  • the registration unit 150 associates the radio wave feature information with the captured image and the estimated number of passengers and registers them in the database (S105).
  • the second estimation unit 140 estimates the number of passengers based on the captured image (S106). Then, the process of S105 is performed.
  • the registration unit 150 may register the radio wave feature information and the number of passengers in the database in association with each other.
  • the information processing apparatus 100 of the first embodiment determines whether or not the number of passengers of the vehicle can be estimated from the captured image of the vehicle, and if it is determined that the number of passengers cannot be estimated, the vehicle is determined. Estimate the number of passengers based on the information about the signals detected from the included range. As a result, the information processing apparatus 100 can estimate the number of passengers in the vehicle without using the captured image of the vehicle. That is, the information processing apparatus 100 of the first embodiment has an effect that the number of passengers can be estimated even when it is difficult to estimate the number of passengers of the vehicle from the captured image.
  • the information processing system 1000 in the present disclosure can be used in combination with, for example, a speed measuring device installed on a road.
  • the speed measuring device is a device that measures the speed of a vehicle and determines whether or not the measured speed exceeds a predetermined threshold value.
  • the information processing system 1000 can register a photographed image of a vehicle determined to have exceeded a threshold value and information about a signal in a database in association with each other. Thereby, the information processing system 1000 can present information for identifying the person who was in the vehicle at the speed exceeding the threshold value.
  • the information processing system 1000 in the present disclosure can also be used for monitoring the usage status of roads. For example, there is a lane in which only vehicles with a predetermined number of passengers or more can travel. A lane in which only a specified number of vehicles or more can travel is also called a HOV (High Occupancy Vehicles) lane, a carpool lane, or a ride sharing lane. Since the information processing system 1000 can estimate the number of passengers in the vehicle, it can present data for monitoring whether such a lane is used correctly.
  • HOV High Occupancy Vehicles
  • communication devices such as smartphones and tablet terminals periodically transmit signals to check whether they can communicate with surrounding access points.
  • the signal transmitted at this time is also referred to as a probe request signal.
  • the sensor 300 may detect the probe request signal and generate detection data including information indicating the probe request signal.
  • the extraction unit 130 when the extraction unit 130 receives the detection data, it extracts the source MAC (Media Access Control) address included in the probe request signal.
  • the first estimation unit 120 uses the extracted MAC address as an identifier of the communication device, and calculates the number of communication devices existing in the detection range based on the number of the identifiers. Then, the first estimation unit 120 estimates the number of passengers based on the calculated number of communication devices.
  • the information that identifies the communication device is the radio wave characteristic information.
  • the sensor 300 detects a radio wave in the detection range, the sensor 300 extracts radio wave feature information from the signal waveform of the detected radio wave.
  • the sensor 300 transmits the detection data including the extracted radio wave feature information to the information processing apparatus 100.
  • the extraction model may be stored in advance in a storage device (not shown) included in the sensor 300.
  • the sensor 300 extracts the MAC address from the detected probe request signal, for example. Then, the detection data including the information indicating the extracted MAC address is transmitted to the information processing apparatus 100.
  • the first estimation unit 120 of the information processing device 100 estimates the number of passengers in the vehicle based on the information for identifying the communication device included in the detection data. In the case of this modification, the information processing apparatus 100 does not have to perform the S103 process in the flowchart of FIG.
  • the information processing apparatus 100 may acquire the number of passengers estimated by the second estimation unit as the shooting environment data. That is, the shooting environment data may be the number of passengers estimated based on the shot image.
  • the determination unit 110 may determine that the number of passengers cannot be estimated from the captured image when the number of passengers is a predetermined value. For example, when the number of passengers is estimated to be 0 or 100, which is an unnatural number of passengers in one vehicle, the determination unit 110 determines the number of passengers from the captured image. May be determined that it cannot be estimated.
  • the standard for the number of passengers that is unnatural is not limited to this example, and any numerical value can be set.
  • the process of S106 that is, the process of estimating the number of passengers based on the captured image is performed by the second estimation unit 140 before the process of S101. Then, when the determination unit 110 determines that the number of passengers cannot be estimated from the captured image (“No” in S102), the information processing apparatus 100 proceeds to the process of S103. When the determination unit 110 determines that the number of passengers can be estimated from the captured image (“Yes” in S102), the information processing apparatus 100 proceeds to the process of S105.
  • FIG. 5 is a block diagram showing an example of the configuration of the information processing system 1001 of the second embodiment.
  • the information processing system 1001 includes an information processing device 101 instead of the information processing device 100 in the first embodiment, and other than that, the information processing system 1000 described in the first embodiment. The same is true. That is, the information processing system 1001 includes an information processing device 101, a photographing device 200, and a sensor 300.
  • the description of the contents in which the configuration and operation of the information processing system 1001 shown in FIG. 5 overlaps with the description of the first embodiment will be omitted.
  • the information processing apparatus 101 includes a determination unit 110, a first estimation unit 120, an extraction unit 130, a second estimation unit 140, a registration unit 150, and a control unit 160.
  • the control unit 160 controls the sensor 300. For example, the control unit 160 instructs the sensor 300 to start detecting a signal when the determination unit 110 determines that the number of passengers cannot be estimated from the captured image. When the sensor 300 receives the instruction, the sensor 300 detects a signal with respect to the detection range. The control unit 160 may determine the detection range of the sensor 300.
  • control unit 160 controls the sensor to detect the signal from the range including the vehicle.
  • the control unit 160 is an example of control means.
  • control unit 160 may instruct the sensor 300 to stop detecting the signal when the determination unit 110 determines that the number of passengers can be estimated from the captured image.
  • the sensor 300 stops detecting the signal when it receives the instruction.
  • FIG. 6 is a flowchart illustrating an example of the operation of the information processing apparatus 101.
  • the sensor 300 shall detect the signal waveform of the radio wave.
  • the processing of S201 and S202 is the same processing as the processing of S101 and S102 of FIG.
  • the control unit 160 causes the sensor 300 to start detecting radio waves (S203).
  • the extraction unit 130 acquires the detection data from the sensor 300 (S204)
  • the extraction unit 130 extracts radio wave feature information from the information indicating the signal waveform of the radio wave included in the detection data (S205).
  • the first estimation unit 120 estimates the number of passengers based on the extracted radio wave feature information (S206).
  • the registration unit 150 associates the radio wave feature information with the captured image and the estimated number of passengers and registers them in the database (S207).
  • the second estimation unit 140 estimates the number of passengers based on the captured image (S208). Then, the registration unit 150 associates the captured image with the estimated number of passengers and registers them in the database (S209).
  • the information processing apparatus 101 of the second embodiment controls the sensor to detect a signal from the range including the vehicle when it is determined that the number of passengers cannot be estimated. Thereby, the information processing apparatus 101 can operate the sensor 300 only when necessary, for example. Therefore, the information processing apparatus 101 can reduce the power consumption of the system.
  • FIG. 7 is a block diagram showing an example of the configuration of the information processing system 1002 according to the third embodiment.
  • the information processing system 1002 includes an information processing device 102 instead of the information processing device 100 in the first embodiment, and other than that, the information processing system 1000 described in the first embodiment. The same is true. That is, the information processing system 1002 includes an information processing device 102, a photographing device 200, and a sensor 300.
  • the description of the contents in which the configuration and operation of the information processing system 1002 shown in FIG. 7 overlaps with the description of the first and second embodiments will be omitted.
  • the information processing apparatus 102 includes a determination unit 110, a first estimation unit 120, an extraction unit 130, a second estimation unit 140, a registration unit 150, a control unit 160, a collation unit 170, and an output unit 180. Be prepared.
  • the collation unit 170 collates the information regarding the signal detected by the sensor 300 with the information regarding the signal registered in the database. For example, it is assumed that radio wave feature information is registered in a database as information related to a signal. In this case, the extraction unit 130 extracts radio wave feature information from the detection data. Then, the collation unit 170 collates the extracted radio wave feature information with the radio wave feature information registered in the database.
  • the collation unit 170 can use machine learning when collating information related to signals. Specifically, the collation unit 170 uses a collation model generated based on the training data to determine whether or not the collation matches.
  • the collation model is, for example, a model for collating the information about the extracted signal with the information about the registered signal and determining whether or not they match. By inputting the information about the extracted signal to the collation model, the similarity with the information about the registered signal is calculated. When the degree of similarity is equal to or greater than a predetermined value, the collation unit 170 determines that the collation matches.
  • the collation unit 170 collates the information regarding the signal detected from the range including the vehicle with the information regarding the signal registered in the database.
  • the collation unit 170 is an example of collation means.
  • the output unit 180 outputs the collation result by the collation unit 170. For example, when the collation by the collation unit 170 matches, the output unit 180 transmits the information indicating that the collation matches to the terminal 500, and outputs the information indicating that the collation matches to the terminal 500. At this time, the output unit 180 outputs at least one of the time when the signal was detected, the place where the signal was detected, the captured image of the place where the signal was detected, and the estimated number of passengers to the terminal 500. May be good. Further, when the collation matches, the output unit 180 may output the information of the record including the information about the signal used for the collation to the terminal 500. At this time, the output unit 180 may output at least one of the information contained in the record.
  • the output unit 180 may output at least one information among the radio wave feature information, the photographed image, the number of passengers, the time, and the place. Further, when the collation by the collation unit 170 does not match, the output unit 180 may output information indicating that the collation does not match to the terminal 500.
  • the terminal 500 displays, for example, the information received from the output unit 180 on the display of the terminal 500.
  • FIG. 8 is a flowchart illustrating an example of the operation of the information processing apparatus 102.
  • the sensor 300 detects a radio wave and generates detection data including information indicating a signal waveform of the detected radio wave.
  • the extraction unit 130 extracts radio wave feature information from the information indicating the signal waveform of the radio wave (S301).
  • the collation unit 170 collates the extracted radio wave feature information with the radio wave feature information registered in the database (S302).
  • the output unit 180 outputs the collation result to the terminal 500 (S304). For example, the output unit 180 outputs a place and time when a radio wave including radio wave feature information is detected, and a photographed image of the place where the radio wave is detected. If the collation does not match (“No” in S203), the flow ends.
  • the information processing apparatus 102 of the third embodiment collates the information regarding the signal detected from the range including the vehicle with the information regarding the signal registered in the database. Thereby, the information processing apparatus 102 can detect a specific person and detect a vehicle on which the specific person is on board by using the information about the signal.
  • FIG. 9 is a block diagram showing an example of the configuration of the information processing system 1003 according to the fourth embodiment.
  • the information processing system 1003 includes an information processing device 103 instead of the information processing device 100 in the first embodiment, and other than that, the information processing system 1000 described in the first embodiment. The same is true. That is, the information processing system 1003 includes an information processing device 103, a photographing device 200, and a sensor 300.
  • the description of the contents in which the configuration and operation of the information processing system 1002 shown in FIG. 9 overlaps with the description of the first, second, and third embodiments will be omitted.
  • the information processing apparatus 103 includes a determination unit 110, a first estimation unit 120, an extraction unit 130, a second estimation unit 140, a registration unit 150, a control unit 160, a collation unit 170, an output unit 180, and An alarm generation unit 190 is provided.
  • the alarm generation unit 190 generates an alarm when the number of passengers estimated by the first estimation unit 120 or the second estimation unit 140 is equal to or greater than a predetermined value.
  • the alarm is, for example, a sound generated from a speaker of the terminal 500, a light generated from a lamp of the terminal 500, or the like, but is not limited to this example.
  • the alarm generation unit 190 may display information indicating that the number of passengers is equal to or more than a predetermined value and information regarding the number of passengers on the display of the terminal 500.
  • the alarm generation unit 190 may further display information on a photographed image showing a vehicle in which the number of passengers is estimated to be equal to or more than a predetermined value, a place where the vehicle was located, and a time when the vehicle was present. ..
  • the alarm generation unit 190 may generate an alarm in the speaker, lamp, or display connected to the information processing device 103 instead of the speaker, lamp, or display of the terminal 500 described above.
  • the alarm generation unit 190 generates an alarm when the estimated number of passengers is equal to or more than a predetermined value when the collation matches.
  • the alarm generation unit 190 is an example of an alarm generation means.
  • the alarm generation unit 190 performs a process of generating an alarm, for example, after the process of S104 or S106 in the flowchart of FIG.
  • the information processing apparatus 103 of the fourth embodiment generates an alarm when the estimated number of passengers is equal to or more than a predetermined value.
  • the vehicle has a fixed passenger capacity.
  • the information processing apparatus 103 can quickly find a vehicle having a passenger capacity of more than the passenger capacity by setting a value equal to or more than the passenger capacity of the vehicle as a predetermined value.
  • an abnormal number for example, 50
  • the information processing device 103 of the fourth embodiment can also find such a suspicious vehicle in which a large number of communication devices exist.
  • the information processing apparatus in the present disclosure may have the following configuration.
  • FIG. 10 is a block diagram showing an example of the functional configuration of the information processing apparatus 104.
  • the information processing device 104 may be provided instead of the information processing device 100.
  • the information processing apparatus 104 includes a determination unit 111 and a first estimation unit 121.
  • the determination unit 111 determines whether or not the number of passengers in the vehicle can be estimated from the captured image of the vehicle. For example, the determination unit 111 acquires shooting environment data, which is data that may affect the shooting performed by the shooting device 200, via the Internet. Then, the determination unit 111 determines whether or not the number of passengers can be estimated based on, for example, the shooting environment data.
  • shooting environment data which is data that may affect the shooting performed by the shooting device 200, via the Internet. Then, the determination unit 111 determines whether or not the number of passengers can be estimated based on, for example, the shooting environment data.
  • the first estimation unit 121 estimates the number of passengers based on the information regarding the signal detected from the range including the vehicle. For example, the first estimation unit 121 acquires information for identifying a communication device, which is extracted from the detection data generated by the sensor 300. Then, the first estimation unit 121 estimates the number of passengers in the vehicle by using, for example, the information for identifying the communication device.
  • FIG. 11 is a flowchart illustrating an example of the operation of the information processing apparatus 104.
  • the determination unit 111 determines whether or not the number of passengers in the territory can be estimated from the captured image of the vehicle (S501).
  • the first estimation unit 121 estimates the number of passengers based on the information regarding the signal detected from the range including the vehicle (S502).
  • the information processing apparatus 104 of the fifth embodiment determines whether or not the number of passengers of the vehicle can be estimated from the captured image of the vehicle, and if it is determined that the number of passengers cannot be estimated, the vehicle is determined. Estimate the number of passengers based on the information about the signals detected from the included range. As a result, the information processing apparatus 104 can estimate the number of passengers from the signal detected from the range including the vehicle even when it is difficult to estimate the number of passengers of the vehicle from the captured image. That is, the information processing apparatus 104 of the fifth embodiment has an effect that the number of passengers can be estimated even when it is difficult to estimate the number of passengers of the vehicle from the captured image.
  • FIG. 12 is a block diagram showing an example of a hardware configuration of a computer device that realizes the information processing device in each embodiment.
  • Each block shown in FIG. 12 can be realized by a combination of software and a computer device 10 that realizes an information processing device and an information processing method in each embodiment.
  • the computer device 10 includes a processor 11, a RAM (Random Access Memory) 12, a ROM (Read Only Memory) 13, a storage device 14, an input / output interface 15, a bus 16, and a drive device 17.
  • the information processing device may be realized by a plurality of electric circuits.
  • the storage device 14 stores a program (computer program) 18.
  • the processor 11 executes the program 18 of the information processing apparatus using the RAM 12.
  • the program 18 includes a program that causes a computer to execute the processes shown in FIGS. 4, 6, 8, and 11.
  • each component of the information processing apparatus determineation unit 110, 111, first estimation unit 120, 121, extraction unit 130, second estimation unit 140, described above).
  • the functions of the registration unit 150, the control unit 160, the collation unit 170, the output unit 180, the alarm generation unit 190, etc.) are realized.
  • the program 18 may be stored in the ROM 13. Further, the program 18 may be recorded on the storage medium 20 and read out using the drive device 17, or may be transmitted from an external device (not shown) to the computer device 10 via a network (not shown).
  • the input / output interface 15 exchanges data with peripheral devices (keyboard, mouse, display device, etc.) 19.
  • the input / output interface 15 functions as a means for acquiring or outputting data.
  • the bus 16 connects each component.
  • the information processing device can be realized as a dedicated device. Further, the information processing device can be realized based on a combination of a plurality of devices.
  • a processing method in which a program for realizing each component in the function of each embodiment is recorded in a storage medium, the program recorded in the storage medium is read out as a code, and the program is executed in a computer is also included in the category of each embodiment. .. That is, a computer-readable storage medium is also included in the scope of each embodiment. Further, the storage medium in which the above-mentioned program is recorded and the program itself are also included in each embodiment.
  • the storage medium is, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD (Compact Disc) -ROM, a magnetic tape, a non-volatile memory card, or a ROM, but the storage medium is not limited to this example.
  • the program recorded on the storage medium is not limited to a program that executes processing by itself, but operates on an OS (Operating System) in cooperation with other software and expansion board functions to execute processing. Programs to be implemented are also included in the category of each embodiment.
  • the determination means determines whether or not the number of passengers of the vehicle can be estimated from the photographed image based on the weather data of the place where the photographing device for photographing the vehicle is installed or the information regarding the abnormality of the photographing device. , The information processing apparatus according to Appendix 1.
  • Appendix 3 A second estimation means for estimating the number of passengers based on the captured image is provided.
  • the determination means determines whether or not the number of passengers of the vehicle can be estimated from the captured image according to the number of passengers estimated based on the captured image.
  • the information processing apparatus according to Appendix 1 or 2.
  • the information regarding the signal is information for identifying a communication device that outputs the signal.
  • the information processing apparatus according to any one of Supplementary note 1 to 3.
  • the senor When it is determined that the number of passengers cannot be estimated, the sensor is provided with a control means for controlling the detection of the signal from the range including the vehicle.
  • the information processing apparatus according to any one of Supplementary note 1 to 4.
  • a registration means is provided for registering information about the signal, the estimated number of passengers, and the captured image in a database in association with each other.
  • the information processing apparatus according to any one of Supplementary Provisions 1 to 5.
  • Appendix 7 A collation means for collating the information regarding the signal detected from the range including the vehicle with the information regarding the signal registered in the database.
  • the information processing apparatus according to Appendix 6.
  • the information regarding the signal is radio wave characteristic information indicating the characteristics of the signal waveform of the radio wave output by the communication device.
  • the information processing apparatus according to any one of Supplementary Provisions 1 to 7.
  • the information regarding the signal is a MAC address included in the signal transmitted by the communication device.
  • the information processing apparatus according to any one of Supplementary Provisions 1 to 7.
  • An alarm generating means for generating an alarm when the estimated number of passengers is equal to or more than a predetermined value is provided.
  • the information processing apparatus according to any one of Supplementary note 1 to 9.
  • Appendix 13 It is determined whether or not the number of passengers of the vehicle can be estimated from the photographed image based on the weather data of the place where the photographing device for photographing the vehicle is installed or the information regarding the abnormality of the photographing device. The information processing method according to Appendix 12.
  • Appendix 14 The number of passengers is estimated based on the captured image, and the number of passengers is estimated. It is determined whether or not the number of passengers of the vehicle can be estimated from the photographed image according to the number of passengers estimated based on the photographed image.
  • the information regarding the signal is information for identifying a communication device that outputs the signal.
  • Information for identifying the communication device is extracted from the signal detected from the range including the vehicle.
  • the information processing method according to any one of Supplementary note 12 to 14.
  • Appendix 18 The information about the signal detected from the range including the vehicle and the information about the signal registered in the database are collated. The information processing method according to Appendix 17.
  • the information regarding the signal is radio wave characteristic information indicating the characteristics of the signal waveform of the radio wave output by the communication device.
  • the information processing method according to any one of Supplementary note 12 to 18.
  • the information regarding the signal is a MAC address included in the signal transmitted by the communication device.
  • the information processing method according to any one of Supplementary note 12 to 18.
  • Appendix 23 Based on the weather data of the installation location of the photographing device for photographing the vehicle or the information regarding the abnormality of the photographing device, the computer is subjected to a process of determining whether or not the number of passengers of the vehicle can be estimated from the photographed image. Store the program to be executed, The computer-readable storage medium according to Appendix 22.
  • Appendix 24 The process of estimating the number of passengers based on the captured image and A program for causing a computer to execute a process of determining whether or not the number of passengers of the vehicle can be estimated from the captured image according to the number of passengers estimated based on the captured image is stored.
  • the information regarding the signal is information for identifying a communication device that outputs the signal.
  • the computer-readable storage medium according to any one of Supplementary note 22 to 24, which stores a program for causing a computer to execute a process of extracting information identifying the communication device from a signal detected from a range including the vehicle.
  • Appendix 27 Stores a program that causes a computer to execute a process of associating information about the signal, the estimated number of passengers, and the captured image in a database.
  • the computer-readable storage medium according to any one of Supplementary note 22 to 26.
  • Appendix 28 Stores a program that causes a computer to execute a process of collating information about a signal detected from a range including the vehicle with information about the signal registered in the database.
  • the information regarding the signal is radio wave characteristic information indicating the characteristics of the signal waveform of the radio wave output by the communication device.
  • the computer-readable storage medium according to any one of Supplementary note 22 to 28.
  • the information regarding the signal is a MAC address included in the signal transmitted by the communication device.
  • the computer-readable storage medium according to any one of Supplementary note 22 to 28.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

撮影画像から車両の搭乗人数を推定することが困難な場合であっても、搭乗人数を推定することができる情報処理装置等を提供する。本開示の一態様の情報処理装置は、車両が撮影された撮影画像から前記車両の搭乗人数を推定できるか否か判定する判定手段と、前記搭乗人数を推定できないと判定された場合、前記車両を含む範囲から検出される信号に関する情報に基づいて、前記搭乗人数を推定する第1推定手段と、を備える。

Description

情報処理装置、情報処理方法、情報処理システム、及びコンピュータ読み取り可能な記憶媒体
 本開示は、通信機器から出力される信号を活用する技術に関する。
 道路を通行する車両の搭乗人数を推定する技術が存在する。
 例えば、特許文献1には、カメラによって撮影された撮影画像に対して、人物を検出する処理を行い、人物の検出結果を統合することによって、車両の搭乗人数を推定する技術が開示される。
国際公開第2014/064898号
 特許文献1に開示される技術では、撮影画像から得られる情報のみに基づいて車両の搭乗人数を推定している。そのため、例えば、霧の発生や降雪等のような悪天候によって、撮影画像に鮮明に車両が映らなかったり、カメラに何らかの異常が発生したことによって撮影画像が確実に取得できなかったりする場合に、搭乗人数を推定することが困難となる虞がある。
 本開示は、上記課題を鑑みてなされたものであり、撮影画像から車両の搭乗人数を推定することが困難な場合であっても、搭乗人数を推定することができる情報処理装置等を提供することを目的の一つとする。
 本開示の一態様の情報処理装置は、車両が撮影された撮影画像から前記車両の搭乗人数を推定できるか否か判定する判定手段と、前記搭乗人数を推定できないと判定された場合、前記車両を含む範囲から検出される信号に関する情報に基づいて、前記搭乗人数を推定する第1推定手段と、を備える。
 本開示の一態様の情報処理方法は、車両が撮影された撮影画像から前記車両の搭乗人数を推定できるか否か判定し、前記搭乗人数を推定できないと判定された場合、前記車両を含む範囲から検出される信号に関する情報に基づいて、前記搭乗人数を推定する。
 本開示の一態様のコンピュータ読み取り可能な記憶媒体は、車両が撮影された撮影画像から前記車両の搭乗人数を推定できるか否か判定する処理と、前記搭乗人数を推定できないと判定された場合、前記車両を含む範囲から検出される信号に関する情報に基づいて、前記搭乗人数を推定する処理と、をコンピュータに実行させるプログラムを格納する。
 本開示によれば、撮影画像から車両の搭乗人数を推定することが困難な場合であっても、搭乗人数を推定することができる。
本開示の第1の実施形態の情報処理システムの構成の一例を模式的に示す図である。 本開示の第1の実施形態の情報処理装置の機能構成の一例を含むブロック図である。 本開示の第1の実施形態のデータベースの一例を示す図である。 本開示の第1の実施形態の情報処理装置の動作の一例を示すフローチャートである。 本開示の第2の実施形態の情報処理装置の機能構成の一例を含むブロック図である。 本開示の第2の実施形態の情報処理装置の動作の一例を示すフローチャートである。 本開示の第3の実施形態の情報処理装置の機能構成の一例を含むブロック図である。 本開示の第3の実施形態の情報処理装置の動作の一例を示すフローチャートである。 本開示の第4の実施形態の情報処理装置の機能構成の一例を含むブロック図である。 本開示の第5の実施形態の情報処理装置の機能構成の一例を示すブロック図である。 本開示の第5の実施形態の情報処理装置の動作の一例を示すフローチャートである。 本開示の第1、第2、第3、第4、及び第5の実施形態の情報処理装置を実現するコンピュータ装置のハードウェア構成の一例を示すブロック図である。
 以下に、本開示の実施形態について、図面を参照しつつ説明する。
 <第1の実施形態>
 第1の実施形態の情報処理装置を含む情報処理システムについて説明する。
 図1は、第1の実施形態の情報処理システム1000の構成の一例を模式的に示す図である。図1に示すように情報処理システム1000は、情報処理装置100と、撮影装置200と、センサ300とを備える。情報処理装置100は、撮影装置200及びセンサ300と、有線または無線で通信可能に接続される。なお、撮影装置200とセンサ300とは、一体型の装置であってもよい。また、情報処理装置100は、撮影装置200及びセンサ300のいずれか、または双方と一体型の装置であってもよい。なお、情報処理装置100は、図1に示すように、記憶装置400及び端末500とも、有線または無線で通信可能に接続されてもよい。また、記憶装置400は、情報処理装置100に搭載されてもよい。端末500は、情報処理装置100と、ネットワークを介して通信するための入出力手段を備えた装置である。端末500は、パーソナルコンピュータであってもよいし、スマートフォンまたはタブレット型端末等の携帯型の端末であってもよい。
 図1に示す状況においては、撮影装置200は車両を撮影している。センサ300は、撮影装置200が撮影する範囲を含む範囲において所定の信号を検出する。なお、撮影装置200及びセンサ300は複数個所に設置されてもよい。情報処理装置100は、検出された信号に関する情報に基づいて車両の搭乗人数を推定する。ここで、車両には、一以上の人物が搭乗している。情報処理装置100は、人物が所持するスマートフォン等の通信機器から出力される信号に関する情報を取得することにより、通信機器の数を算出することができる。そして、情報処理装置100は、算出された通信機器の数に基づいて、車両の搭乗人数を推定する。
 次に、情報処理システム1000の構成の詳細について説明する。
 [撮影装置200の詳細]
 撮影装置200は、所定の範囲を撮影し、撮影データを生成する。本明細書において、撮影装置200が撮影する実空間上の範囲を、撮影範囲とも称し、撮影装置200が撮影した画像を撮影画像とも称する。撮影画像は、静止画像であってもよいし、動画像を構成する複数のフレームのいずれかであってもよい。撮影範囲に車両が存在する場合、撮影画像には車両が映る。撮影データは、撮影画像を構成する情報を示す。また、撮影データは、撮影画像がエンコードされたデータであってもよい。そして、撮影装置200は、情報処理装置100に撮影データを送信する。情報処理装置100は、例えば、撮影装置200から受信した撮影データをデコードすることにより、撮影画像を取得する。なお、撮影データには、撮影装置200を識別する情報が含まれてもよい。さらに、撮影データには、撮影された時刻の情報、撮影場所を示す情報、及び撮影装置200を識別する情報が含まれてもよい。この場合、撮影装置200には、時刻を算出する機能、及び撮影場所を示す情報を記憶する記憶部(図示せず)を備える。
 撮影装置200は、撮影範囲を継続的に撮影し、撮影データを情報処理装置100に順次送信してもよい。また、撮影装置200と通信可能に接続される動体センサ(図示せず)を撮影範囲周辺に設置してもよい。そして、動体センサが動体を検知した場合、すなわち、車両が通ったことを検知した場合に、撮影装置200は撮影を行ってもよい。
 [センサ300の詳細]
 センサ300は、所定の範囲に存在する通信機器から出力される信号を検出し、検出データを生成する。本明細書において、センサ300が信号を検出する実空間上の範囲を、検出範囲とも称する。信号を出力する通信機器は、例えば、携帯電話、スマートフォン、またはタブレット型端末等であるが、この例に限らない。センサ300は、例えば、撮影範囲を包含する範囲において、信号を検出することができる。また、センサ300は、例えば、所定の周波数帯の信号を検出可能な一つのセンサであるが、センサ300の例はこの例に限らない。例えば、センサ300は、複数のセンサで構成されてもよい。このとき複数のセンサは、それぞれ異なる周波数帯の信号を検出可能なセンサであってもよい。検出データは、センサ300が検出した信号を示す情報である。センサ300は、検出データを情報処理装置100に送信する。
 検出される信号は、通信機器から出力される電波であってもよい。すなわち、センサ300は、例えば、検出範囲に存在する通信機器から出力される電波を検出し、検出データを生成することができる。通信機器は、任意の通信方式の電波を出力する機器であってよい。このとき、検出データには、検出された電波の信号波形を示す情報が含まれる。電波の信号波形を示す情報は、例えば、電波信号の、時系列の振幅値を示す情報である。センサ300が検出する電波は、例えば、LTE(Long Term Evolution)、無線LAN(Local Area Network)、近距離無線等の電波であってもよい。なお、通信機器がスマートフォン等である場合、電波が出力されるタイミングは、例えば、音声通話時、アプリケーションの作動による通信時、または通信機器と基地局とのポーリング通信時等である。
 センサ300は、検出データを情報処理装置100に送信する。このとき、検出データには、センサ300の識別情報が含まれてもよい。さらに、検出データには、電波が検出された時刻を示す情報、センサ300が設置された場所を示す情報、及びセンサ300を識別する情報が含まれてもよい。この場合、センサ300には、時刻を算出する機能、及び、場所を示す情報を記憶する記憶部(図示せず)を備える。
 また、センサ300は、情報処理装置100によって制御されてもよい。例えば、センサ300は、情報処理装置100からの指示に応じて、信号の検出の開始及び停止を行ってもよい。また、センサ300は、情報処理装置100からの指示に応じて、検出範囲を変えてもよい。
 [情報処理装置100の詳細]
 次に、情報処理装置100の詳細を、図2を用いて説明する。図2は、情報処理装置100の機能構成の一例を示す図である。図2に示すように、情報処理装置100は、判定部110と、第1推定部120と、抽出部130と、第2推定部140と、登録部150と、を備える。
 判定部110は、撮影画像から搭乗人数を推定できるか否か判定する。例えば、判定部110は、撮影装置200が行う撮影に影響し得るデータである撮影環境データを取得する。そして、判定部110は、撮影環境データに基づいて、搭乗人数を推定できるか否か判定する。例えば、判定部110は、撮影環境データとして、撮影装置200が設置されている場所の気象データを、インターネットを通じて取得する。そして、判定部110は、撮影装置200が設置されている場所において、雨や雪が降っていたり、霧が発生したりしている場合に、撮影画像から搭乗人数を推定できないと判定してもよい。このとき、判定部110は、気象データに、大雨、大雪、及び濃霧等の注意報または警報を示す情報が含まれていた場合に、撮影画像から搭乗人数を推定できないと判定してもよい。
 あるいは、判定部110は、例えば、撮影環境データとして、撮影装置200の異常に関する情報を取得することによって、撮影画像から搭乗人数を推定できないと判定してもよい。例えば、撮影装置200において、レンズの故障や電源の故障等が発生したとする。このとき、撮影装置200は、故障が発生したことを示す通知を情報処理装置100に行う。判定部110は、当該通知を、異常に関する情報とし、撮影画像から搭乗人数を推定できないと判断してもよい。なお、判定部110は、撮影装置200の異常に関する情報を、ユーザが端末500を通じて入力することにより取得してもよい。
 撮影画像に白飛び及び黒つぶれが発生したり、振動やレンズの付着物等により撮影画像がぼやけたりすることがある。このように、撮影画像の品質が悪い場合、撮影画像から正確に搭乗人数を推定することができない虞がある。そこで、判定部110は、撮影環境データとして、撮影画像の品質に関する情報を取得し、品質に関する情報に基づいて撮影画像から搭乗人数を推定できるか否か判定してもよい。品質に関する情報は、撮影画像から取得可能な情報である。例えば、品質に関する情報は、撮影画像の画素値のヒストグラムや、撮影画像から検出されるエッジの量に関する指標であるが、この例に限らない。品質に関する情報は、撮影画像に種々の画像処理を行った結果であってもよい。例えば、判定部110は、撮影画像から画素値のヒストグラムを取得し、ヒストグラムの偏りから撮影画像に白飛びまたは黒つぶれが発生したと判定する。そして、判定部110は、撮影画像に白飛びまたは黒つぶれが発生した場合に、撮影画像から搭乗人数を推定することができないと判定してもよい。また、例えば、判定部110は、撮影画像から検出されるエッジの量に関する指標を取得し、指標が所定の閾値未満の場合、撮影画像から検出されるエッジの量が少ない、すなわち、撮影画像がぼやけていると判定する。そして、判定部110は、撮影画像がぼやけている場合に、撮影画像から搭乗人数を推定することができないと判定してもよい。
 このように、判定部110は、車両が撮影された撮影画像から車両の搭乗人数を推定できるか否か判定する。判定部110は、判定手段の一例である。
 第1推定部120は、撮影画像から搭乗人数を推定できないと判定された場合に、車両を含む範囲から検出される信号に関する情報に基づいて、車両の搭乗人数を推定する。信号に関する情報とは、例えば、通信機器から出力される信号に含まれる、通信機器を識別する情報である。第1推定部120は、例えば、センサ300によって検出された信号を示す情報(すなわち検出データ)から抽出される、通信機器を識別する情報を取得する。そして、第1推定部120は、通信機器を識別する情報を用いて、信号を出力した通信機器の数を算出し、算出した通信機器の数に基づいて、車両の搭乗人数を推定する。
 ここで、検出データに、センサ300によって検出された電波の信号波形を示す情報が含まれていた場合、第1推定部120は、電波特徴情報を、通信機器を識別する情報として用いてもよい。電波特徴情報は、電波の信号波形を示す情報から抽出される情報であり、電波を出力する通信機器ごとに異なる、電波の信号波形の特徴を示す情報である。第1推定部120は、電波特徴情報に基づいて、通信機器の数を算出してもよい。
 電波を出力する通信機器は、あらかじめ定められた通信規格を満たすように製造されるが、アナログ回路のばらつき等により、微小な個体差が存在している。したがって、電波は、発信源である機器の個体差に基づき識別可能な特徴量を有する。電波特徴情報は、例えば、変調解析による変調誤差に基づく特徴量や、電波の時間波形に基づく特徴量等である。また、例えば、電波特徴情報は、受信信号のトランジェント(立ち上がりおよび立下り)、プリアンブル部分の電力スペクトル密度、エラーベクトル振幅(Error Vector Magnitude:EVM)、IQ(In-phase Quadrature-phase)位相誤差、IQインバランス量、周波数オフセット、および、シンボルクロック誤差のうち一以上を示す特徴量であってもよいが、これらに限定されない。
 電波特徴情報は、通信機器のハードウェアに依存するため、人手での書き換えが難しい。そのため、電波特徴情報は、意図的に擬装される可能性が低い情報である。また、電波特徴情報は、電波によって伝送されている情報の種別、例えば携帯電話事業者などと関係なく、個々の通信機器を識別することが可能な情報である。
 なお、電波の信号波形を示す情報から電波特徴情報を抽出する処理は、例えば、抽出部130によって所定のルールに従って行われる。ここで、抽出部130は、電波の信号波形を示す情報から、電波特徴情報を抽出する際に機械学習を利用することができる。具体的には、抽出部130は、学習データに基づいて生成された抽出モデルを使用することで、電波の信号波形を示す情報から電波特徴情報を抽出することができる。例えば、学習データには、様々な通信機器から出力される電波の信号波形を示す情報と、電波の信号波形を示す情報の各々に対応する電波特徴情報が含まれる。このような学習データを用いることにより、電波の信号波形を示す情報を入力とし、電波特徴情報を出力とする抽出モデルを生成することができる。なお、学習データ及び抽出モデルは、予め記憶装置400に格納されていてもよい。また、学習モデルの生成は、抽出部130が行ってもよい。このように、抽出部130は、車両を含む範囲から検出される信号から、通信機器を識別する情報を抽出する。抽出部130は、抽出手段の一例である。
 第1推定部120は、例えば、電波特徴情報の種類または数に基づいて、検出範囲に存在する通信機器の数を算出する。第1推定部120は、例えば、算出された通信機器の数を、車両の搭乗人数として推定することができる。なお、算出された通信機器の数を、そのまま搭乗人数としなくてもよい。例えば、算出された通信機器の数が3である場合に、第1推定部120は、搭乗人数が2人から4人であると推定してもよい。すなわち、第1推定部120は、推定される搭乗人数として、所定の範囲の値を出力してもよい。第1推定部120は、推定した結果を示す情報を、記憶装置400に格納してもよいし、端末500に出力してもよい。
 このように、第1推定部120は、搭乗人数を推定できないと判定された場合、車両を含む範囲から検出される信号に関する情報に基づいて、搭乗人数を推定する。第1推定部120は、第1推定手段の一例である。
 第2推定部140は、撮影画像に基づいて車両の搭乗人数を推定する。例えば、第2推定部140は、撮影装置200によって撮影された撮影画像から、人物を検出し、検出した人物の数を算出することにより搭乗人数を推定する。撮影画像から人物を検出する方法としては、人物の顔または体の形を検出することによる方法であってもよいし、人物の画像を用いたパターンマッチングを行うことにより、撮影画像から人物を検出してもよい。パターンマッチングを行う場合、人物の画像は、例えば記憶装置400に予め格納されていてもよい。また、撮影画像から搭乗人数を推定する方法は、例えば、特許文献1に記載された方法であってもよい。第2推定部は、第2推定手段の一例である。
 登録部150は、信号に関する情報と、推定された搭乗人数と、撮影画像とを関連付けたデータを、データベースに登録する。データベースは、例えば記憶装置400に格納される。信号に関する情報が複数ある場合、登録部150は、複数の信号に関する情報と、推定された搭乗人数と、撮影画像とを関連付ける。また、信号に関する情報等と関連付けられる画像は、撮影装置200が撮影した画像を加工した画像であってもよい。例えば、登録部150は、撮影装置200が撮影した画像のうち、車両が映る領域が切り出された画像を、信号に関する情報等と関連付けてデータベースに登録してもよい。また、登録部150は、撮影画像から抽出される、車両に関する情報をさらに関連付けてデータベースに登録してもよい。例えば、登録部150は、撮影画像から車両のナンバープレートを読み取り、読み取ったナンバープレートの情報を、信号に関する情報等と関連付けてデータベースに登録してもよい。ナンバープレートを読み取る処理は、例えば、抽出部130が行ってもよい。また、ナンバープレートを読み取る処理は、情報処理装置100と接続された外部装置(図示せず)によって行われてもよい。また、登録部150は、撮影画像に映る車両の乗車定員をさらに関連付けてもよい。例えば、抽出部130が、撮影画像に映る車両の大きさ及び形状から車両の乗車定員を推測してもよい。
 図3は、データベースの一例を示す図である。この例では、電波特徴情報が、信号に関する情報として設定されている。図6の一行目のレコードには、電波特徴情報である「データA」及び「データB」と、撮影画像であるデータ1と、搭乗人数を示す「2」と、が関連付けられている。また、図6に示すように、登録部150は、信号に関する情報と撮影画像と搭乗人数とを関連付けたデータに、さらに時刻と場所の情報を関連付けてもよい。時刻の情報は、例えば、撮影装置200が撮影した時刻及びセンサ300が信号を検出した時刻のいずれかであってもよいし、情報処理装置100が撮影データまたは検出データを取得した時刻であってもよい。場所の情報は、例えば、撮影データに含まれる、撮影装置200の設置場所の情報であってもよいし、検出データに含まれる、センサ300の設置場所の情報であってもよい。なお、撮影データ及び検出データに場所の情報が含まれていない場合、登録部150は、撮影データに含まれる、撮影装置200を識別する情報、または検出データに含まれる、センサ300を識別する情報を用いて、場所の情報を取得してもよい。この場合、撮影装置200を識別する情報と撮影装置200の設置場所の情報とが関連付けられたデータベース、または、センサ300を識別する情報とセンサ300の設置場所の情報とが関連付けられたデータベースが予め記憶装置400に格納される。例えば、登録部150は、検出データに含まれる、センサ300を識別する情報に関連付けられた場所の情報を、データベースから特定する。
 このように、登録部150は、信号に関する情報と、推定された搭乗人数と、撮影画像とを関連付けてデータベースに登録する。登録部150は、登録手段の一例である。
 なお、登録部150は、信号に関する情報と搭乗人数と撮影画像とのうち、いずれか二つを関連付けたデータを登録してもよい。例えば、登録部150は、信号に関する情報と撮影画像とを関連付けたデータを登録してもよいし、信号に関する情報と搭乗人数とを関連付けたデータを登録してもよい。
 [情報処理装置100の動作]
 次に、情報処理装置100の動作を、図4を用いて説明する。本動作例において、情報処理装置100は、撮影画像と検出データとを取得しているものとする。このとき検出データには、センサ300が検出した電波の信号波形を示す情報が含まれているとする。また、本動作例において、情報処理装置100は、撮影環境データとして、気象データを取得しているものとする。なお、本明細書において、フローチャートの各ステップを「S101」のように、各々のステップに付した番号を用いて表現する。
 図4は、情報処理装置100の動作の一例を説明するフローチャートである。まず、判定部110は、撮影環境データに基づいて、撮影画像から搭乗人数を推定できるか否か判定する(S101)。撮影画像から搭乗人数を推定できないと判定された場合(S102の「No」)、抽出部130は、検出データに含まれる電波の信号波形を示す情報から、電波特徴情報を抽出する(S103)。そして、第1推定部120は、抽出された電波特徴情報に基づいて、搭乗人数を推定する(S104)。登録部150は、電波特徴情報と撮影画像と推定された搭乗人数とを関連付けてデータベースに登録する(S105)。
 S102の処理において「Yes」の場合、すなわち、撮影画像から搭乗人数を推定できると判定された場合、第2推定部140は、撮影画像に基づいて搭乗人数を推定する(S106)。そして、S105の処理を行う。
 なお、情報処理装置100が、撮影環境データとして、撮影装置200の異常に関する情報を取得した場合に、撮影画像が得られない可能性がある。この場合には、S105の処理において、登録部150は、電波特徴情報と搭乗人数とを関連付けてデータベースに登録してもよい。
 このように、第1の実施形態の情報処理装置100は、車両が撮影された撮影画像から車両の搭乗人数を推定できるか否か判定し、搭乗人数を推定できないと判定された場合、車両を含む範囲から検出される信号に関する情報に基づいて、搭乗人数を推定する。これにより、情報処理装置100は、車両が撮影された撮影画像を用いなくても、車両の搭乗人数を推定することができる。すなわち、第1の実施形態の情報処理装置100は、撮影画像から車両の搭乗人数を推定することが困難な場合であっても、搭乗人数を推定することができるという効果を奏する。
 なお、本開示における情報処理システム1000は、例えば、道路上に設置される、速度計測装置等と組み合わせて用いられることが可能である。速度計測装置とは、車両の速度を測定し、測定された速度が、予め定められている閾値を超えているか否かを判定する装置である。例えば情報処理システム1000は、速度が閾値を超えたと判定された車両の撮影画像と信号に関する情報とを関連付けてデータベースに登録することができる。これにより、情報処理システム1000は、閾値を超えた速度の車両に搭乗していた人物を特定するための情報を提示することができる。
 また、本開示における情報処理システム1000は、道路の利用状況の監視にも用いられることが可能である。例えば、搭乗人数が規定人数以上の車両のみ走行可能な車線が存在する。規定人数以上の車両のみ走行可能な車線は、HOV(High Occupancy Vehicles)レーン、カープールレーン、またはライドシェアリングレーンとも呼ばれる。情報処理システム1000は、車両の搭乗人数が推定できるので、このような車線が正しく使用されているか監視するためのデータを提示することができる。
 [変形例1]
 上述の実施形態では、情報処理装置100が、信号に関する情報として電波特徴情報を用いて、搭乗人数を推定する例について説明した。信号に関する情報は、この例に限らない。
 例えば、スマートフォンやタブレット型端末等の通信機器は、周囲のアクセスポイントと通信できるか否かを確認するために、定期的に信号を送信する。このとき送信される信号は、プローブ要求信号とも称される。センサ300は、プローブ要求信号を検出し、当該プローブ要求信号を示す情報を含む検出データを生成してもよい。
 この場合、抽出部130は、検出データを受け取ると、プローブ要求信号に含まれる送信元MAC(Media Access Control)アドレスを抽出する。第1推定部120は、抽出されたMACアドレスを通信機器の識別子とし、当該識別子の数に基づいて、検出範囲に存在する通信機器の数を算出する。そして、第1推定部120は、算出された通信機器の数に基づいて、搭乗人数を推定する。
 [変形例2]
 上述の実施形態では、情報処理装置100の抽出部130が、センサ300によって検出された信号を示す情報から、通信機器を識別する情報を抽出する例について説明した。通信機器を識別する情報を抽出する処理は、センサ300によって行われてもよい。
 通信機器を識別する情報が、電波特徴情報であるとする。このとき、センサ300は、検出範囲において電波を検出すると、検出した電波の信号波形から電波特徴情報を抽出する。センサ300は、抽出した電波特徴情報を含む検出データを情報処理装置100に送信する。このとき、抽出モデルは、センサ300が備える記憶装置(図示せず)に予め格納されていてもよい。
 通信機器を識別する情報をMACアドレスとする場合、センサ300は、例えば、検出したプローブ要求信号からMACアドレスを抽出する。そして、抽出したMACアドレスを示す情報を含む検出データを情報処理装置100に送信する。
 情報処理装置100の第1推定部120は、検出データに含まれる通信機器を識別する情報に基づいて、車両の搭乗人数を推定する。なお、本変形例の場合、情報処理装置100は、図4のフローチャートにおいて、S103処理を行わなくてもよい。
 [変形例3]
 情報処理装置100は、撮影環境データとして、第2推定部によって推定された搭乗人数を取得してもよい。すなわち、撮影環境データは、撮影画像に基づいて推定された搭乗人数であってもよい。このとき、判定部110は、当該搭乗人数が所定の値であるときに、撮影画像から搭乗人数を推定できないと判定してもよい。例えば、搭乗人数が0人と推定されたり、100人と推定されたりするなど、1台の車両の搭乗人数として不自然な人数が推定された場合に、判定部110は、撮影画像から搭乗人数を推定できないと判定してもよい。なお、搭乗人数として不自然な人数の基準は、この例に限らず、任意の数値が設定される。
 本変形例の場合、図4のフローチャートにおいて、S101の処理の前にS106の処理、すなわち、第2推定部140が、撮影画像に基づいて搭乗人数を推定する処理を行う。そして、判定部110が、撮影画像から搭乗人数を推定できないと判定した場合(S102の「No」)、情報処理装置100は、S103の処理に進む。判定部110が、撮影画像から搭乗人数を推定できると判定した場合(S102の「Yes」)、情報処理装置100は、S105の処理に進む。
 <第2の実施形態>
 次に、第2の実施形態の情報処理装置を含む情報処理システムについて説明する。第2の実施形態では、撮影画像から搭乗人数を推定できないと判定されたことに応じて、センサに信号を検出させる例について説明する。
 図5は、第2の実施形態の情報処理システム1001の構成の一例を示すブロック図である。図5に示す通り、情報処理システム1001は、第1の実施形態における情報処理装置100に代わり、情報処理装置101を備え、それ以外については、第1の実施形態で説明した情報処理システム1000と同様である。すなわち、情報処理システム1001は、情報処理装置101と、撮影装置200と、センサ300と、を備える。なお、図5に示す情報処理システム1001の構成及び動作が、第1の実施形態の説明と重複する内容については、説明を省略する。
 [情報処理装置101の詳細]
 図5に示すように、情報処理装置101は、判定部110、第1推定部120、抽出部130、第2推定部140、登録部150、及び制御部160を備える。
 制御部160は、センサ300を制御する。例えば、制御部160は、判定部110が、撮影画像から搭乗人数を推定できないと判定した場合に、センサ300に、信号の検出を開始する指示を行う。センサ300は、当該指示を受け付けると、検出範囲に対して信号の検出を行う。なお、制御部160は、センサ300の検出範囲を定めてもよい。
 このように、制御部160は、搭乗人数を推定できないと判定された場合、センサに、前記車両を含む範囲から前記信号を検出させる制御を行う。制御部160は、制御手段の一例である。
 なお、制御部160は、判定部110が、撮影画像から搭乗人数を推定できると判定した場合、センサ300に、信号の検出を停止する指示を行ってもよい。この場合、センサ300は、指示を受け取ると、信号の検出を停止する。
 [情報処理装置101の動作]
 次に、図6を用いて、情報処理装置101の動作を説明する。図6は、情報処理装置101の動作の一例を説明するフローチャートである。本動作例において、センサ300は、電波の信号波形を検出するものとする。
 S201及びS202の処理は、図4のS101とS102の処理と同様の処理である。撮影画像から搭乗人数を推定できないと判定された場合(S202の「No」)、制御部160は、センサ300に電波の検出を開始させる(S203)。抽出部130は、センサ300から検出データを取得すると(S204)、検出データに含まれる電波の信号波形を示す情報から、電波特徴情報を抽出する(S205)。そして、第1推定部120は、抽出された電波特徴情報に基づいて、搭乗人数を推定する(S206)。登録部150は、電波特徴情報と撮影画像と推定された搭乗人数とを関連付けてデータベースに登録する(S207)。
 S202の処理において「Yes」の場合、すなわち、撮影画像から搭乗人数を推定できると判定された場合、第2推定部140は、撮影画像に基づいて搭乗人数を推定する(S208)。そして、登録部150は、撮影画像と推定された搭乗人数とを関連付けてデータベースに登録する(S209)。
 このように、第2の実施形態の情報処理装置101は、搭乗人数を推定できないと判定された場合、センサに、車両を含む範囲から信号を検出させる制御を行う。これにより、情報処理装置101は、例えば、必要な場合にのみ、センサ300を稼働させることができる。そのため、情報処理装置101は、システムの消費電力を低減させることができる。
 <第3の実施形態>
 次に、第3の実施形態の情報処理装置を含む情報処理システムについて説明する。第3の実施形態では、データベースに登録された信号に関する情報と、センサによって検出された信号に関する情報と、を照合する例について説明する。
 図7は、第3の実施形態の情報処理システム1002の構成の一例を示すブロック図である。図7に示す通り、情報処理システム1002は、第1の実施形態における情報処理装置100に代わり、情報処理装置102を備え、それ以外については、第1の実施形態で説明した情報処理システム1000と同様である。すなわち、情報処理システム1002は、情報処理装置102と、撮影装置200と、センサ300と、を備える。なお、図7に示す情報処理システム1002の構成及び動作が、第1及び第2の実施形態の説明と重複する内容については、説明を省略する。
 [情報処理装置102の詳細]
 図7に示すように、情報処理装置102は、判定部110、第1推定部120、抽出部130、第2推定部140、登録部150、制御部160、照合部170、及び出力部180を備える。
 照合部170は、センサ300によって検出された信号に関する情報と、データベースに登録された信号に関する情報と、を照合する。例えば、信号に関する情報として、データベースに電波特徴情報が登録されているとする。この場合、抽出部130は、検出データから電波特徴情報を抽出する。そして、照合部170は、抽出された電波特徴情報と、データベースに登録された電波特徴情報とを照合する。
 ここで、照合部170は、信号に関する情報の照合を行う際に、機械学習を利用することができる。具体的には、照合部170は、学習データに基づいて生成された照合モデルを使用して、照合が合致するか否かを判定する。照合モデルは、例えば、抽出された信号に関する情報と登録された信号に関する情報とを照合し、合致しているか否か判定するためのモデルである。照合モデルに対して、抽出された信号に関する情報を入力することにより、登録された信号に関する情報との類似度が算出される。照合部170は、類似度が所定の値以上である場合、照合部170は、照合が合致したと判定する。
 このように、照合部170は、車両を含む範囲から検出される信号に関する情報と、データベースに登録される信号に関する情報と、を照合する。照合部170は、照合手段の一例である。
 出力部180は、照合部170による照合結果を出力する。例えば、照合部170による照合が合致した場合、出力部180は、照合が合致したことを示す情報を、端末500に送信し、照合が合致したことを示す情報を端末500において出力する。このとき、出力部180は、信号が検出された時刻、信号が検出された場所、信号が検出された場所の撮影画像、及び推定された搭乗人数の少なくともいずれかを、端末500に出力してもよい。また、出力部180は、照合が合致した場合に、当該照合に用いられた信号に関する情報を含むレコードの情報を、端末500に出力してもよい。このとき、出力部180は、レコードに含まれる情報の少なくとも一を出力してもよい。例えば、図3に示すデータベースのレコードが特定された場合、出力部180は、電波特徴情報、撮影画像、搭乗人数、時刻、及び場所のうち、少なくとも一の情報を出力してもよい。また、出力部180は、照合部170による照合が合致しなかった場合、照合が合致しなかった旨を示す情報を端末500に出力してもよい。端末500は、例えば、端末500が有するディスプレイに、出力部180から受け取った情報を表示する。
 [情報処理装置102の動作]
 次に、図8を用いて、情報処理装置102の動作を説明する。図8は、情報処理装置102の動作の一例を説明するフローチャートである。なお、本動作例においては、図4に示す動作によって、データベースに少なくとも一以上のレコードが登録されているものとする。また、センサ300は、電波を検出し、検出した電波の信号波形を示す情報を含む検出データを生成するものとする。
 まず、抽出部130は、電波の信号波形を示す情報から、電波特徴情報を抽出する(S301)。照合部170は、抽出された電波特徴情報と、データベースに登録される電波特徴情報とを照合する(S302)。照合が合致した場合(S303の「Yes」)、出力部180は、端末500に、照合結果を出力する(S304)。例えば、出力部180は、電波特徴情報を含む電波が検出された場所及び時刻、並びに当該電波が検出された場所の撮影画像を出力する。照合が合致しなかった場合(S203の「No」)、フローを終了する。
 このように、第3の実施形態の情報処理装置102は、車両を含む範囲から検出される信号に関する情報と、データベースに登録される信号に関する情報と、を照合する。これにより、情報処理装置102は、信号に関する情報を用いて、特定の人物の検出、及び、特定の人物が搭乗している車両の検出を行うことができる。
 <第4の実施形態>
 次に、第4の実施形態の情報処理装置を含む情報処理システムについて説明する。第4の実施形態では、推定された搭乗人数に応じてアラームを発生させる例について説明する。
 図9は、第4の実施形態の情報処理システム1003の構成の一例を示すブロック図である。図7に示す通り、情報処理システム1003は、第1の実施形態における情報処理装置100に代わり、情報処理装置103を備え、それ以外については、第1の実施形態で説明した情報処理システム1000と同様である。すなわち、情報処理システム1003は、情報処理装置103と、撮影装置200と、センサ300と、を備える。なお、図9に示す情報処理システム1002の構成及び動作が、第1、第2及び第3の実施形態の説明と重複する内容については、説明を省略する。
 [情報処理装置103の詳細]
 図9に示すように、情報処理装置103は、判定部110、第1推定部120、抽出部130、第2推定部140、登録部150、制御部160、照合部170、出力部180、及びアラーム発生部190を備える。
 アラーム発生部190は、第1推定部120または第2推定部140において推定された搭乗人数が所定の値以上である場合にアラームを発生させる。ここでアラームは、例えば、端末500が有するスピーカーから発生させる音、または端末500が有するランプから発生させる光等であるが、この例に限らない。例えば、アラーム発生部190は、端末500が有するディスプレイに、搭乗人数が所定の値以上であることを示す情報、及び搭乗人数に関する情報を表示させてもよい。このとき、アラーム発生部190は、さらに、搭乗人数が所定の値以上であると推定された車両が映る撮影画像、当該車両がいた場所、及び当該車両がいた時刻の情報を表示させてもよい。なお、アラーム発生部190は、上述した端末500が有するスピーカー、ランプまたはディスプレイに代わり、情報処理装置103と接続されるスピーカー、ランプまたはディスプレイにアラームを発生させてもよい。このように、アラーム発生部190は、照合が合致した場合に、推定された搭乗人数が所定の値以上である場合、アラームを発生させる。アラーム発生部190は、アラーム発生手段の一例である。
 アラーム発生部190は、例えば、図4のフローチャートのS104またはS106の処理以降に、アラームを発生させる処理を行う。
 このように、第4の実施形態の情報処理装置103は、推定された搭乗人数が所定の値以上である場合、アラームを発生させる。車両には乗車定員が定められている。情報処理装置103は、例えば、車両の乗車定員以上の値を所定の値として設定することにより、搭乗人数が乗車定員以上の車両を迅速に発見することができる。
 また、例えば、信号に関する情報に基づいて搭乗人数が推定される場合に、1台の車両から異常な数(例えば50)の搭乗人数が推定される場合がある。この場合、当該車両には、通信機器が50程度存在していることがわかる。第4の実施形態の情報処理装置103は、このような、多数の通信機器が存在する不審な車両を発見することもできる。
 <第5の実施形態>
 本開示における情報処理装置は、以下のような構成であってもよい。
 図10は、情報処理装置104の機能構成の一例を示すブロック図である。図1に示す情報処理システム1000において、情報処理装置100に代わり、情報処理装置104を備えるようにしてもよい。図10に示すように、情報処理装置104は、判定部111と第1推定部121とを備える。
 判定部111は、車両が撮影された撮影画像から車両の搭乗人数を推定できるか否か判定する。例えば、判定部111は、撮影装置200が行う撮影に影響し得るデータである撮影環境データを、インターネットを介して取得する。そして、判定部111は、例えば撮影環境データに基づいて、搭乗人数を推定できるか否か判定する。
 第1推定部121は、搭乗人数を推定できないと判定された場合、車両を含む範囲から検出される信号に関する情報に基づいて、搭乗人数を推定する。例えば、第1推定部121は、センサ300によって生成された検出データから抽出される、通信機器を識別する情報を取得する。そして、第1推定部121は、例えば、通信機器を識別する情報を用いて、車両の搭乗人数を推定する。
 図11は、情報処理装置104の動作の一例を説明するフローチャートである。まず、判定部111は、車両が撮影された撮影画像から所領の搭乗人数を推定できるか否か判定する(S501)。次に、第1推定部121は、搭乗人数を推定できないと判定部111により判定された場合、車両を含む範囲から検出される信号に関する情報に基づいて搭乗人数を推定する(S502)。
 このように、第5の実施形態の情報処理装置104は、車両が撮影された撮影画像から車両の搭乗人数を推定できるか否か判定し、搭乗人数を推定できないと判定された場合、車両を含む範囲から検出される信号に関する情報に基づいて、搭乗人数を推定する。これにより、情報処理装置104は、撮影画像から車両の搭乗人数を推定することが困難な場合であっても、車両を含む範囲から検出される信号から、搭乗人数を推定することができる。すなわち、第5の実施形態の情報処理装置104は、撮影画像から車両の搭乗人数を推定することが困難な場合であっても、搭乗人数を推定することができるという効果を奏する。
 <情報処理装置のハードウェアの構成例>
 上述した第1、第2、第3、第4、及び第5の実施形態の情報処理装置を構成するハードウェアについて説明する。図12は、各実施形態における情報処理装置を実現するコンピュータ装置のハードウェア構成の一例を示すブロック図である。図12が示す各ブロックは、各実施形態における情報処理装置及び情報処理方法を実現するコンピュータ装置10と、ソフトウェアとの組み合わせにより実現できる。
 図12に示すように、コンピュータ装置10は、プロセッサ11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、記憶装置14、入出力インタフェース15、バス16、及びドライブ装置17を備える。なお、情報処理装置は、複数の電気回路によって実現されてもよい。
 記憶装置14は、プログラム(コンピュータプログラム)18を格納する。プロセッサ11は、RAM12を用いて本情報処理装置のプログラム18を実行する。具体的には、例えば、プログラム18は、図4、図6、図8、及び図11に示す処理をコンピュータに実行させるプログラムを含む。プロセッサ11が、プログラム18を実行することに応じて、本情報処理装置の各構成要素(上述した、判定部110、111、第1推定部120、121、抽出部130、第2推定部140、登録部150、制御部160、照合部170、出力部180、アラーム発生部190等)の機能が実現される。プログラム18は、ROM13に記憶されていてもよい。また、プログラム18は、記憶媒体20に記録され、ドライブ装置17を用いて読み出されてもよいし、図示しない外部装置から図示しないネットワークを介してコンピュータ装置10に送信されてもよい。
 入出力インタフェース15は、周辺機器(キーボード、マウス、表示装置など)19とデータをやり取りする。入出力インタフェース15は、データを取得または出力する手段として機能する。バス16は、各構成要素を接続する。
 なお、情報処理装置の実現方法には様々な変形例がある。例えば、情報処理装置は、専用の装置として実現することができる。また、情報処理装置は、複数の装置の組み合わせに基づいて実現することができる。
 各実施形態の機能における各構成要素を実現するためのプログラムを記憶媒体に記録させ、該記憶媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記憶媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記憶媒体、及びそのプログラム自体も各実施形態に含まれる。
 該記憶媒体は、例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disc)-ROM、磁気テープ、不揮発性メモリカード、またはROMであるが、この例に限らない。また該記憶媒体に記録されたプログラムは、単体で処理を実行しているプログラムに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS(Operating System)上で動作して処理を実行するプログラムも各実施形態の範疇に含まれる。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうる様々な変更をすることができる。
 上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
 <付記>
 [付記1]
 車両が撮影された撮影画像から前記車両の搭乗人数を推定できるか否か判定する判定手段と、
 前記搭乗人数を推定できないと判定された場合、前記車両を含む範囲から検出される信号に関する情報に基づいて、前記搭乗人数を推定する第1推定手段と、を備える、
 情報処理装置。
 [付記2]
 前記判定手段は、前記車両を撮影する撮影装置の設置場所の気象データ、または、前記撮影装置の異常に関する情報に基づいて、前記撮影画像から、前記車両の搭乗人数を推定できるか否か判定する、
 付記1に記載の情報処理装置。
 [付記3]
 前記撮影画像に基づいて前記搭乗人数を推定する第2推定手段を備え、
 前記判定手段は、前記撮影画像に基づいて推定された前記搭乗人数に応じて、前記撮影画像から、前記車両の搭乗人数を推定できるか否か判定する、
 付記1または2に記載の情報処理装置。
 [付記4]
 前記信号に関する情報は、前記信号を出力する通信機器を識別する情報であり、
 前記車両を含む範囲から検出される信号から、前記通信機器を識別する情報を抽出する、抽出手段を備える、
 付記1乃至3のいずれかに記載の情報処理装置。
 [付記5]
 前記搭乗人数を推定できないと判定された場合、センサに、前記車両を含む範囲から前記信号を検出させる制御を行う制御手段を備える、
 付記1乃至4のいずれかに記載の情報処理装置。
 [付記6]
 前記信号に関する情報と、推定された前記搭乗人数と、前記撮影画像とを関連付けてデータベースに登録する、登録手段を備える、
 付記1乃至5のいずれかに記載の情報処理装置。
 [付記7]
 前記車両を含む範囲から検出される信号に関する情報と、前記データベースに登録される前記信号に関する情報と、を照合する照合手段を備える、
 付記6に記載の情報処理装置。
 [付記8]
 前記信号に関する情報は、通信機器が出力する電波の信号波形の特徴を示す電波特徴情報である、
 付記1乃至7のいずれかに記載の情報処理装置。
 [付記9]
 前記信号に関する情報は、通信機器が送信する信号に含まれるMACアドレスである、
 付記1乃至7のいずれかに記載の情報処理装置。
 [付記10]
 推定された前記搭乗人数が所定の値以上である場合、アラームを発生させるアラーム発生手段を備える、
 付記1乃至9のいずれかに記載の情報処理装置。
 [付記11]
 前記車両を撮影し、前記撮影画像を生成する撮影装置と、
 前記車両を含む範囲から前記信号を検出するセンサと、
 付記1乃至10のいずれかに記載の情報処理装置と、を備える、
 情報処理システム。
 [付記12]
 車両が撮影された撮影画像から前記車両の搭乗人数を推定できるか否か判定し、
 前記搭乗人数を推定できないと判定された場合、前記車両を含む範囲から検出される信号に関する情報に基づいて、前記搭乗人数を推定する、
 情報処理方法。
 [付記13]
 前記車両を撮影する撮影装置の設置場所の気象データ、または、前記撮影装置の異常に関する情報に基づいて、前記撮影画像から、前記車両の搭乗人数を推定できるか否か判定する、
 付記12に記載の情報処理方法。
 [付記14]
 前記撮影画像に基づいて前記搭乗人数を推定し、
 前記撮影画像に基づいて推定された前記搭乗人数に応じて、前記撮影画像から、前記車両の搭乗人数を推定できるか否か判定する、
 付記12または13に記載の情報処理方法。
 [付記15]
 前記信号に関する情報は、前記信号を出力する通信機器を識別する情報であり、
 前記車両を含む範囲から検出される信号から、前記通信機器を識別する情報を抽出する、
 付記12乃至14のいずれかに記載の情報処理方法。
 [付記16]
 前記搭乗人数を推定できないと判定された場合、センサに、前記車両を含む範囲から前記信号を検出させる制御を行う、
 付記12乃至15のいずれかに記載の情報処理方法。
 [付記17]
 前記信号に関する情報と、推定された前記搭乗人数と、前記撮影画像とを関連付けてデータベースに登録する、
 付記12乃至16のいずれかに記載の情報処理方法。
 [付記18]
 前記車両を含む範囲から検出される信号に関する情報と、前記データベースに登録される前記信号に関する情報と、を照合する、
 付記17に記載の情報処理方法。
 [付記19]
 前記信号に関する情報は、通信機器が出力する電波の信号波形の特徴を示す電波特徴情報である、
 付記12乃至18のいずれかに記載の情報処理方法。
 [付記20]
 前記信号に関する情報は、通信機器が送信する信号に含まれるMACアドレスである、
 付記12乃至18のいずれかに記載の情報処理方法。
 [付記21]
 推定された前記搭乗人数が所定の値以上である場合、アラームを発生させる、
 付記12乃至20のいずれかに記載の情報処理方法。
 [付記22]
 車両が撮影された撮影画像から前記車両の搭乗人数を推定できるか否か判定する処理と、
 前記搭乗人数を推定できないと判定された場合、前記車両を含む範囲から検出される信号に関する情報に基づいて、前記搭乗人数を推定する処理と、をコンピュータに実行させるプログラムを格納する、
 コンピュータ読み取り可能な記憶媒体。
 [付記23]
 前記車両を撮影する撮影装置の設置場所の気象データ、または、前記撮影装置の異常に関する情報に基づいて、前記撮影画像から、前記車両の搭乗人数を推定できるか否か判定する処理を、コンピュータに実行させるプログラムを格納する、
 付記22に記載のコンピュータ読み取り可能な記憶媒体。
 [付記24]
 前記撮影画像に基づいて前記搭乗人数を推定する処理と、
 前記撮影画像に基づいて推定された前記搭乗人数に応じて、前記撮影画像から、前記車両の搭乗人数を推定できるか否か判定する処理と、をコンピュータに実行させるプログラムを格納する、
 付記22または23に記載のコンピュータ読み取り可能な記憶媒体。
 [付記25]
 前記信号に関する情報は、前記信号を出力する通信機器を識別する情報であり、
 前記車両を含む範囲から検出される信号から、前記通信機器を識別する情報を抽出する処理を、コンピュータに実行させるプログラムを格納する
 付記22乃至24のいずれかに記載のコンピュータ読み取り可能な記憶媒体。
 [付記26]
 前記搭乗人数を推定できないと判定された場合、センサに、前記車両を含む範囲から前記信号を検出させる制御を行う処理を、コンピュータに実行させるプログラムを格納する、
 付記22乃至25のいずれかに記載のコンピュータ読み取り可能な記憶媒体。
 [付記27]
 前記信号に関する情報と、推定された前記搭乗人数と、前記撮影画像とを関連付けてデータベースに登録する処理を、コンピュータに実行させるプログラムを格納する、
 付記22乃至26のいずれかに記載のコンピュータ読み取り可能な記憶媒体。
 [付記28]
 前記車両を含む範囲から検出される信号に関する情報と、前記データベースに登録される前記信号に関する情報と、を照合する処理を、コンピュータに実行させるプログラムを格納する、
 付記27に記載のコンピュータ読み取り可能な記憶媒体。
 [付記29]
 前記信号に関する情報は、通信機器が出力する電波の信号波形の特徴を示す電波特徴情報である、
 付記22乃至28のいずれかに記載のコンピュータ読み取り可能な記憶媒体。
 [付記30]
 前記信号に関する情報は、通信機器が送信する信号に含まれるMACアドレスである、
 付記22乃至28のいずれかに記載のコンピュータ読み取り可能な記憶媒体。
 [付記31]
 推定された前記搭乗人数が所定の値以上である場合、アラームを発生させる処理を、コンピュータに実行させるプログラムを格納する、
 付記22乃至30のいずれかに記載のコンピュータ読み取り可能な記憶媒体。
 100、101、102、103、104 情報処理装置
 110、111 判定部
 120、121 第1推定部
 130 抽出部
 140 第2推定部
 150 登録部
 160 制御部
 170 照合部
 180 出力部
 190 アラーム発生部
 200 撮影装置
 300 センサ
 400 記憶装置
 500 端末

Claims (31)

  1.  車両が撮影された撮影画像から前記車両の搭乗人数を推定できるか否か判定する判定手段と、
     前記搭乗人数を推定できないと判定された場合、前記車両を含む範囲から検出される信号に関する情報に基づいて、前記搭乗人数を推定する第1推定手段と、を備える、
     情報処理装置。
  2.  前記判定手段は、前記車両を撮影する撮影装置の設置場所の気象データ、または、前記撮影装置の異常に関する情報に基づいて、前記撮影画像から、前記車両の搭乗人数を推定できるか否か判定する、
     請求項1に記載の情報処理装置。
  3.  前記撮影画像に基づいて前記搭乗人数を推定する第2推定手段を備え、
     前記判定手段は、前記撮影画像に基づいて推定された前記搭乗人数に応じて、前記撮影画像から、前記車両の搭乗人数を推定できるか否か判定する、
     請求項1または2に記載の情報処理装置。
  4.  前記信号に関する情報は、前記信号を出力する通信機器を識別する情報であり、
     前記車両を含む範囲から検出される信号から、前記通信機器を識別する情報を抽出する、抽出手段を備える、
     請求項1乃至3のいずれかに記載の情報処理装置。
  5.  前記搭乗人数を推定できないと判定された場合、センサに、前記車両を含む範囲から前記信号を検出させる制御を行う制御手段を備える、
     請求項1乃至4のいずれかに記載の情報処理装置。
  6.  前記信号に関する情報と、推定された前記搭乗人数と、前記撮影画像とを関連付けてデータベースに登録する、登録手段を備える、
     請求項1乃至5のいずれかに記載の情報処理装置。
  7.  前記車両を含む範囲から検出される信号に関する情報と、前記データベースに登録される前記信号に関する情報と、を照合する照合手段を備える、
     請求項6に記載の情報処理装置。
  8.  前記信号に関する情報は、通信機器が出力する電波の信号波形の特徴を示す電波特徴情報である、
     請求項1乃至7のいずれかに記載の情報処理装置。
  9.  前記信号に関する情報は、通信機器が送信する信号に含まれるMACアドレスである、
     請求項1乃至7のいずれかに記載の情報処理装置。
  10.  推定された前記搭乗人数が所定の値以上である場合、アラームを発生させるアラーム発生手段を備える、
     請求項1乃至9のいずれかに記載の情報処理装置。
  11.  前記車両を撮影し、前記撮影画像を生成する撮影装置と、
     前記車両を含む範囲から前記信号を検出するセンサと、
     請求項1乃至10のいずれかに記載の情報処理装置と、を備える、
     情報処理システム。
  12.  車両が撮影された撮影画像から前記車両の搭乗人数を推定できるか否か判定し、
     前記搭乗人数を推定できないと判定された場合、前記車両を含む範囲から検出される信号に関する情報に基づいて、前記搭乗人数を推定する、
     情報処理方法。
  13.  前記車両を撮影する撮影装置の設置場所の気象データ、または、前記撮影装置の異常に関する情報に基づいて、前記撮影画像から、前記車両の搭乗人数を推定できるか否か判定する、
     請求項12に記載の情報処理方法。
  14.  前記撮影画像に基づいて前記搭乗人数を推定し、
     前記撮影画像に基づいて推定された前記搭乗人数に応じて、前記撮影画像から、前記車両の搭乗人数を推定できるか否か判定する、
     請求項12または13に記載の情報処理方法。
  15.  前記信号に関する情報は、前記信号を出力する通信機器を識別する情報であり、
     前記車両を含む範囲から検出される信号から、前記通信機器を識別する情報を抽出する、
     請求項12乃至14のいずれかに記載の情報処理方法。
  16.  前記搭乗人数を推定できないと判定された場合、センサに、前記車両を含む範囲から前記信号を検出させる制御を行う、
     請求項12乃至15のいずれかに記載の情報処理方法。
  17.  前記信号に関する情報と、推定された前記搭乗人数と、前記撮影画像とを関連付けてデータベースに登録する、
     請求項12乃至16のいずれかに記載の情報処理方法。
  18.  前記車両を含む範囲から検出される信号に関する情報と、前記データベースに登録される前記信号に関する情報と、を照合する、
     請求項17に記載の情報処理方法。
  19.  前記信号に関する情報は、通信機器が出力する電波の信号波形の特徴を示す電波特徴情報である、
     請求項12乃至18のいずれかに記載の情報処理方法。
  20.  前記信号に関する情報は、通信機器が送信する信号に含まれるMACアドレスである、
     請求項12乃至18のいずれかに記載の情報処理方法。
  21.  推定された前記搭乗人数が所定の値以上である場合、アラームを発生させる、
     請求項12乃至20のいずれかに記載の情報処理方法。
  22.  車両が撮影された撮影画像から前記車両の搭乗人数を推定できるか否か判定する処理と、
     前記搭乗人数を推定できないと判定された場合、前記車両を含む範囲から検出される信号に関する情報に基づいて、前記搭乗人数を推定する処理と、をコンピュータに実行させるプログラムを格納する、
     コンピュータ読み取り可能な記憶媒体。
  23.  前記車両を撮影する撮影装置の設置場所の気象データ、または、前記撮影装置の異常に関する情報に基づいて、前記撮影画像から、前記車両の搭乗人数を推定できるか否か判定する処理を、コンピュータに実行させるプログラムを格納する、
     請求項22に記載のコンピュータ読み取り可能な記憶媒体。
  24.  前記撮影画像に基づいて前記搭乗人数を推定する処理と、
     前記撮影画像に基づいて推定された前記搭乗人数に応じて、前記撮影画像から、前記車両の搭乗人数を推定できるか否か判定する処理と、をコンピュータに実行させるプログラムを格納する、
     請求項22または23に記載のコンピュータ読み取り可能な記憶媒体。
  25.  前記信号に関する情報は、前記信号を出力する通信機器を識別する情報であり、
     前記車両を含む範囲から検出される信号から、前記通信機器を識別する情報を抽出する処理を、コンピュータに実行させるプログラムを格納する
     請求項22乃至24のいずれかに記載のコンピュータ読み取り可能な記憶媒体。
  26.  前記搭乗人数を推定できないと判定された場合、センサに、前記車両を含む範囲から前記信号を検出させる制御を行う処理を、コンピュータに実行させるプログラムを格納する、
     請求項22乃至25のいずれかに記載のコンピュータ読み取り可能な記憶媒体。
  27.  前記信号に関する情報と、推定された前記搭乗人数と、前記撮影画像とを関連付けてデータベースに登録する処理を、コンピュータに実行させるプログラムを格納する、
     請求項22乃至26のいずれかに記載のコンピュータ読み取り可能な記憶媒体。
  28.  前記車両を含む範囲から検出される信号に関する情報と、前記データベースに登録される前記信号に関する情報と、を照合する処理を、コンピュータに実行させるプログラムを格納する、
     請求項27に記載のコンピュータ読み取り可能な記憶媒体。
  29.  前記信号に関する情報は、通信機器が出力する電波の信号波形の特徴を示す電波特徴情報である、
     請求項22乃至28のいずれかに記載のコンピュータ読み取り可能な記憶媒体。
  30.  前記信号に関する情報は、通信機器が送信する信号に含まれるMACアドレスである、
     請求項22乃至28のいずれかに記載のコンピュータ読み取り可能な記憶媒体。
  31.  推定された前記搭乗人数が所定の値以上である場合、アラームを発生させる処理を、コンピュータに実行させるプログラムを格納する、
     請求項22乃至30のいずれかに記載のコンピュータ読み取り可能な記憶媒体。
PCT/JP2020/041479 2020-11-06 2020-11-06 情報処理装置、情報処理方法、情報処理システム、及びコンピュータ読み取り可能な記憶媒体 WO2022097260A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2020/041479 WO2022097260A1 (ja) 2020-11-06 2020-11-06 情報処理装置、情報処理方法、情報処理システム、及びコンピュータ読み取り可能な記憶媒体
JP2022560590A JPWO2022097260A5 (ja) 2020-11-06 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/041479 WO2022097260A1 (ja) 2020-11-06 2020-11-06 情報処理装置、情報処理方法、情報処理システム、及びコンピュータ読み取り可能な記憶媒体

Publications (1)

Publication Number Publication Date
WO2022097260A1 true WO2022097260A1 (ja) 2022-05-12

Family

ID=81457048

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/041479 WO2022097260A1 (ja) 2020-11-06 2020-11-06 情報処理装置、情報処理方法、情報処理システム、及びコンピュータ読み取り可能な記憶媒体

Country Status (1)

Country Link
WO (1) WO2022097260A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219578A (ja) * 2006-02-14 2007-08-30 Omron Corp 異常検出装置および方法、記録媒体、並びに、プログラム
JP2007216920A (ja) * 2006-02-20 2007-08-30 Fujitsu Ten Ltd 自動車の座席制御装置、座席制御用プログラムおよび車載ナビゲーション装置
JP2009002697A (ja) * 2007-06-19 2009-01-08 Toyota Motor Corp 前方車両検出装置及び制駆動力制御装置
JP2016224012A (ja) * 2015-06-04 2016-12-28 アイシン・エィ・ダブリュ株式会社 移動方向推定システム、方法およびプログラム
JP2018203042A (ja) * 2017-06-05 2018-12-27 株式会社Subaru 冠水路走行制御装置及び冠水路走行制御方法
WO2019021500A1 (ja) * 2017-07-25 2019-01-31 日本電気株式会社 乗員数検知システム、乗員数検知方法、およびプログラム
JP2019154211A (ja) * 2018-03-06 2019-09-12 三菱自動車工業株式会社 電動車両
JP2019219899A (ja) * 2018-06-20 2019-12-26 矢崎総業株式会社 乗車人数監視システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219578A (ja) * 2006-02-14 2007-08-30 Omron Corp 異常検出装置および方法、記録媒体、並びに、プログラム
JP2007216920A (ja) * 2006-02-20 2007-08-30 Fujitsu Ten Ltd 自動車の座席制御装置、座席制御用プログラムおよび車載ナビゲーション装置
JP2009002697A (ja) * 2007-06-19 2009-01-08 Toyota Motor Corp 前方車両検出装置及び制駆動力制御装置
JP2016224012A (ja) * 2015-06-04 2016-12-28 アイシン・エィ・ダブリュ株式会社 移動方向推定システム、方法およびプログラム
JP2018203042A (ja) * 2017-06-05 2018-12-27 株式会社Subaru 冠水路走行制御装置及び冠水路走行制御方法
WO2019021500A1 (ja) * 2017-07-25 2019-01-31 日本電気株式会社 乗員数検知システム、乗員数検知方法、およびプログラム
JP2019154211A (ja) * 2018-03-06 2019-09-12 三菱自動車工業株式会社 電動車両
JP2019219899A (ja) * 2018-06-20 2019-12-26 矢崎総業株式会社 乗車人数監視システム

Also Published As

Publication number Publication date
JPWO2022097260A1 (ja) 2022-05-12

Similar Documents

Publication Publication Date Title
WO2020253230A1 (zh) 基于区块链的巡检存证方法、装置和电子设备
CN103184719B (zh) 道路表面调查装置
CN106228168B (zh) 卡片图像反光检测方法和装置
US10255804B2 (en) Method for generating a digital record and roadside unit of a road toll system implementing the method
CN109325429B (zh) 一种关联特征数据的方法、装置、存储介质及终端
CN109655075B (zh) 无人车定位方法及设备
CN108627349B (zh) 用于识别机动车的特殊运行状态的方法和移动设备
CN109275090B (zh) 信息处理方法、装置、终端及存储介质
WO2021008116A1 (zh) 一种身份识别预处理、身份识别方法及***
CN110570652A (zh) 车辆套牌检测提醒方法及相关产品
CN109388722B (zh) 一种用于添加或查找社交联系人的方法与设备
CN113542692A (zh) 一种基于监控视频的人脸识别***及方法
CN110765823A (zh) 一种目标识别方法及装置
CN105654032A (zh) 基于人脸检测的公交车人数统计***及统计方法
JP7436061B2 (ja) 運転支援装置、方法及びプログラム
WO2022097260A1 (ja) 情報処理装置、情報処理方法、情報処理システム、及びコンピュータ読み取り可能な記憶媒体
CN108230680B (zh) 一种车辆行为信息获取方法、装置及终端
JP2021002162A (ja) 画像処理装置及び画像処理用プログラム
CN109800685A (zh) 一种视频中对象的确定方法及装置
JP2014048966A (ja) 物体検出システムおよびプログラム
CN107084728A (zh) 用于检测数字地图的方法和装置
WO2022091165A1 (ja) 情報処理装置、情報処理方法、情報処理システム、及びコンピュータ読み取り可能な記憶媒体
KR20200063294A (ko) 차량용 블랙박스 영상의 자동 수집이 가능한 객체추적 시스템 및 방법
JP2017091381A (ja) セキュリティ装置、及び、セキュリティシステム
CN111107139A (zh) 信息推送方法及相关产品

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20960813

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022560590

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20960813

Country of ref document: EP

Kind code of ref document: A1