WO2021019875A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2021019875A1
WO2021019875A1 PCT/JP2020/019949 JP2020019949W WO2021019875A1 WO 2021019875 A1 WO2021019875 A1 WO 2021019875A1 JP 2020019949 W JP2020019949 W JP 2020019949W WO 2021019875 A1 WO2021019875 A1 WO 2021019875A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
user
driving
feature amount
identification unit
Prior art date
Application number
PCT/JP2020/019949
Other languages
English (en)
French (fr)
Inventor
山口 純一
公一 阿部
達成 近藤
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Publication of WO2021019875A1 publication Critical patent/WO2021019875A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel

Definitions

  • the present invention relates to a technique for identifying a user who drives a vehicle.
  • a mechanism is being considered, for example, to determine the rate of automobile insurance according to the skill and safety of driving the vehicle by the user. Therefore, there is a desire to identify who is the user driving the vehicle.
  • the history of the driver and the riding member on each day of the week and the time zone is stored in the in-vehicle device, and when the user ID and the driving environment information transmitted from the terminal are received, the riding member corresponds to the riding member. It is disclosed that the driver is estimated by identifying the cell in the history information table.
  • An object of the present invention is to accurately identify a user who is driving a vehicle.
  • the present invention comprises a riding user specifying unit that specifies a group of users who are riding in one vehicle, a feature amount acquiring unit that acquires driving characteristics for the one vehicle, and the riding.
  • an information processing apparatus including a driving user specifying unit for specifying the above.
  • the boarding user identification unit may compare the position of the terminal carried by each user with the position of the one vehicle to specify the group of users who are riding in the one vehicle.
  • the boarding user identification unit compares the data detected by the terminal carried by each user with the data detected by the one vehicle, and identifies the group of users who are in the one vehicle. You may do so.
  • the feature amount when each of the user groups specified by the boarding user identification unit drives a vehicle may be different depending on the combination of the user who drives the vehicle and the user who rides the vehicle.
  • the feature amount when each of the user groups specified by the boarding user identification unit drives the vehicle may be different depending on the attribute of the vehicle to be driven.
  • the feature amount when each of the user groups specified by the boarding user identification unit drives the vehicle may be different depending on the environment when driving the vehicle.
  • the driving user identification unit is the one when the stop period of the one vehicle exceeds the threshold value, when the drive source of the one vehicle is stopped, or when the door of the one vehicle is opened or closed.
  • the result of identifying the user who is driving the vehicle may be reset.
  • FIG. 1 is a diagram showing an example of an information processing system 1 according to the present embodiment.
  • the information information system 1 is a system for identifying a user who is driving a vehicle.
  • the information processing system 1 drives a plurality of terminals 10a, 10b, 10c used by each of a plurality of users, an in-vehicle device 21 mounted on the vehicle 20, and the vehicle 20.
  • It includes a server device 30 that functions as an information processing device that performs processing for identifying a user, and a communication network 2 that includes a wireless communication network or a wired communication network that connect these in a communicable manner.
  • the terminals 10a, 10b, 10c, the in-vehicle device 21, and the server device 30 are all computers.
  • the terminal 10 is a user-portable computer such as a smartphone, a wearable terminal, or a tablet.
  • the in-vehicle device 21 is, for example, a computer integrally configured with or connected to a car navigation device, a control device that controls each component of the vehicle 20, and the like.
  • FIG. 1 shows one vehicle 20, one in-vehicle device 21, and one server device 30, there may be a plurality of each. Further, although three terminals 10a, 10b, and 10c are illustrated as terminals used by the user, the number of users and the number of terminals may be two or more. Since the terminals 10a, 10b, and 10c all have a common configuration and function, they are collectively referred to as the terminal 10 below.
  • FIG. 2 is a diagram showing a hardware configuration of the server device 30.
  • the server device 30 is physically configured as a computer including a processor 3001, a memory 3002, a storage 3003, a communication device 3004, an input device 3005, an output device 3006, a bus connecting them, and the like. Each of these devices operates on power supplied by a battery (not shown).
  • the word "device” can be read as a circuit, device, unit, or the like.
  • the hardware configuration of the server device 30 may be configured to include one or more of the devices shown in FIG. 2, or may be configured not to include some of the devices. Further, a plurality of devices having different housings may be connected by communication to form the server device 30.
  • the processor 3001 For each function in the server device 30, the processor 3001 performs calculations by loading predetermined software (programs) on hardware such as the processor 3001 and the memory 3002, and controls communication by the communication device 3004, or the memory 3002. And by controlling at least one of reading and writing of data in the storage 3003.
  • predetermined software programs
  • Processor 3001 operates, for example, an operating system to control the entire computer.
  • the processor 3001 may be configured by a central processing unit (CPU: Central Processing Unit) including an interface with a peripheral device, a control device, an arithmetic unit, a register, and the like. Further, for example, a baseband signal processing unit, a call processing unit, and the like may be realized by the processor 3001.
  • CPU Central Processing Unit
  • a baseband signal processing unit, a call processing unit, and the like may be realized by the processor 3001.
  • the processor 3001 reads a program (program code), a software module, data, etc. from at least one of the storage 3003 and the communication device 3004 into the memory 3002, and executes various processes according to these.
  • a program program that causes a computer to execute at least a part of the operations described later is used.
  • the functional block of the server device 30 may be realized by a control program stored in the memory 3002 and operating in the processor 3001.
  • Various processes may be executed by one processor 3001, but may be executed simultaneously or sequentially by two or more processors 3001.
  • Processor 3001 may be implemented by one or more chips.
  • the program may be transmitted from the communication network 2 to the server device 30 via a telecommunication line.
  • the memory 3002 is a computer-readable recording medium, and is composed of at least one such as a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). May be done.
  • the memory 3002 may be referred to as a register, a cache, a main memory (main storage device), or the like.
  • the memory 3002 can store a program (program code), a software module, or the like that can be executed to carry out the method according to the present embodiment.
  • the storage 3003 is a computer-readable recording medium, and is, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, an optical magnetic disk (for example, a compact disk, a digital versatile disk, or a Blu-ray). It may consist of at least one (registered trademark) disk), smart card, flash memory (eg, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like.
  • the storage 3003 may be referred to as an auxiliary storage device.
  • the communication device 3004 is hardware (transmission / reception device) for communicating between computers via the communication network 2, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like.
  • the input device 3005 is an input device (for example, a key, a switch, a button, a microphone, etc.) that receives an input from the outside.
  • the output device 3006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that outputs to the outside.
  • the input device 3005 and the output device 3006 may have an integrated configuration (for example, a touch panel).
  • Each device such as the processor 3001 and the memory 3002 is connected by a bus for communicating information.
  • the bus may be configured by using a single bus, or may be configured by using a different bus for each device.
  • the server device 30 includes hardware such as a microprocessor, a digital signal processor (DSP: Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array).
  • DSP Digital Signal Processor
  • ASIC Application Specific Integrated Circuit
  • PLD Programmable Logic Device
  • FPGA Field Programmable Gate Array
  • the hardware may realize a part or all of each functional block.
  • processor 3001 may be implemented using at least one of these hardware.
  • FIG. 3 is a diagram showing the hardware configuration of the terminal 10.
  • the terminal 10 is physically similar to the server device 30, in addition to a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus connecting these, a positioning device 1007, and a sensor. It is configured as a computer containing 1008.
  • the sensor 1008 includes a group of sensors for detecting various states such as the posture and orientation of the terminal 10, such as a gyro sensor, an acceleration sensor, and a magnetic (orientation) sensor.
  • the positioning device 1007 measures the position of the terminal 10.
  • the positioning device 1007 is, for example, a GPS (Global Positioning system) receiver, and measures the position of the terminal 10 based on GPS signals received from a plurality of satellites.
  • GPS Global Positioning system
  • the communication device 1004 included in the terminal 10 is hardware (transmission / reception device) for communicating between computers via the communication network 2 in accordance with a communication standard such as LTE (Long Time Evolution) in order to realize wireless communication.
  • This communication device includes, for example, a high frequency switch, a duplexer, a filter, a frequency synthesizer, etc. in order to realize at least one of frequency division duplex (FDD: Frequency Division Duplex) and time division duplex (TDD: Time Division Duplex). It may be composed of.
  • FDD Frequency Division Duplex
  • TDD Time Division Duplex
  • a transmission / reception antenna, an amplifier unit, a transmission / reception unit, a transmission line interface, and the like may be realized by this communication device.
  • the transmission / reception unit may be physically or logically separated from each other in the transmission unit and the reception unit.
  • the in-vehicle device 21 is physically configured as a computer including a processor, a memory, a storage, a communication device, an input device, an output device, a positioning device, a sensor, a bus connecting them, and the like, similarly to the terminal 10.
  • the sensor of the in-vehicle device 21 includes a group of sensors that detect the driving behavior of the user with respect to the vehicle 20.
  • the driving behavior of the user is, for example, an operating state of the user in an operator such as a steering wheel, an accelerator pedal, a brake pedal, a direction indicator, and a light lighting indicator.
  • the sensors of the in-vehicle device 21 include, for example, an accelerator pedal sensor that detects the stroke amount and timing of the accelerator pedal, a brake pedal sensor that detects the stroke amount and timing of the brake pedal, and the right front wheel and the left front wheel of the vehicle 20.
  • Vehicle speed pulse sensors installed on the right rear wheel and left rear wheel to output the rotation speed of each wheel, steering angle sensor to detect the steering angle and timing of steering operation with respect to the steering wheel, direction indicator and light lighting indicator Includes sensors and the like that detect the timing of operation.
  • FIG. 4 is a block diagram showing a functional configuration of the information processing system 1.
  • the boarding user identification unit 31 identifies a group of users who are riding in one vehicle 20.
  • the group of users who are in one vehicle 20 includes a user who is driving the vehicle 20 and a user who is in the vehicle 20 without driving the vehicle 20.
  • a user who is driving the vehicle 20 a person who is involved in or is responsible for driving the vehicle; a driver
  • a driving user a group of users including a user who is riding in the vehicle 20 without driving the vehicle 20 (a person who is not involved in or is not responsible for driving the vehicle; a passenger) is referred to as " passenger ".
  • the boarding user identification unit 31 acquires the position positioned by the terminal 10 carried by each user and the position positioned by the vehicle-mounted device 21 from each terminal 10 and each vehicle-mounted device 21 via the communication network 2. Then, the boarding user identification unit 31 compares the position of the terminal 10 with the position of the vehicle-mounted device 21 (that is, the position of the vehicle 20), and the terminal is displaced so as to match the time-series displacement of the position of the vehicle-mounted device 21. 10 is extracted, and the user of the extracted terminal 10 is specified as a user group (riding user) who is in the vehicle 20. This is because if the user is in the vehicle 20, the position of the vehicle 20 at that time and the position of the user are substantially the same.
  • the feature amount acquisition unit 32 acquires the driving feature amount of the driving user with respect to the vehicle 20.
  • the driving feature amount is obtained from the result detected by the sensor of the in-vehicle device 21 described above. That is, as a result of the feature amount acquisition unit 32 being detected by the sensor of the in-vehicle device 21 from the in-vehicle device 21 of each vehicle 20, for example, the stroke amount and timing of the accelerator pedal, the stroke amount and timing of the brake pedal, and the rotation of each wheel.
  • the speed, the steering angle and timing of the steering operation with respect to the steering wheel, the operation timing of the direction indicator, the light lighting indicator, etc. are acquired from the in-vehicle device 21 via the communication network 2, and these are analyzed according to a predetermined algorithm.
  • a driving feature amount for the vehicle 20 on which the in-vehicle device 21 is mounted is obtained.
  • the driving user identification unit 33 is a feature amount when each of the user groups specified by the boarding user identification unit 31 drives the vehicle (that is, a driving feature amount when each of the riding users is a driving user). And the feature amount acquired by the feature amount acquisition unit 32 are used to identify the driving user who is driving the vehicle 20. Therefore, the driving user identification unit 33 includes a driving feature amount storage unit 331 that stores in advance the driving feature amount when each user drives the vehicle.
  • FIG. 5 is a diagram showing an example of the stored contents of the driving feature amount storage unit 331.
  • the driving feature amount storage unit 331 stores the user ID, which is the identification information of each user, in association with the driving feature amount of the user.
  • the driving features are, for example, the stroke amount and timing of the accelerator pedal, the stroke amount and timing of the brake pedal, the rotation speed of each wheel, the steering angle and timing of the steering operation with respect to the steering wheel, the turn signal and the light lighting. It was obtained by analyzing the operation timing of the indicator and the like.
  • the driving behavior varies depending on the attributes related to the driving of the vehicle 20 such as driving skill and proficiency, as well as human attributes such as age, gender, and personality. Due to such differences in driving behavior, the driving features are unique to each user.
  • the driving user identification unit 33 acquires the driving feature amount based on the detection result of the sensor acquired from the in-vehicle device 21 of the vehicle 20. Then, it may be stored in the driving feature amount storage unit 331 in association with the user ID of the user.
  • the driving feature amount storage unit 331 in association with the user ID of the user.
  • the driving user specifying unit 33 reads out the driving feature amount when each of the user groups (riding users) specified by the boarding user specifying unit 31 drives the vehicle 20 from the driving feature amount storage unit 331. Then, when the driving user identification unit 33 matches the driving feature amount acquired by the feature amount acquisition unit 32 among the read feature amounts of each passenger, the driving feature amount storage unit 331 The user with the user ID corresponding to the feature amount is specified as the driving user.
  • the driver identification unit 33 satisfies at least one of the conditions that the stop period of the vehicle 20 exceeds the threshold value, the drive source of the vehicle 20 is stopped, or the door of the vehicle 20 is opened and closed.
  • the result of identifying the user who is driving the vehicle 20 is reset. This is because if these conditions are met, the user driving the vehicle 20 may be replaced.
  • the driving user identification unit 33 Attempts to identify a new driving user.
  • the specific result accumulating unit 34 accumulates the results specified by the driving user specifying unit 33 in this way. Then, the specific result storage unit 34 outputs the result, such as displaying it on a display device or writing it on a storage medium, as needed.
  • the processor 3001 is loaded by loading predetermined software (program) on hardware such as the processor 3001 and the memory 3002. Means that the process is executed by performing the calculation and controlling the communication by the communication device 3004 and the reading and / or writing of the data in the memory 3002 and the storage 3003. The same applies to the terminal 10 and the in-vehicle device 21.
  • the terminal 10 periodically transmits the position determined by the positioning device 1007 to the server device 30 via the communication network 2 (step S11).
  • the in-vehicle device 21 periodically transmits the position determined by the positioning device and the result detected by the sensor to the server device 30 via the communication network 2 (step S12).
  • the boarding user identification unit 31 of the server device 30 acquires the position of the terminal 10 and the position of the in-vehicle device 21 (that is, the position of the vehicle 20).
  • the feature amount acquisition unit 32 of the server device 30 acquires the feature amount of driving with respect to the vehicle 20.
  • the order of steps S11 and S12 may be either first or second.
  • the boarding user identification unit 31 compares the position of the terminal 10 and the position of the vehicle-mounted device 21 (that is, the position of the vehicle 20), and is displaced so as to match the time-series displacement of the position of the vehicle-mounted device 21.
  • the terminal 10 to be used is extracted, and the user of the extracted terminal 10 is specified as a group of users (riding users) who are in the vehicle 20 (step S13).
  • the driving user identification unit 33 uses the feature amount when each of the user groups specified by the boarding user identification unit 31 drives the vehicle and the feature amount acquired by the feature amount acquisition unit 32. And, the driving user who is driving the vehicle 20 is specified (step S14). That is, the driving user identification unit 33 reads out from the driving feature amount storage unit 331 the driving feature amount when each of the user groups (riding users) specified by the boarding user identification unit 31 drives the vehicle 20, and each of them is read out. If any of the features of the riding user matches the driving feature acquired by the feature acquisition unit 32, the driving feature storage unit 331 selects the user with the user ID corresponding to the feature. , Identify as a driving user. At this time, the range in which the two match is an appropriate range determined experimentally or by calculation in consideration of the error.
  • the specific result storage unit 34 stores the result specified by the operating user identification unit 33 (step S15).
  • the accumulated results have various uses, for example, when determining the rate of automobile insurance for each user.
  • the driving feature amount storage unit 331 may store the user ID and the driving feature amount in a table format, or may store the driving behavior model generated by so-called machine learning. Good.
  • the driving behavior model in this case is, for example, a learning model in which various features of driving with respect to the vehicle 20 are used as explanatory variables and the user ID of the driving user is used as the objective variable.
  • the boarding user identification unit 31 identifies a group of users (riding users) who are riding in the vehicle 20 based on the position of the terminal 10 and the position of the in-vehicle device 21 (that is, the vehicle 20). It was.
  • the method of identifying the boarding user is not limited to the example of the embodiment. Instead of these positions, the boarding user identification unit 31 obtains, for example, some physical quantity such as voice, vibration, or acceleration detected by the terminal 10 and some physical quantity such as voice, vibration, or acceleration detected by the in-vehicle device 21.
  • the boarding user may be specified by comparison.
  • the noise inside and outside the vehicle 20 or the ambient environmental sound when the vehicle 20 is traveling can be detected by the terminal 10 of the user who is in the vehicle 20, and is detected by the in-vehicle device 21 of the vehicle 20. It is detectable, and these detection results are about the same time-series displacement. Further, the vibration and acceleration generated in the vehicle 20 when the vehicle 20 is traveling can be detected by the terminal 10 of the user who is in the vehicle 20, and also detected by the in-vehicle device 21 of the vehicle 20. It is possible, and these detection results are about the same time series displacement. Therefore, the boarding user identification unit 31 compares the data detected by the terminal 10 carried by each user with the data detected by one vehicle 20, and if both match, board the vehicle 20. It is possible to identify the user group.
  • the driving characteristics of one driving user are not always the same and may change depending on some conditions.
  • the driving features of one driving user may change depending on the combination of the driving user, the driving user, and another user riding in the vehicle 20.
  • the driving of the vehicle may be polite or gentle, while the driving user.
  • the driving of the vehicle may be rougher than the above. Therefore, as shown in FIG.
  • the driving feature amount storage unit 331 differs for each user ID according to the combination of the user who drives the vehicle 20 and the user who rides on the vehicle 20 (that is, a group of riding users). Memorize driving features. Therefore, when the user drives the vehicle 20, he / she operates his / her own terminal 10 to clearly indicate his / her own user ID and notify the server device 30 that he / she is the driving user.
  • the driving user identification unit 33 of the server device 30 acquires the driving feature amount based on the detection result of the sensor acquired from the in-vehicle device 21 of the vehicle 20, and the user ID of the notified user and the riding user identification unit 31 are used. It is stored in the driving feature amount storage unit 331 in association with the user ID group of the specified boarding user.
  • the boarding user group 1 is a group consisting of a driving user and an elderly user indicated by the user ID
  • the boarding user group 2 is a group consisting of the driving user indicated by the user ID and the infant user.
  • a wide variety of these boarding user groups can be prepared.
  • the feature amount when each of the user groups specified by the boarding user identification unit 31 drives the vehicle is made different according to the combination of the user who drives the vehicle and the user who rides the vehicle. May be good.
  • the driving feature amount of one driving user may change according to the attribute of the vehicle 20 to be driven.
  • the vehicle 20 to be driven is a family car type
  • the driving of the vehicle may be polite or gentle
  • the vehicle 20 to be driven is a sports car type. If this is the case, it is considered that the driving of the vehicle may be rougher than the above. Therefore, as shown in FIG. 8, the driving feature amount storage unit 331 stores different driving feature amounts for each user ID according to the attributes of the vehicle. Therefore, when the user drives the vehicle 20, he / she operates his / her own terminal 10 to clearly indicate his / her own user ID and notify the server device 30 that he / she is the driving user.
  • the in-vehicle device 21 notifies the server device 30 of information for identifying the attribute of the vehicle 20.
  • the driving user identification unit 33 of the server device 30 acquires the driving feature amount based on the detection result of the sensor acquired from the in-vehicle device 21 of the vehicle 20, and associates it with the notified user user ID and vehicle attribute. It is stored in the operation feature amount storage unit 331.
  • the vehicle attribute 1 is an attribute of a family car
  • the vehicle attribute 2 is an attribute of a sports car.
  • a wide variety of attributes of these vehicles can be prepared.
  • the feature amount when each of the user groups specified by the boarding user identification unit 31 drives the vehicle may be different depending on the attributes of the vehicle to be driven.
  • the driving feature amount of one driving user may change depending on the environment (for example, weather, time zone, road type, etc.) at the time of driving.
  • the environment for example, weather, time zone, road type, etc.
  • the driving of the vehicle may be polite or calm, while when the weather is good, the driving of the vehicle may be rougher than the above. It is believed that there is.
  • the driving of the vehicle may be polite or calm at night, while the driving of the vehicle may be rougher than the above in the daytime.
  • unpaved roads it is considered that the driving of the vehicle may be polite or gentle, while on paved roads, it is considered that the driving of the vehicle may be rougher than the above.
  • the driving feature amount storage unit 331 stores different driving feature amounts for each user ID according to the driving environment. Therefore, when the user drives the vehicle 20, he / she operates his / her own terminal 10 to clearly indicate his / her own user ID and notify the server device 30 that he / she is the driving user.
  • the driving user identification unit 33 of the server device 30 acquires the driving feature amount based on the detection result of the sensor acquired from the in-vehicle device 21 of the vehicle 20, and when the notified user's user ID and driving are performed. It is stored in the driving feature amount storage unit 331 in association with the environment (for example, weather, time zone, road type, etc.). The weather and the type of road can be specified according to the position of the terminal 10 or the in-vehicle device 21.
  • the time zone can be specified by the timer of the server device 30.
  • a wide variety of these driving environments can be prepared.
  • the feature amount when each of the user groups specified by the boarding user identification unit 31 drives the vehicle may be different depending on the environment when driving the vehicle.
  • each functional block may be realized by using one device that is physically or logically connected, or directly or indirectly (for example, by two or more devices that are physically or logically separated). , Wired, wireless, etc.) and may be realized using these plurality of devices.
  • the functional block may be realized by combining the software with the one device or the plurality of devices.
  • Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, search, confirmation, reception, transmission, output, access, solution, selection, selection, establishment, comparison, assumption, expectation, and assumption.
  • broadcasting notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc., but only these.
  • a functional block that functions transmission is called a transmission control unit (transmitting unit) or a transmitter (transmitter).
  • the method of realizing each of them is not particularly limited.
  • the payment management device may function as a computer that processes the present disclosure.
  • Each aspect / embodiment described in the present disclosure includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G (4th generation mobile communication system), and 5G (5th generation mobile communication).
  • system FRA (FutureRadioAccess), NR (newRadio), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (UltraMobileBroadband), IEEE 802.11 (Wi-Fi (registered trademark)) )), IEEE 802.16 (WiMAX®), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth®, and other systems that utilize suitable systems and have been extended based on these. It may be applied to at least one of the next generation systems. Further, a plurality of systems may be applied in combination (for example, a combination of at least one of LTE and LTE-A and 5G).
  • the input / output information and the like may be stored in a specific location (for example, memory) or may be managed using a management table. Input / output information and the like can be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.
  • the determination may be made by a value represented by 1 bit (0 or 1), by a boolean value (Boolean: true or false), or by comparing numerical values (for example, a predetermined value). It may be done by comparison with the value).
  • Software is an instruction, instruction set, code, code segment, program code, program, subprogram, software module, whether called software, firmware, middleware, microcode, hardware description language, or another name.
  • Applications, software applications, software packages, routines, subroutines, objects, executables, execution threads, procedures, features, etc. should be broadly interpreted.
  • software, instructions, information and the like may be transmitted and received via a transmission medium.
  • a transmission medium For example, a website that uses at least one of wired technology (coaxial cable, fiber optic cable, twist pair, Digital Subscriber Line (DSL), etc.) and wireless technology (infrared, microwave, etc.) When transmitted from a server, or other remote source, at least one of these wired and wireless technologies is included within the definition of transmission medium.
  • the information, signals, etc. described in the present disclosure may be represented using any of a variety of different techniques.
  • data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.
  • the terms described in the present disclosure and the terms necessary for understanding the present disclosure may be replaced with terms having the same or similar meanings.
  • information, parameters, etc. described in the present disclosure may be expressed using absolute values, relative values from predetermined values, or using other corresponding information. It may be represented.
  • references to elements using designations such as “first” and “second” as used in this disclosure does not generally limit the quantity or order of those elements. These designations can be used in the present disclosure as a convenient way to distinguish between two or more elements. Thus, references to the first and second elements do not mean that only two elements can be adopted, or that the first element must somehow precede the second element.
  • each of the above devices may be replaced with a "means”, a “circuit”, a “device”, or the like.
  • the term "A and B are different” may mean “A and B are different from each other”.
  • the term may mean that "A and B are different from C”.
  • Terms such as “separate” and “combined” may be interpreted in the same way as “different”.
  • Information processing system 2 Communication network 10, 10a, 10b, 10c: Terminal, 20: Vehicle, 21: In-vehicle device, 30: Server device, 31: Passenger user identification unit, 32: Feature quantity acquisition unit, 33 : Driving user identification unit, 331: Operation feature amount storage unit, 34: Specific result storage unit, 1001: Processor, 1002: Memory, 1003: Storage, 1004: Communication device, 1005: Input device, 1006: Output device, 1007: Positioning device, 1008: sensor, 3001: processor, 3002: memory, 3003: storage, 3004: communication device, 3005: input device, 3006: output device.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

運転ユーザ特定部(33)は、乗車ユーザ特定部(31)により特定されたユーザ群(乗車ユーザ)の各々が車両(20)を運転するときの運転特徴量を運転特徴量記憶部(331)から読み出す。そして、運転ユーザ特定部(33)は、読み出した各乗車ユーザの特徴量のうち、特徴量取得部(32)により取得された運転の特徴量に合致するものがあった場合には、運転特徴量記憶部(331)においてその特徴量に対応するユーザIDのユーザを、運転ユーザとして特定する。

Description

情報処理装置
 本発明は、車両を運転するユーザを特定するための技術に関する。
 ユーザによる車両の運転の技量や安全度に応じて、例えば自動車保険の料率を決めるというような仕組みが考えられている。このため、車両を運転しているユーザが誰であるかを特定したいという要望がある。例えば特許文献1には、車載装置に各曜日と時間帯におけるドライバと乗車メンバの履歴が記憶されており、端末から送信されるユーザIDと運転環境情報等を受信すると、その乗車メンバに対応する履歴情報テーブル内のセルを特定してドライバを推定することが開示されている。
特開2010-36699号公報
 本発明は、車両を運転しているユーザを正確に特定することを目的とする。
 上記課題を解決するため、本発明は、一の車両に乗車しているユーザ群を特定する乗車ユーザ特定部と、前記一の車両に対する運転の特徴量を取得する特徴量取得部と、前記乗車ユーザ特定部により特定された前記ユーザ群の各々が車両を運転するときの各特徴量と、前記特徴量取得部により取得された特徴量とを用いて、前記一の車両を運転しているユーザを特定する運転ユーザ特定部とを備えることを特徴とする情報処理装置を提供する。
 前記乗車ユーザ特定部は、各々のユーザが携帯する端末の位置と、前記一の車両の位置とを比較して、当該一の車両に乗車しているユーザ群を特定するようにしてもよい。
 前記乗車ユーザ特定部は、各々のユーザが携帯する端末によって検出されたデータと、前記一の車両によって検出されたデータとを比較して、当該一の車両に乗車しているユーザ群を特定するようにしてもよい。
 前記乗車ユーザ特定部により特定された前記ユーザ群の各々が車両を運転するときの特徴量は、車両を運転するユーザと当該車両に乗車するユーザとの組み合わせに応じて異なるようにしてもよい。
 前記乗車ユーザ特定部により特定された前記ユーザ群の各々が車両を運転するときの特徴量は、運転される車両の属性に応じて異なるようにしてもよい。
 前記乗車ユーザ特定部により特定された前記ユーザ群の各々が車両を運転するときの特徴量は、車両を運転するときの環境に応じて異なるようにしてもよい。
 前記運転ユーザ特定部は、前記一の車両の停止期間が閾値を超えた場合、前記一の車両の駆動源が停止した場合、又は前記一の車両のドアが開閉された場合に、当該一の車両を運転しているユーザを特定した結果をリセットするようにしてもよい。
本発明によれば、車両を運転しているユーザを正確に特定することができる。
本発明の一実施形態に係る情報処理システム1の構成の一例を示す図である。 サーバ装置30のハードウェア構成を示す図である。 端末10のハードウェア構成を示す図である。 サーバ装置30が記憶するデータの一例を示す図である。 情報処理システム1の機能構成の一例を示す図である。 情報処理システム1による動作の一例を示すシーケンス図である。 変形例に係るサーバ装置30が記憶するデータの一例を示す図である。 変形例に係るサーバ装置30が記憶するデータの一例を示す図である。
[構成]
 図1は、本実施形態に係る情報処理システム1の一例を示す図である。情報処理システム1は、車両を運転しているユーザを特定するためのシステムである。図1に示すように、情報処理システム1は、複数のユーザのそれぞれによって利用される複数の端末10a,10b,10cと、車両20に搭載された車載装置21と、車両20を運転しているユーザを特定する処理を行う情報処理装置として機能するサーバ装置30と、これらを通信可能に接続する無線通信網又は有線通信網を含む通信網2とを備えている。端末10a,10b,10c、車載装置21及びサーバ装置30はいずれもコンピュータである。より具体的には、端末10は、例えばスマートホン、ウェアラブル端末又はタブレットなどの、ユーザが携帯可能なコンピュータである。車載装置21は、例えばカーナビゲーション装置や車両20の各部品の制御を行う制御装置等と一体に構成された又はこれらに接続されたコンピュータである。
 なお、図1には、車両20、車載装置21、及びサーバ装置30をそれぞれ1つずつ示しているが、これらはそれぞれ複数であってもよい。また、ユーザが利用する端末として、端末10a,10b,10cの3つを例示しているが、ユーザ数及び端末数は2以上であればよい。なお、端末10a,10b,10cはいずれも共通の構成及び機能であるため、以下では、端末10と総称する。
 図2は、サーバ装置30のハードウェア構成を示す図である。サーバ装置30は、物理的には、プロセッサ3001、メモリ3002、ストレージ3003、通信装置3004、入力装置3005、出力装置3006、及びこれらを接続するバスなどを含むコンピュータとして構成されている。これらの各装置は図示せぬ電池から供給される電力によって動作する。なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。サーバ装置30のハードウェア構成は、図2に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。また、それぞれ筐体が異なる複数の装置が通信接続されて、サーバ装置30を構成してもよい。
 サーバ装置30における各機能は、プロセッサ3001、メモリ3002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ3001が演算を行い、通信装置3004による通信を制御したり、メモリ3002及びストレージ3003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
プロセッサ3001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ3001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。また、例えばベースバンド信号処理部や呼処理部などがプロセッサ3001によって実現されてもよい。
 プロセッサ3001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ3003及び通信装置3004の少なくとも一方からメモリ3002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、後述する動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。サーバ装置30の機能ブロックは、メモリ3002に格納され、プロセッサ3001において動作する制御プログラムによって実現されてもよい。各種の処理は、1つのプロセッサ3001によって実行されてもよいが、2以上のプロセッサ3001により同時又は逐次に実行されてもよい。プロセッサ3001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介して通信網2からサーバ装置30に送信されてもよい。
 メモリ3002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ3002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ3002は、本実施形態に係る方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
 ストレージ3003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ3003は、補助記憶装置と呼ばれてもよい。
 通信装置3004は、通信網2を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
 入力装置3005は、外部からの入力を受け付ける入力デバイス(例えば、キー、スイッチ、ボタン、マイクロホンなど)である。出力装置3006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、
入力装置3005及び出力装置3006は、一体となった構成(例えば、タッチパネル)であってもよい。
 プロセッサ3001、メモリ3002などの各装置は、情報を通信するためのバスによって接続される。バスは、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
 サーバ装置30は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ3001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
 図3は、端末10のハードウェア構成を示す図である。端末10は、物理的にはサーバ装置30と同様に、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、これらを接続するバスなどのほか、測位装置1007及びセンサ1008を含むコンピュータとして構成されている。
 センサ1008は、例えばジャイロセンサ、加速度センサ、磁気(方位)センサ等の、端末10の姿勢や向きなどの各種状態を検出するためのセンサ群を含む。
 測位装置1007は、端末10の位置を測定する。測位装置1007は、例えばGPS(Global Positioning system)受信機であり、複数の衛星から受信したGPS信号に基
づいて端末10の位置を測定する。
 なお、端末10が備える通信装置1004は、無線通信を実現するべく、例えばLTE(Long Time Evolution)等の通信規格に従って通信網2を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)である。この通信装置は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。また、送受信アンテナ、アンプ部、送受信部、伝送路インターフェースなどがこの通信装置によって実現されてもよい。送受信部は、送信部と受信部とで、物理的に、又は論理的に分離された実装がなされてもよい。
 車載装置21は、物理的には端末10と同様に、プロセッサ、メモリ、ストレージ、通信装置、入力装置、出力装置、測位装置、センサ及びこれらを接続するバスなどを含むコンピュータとして構成されている。車載装置21のセンサは、車両20に対するユーザの運転行動を検出するセンサ群を含む。ユーザの運転行動とは、例えばハンドル、アクセルペダル、ブレーキペダル、方向指示器、ライト点灯指示器等の操作子におけるユーザの操作状態である。より具体的には、車載装置21のセンサは、例えばアクセルペダルのストローク量やタイミングを検出するアクセルペダルセンサ、ブレーキペダルのストローク量やタイミングを検出するブレーキペダルセンサ、車両20の右前輪、左前輪、右後輪および左後輪にそれぞれ設置されて各車輪の回転速度を出力する車速パルスセンサ、ハンドルに対する操舵操作の舵角やタイミングを検出する舵角センサ、方向指示器やライト点灯指示器が操作されたタイミングを検出するセンサ等を含む。
 図4は、情報処理システム1の機能構成を示すブロック図である。サーバ装置30において、乗車ユーザ特定部31は、一の車両20に乗車しているユーザ群を特定する。一の車両20に乗車しているユーザ群とは、車両20を運転しているユーザと、その車両20を運転せずにその車両20に乗車しているユーザとを含む。以下では、車両20を運転しているユーザ(車の運転に関与するないしは責任を有する者;ドライバ)を「運転ユーザ」と言う。また、その運転ユーザに加えて、その車両20を運転せずにその車両20に同乗しているユーザを含むユーザ群(車の運転に関与しないないしは責任を有しない者;同乗者)を、「乗車ユーザ」と言う。乗車ユーザ特定部31は、各々のユーザが携帯している端末10が測位した位置と車載装置21が測位した位置とを、各端末10及び各車載装置21から通信網2経由で取得する。そして、乗車ユーザ特定部31は、これら端末10の位置及び車載装置21の位置(つまり車両20の位置)を比較し、車載装置21の位置の時系列的な変位と一致するように変位する端末10を抽出し、抽出した端末10のユーザをその車両20に乗車しているユーザ群(乗車ユーザ)として特定する。ユーザが車両20に乗車していれば、そのときの車両20の位置とそのユーザの位置はほぼ一致するからである。
 ここで、一の車両に対して特定された乗車ユーザが1人である場合には、その乗車ユーザが運転ユーザである。一方、乗車ユーザが複数人である場合には、その複数の乗車ユーザのうち誰が運転ユーザであるかは、端末10の位置及び車両20の位置の比較によっては事実上判別困難である。
 特徴量取得部32は、車両20に対する運転ユーザの運転の特徴量を取得する。運転の特徴量は、前述した車載装置21のセンサによって検出された結果から求められる。つまり、特徴量取得部32は、各車両20の車載装置21からその車載装置21のセンサによって検出された結果、例えばアクセルペダルのストローク量やタイミング、ブレーキペダルのストローク量やタイミング、各車輪の回転速度、ハンドルに対する操舵操作の舵角やタイミング、方向指示器やライト点灯指示器等の操作タイミング等を車載装置21から通信網2経由で取得し、これらを所定のアルゴリズムに従って解析することで、その車載装置21が搭載されている車両20に対する運転の特徴量を得る。
 運転ユーザ特定部33は、乗車ユーザ特定部31により特定されたユーザ群の各々が車両を運転するときの特徴量(つまり、乗車ユーザの各々が運転ユーザであったとしたときの運転の特徴量)と、特徴量取得部32により取得された特徴量とを用いて、車両20を運転している運転ユーザを特定する。このため、運転ユーザ特定部33は、各ユーザが車両を運転するときの、その運転の特徴量を予め記憶した運転特徴量記憶部331を備えている。
 図5は、運転特徴量記憶部331の記憶内容の一例を示す図である。図5に示すように、運転特徴量記憶部331は、各ユーザの識別情報であるユーザIDと、そのユーザの運転の特徴量とを対応付けて記憶している。運転の特徴量は、前述したように、例えばアクセルペダルのストローク量やタイミング、ブレーキペダルのストローク量やタイミング、各車輪の回転速度、ハンドルに対する操舵操作の舵角やタイミング、方向指示器やライト点灯指示器等の操作タイミング等を解析して得られたものである。各ユーザについて、運転の技量や習熟度のような車両20の運転に関する属性のほか、例えば年齢、性別、性格のような人的な属性によって、その運転行動が様々に異なる。このような運転行動の相違に起因して、運転の特徴量は各ユーザに固有の内容になっている。
 前述したように乗車ユーザが1人である場合には、その乗車ユーザが運転ユーザである。そこで、運転ユーザ特定部33は、各ユーザが1人で車両20に乗車しているような場合に、その車両20の車載装置21から取得したセンサの検出結果に基づいて運転の特徴量を取得し、そのユーザのユーザIDに対応付けて運転特徴量記憶部331に記憶しておけばよい。或いは、ユーザが車両20を運転するときに、自身の端末10を操作して自身が運転ユーザであることを自身のユーザIDを明示してサーバ装置30に通知し、サーバ装置30の運転ユーザ特定部33は、その車両20の車載装置21から取得したセンサの検出結果に基づいて運転の特徴量を取得し、そのユーザのユーザIDに対応付けて運転特徴量記憶部331に記憶しておいてもよい。
 運転ユーザ特定部33は、乗車ユーザ特定部31により特定されたユーザ群(乗車ユーザ)の各々が車両20を運転するときの運転特徴量を運転特徴量記憶部331から読み出す。そして、運転ユーザ特定部33は、読み出した各乗車ユーザの特徴量のうち、特徴量取得部32により取得された運転の特徴量に合致するものがあった場合には、運転特徴量記憶部331においてその特徴量に対応するユーザIDのユーザを、運転ユーザとして特定する。
なお、運転ユーザ特定部33は、車両20の停止期間が閾値を超えた、車両20の駆動源が停止した、又は車両20のドアが開閉したという条件のうち少なくともいずれか1つが満たされた場合に、その車両20を運転しているユーザを特定した結果をリセットする。なぜなら、これらの条件が満たされる場合は、車両20を運転しているユーザが代わる可能性があるからである。そして、再度、車両20が移動し始めた、車両の駆動源が駆動し始めた、又は車両のドアが再度開閉したという条件のうち少なくともいずれか1つが満たされた場合に、運転ユーザ特定部33は、新たに運転ユーザの特定を試みる。
 特定結果蓄積部34は、このようにして運転ユーザ特定部33によって特定された結果を蓄積する。そして、特定結果蓄積部34は、必要に応じて、この結果を表示装置に表示したり記憶媒体に書き込んだりといった出力を行う。
[動作]
 次に、図6を参照して、情報処理システム1の動作について説明する。なお、以下の説明において、サーバ装置30を処理の主体として記載する場合には、具体的にはプロセッサ3001、メモリ3002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ3001が演算を行い、通信装置3004による通信や、メモリ3002及びストレージ3003におけるデータの読み出し及び/又は書き込みを制御することにより、処理が実行されることを意味する。端末10、車載装置21についても同様である。
 図6において、端末10は、測位装置1007によって測位された位置を通信網2経由で定期的にサーバ装置30に送信する(ステップS11)。一方、車載装置21は、測位装置によって測位された位置と、センサによって検出された結果とを通信網2経由で定期的にサーバ装置30に送信する(ステップS12)。これにより、サーバ装置30の乗車ユーザ特定部31は、端末10の位置及び車載装置21の位置(つまり車両20の位置)を取得する。また、サーバ装置30の特徴量取得部32は、車両20に対する運転の特徴量を取得する。なお、これらステップS11及びステップS12の順番はどちらが先でも後でもよい。
 サーバ装置30において、乗車ユーザ特定部31は、端末10の位置及び車載装置21の位置(つまり車両20の位置)を比較し、車載装置21の位置の時系列的な変位と一致するように変位する端末10を抽出し、抽出した端末10のユーザをその車両20に乗車しているユーザ群(乗車ユーザ)として特定する(ステップS13)。
 次に、サーバ装置30において、運転ユーザ特定部33は、乗車ユーザ特定部31により特定されたユーザ群の各々が車両を運転するときの特徴量と、特徴量取得部32により取得された特徴量とを用いて、車両20を運転している運転ユーザを特定する(ステップS14)。つまり、運転ユーザ特定部33は、乗車ユーザ特定部31により特定されたユーザ群(乗車ユーザ)の各々が車両20を運転するときの運転特徴量を運転特徴量記憶部331から読み出し、読み出した各乗車ユーザの特徴量のうち、特徴量取得部32により取得された運転の特徴量に合致するものがあった場合には、運転特徴量記憶部331においてその特徴量に対応するユーザIDのユーザを、運転ユーザとして特定する。このとき両者が合致する範囲は、誤差を考慮して実験的又は計算により定められた適切な範囲である。
 そして、サーバ装置30において特定結果蓄積部34は、運転ユーザ特定部33によって特定された結果を蓄積する(ステップS15)。この蓄積された結果は、例えば各ユーザに対する自動車保険の料率を決める際に用いられる等の、様々な用途がある。
以上説明した実施形態によれば、車両を運転しているユーザを正確に特定することが可能となる。
[変形例]
 本発明は、上述した実施形態に限定されない。上述した実施形態を以下のように変形してもよい。また、以下の2つ以上の変形例を組み合わせて実施してもよい。
[変形例1]
 運転特徴量記憶部331は、図5に例示したように、ユーザIDと運転の特徴量とをテーブル形式で記憶してもよいし、いわゆる機械学習により生成された運転行動モデルを記憶してもよい。この場合の運転行動モデルは、例えば車両20に対する運転の各種の特徴量を説明変数とし、運転ユーザのユーザIDを目的変数とした学習モデルである。この運転行動モデルに対し、運転の各種の特徴量を入力すると、その特徴量から特定される運転ユーザのユーザIDが出力される。
[変形例2]
 上記実施形態においては、乗車ユーザ特定部31は、端末10の位置と車載装置21(つまり車両20)の位置とに基づいて、車両20に乗車しているユーザ群(乗車ユーザ)を特定していた。ただし、乗車ユーザの特定方法は実施形態の例に限定されない。乗車ユーザ特定部31は、これらの位置の代わりに、例えば端末10によって検出された音声や振動、加速度等の何らかの物理量と、車載装置21によって検出された音声や振動、加速度等の何らかの物理量とを比較して乗車ユーザを特定してもよい。車両20が走行しているときのその車両20の内外における騒音乃至周囲の環境音は、その車両20に乗車しているユーザの端末10によって検出可能であるとともに、その車両20の車載装置21によって検出可能であり、さらに、これらの検出結果はほぼ同じ時系列の変位となる。また、車両20が走行しているときのその車両20に発生する振動や加速度は、その車両20に乗車しているユーザの端末10によって検出可能であるとともに、その車両20の車載装置21によって検出可能であり、さらにこれらの検出結果はほぼ同じ時系列の変位となる。従って、乗車ユーザ特定部31は、各々のユーザが携帯する端末10によって検出されたデータと、一の車両20によって検出されたデータとを比較して、両者が合致する場合にその車両20に乗車しているユーザ群を特定することが可能となる。
[変形例3]
 1人の運転ユーザの運転の特徴量は、常に同じではなく、何らかの条件に応じて変化し得ると考えられる。例えば1人の運転ユーザの運転の特徴量は、運転ユーザとその運転ユーザと車両20に同乗している他のユーザとの組み合わせに応じて変化し得る。一例をあげると、運転ユーザが高齢のユーザや幼児のユーザ或いは交際相手のユーザと同乗している場合には、車両の運転が丁寧又は穏やかになることがあると考えられるし、一方、運転ユーザが同性で同年代のユーザと同乗している場合には、上記に比べて車両の運転が荒くなることがあると考えられる。そこで、図7に示すように、運転特徴量記憶部331は、ユーザIDごとに、車両20を運転するユーザと当該車両20に同乗するユーザとの組み合わせ(つまり乗車ユーザのグループ)に応じて異なる運転の特徴量を記憶する。このため、ユーザが車両20を運転するときに、自身の端末10を操作して自身が運転ユーザであることを自身のユーザIDを明示してサーバ装置30に通知する。サーバ装置30の運転ユーザ特定部33は、その車両20の車載装置21から取得したセンサの検出結果に基づいて運転の特徴量を取得し、通知されたユーザのユーザID及び乗車ユーザ特定部31により特定された乗車ユーザのユーザID群に対応付けて運転特徴量記憶部331に記憶する。図7の例において、例えば乗車ユーザグループ1は、ユーザIDが示す運転ユーザと高齢のユーザとからなるグループであり、乗車ユーザグループ2は、ユーザIDが示す運転ユーザと幼児のユーザとからなるグループである。これらの乗車ユーザグループは、多種多様なものを用意することができる。このように、乗車ユーザ特定部31により特定されたユーザ群の各々が車両を運転するときの特徴量は、車両を運転するユーザと当該車両に乗車するユーザとの組み合わせに応じて異なるようにしてもよい。
[変形例4]
 また、例えば1人の運転ユーザの運転の特徴量は、運転対象となる車両20の属性に応じて変化し得る。一例をあげると、運転対象となる車両20がファミリーカータイプである場合には、車両の運転が丁寧又は穏やかになることがあると考えられるし、一方、運転対象となる車両20がスポーツカータイプである場合には、上記に比べて車両の運転が荒くなることがあると考えられる。そこで、図8に示すように、運転特徴量記憶部331は、ユーザIDごとに、車両の属性に応じて異なる運転の特徴量を記憶する。このため、ユーザが車両20を運転するときに、自身の端末10を操作して自身が運転ユーザであることを自身のユーザIDを明示してサーバ装置30に通知する。また、車載装置21は、車両20の属性を特定するための情報をサーバ装置30に通知する。サーバ装置30の運転ユーザ特定部33は、その車両20の車載装置21から取得したセンサの検出結果に基づいて運転の特徴量を取得し、通知されたユーザのユーザID及び車両の属性に対応付けて運転特徴量記憶部331に記憶する。図8の例において、例えば車両属性1はファミリーカーという属性であり、車両属性2はスポーツカーという属性である。これらの車両の属性は、多種多様なものを用意することができる。このように、乗車ユーザ特定部31により特定されたユーザ群の各々が車両を運転するときの特徴量は、運転される車両の属性に応じて異なるようにしてもよい。
[変形例5]
 また、例えば1人の運転ユーザの運転の特徴量は、運転がなされるときの環境(例えば天候、時間帯、道路の種別等)に応じて変化し得る。一例をあげると、天候が悪い場合には、車両の運転が丁寧又は穏やかになることがあると考えられるし、一方、天候が良い場合には、上記に比べて車両の運転が荒くなることがあると考えられる。また、夜間は、車両の運転が丁寧又は穏やかになることがあると考えられるし、一方、昼間は、上記に比べて車両の運転が荒くなることがあると考えられる。また、非舗装道路では、車両の運転が丁寧又は穏やかになることがあると考えられるし、一方、舗装道路では、上記に比べて車両の運転が荒くなることがあると考えられる。そこで、運転特徴量記憶部331は、ユーザIDごとに、運転の環境に応じて異なる運転の特徴量を記憶する。このため、ユーザが車両20を運転するときに、自身の端末10を操作して自身が運転ユーザであることを自身のユーザIDを明示してサーバ装置30に通知する。サーバ装置30の運転ユーザ特定部33は、その車両20の車載装置21から取得したセンサの検出結果に基づいて運転の特徴量を取得し、通知されたユーザのユーザID及び運転がなされるときの環境(例えば天候、時間帯、道路の種別等)に対応付けて運転特徴量記憶部331に記憶する。天候や道路の種別は、端末10又は車載装置21の位置に応じて特定し得る。また、時間帯は、サーバ装置30のタイマによって特定し得る。これらの運転の環境は、多種多様なものを用意することができる。このように、乗車ユーザ特定部31により特定されたユーザ群の各々が車両を運転するときの特徴量は、車両を運転するときの環境に応じて異なるようにしてもよい。
[その他の変形例]
 なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
 機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信制御部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。
 例えば、本開示の一実施の形態における決済管理装置などは、本開示の処理を行うコンピュータとして機能してもよい。
 本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、NR(new Radio)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE-Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。
 本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
 入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
 判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
 以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。
 ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
 本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
 なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
 また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
 本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
 本開示において使用する「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
 上記の各装置の構成における「部」を、「手段」、「回路」、「デバイス」等に置き換えてもよい。
 本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
 本開示において、例えば、英語でのa、an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
 本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
1:情報処理システム、2:通信網、10,10a,10b,10c:端末、20:車両、21:車載装置、30:サーバ装置、31:乗車ユーザ特定部、32:特徴量取得部、33:運転ユーザ特定部、331:運転特徴量記憶部、34:特定結果蓄積部、1001:プロセッサ、1002:メモリ、1003:ストレージ、1004:通信装置、1005:入力装置、1006:出力装置、1007:測位装置、1008:センサ、 3001:プロセッサ、3002:メモリ、3003:ストレージ、3004:通信装置、3005:入力装置、3006:出力装置。

Claims (7)

  1.  一の車両に乗車しているユーザ群を特定する乗車ユーザ特定部と、
     前記一の車両に対する運転の特徴量を取得する取得部と、
     前記乗車ユーザ特定部により特定された前記ユーザ群の各々が車両を運転するときの各特徴量と、前記取得部により取得された特徴量とを用いて、前記一の車両を運転しているユーザを特定する運転ユーザ特定部と
     を備えることを特徴とする情報処理装置。
  2.  前記乗車ユーザ特定部は、各々のユーザが携帯する端末の位置と、前記一の車両の位置とを比較して、当該一の車両に乗車しているユーザ群を特定する
     ことを特徴とする請求項1記載の情報処理装置。
  3.  前記乗車ユーザ特定部は、各々のユーザが携帯する端末によって検出されたデータと、前記一の車両によって検出されたデータとを比較して、当該一の車両に乗車しているユーザ群を特定する
     ことを特徴とする請求項1記載の情報処理装置。
  4.  前記乗車ユーザ特定部により特定された前記ユーザ群の各々が車両を運転するときの特徴量は、車両を運転するユーザと当該車両に乗車するユーザとの組み合わせに応じて異なる
     ことを特徴とする請求項1~3のいずれか1項に記載の情報処理装置。
  5.  前記乗車ユーザ特定部により特定された前記ユーザ群の各々が車両を運転するときの特徴量は、運転される車両の属性に応じて異なる
     ことを特徴とする請求項1~4のいずれか1項に記載の情報処理装置。
  6.  前記乗車ユーザ特定部により特定された前記ユーザ群の各々が車両を運転するときの特徴量は、車両を運転するときの環境に応じて異なる
     ことを特徴とする請求項1~5のいずれか1項に記載の情報処理装置。
  7.  前記運転ユーザ特定部は、前記一の車両の停止期間が閾値を超えた場合、前記一の車両の駆動源が停止した場合、又は前記一の車両のドアが開閉された場合に、当該一の車両を運転しているユーザを特定した結果をリセットする
     ことを特徴とする請求項1~6のいずれか1項に記載の情報処理装置。
PCT/JP2020/019949 2019-07-26 2020-05-20 情報処理装置 WO2021019875A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019137990A JP2022145971A (ja) 2019-07-26 2019-07-26 情報処理装置
JP2019-137990 2019-07-26

Publications (1)

Publication Number Publication Date
WO2021019875A1 true WO2021019875A1 (ja) 2021-02-04

Family

ID=74230663

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/019949 WO2021019875A1 (ja) 2019-07-26 2020-05-20 情報処理装置

Country Status (2)

Country Link
JP (1) JP2022145971A (ja)
WO (1) WO2021019875A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157385A1 (ja) * 2022-02-15 2023-08-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置及び制御プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007083972A (ja) * 2005-09-26 2007-04-05 Denso Corp 運転者判定装置および運転者判定方法
JP2009237937A (ja) * 2008-03-27 2009-10-15 Equos Research Co Ltd ドライバモデル処理装置
WO2013157136A1 (ja) * 2012-04-20 2013-10-24 トヨタ自動車株式会社 情報特定装置
JP2015071319A (ja) * 2013-10-01 2015-04-16 株式会社オートネットワーク技術研究所 運転者特定システム
JP2016126623A (ja) * 2015-01-06 2016-07-11 株式会社Nttドコモ 行動支援装置、行動支援システム、行動支援方法及びプログラム
WO2018070475A1 (ja) * 2016-10-12 2018-04-19 パイオニア株式会社 走行制御装置、走行制御方法、及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007083972A (ja) * 2005-09-26 2007-04-05 Denso Corp 運転者判定装置および運転者判定方法
JP2009237937A (ja) * 2008-03-27 2009-10-15 Equos Research Co Ltd ドライバモデル処理装置
WO2013157136A1 (ja) * 2012-04-20 2013-10-24 トヨタ自動車株式会社 情報特定装置
JP2015071319A (ja) * 2013-10-01 2015-04-16 株式会社オートネットワーク技術研究所 運転者特定システム
JP2016126623A (ja) * 2015-01-06 2016-07-11 株式会社Nttドコモ 行動支援装置、行動支援システム、行動支援方法及びプログラム
WO2018070475A1 (ja) * 2016-10-12 2018-04-19 パイオニア株式会社 走行制御装置、走行制御方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157385A1 (ja) * 2022-02-15 2023-08-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置及び制御プログラム

Also Published As

Publication number Publication date
JP2022145971A (ja) 2022-10-05

Similar Documents

Publication Publication Date Title
GB2536542B (en) Haptic vehicle alert based on wearable device
KR102303909B1 (ko) 휴대 단말기 및 차량용 어플리케이션 제어 방법
EP3502862B1 (en) Method for presenting content based on checking of passenger equipment and distraction
KR102241297B1 (ko) 제어 방법 및 그 방법을 처리하는 전자장치
RU2679939C1 (ru) Способ и система предоставления отчета после вождения с обучением
US20190308503A1 (en) Mobile device synchronization with bluetooth low energy and data collection
RU2698755C2 (ru) Работа вспомогательных устройств транспортного средства на основании отслеживания движений
US20170120932A1 (en) Gesture-based vehicle-user interaction
RU2719510C2 (ru) Способ и устройство для содействия водителю транспортного средства, в частности коммерческого транспортного средства
US20200269811A1 (en) Vehicle smart key system and control method thereof
CN108430831A (zh) 一种倒车图像处理的方法及其相关设备
KR20160099344A (ko) 인터페이스 장치, 이와 연결되는 차량 검사 장치, 및 차량 검사 장치의 제어방법
CN109153352B (zh) 汽车智能提醒方法及装置
WO2021019875A1 (ja) 情報処理装置
US9881483B2 (en) Vehicle based system for managing personal items
WO2021019876A1 (ja) 情報処理装置、運転者特定装置及び学習モデル
US20200126000A1 (en) Car sharing service apparatus and method for operating the same
KR20160063088A (ko) 차량의 스마트 기기 연동 스마트키 시스템
US11951942B2 (en) Vehicle control device and vehicle
WO2021192873A1 (ja) 測位システム
WO2023018433A1 (en) Systems and methods for operating a vehicle based on physiological parameters of an occupant
US10647253B2 (en) Information processing device, method of controlling terminal device, and non-transitory computer-readable recording medium
US10154380B2 (en) Method and system for handling position of a UE associated with a vehicle
JP7246255B2 (ja) 情報処理装置及びプログラム
JP7267105B2 (ja) 情報処理装置及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20846169

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20846169

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP