WO2023223382A1 - 乗合車両支援装置、システム及び方法、並びに、コンピュータ可読媒体 - Google Patents

乗合車両支援装置、システム及び方法、並びに、コンピュータ可読媒体 Download PDF

Info

Publication number
WO2023223382A1
WO2023223382A1 PCT/JP2022/020353 JP2022020353W WO2023223382A1 WO 2023223382 A1 WO2023223382 A1 WO 2023223382A1 JP 2022020353 W JP2022020353 W JP 2022020353W WO 2023223382 A1 WO2023223382 A1 WO 2023223382A1
Authority
WO
WIPO (PCT)
Prior art keywords
passenger
shared vehicle
authentication
information
support device
Prior art date
Application number
PCT/JP2022/020353
Other languages
English (en)
French (fr)
Inventor
ほなみ 幸
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/020353 priority Critical patent/WO2023223382A1/ja
Publication of WO2023223382A1 publication Critical patent/WO2023223382A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07BTICKET-ISSUING APPARATUS; FARE-REGISTERING APPARATUS; FRANKING APPARATUS
    • G07B15/00Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points
    • G07B15/02Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points taking into account a variable factor such as distance or time, e.g. for passenger transport, parking systems or car rental systems
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/38Individual registration on entry or exit not involving the use of a pass with central registration

Definitions

  • the present disclosure relates to a shared vehicle support device, system, method, and program.
  • Patent Document 1 discloses a technology that makes it easier to recognize the wrong place to get off the bus.
  • the technology according to Patent Document 1 images the face of a passenger when boarding the vehicle, authenticates the passenger, obtains the alighting location from the passenger, identifies the passenger at the time of alighting, detects passengers who have not alighted, and determines whether the passenger got off the vehicle by mistake. , notify passengers and drivers.
  • the information regarding getting off the vehicle such as the time required for getting off the vehicle, differs for each passenger.
  • the reason for this is that the location in the passenger vehicle, the passenger's baggage, the physical condition, etc. are different.
  • an object of the present disclosure is to provide a shared vehicle support device, system, method, and program for providing appropriate information regarding disembarkation in a shared vehicle.
  • the shared vehicle support device includes: a first identifying means for identifying the attributes of a passenger in a shared vehicle based on personal identification authentication for the passenger; a second specifying means for specifying the position in the passenger vehicle of the passenger who has successfully completed the personal identification authentication; Calculation means for calculating the time required for the passenger to travel from the specified position to the exit of the shared vehicle based on the specified attribute; Output means for outputting the required time; Equipped with
  • the shared vehicle support system includes: An authentication terminal installed in a shared vehicle, A shared vehicle support device that supports the operation of the shared vehicle,
  • the shared vehicle support device includes: a first specifying means for specifying attributes of the passenger based on identification authentication of the passenger in the shared vehicle by the authentication terminal; a second specifying means for specifying the position in the passenger vehicle of the passenger who has successfully completed the personal identification authentication; Calculation means for calculating the time required for the passenger to travel from the specified position to the exit of the shared vehicle based on the specified attribute; Output means for outputting the required time; Equipped with
  • the shared vehicle support method includes: The computer is Identify the attributes of the passenger in the shared vehicle based on the identity authentication of the passenger, identifying the position in the passenger vehicle of the passenger who has successfully authenticated his or her identity; Calculating the time required for the passenger to travel from the specified position to the exit of the shared vehicle based on the specified attribute; Output the required time.
  • the shared vehicle support program is a first identification process for identifying the attributes of a passenger in the shared vehicle based on identification authentication for the passenger; a second identification process for identifying the position of the passenger who has successfully passed the identity identification authentication in the shared vehicle; a calculation process of calculating the time required for the passenger to travel from the specified position to the exit of the shared vehicle based on the specified attribute; Output processing that outputs the required time; have the computer execute it.
  • FIG. 1 is a block diagram showing the configuration of a shared vehicle support device according to the first embodiment
  • FIG. 2 is a flowchart showing the flow of a shared vehicle support method according to the first embodiment.
  • FIG. 2 is a block diagram showing the configuration of a shared vehicle support system according to a second embodiment.
  • 2 is a block diagram showing the configuration of an authentication device according to a second embodiment.
  • FIG. 7 is a diagram illustrating an example of the arrangement inside a shared vehicle according to the second embodiment.
  • FIG. 2 is a block diagram showing the configuration of an authentication terminal according to the second embodiment.
  • FIG. 7 is a flowchart showing the flow of face information registration processing by the authentication device according to the second embodiment.
  • FIG. 7 is a sequence diagram showing the flow of passenger information identification processing at the time of boarding according to the second embodiment.
  • 7 is a flowchart showing the flow of face authentication processing by the authentication device according to the second embodiment.
  • FIG. 7 is a sequence diagram showing the flow of passenger information identification processing when seated according to the second embodiment.
  • FIG. 7 is a sequence diagram showing the flow of passenger information identification processing for standing passengers according to the second embodiment.
  • 7 is a flowchart showing the flow of support information display processing according to the second embodiment.
  • 7 is a diagram showing an example of display information such as support information according to the second embodiment.
  • FIG. 7 is a diagram showing an example of display information such as support information according to the second embodiment.
  • FIG. 12 is a flowchart showing the flow of a disembarkation notice process according to the second embodiment.
  • 7 is a diagram showing an example of display information on the authentication terminal according to the second embodiment.
  • FIG. FIG. 7 is a sequence diagram showing the flow of alighting process according to the second embodiment.
  • 12 is a flowchart showing the flow of a disembarkation notice process according to the third embodiment.
  • FIG. 7 is a sequence diagram showing the flow of dynamic pricing processing for fares for shared vehicles according to the fourth embodiment.
  • FIG. 1 is a block diagram showing the configuration of a shared vehicle support device 1 according to the first embodiment.
  • the shared vehicle support device 1 is an information processing device for supporting the provision of information regarding alighting in a shared vehicle in which a plurality of passengers get off at different locations.
  • the shared vehicle is, for example, a route bus or MaaS (Mobility as a Service), and is not limited to these, and the presence or absence of a driver does not matter.
  • the shared vehicle is equipped with an authentication terminal (not shown) for identifying and authenticating the passenger.
  • the personal identification authentication includes biometric authentication such as facial recognition, authentication for personal identification using electronic identification information, and the like.
  • the shared vehicle support device 1 includes a first identifying section 11, a second identifying section 12, a calculating section 13, and an output section 14.
  • the first identification unit 11 identifies the attributes of the passenger in the shared vehicle based on the identification and authentication of the passenger.
  • the attributes include, for example, the age, gender, physical condition of the passenger, the size of baggage, the number of infants traveling together, etc., but are not limited to these.
  • the second specifying unit 12 specifies the position in the passenger vehicle of the passenger whose identity has been successfully authenticated.
  • the calculation unit 13 calculates the time required for the passenger to travel from the specified position to the exit of the shared vehicle based on the specified attribute.
  • the output unit 14 outputs the required time.
  • FIG. 2 is a flowchart showing the flow of the shared vehicle support method according to the first embodiment.
  • the first specifying unit 11 specifies the attributes of the passenger in the shared vehicle based on the personal identification authentication for the passenger (S11).
  • the second specifying unit 12 specifies the position of the passenger whose identity has been successfully authenticated in the shared vehicle (S12).
  • the calculation unit 13 calculates the time required for the passenger to travel from the specified position to the exit of the shared vehicle based on the specified attribute (S13).
  • the output unit 14 outputs the required time (S14).
  • the time it takes for passengers in a shared vehicle to travel to the exit when getting off the vehicle differs depending on their attributes and position in the vehicle (seating or standing position). Therefore, by calculating and outputting the required time based on these, it is possible to provide appropriate information regarding disembarkation in the shared vehicle to the driver, passenger, or vehicle control device of the shared vehicle.
  • the shared vehicle support device 1 includes a processor, a memory, and a storage device as components not shown. Further, the storage device stores a computer program in which the processing of the shared vehicle support method according to the present embodiment is implemented. Then, the processor loads a computer program or the like from the storage device into the memory, and executes the computer program. Thereby, the processor realizes the functions of the first specifying section 11, the second specifying section 12, the calculating section 13, and the output section 14.
  • each component of the shared vehicle support device 1 may be realized by dedicated hardware. Further, a part or all of each component of each device may be realized by a general-purpose or dedicated circuit, a processor, etc., or a combination thereof. These may be configured by a single chip or multiple chips connected via a bus. A part or all of each component of each device may be realized by a combination of the circuits and the like described above and a program. Further, as the processor, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an FPGA (Field-Programmable Gate Array), a quantum processor (a quantum computer control chip), etc. can be used.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • FPGA Field-Programmable Gate Array
  • quantum processor a quantum computer control chip
  • each component of the shared vehicle support device 1 is realized by a plurality of information processing devices, circuits, etc.
  • the plurality of information processing devices, circuits, etc. may be centrally arranged. , may be distributed.
  • information processing devices, circuits, etc. may be realized as a client server system, a cloud computing system, or the like, in which each is connected via a communication network.
  • the functions of the shared vehicle support device 1 may be provided in a SaaS (Software as a Service) format.
  • SaaS Software as a Service
  • the second embodiment is a specific example of the first embodiment described above.
  • an example will be described in which a route bus operated by a driver is used as a shared vehicle.
  • shared vehicles are not limited to this.
  • FIG. 3 is a block diagram showing the configuration of a shared vehicle support system 1000 according to the second embodiment.
  • the shared vehicle support system 1000 is an information system for supporting the operation of a shared vehicle 10 in which an authentication terminal 101 is mounted and in which a plurality of passengers U1 ride.
  • the shared vehicle support system 1000 includes authentication terminals 101-1 to 101-3, etc., a display device 102, a vehicle control device 103, an authentication device 200, and a shared vehicle support device 300. At least the vehicle control device 103, the authentication device 200, and the shared vehicle support device 300 are connected via the network N so as to be communicable.
  • the network N is a communication network including a wireless communication line, such as the Internet, a wireless communication line network, a mobile phone line network, etc.
  • the type of communication protocol used by the network N does not matter.
  • the shared vehicle 10 is operated by a driver U0 and transports a plurality of passengers U1-1, U1-2, U1-3, etc. (hereinafter sometimes collectively referred to as "passengers U1") to different alighting points.
  • This is a vehicle for
  • the alighting point is typically a predetermined point on the road such as a bus stop, but may be any point designated by each passenger U1.
  • the shared vehicle 10 stops at two or more alighting points.
  • the shared vehicle 10 is equipped with authentication terminals 101-1 to 101-3, a display device 102, and a vehicle control device 103.
  • the authentication terminals 101-1 to 101-3 and the like have equivalent functions, and may be collectively referred to as "authentication terminal 101" below.
  • the number of authentication terminals 101 is not limited to three, but may be at least one or more.
  • the authentication terminal 101 and the display device 102 are connected to a vehicle control device 103 and can communicate with the network N via the vehicle control device 103. Note that the authentication terminal 101 and the display device 102 may be able to communicate directly with the network N by wireless communication.
  • the vehicle control device 103 is an information processing device for controlling the traveling of the shared vehicle 10.
  • Vehicle control device 103 may be, for example, an ECU (Electronic Control Unit) equipped with a wireless communication function.
  • the vehicle control device 103 performs opening/closing control of the entrance and exit doors of the passenger vehicle 10, relays communication between the authentication terminal 101-1, etc. and the display device 102, and the outside of the passenger vehicle 10, but is limited to these functions. Not done.
  • the display device 102 is a display that is installed in the shared vehicle 10 and is visible to at least either the driver U0 or the passenger U1.
  • the authentication terminal 101 is an information terminal for performing face authentication as an example of identity identification authentication for the passenger U1.
  • the authentication terminal 101 photographs an area including the face of the passenger U1 using a built-in or connected camera, and sends a face authentication request including the photographed facial image and the terminal ID of the authentication terminal 101 via the network N. It is transmitted to the authentication device 200 or the shared vehicle support device 300.
  • the face authentication request may include time information such as a photographing time and a sending time.
  • the face authentication request may include location information indicating the installation location of the authentication terminal 101, etc. Note that the specific configuration of the authentication terminal 101 will be described later.
  • the authentication terminal 101 may be an information terminal (user terminal) carried and operated by the passenger U1.
  • the user terminal may transmit a face authentication request including an image of the user taken by a built-in or connected camera and location information of the user terminal to the authentication device 200 or the shared vehicle support device 300 via the network N.
  • the user terminal may perform a process of registering the user's facial image (facial feature information) in the authentication device 200 in advance.
  • the user terminal transmits a registration request for passenger information including a face image and attribute information to the shared vehicle support device 300.
  • the shared vehicle support device 300 registers the facial information of the passenger in the authentication device 200.
  • the authentication device 200 is an information processing device that manages facial feature information of users (passengers) and performs facial authentication. In addition, in response to a face authentication request received from the outside, the authentication device 200 matches the facial image or facial feature information included in the request with the facial feature information of each user, and requests the matching result (authentication result). Reply to original.
  • FIG. 4 is a block diagram showing the configuration of the authentication device 200 according to the second embodiment.
  • the authentication device 200 includes a face information DB (DataBase) 210, a face detection section 220, a feature point extraction section 230, a registration section 240, and an authentication section 250.
  • the face information DB 210 stores the user ID 211 and the facial feature information 212 of the user ID in association with each other.
  • the facial feature information 212 is a set of feature points extracted from the facial image.
  • the authentication device 200 may delete the facial feature information 212 in the facial information DB 210 in response to a request from a user or the like corresponding to the facial feature information 212.
  • the authentication device 200 may delete the facial feature information 212 after a certain period of time has passed since registration.
  • the face detection unit 220 detects a face area included in a registration image for registering face information, and outputs it to the feature point extraction unit 230.
  • the feature point extraction unit 230 extracts feature points from the face area detected by the face detection unit 220 and outputs facial feature information to the registration unit 240. Further, the feature point extraction unit 230 extracts feature points included in the facial image received from the shared vehicle support device 300 or the like, and outputs facial feature information to the authentication unit 250.
  • the registration unit 240 issues a new user ID 211 when registering facial feature information.
  • the registration unit 240 associates the issued user ID 211 with the facial feature information 212 extracted from the registered image and registers it in the facial information DB 210.
  • the authentication unit 250 performs face authentication using the facial feature information 212. Specifically, the authentication unit 250 compares the facial feature information extracted from the facial image with the facial feature information 212 in the facial information DB 210. When the verification is successful, the authentication unit 250 identifies the user ID 211 associated with the verified facial feature information 212. The authentication unit 250 returns whether or not the facial feature information matches to the request source as a facial authentication result. Whether or not the facial feature information matches corresponds to the success or failure of authentication. Note that facial feature information matches (match exists) when the matching degree is equal to or higher than a threshold value. Further, the face authentication result shall include the specified user ID when the face authentication is successful.
  • FIG. 5 is a diagram showing an example of the arrangement inside the shared vehicle 10 according to the second embodiment.
  • the shared vehicle 10 is operated by a driver U0 in the driver's seat.
  • the display device 102 is installed near the driver's seat so that the driver U0 can visually confirm the displayed content as needed. Note that the display device 102 may be installed at a position where the passenger U1 can view it.
  • the display device 102 displays display data received from the shared vehicle support device 300 via the vehicle control device 103 described above on the screen.
  • the in-vehicle camera 104 is installed at a position where it can photograph the inside of the passenger vehicle 10, particularly the passenger U1 side.
  • the in-vehicle camera 104 takes pictures periodically or at an arbitrary timing, and transmits the captured in-vehicle images to the shared vehicle support device 300 via the vehicle control device 103.
  • an authentication terminal 101-1 is installed near the entrance, and an authentication terminal 101-e is installed near the exit. Further, the shared vehicle 10 has a plurality of seats installed, and an authentication terminal 101 is installed in each seat. It is assumed that the passenger vehicle 10 includes passengers U1-2 and the like who are seated, and passengers U1-5 and the like who do not sit but stand up. However, the passenger U1 may be seated or standing.
  • Passenger U1-1 may specify the alighting point to authentication terminal 101-1 when boarding the vehicle.
  • the alighting route R2 is a route taken by the passenger U1-2 from the seat of the authentication terminal 101-2 to the exit in order to alight the vehicle. Note that since passenger U1-2 is carrying baggage 105, it is assumed that it may take longer for him to get off the train than for a passenger in the same seat who does not have baggage.
  • Passenger U1-3 is seated in the back right seat of the passenger vehicle 10, where the authentication terminal 101-3 is installed.
  • the alighting route R3 is a route taken by the passenger U1-3 to cross other seats and move to the exit in order to alight. Therefore, it is assumed that passenger U1-3 may take longer to get off the vehicle than passengers in other seats.
  • Passenger U1-4 is seated in the front right seat of the passenger vehicle 10, where the authentication terminal 101-4 is installed.
  • the alighting route R4 is a route taken by the passenger U1-4 to the exit in order to alight from the vehicle.
  • the disembarkation route R4 is shorter than the disembarkation route R3.
  • Passenger U1-5 is assumed to be standing and not seated. Therefore, the identity of the passenger U1-5 may be authenticated through facial recognition based on an image captured by the in-vehicle camera 104, and the location of the passenger may be identified by analyzing the captured image. Further, it is assumed that passenger U1-5 is present relatively near the exit.
  • the alighting route R5 is a route taken by the passenger U1-5 to the exit in order to alight from the vehicle.
  • the disembarkation route R5 is shorter than the disembarkation routes R2, R3, and R5.
  • the passenger U1 may specify the alighting point to the seat authentication terminal 101. Further, the passenger U1-5 may specify the alighting point by pressing the alighting designation button in the shared vehicle 10. In this case, by analyzing the image taken by the in-vehicle camera 104 and performing facial recognition on the facial image of the person who pressed the alighting designation button, the alighting point for the passenger U1-5 may be designated.
  • FIG. 6 is a block diagram showing the configuration of the authentication terminal 101 according to the second embodiment.
  • the authentication terminal 101 includes a storage section 110, a memory 120, a communication section 130, a camera 140, a touch panel 150, and a control section 160.
  • the storage unit 110 is an example of a storage device such as a hard disk or a flash memory.
  • the storage unit 110 stores a program 111 and a terminal ID 112.
  • the program 111 is a computer program in which processes such as face authentication processing using the authentication device 200 according to the second embodiment, receiving the designation of the alighting point from the passenger U1, and displaying display data from the shared vehicle support device 300 are implemented. It is.
  • the terminal ID 112 is identification information of the authentication terminal 101.
  • the terminal ID 112 may be information corresponding to the installation position of the authentication terminal 101 within the shared vehicle 10.
  • the storage unit 110 may store information indicating the installation position of the authentication terminal 101.
  • the memory 120 is a volatile storage device such as a RAM (Random Access Memory), and is a storage area for temporarily holding information when the control unit 160 operates.
  • the communication unit 130 is a communication interface with the vehicle control device 103 or the network N.
  • the camera 140 is a photographing device for photographing an area including the face of the passenger U1. Camera 140 outputs the captured image to control unit 160.
  • Touch panel 150 includes a display device (display unit) such as a screen and an input device.
  • the control unit 160 is a processor that controls each component of the authentication terminal 101, that is, a control device.
  • the control unit 160 loads the program 111 from the storage unit 110 into the memory 120 and executes the program 111. Thereby, the control unit 160 realizes the functions of the reception unit 161, the authentication control unit 162, and the display control unit 163.
  • the reception unit 161 accepts the facial image of the passenger U1 taken by the camera 140, and outputs the facial image to the authentication control unit 162.
  • the receiving unit 161 also accepts the designation of the alighting point input from the passenger U1 via the touch panel 150, and outputs the designated alighting point to the authentication control unit 162.
  • the authentication control unit 162 sends a face authentication request including the face image output by the reception unit 161 and the terminal ID 112 stored in the storage unit 110 to the shared vehicle support device 300 via the vehicle control device 103 and the network N. Send to. Further, the authentication control unit 162 may further include the alighting point output by the receiving unit 161 in the face authentication request.
  • the display control unit 163 displays the display data received from the shared vehicle support device 300 via the network N and the vehicle control device 103 on the touch panel 150.
  • FIG. 7 is a block diagram showing the configuration of a shared vehicle support device 300 according to the second embodiment.
  • the shared vehicle support device 300 is an example of the shared vehicle support device 1 described above.
  • the shared vehicle support device 300 is an information processing device that supports the operation of the shared vehicle 10.
  • the shared vehicle support device 300 may be made redundant with multiple servers, and each functional block may be implemented with multiple computers.
  • the shared vehicle support device 300 includes a storage section 310, a memory 320, a communication section 330, and a control section 340.
  • the storage unit 310 is an example of a storage device such as a hard disk or flash memory.
  • the storage unit 310 stores a program 311, passenger information 312, support information 313, and history information 314.
  • the program 311 is a computer program (shared vehicle support program) in which the shared vehicle support processing and the like according to the second embodiment are implemented.
  • the passenger information 312 is information for managing passengers in the shared vehicle 10.
  • Passenger information 312 is information in which a user ID 3121, attribute information 3122, in-vehicle position 3123, designated alighting point 3124, and required time 3125 for alighting are associated with each other.
  • User ID 3121 is user identification information.
  • the user ID 3121 is information that is the same as or uniquely corresponds to the user ID 211 that is managed in the face information DB 210 of the authentication device 200 in association with the facial feature information 212. Therefore, the passenger information 312 can be said to be information associated with characteristic information for user registration (biometric information, personal identification information, personal identification information, etc.) via the user ID 3121.
  • the attribute information 3122 includes, but is not limited to, age, gender, physical condition, equipment, type and size of stroller, type and size of baggage, number of infants traveling together, and the like.
  • Examples of the physical condition include, but are not limited to, the details of a physical disability and the degree of difficulty in walking.
  • braces include, but are not limited to, canes, wheelchairs, and the like.
  • Examples of baggage include, but are not limited to, backpacks, suitcases, and the like.
  • the attribute information 3122 may also include payment information used for paying the fare.
  • the payment information includes credit card information, electronic money, barcode payment account information, bank debit account information, and the like.
  • the attribute information 3122 may also include contact information of a user terminal carried and operated by the passenger corresponding to the user ID 3121.
  • the contact information includes an e-mail address, a telephone number, terminal identification information, login information for an application for using a shared vehicle support service, and the like.
  • the in-vehicle position 3123 is the position in the shared vehicle 10 of the passenger U1 whose face authentication was successful.
  • the in-vehicle position 3145 is the terminal position or seat position corresponding to the terminal ID of the authentication terminal 101 that successfully performed facial recognition when the passenger U1 is seated in the seat, or the image taken by the in-vehicle camera 104 after the passenger U1 gets on the seat is analyzed. This is the location within the vehicle that was specified.
  • the positions identified by analyzing the image may include not only the standing position but also the seat position.
  • the designated alighting point 3124 is positional information indicating the alighting point designated by the passenger U1.
  • the designated alighting point 3124 may be a bus stop, an arbitrary address, or other location information.
  • the time required for getting off the train 3125 is the time required for the passenger U1 to move from the in-vehicle position 3123 to the exit of the shared vehicle 10.
  • the time required for getting off the train 3125 is calculated by taking into account the distance from the in-vehicle position 3123 to the exit, as well as the attribute information 3122 of the passenger U1.
  • the support information 313 is information according to the alighting point specified by the passenger U1, and is an example of information regarding the alighting of the passenger U1 in the shared vehicle 10.
  • the support information 313 is, for example, information for supporting the driver U0, the passenger U1, or the vehicle control device 103.
  • the support information 313 is information that associates a drop-off point 3131, an in-vehicle position list 3132, and a number of people 3133.
  • the alighting point 3131 is a place where the shared vehicle 10 stops to let some of the passengers U1 alight.
  • the alighting point 3131 includes the aforesaid designated alighting point 3124.
  • the in-vehicle position list 3132 is a collection of the positions in the shared vehicle 10 of the passenger U1 who specified the corresponding alighting point 3131, such as the seat position or standing position.
  • the number of passengers 3133 is the number of passengers U1 who specified the corresponding alighting point 3131.
  • the history information 314 is information that records the history of the passenger U1 (user) getting on and off the shared vehicle 10 or the like. Note that the history information 314 includes histories in a plurality of different shared vehicles 10. For example, the history information 314 includes the usage history of passengers for a plurality of route buses whose operation is supported using the shared vehicle support device 300 according to the present embodiment.
  • the history information 314 is information that associates a user ID 3141, attribute information 3142, boarding date and time 3143, boarding point 3144, in-vehicle position 3145, alighting date and time 3146, alighting point 3147, and alighting time 3148.
  • the user ID 3141 is information corresponding to the user ID 3121 described above.
  • Attribute information 3142 is information associated with user ID 3121 corresponding to user ID 3141 in passenger information 312.
  • the boarding date and time 3143 is the date and time when the corresponding passenger boarded the shared vehicle 10.
  • the boarding date and time 3143 is the date and time when facial recognition was successfully performed on the authentication terminal 101-1 installed at the entrance of the passenger vehicle 10, the date and time when the facial recognition was successful on the authentication terminal 101 when the passenger U1 was seated, or This includes the date and time when U1 first succeeded in face authentication based on the image taken by the in-vehicle camera 104 after getting into the vehicle.
  • the boarding point 3144 is position information indicating the point where the passenger U1 boarded the vehicle.
  • the boarding point 3144 is the point where the shared vehicle 10 stopped when the passenger U1 boarded the vehicle, the current position of the shared vehicle 10 obtained from the authentication terminal 101 that performed facial recognition of the passenger U1, or the like.
  • the in-vehicle position 3145 is the above-described in-vehicle position 3123 of the corresponding passenger.
  • the alighting date and time 3146 is the date and time when the corresponding passenger alighted from the shared vehicle 10.
  • the alighting date and time 3146 is the date and time when facial authentication was successful at the authentication terminal 101-e installed at the exit of the passenger vehicle 10, the date and time when the passenger vehicle 10 stopped at the designated point for alighting the passenger, and the like.
  • the alighting point 3147 is the stopping point when the corresponding passenger successfully performs facial authentication using the authentication terminal 101-e.
  • the alighting time required 3148 is the above-described alighting time 3125 for the corresponding passenger, or the difference between the time when the shared vehicle 10 stops and the time when the corresponding passenger succeeds in face authentication using the authentication terminal 101-e. Good too.
  • the memory 320 is a volatile storage device such as a RAM, and is a storage area for temporarily holding information when the control unit 340 operates.
  • the communication unit 330 is a communication interface with the network N.
  • the control unit 340 is a processor that controls each component of the shared vehicle support device 300, that is, a control device.
  • the control unit 340 loads the program 311 from the storage unit 310 into the memory 320 and executes the program 311. Thereby, the control unit 340 realizes the functions of the registration unit 341, the authentication control unit 342, the identification unit 343, the calculation unit 344, the derivation unit 345, and the output unit 346.
  • the registration unit 341 performs a process of registering facial feature information and attribute information of users who can be passengers in the shared vehicle 10. Specifically, when receiving the user's facial image and attribute information, the registration unit 341 registers facial feature information based on the facial image in the authentication device 200, and acquires the user ID issued at the time of registration. Then, the display information 41 is registered in the storage unit 310 as passenger information 312 with the acquired user ID 3121 and attribute information 3122 associated with each other. Further, as soon as the passenger's in-vehicle position 3123, designated alighting point 3124, and required time 3125 for alighting are specified or calculated, the registration unit 341 updates the passenger information 312 by associating these with the user ID 3121 of the passenger.
  • the registration unit 341 may register the support information 313 in the storage unit 310. Further, the registration unit 341 registers and updates the history information 314 in the storage unit 310 when a passenger gets on or off the vehicle.
  • the authentication control unit 342 controls identity identification authentication using images taken of passengers.
  • the authentication control unit 342 controls biometric authentication of the passenger using biometric information extracted from an image of the passenger.
  • the authentication control unit 342 controls face authentication as biometric authentication.
  • the authentication control unit 342 may control person identification authentication other than biometric authentication.
  • the specifying unit 343 is an example of the first specifying unit 11 and the second specifying unit 12 described above.
  • the identification unit 343 identifies the attribute information of the passenger U1 based on the identification authentication of the passenger U1 of the shared vehicle 10 by the authentication terminal 101. Specifically, when the face authentication by the authentication control unit 342 is successful, the specifying unit 343 specifies, from the passenger information 312, the attribute information 3122 associated with the user ID 3121 for which the face authentication was successful. Further, the identification unit 343 may identify the passenger's attribute information through image recognition of an image taken of the passenger U1 while riding or sitting.
  • the specifying unit 343 may perform image recognition as an analysis of the photographed image, and may specify the passenger U1's equipment, stroller, baggage, number of infants traveling together, etc. as attribute information through the image recognition. That is, the identification unit 343 is not limited to identifying attribute information from the passenger information 312, and may identify attribute information by image recognition.
  • the identification unit 343 identifies the position of the passenger U1 who has successfully authenticated his or her identity within the shared vehicle 10. Specifically, the specifying unit 343 specifies the terminal position of the authentication terminal 101 that performed face authentication as the in-vehicle position. Alternatively, the specifying unit 343 may extract a region of the person from image recognition of an in-vehicle image captured by the in-vehicle camera 104 and specify the extracted region as the passenger's in-vehicle position.
  • the calculation unit 344 is an example of the calculation unit 13 described above.
  • the calculation unit 344 calculates the time required for the passenger U1 to get off the vehicle from the specified position in the vehicle to the exit of the shared vehicle 10 based on the attribute information specified by the specification unit 343.
  • the derivation unit 345 derives support information according to the alighting point specified by the passenger U1.
  • the derivation unit 345 derives the number of people scheduled to get off at a specific alighting point as support information. Further, the derivation unit 345 may derive information associating the identified in-vehicle position of the passenger U1 with the designated alighting point as the support information.
  • the output unit 346 is an example of the output unit 14 described above.
  • the output unit 346 outputs the time required for getting off the vehicle calculated by the calculation unit 344.
  • the output unit 346 further outputs the support information derived by the derivation unit 345.
  • the output unit 346 may output the required time for getting off the vehicle and the support information to the driver U0 of the shared vehicle 10.
  • the output unit 346 outputs the required time for getting off the vehicle and the support information to the display device 102 via the vehicle control device 103 for display.
  • the output unit 346 may output the required time for getting off the train and the support information to the authentication terminal 101 where the relevant passenger is seated, and display the information.
  • the output unit 346 may output the required time for getting off the vehicle and support information to the vehicle control device 103 in order to control the shared vehicle 10 .
  • FIG. 8 is a flowchart showing the flow of passenger information registration processing by the shared vehicle support device 300 according to the second embodiment.
  • a user who intends to board the shared vehicle 10 or the like operates a user terminal to pre-register his or her facial information and attribute information.
  • the user terminal acquires a facial image of the user's face.
  • the user terminal also receives attribute information input by the user.
  • the user terminal transmits a registration request for passenger information including a facial image and attribute information to the shared vehicle support device 300 via the network N.
  • the shared vehicle support device 300 receives a passenger information registration request from the user terminal, and accepts the user's facial image and attribute information included in the registration request (S101). Next, the shared vehicle support device 300 transmits a facial information registration request including a facial image to the authentication device 200 via the network N (S102). In response to this, the authentication device 200 performs face information registration processing.
  • FIG. 9 is a flowchart showing the flow of face information registration processing by the authentication device according to the second embodiment.
  • the authentication device 200 receives a face information registration request (S201).
  • the authentication device 200 receives a face information registration request from the shared vehicle support device 300 via the network N.
  • the face detection unit 220 detects a face area from the face image included in the face information registration request (S202).
  • the feature point extraction unit 230 extracts feature points (facial feature information) from the face area detected in step S202 (S203).
  • the registration unit 240 issues the user ID 211 (S204).
  • the registration unit 240 registers the extracted facial feature information 212 and the issued user ID 211 in the facial information DB 210 in association with each other (S205). Thereafter, the registration unit 240 returns the issued user ID 211 to the request source (for example, the shared vehicle support device 300) (S206).
  • the authentication device 200 may perform face information registration processing in response to a face information registration request received from an arbitrary information registration terminal.
  • the information registration terminal is an information processing device such as a personal computer, a smartphone, or a tablet terminal.
  • the shared vehicle support device 300 receives the facial information registration result (user ID) from the authentication device 200 via the network N (S103). Then, the shared vehicle support device 300 registers the received user ID 3121 and the attribute information 3122 received in step S101 in the passenger information 312 in association with each other (S104).
  • FIG. 10 is a sequence diagram showing the flow of passenger information identification processing at the time of boarding according to the second embodiment.
  • passengers U1-1 to U1-3 have completed the passenger information registration process of FIG. 8 described above in advance.
  • the attribute information does not necessarily have to be registered.
  • the passenger information identification process at the time of boarding the vehicle may not be essential.
  • the passenger U1-1 boards the shared vehicle 10 that has stopped at a predetermined boarding point from the entrance, and performs facial recognition using the authentication terminal 101-1. That is, the authentication terminal 101-1 photographs the face of the passenger U1-1 (S111) and obtains the photographed facial image. The authentication terminal 101-1 also reads the terminal ID 112 from the storage unit 110. Then, the authentication terminal 101-1 transmits the acquired facial image and terminal ID 112 to the shared vehicle support device 300 via the (vehicle control device 103 and) network N (S112).
  • the shared vehicle support device 300 receives the facial image and terminal ID from the authentication terminal 101-1, and recognizes that the passenger is near the authentication terminal 101-1 at the entrance based on the terminal ID. Then, the shared vehicle support device 300 transmits a face authentication request including the face image to the authentication device 200 via the network N (S113). In response, the authentication device 200 performs face authentication processing (S114).
  • FIG. 11 is a flowchart showing the flow of face authentication processing by the authentication device 200 according to the second embodiment.
  • the authentication device 200 receives a face authentication request from the shared vehicle support device 300 via the network N (S211).
  • the authentication device 200 extracts facial feature information from the facial image included in the facial authentication request, similarly to steps S202 and S203 described above.
  • the authentication unit 250 of the authentication device 200 compares the facial feature information extracted from the facial image included in the face authentication request with the facial feature information 212 of the facial information DB 210 (S212), and calculates the degree of matching.
  • the authentication unit 250 determines whether the degree of matching is greater than or equal to the threshold (S213).
  • the authentication unit 250 identifies the user ID 211 associated with the facial feature information 212 (S214). Then, the authentication unit 250 returns the facial authentication result including the fact that the facial authentication was successful and the specified user ID 211 to the shared vehicle support device 300 via the network N (S215). If the matching degree is less than the threshold in step S213, the authentication unit 250 returns the face authentication result including the fact that the face authentication has failed to the shared vehicle support device 300 via the network N (S216).
  • the shared vehicle support device 300 receives the face authentication result from the authentication device 200 via the network N (S115). Then, the shared vehicle support device 300 determines whether or not face authentication is successful. Specifically, the shared vehicle support device 300 refers to the face authentication result, and determines that the face authentication has been successful if the face authentication result includes the user ID. Note that if it is determined that the face authentication has failed, the shared vehicle support device 300 may send a reply to the authentication terminal 101-1 via the network N to the effect that the user has failed in the face authentication.
  • the face authentication result includes the fact that the face authentication was successful and the user ID of the passenger U1.
  • the shared vehicle support device 300 identifies attribute information 3122 associated with the user ID 3121 included in the face authentication result from the passenger information 312 (S116). Note that the shared vehicle support device 300 may perform image recognition on the facial image received from the authentication terminal 101-1 to identify age, gender, physical condition, orthosis, stroller, baggage, infant passenger, etc. as attribute information. good.
  • the shared vehicle support device 300 registers information regarding the ride in the history information 314 of the passenger U1 (S117). For example, the shared vehicle support device 300 generates history information 314 that associates the user ID 3141 included in the face authentication result, the specified attribute information 3142, the boarding date and time 3143, and the boarding point 3144, and stores the generated history information 314 in the storage unit. Register at 310.
  • FIG. 12 is a sequence diagram showing the flow of passenger information identification processing when seated according to the second embodiment.
  • the passenger U1-2 carrying the baggage 105 shown in FIG. 5 described above is seated at the seat where the authentication terminal 101-2 is installed.
  • the authentication terminal 101-2 photographs the face of the passenger U1-2 (S121) and obtains the photographed facial image.
  • the authentication terminal 101-2 also reads the terminal ID 112 from the storage unit 110.
  • the authentication terminal 101-2 receives the designation of the alighting point from the passenger U1-2 (S122).
  • the authentication terminal 101-2 transmits the acquired facial image, the designated alighting point, and the terminal ID 112 to the shared vehicle support device 300 via the (vehicle control device 103 and) network N (S123).
  • the alighting point may be specified before boarding the vehicle, as will be described later.
  • the shared vehicle support device 300 receives the facial image, the alighting point, and the terminal ID from the authentication terminal 101-2. Then, the shared vehicle support device 300 transmits a face authentication request including the face image to the authentication device 200 via the network N (S124). In response to this, the authentication device 200 performs face authentication processing (S125). Then, the shared vehicle support device 300 receives the face authentication result from the authentication device 200 via the network N (S126). Here, it is assumed that the facial recognition of the passenger U1-2 is successful.
  • the shared vehicle support device 300 identifies attribute information 3122 associated with the user ID 3121 included in the face authentication result from the passenger information 312 (S127). Further, the shared vehicle support device 300 performs image recognition on the facial image received from the authentication terminal 101-2, and identifies the baggage 105 carried by the passenger U1-2 as attribute information.
  • the shared vehicle support device 300 identifies the terminal position based on the terminal ID received in step S123 as the in-vehicle position of passenger U1-2 (S128). Specifically, the shared vehicle support device 300 identifies the seat position where the authentication terminal 101-2 is installed as the in-vehicle position of the passenger U1-2.
  • the shared vehicle support device 300 calculates the time required for getting off the vehicle from the attribute information specified in step S127 and the in-vehicle position specified in step S128 (S129). Specifically, the shared vehicle support device 300 calculates the alighting route R2 and distance from the passenger U1-2's in-vehicle position (authentication terminal 101-2) to the exit of the shared vehicle 10, and calculates the alighting route R2 and distance based on predetermined criteria. Calculate the standard time required to move R2. Then, since the passenger U1-2's attribute information includes the baggage 105, the shared vehicle support device 300 specifies a weighting coefficient that takes into account the type and shape of the baggage 105 based on predetermined criteria.
  • the shared vehicle support device 300 specifies the weighting coefficient by taking into account the above-mentioned physical condition, equipment, stroller, baggage, infant traveling with the passenger, etc. as the passenger's attribute information. Then, the shared vehicle support device 300 multiplies the standard required time for the alighting route R2 calculated above by the specified weighting coefficient to calculate the time required for the passenger U1-2 to alight.
  • the shared vehicle support device 300 calculates the expected arrival time and the number of stopping points from the current location of the shared vehicle 10 to the designated alighting point (alighting point) of the passenger U1-2 (S130). Then, the shared vehicle support device 300 transmits the estimated time required for arrival, the number of stopping points, and the time required for getting off the vehicle to the authentication terminal 101-2 via the network N (S131). In response, the authentication terminal 101-2 displays the received expected arrival time, number of stopping points, and alighting time (as well as the designated alighting point) on the screen (S132).
  • the shared vehicle support device 300 updates the passenger information 312 by associating the user ID 3121 of the passenger U1-2 with the attribute information 3122, the in-vehicle position 3123, the designated alighting point 3124, and the required time 3125 for alighting (S133).
  • the attribute information 3122 includes information about the baggage 105 identified by image recognition.
  • the shared vehicle support device 300 updates the history information 314 by associating the user ID 3141 of the passenger U1-2 with the attribute information 3142, the in-vehicle position 3145, and the time required for alighting 3148 (S134).
  • FIG. 13 is a sequence diagram showing the flow of passenger information identification processing for standing passengers according to the second embodiment. Note that the passenger information identification process for standing passengers may not be essential.
  • the in-vehicle camera 104 photographs the inside of the shared vehicle 10 (S141).
  • the in-vehicle camera 104 detects when the passenger vehicle 10 stops at a predetermined location, a passenger gets on the vehicle, and the passenger vehicle 10 starts traveling, that is, each passenger takes a seat or stands at a predetermined position. (For example, around the time you are caught in a hanging strap), take a photo.
  • the in-vehicle camera 104 may take a picture at the timing when the vehicle control device 103 notifies that the door of the shared vehicle 10 is closed.
  • the in-vehicle camera 104 transmits the captured in-vehicle image to the shared vehicle support device 300 via the vehicle control device 103 and the network N (S142).
  • the shared vehicle support device 300 identifies the passenger's face area and the position inside the vehicle from the in-vehicle image received from the in-vehicle camera 104 (S143). Specifically, the shared vehicle support device 300 extracts the passenger's facial area from image recognition of the in-vehicle image, and specifies the extracted area as a facial image. Further, the shared vehicle support device 300 identifies the region where the passenger is present through image recognition of the interior image of the vehicle, and specifies this as the passenger's location inside the vehicle. For example, the shared vehicle support device 300 identifies the face image and the position in the vehicle of passenger U1-5 in FIG.
  • the shared vehicle support device 300 transmits a face authentication request including the face image to the authentication device 200 via the network N (S144).
  • the authentication device 200 performs face authentication processing (S145).
  • the shared vehicle support device 300 receives the face authentication result from the authentication device 200 via the network N (S146).
  • the facial recognition of passenger U1-5 has been successful.
  • the shared vehicle support device 300 identifies attribute information 3122 associated with the user ID 3121 included in the face authentication result from the passenger information 312 (S147). Further, the shared vehicle support device 300 may identify the attribute information of the passenger U1-5 by performing image recognition on the facial image received from the in-vehicle camera 104.
  • the shared vehicle support device 300 calculates the time required for getting off the vehicle from the attribute information specified in step S147 and the in-vehicle position specified in step S143 (S148). After that, the shared vehicle support device 300 updates the passenger information 312 by associating the user ID 3121 of the passenger U1-5 with the attribute information 3122, the in-vehicle position 3123, and the time required for alighting 3125 (S149). updates the history information 314 by associating the user ID 3141 of the passenger U1-5 with the attribute information 3142, the in-vehicle position 3145, and the time required for getting off the train 3148 (S150).
  • FIG. 14 is a flowchart showing the flow of support information display processing according to the second embodiment.
  • the shared vehicle support device 300 derives a list of the number of people scheduled to get off the vehicle and their positions in the vehicle for each alighting point from the passenger information 312 (S161).
  • the shared vehicle support device 300 derives the time required for alighting at each alighting point from the passenger information 312 (S162).
  • the shared vehicle support device 300 derives the longest time among the respective alighting times 3125 as the alighting time at the specific alighting point. .
  • the shared vehicle support device 300 takes into account the attribute information 3122 of passengers at a specific designated alighting point and adds the time required for each passenger to alight, or calculates the time required for alighting by multiplying the longest time required for alighting by a predetermined multiplier. You may.
  • the shared vehicle support device 300 calculates the expected arrival time of the shared vehicle 10 from the current location for each alighting point (S163). Note that the shared vehicle support device 300 may calculate the number of stopping points from the current location of the shared vehicle 10 for each alighting point.
  • the shared vehicle support device 300 displays the estimated required arrival time and support information for each drop-off point on the display device 102 (S164). Specifically, the shared vehicle support device 300 transmits the estimated arrival time and support information for each alighting point to the display device 102 via the network N and the vehicle control device 103.
  • the support information includes the number of people scheduled to get off the vehicle calculated in step S161 and the expected arrival time calculated in step S163.
  • the shared vehicle support device 300 displays the designated alighting point and the required time for alighting on the display device 102 for each position in the vehicle (S165). Specifically, the shared vehicle support device 300 transmits a list of designated alighting points and alighting time for each in-vehicle location, that is, a list of in-vehicle locations, to the display device 102 via the network N and the vehicle control device 103.
  • steps S164 and S165 are merely examples, and other information may be transmitted to the display device 102. Furthermore, either one of steps S164 and S165 may be executed.
  • FIG. 15 is a diagram showing an example of display information 41 such as support information according to the second embodiment.
  • the display information 41 is an example in which the alighting point, the number of people scheduled to alight, the time required for alighting, and the estimated time required for arrival are displayed in a table format. For example, it shows that the number of people expected to get off the vehicle, the time required for getting off the vehicle, and the estimated time required for arrival are displayed for each of the drop-off points P0 to P7.
  • FIG. 16 is a diagram showing an example of display information 42 such as support information according to the second embodiment.
  • the display information 42 shows that the seat layout of the shared vehicle 10, the current arrangement of passengers, and the designated alighting point and required time for alighting of seated passengers are displayed for each seat.
  • passenger U1-3 and passenger U1-8 have approximately the same distance from their seats to the exit, but due to passenger U1-3's attributes (for example, he is carrying an infant or a stroller), etc. This indicates that the time required for getting off the train is 3 minutes, which is longer than the 2 minutes for passenger U1-8.
  • passenger U1-6 is closer to the exit from his seat than passenger U1-4, but due to the presence of other passengers standing around him and his own attribute information, such as being an elderly person, he is unable to get off the train.
  • the required time is 30 seconds, which is longer than the 15 seconds for passenger U1-4.
  • Passenger U1-2 and Passenger U1-7 are approximately the same distance from their seats to the exit, but since Passenger U1-2 has baggage 105, the time it takes for Passenger U1-7 to get off the train is longer than that of Passenger U1-7. Indicates that the time is 2 minutes longer than 15 seconds.
  • the driver U0 can easily grasp each passenger's position in the car, the designated alighting point, and the time required for alighting.
  • the display device 102 may be installed at a position where the passenger U1 can view it.
  • FIG. 17 is a flowchart showing the flow of the alighting notice process according to the second embodiment.
  • the alighting advance notice process is executed when the passenger vehicle 10 approaches the nearest alighting point while traveling.
  • the shared vehicle support device 300 determines whether the current location of the shared vehicle 10 is within a predetermined distance from the next exit point (S171). If it is determined that the distance is not within the predetermined distance, step S171 is executed again after a predetermined time has elapsed.
  • the shared vehicle support device 300 identifies the passenger whose next alighting point is the designated alighting point from the passenger information 312 (S172). Then, the shared vehicle support device 300 identifies the authentication terminal to which the notification is to be made (S173). Specifically, the shared vehicle support device 300 identifies the terminal ID corresponding to the in-vehicle position 3123 associated with the passenger's user ID 3121 identified in step S172. Note that if the passenger identified in step S172 is a standing passenger, the shared vehicle support device 300 may identify the display device 102 as the notification destination.
  • the shared vehicle support device 300 calculates the estimated required arrival time from the current location of the shared vehicle 10 to the next alighting point (S174). Specifically, the shared vehicle support device 300 executes step S163 in FIG. 14 described above for the next alighting point. Then, the shared vehicle support device 300 derives, from the passenger information 312, a list of the time required for alighting at the next alighting point, the number of people scheduled to alight, and the position in the vehicle (S175). Specifically, the shared vehicle support device 300 executes steps S161 and S162 in FIG. 14 described above for the next alighting point.
  • the shared vehicle support device 300 After steps S173 and S175, the shared vehicle support device 300 notifies the authentication terminal 101 identified in step S173 of the arrival notice (S176). Specifically, the shared vehicle support device 300 transmits arrival preview information including the estimated time required for arrival, a message urging preparations to get off the vehicle, etc. to the authentication terminal 101 via the network N. Note that the shared vehicle support device 300 may execute step S176 at a timing corresponding to the time required for getting off the vehicle calculated in step S175.
  • FIG. 18 is a diagram showing an example of display information 43 on the authentication terminal 101 according to the second embodiment.
  • the authentication terminal 101 is shown to have a camera 140 and a touch panel 150 provided on the front, the present invention is not limited thereto.
  • the touch panel 150 displays display information 43.
  • the display information 43 is an example of the above-mentioned arrival notice information and includes messages 431 and 432.
  • the message 431 shows an example of "We expect to arrive at the drop-off point P4 in 2 minutes.”
  • the message 432 shows an example of "Please prepare to get off the vehicle.” This makes it difficult for passengers to forget to get off the train or get off the train by mistake.
  • the display information 43 may display the time required for the passenger to get off the vehicle.
  • the notification destination of the arrival notice may be a user terminal registered in the attribute information 3122. In that case, the display information 43 is displayed on the user terminal of the notification destination.
  • the shared vehicle support device 300 displays a list of the time required for getting off at the next getting off point, the number of people scheduled to get off, and the position in the vehicle on the display device 102 (S177). Specifically, the shared vehicle support device 300 displays the list of the time required for alighting, the number of people scheduled to alight, and the position in the vehicle calculated in step S174 and derived in S175 on the display device 102 via the network N and the vehicle control device 103. Send to. In response to this, the display device 102 displays on the screen a list of the time required for alighting, the number of people scheduled to alight, and the positions in the vehicle. Therefore, the driver U0 can appropriately and easily grasp information regarding getting off the vehicle at the next getting off point.
  • FIG. 19 is a sequence diagram showing the flow of the alighting process according to the second embodiment.
  • the passenger vehicle 10 stops at a predetermined alighting point, the exit door is open, and the passengers who plan to alight sequentially perform facial recognition using the authentication terminal 101-e before alighting. . Note that facial recognition is not required when getting off the vehicle.
  • the authentication terminal 101-e photographs the face of the passenger U1 who is getting off the train (S181), and obtains the photographed facial image.
  • the authentication terminal 101-e also reads the terminal ID 112 from the storage unit 110.
  • the authentication terminal 101-e transmits the acquired facial image and terminal ID 112 to the shared vehicle support device 300 via the (vehicle control device 103 and) network N (S182).
  • the shared vehicle support device 300 receives the facial image and terminal ID from the authentication terminal 101-e, and recognizes that the passenger is near the authentication terminal 101-e at the exit based on the terminal ID. Then, the shared vehicle support device 300 transmits a face authentication request including the face image to the authentication device 200 via the network N (S183). In response, the authentication device 200 performs face authentication processing (S184). Then, the shared vehicle support device 300 receives the face authentication result from the authentication device 200 via the network N (S185). Here, it is assumed that the facial recognition of the passenger U1 is successful.
  • the shared vehicle support device 300 calculates the actual time required for getting off the vehicle (S186). For example, the shared vehicle support device 300 calculates the time from when the shared vehicle 10 stops until the face authentication is successful as the actual time required for getting off the vehicle. Thereafter, the shared vehicle support device 300 updates the history information 314 by associating the user ID 3141 for which face authentication was successful with the date and time of getting off 3146, the getting off point 3147, and the required time 3148 for getting off (S187).
  • the passenger by authenticating facial feature information registered in advance and facial images taken with cameras for the entire interior of the passenger vehicle or for each seat, the passenger can be identified from the passenger's interior position, designated alighting point, seat, etc. to the exit.
  • the route (distance) and attributes can be specified.
  • the time required for getting off the train is calculated by taking into account the attributes of the route, it is possible to calculate a reasonable time required for getting off the train for each passenger.
  • the designated alighting point is received from the passenger using the authentication terminal 101 installed in the seat, but other methods may be used. For example, when a passenger presses the get-off button inside a bus, by analyzing the inside image taken by the in-vehicle camera 104, the facial area of the passenger who pressed the get-off button is extracted, and facial recognition is performed to identify the passenger. May be specified. In other words, it may be assumed that the passenger who pressed the alighting button specified the next alighting point. Further, the passenger may specify the alighting point using a user terminal in his/her possession.
  • the user terminal may request the shared vehicle support device 300 to register the designated alighting point, including the designated alighting point and the passenger's facial image or user ID. Further, the passenger may register a designated alighting point before boarding the shared vehicle 10. For example, in the passenger information registration process shown in FIG. 8, the passenger may input his or her own face information and attribute information as well as the alighting point. In that case, the user terminal transmits to the shared vehicle support device 300 a request to register passenger information including the alighting point input by the user, a facial image, and attribute information.
  • the user terminal will provide information such as the specified alighting point and the passenger's facial image or user ID, etc., to support the shared vehicle.
  • a request to register a designated drop-off point is sent to the device 300.
  • the user terminal may include location information inside the vehicle in the registration request. Note that the method of registering the designated drop-off point is not limited to these methods.
  • the third embodiment is a modification of the second embodiment described above.
  • the third embodiment is aimed at MaaS that performs automatic driving as a shared vehicle. Therefore, there is no need for a driver to be on board the shared vehicle.
  • the shared vehicle support device 300 can support the stopping time of the shared vehicle 10, etc. by outputting the required time for getting off and support information to the vehicle control device 103 of the shared vehicle 10.
  • the shared vehicle support system 1000 according to the third embodiment is equivalent to the second embodiment, except that the driver U0 does not need to board the shared vehicle 10, so duplicate drawings and explanations will be omitted below. Omit as appropriate.
  • FIG. 20 is a flowchart showing the flow of the alighting notice process according to the third embodiment.
  • Steps S171 to S176 are the same as those in FIG. 17 described above.
  • the shared vehicle support device 300 outputs a list of the time required for getting off, the number of people scheduled to get off, and the position inside the vehicle to the vehicle control device 103 in order to control the opening/closing time of the exit of the shared vehicle 10. (S177a).
  • the shared vehicle support device 300 transmits to the vehicle control device 103 via the network N the list of the time required for alighting, the number of people scheduled to alight, and the positions in the vehicle calculated in step S174 and derived in S175. .
  • the vehicle control device 103 controls the stopping time of the passenger vehicle 10 and the opening/closing time of the exit door according to the list of the time required for getting off the vehicle, the number of people scheduled to get off the vehicle, and the positions in the vehicle.
  • the operation of the shared vehicle 10 can be appropriately controlled according to the positions and attributes of passengers in the vehicle, the number of people getting off the vehicle, and the like.
  • Embodiment 4 is a modification of each of the embodiments described above.
  • the shared vehicle support device 300 according to the fourth embodiment further includes a determination unit that determines a fare according to a trend analyzed from the riding history of the passenger in the shared vehicle. In other words, it applies so-called dynamic pricing, which dynamically determines fares according to passengers' riding habits.
  • the shared vehicle support system 1000 according to the fourth embodiment has the same general configuration as the second embodiment, and therefore, redundant drawings and explanations will be omitted as appropriate below.
  • FIG. 21 is a sequence diagram showing the flow of dynamic pricing processing for fares for shared vehicles according to the fourth embodiment. Steps S121 to S126 are the same as those in FIG. 12 described above.
  • the shared vehicle support device 300 acquires the history information 314 of the passenger U1 (S301). Specifically, the shared vehicle support device 300 acquires, from the history information 314, information associated with the user ID 3141 for which face authentication was successful. Then, the shared vehicle support device 300 analyzes the riding tendency from the acquired history information (S302).
  • the shared vehicle support device 300 analyzes the boarding frequency and length of the boarding section as the boarding tendency from the set of boarding date and time 3143, boarding point 3144, alighting date and time 3146, and alighting point 3147. Then, the shared vehicle support device 300 calculates the fare for the current ride according to the current boarding point, the designated alighting point, and the boarding tendency (S303). For example, in cases where there is a history of long-distance riding, high frequency of riding, or many combinations of these, the shared vehicle support device 300 increases the discount rate and discount amount of the fare higher than usual. The fare for this ride may be calculated. Then, the shared vehicle support device 300 transmits the calculated fare to the authentication terminal 101 (S304).
  • the authentication terminal 101 displays the received fare on the screen.
  • the shared vehicle support device 300 may cause the authentication terminal 101 to display the discount rate and discount amount of the fare and the reason (riding tendency, long-distance riding history, high riding frequency, etc.). good.
  • the person identification authentication (person identification authentication, person authentication, person identification processing, etc.) was described as face authentication, but other biometric authentication using biometric information may be used.
  • biometric authentication and biometric information other techniques that use captured images of people can be applied.
  • the biometric information may be data (feature amounts) calculated from physical characteristics unique to an individual, such as fingerprints, voiceprints, veins, retinas, iris of the eyes, and patterns on the palm of the hand.
  • feature information indicating a person's physical characteristics is extracted from a photographed image of a part of the user's body, and the extracted feature information is compared with pre-registered feature information to determine the match.
  • biometric authentication may be based on a person's external shape.
  • the characteristic information is information regarding the external shape of the person, for example, information indicating characteristics such as body shape, height, clothing, etc.
  • biometric authentication may also be other personal authentication information.
  • personal authentication information includes a user ID, a combination of ID and password, information written on an identification card such as my number or driver's license (identification number, password, etc.), electronic certificate, code information, etc. , but not limited to.
  • the code information may be a two-dimensional code, such as a QR code (registered trademark).
  • the authentication device 200 and the shared vehicle support device 300 are described as separate information processing devices, but they may be the same.
  • the shared vehicle support device 300 may further associate and register facial feature information with the user ID 3121 of the passenger information 312.
  • the control unit 340 may further include the functions of the face detection unit 220, feature point extraction unit 230, registration unit 240, and authentication unit 250 shown in FIG.
  • the program includes instructions (or software code) that, when loaded into a computer, cause the computer to perform one or more of the functions described in the embodiments.
  • the program may be stored on a non-transitory computer readable medium or a tangible storage medium.
  • computer readable or tangible storage media may include random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drive (SSD) or other memory technology, CD - Including ROM, digital versatile disc (DVD), Blu-ray disc or other optical disc storage, magnetic cassette, magnetic tape, magnetic disc storage or other magnetic storage device.
  • the program may be transmitted on a transitory computer-readable medium or a communication medium.
  • transitory computer-readable or communication media includes electrical, optical, acoustic, or other forms of propagating signals.
  • (Appendix A1) a first identifying means for identifying the attributes of a passenger in a shared vehicle based on personal identification authentication for the passenger; a second specifying means for specifying the position in the passenger vehicle of the passenger who has successfully completed the personal identification authentication; Calculation means for calculating the time required for the passenger to travel from the specified position to the exit of the shared vehicle based on the specified attribute; Output means for outputting the required time;
  • a shared vehicle support device comprising: (Appendix A2) The personal identification authentication is authentication using an image taken of the passenger, The shared vehicle support device according to appendix A1, wherein the first specifying means specifies the attributes of the passenger from image recognition of the image.
  • (Appendix A3) Further comprising derivation means for deriving support information according to the alighting point specified by the passenger, The shared vehicle support device according to appendix A1 or A2, wherein the output means further outputs the support information.
  • (Appendix A4) The shared vehicle support device according to appendix A3, wherein the deriving means derives the number of people scheduled to get off at a specific getting off point as the support information.
  • (Appendix A5) The shared vehicle support device according to appendix A3 or A4, wherein the deriving means derives information associating the specified position of the passenger with the specified alighting point as the support information.
  • (Appendix A6) The shared vehicle support device according to any one of appendices A3 to A5, wherein the output means outputs the required time and the support information to the driver of the shared vehicle.
  • (Appendix A7) The shared vehicle support device according to any one of appendices A3 to A5, wherein the output means outputs the required time and the support information for controlling the shared vehicle.
  • (Appendix A8) The shared vehicle support device according to any one of appendices A1 to A7, wherein the output means outputs an output in order to control the opening/closing time of the exit of the shared vehicle according to the required time.
  • the shared vehicle support device according to any one of appendices A1 to A8, further comprising determining means for determining a fare according to a trend analyzed from the riding history of the passenger in the shared vehicle.
  • Appendix B1 An authentication terminal installed in a shared vehicle, A shared vehicle support device that supports the operation of the shared vehicle, The shared vehicle support device includes: a first identifying means for identifying attributes of the passenger based on identification authentication of the passenger of the shared vehicle by the authentication terminal; a second specifying means for specifying the position in the passenger vehicle of the passenger who has successfully completed the personal identification authentication; Calculation means for calculating the time required for the passenger to travel from the specified position to the exit of the shared vehicle based on the specified attribute; Output means for outputting the required time; A shared vehicle support system equipped with (Appendix B2) The personal identification authentication is authentication using an image taken of the passenger, The shared vehicle support system according to appendix B1, wherein the second specifying means specifies the attributes of the passenger from image recognition of the image.
  • the computer is Identify the attributes of the passenger in the shared vehicle based on the identity authentication of the passenger, identifying the position in the passenger vehicle of the passenger who has successfully authenticated his or her identity; Calculating the time required for the passenger to travel from the specified position to the exit of the shared vehicle based on the specified attribute; outputting the required time; Shared vehicle support method.
  • Appendix D1 a first identification process for identifying the attributes of a passenger in the shared vehicle based on identification authentication for the passenger; a second identification process for identifying the position of the passenger who has successfully passed the identity identification authentication in the shared vehicle; a calculation process of calculating the time required for the passenger to travel from the specified position to the exit of the shared vehicle based on the specified attribute; Output processing that outputs the required time;

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

乗合車両支援装置(1)は、乗合車両の乗客に対する本人特定認証(例えば顔認証)に基づき当該乗客の属性情報を特定する第1の特定部(11)と、本人特定認証に成功した乗客における乗合車両内の車内位置を特定する第2の特定部(12)と、特定された属性情報に基づき、乗客が特定された車内位置から乗合車両の出口までの移動に要する降車所要時間を算出する算出部(13)と、降車所要時間を出力する出力部(14)と、を備える。

Description

乗合車両支援装置、システム及び方法、並びに、コンピュータ可読媒体
 本開示は、乗合車両支援装置、システム、方法、及び、プログラムに関する。
 特許文献1には、バスの降車場所の間違いを認識させ易くする技術が開示されている。特許文献1に係る技術は、乗車時に乗客の顔を撮像し、認証し、乗客から降車場所を取得し、降車時の乗客を特定し、降車していない乗客を検出し、降り間違えを判定し、乗客及び運転者に報知する。
特開2020-052478号公報
 ここで、路線バス等、複数の乗客のそれぞれが異なる場所で降車するような乗合車両においては、乗客毎に降車に要する時間等の降車に関する情報が異なる。その理由は、乗合車両内の存在位置や乗客の手荷物、身体状態等が異なるためである。
 本開示の目的は、上述した課題を鑑み、乗合車両における降車に関する適切な情報を提供するための乗合車両支援装置、システム、方法、及び、プログラムを提供することにある。
 本開示にかかる乗合車両支援装置は、
 乗合車両の乗客に対する本人特定認証に基づき当該乗客の属性を特定する第1の特定手段と、
 前記本人特定認証に成功した乗客における前記乗合車両内の位置を特定する第2の特定手段と、
 前記特定された属性に基づき前記乗客が前記特定された位置から前記乗合車両の出口までの移動に要する所要時間を算出する算出手段と、
 前記所要時間を出力する出力手段と、
 を備える。
 本開示にかかる乗合車両支援システムは、
 乗合車両に搭載された認証端末と、
 前記乗合車両の運行を支援する乗合車両支援装置と、を備え、
 前記乗合車両支援装置は、
 前記認証端末による前記乗合車両の乗客に対する本人特定認証に基づき当該乗客の属性を特定する第1の特定手段と、
 前記本人特定認証に成功した乗客における前記乗合車両内の位置を特定する第2の特定手段と、
 前記特定された属性に基づき前記乗客が前記特定された位置から前記乗合車両の出口までの移動に要する所要時間を算出する算出手段と、
 前記所要時間を出力する出力手段と、
 を備える。
 本開示にかかる乗合車両支援方法は、
 コンピュータが、
 乗合車両の乗客に対する本人特定認証に基づき当該乗客の属性を特定し、
 前記本人特定認証に成功した乗客における前記乗合車両内の位置を特定し、
 前記特定された属性に基づき前記乗客が前記特定された位置から前記乗合車両の出口までの移動に要する所要時間を算出し、
 前記所要時間を出力する。
 本開示にかかる乗合車両支援プログラムは、
 乗合車両の乗客に対する本人特定認証に基づき当該乗客の属性を特定する第1の特定処理と、
 前記本人特定認証に成功した乗客における前記乗合車両内の位置を特定する第2の特定処理と、
 前記特定された属性に基づき前記乗客が前記特定された位置から前記乗合車両の出口までの移動に要する所要時間を算出する算出処理と、
 前記所要時間を出力する出力処理と、
 をコンピュータに実行させる。
 本開示により、乗合車両における降車に関する適切な情報を提供するための乗合車両支援装置、システム、方法、及び、プログラムを提供することができる。
本実施形態1にかかる乗合車両支援装置の構成を示すブロック図である。 本実施形態1にかかる乗合車両支援方法の流れを示すフローチャートである。 本実施形態2にかかる乗合車両支援システムの構成を示すブロック図である。 本実施形態2にかかる認証装置の構成を示すブロック図である。 本実施形態2にかかる乗合車両の車内の配置例を示す図である。 本実施形態2にかかる認証端末の構成を示すブロック図である。 本実施形態2にかかる乗合車両支援装置の構成を示すブロック図である。 本実施形態2にかかる乗合車両支援装置による乗客情報登録処理の流れを示すフローチャートである。 本実施形態2にかかる認証装置による顔情報登録処理の流れを示すフローチャートである。 本実施形態2にかかる乗車時の乗客情報特定処理の流れを示すシーケンス図である。 本実施形態2にかかる認証装置による顔認証処理の流れを示すフローチャートである。 本実施形態2にかかる着席時の乗客情報特定処理の流れを示すシーケンス図である。 本実施形態2にかかる立ち乗り客の乗客情報特定処理の流れを示すシーケンス図である。 本実施形態2にかかる支援情報等表示処理の流れを示すフローチャートである。 本実施形態2にかかる支援情報等の表示情報の例を示す図である。 本実施形態2にかかる支援情報等の表示情報の例を示す図である。 本実施形態2にかかる降車予告処理の流れを示すフローチャートである。 本実施形態2にかかる認証端末における表示情報の例を示す図である。 本実施形態2にかかる降車処理の流れを示すシーケンス図である。 本実施形態3にかかる降車予告処理の流れを示すフローチャートである。 本実施形態4にかかる乗合車両の運賃のダイナミックプライシング処理の流れを示すシーケンス図である。
 以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。
<実施形態1>
 図1は、本実施形態1にかかる乗合車両支援装置1の構成を示すブロック図である。乗合車両支援装置1は、複数の乗客のそれぞれが異なる場所で降車するような乗合車両における降車に関する情報の提供を支援するための情報処理装置である。ここで、乗合車両は、例えば、路線バスやMaaS(Mobility as a Service)等であり、これらに限定されず、運転手の有無は問わない。また、乗合車両は、乗客の本人特定認証を行うための認証端末(不図示)が搭載されているものとする。ここで、本人特定認証は、顔認証等の生体認証、電子的な身分証明情報を用いた本人確認のための認証等である。
 乗合車両支援装置1は、第1の特定部11、第2の特定部12、算出部13及び出力部14を備える。第1の特定部11は、乗合車両の乗客に対する本人特定認証に基づき当該乗客の属性を特定する。ここで、属性とは、例えば、乗客の年齢、性別、身体状態、手荷物の大きさ、同乗する幼児の人数等が挙げられるが、これらに限定されない。第2の特定部12は、本人特定認証に成功した乗客における乗合車両内の位置を特定する。算出部13は、特定された属性に基づき乗客が前記特定された位置から乗合車両の出口までの移動に要する所要時間を算出する。出力部14は、所要時間を出力する。
 図2は、本実施形態1にかかる乗合車両支援方法の流れを示すフローチャートである。まず、第1の特定部11は、乗合車両の乗客に対する本人特定認証に基づき当該乗客の属性を特定する(S11)。次に、第2の特定部12は、本人特定認証に成功した乗客における乗合車両内の位置を特定する(S12)。そして、算出部13は、特定された属性に基づき乗客が特定された位置から乗合車両の出口までの移動に要する所要時間を算出する(S13)。そして、出力部14は、所要時間を出力する(S14)。
 乗合車両の乗客は、属性と車内の存在位置(座席や立ち位置)により、降車時に出口までの移動に要する所要時間が異なる。そのため、これらに基づいて所要時間を算出し、出力することで、乗合車両の運転手、乗客又は車両の制御装置に対して、乗合車両における降車に関する適切な情報を提供することができる。
 尚、乗合車両支援装置1は、図示しない構成としてプロセッサ、メモリ及び記憶装置を備えるものである。また、当該記憶装置には、本実施形態にかかる乗合車両支援方法の処理が実装されたコンピュータプログラムが記憶されている。そして、当該プロセッサは、記憶装置からコンピュータプログラム等を前記メモリへ読み込ませ、当該コンピュータプログラムを実行する。これにより、前記プロセッサは、第1の特定部11、第2の特定部12、算出部13及び出力部14の機能を実現する。
 または、乗合車両支援装置1の各構成要素は、それぞれが専用のハードウェアで実現されていてもよい。また、各装置の各構成要素の一部又は全部は、汎用または専用の回路(circuitry)、プロセッサ等やこれらの組合せによって実現されてもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組合せによって実現されてもよい。また、プロセッサとして、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)、量子プロセッサ(量子コンピュータ制御チップ)等を用いることができる。
 また、乗合車両支援装置1の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。また、乗合車両支援装置1の機能がSaaS(Software as a Service)形式で提供されてもよい。
<実施形態2>
 本実施形態2は、上述した実施形態1の具体例である。本実施形態2は、乗合車両として運転手が運転する路線バスを対象とした例を説明する。但し、乗合車両はこれに限定されない。
 図3は、本実施形態2にかかる乗合車両支援システム1000の構成を示すブロック図である。乗合車両支援システム1000は、認証端末101が搭載され、複数の乗客U1が乗車する乗合車両10の運行を支援するための情報システムである。乗合車両支援システム1000は、認証端末101-1から101-3等、表示装置102、車両制御装置103、認証装置200及び乗合車両支援装置300を備える。少なくとも車両制御装置103、認証装置200及び乗合車両支援装置300のそれぞれは、ネットワークNを介して通信可能に接続されている。ここで、ネットワークNは、無線の通信回線を含む通信ネットワークであり、例えばインターネット、無線通信回線網、携帯電話回線網等である。また、ネットワークNは、通信プロトコルの種別を問わない。
 乗合車両10は、運転手U0が運転し、複数の乗客U1-1、U1-2、U1-3等(以下、「乗客U1」と総称する場合がある。)を異なる降車地点まで送客するための車両である。ここで、降車地点は、典型的には路線バスの停留所等の予め定められた路上の地点であるが、乗客U1のそれぞれが指定した任意の地点であっても良い。また、本実施形態にかかる乗合車両10は、2以上の降車地点で停車するものとする。乗合車両10は、認証端末101-1から101-3等、表示装置102及び車両制御装置103を搭載する。認証端末101-1から101-3等は、同等の機能を有し、以下ではこれらを総称して「認証端末101」と呼ぶ場合がある。尚、認証端末101の台数は、3台に限定されず、少なくとも1台以上であればよい。認証端末101と表示装置102とは、車両制御装置103と接続され、車両制御装置103を介してネットワークNと通信可能とする。尚、認証端末101と表示装置102とは、ネットワークNと無線通信により直接通信可能であってもよい。
 車両制御装置103は、乗合車両10の走行を制御するための情報処理装置である。車両制御装置103は、例えば、無線通信機能を備えたECU(Electronic Control Unit)であってもよい。車両制御装置103は、乗合車両10の入口及び出口の扉の開閉制御、認証端末101-1等及び表示装置102と乗合車両10の外部との通信の中継等を行うが、これらの機能に限定されない。
 表示装置102は、乗合車両10内に設置され、少なくとも運転手U0及び乗客U1のいずれかが視認可能なディスプレイである。
 認証端末101は、乗客U1に対する本人特定認証の一例として顔認証を行うための情報端末である。認証端末101は、内蔵された又は接続されたカメラにより、乗客U1の顔を含む領域を撮影し、撮影した顔画像と認証端末101の端末IDを含めた顔認証要求を、ネットワークNを介して認証装置200又は乗合車両支援装置300へ送信する。尚、顔認証要求には、撮影時刻や送信時刻等の時刻情報が含まれていても良い。また、顔認証要求には、認証端末101の設置場所を示す位置情報等が含まれていても良い。尚、認証端末101の具体的な構成は後述する。
 尚、認証端末101は、乗客U1が携帯して操作する情報端末(ユーザ端末)であってもよい。ユーザ端末は、内蔵された又は接続されたカメラによるユーザの撮影画像とユーザ端末の位置情報を含む顔認証要求を、ネットワークNを介して認証装置200又は乗合車両支援装置300へ送信してもよい。また、ユーザ端末は、予めユーザの顔画像(顔特徴情報)を認証装置200に登録する処理を行っても良い。例えば、ユーザ端末は、顔画像及び属性情報を含む乗客情報の登録要求を、乗合車両支援装置300へ送信する。その場合、乗合車両支援装置300は、当該乗客の顔情報を認証装置200に登録する。
 認証装置200は、ユーザ(乗客)の顔特徴情報を管理し、顔認証を行う情報処理装置である。また、認証装置200は、外部から受信した顔認証要求に応じて、当該要求に含まれる顔画像又は顔特徴情報について、各ユーザの顔特徴情報と照合を行い、照合結果(認証結果)を要求元へ返信する。
 図4は、本実施形態2にかかる認証装置200の構成を示すブロック図である。認証装置200は、顔情報DB(DataBase)210と、顔検出部220と、特徴点抽出部230と、登録部240と、認証部250とを備える。顔情報DB210は、ユーザID211と当該ユーザIDの顔特徴情報212とを対応付けて記憶する。顔特徴情報212は、顔画像から抽出された特徴点の集合である。尚、認証装置200は、顔特徴情報212に対応するユーザ等からの要望に応じて、顔情報DB210内の顔特徴情報212を削除してもよい。または、認証装置200は、登録から一定期間経過後に顔特徴情報212を削除してもよい。
 顔検出部220は、顔情報を登録するための登録画像に含まれる顔領域を検出し、特徴点抽出部230に出力する。特徴点抽出部230は、顔検出部220が検出した顔領域から特徴点を抽出し、登録部240に顔特徴情報を出力する。また、特徴点抽出部230は、乗合車両支援装置300等から受信した顔画像に含まれる特徴点を抽出し、認証部250に顔特徴情報を出力する。
 登録部240は、顔特徴情報の登録に際して、ユーザID211を新規に発行する。登録部240は、発行したユーザID211と、登録画像から抽出した顔特徴情報212とを対応付けて顔情報DB210へ登録する。認証部250は、顔特徴情報212を用いた顔認証を行う。具体的には、認証部250は、顔画像から抽出された顔特徴情報と、顔情報DB210内の顔特徴情報212との照合を行う。認証部250は、照合に成功した場合、照合された顔特徴情報212に対応付けられたユーザID211を特定する。認証部250は、顔特徴情報の一致の有無を顔認証結果として要求元に返信する。顔特徴情報の一致の有無は、認証の成否に対応する。尚、顔特徴情報が一致する(一致有)とは、一致度が閾値以上である場合をいうものとする。また、顔認証結果は、顔認証に成功した場合、特定されたユーザIDを含むものとする。
 図5は、本実施形態2にかかる乗合車両10の車内の配置例を示す図である。乗合車両10は、運転席にいる運転手U0により操縦される。表示装置102は、運転席付近に設置され、運転手U0が必要に応じて表示内容を視認できるものとする。尚、表示装置102は、乗客U1が視認可能な位置に設置されていてもよい。表示装置102は、乗合車両支援装置300から上述した車両制御装置103を介して受信された表示データを画面に表示する。車内カメラ104は、乗合車両10の車内、特に、乗客U1側を撮影できる位置に設置されている。車内カメラ104は、定期的又は任意のタイミングで撮影を行い、撮影した車内画像を車両制御装置103を介して乗合車両支援装置300へ送信する。
 乗合車両10は、入口付近に認証端末101-1が設置され、出口付近に認証端末101-eが設置されている。また、乗合車両10は、複数の座席が設置され、各座席には認証端末101が設置されている。尚、乗合車両10は、座席に着席する乗客U1-2等と、座席に着席せず、立って乗車する乗客U1-5等とがいるものとする。但し、乗客U1は、着席又は立つかいずれかのみであっても良い。
 乗客U1-1は、乗合車両10の乗車時に認証端末101-1を介して顔認証を行う例を示す。乗客U1-1は、乗車時に認証端末101-1に対して降車地点を指定してもよい。
 乗客U1-2は、認証端末101-2が設置された座席に着席し、手荷物105を保持しているものとする。降車経路R2は、乗客U1-2が降車のために、認証端末101-2の座席から出口まで移動する際の経路である。尚、乗客U1-2は、手荷物105を保持しているため、同じ座席で手荷物を持たない乗客と比べて、降車に時間を要する可能性があるものとする。
 乗客U1-3は、認証端末101-3が設置され、乗合車両10内の右奥の座席に着席している。降車経路R3は、乗客U1-3が降車のために、他の座席を横切って出口まで移動する際の経路である。そのため、乗客U1-3は、他の座席の乗客よりも相対的に降車に時間を要する可能性があるものとする。
 乗客U1-4は、認証端末101-4が設置され、乗合車両10内の右前方の座席に着席している。降車経路R4は、乗客U1-4が降車のために、出口まで移動する際の経路である。降車経路R4は、降車経路R3と比べて距離が短い。
 乗客U1-5は、座席に着席せず、立っているものとする。そのため、乗客U1-5は、車内カメラ104の撮影画像に基づく顔認証により本人特定認証がされ、撮影画像の解析により、存在位置が特定されてもよい。また、乗客U1-5は、出口の比較的近くに存在するものとする。降車経路R5は、乗客U1-5が降車のために、出口まで移動する際の経路である。降車経路R5は、降車経路R2、R3及びR5と比べて距離が短い。
 また、乗客U1は、座席の認証端末101に対して、降車地点を指定してもよい。また、乗客U1-5は、乗合車両10内の降車指定ボタンを押下することで、降車地点を指定してもよい。この場合、車内カメラ104による撮影画像の解析により、降車指定ボタンを押下した人物の顔画像に対して顔認証を行うことで、乗客U1-5の降車地点の指定とみなしても良い。
 図6は、本実施形態2にかかる認証端末101の構成を示すブロック図である。認証端末101は、記憶部110、メモリ120、通信部130、カメラ140、タッチパネル150及び制御部160を備える。記憶部110は、ハードディスク、フラッシュメモリ等の記憶装置の一例である。記憶部110は、プログラム111及び端末ID112を記憶する。プログラム111は、本実施形態2にかかる認証装置200を用いた顔認証処理、乗客U1からの降車地点の指定の受付、乗合車両支援装置300から表示データの表示等の処理が実装されたコンピュータプログラムである。端末ID112は、認証端末101の識別情報である。端末ID112は、乗合車両10内における認証端末101の設置位置と対応する情報であってもよい。また、記憶部110は、認証端末101の設置位置を示す情報を記憶していてもよい。
 メモリ120は、RAM(Random Access Memory)等の揮発性記憶装置であり、制御部160の動作時に一時的に情報を保持するための記憶領域である。通信部130は、車両制御装置103又はネットワークNとの通信インタフェースである。
 カメラ140は、乗客U1の顔を含む領域を撮影するための撮影装置である。カメラ140は、撮影した画像を制御部160へ出力する。タッチパネル150は、画面等の表示装置(表示部)と入力装置を含む。
 制御部160は、認証端末101の各構成を制御するプロセッサつまり制御装置である。制御部160は、記憶部110からプログラム111をメモリ120へ読み込ませ、プログラム111を実行する。これにより、制御部160は、受付部161、認証制御部162及び表示制御部163の機能を実現する。
 受付部161は、カメラ140により撮影された乗客U1の顔画像を受け付け、顔画像を認証制御部162へ出力する。また、受付部161は、乗客U1からタッチパネル150を介して入力された降車地点の指定を受け付け、指定された降車地点を認証制御部162へ出力する。
 認証制御部162は、受付部161により出力された顔画像と、記憶部110に記憶された端末ID112とを含めた顔認証要求を、車両制御装置103及びネットワークNを介して乗合車両支援装置300へ送信する。また、認証制御部162は、受付部161により出力された降車地点をさらに顔認証要求に含めても良い。
 表示制御部163は、乗合車両支援装置300からネットワークN及び車両制御装置103を介して受信した表示データを、タッチパネル150に表示する。
 図7は、本実施形態2にかかる乗合車両支援装置300の構成を示すブロック図である。乗合車両支援装置300は、上述した乗合車両支援装置1の一例である。乗合車両支援装置300は、乗合車両10の運行を支援する情報処理装置である。乗合車両支援装置300は、複数台のサーバに冗長化されてもよく、各機能ブロックが複数台のコンピュータで実現されてもよい。
 乗合車両支援装置300は、記憶部310、メモリ320、通信部330及び制御部340を備える。記憶部310は、ハードディスク、フラッシュメモリ等の記憶装置の一例である。記憶部310は、プログラム311、乗客情報312、支援情報313及び履歴情報314を記憶する。プログラム311は、本実施形態2にかかる乗合車両支援処理等が実装されたコンピュータプログラム(乗合車両支援プログラム)である。
 乗客情報312は、乗合車両10の乗客を管理するための情報である。乗客情報312は、ユーザID3121、属性情報3122、車内位置3123、降車指定地点3124及び降車所要時間3125を対応付けた情報である。ユーザID3121は、ユーザの識別情報である。ユーザID3121は、認証装置200の顔情報DB210内で顔特徴情報212に対応付けて管理されるユーザID211と同一又は一意に対応する情報である。そのため、乗客情報312は、ユーザID3121を介してユーザの登録用の特徴情報(生体情報、本人認証情報、本人特定情報等)と対応付けられた情報といえる。属性情報3122は、年齢、性別、身体状態、装具、ベビーカーの種別やサイズ、手荷物の種類やサイズ、同乗する幼児の人数等が挙げられるが、これらに限定されない。身体状態とは、例えば、身体の障碍内容や歩行の困難度合い等が挙げられるが、これらに限定されない。装具は、杖、車椅子等が挙げられるが、これらに限定されない。手荷物は、リュックサック、スーツケース等が挙げられるが、これらに限定されない。尚、属性情報3122は、これらに加えて、運賃の支払いに用いる決済情報を含んでも良い。決済情報は、クレジットカードの情報、電子マネー、バーコード決済の口座情報、銀行の引き落とし口座情報等である。また、属性情報3122は、ユーザID3121に対応する乗客が携帯して操作するユーザ端末の連絡先情報を含んでも良い。連絡先情報とは、電子メールアドレス、電話番号、端末識別情報、乗合車両支援サービスを利用するためのアプリケーションのログイン情報等である。
 車内位置3123は、顔認証に成功した乗客U1における乗合車両10内の位置である。車内位置3145は、乗客U1が座席の着席時の顔認証に成功した認証端末101の端末IDに対応する端末位置もしくは座席位置、又は、乗客U1が乗車後に車内カメラ104により撮影された画像を解析して特定された車内の位置等である。画像を解析して特定された位置には、立ち位置だけでなく座席位置が含まれていても良い。
 降車指定地点3124は、乗客U1により指定された降車地点を示す位置情報である。降車指定地点3124は、路線バスの停留所、任意の住所、その他の位置情報であると良い。降車所要時間3125は、乗客U1が車内位置3123から乗合車両10の出口までの移動に要する所要時間である。降車所要時間3125は、車内位置3123から出口までの距離と共に、乗客U1の属性情報3122が考慮されて算出される。
 支援情報313は、乗客U1が指定した降車地点に応じた情報であり、乗合車両10における乗客U1の降車に関する情報の一例である。支援情報313は、例えば、運転手U0、乗客U1又は車両制御装置103を支援するための情報である。支援情報313は、降車地点3131、車内位置リスト3132及び人数3133を対応付けた情報である。降車地点3131は、乗合車両10が一部の乗客U1を降車させるために停車する場所である。降車地点3131には、上述した降車指定地点3124が含まれる。上述した通り、乗合車両10における降車地点3131は、複数あるものとする。車内位置リスト3132は、対応する降車地点3131を指定した乗客U1の乗合車両10内の存在位置、例えば、座席位置や立ち位置の集合である。人数3133は、対応する降車地点3131を指定した乗客U1の人数である。
 履歴情報314は、乗客U1(ユーザ)における乗合車両10等の乗車及び降車に関する履歴を記録した情報である。尚、履歴情報314は、異なる複数の乗合車両10における履歴を含む。例えば、履歴情報314は、本実施形態にかかる乗合車両支援装置300を用いて運行が支援される複数の路線バスに対する乗客の利用履歴を含む。履歴情報314は、ユーザID3141、属性情報3142、乗車日時3143、乗車地点3144、車内位置3145、降車日時3146、降車地点3147及び降車所要時間3148を対応付けた情報である。
 ユーザID3141は、上述したユーザID3121と対応する情報である。属性情報3142は、乗客情報312においてユーザID3141に対応するユーザID3121に対応付けられた情報である。
 乗車日時3143は、対応する乗客が乗合車両10に乗車した日時である。例えば、乗車日時3143は、乗合車両10の入口に設置された認証端末101-1で顔認証に成功した日時、乗客U1が座席の着席時に認証端末101で顔認証に成功した日時、または、乗客U1が乗車後に車内カメラ104により撮影された画像に基づく顔認証に最初に成功した日時、等である。乗車地点3144は、乗客U1が乗車した地点を示す位置情報である。例えば、乗車地点3144は、乗客U1の乗車時に乗合車両10が停止した地点、乗客U1の顔認証を行った認証端末101から取得した乗合車両10の現在位置等である。
 車内位置3145は、対応する乗客における上述した車内位置3123である。降車日時3146は、対応する乗客が乗合車両10から降車した日時である。例えば、降車日時3146は、乗合車両10の出口に設置された認証端末101-eで顔認証に成功した日時、乗客の降車指定地点で乗合車両10が停車した日時等である。降車地点3147は、対応する乗客が認証端末101-eで顔認証に成功した際の停車地点である。降車所要時間3148は、対応する乗客における上述した降車所要時間3125、または、乗合車両10が停車した時刻から、対応する乗客が認証端末101-eで顔認証に成功した時刻までの差分であってもよい。
 メモリ320は、RAM等の揮発性記憶装置であり、制御部340の動作時に一時的に情報を保持するための記憶領域である。通信部330は、ネットワークNとの通信インタフェースである。
 制御部340は、乗合車両支援装置300の各構成を制御するプロセッサつまり制御装置である。制御部340は、記憶部310からプログラム311をメモリ320へ読み込ませ、プログラム311を実行する。これにより、制御部340は、登録部341、認証制御部342、特定部343、算出部344、導出部345及び出力部346の機能を実現する。
 登録部341は、乗合車両10の乗客となり得るユーザの顔特徴情報及び属性情報の登録処理を行う。具体的には、登録部341は、ユーザの顔画像及び属性情報を受け付けた場合、顔画像に基づく顔特徴情報を認証装置200に登録し、登録時に発行されたユーザIDを取得する。そして、表示情報41は、取得したユーザID3121と属性情報3122を対応付けて乗客情報312として記憶部310に登録する。また、登録部341は、乗客における車内位置3123、降車指定地点3124、降車所要時間3125が特定や算出され次第、これらを当該乗客のユーザID3121に対応付けて乗客情報312を更新する。
 また、登録部341は、支援情報313を記憶部310に登録してもよい。また、登録部341は、乗客の乗車時や降車時等に履歴情報314を記憶部310に登録及び更新する。
 認証制御部342は、乗客を撮影した画像を用いた本人特定認証を制御する。特に、本実施形態にかかる認証制御部342は、乗客が撮影された画像から抽出された生体情報を用いて、乗客の生体認証を制御する。具体的には、認証制御部342は、生体認証として顔認証を制御する。尚、認証制御部342は、生体認証以外の本人特定認証を制御してもよい。
 特定部343は、上述した第1の特定部11及び第2の特定部12の一例である。特定部343は、認証端末101による乗合車両10の乗客U1に対する本人特定認証に基づき、乗客U1の属性情報を特定する。具体的には、認証制御部342による顔認証に成功した場合、特定部343は、乗客情報312の中から、顔認証に成功したユーザID3121に対応付けられた属性情報3122を特定する。また、特定部343は、乗車時や着席時等に乗客U1が撮影された画像に対する画像認識から、乗客の属性情報を特定してもよい。例えば、特定部343は、撮影された画像に対する分析として画像認識を行い、画像認識により乗客U1の装具、ベビーカー、手荷物、同乗する幼児の人数等を属性情報として特定してもよい。つまり、特定部343は、乗客情報312の中から属性情報を特定することに限らず、画像認識により属性情報を特定してもよい。
 また、特定部343は、本人特定認証に成功した乗客U1における乗合車両10内の位置を特定する。具体的には、特定部343は、顔認証を行った認証端末101の端末位置を車内位置として特定する。または、特定部343は、車内カメラ104により乗合車両10内が撮影された車内画像に対する画像認識から、人物の領域を抽出し、抽出した領域を乗客の車内位置として特定してもよい。
 算出部344は、上述した算出部13の一例である。算出部344は、特定部343により特定された属性情報に基づき、乗客U1が特定された車内位置から乗合車両10の出口までの移動に要する降車所要時間を算出する。
 導出部345は、乗客U1が指定した降車地点に応じた支援情報を導出する。導出部345は、特定の降車地点における降車予定者の人数を支援情報として導出する。また、導出部345は、乗客U1における特定された車内位置と指定された降車地点とを対応付けた情報を支援情報として導出してもよい。
 出力部346は、上述した出力部14の一例である。出力部346は、算出部344により算出された降車所要時間を出力する。出力部346は、導出部345により導出された支援情報をさらに出力する。例えば、出力部346は、降車所要時間及び支援情報を乗合車両10の運転手U0に向けて出力するとよい。具体的には、出力部346は、降車所要時間及び支援情報を、車両制御装置103を介して表示装置102に出力して表示させる。また、出力部346は、降車所要時間及び支援情報を、該当する乗客が着席した認証端末101へ出力して表示させてもよい。また、出力部346は、乗合車両10の制御のために、降車所要時間及び支援情報を車両制御装置103へ出力してもよい。
 図8は、本実施形態2にかかる乗合車両支援装置300による乗客情報登録処理の流れを示すフローチャートである。例えば、乗合車両10等に乗車しようとするユーザは、ユーザ端末を操作して、自身の顔情報及び属性情報を事前登録する。この場合、ユーザ端末は、ユーザの顔が撮影された顔画像を取得する。また、ユーザ端末は、ユーザの入力により属性情報を受け付ける。そして、ユーザ端末は、顔画像及び属性情報を含めた乗客情報の登録要求を、ネットワークNを介して乗合車両支援装置300へ送信する。
 これに応じて、乗合車両支援装置300は、ユーザ端末から乗客情報の登録要求を受信し、登録要求に含まれるユーザの顔画像及び属性情報を受け付ける(S101)。次に、乗合車両支援装置300は、顔画像を含めた顔情報登録要求を、ネットワークNを介して認証装置200へ送信する(S102)。これに応じて、認証装置200は、顔情報登録処理を行う。
 図9は、本実施形態2にかかる認証装置による顔情報登録処理の流れを示すフローチャートである。まず、認証装置200は、顔情報登録要求を受信する(S201)。例えば、認証装置200は、乗合車両支援装置300からネットワークNを介して顔情報登録要求を受信する。次に、顔検出部220は、顔情報登録要求に含まれる顔画像から顔領域を検出する(S202)。そして、特徴点抽出部230は、ステップS202で検出した顔領域から特徴点(顔特徴情報)を抽出する(S203)。そして、登録部240は、ユーザID211を発行する(S204)。そして、登録部240は、抽出した顔特徴情報212と発行したユーザID211を対応付けて顔情報DB210に登録する(S205)。その後、登録部240は、発行したユーザID211を要求元(例えば、乗合車両支援装置300)へ返信する(S206)。尚、認証装置200は、任意の情報登録端末から受信した顔情報登録要求に応じて顔情報登録処理を行っても良い。例えば、情報登録端末は、パーソナルコンピュータ、スマートフォン又はタブレット端末等の情報処理装置である。
 図8に戻り、説明を続ける。
 乗合車両支援装置300は、認証装置200からネットワークNを介して顔情報登録結果(ユーザID)を受信する(S103)。そして、乗合車両支援装置300は、受信したユーザID3121と、ステップS101で受け付けた属性情報3122を対応付けて乗客情報312に登録する(S104)。
 図10は、本実施形態2にかかる乗車時の乗客情報特定処理の流れを示すシーケンス図である。以下の説明では、乗客U1-1からU1-3は、事前に上述した図8の乗客情報登録処理が完了しているものとする。但し、属性情報については必ずしも登録されていなくてもよい。尚、乗車時の乗客情報特定処理は、必須でなくてもよい。
 ここで、例えば、乗客U1-1は、所定の乗車地点に停車した乗合車両10に入口から乗車し、認証端末101-1にて顔認証を行う。すなわち、認証端末101-1は、乗客U1-1の顔を撮影し(S111)、撮影された顔画像を取得する。また、認証端末101-1は、記憶部110から端末ID112を読み出す。そして、認証端末101-1は、取得した顔画像及び端末ID112を、(車両制御装置103及び)ネットワークNを介して乗合車両支援装置300へ送信する(S112)。
 乗合車両支援装置300は、認証端末101-1から顔画像及び端末IDを受信し、端末IDに基づき、乗客が入口の認証端末101-1付近にいると認識する。そして、乗合車両支援装置300は、顔画像を含めた顔認証要求を、ネットワークNを介して認証装置200へ送信する(S113)。これに応じて、認証装置200は、顔認証処理を行う(S114)。
 図11は、本実施形態2にかかる認証装置200による顔認証処理の流れを示すフローチャートである。まず、認証装置200は、乗合車両支援装置300からネットワークNを介して、顔認証要求を受信する(S211)。次に、認証装置200は、顔認証要求に含まれる顔画像に対して、上述したステップS202及びS203と同様に、顔特徴情報を抽出する。そして、認証装置200の認証部250は、顔認証要求に含まれる顔画像から抽出した顔特徴情報を、顔情報DB210の顔特徴情報212と照合し(S212)、一致度を算出する。そして、認証部250は、一致度が閾値以上か否かを判定する(S213)。顔特徴情報が一致した場合、つまり、顔特徴情報の一致度が閾値以上である場合、認証部250は、顔特徴情報212に対応付けられたユーザID211を特定する(S214)。そして、認証部250は、顔認証に成功した旨と特定したユーザID211とを含めた顔認証結果を、ネットワークNを介して乗合車両支援装置300へ返信する(S215)。ステップS213で一致度が閾値未満である場合、認証部250は、顔認証に失敗した旨を含めた顔認証結果を、ネットワークNを介して乗合車両支援装置300へ返信する(S216)。
 図10に戻り説明を続ける。
 乗合車両支援装置300は、認証装置200からネットワークNを介して、顔認証結果を受信する(S115)。そして、乗合車両支援装置300は、顔認証に成功したか否かを判定する。具体的には、乗合車両支援装置300は、顔認証結果を参照し、顔認証結果にユーザIDが含まれていれば、顔認証に成功したと判定する。尚、顔認証に失敗したと判定した場合、乗合車両支援装置300は、ユーザが顔認証に失敗した旨を、ネットワークNを介して認証端末101-1へ返信してもよい。
 ここでは、顔認証結果に顔認証に成功した旨と乗客U1のユーザIDが含まれていたものとして説明を続ける。乗合車両支援装置300は、乗客情報312の中から、顔認証結果に含まれるユーザID3121に対応付けられた属性情報3122を特定する(S116)。尚、乗合車両支援装置300は、認証端末101-1から受信した顔画像を画像認識して、年齢、性別、身体状態、装具、ベビーカー、手荷物、同乗する幼児等を属性情報として特定してもよい。
 そして、乗合車両支援装置300は、乗客U1の履歴情報314に乗車に関する情報を登録する(S117)。例えば、乗合車両支援装置300は、顔認証結果に含まれるユーザID3141、特定した属性情報3142、乗車日時3143及び乗車地点3144を対応付けた履歴情報314を生成し、生成した履歴情報314を記憶部310に登録する。
 図12は、本実施形態2にかかる着席時の乗客情報特定処理の流れを示すシーケンス図である。ここでは、上述した図5に示した手荷物105を所持した乗客U1-2が、認証端末101-2の設置された座席に着席したものとする。
 まず、認証端末101-2は、乗客U1-2の顔を撮影し(S121)、撮影された顔画像を取得する。また、認証端末101-2は、記憶部110から端末ID112を読み出す。そして、認証端末101-2は、乗客U1-2から降車地点の指定を受け付ける(S122)。そして、認証端末101-2は、取得した顔画像、指定された降車地点及び端末ID112を、(車両制御装置103及び)ネットワークNを介して乗合車両支援装置300へ送信する(S123)。尚、降車地点の指定は、後述するように乗車前に行われても良い。
 乗合車両支援装置300は、認証端末101-2から顔画像、降車地点及び端末IDを受信する。そして、乗合車両支援装置300は、顔画像を含めた顔認証要求を、ネットワークNを介して認証装置200へ送信する(S124)。これに応じて、認証装置200は、顔認証処理を行う(S125)。そして、乗合車両支援装置300は、認証装置200からネットワークNを介して、顔認証結果を受信する(S126)。ここでは、乗客U1-2の顔認証に成功したものとする。
 そこで、乗合車両支援装置300は、乗客情報312の中から、顔認証結果に含まれるユーザID3121に対応付けられた属性情報3122を特定する(S127)。また、乗合車両支援装置300は、認証端末101-2から受信した顔画像を画像認識して、乗客U1-2が所持している手荷物105を属性情報として特定する。
 そして、乗合車両支援装置300は、ステップS123で受信した端末IDに基づく端末位置を、乗客U1-2の車内位置として特定する(S128)。具体的には、乗合車両支援装置300は、認証端末101-2が設置された座席位置を、乗客U1-2の車内位置として特定する。
 乗合車両支援装置300は、ステップS127で特定した属性情報及びステップS128で特定した車内位置から、降車所要時間を算出する(S129)。具体的には、乗合車両支援装置300は、乗客U1-2の車内位置(認証端末101-2)から乗合車両10の出口までの降車経路R2及び距離を算出し、所定の基準に基づき降車経路R2の移動に要する標準的な所要時間を算出する。そして、乗合車両支援装置300は、乗客U1-2の属性情報として手荷物105があることから、所定の基準に基づき、手荷物105の種別や形状を加味した重み付け係数を特定する。その他、乗合車両支援装置300は、乗客の属性情報として上述した身体状態、装具、ベビーカー、手荷物、同乗する幼児等を加味して重み付け係数を特定する。そして、乗合車両支援装置300は、上記算出した降車経路R2の標準的な所要時間に、特定した重み付け係数を乗算して、乗客U1-2の降車所要時間を算出する。
 続いて、乗合車両支援装置300は、乗合車両10の現在地点から、乗客U1-2の降車指定地点(降車地点)までの到着所要見込時間、停車地点数を算出する(S130)。そして、乗合車両支援装置300は、到着所要見込時間、停車地点数及び降車所要時間を、ネットワークNを介して認証端末101-2へ送信する(S131)。これに応じて、認証端末101-2は、受信した到着所要見込時間、停車地点数及び降車所要時間(並びに指定した降車指定地点)を画面に表示する(S132)。
 また、乗合車両支援装置300は、乗客U1-2のユーザID3121に、属性情報3122、車内位置3123、降車指定地点3124及び降車所要時間3125を対応付けて乗客情報312を更新する(S133)。尚、属性情報3122には、画像認識により特定された手荷物105の情報を含めるものとする。
 また、乗合車両支援装置300は、乗客U1-2のユーザID3141に、属性情報3142、車内位置3145及び降車所要時間3148を対応付けて履歴情報314を更新する(S134)。
 図13は、本実施形態2にかかる立ち乗り客の乗客情報特定処理の流れを示すシーケンス図である。尚、立ち乗り客の乗客情報特定処理は、必須でなくてもよい。
 まず、車内カメラ104は、乗合車両10の車内を撮影する(S141)。例えば、車内カメラ104は、乗合車両10が所定の地点に停車し、乗客が乗車し、乗合車両10が走行を開始する際に、つまり、各乗客が座席に着席するか、所定の位置に立つ(例えば、つり革に捕まった)頃に、撮影を行う。具体的には、車内カメラ104は、乗合車両10の扉が閉じたことを、車両制御装置103から通知されたタイミングで撮影を行ってもよい。車内カメラ104は、撮影した車内画像を、車両制御装置103及びネットワークNを介して乗合車両支援装置300へ送信する(S142)。
 これに応じて、乗合車両支援装置300は、車内カメラ104から受信した車内画像から、乗客の顔領域と車内位置を特定する(S143)。具体的には、乗合車両支援装置300は、車内画像に対する画像認識から、乗客の顔領域を抽出し、抽出した領域を顔画像として特定する。また、乗合車両支援装置300は、車内画像に対する画像認識から、乗客の存在領域を特定し、当該乗客の車内位置として特定する。例えば、乗合車両支援装置300は、図5における乗客U1-5の顔画像と車内位置を特定する。
 そして、乗合車両支援装置300は、顔画像を含めた顔認証要求を、ネットワークNを介して認証装置200へ送信する(S144)。これに応じて、認証装置200は、顔認証処理を行う(S145)。そして、乗合車両支援装置300は、認証装置200からネットワークNを介して、顔認証結果を受信する(S146)。ここでは、乗客U1-5の顔認証に成功したものとする。
 そこで、乗合車両支援装置300は、乗客情報312の中から、顔認証結果に含まれるユーザID3121に対応付けられた属性情報3122を特定する(S147)。また、乗合車両支援装置300は、車内カメラ104から受信した顔画像を画像認識して、乗客U1-5の属性情報を特定してもよい。
 乗合車両支援装置300は、ステップS147で特定した属性情報及びステップS143で特定した車内位置から、降車所要時間を算出する(S148)。その後、乗合車両支援装置300は、乗客U1-5のユーザID3121に、属性情報3122、車内位置3123及び降車所要時間3125を対応付けて乗客情報312を更新する(S149)また、乗合車両支援装置300は、乗客U1-5のユーザID3141に、属性情報3142、車内位置3145及び降車所要時間3148を対応付けて履歴情報314を更新する(S150)。
 図14は、本実施形態2にかかる支援情報等表示処理の流れを示すフローチャートである。ここでは、乗合車両10の運行中の任意のタイミングで、表示装置102に支援情報等を表示する場合について説明する。まず、乗合車両支援装置300は、乗客情報312から、降車地点ごとの降車予定者の人数及び車内位置のリストを導出する(S161)。次に、乗合車両支援装置300は、乗客情報312から、降車地点ごとの降車所要時間を導出する(S162)。例えば、特定の降車地点を降車指定地点とする乗客が複数存在した場合、乗合車両支援装置300は、それぞれの降車所要時間3125のうち最も長い時間を、特定の降車地点における降車所要時間として導出する。または、乗合車両支援装置300は、特定の降車指定地点の乗客の属性情報3122を加味して、各乗客の降車所要時間を加算するか、最長の降車所要時間に所定の倍率を乗算して導出してもよい。
 そして、乗合車両支援装置300は、降車地点ごとに、乗合車両10の現在地点からの到着所要見込時間を算出する(S163)。尚、乗合車両支援装置300は、降車地点ごとに、乗合車両10の現在地点からの停車地点数を算出してもよい。
 その後、乗合車両支援装置300は、降車地点ごとに、到着所要見込時間及び支援情報を表示装置102に表示する(S164)。具体的には、乗合車両支援装置300は、降車地点ごとの到着所要見込時間及び支援情報を、ネットワークN及び車両制御装置103を介して表示装置102へ送信する。ここで、支援情報には、ステップS161で算出した降車予定者の人数、ステップS163で算出した到着所要見込時間が含まれる。
 また、乗合車両支援装置300は、車内位置ごとに、降車指定地点及び降車所要時間を表示装置102に表示する(S165)。具体的には、乗合車両支援装置300は、車内位置ごとの降車指定地点及び降車所要時間、つまり、車内位置のリストを、ネットワークN及び車両制御装置103を介して表示装置102へ送信する。
 尚、ステップS164及びS165は、例示に過ぎず、他の情報を表示装置102へ送信してもよい。また、ステップS164及びS165は、いずれか一方が実行されてもよい。
 図15は、本実施形態2にかかる支援情報等の表示情報41の例を示す図である。表示情報41は、降車地点、降車予定人数、降車所要時間、到着所要見込時間を表形式で表示した例である。例えば、降車地点P0からP7のそれぞれについて、降車予定人数、降車所要時間、到着所要見込時間が表示されていることを示す。
 図16は、本実施形態2にかかる支援情報等の表示情報42の例を示す図である。表示情報42は、乗合車両10の座席レイアウトと、現時点の乗客の配置、座席ごとに、着席した乗客の降車指定地点と降車所要時間が表示されていることを示す。例えば、乗客U1-3と乗客U1-8は、座席から出口までの距離が概ね同じであるが、乗客U1-3の属性(例えば、幼児を連れている、ベビーカーを持っている)などにより、降車所要時間が乗客U1-8の2分より長い3分であることを示す。また、乗客U1-6は、乗客U1-4と比べて座席から出口までの距離が近いが、周囲に立ち客がいることや、自身の属性情報、例えば高齢者であるなどのことにより、降車所要時間が乗客U1-4の15秒より長い30秒であることを示す。また、乗客U1-2と乗客U1-7は、座席から出口までの距離が概ね同じであるが、乗客U1-2は手荷物105を所持していることから、降車所要時間が乗客U1-7の15秒より長い2分であることを示す。
 表示情報41又は42が表示装置102に表示されることにより、運転手U0は、各乗客の車内位置や降車指定地点、降車所要時間を容易に把握することができる。尚、表示装置102は、乗客U1が視認可能な位置に設置されてもよい。
 図17は、本実施形態2にかかる降車予告処理の流れを示すフローチャートである。降車予告処理は、乗合車両10の走行中に、直近の降車地点に近付いた時に実行されるものである。まず、乗合車両支援装置300は、乗合車両10の現在地点が次の降車地点から所定距離以内であるか否かを判定する(S171)。所定距離以内でないと判定された場合、所定時間経過後に、再度ステップS171を実行する。
 ステップS171で所定距離以内であると判定された場合、乗合車両支援装置300は、乗客情報312の中から、次の降車地点が降車指定地点である乗客を特定する(S172)。そして、乗合車両支援装置300は、通知先の認証端末を特定する(S173)。具体的には、乗合車両支援装置300は、ステップS172で特定した乗客のユーザID3121に対応付けられた車内位置3123に対応する端末IDを特定する。尚、ステップS172で特定した乗客が立ち客の場合、乗合車両支援装置300は、表示装置102を通知先として特定してもよい。
 また、ステップS172及びS173と並行して、乗合車両支援装置300は、乗合車両10の現在地点から次の降車地点までの到着所要見込時間を算出する(S174)。具体的には、乗合車両支援装置300は、次の降車地点について、上述した図14のステップS163を実行する。そして、乗合車両支援装置300は、乗客情報312から、次の降車地点における降車所要時間、降車予定者の人数及び車内位置のリストを導出する(S175)。具体的には、乗合車両支援装置300は、次の降車地点について、上述した図14のステップS161及びS162を実行する。
 ステップS173及びS175の後、乗合車両支援装置300は、ステップS173で特定した認証端末101へ到着予告を通知する(S176)。具体的には、乗合車両支援装置300は、到着所要見込時間や降車準備を促すメッセージ等を含めた到着予告情報を、ネットワークNを介して認証端末101へ送信する。尚、乗合車両支援装置300は、ステップS175で算出された降車所要時間に応じたタイミングでステップS176を実行してもよい。
 図18は、本実施形態2にかかる認証端末101における表示情報43の例を示す図である。認証端末101は、カメラ140及びタッチパネル150が正面に設けられていることを示すが、これに限定されない。タッチパネル150は、表示情報43を表示している。表示情報43は、上述した到着予告情報の一例であり、メッセージ431及び432を含む。メッセージ431は、「降車地点P4まであと2分で到着見込です。」という例を示す。メッセージ432は、「降車の準備をお願いします。」という例を示す。これにより、乗客は降車忘れや降車間違いをし難くなる。さらに、表示情報43は、当該乗客における降車所要時間を表示しても良い。これにより、乗客は、降車の準備を始め易くなり、降車地点に停車後に速やかに降車することができる。尚、到着予告の通知先は、属性情報3122に登録されたユーザ端末であってもよい。その場合、表示情報43は、通知先のユーザ端末に表示される。
 また、図17において、ステップS173及びS175の後、乗合車両支援装置300は、次の降車地点における降車所要時間、降車予定者の人数及び車内位置のリストを表示装置102に表示する(S177)。具体的には、乗合車両支援装置300は、ステップS174で算出及びS175で導出した降車所要時間、降車予定者の人数及び車内位置のリストを、ネットワークN及び車両制御装置103を介して表示装置102へ送信する。これに応じて、表示装置102は、降車所要時間、降車予定者の人数及び車内位置のリストを画面に表示する。そのため、運転手U0は、次の降車地点における降車に関する情報を適切かつ容易に把握できる。
 図19は、本実施形態2にかかる降車処理の流れを示すシーケンス図である。ここでは、乗合車両10が所定の降車地点に停車し、出口の扉が開いた状態で、降車予定者が順次、認証端末101-eで顔認証を行った上で、降車する場合について説明する。尚、降車時の顔認証は必須でなくてもよい。
 まず、認証端末101-eは、降車する乗客U1の顔を撮影し(S181)、撮影された顔画像を取得する。また、認証端末101-eは、記憶部110から端末ID112を読み出す。そして、認証端末101-eは、取得した顔画像及び端末ID112を、(車両制御装置103及び)ネットワークNを介して乗合車両支援装置300へ送信する(S182)。
 乗合車両支援装置300は、認証端末101-eから顔画像及び端末IDを受信し、端末IDに基づき、乗客が出口の認証端末101-e付近にいると認識する。そして、乗合車両支援装置300は、顔画像を含めた顔認証要求を、ネットワークNを介して認証装置200へ送信する(S183)。これに応じて、認証装置200は、顔認証処理を行う(S184)。そして、乗合車両支援装置300は、認証装置200からネットワークNを介して、顔認証結果を受信する(S185)。ここでは、乗客U1の顔認証に成功したものとする。
 そして、乗合車両支援装置300は、実際の降車所要時間を算出する(S186)。例えば、乗合車両支援装置300は、乗合車両10が停車してから、顔認証に成功するまでに時間を実際の降車所要時間として算出する。その後、乗合車両支援装置300は、顔認証に成功したユーザID3141に、降車日時3146、降車地点3147及び降車所要時間3148を対応付けて履歴情報314を更新する(S187)。
 このように本実施形態では、事前に登録した顔特徴情報と、乗合車両の車内全体又は座席ごとのカメラで撮影した顔画像との認証により、乗客の車内位置、降車指定地点、座席等から出口までの経路(距離)、属性が特定できる。特に、経路に属性を加味して降車所要時間を算出するため、乗客ごとに妥当な降車所要時間を算出できる。
 また、上述した図12のステップS122では、座席に設置された認証端末101により乗客から降車指定地点を受け付けていたが、他の方法であってもよい。例えば、乗客がバス内の降車ボタンを押下した際に、車内カメラ104が撮影した車内画像を解析することで、降車ボタンを押下した乗客の顔領域を抽出し、顔認証を行うことで乗客を特定してもよい。つまり、降車ボタンを押下した乗客が次の降車地点を指定したとみなしても良い。また、乗客は、所持するユーザ端末により降車地点を指定してもよい。その場合、ユーザ端末は、指定された降車地点と乗客の顔画像又はユーザID等を含めて、乗合車両支援装置300へ降車指定地点の登録要求を行っても良い。また、乗客は、乗合車両10の乗車前に降車指定地点の登録を行っても良い。例えば、乗客は、図8の乗客情報登録処理において、自身の顔情報及び属性情報と共に、降車地点を入力しても良い。その場合、ユーザ端末は、ユーザから入力された降車地点と、顔画像及び属性情報とを含めた乗客情報の登録要求を乗合車両支援装置300へ送信する。または、顔情報及び属性情報が登録済み(2回目以降の利用)の場合、ユーザ端末は、上述したように、指定された降車地点と乗客の顔画像又はユーザID等を含めて、乗合車両支援装置300へ降車指定地点の登録要求を送信する。また、乗車後に降車指定地点の登録を行う場合、ユーザ端末は、車内の位置情報を登録要求に含めてもよい。尚、降車指定地点の登録を行う方法は、これらに限定されない。
 また、路線バスではイベント等のイレギュラーなケースで乗客が急増した場合、運転手は、降車地点ごとで降車する人数や降車所要時間を把握し難い。これに対して、本実施形態では、顔認証により乗客を特定し、降車地点ごとの降車人数、降車所要時間等を、運転席付近の表示装置に表示するため、運転手の把握を支援することができる。また、乗客は、乗りなれていない路線のバスに乗車した場合に、車内の表示装置や自席の認証端末の表示情報を見ることで、目的地(降車指定地点)までの所要時間、同じ地点で自分以外に降車する人数、それらの車内配置等を把握できる。そのため、乗客の降り忘れ、降り間違い、降車の遅れ等を抑止することができる。
<実施形態3>
 本実施形態3は、上述した実施形態2の変形例である。本実施形態3は、乗合車両として自動運転を行うMaaSを対象としたものである。そのため、乗合車両に運転手が搭乗していなくても良い。そして、乗合車両支援装置300は、乗合車両10の車両制御装置103へ降車所要時間や支援情報を出力することで、乗合車両10の停車時間等を支援できる。尚、本実施形態3にかかる乗合車両支援システム1000は、乗合車両10に運転手U0が搭乗しなくても良いことを除き、実施形態2と同等であるため、以下では重複する図面及び説明を適宜、省略する。
 図20は、本実施形態3にかかる降車予告処理の流れを示すフローチャートである。ステップS171からS176は、上述した図17と同様である。ステップS173及びS175の後、乗合車両支援装置300は、乗合車両10の出口の開閉時間を制御させるために、車両制御装置103へ降車所要時間、降車予定者の人数及び車内位置のリストを出力する(S177a)。具体的には、乗合車両支援装置300は、ステップS174で算出及びS175で導出した降車所要時間、降車予定者の人数及び車内位置のリストを、ネットワークNを介して、車両制御装置103へ送信する。これに応じて、車両制御装置103は、降車所要時間、降車予定者の人数及び車内位置のリストに応じて、乗合車両10の停車時間や出口の扉の開閉時間を制御する。これにより、無人運転であっても、乗客の車内位置及び属性並びに降車人数等に応じて、適切に乗合車両10の運行を制御することができる。
<実施形態4>
 本実施形態4は、上述した各実施形態の変形例である。本実施形態4にかかる乗合車両支援装置300は、乗客の乗合車両の乗車履歴から分析された傾向に応じて運賃を決定する決定部をさらに備えるものである。つまり、乗客の乗車傾向に応じて運賃を動的に決定する、いわゆるダイナミックプライシングを適用するものである。尚、本実施形態4にかかる乗合車両支援システム1000は、概要構成が実施形態2と同等であるため、以下では重複する図面及び説明を適宜、省略する。
 図21は、本実施形態4にかかる乗合車両の運賃のダイナミックプライシング処理の流れを示すシーケンス図である。ステップS121からS126は、上述した図12と同様である。乗客U1の顔認証に成功した場合、乗合車両支援装置300は、乗客U1の履歴情報314を取得する(S301)。具体的には、乗合車両支援装置300は、履歴情報314の中から、顔認証に成功したユーザID3141に対応付けられた情報を取得する。そして、乗合車両支援装置300は、取得した履歴情報から乗車傾向を分析する(S302)。例えば、乗合車両支援装置300は、乗車日時3143、乗車地点3144、降車日時3146及び降車地点3147の組から、乗車頻度、乗車区間の長短、を乗車傾向として分析する。そして、乗合車両支援装置300は、今回の乗車地点及び指定された降車地点と、乗車傾向に応じて、今回の乗車における運賃を算出する(S303)。例えば、長距離の乗車履歴があること、乗車頻度が高いこと、さらにこれらの組合せが多いこと、などの場合、乗合車両支援装置300は、運賃の割引率や割引額を通常より高くして、今回の乗車における運賃を算出してもよい。そして、乗合車両支援装置300は、算出した運賃を認証端末101へ送信する(S304)。これに応じて、認証端末101は、受信した運賃を画面に表示する。このとき、乗合車両支援装置300は、運賃の割引率や割引額と、その理由(乗車傾向、長距離の乗車履歴があること、乗車頻度が高いこと等)を認証端末101に表示させてもよい。
<その他の実施形態>
 尚、上述した実施形態における乗合車両は、自由席を前提としたが、本実施形態は、指定席に適用してもよい。また、乗合車両は、路線バスに限定されず、深夜バスや高速バスであってもよい。
 尚、上述した実施形態では、本人特定認証(本人確認の認証、本人認証、本人特定処理等)を顔認証として説明したが、生体情報を用いた他の生体認証であってもよい。生体認証及び生体情報は、人物の撮影画像を利用する他の技術を適用可能である。例えば、生体情報には、指紋、声紋、静脈、網膜、瞳の虹彩、手のひらの模様(パターン)といった個人に固有の身体的特徴から計算されるデータ(特徴量)を用いても構わない。また、生体認証には、ユーザの身体の一部の撮影画像から人物の身体的特徴を示す特徴情報を抽出し、予め登録された特徴情報と抽出された特徴情報との照合を行い、一致度が閾値以上である場合に認証に成功したとみなすものとしてもよい。例えば、生体認証は、人物の外観形状に基づく認証であってもよい。その場合、特徴情報は、人物の外観形状に関する情報、例えば、体形、身長、服装等の特徴を示す情報となる。また、生体認証の代わりに、他の本人認証を適用してもよく、生体情報も他の本人認証情報であってもよい。例えば、本人認証情報としては、ユーザID、ID及びパスワードの組合せ、マイナンバーや運転免許証等の身分証明書の記載内容(識別番号等やパスワード)、電子証明書、コード情報等が挙げられるが、これらに限定されない。尚、コード情報は、二次元コード例えば、QRコード(登録商標)であってもよい。
 尚、上述した実施形態2において、認証装置200と乗合車両支援装置300とは別の情報処理装置として説明したが、同一であってもよい。例えば、乗合車両支援装置300は、乗客情報312のユーザID3121に顔特徴情報をさらに対応付けて登録してもよい。その場合、制御部340は、図4の顔検出部220、特徴点抽出部230、登録部240及び認証部250の機能をさらに備えていれば良い。
 上述の例において、プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
 なお、本開示は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。また、本開示は、それぞれの実施形態を適宜組み合わせて実施されてもよい。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
 (付記A1)
 乗合車両の乗客に対する本人特定認証に基づき当該乗客の属性を特定する第1の特定手段と、
 前記本人特定認証に成功した乗客における前記乗合車両内の位置を特定する第2の特定手段と、
 前記特定された属性に基づき前記乗客が前記特定された位置から前記乗合車両の出口までの移動に要する所要時間を算出する算出手段と、
 前記所要時間を出力する出力手段と、
 を備える乗合車両支援装置。
 (付記A2)
 前記本人特定認証は、前記乗客を撮影した画像を用いた認証であり、
 前記第1の特定手段は、前記画像に対する画像認識から、前記乗客の属性を特定する
 付記A1に記載の乗合車両支援装置。
 (付記A3)
 前記乗客が指定した降車地点に応じた支援情報を導出する導出手段をさらに備え、
 前記出力手段は、前記支援情報をさらに出力する
 付記A1又はA2に記載の乗合車両支援装置。
 (付記A4)
 前記導出手段は、特定の降車地点における降車予定者の人数を前記支援情報として導出する
 付記A3に記載の乗合車両支援装置。
 (付記A5)
 前記導出手段は、前記乗客における前記特定された位置と前記指定された降車地点とを対応付けた情報を前記支援情報として導出する
 付記A3又はA4に記載の乗合車両支援装置。
 (付記A6)
 前記出力手段は、前記所要時間及び前記支援情報を前記乗合車両の運転手に向けて出力する
 付記A3から付記A5までのいずれか1項に記載の乗合車両支援装置。
 (付記A7)
 前記出力手段は、前記所要時間及び前記支援情報を前記乗合車両の制御のために出力する
 付記A3から付記A5までのいずれか1項に記載の乗合車両支援装置。
 (付記A8)
 前記出力手段は、前記所要時間に応じて前記乗合車両の出口の開閉時間を制御させるために出力する
 付記A1から付記A7までのいずれか1項に記載の乗合車両支援装置。
 (付記A9)
 前記乗客の前記乗合車両の乗車履歴から分析された傾向に応じて運賃を決定する決定手段をさらに備える
 付記A1から付記A8までのいずれか1項に記載の乗合車両支援装置。
 (付記B1)
 乗合車両に搭載された認証端末と、
 前記乗合車両の運行を支援する乗合車両支援装置と、を備え、
 前記乗合車両支援装置は、
 前記認証端末による前記乗合車両の乗客に対する本人特定認証に基づき当該乗客の属性を特定する第1の特定手段と、
 前記本人特定認証に成功した乗客における前記乗合車両内の位置を特定する第2の特定手段と、
 前記特定された属性に基づき前記乗客が前記特定された位置から前記乗合車両の出口までの移動に要する所要時間を算出する算出手段と、
 前記所要時間を出力する出力手段と、
 を備える乗合車両支援システム。
 (付記B2)
 前記本人特定認証は、前記乗客を撮影した画像を用いた認証であり、
 前記第2の特定手段は、前記画像に対する画像認識から、前記乗客の属性を特定する
 付記B1に記載の乗合車両支援システム。
 (付記C1)
 コンピュータが、
 乗合車両の乗客に対する本人特定認証に基づき当該乗客の属性を特定し、
 前記本人特定認証に成功した乗客における前記乗合車両内の位置を特定し、
 前記特定された属性に基づき前記乗客が前記特定された位置から前記乗合車両の出口までの移動に要する所要時間を算出し、
 前記所要時間を出力する、
 乗合車両支援方法。
 (付記D1)
 乗合車両の乗客に対する本人特定認証に基づき当該乗客の属性を特定する第1の特定処理と、
 前記本人特定認証に成功した乗客における前記乗合車両内の位置を特定する第2の特定処理と、
 前記特定された属性に基づき前記乗客が前記特定された位置から前記乗合車両の出口までの移動に要する所要時間を算出する算出処理と、
 前記所要時間を出力する出力処理と、
 をコンピュータに実行させる乗合車両支援プログラムが格納された非一時的なコンピュータ可読媒体。
 以上、実施形態(及び実施例)を参照して本願発明を説明したが、本願発明は上記実施形態(及び実施例)に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 1 乗合車両支援装置
 11 第1の特定部
 12 第2の特定部
 13 算出部
 14 出力部
 1000 乗合車両支援システム
 N ネットワーク
 U0 運転手
 U1 乗客
 U1-1 乗客
 U1-2 乗客
 U1-3 乗客
 U1-4 乗客
 U1-5 乗客
 U1-6 乗客
 U1-7 乗客
 U1-8 乗客
 10 乗合車両
 101 認証端末
 101-1 認証端末
 101-2 認証端末
 101-3 認証端末
 101-4 認証端末
 101-e 認証端末
 110 記憶部
 111 プログラム
 112 端末ID
 120 メモリ
 130 通信部
 140 カメラ
 150 タッチパネル
 160 制御部
 161 受付部
 162 認証制御部
 163 表示制御部
 102 表示装置
 103 車両制御装置
 104 車内カメラ
 105 手荷物
 R2 降車経路
 R3 降車経路
 R4 降車経路
 R5 降車経路
 200 認証装置
 210 顔情報DB
 211 ユーザID
 212 顔特徴情報
 220 顔検出部
 230 特徴点抽出部
 240 登録部
 250 認証部
 300 乗合車両支援装置
 310 記憶部
 311 プログラム
 312 乗客情報
 3121 ユーザID
 3122 属性情報
 3123 車内位置
 3124 降車指定地点
 3125 降車所要時間
 313 支援情報
 3131 降車地点
 3132 車内位置リスト
 3133 人数
 314 履歴情報
 3141 ユーザID
 3142 属性情報
 3143 乗車日時
 3144 乗車地点
 3145 車内位置
 3146 降車日時
 3147 降車地点
 3148 降車所要時間
 320 メモリ
 330 通信部
 340 制御部
 341 登録部
 342 認証制御部
 343 特定部
 344 算出部
 345 導出部
 346 出力部
 41 表示情報
 42 表示情報
 43 表示情報
 431 メッセージ
 432 メッセージ

Claims (13)

  1.  乗合車両の乗客に対する本人特定認証に基づき当該乗客の属性を特定する第1の特定手段と、
     前記本人特定認証に成功した乗客における前記乗合車両内の位置を特定する第2の特定手段と、
     前記特定された属性に基づき前記乗客が前記特定された位置から前記乗合車両の出口までの移動に要する所要時間を算出する算出手段と、
     前記所要時間を出力する出力手段と、
     を備える乗合車両支援装置。
  2.  前記本人特定認証は、前記乗客を撮影した画像を用いた認証であり、
     前記第1の特定手段は、前記画像に対する画像認識から、前記乗客の属性を特定する
     請求項1に記載の乗合車両支援装置。
  3.  前記乗客が指定した降車地点に応じた支援情報を導出する導出手段をさらに備え、
     前記出力手段は、前記支援情報をさらに出力する
     請求項1又は2に記載の乗合車両支援装置。
  4.  前記導出手段は、特定の降車地点における降車予定者の人数を前記支援情報として導出する
     請求項3に記載の乗合車両支援装置。
  5.  前記導出手段は、前記乗客における前記特定された位置と前記指定された降車地点とを対応付けた情報を前記支援情報として導出する
     請求項3又は4に記載の乗合車両支援装置。
  6.  前記出力手段は、前記所要時間及び前記支援情報を前記乗合車両の運転手に向けて出力する
     請求項3から請求項5までのいずれか1項に記載の乗合車両支援装置。
  7.  前記出力手段は、前記所要時間及び前記支援情報を前記乗合車両の制御のために出力する
     請求項3から請求項5までのいずれか1項に記載の乗合車両支援装置。
  8.  前記出力手段は、前記所要時間に応じて前記乗合車両の出口の開閉時間を制御させるために出力する
     請求項1から請求項7までのいずれか1項に記載の乗合車両支援装置。
  9.  前記乗客の前記乗合車両の乗車履歴から分析された傾向に応じて運賃を決定する決定手段をさらに備える
     請求項1から請求項8までのいずれか1項に記載の乗合車両支援装置。
  10.  乗合車両に搭載された認証端末と、
     前記乗合車両の運行を支援する乗合車両支援装置と、を備え、
     前記乗合車両支援装置は、
     前記認証端末による前記乗合車両の乗客に対する本人特定認証に基づき当該乗客の属性を特定する第1の特定手段と、
     前記本人特定認証に成功した乗客における前記乗合車両内の位置を特定する第2の特定手段と、
     前記特定された属性に基づき前記乗客が前記特定された位置から前記乗合車両の出口までの移動に要する所要時間を算出する算出手段と、
     前記所要時間を出力する出力手段と、
     を備える乗合車両支援システム。
  11.  前記本人特定認証は、前記乗客を撮影した画像を用いた認証であり、
     前記第2の特定手段は、前記画像に対する画像認識から、前記乗客の属性を特定する
     請求項10に記載の乗合車両支援システム。
  12.  コンピュータが、
     乗合車両の乗客に対する本人特定認証に基づき当該乗客の属性を特定し、
     前記本人特定認証に成功した乗客における前記乗合車両内の位置を特定し、
     前記特定された属性に基づき前記乗客が前記特定された位置から前記乗合車両の出口までの移動に要する所要時間を算出し、
     前記所要時間を出力する、
     乗合車両支援方法。
  13.  乗合車両の乗客に対する本人特定認証に基づき当該乗客の属性を特定する第1の特定処理と、
     前記本人特定認証に成功した乗客における前記乗合車両内の位置を特定する第2の特定処理と、
     前記特定された属性に基づき前記乗客が前記特定された位置から前記乗合車両の出口までの移動に要する所要時間を算出する算出処理と、
     前記所要時間を出力する出力処理と、
     をコンピュータに実行させる乗合車両支援プログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2022/020353 2022-05-16 2022-05-16 乗合車両支援装置、システム及び方法、並びに、コンピュータ可読媒体 WO2023223382A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/020353 WO2023223382A1 (ja) 2022-05-16 2022-05-16 乗合車両支援装置、システム及び方法、並びに、コンピュータ可読媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/020353 WO2023223382A1 (ja) 2022-05-16 2022-05-16 乗合車両支援装置、システム及び方法、並びに、コンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2023223382A1 true WO2023223382A1 (ja) 2023-11-23

Family

ID=88834803

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/020353 WO2023223382A1 (ja) 2022-05-16 2022-05-16 乗合車両支援装置、システム及び方法、並びに、コンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2023223382A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065759A (ja) * 2006-09-11 2008-03-21 Matsushita Electric Ind Co Ltd 乗降支援システムおよび乗降支援方法
JP2008217194A (ja) * 2007-03-01 2008-09-18 Nec Corp バス運行システム及びバス運行方法
JP2009187275A (ja) * 2008-02-06 2009-08-20 Hiroshi Hiki 路線バス料金精算システム
JP2018092388A (ja) * 2016-12-05 2018-06-14 京阪バス株式会社 生体認証乗車管理システム
JP2020041932A (ja) * 2018-09-12 2020-03-19 株式会社ぐるなび 情報提供システム、情報提供方法、及び情報提供プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065759A (ja) * 2006-09-11 2008-03-21 Matsushita Electric Ind Co Ltd 乗降支援システムおよび乗降支援方法
JP2008217194A (ja) * 2007-03-01 2008-09-18 Nec Corp バス運行システム及びバス運行方法
JP2009187275A (ja) * 2008-02-06 2009-08-20 Hiroshi Hiki 路線バス料金精算システム
JP2018092388A (ja) * 2016-12-05 2018-06-14 京阪バス株式会社 生体認証乗車管理システム
JP2020041932A (ja) * 2018-09-12 2020-03-19 株式会社ぐるなび 情報提供システム、情報提供方法、及び情報提供プログラム

Similar Documents

Publication Publication Date Title
US11240234B2 (en) Methods and systems for providing online verification and security
BR112016029038B1 (pt) Sistema e método para facilitar acesso de usuário a veículos com base em informações biométricas
US12039819B2 (en) Dynamic identity verification system and method
US10095853B2 (en) Methods and systems for ensuring that an individual is authorized to conduct an activity
CN111460413B (zh) 身份识别***及方法、装置、电子设备、存储介质
JP6865321B1 (ja) 入退場管理装置、入退場管理方法、入退場管理プログラム、および入退場管理システム
US11941933B2 (en) Enhanced access control
WO2023223382A1 (ja) 乗合車両支援装置、システム及び方法、並びに、コンピュータ可読媒体
WO2016200416A1 (en) Methods and systems for providing online verification and security
WO2023067657A1 (ja) 情報制御装置、情報制御方法、及びコンピュータ可読媒体
US20240256644A1 (en) System, server apparatus, authentication method, and storage medium
JP7036280B1 (ja) サーバ、システム、サーバの制御方法、プログラム、端末、及び端末の制御方法
CN112101286A (zh) 一种服务请求的方法、装置、计算机设备及存储介质
WO2024053038A1 (ja) 宿泊支援装置、システム及び方法、並びに、コンピュータ可読媒体
WO2022091237A1 (ja) サーバ装置、情報提供システム、情報提供方法及び記憶媒体
WO2023084765A1 (ja) 処理実行装置、ユーザ端末、認証システム、処理実行方法、認証方法、及び、コンピュータ可読媒体
US11710361B2 (en) Enhanced authorization to access transportation hub services
WO2024154430A1 (ja) 人物照合システム、情報処理装置、人物照合方法、及び、人物照合プログラム
US20230368639A1 (en) Server device, visitor notification system, visitor notification method, and storage medium
JP7363982B2 (ja) 認証端末、認証端末の制御方法及びプログラム
JP7533723B1 (ja) サーバ装置、サーバ装置の制御方法及びプログラム
WO2022018792A1 (ja) 情報処理装置、顔認証促進システム、情報処理方法、プログラムが記憶された非一時的なコンピュータ可読媒体
EP4086863A1 (en) Enhanced access control
WO2023286134A1 (ja) カード情報管理装置、システム、及び、方法、並びに、コンピュータ可読媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22942587

Country of ref document: EP

Kind code of ref document: A1