WO2020075308A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2020075308A1
WO2020075308A1 PCT/JP2018/038219 JP2018038219W WO2020075308A1 WO 2020075308 A1 WO2020075308 A1 WO 2020075308A1 JP 2018038219 W JP2018038219 W JP 2018038219W WO 2020075308 A1 WO2020075308 A1 WO 2020075308A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
cpu
face image
display
Prior art date
Application number
PCT/JP2018/038219
Other languages
English (en)
French (fr)
Inventor
理沙 田川
憲由 平本
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2020549932A priority Critical patent/JP7184091B2/ja
Priority to PCT/JP2018/038219 priority patent/WO2020075308A1/ja
Priority to CN201880098570.5A priority patent/CN112840372B/zh
Priority to SG11202103587YA priority patent/SG11202103587YA/en
Priority to EP18936336.9A priority patent/EP3866101A4/en
Priority to US16/366,482 priority patent/US11636277B2/en
Publication of WO2020075308A1 publication Critical patent/WO2020075308A1/ja
Priority to JP2022183772A priority patent/JP7494891B2/ja

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/10Movable barriers with registering means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/1095Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices the scanner comprising adaptations for scanning a record carrier that is displayed on a display-screen or the like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/1098Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices the scanning arrangement having a modular construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/20Individual registration on entry or exit involving the use of a pass
    • G07C9/22Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder
    • G07C9/25Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition
    • G07C9/253Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition visually

Definitions

  • the present invention relates to an information processing device.
  • Patent Document 1 describes an immigration control card system using a smart passport card.
  • the system described in Patent Document 1 performs a customs check by obtaining a baggage declaration card information from the smart passport card by applying the smart passport card to the terminal in the customs check facility.
  • an object of the present invention is to provide an information processing device capable of completing information acquisition and biometric information matching in a short time.
  • a reading unit that reads the medium of the user and acquires information including the biological information of the user from the medium, and a display unit that is provided at a position higher than the reading unit.
  • An information processing apparatus is provided, which includes a biometric information acquisition unit that is provided between the reading unit and the display unit and that acquires biometric information of the user from the user.
  • information acquisition and biometric information matching can be completed in a short time.
  • FIG. 1 is a schematic diagram showing the overall configuration of an information processing system according to an embodiment of the present invention.
  • FIG. 2 is a schematic view showing a customs inspection station in which a kiosk terminal and an electronic gate are installed according to an embodiment of the present invention.
  • FIG. 3 is a block diagram showing an example of the hardware configuration of the mobile terminal according to the embodiment of the present invention.
  • FIG. 4A is a schematic diagram illustrating an appearance of a kiosk terminal according to an exemplary embodiment of the present invention.
  • FIG. 4B is a schematic diagram illustrating an appearance of a kiosk terminal according to an exemplary embodiment of the present invention.
  • FIG. 5 is a block diagram showing an example of the hardware configuration of the kiosk terminal according to the embodiment of the present invention.
  • FIG. 6A is a schematic diagram showing a configuration when one kiosk terminal according to an exemplary embodiment of the present invention is installed.
  • FIG. 6B is a schematic diagram illustrating a configuration when one kiosk terminal according to an exemplary embodiment of the present invention is installed.
  • FIG. 7A is a schematic diagram showing a configuration when two kiosk terminals according to an exemplary embodiment of the present invention are installed.
  • FIG. 7B is a schematic diagram illustrating a configuration when two kiosk terminals are installed according to an exemplary embodiment of the present invention.
  • FIG. 8A is a schematic diagram illustrating a configuration when three kiosk terminals according to an exemplary embodiment of the present invention are installed.
  • FIG. 8B is a schematic diagram showing a configuration when three kiosk terminals according to an exemplary embodiment of the present invention are installed.
  • FIG. 8A is a schematic diagram illustrating a configuration when three kiosk terminals according to an exemplary embodiment of the present invention are installed.
  • FIG. 8B is a schematic diagram showing a configuration when three kiosk terminals according to an
  • FIG. 9 is a schematic diagram illustrating prevention of peeping in a kiosk terminal according to an embodiment of the present invention.
  • FIG. 10 is a schematic diagram illustrating a configuration when the kiosk terminal according to the exemplary embodiment of the present invention is installed at different heights.
  • FIG. 11 is a schematic view showing the appearance of an entrance gate terminal and an exit gate terminal that constitute an electronic gate according to an embodiment of the present invention.
  • FIG. 12 is a block diagram showing an example of the hardware configuration of the entrance gate terminal that constitutes the computerized gate according to the embodiment of the present invention.
  • FIG. 13 is a block diagram showing an example of the hardware configuration of the exit gate terminal that constitutes the computerized gate according to the embodiment of the present invention.
  • FIG. 10 is a schematic diagram illustrating a configuration when the kiosk terminal according to the exemplary embodiment of the present invention is installed at different heights.
  • FIG. 11 is a schematic view showing the appearance of an entrance gate terminal and an exit gate terminal that constitute an electronic gate according to an embodiment of the present invention.
  • FIG. 14 is a block diagram showing an example of the hardware configuration of the management server according to the embodiment of the present invention.
  • FIG. 15A is a schematic diagram showing an example of a declaration information input screen in the mobile terminal according to the embodiment of the present invention.
  • FIG. 15B is a schematic diagram showing an example of a declaration code display screen in the mobile terminal according to the embodiment of the present invention.
  • FIG. 16 is a sequence diagram showing operations of the kiosk terminal and the management server in the information processing system according to the embodiment of the present invention.
  • FIG. 17 is a sequence diagram showing a language setting operation of the kiosk terminal in the information processing system according to the embodiment of the present invention.
  • FIG. 18A is a schematic diagram showing an example of a reception screen in the kiosk terminal according to the embodiment of the present invention.
  • FIG. 18B is a schematic diagram showing an example of a declaration content confirmation screen in the kiosk terminal according to the embodiment of the present invention.
  • FIG. 18C is a schematic diagram showing an example of a guidance screen in the kiosk terminal according to the embodiment of the present invention.
  • FIG. 19 is a sequence diagram showing operations of the entrance gate terminal, the exit gate terminal and the management server in the information processing system according to the embodiment of the present invention.
  • FIG. 20 is a schematic diagram showing an example of a notification screen in the exit gate terminal according to the embodiment of the present invention.
  • FIG. 21 is a block diagram showing the configuration of an information processing apparatus according to another embodiment of the present invention.
  • FIGS. 1 to 20 An information processing apparatus, a gate apparatus, an information processing method, and a gate apparatus control method according to an embodiment of the present invention will be described with reference to FIGS. 1 to 20.
  • FIG. 1 is a schematic diagram showing the overall configuration of the information processing system according to the present embodiment.
  • FIG. 2 is a schematic view showing a customs inspection station in which the kiosk terminal and the electronic gate according to the present embodiment are installed.
  • the information processing system 1 includes a kiosk terminal 10, a computerization gate 20, a management server 50, and a mobile terminal 60.
  • the computerization gate 20 has an entrance gate terminal 30 and an exit gate terminal 40.
  • the information processing system 1 accepts, for example, a user U such as a passenger or a crew member who enters from a foreign country at an airport, a seaport, etc. in the customs procedure at the time of entry, and a specific user U who has completed the report passes through. This is a system for controlling the computerization gate 20.
  • the customs declaration which is a declaration in the customs procedure accepted by the information processing system 1, is, for example, a declaration in the customs clearance, and in the case of Japan, a personalized item / separate item of Customs Form C No. 5360. It is the same as the declaration by the declaration form.
  • the management server 50 is installed, for example, in a facility of customs.
  • the kiosk terminal 10 and the computerized gate 20 are installed at a customs inspection site C where customs inspection is performed, for example, at an airport, a seaport, or the like.
  • a kiosk terminal 10 is installed near the entrance of the customs inspection area C where the user U enters.
  • a digital signage terminal 70 is installed near the kiosk terminal 10 to display and guide the procedure method at the kiosk terminal 10 by displaying a moving image or a still image.
  • An electronic gate 20 and a manned booth M are installed at the exit of the customs inspection site C.
  • a digital signage terminal 80 is installed which displays and guides cautions when the computerized gate 20 passes through by displaying a moving image or a still image.
  • a customs officer S performs face-to-face customs inspections such as acceptance of declarations in customs procedures and inspection of baggage.
  • the mobile terminal 60 is a terminal that the user U possesses or carries.
  • a customs declaration application for making customs declarations at the kiosk terminal 10 is installed in the mobile terminal 60.
  • the user U can make a customs declaration at the kiosk terminal 10 by using the declaration code generated by the customs declaration application of the mobile terminal 60, as described later.
  • the kiosk terminal 10, the entrance gate terminal 30, the exit gate terminal 40, and the management server 50 are connected to the network NW.
  • the network NW is composed of WAN (Wide Area Network), LAN (Local Area Network), mobile communication network, and the like.
  • the kiosk terminal 10 and the management server 50 can communicate with each other via the network NW.
  • the entrance gate terminal 30 and the exit gate terminal 40 can communicate with each other via the network NW or not.
  • the exit gate terminal 40 and the management server 50 can communicate with each other via the network NW.
  • the mobile terminal 60 can communicate with a server such as the management server 50 via the network NW.
  • FIG. 3 is a block diagram showing an example of the hardware configuration of the mobile terminal 60.
  • the mobile terminal 60 is a terminal that the user U possesses or carries, and is, for example, a mobile information device such as a smartphone, a tablet terminal, or a mobile phone.
  • the mobile terminal 60 includes a CPU (Central Processing Unit) 602, a RAM (Random Access Memory) 604, a storage device 606, an input device 608, a display 610, and a mobile wireless communication unit 612. And a short-range wireless communication unit 614.
  • the CPU 602, the RAM 604, the storage device 606, the input device 608, the display 610, the mobile wireless communication unit 612, and the short-range wireless communication unit 614 are connected to the bus line 616.
  • the CPU 602 operates by executing a program stored in the storage device 606, and functions as a control unit that controls the overall operation of the mobile terminal 60. Further, the CPU 602 executes an application program stored in the storage device 606 to execute various processes as the mobile terminal 60.
  • the RAM 604 provides a memory area necessary for the operation of the CPU 602.
  • a customs declaration application for making a customs declaration in the kiosk terminal 10 is installed.
  • the CPU 602 can perform various processes for the user U to make a customs declaration.
  • the CPU 602 can accept, for example, the input of the declaration information required for customs declaration by the user U.
  • the declaration information is, for example, information having the same content as the matters to be described and described in the portable goods / separate shipment declaration. That is, the declaration information is, for example, the name of the user U, the current address or residence in the country of entry, occupation, date of birth, passport number, boarding flight name, place of departure, date of entry, and items to be declared in customs declaration. Including information required for customs declarations such as
  • the CPU 602 can generate a declaration code, which is a code such as a two-dimensional code including the declaration information input by the user U, and display it on the display 610, as described later.
  • the mobile terminal 60 can function as a medium for displaying the reporting code.
  • the reporting code is not particularly limited as long as it can include reporting information, but it is, for example, a two-dimensional code such as a QR code (registered trademark). Further, the reporting code may be, for example, a one-dimensional code such as a barcode.
  • the CPU 602 can also generate a declaration code with an expiration date in which the expiration date is set. The CPU 602 can display the set expiration date on the display 610 together with the declaration code. After being generated, the declaration code with an expiration date becomes invalid when the date and time set as the expiration date elapses. By setting the expiration date in the declaration code, it is possible to prompt the user U to promptly make a customs declaration after the declaration code is generated.
  • the user U and the accompanying family member can each use their mobile terminals 60 to make customs declarations. You can also make customs declarations.
  • the CPU 602 uses the declaration code used by the user U himself at the kiosk terminal 10 as well as the declaration code for the accompanying family used by the accompanying family at the kiosk terminal 10. It can be generated and displayed on the display 610.
  • the accompanying family can use the kiosk terminal 10 in the same manner as the user U by using the reporting code for the accompanying family displayed on the mobile terminal 60 of the user U. After using the kiosk terminal 10, the accompanying family is guided to the computerized gate 20 or the manned booth M in the same manner as the user U.
  • the code display medium for displaying the declaration code does not necessarily have to be the mobile terminal 60, and may be another medium.
  • the declaration code may be printed on paper as a code display medium.
  • the customs declaration application supports multiple languages such as Japanese, English, Chinese, and Korean.
  • the customs declaration application can be displayed and input, for example, in a language selected and set from a plurality of languages in the language setting of the mobile terminal 60.
  • the customs declaration application may be able to be displayed and input in a language selected and set from a plurality of languages in the setting of the application, separately from the language setting of the mobile terminal 60, for example.
  • the customs declaration application can be used in the used language, which is the language thus set.
  • the CPU 602 can further include language information, which is information indicating the language used by the customs declaration application, in the declaration code.
  • the language information is, for example, information indicating a language set in the language setting of the mobile terminal 60, or information related to the language if the language is set in the customs declaration application.
  • the storage device 606 includes a storage medium such as a non-volatile memory and a hard disk drive, and functions as a storage unit.
  • the storage device 606 stores a program executed by the CPU 602, data referred to by the CPU 602 when the program is executed, and the like.
  • the storage device 606 stores a customs declaration application as an application program executed by the CPU 602.
  • the storage device 606 can store information such as declaration information input by the customs declaration application. Further, the storage device 606 can store the declaration code generated by the customs declaration application.
  • the input device 608 is, for example, a touch panel incorporated in the display 610.
  • the input device 608 functions as an input unit that receives an input from the user U.
  • the user U can input various information and an instruction to execute a process to the mobile terminal 60 via the input device 608.
  • the user U can input declaration information or input a declaration code generation instruction to the mobile terminal 60 that executes the customs declaration application via the input device 608 that is a touch panel. it can.
  • the display 610 functions as a display unit that displays various screens to the user U.
  • the display 610 displays a declaration information input screen that accepts input of declaration information, a declaration code display screen that displays a declaration code, and the like, as described below.
  • the mobile radio communication unit 612 connects to the network NW via the mobile communication network under the control of the CPU 602.
  • the communication system of the mobile radio communication unit 612 is not particularly limited, and examples thereof include a third generation mobile communication system, an LTE (Long Term Evolution) system, and a fourth generation mobile communication system.
  • the short-range wireless communication unit 614 wirelessly communicates with an access point, an external device, and the like under the control of the CPU 602, and connects to the network NW via the access point such as the airport premises.
  • the communication method of the short-distance wireless communication unit 614 is not particularly limited, but for example, a wireless LAN method such as Wi-Fi (registered trademark), Bluetooth (registered trademark) communication method, NFC (Near Field Communication) method , Infrared communication system and the like.
  • the mobile terminal 60 is configured.
  • 4A and 4B are schematic diagrams showing the appearance of the kiosk terminal 10.
  • FIG. 4A is a perspective view showing the entire kiosk terminal 10 installed on the pole 100
  • FIG. 4B is an enlarged perspective view showing the kiosk terminal 10 installed on the pole 100.
  • FIG. 5 is a block diagram showing an example of the hardware configuration of the kiosk terminal 10.
  • FIG. 6A and FIG. 6B are schematic diagrams showing the configuration when one kiosk terminal 10 is installed.
  • 7A and 7B are schematic diagrams showing the configuration when two kiosk terminals 10 are installed.
  • 8A and 8B are schematic diagrams showing a configuration when three kiosk terminals 10 are installed.
  • FIG. 9 is a schematic diagram illustrating prevention of peeping in the kiosk terminal 10.
  • FIG. 10 is a schematic diagram showing a configuration when the kiosk terminal 10 is installed at different heights.
  • the kiosk terminal 10 receives the customs declaration by the declaration code displayed on the mobile terminal 60 of the user U, and processes the user U to the computerized gate 20 or the manned booth M according to the contents of the customs declaration. It is a device. As shown in FIGS. 4A and 4B, the kiosk terminal 10 is attached and installed on a side portion of a pole 100 which is a support body installed with its longitudinal direction being vertical. Note that one or a plurality of kiosk terminals 10 can be installed on one pole 100, as will be described later.
  • the kiosk terminal 10 has a CPU 102, a RAM 104, a storage device 106, an input device 108, and a display 110, as shown in FIG. Further, the kiosk terminal 10 includes a passport reading device 112, a code reading device 114, a camera 116, a depth camera 118, a communication unit 120, and a status lamp 122.
  • the CPU 102, RAM 104, storage device 106, input device 108, display 110, passport reading device 112, code reading device 114, camera 116, depth camera 118, communication unit 120, and status lamp 122 are connected to the bus line 124.
  • the kiosk terminal 10 has a housing 126 attached to the pole 100.
  • the housing 126 has a first housing 126a provided with the display 110 and the camera 116, and a second housing 126b provided with the passport reader 112 and the code reader 114.
  • the housing 126 houses the CPU 102, the RAM 104, the storage device 106, and the communication unit 120.
  • the first housing 126a has a display surface on which the display 110 is provided.
  • the second housing portion 126b has a reading surface on which the passport reading device 112 and the code reading device 114 are provided.
  • the second housing 126b is integrally connected to the lower portion of the first housing 126a so that the display surface and the reading surface form an obtuse angle with each other.
  • the first housing portion 126a and the second housing portion 126b have a display surface of the first housing portion 126a that is diagonally upward and upward, which is opposite to the rear on the pole 100 side.
  • the reading surface of the second housing 126b is substantially horizontal.
  • the kiosk terminal 10 is installed on the pole 100 so that, for example, a user U having a height equal to or greater than a predetermined height looks down on the display 110 and the passport reader 112 and the code reader 114. .
  • the display 110 is provided on the display surface of the first housing 126a so that its screen faces diagonally forward and upward.
  • An input device 108 as a touch panel is incorporated in the display 110.
  • a camera 116 is provided in the center of the portion between the display 110 and the second housing 126b in the lower part of the display surface of the first housing 126a.
  • the camera 116 is provided between the display 110, which is a display unit provided in the first housing 126a, and the passport reading device 112 and the code reading device 114, which are information acquiring units provided in the second housing 126b. It is provided. It should be noted that one camera 116 may be provided, or two cameras may be provided above and below the display 110 in between. In this case, the lower camera 116 is provided, for example, in the center of the portion between the display 110 and the second housing 126b in the lower part of the display surface of the first housing 126a as described above.
  • the upper camera 116 is provided, for example, in the center of the upper portion of the display 110 above the display surface of the first housing 126a.
  • the camera 116 is installed so that its shooting direction is diagonally forward and upward.
  • the user U in front of the kiosk terminal 10 operates the kiosk terminal 10 with the line of sight directed obliquely downward and looking down at the display 110, the passport reading device 112 or the code reading device 114.
  • the camera 116 has an angle of view capable of photographing the face of the user U who operates the kiosk terminal 10 while looking down on the display 110, the passport reading device 112, or the code reading device 114 as described above.
  • a depth camera 118 is provided at the center of the upper part of the display surface of the first casing 126a.
  • the depth camera 118 is provided so as to be able to acquire three-dimensional information of an object captured by the camera 116. Note that the depth cameras 118 may be provided so as to be adjacent to the one or two cameras 116 provided as described above.
  • plate-shaped visors 128 are provided on both sides of the display surface of the first casing 126a along the display 110 so as to project from the display surface.
  • the visor 128 shields the line of sight of the kiosk terminal 10 from the side, diagonally rearward, and diagonally forward to make it difficult for anyone other than the user U who uses the kiosk terminal 10 to peek at the display 110. Function as a department.
  • lights 130 which are lighting units for illuminating the face of the user U who operates the kiosk terminal 10, respectively.
  • the illumination 130 can be configured by, for example, a light source that illuminates the display 110 from below to above, or a light source such as a rod-shaped light source provided along the display 110.
  • the light source is not particularly limited, but an LED (Light Emitting Diode) or the like can be used.
  • the lights 130 provided on both sides of the display 110 can ensure sufficient brightness when the camera 116 captures the face of the user U who operates the kiosk terminal 10.
  • the lighting 130 may be constantly lit during the operation of the kiosk terminal 10.
  • the illumination 130 does not necessarily have to be always on during the operation of the kiosk terminal 10, and may be configured to be on when the user's U face is photographed by the camera 116.
  • the illumination 130 can be configured to light up when the passport reading device 112 reads the passport or the code reading device 114 reads the declaration code, for example.
  • the illumination 130 can be configured to turn on when the user U is detected by a human sensor (not shown) provided in the kiosk terminal 10, for example.
  • the illumination 130 turned on at these predetermined timings can be configured to be turned off, for example, after the camera 116 has finished photographing the face of the user U or after a predetermined time has elapsed.
  • a passport reading device 112 is provided on the left side and a code reading device 114 is provided on the right side of the display 110.
  • a reading device for reading a code such as a QR code is generally provided on the right side of the terminal.
  • the code reading device 114 is provided on the right side of the display 110, the user U smoothly holds the declaration code displayed on the mobile terminal 60 over the code reading device 114. Can be read.
  • the passport reader 112 is provided, for example, with a reading unit for reading the passport facing upward, and has a slot on which the passport is inserted.
  • the user U causes the passport reader 112 to read the passport by opening the identification page, inserting the passport with the page facing downward, and holding the passport over the reading unit of the passport reader 112.
  • You can In the method of inserting the passport into the slot if the passport is inserted into the slot, the user U does not have to keep holding the passport in order to keep the page open, and the passport to the reading unit of the passport reading device 112 can be maintained. The position of can be adjusted accurately. This makes it possible to realize smooth reading of the passport.
  • the configuration of the passport reading device 112 is not limited to the above configuration, and various configurations can be adopted.
  • the passport reading device 112 may be configured such that the user U holds the passport whose identification item page is opened in its reading unit. In this case, the user U can cause the passport reading device 112 to read the passport by opening the identification page and pressing the passport downward to the reading unit of the passport reading device 112 to hold the passport. .
  • the code reading device 114 is also provided, for example, with the reading unit for reading the declaration code facing upward.
  • the user U causes the code reading device 114 to read the declaration code by holding the display 610 of the mobile terminal 60 displaying the declaration code downward and holding it over the reading unit of the code reading device 114. You can
  • the configuration of the code reading device 114 is not limited to the above configuration, and various configurations can be adopted.
  • the code reading device 114 can be configured so that the reading unit reads the declaration code from above.
  • the user U causes the code reading device 114 to read the declaration code by holding up the display 610 of the mobile terminal 60 displaying the declaration code and holding it over the reading unit of the code reading device 114. You can
  • a status lamp 122 is provided above the pole 100 so as to be located above the first housing 126a including the display 110.
  • the status lamp 122 is provided at the tip of an arm 132 attached to the upper portion of the pole 100 so that the status lamp 122 is located above the kiosk terminal 10 indicating the status.
  • the arm 132 projects from the pole 100 to the upper side of the kiosk terminal 10.
  • the arm 132 is also provided with a surveillance camera 134 that monitors the status of the kiosk terminal 10. More specifically, the monitoring camera 134 that functions as a monitoring unit captures and monitors the state of the kiosk terminal 10 and its surroundings, the state of the user U who operates the kiosk terminal 10, and the like.
  • the surveillance camera 134 is connected to the corresponding kiosk terminal 10 or the network NW.
  • the monitoring camera 134 can transmit a video image of the state of the user U to the management server 50 via the network NW via the kiosk terminal 10 or not.
  • the CPU 102 operates by executing a program stored in the storage device 106, and functions as a control unit that controls the overall operation of the kiosk terminal 10. Further, the CPU 102 executes an application program stored in the storage device 106 to execute various processes as the kiosk terminal 10.
  • the RAM 104 provides a memory area necessary for the operation of the CPU 102.
  • the CPU 102 functions as a matching request unit that requests the management server 50 to perform the face matching of the user U who makes a customs declaration using the kiosk terminal 10.
  • the CPU 102 as a matching request unit requests, as face matching of the user U, matching between the captured face image of the user U and the passport face image of the user U.
  • the captured face image is a face image of the user U captured by the camera 116 when using the kiosk terminal 10.
  • the passport face image is a face image acquired from the passport of the user U by the passport reading device 112.
  • the CPU 102 transmits the photographed face image and the passport face image or the facial feature amount extracted from these images to the management server 50 together with the matching request.
  • the CPU 102 reads at least one of the passport and the declaration code to acquire the captured face image of the user U, while reading the other of the passport and the declaration code, the face verification of the user U to the management server 50. You can request.
  • the timing at which the CPU 102 acquires the captured face image and the timing at which the CPU 102 requests face matching are not limited to these, and various variations are possible.
  • the CPU 102 can estimate the mounted object in the photographed face image while photographing with the camera 116.
  • the CPU 102 can detect a face-attached object such as a mask, sunglasses, glasses, and a hat in a captured face image by estimating the attached object.
  • the CPU 102 detects a face attachment that is an attachment attached to the face of the user U
  • the CPU 102 can give a warning to the user U to remove the face attachment that interferes with face matching.
  • the CPU 102 displays on the display 110 a display instructing the user U to remove the face-worn article, or outputs a voice instructing the user U to remove the face-worn article from a speaker or the like. A warning can be given.
  • the CPU 102 also functions as a matching information acquisition unit that receives and acquires matching information, which is information indicating the result of face matching requested from the management server 50, from the management server 50.
  • the verification information is that, as a result of the face verification, the passport face image and the captured face image match and the identity of the user U who makes a customs declaration at the kiosk terminal 10 has been successfully verified, or the identity of the user U does not match. It indicates that the verification failed. Note that when the passport face image and the captured face image match, a case where the matching score indicating the similarity between both face images exceeds a predetermined threshold and both face images exhibit high similarity is included.
  • the CPU 102 functions as a collation unit that collates a passport face image and a captured face image to obtain collation information as the face collation of the user U, instead of functioning as a collation request unit and a collation information acquisition unit. You can also When collating the passport face image and the captured face image, the CPU 102 collates both face images by collating the face feature amount extracted from the passport face image with the face feature amount extracted from the captured face image. it can.
  • the CPU 102 also functions as a user information transmission unit that transmits the user information of the user U to the management server 50.
  • the user information of the user U includes identification item information, face information, and declaration information of the user U associated with each other.
  • the identity information information includes information about the user U such as the name of the user U and the date of birth of the user U. Further, the identification item information includes information regarding the passport of the user U such as the passport number of the passport of the user U and the expiration date of the passport. The identification information is obtained from the passport of the user U by the passport reading device 112.
  • the face information is a photographed face image of the user U and a passport face image. Further, the face information may not be the captured face image and the passport face image themselves, but may be face feature amounts extracted from the captured face image and the passport face image, respectively. In this case, the CPU 102 extracts the facial feature amount from each of the captured face image and the passport face image.
  • the declaration information includes the information to be declared in the customs declaration when the user U enters the country.
  • the declaration information is obtained by the code reading device 114 from the declaration code displayed on the mobile terminal 60 of the user U.
  • the declaration information is declared, for example, in the name of the user U, the current address or place of stay in the country of entry, occupation, date of birth, passport number, boarding flight name, place of departure, date of entry, and customs declaration. It contains information necessary for customs declarations such as matters to be done.
  • the user information of the user U transmitted to the management server 50 is registered in the user information database (DB, Database) 506a in the management server 50 as described later.
  • the photographed face image or passport face image included in the user information is registered in the user information DB 506a as a registered face image that is registered biometric information registered in advance.
  • the CPU 102 also functions as a determination request unit that requests the management server 50 to determine the declaration content included in the declaration information of the user U who makes a customs declaration using the kiosk terminal 10.
  • the CPU 102 as a determination requesting unit requests the management server 50 to determine the declaration content included in the declaration information transmitted.
  • the CPU 102 receives from the management server 50 the determination information, which is information indicating the determination result of the declaration content included in the declaration information.
  • the CPU 102 also functions as a determination information acquisition unit that receives and acquires determination information, which is information indicating the determination result of the declaration content requested from the management server 50, from the management server 50.
  • the determination information indicates, as a result of the determination, whether the user U is taxable or not and whether the user U is at risk.
  • the user U is subject to taxation, for example, when the declaration content states that the user U has an item that exceeds the tax exemption range, a declaration that the user U has a product cargo or a product sample Is in the declaration contents.
  • the CPU 102 may function as a determination unit that determines the declaration content included in the declaration information of the user U, instead of functioning as the determination request unit and the determination information acquisition unit. In this case, the CPU 102 can determine the declaration content included in the declaration information, similarly to the management server 50.
  • the CPU 102 also functions as a determination unit that determines whether or not the user U can use the computerization gate 20 based on the collation information and the determination information received from the management server 50.
  • the CPU 102 as the determination unit determines that the user U has the electronic gate 20. Is determined to be available.
  • the CPU 102 causes the user U to digitize. Is determined to be unavailable.
  • the CPU 102 can send gate availability information, which is information indicating the determination result of availability of the computerized gate 20, to the management server 50.
  • the gate availability information transmitted to the management server 50 is registered in the user information DB 506a in the management server 50 in association with the user information as described later. If the passport face image of the user U matches the captured face image, the user U is not taxable, and the user U is not at risk, the gate availability information indicates that the user U has an electronic gate. 20 is available.
  • the CPU 102 also functions as a display control unit that causes the display 110 to display a screen such as guidance and notification for the user U who makes a customs declaration on the kiosk terminal 10.
  • the CPU 102 as a display control unit causes the display 110 to display a guide screen for guiding how to use the kiosk terminal 10.
  • the CPU 102 causes the display 110 to display a declaration content confirmation screen for the user U to confirm the declaration content included in the declaration information acquired from the mobile terminal 60 of the user U, and to correct it if necessary.
  • the CPU 102 functions as a processing unit that performs processing for the user U who has made a customs declaration at the kiosk terminal 10 in accordance with the determination result of availability of the computerized gate 20. More specifically, the CPU 102 causes the display 110 to display a guide screen for guiding the user U to the computerization gate 20 or the manned booth M according to the determination result of availability of the computerization gate 20, and the user is displayed. Guide U to the computerized gate 20 or manned booth M.
  • the CPU 102 functions as a language setting unit that sets the language used by the kiosk terminal 10 based on the language information read from the declaration code displayed on the mobile terminal 60 of the user U who makes a customs declaration at the kiosk terminal 10. To do. Further, when the user U inputs a change input for changing the language used by the kiosk terminal 10 to another language via the input device 108, the CPU 102 changes the language used according to the change input.
  • the language used by the kiosk terminal 10 is, for example, a language for displaying various information on the display 110 and receiving an input from the input device 108.
  • the kiosk terminal 10 is compatible with multiple languages such as Japanese, English, Chinese, and Korean, as in the customs declaration application of the mobile terminal 60. As a result, the kiosk terminal 10 can display and input in the set language used from a plurality of languages.
  • the storage device 106 is composed of a storage medium such as a non-volatile memory or a hard disk drive, and functions as a storage unit.
  • the storage device 106 stores a program executed by the CPU 102, data referred to by the CPU 102 when the program is executed, and the like.
  • the input device 108 is, for example, a touch panel incorporated in the display 110.
  • the input device 108 functions as an input unit that receives an input of an instruction from the user U.
  • the user U can input various kinds of information and an instruction to execute processing to the kiosk terminal 10 via the input device 108.
  • the display 110 functions as a display unit that displays various screens to the user U who uses the kiosk terminal 10. For example, the display 110 displays a guidance screen that guides how to use the kiosk terminal 10, a declaration content confirmation screen for the user U, a guidance screen for the user U, and the like. Further, the display 110 can also display collation information indicating the result of collation between the photographed face image and the passport face image, and determination information indicating the determination result of the declaration content.
  • the display 110 can be installed vertically, for example. With the vertically long display 110, the display of the same amount of information as that of the horizontally long display of the same size can be realized, and the kiosk terminal 10 can be installed in a small space. Further, the vertically long display 110 can prevent the user U standing in front of the display 110 from peeping at the display 110 from behind.
  • the passport reading device 112 functions as a reading unit that reads the passport of the user U and acquires the information recorded in the passport.
  • the passport reading device 112 includes, for example, an image scanner, a non-contact IC (Integrated Circuit) reader, an OCR (Optical Character Reader) device, and the like.
  • the passport reader 112 reads a passport, which is a medium held over the reading unit, and acquires information from the passport.
  • the passport reading device 112 reads and acquires the identity information of the user U displayed on the passport face by the OCR device. Further, for example, the passport reading device 112 reads and acquires the passport face image of the user U displayed on the passport face with an image scanner. Further, in the case of an IC passport, the passport reading device 112 reads and acquires the identity information of the user U, the passport face image, etc. recorded on the IC chip of the IC passport by the non-contact IC reader.
  • the biometric information of the user U recorded and included in the passport is not limited to the face image, and may be other biometric information such as an iris image.
  • the passport reader 112 can acquire the biometric information of the user U included in the passport.
  • the code reading device 114 functions as a reading unit that reads the filing code displayed on the mobile terminal 60 of the user U and acquires the filing information and language information included in the filing code.
  • the code reading device 114 is, for example, a code reader such as a QR code reader or a bar code reader according to the type of the filing code to be read.
  • the code reading device 114 reads the filing code displayed on the portable terminal 60, which is a code display medium held over the reading unit, and acquires information from the filing code.
  • the camera 116 functions as a biometric information acquisition unit that acquires a face image of the user U as biometric information of the user U who makes a customs declaration using the kiosk terminal 10.
  • the camera 116 is, for example, a photographing device such as a digital camera that photographs the face of the user U in front of the kiosk terminal 10 as a moving image or a still image, and the photographing that is the face image of the user U from the photographed moving image or still image. Get a face image. Under the control of the CPU 102, the camera 116 captures a face image of the user U that causes the passport reading device 112 to read the passport or the code reading device 114 to read the declaration code in front of the kiosk terminal 10, as described later. To obtain the captured face image.
  • the camera 116 when the camera 116 reads at least one of the passport and the declaration code, the camera 116 can capture the face image of the user U and acquire the captured face image.
  • a biometric information acquisition unit that acquires biometric information of the same type as the biometric information acquired from the passport by the passport reading device 112 from the user U can be provided.
  • the CPU 102 can set the number of pixels between eyes in a captured face image captured by the camera 116 within a predetermined range. In this case, for example, the CPU 102 can exclude, from the face images captured by the camera 116, the face images having the number of pixels between eyes less than the predetermined number of pixels from the targets of the captured face images. Accordingly, the camera 116 can reliably shoot the user U who operates the kiosk terminal 10 without shooting a distant person behind the user U who operates the kiosk terminal 10.
  • the CPU 102 can mask a predetermined range on both sides of the image capturing range of the camera 116.
  • the camera 116 can reliably capture the image of the user U who operates the kiosk terminal 10 while preventing the reflection of people around the user U who operates the kiosk terminal 10.
  • the kiosk terminal 10 can be configured so that the captured face image captured by the camera 116 is not displayed on the display 110 or the like. In this case, the user U does not recognize that his / her face has been photographed at the kiosk terminal 10. For this reason, the user U can comfortably use the kiosk terminal 10 without feeling resistance to shooting and without being psychologically pressed by shooting.
  • the depth camera 118 acquires three-dimensional information of an object imaged by the camera 116. Based on the three-dimensional information obtained by the depth camera 118, the CPU 102 determines whether the face image of the user U captured by the camera 116 is obtained from the image of a real human being, or a two-dimensional image such as a photograph is taken. It is possible to determine whether it has been obtained from. As a result, it is possible to prevent improper acts such as impersonation of others.
  • the communication unit 120 is connected to the network NW and transmits / receives data via the network NW.
  • the communication unit 120 communicates with the management server 50 and the like under the control of the CPU 102.
  • the status lamp 122 functions as a status display section that shows the status of the kiosk terminal 10. More specifically, the status lamp 122 indicates the status of the kiosk terminal 10, for example, the progress status of the customs declaration of the user U at the kiosk terminal 10, the presence / absence of abnormality of the kiosk terminal 10, and the availability of the kiosk terminal 10. It is possible to show such a situation with different lamp colors.
  • the status lamp 122 can be turned on in a lamp color according to the situation of the kiosk terminal 10 under the control of the CPU 102.
  • a monitoring camera for detecting suspicious behavior may be provided between the status lamp 122 and the pole 100. The surveillance camera can be configured to start photographing when the passport reading device 112 reads the passport or the code reading device 114 reads the declaration code, for example.
  • the status lamp 122 can be turned on with different lamp colors such as green, yellow, red, green blinking, yellow blinking, or red blinking depending on the situation.
  • each lamp color indicates the following situation. That is, the green color indicates a case where face matching is consistent and there is no problem with customs information. Yellow indicates that face matching has failed. Red indicates when there is a problem with customs information. Blinking green indicates that the customs declaration status is slow. Blinking yellow indicates a problem with the system including the kiosk terminal 10. Blinking red indicates that the person is determined to be a blacklist person by illegal passport or face verification. Note that these are examples, and the combination of the lamp color and the situation may be another combination.
  • the status lamp 122 can be turned on differently based on at least one of the information read by the passport reader 112 or the code reader 114, the result of face matching, and the status of the procedure.
  • the above-described illumination 130 provided on the side portion of the display 110 may be turned on in the same color as the status lamp 122.
  • the lighting 130 can also be turned on differently based on at least one of the information read by the passport reader 112 or the code reader 114, the result of face matching, and the status of the procedure.
  • the illumination 130 can be provided on the upper surface or the upper end of the visor 128, for example.
  • a person concerned such as an employee who knows the relationship between the lamp color and the situation such as an error can change the kiosk terminal 10 according to the lighting state of the status lamp 122 and the illumination 130. You can grasp the situation. Thereby, the related person can appropriately respond, for example, to immediately respond when the display 110 or the illumination 130 blinks in red.
  • the kiosk terminal 10 is configured.
  • FIG. 6B is a perspective view showing the configuration when one kiosk terminal 10 is installed, and FIG. 6A is a top view of FIG. 6B.
  • FIG. 7B is a perspective view showing the configuration when two kiosk terminals 10 are installed, and FIG. 7A is a top view of FIG. 7B.
  • FIG. 8B is a perspective view showing the configuration when three kiosk terminals 10 are installed, and FIG. 8A is a top view of FIG. 8B.
  • one kiosk terminal 10 faces the side of the pole 100 in a predetermined direction as shown in FIGS. 6A and 6B. is set up.
  • a kiosk terminal group which is an information processing apparatus group, can be configured.
  • the two kiosk terminals 10 are radially arranged around the pole 100 at predetermined angular intervals. It is installed on the side of the pole 100.
  • the angular interval between two adjacent kiosk terminals 10 is, for example, 120 °.
  • a kiosk terminal group including the two kiosk terminals 10 is configured.
  • the three kiosk terminals 10 are radially arranged around the pole 100 at predetermined angular intervals. It is installed on the side of the pole 100.
  • the angular intervals between two adjacent kiosk terminals 10 among the three kiosk terminals 10 are equal angles of 120 °, for example.
  • a kiosk terminal group including the three kiosk terminals 10 is configured.
  • each user who uses the adjacent kiosk terminals 10 can install the poles 100 radially so that the kiosk terminals 10 are adjacent to each other, rather than being installed side by side in a straight line.
  • a larger space between U can be secured. This can make it difficult for the user U in front of the adjacent kiosk terminal 10 to peek at the display 110 of the kiosk terminal 10.
  • the angular interval between two adjacent kiosk terminals 10 is not limited to the above 120 ° and can be set as appropriate.
  • the number of kiosk terminals 10 installed on one pole 100 is not limited to the above number, and may be a plurality of four or more terminals.
  • the kiosk terminal 10 is provided with visors 128 on both sides of the display 110 along the display 110.
  • the visor 128 makes it difficult to peep the display 110.
  • FIG. 9 shows blocking of the line of sight by the visor 128 in the configuration in which three kiosk terminals 10 are installed as shown in FIGS. 8A and 8B.
  • the line of sight of the user U in front of the kiosk terminal 10 toward the adjacent kiosk terminal 10 is shielded by the visor 128 provided in the adjacent kiosk terminal 10, as indicated by the dashed arrow in the figure. Will be done.
  • the visor 1228 it is difficult to peep the display 110.
  • multiple kiosk terminals 10 can be installed at different heights. For example, as shown in FIG. 10, in a configuration in which three kiosk terminals 10 are installed, one kiosk terminal 10 can be installed at a lower position than the other two kiosk terminals 10. In this way, by installing a plurality of kiosk terminals 10 at different heights, a user U having a wide height can use the kiosk terminals 10. The kiosk terminal 10 installed at a position lower than the other kiosk terminals 10 can be used by a user U who uses a wheelchair while using the wheelchair, for example.
  • the means for attaching and fixing the kiosk terminal 10 to the pole 100 is not particularly limited, and various means can be used.
  • the kiosk terminal 10 can be fixedly installed with a screw at any of a plurality of mounting positions of different heights provided on the pole 100.
  • the kiosk terminal 10 may be installed on the pole 100 so that the user U himself who uses the kiosk terminal 10 or a customs officer who manages the kiosk terminal 10 can slide up and down. In this case, the user U or the like can adjust the height of the kiosk terminal 10 by sliding the kiosk terminal 10 installed on the pole 100 up and down.
  • cords or cables such as a power cord and a communication cable (not shown) connected to the kiosk terminal 10 are stored and hidden in the pole 100. Moreover, the excess portion of the cords or cables can be accommodated in the housing 126 of the kiosk terminal 10.
  • the kiosk terminal 10 can be installed on various supports such as a support base and a counter in addition to the pole 100 described above.
  • FIG. 11 is a schematic view showing the appearance of the entrance gate terminal 30 and the exit gate terminal 40 that form the computerized gate 20.
  • FIG. 12 is a block diagram showing an example of the hardware configuration of the entrance gate terminal 30.
  • FIG. 13 is a block diagram showing an example of the hardware configuration of the exit gate terminal 40.
  • the computerization gate 20 is a gate device that permits or disallows a user U guided by the kiosk terminal 10 to pass through the user U based on the result of face matching in the computerization gate 20.
  • a user U who is permitted to pass through the computerized gate 20 can enter the customs inspection area C.
  • the user U who is not permitted to pass through the computerized gate 20 will be individually treated, such as being guided to the manned booth M by the customs officer and undergoing a face-to-face customs inspection by the customs officer.
  • the entrance gate terminal 30 and the exit gate terminal 40 that form the computerized gate 20 are passed by the user U guided to the computerized gate 20 because the computerized gate 20 can be used. They are installed at the entrance and exit of the gate passage P to be formed.
  • the gate passage P is restricted by the partition plates, walls, fences, inspection tables, etc. installed on both sides along the gate passage P so that the exit of the user U who has entered the gate passage P from other than the exit gate terminal 40 is restricted. ing.
  • the entrance gate terminal 30 is a gate device installed at the entrance of the gate passage P through which the user U guided by the computerization gate 20 passes.
  • the entrance gate terminal 30 includes a CPU 302, a RAM 304, a storage device 306, an entrance gate door 308, a passage detection sensor 310, a communication unit 312, and a guide display 314.
  • the CPU 302, the RAM 304, the storage device 306, the entrance gate door 308, the passage detection sensor 310, the communication unit 312, and the guide display 314 are connected to the bus line 316.
  • the entrance gate terminal 30 has a pair of housings 318 installed so as to face each other across the entrance of the gate passage P.
  • An entrance gate door 308 is provided in the pair of housings 318 so that the space between the pair of housings 318 can be closed.
  • a plurality of passage detection sensors 310 are provided in the pair of housings 318 so as to be aligned in the direction of entering the gate passage P.
  • the pair of casings 318 is provided with a guide indicator 314 directed toward the front of the entrance gate terminal 30, which is outside the gate passage P.
  • the CPU 302, the RAM 304, the storage device 306, and the communication unit 312 may be housed in the housing 318, or may be housed in a housing separate from the housing 318.
  • the CPU 302 operates by executing a program stored in the storage device 306, and functions as a control unit that controls the overall operation of the entrance gate terminal 30. Further, the CPU 302 executes the application program stored in the storage device 306 to execute various processes as the entrance gate terminal 30.
  • the RAM 304 provides a memory area necessary for the operation of the CPU 302.
  • the CPU 302 determines whether or not the user U has passed through the entrance gate terminal 30 and entered the gate passage P based on the output signals of the plurality of passage detection sensors 310 and their output order. Function as a department.
  • the CPU 302 also functions as a door control unit that controls the opening and closing operations of the entrance gate door 308.
  • the CPU 302 keeps the entrance gate door 308 open. If the CPU 302 determines that the user U has passed through the entrance gate terminal 30 and entered the gate passage P based on the output signal of the passage detection sensor 310, the CPU 302 closes the entrance gate door 308. Further, the CPU 302 keeps the entrance gate door 308 closed until it is determined that the user U who has entered the gate passage P has passed through the exit gate terminal 40 and exited from the gate passage P. Further, the CPU 302 determines that the user U has left the gate passage P based on the exit passage information transmitted from the exit gate terminal 40. When the CPU 302 determines that the user U has exited from the gate passage P, the CPU 302 opens the entrance gate door 308.
  • the CPU 302 determines that the user U has passed through the entrance gate terminal 30 and entered the gate passage P as described above, the user U has passed through the entrance gate terminal 30 and entered the gate passage P. Is transmitted to the exit gate terminal 40.
  • the CPU 302 also functions as a display control unit that controls the display of the guide display 314 according to the open / close state of the entrance gate door 308.
  • the CPU 302 causes the guidance display 314 to display a display indicating that entry into the gate passage P is permitted.
  • the CPU 302 causes the guide display 314 to display a display indicating that entry into the gate passage P is prohibited.
  • the storage device 306 includes a storage medium such as a non-volatile memory and a hard disk drive, and functions as a storage unit.
  • the storage device 306 stores a program executed by the CPU 302, data referred to by the CPU 302 when the program is executed, and the like.
  • the entrance gate door 308 is an opening / closing door that performs a door opening operation and a door closing operation under the control of the CPU 302, and makes a transition between an open door state that allows passage of the user U and a closed door state that blocks passage of the user U. .
  • the opening / closing method of the entrance gate door 308 is not particularly limited, but is, for example, a flapper type, a sliding type, a rotating type, or the like.
  • the passage detection sensor 310 When the passage detection sensor 310 detects the passage of the user U, it outputs an output signal indicating the passage of the user U.
  • the CPU 302 causes the user U to pass through the entrance gate terminal 30 based on the output signals of the plurality of passage detection sensors 310 provided in the pair of casings 318 so as to be arranged in the direction of entering the gate passage P and the output order thereof. It is possible to determine whether or not the vehicle has entered the gate passage P.
  • the passage detection sensor 310 is not particularly limited, but is, for example, a transmissive photoelectric sensor or a reflective photoelectric sensor.
  • the transmissive photoelectric sensor has an irradiation unit that irradiates light such as infrared rays, and a light receiving unit that receives the light emitted by the irradiation unit. Based on a change in the light received by the light receiving unit, passage of an object is prevented. The output signal shown is output.
  • the communication unit 312 is connected to the network NW and transmits / receives data via the network NW.
  • the communication unit 312 communicates with the exit gate terminal 40 and the like under the control of the CPU 302.
  • the communication unit 312 may be connected to the exit gate terminal 40 so as to be able to communicate with the exit gate terminal 40 without going through the network NW.
  • the guidance display device 314 displays a display indicating whether or not the entrance to the gate passage P is permitted under the control of the CPU 302.
  • the guide display 314 displays a display indicating that entry into the gate passage P is permitted. Further, when the entrance gate door 308 is closed, the guide display 314 displays a display indicating that entry into the gate passage P is prohibited.
  • the guide display 314 can display a display indicating whether or not to enter the gate passage P by color display, symbol display, character display, or the like.
  • the entrance gate terminal 30 is configured.
  • the exit gate terminal 40 is a gate device installed at the exit of the gate passage P, which is a passage through which the user U guided by the computerized gate 20 passes. Further, the exit gate terminal 40 has a CPU 402, a RAM 404, a storage device 406, and a display 408, as shown in FIG. Furthermore, the exit gate terminal 40 includes a first camera 410, a second camera 412, an exit gate door 414, a passage detection sensor 416, a communication unit 418, and a guide indicator 420.
  • the CPU 402, the RAM 404, the storage device 406, the display 408, the first camera 410, the second camera 412, the exit gate door 414, the passage detection sensor 416, the communication unit 418, and the guide display 420 are connected to the bus line 422.
  • the exit gate terminal 40 has a pair of housings 424 installed so as to face each other across the exit of the gate passage P.
  • An exit gate door 414 is provided in the pair of housings 424 so that the space between the pair of housings 424 can be closed.
  • the pair of housings 424 are provided with a plurality of passage detection sensors 416 arranged side by side in the direction of exiting from the gate passage P.
  • the pair of housings 424 is provided with a guide display 420 directed toward the front of the exit gate terminal 40, which is inside the gate passage P.
  • the CPU 402, the RAM 404, the storage device 406, and the communication unit 418 may be housed in the housing 424, or may be housed in a housing separate from the housing 424.
  • a display 408 is installed on one of the pair of housings 424.
  • the display 408 is installed so that its screen faces the center of the gate passage P in front of the exit gate terminal 40, for example.
  • a first camera 410 and a second camera 412 are provided on the lower and upper portions of the display 408 on the screen side, respectively.
  • the installation position of the display 408 is not particularly limited as long as the user U in the gate passage P can see the display 408.
  • the first camera 410 is a long-distance camera that has at least a photographing range within the gate passage P between the entrance gate terminal 30 and the exit gate terminal 40, and can photograph a far distance than the second camera 412.
  • the second camera 412 is a short-distance camera in which the area in front of the exit gate terminal 40 is at least the image-capable range.
  • the positions where the first camera 410 and the second camera 412 are provided are not particularly limited as long as they are positions where the respective photographable ranges can be realized.
  • the first camera 410 photographs the user U moving through the gate passage P from the entrance gate terminal 30 toward the exit gate terminal 40, and acquires the face image as the first target face image.
  • the second camera 412 moves through the gate passage P to reach the exit gate terminal 40, shoots the user U in front of the exit gate door 414, and uses the face image as the second target face image. get.
  • the user U is photographed by the first camera 410 without making the user U aware.
  • the image capturing of the user U by the second camera 412 is performed on the user U who has received the image capturing notification by, for example, the display on the display 408.
  • the exit gate terminal 40 can perform non-active authentication in which the person is confirmed by face matching using the first target face image captured without the user U being aware of it by the first camera 410. Further, the exit gate terminal 40 performs positive authentication in which, when the non-positive authentication fails, the second camera 412 verifies the person by face matching using the second target face image captured by the user U. It can be carried out.
  • the CPU 402 operates by executing a program stored in the storage device 406, and functions as a control unit that controls the overall operation of the exit gate terminal 40. Further, the CPU 402 executes an application program stored in the storage device 406 to execute various processes as the exit gate terminal 40.
  • the RAM 404 provides a memory area necessary for the operation of the CPU 402.
  • the CPU 402 functions as a matching request unit that requests the management server 50 to perform face matching of the user U who has entered the gate passage P through the entrance gate terminal 30.
  • the CPU 402 as the matching request unit stores the first target face image, which is the face image of the user U captured by the first camera 410, and the plurality of registered face images registered in the user information DB 506a of the management server 50.
  • the management server 50 is requested to perform a 1: N collation. Therefore, the CPU 402 transmits the face feature amount extracted from the first target face image or the first target face image itself to the management server 50 together with the matching request.
  • the CPU 402 can function as a quality determination unit that calculates a quality value indicating the quality of the first target face image and determines whether or not the calculated quality value is equal to or higher than a predetermined threshold value.
  • the quality value can be set to a larger value as the quality of the first target face image is higher.
  • the CPU 402 as the matching requesting unit can request the management server 50 to match the high-quality first target face image having a quality value equal to or higher than a predetermined threshold value with the registered face image. Note that the quality value can be set to a smaller value as the quality of the first target face image is higher. In this case, the CPU 402 as the quality determination unit can determine whether the calculated quality value is less than or equal to a predetermined threshold value.
  • the CPU 402 as the matching request unit can request the management server 50 to match the high-quality first target face image having a quality value equal to or lower than a predetermined threshold value with the registered face image. In this way, the CPU 402 can determine the quality of the first target face image and request the high-quality first target face image of a certain quality or higher to collate with the registered face image.
  • the first target face image is captured by the first camera 410 without making the user U aware of it. Therefore, when the first target face image having a quality value higher than a certain value cannot be obtained, or the first target face is attached by the face attachment such as a mask, sunglasses, spectacles, or a hat attached to the face of the user U. Face matching using images may not match.
  • the CPU 402 as the collation request unit generates the second target face image that is the face image of the user U captured by the second camera 412 and the plurality of registered face images registered in the user information DB 506a.
  • the management server 50 is requested to perform a 1: N collation. Therefore, the CPU 402 transmits the face feature amount extracted from the second target face image or the second target face image itself to the management server 50 together with the matching request.
  • the CPU 402 also functions as a warning unit that warns the user U according to the state of the face of the user U during the image capturing by the first camera 410. More specifically, the CPU 402 can issue a warning as follows, for example.
  • the CPU 402 can detect the line of sight in the first target face image during the shooting by the first camera 410.
  • the CPU 402 can issue a warning according to the state of the sight line of the user U detected from the first target face image by the sight line detection. That is, when the CPU 402 determines that the user U is facing down or sideways as a result of the line-of-sight detection, the CPU 402 may give a warning to the user U so that the user U faces front, which is the exit gate terminal 40 side. it can.
  • the CPU 402 displays, for example, a display on the display 408 instructing the user U to change the direction of the face so as to face forward, or instructs the user U to change the direction of the face so as to face forward from the speaker or the like.
  • a warning can be issued by issuing a voice. In this case, the display of the warning on the display 408 can be performed before face matching is performed in order to prevent unnecessary face matching failure.
  • the CPU 402 can estimate the mounted object in the first target face image captured while the first camera 410 is capturing the image.
  • the CPU 402 can detect a face attachment such as a mask, sunglasses, glasses, and a hat in the first target face image by estimating the attachment.
  • the CPU 402 can issue a warning to the user U to remove the face-attached article that interferes with face matching.
  • the CPU 402 displays a display instructing the user U to remove the face-mounted article on the display 408, or outputs a voice instructing the user U to remove the face-mounted article from a speaker or the like.
  • a warning can be given.
  • the display of the warning on the display 408 can be performed before face matching is performed in order to prevent unnecessary face matching failure.
  • the CPU 402 also functions as a matching information acquisition unit that acquires from the management server 50 matching information indicating the result of face matching of the first target face image or the second face image requested to the management server 50.
  • the matching information is that as a result of the matching, a registered face image that matches the first target face image or the second target face image has been found and the identity of the user U has been successfully verified, or no matching registered face image has been found. Indicates that the identity verification of the user U has failed.
  • the matching score indicating the similarity between the two face images exceeds a predetermined threshold and the two face images have high similarity. Includes cases that indicate degrees.
  • the CPU 402 performs a 1: N matching of the first target face image or the second target face image with the registered face image of the user information DB 506a, instead of functioning as a matching request unit and a matching information acquisition unit. It can also be configured to function as a matching unit that outputs matching information. In this case, the CPU 402 collates the face images with reference to the user information DB 506a of the management server 50 or with reference to the user information DB stored in the storage device 406 in synchronization with the user information DB 506a. You can
  • the CPU 402 functions as an information acquisition unit that acquires the gate availability information associated with the user information of the user U from the management server 50 when the identity of the user U is successfully confirmed by face matching.
  • the gate availability information is information indicating the determination result of availability of the computerized gate 20 for the user U.
  • the CPU 402 based on the collation result of the face collation of the first target face image or the second target face image and the determination result of availability of the computerization gate 20, regarding the user U in the gate passage P, the computerization gate 20. Functions as a determination unit that determines whether or not the vehicle can pass.
  • the CPU 402 as the determination unit succeeds in confirming the identity of the user U by matching the face collation of the first target face image or the second target face image, and the user U can use the computerization gate 20. In some cases, it is determined that the electronic gate 20 can pass through.
  • the case where the personal identification is successful is the case where the first target face image or the second target face image and the registered face image which is the captured face image or the passport face image acquired by the kiosk terminal 10 match.
  • the case where the user U can use the computerized gate 20 is associated with the user information including the matching registered face image, and indicates whether the user U can use the computerized gate 20 This is the case when information exists.
  • the CPU 402 also functions as a door control unit that controls the opening operation and the closing operation of the exit gate door 414.
  • the CPU 402 determines that the user U can pass through the computerized gate 20
  • the CPU 402 opens the exit gate door 414 whose normal state is the closed state. If the CPU 402 determines that the user U has passed through the exit gate terminal 40 and exited from the gate passage P based on the output signal of the passage detection sensor 416, the CPU 402 closes the exit gate door 414.
  • the CPU 402 functions as a determination unit that determines whether or not the user U has passed through the exit gate terminal 40 and exited from the gate passage P based on the output signals of the plurality of passage detection sensors 416 and the output order thereof. .
  • the CPU 402 determines that the user U has passed through the exit gate terminal 40 and exited from the gate passage P as described above, the user U has passed through the exit gate terminal 40 and exited from the gate passage P. Is transmitted to the entrance gate terminal 30.
  • the CPU 402 also functions as a display control unit that controls the display on the display 408.
  • the CPU 402 can display various notifications for the user U in the gate passage P on the display 408.
  • the CPU 402 causes the display 408 to display a warning to the user U in the gate passage P to instruct the user U to remove a face-worn object such as a mask, sunglasses, glasses, and a hat that obstructs face matching.
  • the CPU 402 can cause the display 408 to display a notification to the user U who stays in front of the exit gate door 414 that the face image is captured by the second camera 412, if necessary.
  • the CPU 402 causes the display 408 to cause the user U to stay in front of the exit gate door 414 when the first target face image and the registered face image do not match or cannot be matched. You can In this case, the CPU 402 can further cause the display on the display 408 so that the user U stays in front of the exit gate door 414 and looks at the display 408. Thereby, the user U can be guided so that the second camera 412 can capture a face image of the user U.
  • the CPU 402 also functions as a display control unit that controls the display of the guidance display device 420 according to the open / close state of the exit gate door 414.
  • the CPU 402 causes the guidance display device 420 to display a display indicating that the exit from the gate passage P is permitted.
  • the CPU 402 causes the guidance display device 420 to display a display indicating that the exit from the gate passage P is prohibited.
  • the storage device 406 is composed of a storage medium such as a non-volatile memory or a hard disk drive, and functions as a storage unit.
  • the storage device 406 stores a program executed by the CPU 402, data referred to by the CPU 402 when the program is executed, and the like.
  • the display 408 functions as a display unit that displays various screens to the user U in the gate passage P. For example, the display 408 displays a warning instructing to remove a face-worn object such as a mask, sunglasses, eyeglasses, a hat that interferes with face matching. Further, for example, the display 408 displays a notification that the second camera 412 captures a face, if necessary. Specifically, the display 408 stops in front of the display 408 so as to allow positive authentication when the first target face image captured by the first camera 410 cannot be collated, and the direction of the second camera 412. Display a display instructing the user to pay attention to.
  • a face-worn object such as a mask, sunglasses, eyeglasses, a hat that interferes with face matching.
  • the display 408 displays a notification that the second camera 412 captures a face, if necessary.
  • the display 408 stops in front of the display 408 so as to allow positive authentication when the first target face image captured by the first camera 410 cannot be collated
  • the display 408 can display a message such as "Please stop at the front of the display 408 and look at the second camera 412" because face recognition is performed. Further, the display 408 displays the verification result of the non-active authentication by the first target face image which is the moving user's U face image, and the active authentication by the second target face image which is the stationary user U's face image. The collation result of can be displayed.
  • the first camera 410 photographs the user U entering the gate passage P and moving through the gate passage P toward the exit gate terminal 40, and is a facial image of the user U as biometric information of the user U. 1 Functions as a biometric information acquisition unit that acquires a target face image.
  • the first target face image captured by the first camera 410 is the face image of the moving user U.
  • the first camera 410 is, for example, a photographing device such as a digital camera that photographs a user U moving in the gate passage P as a moving image or a still image, and the first target face image of the user U from the captured moving image or the still image. To get.
  • the first camera 410 has at least a photographable range in the gate passage P between the entrance gate terminal 30 and the exit gate terminal 40, and is a long distance that is farther than the second camera 412. It is a camera.
  • the first camera 410 shoots the user U without making the user U aware of the shooting.
  • a biometric information acquisition unit that acquires biometric information of the same type as the registered biometric information registered in the user information DB 506a of the management server 50 from the user U can be provided.
  • the second camera 412 takes a picture of the user U who has moved to the gate passage P, reached the exit gate door 414 of the exit gate terminal 40, and stopped, as necessary, and uses it as biometric information of the user U. It functions as a biometric information acquisition unit that acquires a second target face image that is a U face image.
  • the second target face image captured by the second camera 412 is the face image of the user U who is stationary.
  • the second camera 412 is, for example, a photographing device such as a digital camera that photographs the user U in front of the exit gate door 414 as a moving image or a still image, and the second target face of the user U from the captured moving image or the still image. Get an image.
  • the second camera 412 is, as described above, a short-range camera in which the area in front of the exit gate terminal 40 is at least the image-capable range.
  • the second camera 412 captures the image of the user U who has received the notification of the capture through the display on the display 408, voice guidance, or the like.
  • the second camera 412 acquires the second target face image to be compared with the registered face image from the user U who stays in front of the exit gate door 414 in a predetermined case.
  • the predetermined case here is, as described later, when the first target face image and the registered face image do not match or when the matching cannot be performed.
  • the predetermined case means that when the direction of the face of the user U moving toward the exit gate door 414 in the closed state does not face the exit gate door 414, the wearing object is attached to the face of the user U. This is the case when it is attached.
  • a biometric information acquisition unit that acquires biometric information of the same type as the registered biometric information registered in the user information DB 506a of the management server 50 from the user U can be provided.
  • the exit gate door 414 is an opening / closing door that performs a door opening operation and a door closing operation under the control of the CPU 402, and transitions between a closed door state that blocks passage of the user U and an open door state that allows passage of the user U. .
  • the opening / closing method of the exit gate door 414 is not particularly limited, but is, for example, a flapper type, a sliding type, a rotating type, or the like.
  • the passage detection sensor 416 When the passage detection sensor 416 detects the passage of the user U, it outputs an output signal indicating the passage of the user U.
  • the CPU 402 causes the user U to pass through the exit gate terminal 40 based on the output signals of the plurality of passage detection sensors 416 provided in the pair of casings 424 so as to be arranged in the direction of exiting the gate passage P and the output order thereof. It is possible to determine whether or not the passenger exited from the gate passage P.
  • the passage detection sensor 416 is not particularly limited, but is, for example, a transmissive photoelectric sensor or a reflective photoelectric sensor, like the passage detection sensor 310 of the entrance gate terminal 30.
  • the communication unit 418 is connected to the network NW and transmits / receives data via the network NW.
  • the communication unit 418 communicates with the management server 50, the entrance gate terminal 30 and the like under the control of the CPU 402.
  • the communication unit 418 may be communicatively connected to the entrance gate terminal 30 without going through the network NW.
  • the guidance display device 420 displays a display indicating whether or not to leave the gate passage P under the control of the CPU 402.
  • the guidance display device 420 displays a display indicating that the exit from the gate passage P is prohibited.
  • the guidance display device 420 displays a display indicating that the exit from the gate passage P is permitted.
  • the guidance display device 420 can display a display indicating whether or not to leave the gate passage P by color display, symbol display, character display, or the like.
  • the exit gate terminal 40 is configured.
  • FIG. 14 is a block diagram showing an example of the hardware configuration of the management server 50.
  • the management server 50 manages the information processing system 1 and performs collation of the first target face image or the second target face image with a plurality of registered face images in the user information DB 506a, determination of declaration contents included in the declaration information, and the like. This is an information processing device.
  • the function of the management server 50 may be realized by a single server or a plurality of servers.
  • the management server 50 has a CPU 502, a RAM 504, a storage device 506, and a communication unit 508.
  • the CPU 502, the RAM 504, the storage device 506, and the communication unit 508 are connected to the bus line 510.
  • the CPU 502 operates by executing a program stored in the storage device 506, and functions as a control unit that controls the overall operation of the management server 50. Further, the CPU 502 executes an application program stored in the storage device 506 to execute various processes as the management server 50.
  • the RAM 504 provides a memory area required for the operation of the CPU 502.
  • the CPU 502 functions as a matching unit that performs the face matching of the user U when the matching request requesting the face matching of the user U is received from the kiosk terminal 10.
  • the CPU 502 as a collating unit collates the photographed face image included in the user information and the passport face image at a ratio of 1: 1.
  • the CPU 502 collates both face images by collating the face feature amount extracted from the photographed face image with the face feature amount extracted from the passport face image. it can.
  • the CPU 502 also functions as a transmission unit that transmits verification information indicating the result of the user U's face verification to the kiosk terminal 10 that transmitted the verification request.
  • the matching information indicates matching match or mismatch. That is, the collation information indicates that, as a result of the collation, the photographed face image and the passport face image match, and the identity of the user U who makes the customs declaration has succeeded, or the photographed face image and the passport face image do not match. Indicates that the identity verification of the user U has failed.
  • the CPU 502 also functions as a determination unit that determines the declaration content included in the declaration information of the user U when the user information of the user U is received from the kiosk terminal 10.
  • the CPU 502 as a determination unit determines whether or not the user U is subject to taxation and whether or not the user U is at risk based on the declaration contents included in the declaration information of the user U. The case where the user U is taxable and the case where the user U is at risk are as described above.
  • the CPU 502 functions as a transmission unit that transmits the determination information indicating the determination result of the declaration content included in the declaration information of the user U to the kiosk terminal 10 that transmitted the user information.
  • the determination information indicates, as a result of the determination, whether the user U is taxable or not, and whether the user U is at risk.
  • the CPU 502 functions as an information management unit that stores and manages the user information of the user U received from the kiosk terminal 10 in the storage device 506.
  • the CPU 502 as an information management unit manages the user information received from the kiosk terminal 10 by registering the user information in the user information DB 506a stored in the storage device 506. Every time the CPU 502 receives the user information from the kiosk terminal 10, the CPU 502 registers the received user information in the user information DB 506a.
  • the user information of the user U includes the identification item information, face information, and declaration information of the user U associated with each other.
  • the face information is the captured face image and the passport face image acquired by the kiosk terminal 10, or the face feature amount extracted from them.
  • the photographed face image or passport face image registered in the user information DB 506a is used as a registered face image that is registered biometric information registered in advance.
  • As the registered face image either a photographed face image or a passport face image can be used, but a photographed face image newer than the passport face image can be used as the registered face image.
  • the registered face image that is the photographed face image or the passport face image registered in the user information DB 506a or the face feature amount thereof is used for face collation in the computerization gate 20 for confirming the identity of the user U.
  • the CPU 502 when the CPU 502 receives the gate availability information from the kiosk terminal 10, the CPU 502 registers the gate availability information in the user information DB 506a in association with the user information.
  • the gate availability information is information indicating a determination result of availability of the computerized gate 20 for the user U who makes a customs declaration.
  • the CPU 502 can also register the user information of the user U who is determined to be able to use the computerized gate 20 in the user information DB 506a based on the gate availability information. That is, the CPU 502 may not register the user information of the user U who is determined to be unable to use the computerization gate 20 in the user information DB 506a.
  • the CPU 502 determines availability of the computerized gate 20 of the user U and acquires the gate availability information as in the kiosk terminal 10. You can also be received
  • the CPU 502 can delete the user information in the user information DB 506a after a certain time has passed from the registration. For example, the CPU 502 can delete the user information after the elapse of the time normally required from the completion of the customs declaration at the kiosk terminal 10 to the passage of the computerized gate 20 at the customs inspection site C.
  • the CPU 502 functions as a matching unit that performs the face matching of the user U when the matching request requesting the face matching of the user U is received from the exit gate terminal 40.
  • the CPU 502 as the matching unit sets the first target face image or the second target face image or the face feature amount thereof and the plurality of registered face images registered in the user information DB 506a or the face feature amount thereof at 1: N. Collate.
  • the CPU 502 when matching the first target face image or the second target face image with the registered face image, the face feature amount extracted from the first target face image or the second target face image and the face feature extracted from the registered face image. Both face images can be collated by collating with the amount.
  • the CPU 502 as the matching unit matches the first target face image or the second target face image with the plurality of registered face images to determine whether the first target face image or the second target face image is selected from the plurality of registered face images. Try to find a matching registered face image. Further, the CPU 502 compares the face feature amount of the first target face image or the second target face image with the face feature amount of the plurality of registered face images to determine the first face feature amount of the plurality of registered face images. An attempt is made to find a face feature amount of the registered face image that matches the face feature amount of the target face image or the second target face image.
  • the matching score indicating the similarity between the two face images exceeds a predetermined threshold and the two face images have high similarity. Includes cases that indicate degrees. Further, when the face feature amount of the first target face image or the second target face image and the face feature amount of the registered face image match, the matching score indicating the similarity between both face feature amounts has a predetermined threshold value. A case in which both face feature amounts show a high degree of similarity is included.
  • the CPU 502 functions as a transmission unit that transmits verification information indicating the verification result to the exit gate terminal 40 that has transmitted the verification request.
  • the matching information indicates matching match or mismatch. That is, the matching information is that, as a result of the matching, a registered face image that matches the first target face image or the second target face image has been found and the identity of the user U has been successfully verified, or a matching registered face image has been found. It indicates that the identity verification of the user U fails without being performed.
  • the matching information as a result of the matching, the face feature amount of the registered face image that matches the face feature amount of the first target face image or the second target face image is found, and the identity of the user U is successfully confirmed.
  • the CPU 502 may collate the first target face image or the second target face image or the face feature amount with one registered face image or the face feature amount.
  • the CPU 502 can delete the registered face image that matches the first target face image or the second target face image or the user information including the registered face image from the user information DB 506a. Further, the CPU 502 uses the user feature information including the face feature amount of the registered face image or the face feature amount of the registered face image that matches the face feature amount of the first target face image or the face feature amount of the second target face image. It can be deleted from the person information DB 506a.
  • the CPU 502 functions as a transmission unit that transmits the gate availability information to the exit gate terminal 40 as needed.
  • the storage device 506 includes a storage medium such as a non-volatile memory and a hard disk drive, and functions as a storage unit.
  • the storage device 506 stores a program executed by the CPU 502, data referred to by the CPU 502 when the program is executed, and the like.
  • the storage device 506 stores a user information DB 506a.
  • User information of a plurality of users U who have made customs declarations at the kiosk terminal 10 is registered in the user information DB 506a.
  • the gate availability information of the user U is registered in association with the user information.
  • the communication unit 508 is connected to the network NW and transmits / receives data via the network NW.
  • the communication unit 508 communicates with the kiosk terminal 10, the exit gate terminal 40, etc. under the control of the CPU 502.
  • the management server 50 is configured.
  • the kiosk terminal 10 photographs the user U who operates the kiosk terminal 10 with the camera 116 provided between the display 110 and the passport reading device 112 and the code reading device 114.
  • the user U looks at the camera 116 when looking at the display 110, holding the passport over the passport reading device 112 or holding the mobile terminal 60 over the code reading device 114.
  • the kiosk terminal 10 captures the face of the user U by the camera 116 during the reading of the passport by the passport reading device 112 or the reading of the declaration code by the code reading device 114 in parallel. Get an image. Since the user U inevitably faces the camera 116 provided between the display 110 and the passport reader 112 and the code reader 114, the operation of the kiosk terminal 10 of the user U is interrupted and the camera 116 is stopped. You don't have to turn your face. Further, the kiosk terminal 10 can execute the reading of the passport by the passport reading device 112 and the reading of the declaration code by the code reading device 114 at the same time or in any order.
  • the procedure at the kiosk terminal 10 including the reading of the passport, the reading of the declaration code, and the acquisition of the photographed face image used for face matching can be completed in a short time.
  • the kiosk terminal 10 can photograph the face of the user U while reading the passport or the filing code, the user U does not need to be aware of the photographing, and thus the psychological burden of the user U. Can be reduced.
  • the exit gate terminal 40 of the computerization gate 20 the first target face image obtained by capturing the user U moving toward the exit gate terminal 40 with the first camera 410, and the management server 50.
  • the registered face image registered in the user information DB 506a is compared.
  • the first target face image can be acquired by the user U without stopping. Therefore, according to the computerization gate 20 according to the present embodiment, the face verification of the user U can be efficiently performed using the first target face image. As a result, the time required for the user U to pass through the computerization gate 20 can be shortened.
  • the exit gate terminal 40 takes a picture of the user U who stays in front of the exit gate door 414 with the second camera 412 when the first target face image does not match or the matching cannot be performed.
  • the acquired second target face image is compared with the registered face image. Therefore, according to the computerization gate 20 according to the present embodiment, it is possible to surely confirm the identity of the user U through the face verification.
  • the exit gate terminal 40 of the computerized gate 20 according to the present embodiment opens the exit gate door 414 in accordance with a previously determined result of gate availability. Therefore, according to the computerization gate 20 according to the present embodiment, the time required for the user U to pass through the computerization gate 20 can be shortened.
  • FIG. 15A is a schematic diagram showing an example of a declaration information input screen on the mobile terminal 60.
  • FIG. 15B is a schematic diagram showing an example of a declaration code display screen on the mobile terminal 60.
  • FIG. 16 is a sequence diagram showing operations of the kiosk terminal 10 and the management server 50.
  • FIG. 17 is a sequence diagram showing a language setting operation of the kiosk terminal 10.
  • FIG. 18A is a schematic diagram showing an example of a reception screen on the kiosk terminal 10.
  • FIG. 18B is a schematic diagram showing an example of a declaration content confirmation screen on the kiosk terminal 10.
  • FIG. 18C is a schematic diagram showing an example of a guide screen on the kiosk terminal 10.
  • a user U who arrives at an airport from a foreign country by air travels to the customs inspection center C to make a customs declaration after undergoing immigration inspection at the immigration inspection ground, receipt of checked baggage at the baggage reception area, etc.
  • the user U inputs declaration information in the customs declaration application executed on the mobile terminal 60, and generates and displays a declaration code including the declaration information.
  • the user U may generate and display the reporting code before using the kiosk terminal 10.
  • FIG. 15A shows a declaration information input screen SHE of the customs declaration application on the mobile terminal 60.
  • the declaration information input screen SHE has, for example, a declaration information input field SHE10 for inputting information to be declared in the declaration in the customs clearance.
  • the declaration information input field SHE10 for example, in the case of Japan, it is possible to input the information to be declared in the declaration by the customs form C No. 5360, which is a portable goods / delivery goods declaration. That is, the declaration information input field SHE10 can input boarding information, which is information about boarding of the user U, such as boarding flight name, departure place, and entry date, and answers to questions.
  • the basic information of the user U such as the name, current address, telephone number, date of birth, passport number, etc. of the user U, which does not change with each customs declaration, is not shown in the declaration information. It is possible to register by entering on the user registration screen, setting screen, etc.
  • FIG. 15B shows a declaration code display screen SHC of the customs declaration application on the mobile terminal 60.
  • the reporting code display screen SHC has a reporting code display column SHC10 in which a reporting code including the reporting information input in the reporting information input screen SHE is generated and displayed.
  • the declaration code displayed in the declaration code display field SHC10 further includes language information related to the language used by the customs declaration application, in addition to the declaration information.
  • the reporting code display column SHC10 can display the expiration date and time of the reporting code, how to use the reporting code, and the like.
  • Customs Inspection Center C makes a customs declaration at kiosk terminal 10 installed near the entrance of Customs Inspection Center C. It should be noted that the user U can generate and display the declaration code on the mobile terminal 60 before going to the front of the kiosk terminal 10. At that time, the user U uses the declaration code displayed in the customs declaration application of the mobile terminal 60, and the procedure method at the kiosk terminal 10 displayed on the digital signage terminal 70 installed near the kiosk terminal 10. You can refer to the guidance such as.
  • the CPU 102 of the kiosk terminal 10 continuously determines whether the passport reader 112 holds the passport and the code reader 114 holds the declaration code (step). S102). In this way, the CPU 102 waits until at least one of the passport and the declaration code is held over (step S102, NO).
  • FIG. 18A shows an example of the reception screen SKR displayed on the display 110 of the kiosk terminal 10 waiting for the user U to hold at least one of the passport and the declaration code.
  • the reception screen SKR displays, for example, that a filing code is required to use the kiosk terminal 10 and how to hold the passport and filing code.
  • the passport reader 112 reads passport information such as the user U's identity matter information and passport face image from the passport. It is acquired (step S104). Further, when the CPU 102 determines that the reporting code is held over (step S102, YES), the code reading device 114 reads and acquires the reporting information and the language information from the reporting code (step S106).
  • the user U may hold the passport over the passport reader 112 before reading the return code, or may pass the return code over the code reader 114 before reading the passport. Good. Further, the user U may hold the passport and the code for declaration at the same time by reading them over the passport reading device 112 and the code reading device 114, respectively.
  • the CPU 102 can cause the passport reading device 112 to read the passport and the code reading device 114 to read the declaration code according to the timing of reading the passport and the declaration code of the user U, or at the same time. it can.
  • the CPU 102 when the CPU 102 reads one of the passport and the declaration code and then detects the elapse of a certain period of time or the user U leaving the kiosk terminal 10 without holding the other, the process Can be interrupted. In this case, the CPU 102 can display an error display or the like on the display 110, or can perform a reset process that invalidates the process up to that point. After that, the CPU 102 can move to step S102. The CPU 102 can detect that the user U has left the kiosk terminal 10 based on, for example, a moving image captured by the camera 116 or a still image captured continuously.
  • the camera 116 captures the face of the user U and acquires a captured face image of the user U (step S108). .
  • the CPU 102 takes an image of the face of the user U by the camera 116 during the reading of the passport or the code for declaration while the passport reading device 112 reads the passport or the code reading device 114 reads the declaration code.
  • You can The camera 116 can start photographing when a passport or a code for filing is held over.
  • the CPU 102 captures the face image of the user U, which causes the passport reading device 112 to read the passport or the code reading device 114 to read the declaration code, in front of the kiosk terminal 10 by the camera 116, and the captured face image is taken. get.
  • the camera 116 is provided such that the photographing direction thereof is directed obliquely upward and forward, and the user U who looks down at the display 110, the passport reading device 112, or the code reading device 114 and operates the kiosk terminal 10. It has an angle of view that allows you to shoot the face. Therefore, the camera 116 looks to the display 110, the passport reading device 112, or the code reading device 114 with the line of sight directed obliquely downward and looks down on the face of the user U who operates the kiosk terminal 10 and makes the user U aware of taking a picture. You can shoot without having to let it. For example, when photographing with the camera 116, it is not necessary to request the user U to face the direction of the camera 116.
  • the camera 116 can acquire a plurality of face images of the user U who operates the kiosk terminal 10 by shooting a moving image at a predetermined frame rate or a still image at a predetermined time interval.
  • the CPU 102 can select and acquire the highest quality face image of the plurality of face images of the user U captured by the camera 116 as the captured face image of the user U.
  • the camera 116 can start photographing by using a passport or a code for filing as a trigger.
  • the quality of the face image can be evaluated based on, for example, the orientation of the face with respect to the camera 116, and when the orientation of the face with respect to the camera 116 is within a predetermined range, it is determined that the face image has a certain quality or higher. Can be evaluated.
  • the CPU 102 When the CPU 102 obtains the passport face image of the user U from the passport and obtains the photographed face image of the user U by the camera 116, the CPU 102 issues a collation request requesting the face collation of the user U to the management server 50. It transmits via NW (step S110). The CPU 102 transmits the photographed face image and the passport face image or the face feature amount thereof to the management server 50 together with the matching request.
  • the CPU 502 of the management server 50 receives the collation request from the kiosk terminal 10 and performs the face collation of the user U (step S112).
  • the CPU 502 collates the photographed face image with the passport face image at a ratio of 1: 1.
  • the CPU 502 transmits collation information indicating the collation result of the photographed face image and the passport face image to the kiosk terminal 10 via the network NW (step S114).
  • the face matching of the user U is performed to match the photographed face image with the passport face image.
  • the kiosk terminal 10 captures the face of the user U by the camera 116 and acquires step S108 of acquiring the captured face image of the user U again. This can be executed to re-capture the captured face image.
  • the kiosk terminal 10 can perform re-imaging of the captured face image only once or multiple times.
  • the CPU 102 sets the language used by the kiosk terminal 10 for confirmation of the declaration content by the user U and correction if necessary (step S116).
  • the CPU 102 first acquires the language information read from the reporting code as shown in FIG. 17 (step S202).
  • the CPU 102 sets the language used by the customs declaration application indicated by the acquired language information as the language used by the kiosk terminal 10 (step S204).
  • the language used for the customs declaration application which is set as the language used for the kiosk terminal 10
  • the language set in the language setting of the mobile terminal 60 or if the language is set in the settings in the customs declaration application, the language is set. Is.
  • the CPU 102 can display various information on the display 110 in the same language as the language used for the customs declaration application of the mobile terminal 60 used by the user U.
  • the CPU 102 can accept an input by the user U from the input device 108 such as a touch panel incorporated in the display 110 in the same language as the language used by the customs declaration application of the mobile terminal 60 used by the user U. it can.
  • the CPU 102 determines whether or not a change instruction for instructing the change of the used language to another language is input by the user U via the input device 108 (step S206). If the change instruction is not input (step S206, NO), the CPU 102 maintains the language used set in step S204.
  • step S206 If the change instruction is input (step S206, YES), the CPU 102 changes the language used by the kiosk terminal 10 to another language instructed by the change instruction (step S208).
  • the user U can confirm the displayed contents and input the information in the language used by the kiosk terminal 10 or the language instructed to change by the user. Therefore, the user U can smoothly use the kiosk terminal 10 without the language becoming an obstacle.
  • the CPU 102 displays the declaration contents of the declaration information read from the declaration code on the display 110 and allows the user U to confirm the declaration contents, as shown in FIG.
  • the correction is accepted as necessary (step S118).
  • the user U confirms the declaration contents displayed on the display 110 and corrects the declaration contents via the input device 108 when the declaration contents need to be corrected.
  • the user U who has confirmed the declaration contents inputs a confirmation instruction for confirming the declaration contents and confirming the declaration contents through the input device 108. As a result, the declaration contents declared by the user U in the customs declaration are fixed.
  • FIG. 18B shows an example of the declaration content confirmation screen SKC displayed on the display 110 of the kiosk terminal 10 in which the user U confirms the declaration content and corrects it if necessary.
  • the declaration content confirmation screen SKC displays the declaration content included in the declaration information.
  • the report content confirmation screen SKC can be changed to a report content correction screen in which the report content can be corrected, for example, by pressing the correction button by touch input by the user U.
  • the declaration content confirmation screen SKC for example, when the confirmation button is pressed by the touch input of the user U, the confirmation instruction is input to the kiosk terminal 10.
  • the declaration contents declared by the user U in the customs declaration are fixed.
  • the CPU 102 can display the declaration information input screen SHE of the customs declaration application shown in FIG. 15A displayed on the display 610 of the mobile terminal 60 and the declaration content confirmation screen SKC whose layout is unified. Since the layouts of both screens are unified, it is possible to realize a screen display in which the operation of the kiosk terminal 10 is not easily lost.
  • the CPU 102 transmits the user information of the user U to the management server 50 via the network NW (step S120).
  • the user information includes identification item information, face information, and declaration information of the user U associated with each other. Since the CPU 102 transmits the captured face image and the passport face image together with the matching request in step S110, the face information of the user information does not have to be transmitted again.
  • the CPU 502 determines the declaration content included in the declaration information of the user information of the user U (step S122). The CPU 502 determines whether or not the user U is subject to taxation and whether or not the user U is at risk from the declaration contents included in the declaration information of the user U.
  • the CPU 502 can verify the passport number in addition to determining the declaration content. In this case, the CPU 502 collates the passport number included in the identification item information of the user information with the passport number included in the declaration information of the user information.
  • the CPU 502 transmits the determination information indicating the determination result of the declaration content included in the declaration information of the user U to the kiosk terminal 10 via the network NW (step S124). Further, the CPU 502 can include the passport number verification result in the determination information.
  • the CPU 102 of the kiosk terminal 10 determines whether or not the user U can use the computerization gate 20 based on the received determination information and the previously received matching information (step S126).
  • the collation information received earlier is the one transmitted from the management server 50 in step S114.
  • the CPU 102 can display the matching information indicating the result of matching the photographed face image and the passport face image and the judgment information indicating the judgment result of the declaration content on the display 110 to show the user U.
  • the CPU 102 determines that the user U can use the computerized gate 20 when the passport face image of the user U matches the photographed face image, the user U is not taxable, and the user U has no risk. judge.
  • the determination information includes the matching result of the passport number
  • the CPU 102 matches the passport face image of the user U with the captured face image, the user U is not taxable, and the user U has no risk. Further, when the passport numbers match, it is determined that the user U can use the computerized gate 20.
  • the CPU 102 causes the user U to digitize. Is determined to be unavailable.
  • the CPU 102 determines that the user U cannot use the computerized gate 20 even when the passport numbers do not match.
  • the CPU 102 transmits gate availability information showing the determination result of availability of the computerized gate 20 to the management server 50 (step S128). If the passport face image of the user U matches the captured face image, and the user U is not taxable and the user U is not at risk, the gate availability information indicates that the user U has an electronic gate. 20 is available. When the determination information includes the passport number verification result, the gate availability information indicates that the user U can use the computerized gate 20 when the passport numbers further match.
  • the CPU 502 of the management server 50 Upon receiving the gate availability information from the kiosk terminal 10, the CPU 502 of the management server 50 registers the user information of the user U in the user information DB 506a in association with the gate availability information (step S130). Note that instead of receiving the gate availability information from the kiosk terminal 10, the CPU 502, like the CPU 102 of the kiosk terminal 10, determines the availability of the computerized gate 20 for the user U based on the collation information and the determination information. It can also be determined.
  • the CPU 502 can also register the user information of a specific user U in the user information DB 506a, instead of registering the user information in the user information DB 506a in association with the gate availability information. That is, the CPU 502 can also register the user information of the user U who is determined to be able to use the computerized gate 20 in the user information DB 506a based on the gate availability information. That is, the CPU 502 may not register the user information of the users U other than the specific user U in the user information DB 506a.
  • the CPU 102 of the kiosk terminal 10 determines that the user U can use the computerization gate 20 (step S132, YES)
  • the CPU 102 executes a process for guiding the user U to the computerization gate 20 (step S134).
  • the CPU 102 guides the user U to the computerized gate 20, for example, by displaying a guide screen for guiding the user U to the computerized gate 20 on the display 110.
  • FIG. 18C shows an example of the guidance screen SKG displayed on the display 110 of the kiosk terminal 10 for guiding the user U to the computerization gate 20.
  • the guidance screen SKG shows, for example, a word, a symbol, a picture or the like to be guided to the computerized gate 20, and also a word, a symbol, a picture or the like indicating that the customs declaration has been completed.
  • the CPU 102 determines that the user U cannot use the computerization gate 20 (step S132, NO), it executes a corresponding process for the user U who cannot use the computerization gate 20 (step S136).
  • the CPU 102 guides the user U to the manned booth M, for example, by displaying a guidance screen for guiding the user U to the manned booth M on the display 110.
  • the customs declaration is made by the user U at the kiosk terminal 10.
  • FIG. 19 is a sequence diagram showing operations of the entrance gate terminal 30 and the exit gate terminal 40, which configure the computerized gate 20, and the management server 50.
  • the entrance gate door 308 of the entrance gate terminal 30 is opened and the exit gate door 414 of the exit gate terminal 40 is closed. Has become. Further, in the standby state, the guide display 314 of the entrance gate terminal 30 displays a display indicating permission to enter the gate passage P, and the guide display 420 of the exit gate terminal 40 prohibits the exit from the gate passage P. Is displayed.
  • the CPU 302 of the entrance gate terminal 30 determines whether or not the user U has passed through the entrance gate terminal 30 and entered the gate passage P (step S302), and the user It waits for U to pass (step S302, NO).
  • the CPU 302 can determine whether or not the user U has passed through the entrance gate terminal 30 and entered the gate passage P based on the output signals of the plurality of passage detection sensors 310 and their output order.
  • step S302 When the CPU 302 determines that the user U has passed through the entrance gate terminal 30 and entered the gate passage P (step S302, YES), it closes the entrance gate door 308 (step S304). Further, the CPU 302 changes the display of the guide display 314 from the display showing permission to enter the gate passage P to the display showing prohibition of entry into the gate passage P.
  • the entrance gate door 308 is controlled so as not to be opened until the user U who has entered the gate passage P passes through the exit gate terminal 40 and exits from the gate passage P. Therefore, only one user U can enter the gate passage P. As a result, it is possible to prevent the situation in which a plurality of users U are photographed by the first camera 410, and it is possible to reliably perform collation of the first target face image.
  • the CPU 302 transmits the entrance passage information indicating that the user U has passed through the entrance gate terminal 30 and entered the gate passage P to the exit gate terminal 40 (step S306). It should be noted that the CPU 302 can execute either step S304 or step S306 in the previous order, or can execute both steps S304 and S306 at the same time.
  • the CPU 402 of the exit gate terminal 40 which has received the entrance passage information from the entrance gate terminal 30, photographs the user U moving through the gate passage P toward the exit gate terminal 40 with the first camera 410, and the user U's A first target face image is acquired (step S308).
  • the first camera 410 acquires a plurality of first target face images of the user U moving in the gate passage P by shooting a moving image at a predetermined frame rate or shooting a still image at a predetermined time interval. In this way, the first target face image that is the face image of the user U moving in the gate passage P is acquired.
  • the user U can move toward the exit gate terminal 40 without stopping in the gate passage P.
  • the CPU 402 detects the line of sight in the first target face image, and when the result of the line of sight detection determines that the user U is facing down or sideways, A warning can be given to face forward, which is the side of the exit gate terminal 40.
  • the CPU 402 can give a warning to the user U so that the user U faces forward by, for example, a display on the display 408, a sound from a speaker, or the like. As a result, a high quality first target face image can be acquired more reliably.
  • the CPU 402 does not perform the quality determination in step S310 and the collation request in step S312 below, and does not collate the first target face image. You can also do it.
  • the CPU 402 estimates the wearing object in the taken first target face image and tries to detect the face wearing object such as sunglasses, glasses, and hat in the first target face image.
  • the CPU 402 can issue a warning to the user U to remove the face attachment by, for example, displaying on the display 408, sound from a speaker, or the like. As a result, it is possible to remove a factor that hinders the collation of the first target face image.
  • the CPU 402 does not perform the quality determination in step S310 and the collation request in step S312 below, and collates the first target face image. You can choose not to do this.
  • the CPU 402 calculates a quality value for each of the acquired first target face images, and determines the quality of the first target face image based on the calculated quality value (step S310).
  • the CPU 402 sequentially transmits a matching request to the management server 50 via the network NW for the high quality first target face image having a certain quality or higher (step S312).
  • the CPU 402 requests the management server 50 to collate the first target face image having a certain quality or higher with the plurality of registered face images registered in the user information DB 506a of the management server 50 in a 1: N ratio. Request.
  • the CPU 402 transmits the face feature amount extracted from the first target face image or the first target face image itself to the management server 50 together with the matching request.
  • the CPU 402 may send all the first target face images acquired regardless of the quality to the management server 50.
  • the CPU 502 of the management server 50 can similarly determine the quality of the first target face image and can compare the first target face image having a certain quality or higher with the registered face image.
  • the CPU 502 can match the first target face image with the registered face image regardless of the quality.
  • the CPU 502 of the management server 50 receives the collation request for the first target face image from the exit gate terminal 40, the CPU 502 collates the first target face image (step S314).
  • the CPU 502 collates the face feature amount of the first target face image received from the exit gate terminal 40 and the face feature amount of the plurality of registered face images registered in the user information DB 506a with 1: N.
  • the facial feature amount of the first target face image is one received from the exit gate terminal 40 or extracted from the first target face image received from the exit gate terminal 40.
  • the CPU 502 transmits matching information indicating the result of matching the first target face image to the exit gate terminal 40 via the network NW (step S316).
  • the CPU 402 of the exit gate terminal 40 and the CPU 502 of the management server 50 can repeatedly execute steps S312, S314, and S316 for a plurality of first target face images having a certain quality or higher.
  • the CPU 402 of the exit gate terminal 40 receives the verification information from the management server 50. At the time when the matching information about any of the first target face images indicates that a matching registered face image has been found, the CPU 402 has succeeded in confirming the identity of the user U moving through the gate passage P (step S318). , YES), and the photographing by the first camera 410 ends. Subsequently, the CPU 402 proceeds to step S336.
  • the identity verification of the user U has failed (step S318, NO), it is determined that the identity verification by collating the first target face image has failed.
  • the predetermined time is, for example, the time when the user U reaches the exit gate door 414 of the exit gate terminal 40.
  • the CPU 402 can determine whether the user U has reached the exit gate door 414 from the image captured by the first camera 410.
  • the CPU 402 can determine that the identity verification by the collation of the first target face image has failed even if the collation information is not received by the predetermined time similar to the above. In this case, the first target face image having a certain quality or higher cannot be acquired, and the first target face image and the registered face image cannot be collated.
  • the CPU 402 determines that the identity verification by collating the first target face image has failed, the CPU 402 notifies the user U that the second camera 412 will perform imaging (step S320). That is, the CPU 402 notifies the user U that the second camera 412 will perform imaging when the first target face image and the registered face image do not match or cannot be matched.
  • the CPU 402 can notify that the second camera 412 will perform image capturing, for example, by displaying on the display 408, voice guidance, or the like.
  • the CPU 402 receives a notification from the second camera 412 and photographs the user U who stays in front of the exit gate door 414 (step S322).
  • the CPU 402 acquires the second target face image of the user U who has arrived in front of the exit gate door 414 of the exit gate terminal 40 and remains in front of the exit gate door 414.
  • the second target face image which is the face image of the user U standing still in front of the exit gate door 414, is acquired.
  • the second camera 412 can acquire a plurality of face images of the user U in front of the exit gate door 414 by shooting a moving image at a predetermined frame rate or shooting a still image at a predetermined time interval.
  • the CPU 402 may select and acquire the highest quality face image of the plurality of face images of the user U captured by the second camera 412 as the second target face image of the user U. it can.
  • the CPU 402 can guide the user U by, for example, a display on the display 408, a voice from a speaker, or the like when the second camera 412 captures an image.
  • the CPU 402 can guide the user U to remove the face attachment if the face attachment is detected in the second target face image, or to let the second camera 412 face the display 408. it can.
  • FIG. 20 shows an example of the guide display displayed on the display 408 when the second camera 412 takes a picture.
  • the display on the display 408 can guide the removal of the mask, which is a face fitting.
  • the CPU 402 transmits a collation request to the management server 50 for the second target face image via the network NW (step S324).
  • the CPU 402 requests the management server 50 to collate the second target face image with the plurality of registered face images registered in the user information DB 506a of the management server 50 at 1: N.
  • the CPU 402 transmits the face feature amount extracted from the second target face image or the second target face image itself to the management server 50 together with the matching request.
  • the CPU 502 of the management server 50 receives the collation request for the second target face image from the exit gate terminal 40, the CPU 502 collates the second target face image (step S326).
  • the CPU 502 collates the facial feature amount of the second target face image received from the exit gate terminal 40 with the feature amounts of the plurality of registered face images registered in the user information DB 506a at 1: N.
  • the facial feature amount of the second target face image is one received from the exit gate terminal 40 or extracted from the second target face image received from the exit gate terminal 40.
  • the CPU 502 transmits collation information indicating the collation result of the second target face image to the exit gate terminal 40 via the network NW (step S328).
  • the CPU 402 of the exit gate terminal 40 receives the verification information from the management server 50. If the matching information about the second target face image indicates that the matching registered face image is found and the identity of the user U in front of the exit gate door 414 is successfully confirmed (step S330, YES), the CPU 402 determines that The process moves to step S336.
  • the exit gate terminal 40 captures the second target face image of the user U by photographing the user U with the second camera 412. By performing step S322 again, the second target face image can be re-photographed.
  • the exit gate terminal 40 can perform re-imaging of the second target face image only once or a plurality of times.
  • the CPU 502 of the management server 50 transmits the gate availability information when the identity of the user U is successfully confirmed as a result of the first target face image matching or the second target face image matching (step S332, YES). Is performed (step S334). That is, the CPU 502 acquires the gate availability information associated with the user information of the user U who has succeeded in the identification from the user information DB 506a and transmits it to the exit gate terminal 40 via the network NW.
  • the CPU 402 of the exit gate terminal 40 responds when the collation information about the second target face image indicates that no matching registered face image has been found and the identity verification of the user U has failed (step S330, NO).
  • the process is executed (step S338).
  • the verification of the identity of the user U has failed by both the verification of the first target face image and the verification of the second target face image.
  • the CPU 402 calls the customs officer to the gate passage P as a corresponding process, it can sound an alarm or send a notification to the terminal of the customs officer, for example.
  • the customs officer can guide the user U to the manned booth M or another room, for example.
  • the customs officers carry out a face-to-face customs inspection at an inspection table provided on the side of the computerized gate 20, and then exit the user U from the gate passage P through the manually opened exit gate door 414. be able to.
  • the CPU 402 which succeeds in confirming the identity of the user U by the collation of the first target face image or the second target face image and proceeds to step S336, regarding the user U who has succeeded in the identity confirmation, the computerization gate 20 Whether or not to use is determined (step S336).
  • the CPU 402 determines the availability of the computerized gate 20 based on the gate availability information received from the management server 50.
  • step S338 When the CPU 402 determines that the computerization gate 20 cannot be used (NO in step S336), the CPU 402 executes a corresponding process (step S338). In this case, although the identity of the user U has been successfully verified by matching the first target face image or the second target face image, the user U has a risk that the user U is determined to be taxable. Those who have been determined to be. Since the CPU 402 calls the customs officer to the gate passage P as a corresponding process, it can sound an alarm or send a notification to the terminal of the customs officer, for example. Also in this case, the customs officer can deal with the user U as described above.
  • step S336, YES when the CPU 402 determines that the computerized gate 20 can be used (step S336, YES), it opens the exit gate door 414 (step S340). Further, the CPU 402 changes the display of the guidance display device 420 from a display indicating that the exit from the gate passage P is prohibited to a display indicating that the exit from the gate passage P is permitted.
  • the CPU 402 determines whether or not the user U has passed through the exit gate terminal 40 and exited from the gate passage P (step S342), and waits for the user U to pass (step S342, NO).
  • the CPU 402 can determine whether or not the user U has passed through the exit gate terminal 40 and exited from the gate passage P based on the output signals of the plurality of passage detection sensors 416 and the output order thereof.
  • the CPU 402 determines that the user U has passed through the exit gate terminal 40 and exited from the gate passage P (step S342, YES), it closes the exit gate door 414 (step S344). Further, the CPU 402 changes the display of the guidance display device 420 from a display showing permission to leave the gate passage P to a display showing prohibition of leaving the gate passage P.
  • the CPU 402 transmits, to the entrance gate terminal 30, exit passage information indicating that the user U has passed through the exit gate terminal 40 and exited from the gate passage P (step S346). It should be noted that the CPU 402 can execute either step S344 or step S346 in the order of importance, or can execute both steps S344 and S346 at the same time.
  • the computerized gate 20 shifts to a standby state waiting for the user U to enter the gate passage P.
  • the kiosk terminal 10 acquires a captured face image used for face matching, which is biometric information matching, during reading of a passport or a declaration code. Therefore, according to the present embodiment, the procedure at the kiosk terminal 10 including the acquisition of information by reading the passport and the declaration code and the face matching using the photographed face image can be completed in a short time. .
  • the exit gate terminal 40 of the computerization gate 20 the user U moving toward the exit gate terminal 40 is photographed by the first camera 410, and face matching, which is matching of biometric information, is performed.
  • the first target face image used for is acquired.
  • the exit gate door 414 is opened according to the determination result of the gate availability determined in advance. Therefore, according to this embodiment, the time required for the user U to pass through the computerization gate 20 can be shortened.
  • FIG. 21 is a schematic diagram showing the configuration of an information processing device according to another embodiment.
  • an information processing apparatus 1000 has a reading unit 1002, a display unit 1004, and a biometric information acquisition unit 1006.
  • the reading unit 1002 reads the medium of the user and acquires information including the biometric information of the user from the medium.
  • the display unit 1004 is provided at a position higher than the reading unit 1002.
  • the biometric information acquisition unit 1006 is provided between the reading unit 1002 and the display unit 1004 and acquires biometric information of the user from the user.
  • the biometric information acquisition unit 1006 provided between the reading unit 1002 and the display unit 1004 allows the user to obtain biometric information of the user during reading of the medium. get. Therefore, according to the information processing apparatus 1000 according to another embodiment, the acquisition of information and the collation of biometric information can be completed in a short time.
  • the present invention is not limited to this.
  • the kiosk terminal 10 can be configured to receive various declarations by the user.
  • the camera 116, the first camera 410, and the second camera 412 capture and capture the face image of the user U as the biometric information of the user U has been described as an example, but the present invention is not limited to this. It is not something that will be done.
  • the camera 116, the first camera 410, and the second camera 412 may acquire an iris image or the like in addition to a face image that is face information.
  • the kiosk terminal 10 can be configured as a system including one or a plurality of devices.
  • the entrance gate terminal 30 according to the above-described embodiment can be configured as a system including one or a plurality of devices.
  • the exit gate terminal 40 according to the above-described embodiment can be configured as a system including one or a plurality of devices.
  • the management server 50 according to the above embodiment can be configured as a system including one or a plurality of devices.
  • a processing method of recording a program for operating the configuration of the embodiment so as to realize the function of each of the above-described embodiments in a recording medium reading the program recorded in the recording medium as a code, and executing the program in a computer. It is included in the category of each embodiment. That is, a computer-readable recording medium is also included in the scope of each embodiment. Further, not only the recording medium in which the above computer program is recorded but also the computer program itself is included in each embodiment.
  • the recording medium for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM (Compact Disc-Read Only Memory), magnetic tape, non-volatile memory card, or ROM can be used.
  • the processing is not limited to the one executed by the program recorded in the recording medium, and the processing is executed by operating on the OS (Operating System) in cooperation with other software and the function of the expansion board. Those are also included in the category of each embodiment.
  • a reading unit that reads the medium of the user and acquires information including biometric information of the user from the medium;
  • An information processing device comprising: a biometric information acquisition unit that is provided between the reading unit and the display unit and that acquires biometric information of the user from the user.
  • Appendix 2 The information processing apparatus according to appendix 1, wherein the biometric information acquisition unit is an imaging device that captures a face of the user with the imaging direction obliquely upward, and that acquires a face image of the user as the biometric information.
  • the biometric information acquisition unit is an imaging device that captures a face of the user with the imaging direction obliquely upward, and that acquires a face image of the user as the biometric information.
  • Appendix 3 The information processing apparatus according to appendix 1 or 2, further comprising a control unit that requests or performs matching between the biometric information acquired by the reading unit and the biometric information acquired by the biometric information acquisition unit.
  • the reading unit A first reading unit that reads the first medium including the biometric information and acquires the first information including the biometric information from the first medium; 4.
  • the information processing apparatus according to any one of appendices 1 to 3, further comprising: a second reading unit that reads a code displayed on a second medium and acquires second information from the code.
  • the first medium is a passport of the user, 6.
  • the information processing device according to attachment 4, wherein the second medium is a mobile terminal that displays the code including declaration information necessary for customs declaration.
  • appendix 6 The information processing device according to appendix 4 or 5, further comprising an illumination unit that is provided on a side portion of the display unit and that lights up when at least one of the first medium and the second medium is read.
  • Appendix 7 The information processing device according to appendix 6, wherein the lighting unit performs different lighting based on at least one of the information read by the reading unit, the result of the matching, and the status of the procedure.
  • Appendix 8 The information processing device according to any one of appendices 1 to 7, further comprising a shielding portion provided on a side portion of the display unit.
  • Appendix 9 The information processing device according to appendix 8, wherein the illumination unit is arranged on an upper surface of the shield.
  • Appendix 10 10.
  • the information processing apparatus according to any one of appendices 1 to 9, which is provided above the display unit and has a situation display unit that indicates a situation.
  • Appendix 11 11. The information processing apparatus according to appendix 10, wherein the status display unit performs different lighting based on at least one of the information read by the reading unit, the result of the collation, and the status of the procedure.
  • Appendix 12 12. The information processing device according to any one of appendices 1 to 11, wherein a plurality of support devices are radially installed on a side part of the support body with the support body as a center.
  • Appendix 13 The information processing apparatus according to appendix 12, wherein three pieces are installed on the support at an angular interval of 120 °.
  • Appendix 14 14. The information processing device according to appendix 12 or 13, wherein a plurality of the devices are installed on the support body at different heights.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)
  • Devices For Checking Fares Or Tickets At Control Points (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Collating Specific Patterns (AREA)

Abstract

情報の取得と生体情報の照合とを短時間で完了することができる情報処理装置を提供する。情報処理装置は、利用者の媒体を読み取って、媒体から利用者の生体情報を含む情報を取得する読取部と、読取部よりも高い位置に設けられた表示部と、読取部と表示部との間に設けられ、利用者から利用者の生体情報を取得する生体情報取得部とを有する。

Description

情報処理装置
 本発明は、情報処理装置に関する。
 特許文献1には、スマートパスポートカードを用いた出入国管理用カードシステムが記載されている。特許文献1に記載のシステムは、税関チェック設備において、スマートパスポートカードを端末機にかけることによりスマートパスポートカードから手荷物申告カード情報を得て税関チェックを行う。
特開2002-304448号公報
 しかしながら、特許文献1に記載のシステムにおいて、カードからの情報の取得とは別個に本人確認のための生体情報の照合を行ったのでは、情報の取得と生体情報の照合とを短時間で完了することは困難である。
 本発明の目的は、上述した課題を鑑み、情報の取得と生体情報の照合とを短時間で完了することができる情報処理装置を提供することにある。
 本発明の一観点によれば、前記利用者の媒体を読み取って、前記媒体から前記利用者の生体情報を含む情報を取得する読取部と、前記読取部よりも高い位置に設けられた表示部と、前記読取部と前記表示部との間に設けられ、前記利用者から前記利用者の生体情報を取得する生体情報取得部とを有する情報処理装置が提供される。
 本発明によれば、情報の取得と生体情報の照合とを短時間で完了することができる。
図1は、本発明の一実施形態による情報処理システムの全体構成を示す概略図である。 図2は、本発明の一実施形態によるキオスク端末及び電子化ゲートが設置された税関検査場を示す概略図である。 図3は、本発明の一実施形態による携帯端末のハードウェア構成の一例を示すブロック図である。 図4Aは、本発明の一実施形態によるキオスク端末の外観を示す概略図である。 図4Bは、本発明の一実施形態によるキオスク端末の外観を示す概略図である。 図5は、本発明の一実施形態によるキオスク端末のハードウェア構成の一例を示すブロック図である。 図6Aは、本発明の一実施形態によるキオスク端末が1台設置された場合の構成を示す概略図である。 図6Bは、本発明の一実施形態によるキオスク端末が1台設置された場合の構成を示す概略図である。 図7Aは、本発明の一実施形態によるキオスク端末が2台設置された場合の構成を示す概略図である。 図7Bは、本発明の一実施形態によるキオスク端末が2台設置された場合の構成を示す概略図である。 図8Aは、本発明の一実施形態によるキオスク端末が3台設置された場合の構成を示す概略図である。 図8Bは、本発明の一実施形態によるキオスク端末が3台設置された場合の構成を示す概略図である。 図9は、本発明の一実施形態によるキオスク端末における覗き見の防止を説明する概略図である。 図10は、本発明の一実施形態によるキオスク端末が高さ違いで設置された場合の構成を示す概略図である。 図11は、本発明の一実施形態による電子化ゲートを構成する入口ゲート端末及び出口ゲート端末の外観を示す概略図である。 図12は、本発明の一実施形態による電子化ゲートを構成する入口ゲート端末のハードウェア構成の一例を示すブロック図である。 図13は、本発明の一実施形態による電子化ゲートを構成する出口ゲート端末のハードウェア構成の一例を示すブロック図である。 図14は、本発明の一実施形態による管理サーバのハードウェア構成の一例を示すブロック図である。 図15Aは、本発明の一実施形態による携帯端末における申告情報入力画面の一例を示す概略図である。 図15Bは、本発明の一実施形態による携帯端末における申告用コード表示画面の一例を示す概略図である。 図16は、本発明の一実施形態による情報処理システムにおけるキオスク端末及び管理サーバの動作を示すシーケンス図である。 図17は、本発明の一実施形態による情報処理システムにおけるキオスク端末の言語設定動作を示すシーケンス図である。 図18Aは、本発明の一実施形態によるキオスク端末における受付画面の一例を示す概略図である。 図18Bは、本発明の一実施形態によるキオスク端末における申告内容確認画面の一例を示す概略図である。 図18Cは、本発明の一実施形態によるキオスク端末における誘導画面の一例を示す概略図である。 図19は、本発明の一実施形態による情報処理システムにおける入口ゲート端末、出口ゲート端末及び管理サーバの動作を示すシーケンス図である。 図20は、本発明の一実施形態による出口ゲート端末における通知画面の一例を示す概略図である。 図21は、本発明の他の実施形態による情報処理装置の構成を示すブロック図である。
 [一実施形態]
 本発明の一実施形態による情報処理装置、ゲート装置、情報処理方法及びゲート装置の制御方法について図1乃至図20を用いて説明する。
 まず、本実施形態による情報処理システムの全体構成について図1及び図2を用いて説明する。図1は、本実施形態による情報処理システムの全体構成を示す概略図である。図2は、本実施形態によるキオスク端末及び電子化ゲートが設置された税関検査場を示す概略図である。
 図1に示すように、本実施形態による情報処理システム1は、キオスク端末10と、電子化ゲート20と、管理サーバ50と、携帯端末60とを含んでいる。電子化ゲート20は、入口ゲート端末30と、出口ゲート端末40とを有している。情報処理システム1は、例えば、空港、海港等において外国から入国する旅客、乗組員等の利用者Uの入国時の税関手続における申告を受け付けるとともに、申告が完了した特定の利用者Uが通過する電子化ゲート20を制御するシステムである。
 例えば、情報処理システム1が日本国の空港に導入されている場合、利用者Uは、航空機で外国から当該空港に到着した旅客又は乗組員であって、出国していた外国から日本国に帰国して入国する日本人、外国から日本国に入国する外国人等である。情報処理システム1において受け付けられる税関手続における申告である税関申告は、より具体的には、例えば、旅具通関における申告であり、日本国の場合、税関様式C第5360号の携帯品・別送品申告書による申告と同内容の申告である。
 管理サーバ50は、例えば、税関の施設内に設置されている。キオスク端末10及び電子化ゲート20は、例えば、空港、海港等において税関検査が行われる税関検査場Cに設置されている。
 図2に示すように、利用者Uが進入してくる税関検査場Cの入口付近には、キオスク端末10が設置されている。キオスク端末10の付近には、キオスク端末10での手続方法を動画又は静止画で表示して案内するデジタルサイネージ端末70が設置されている。また、税関検査場Cの出口には、電子化ゲート20と、有人ブースMとが設置されている。電子化ゲート20の入口ゲート端末30の付近には、電子化ゲート20の通過時の注意事項を動画又は静止画で表示して案内するデジタルサイネージ端末80が設置されている。有人ブースMでは、税関職員Sにより、例えば、税関手続における申告の受付け、手荷物の検査等の対面での税関検査が行われる。
 携帯端末60は、利用者Uが所持又は携帯して利用する端末である。携帯端末60には、キオスク端末10において税関申告を行うための税関申告アプリケーションがインストールされている。利用者Uは、後述するように、携帯端末60の税関申告アプリケーションにより生成した申告用コードを使用して、キオスク端末10において税関申告を行うことができる。
 キオスク端末10、入口ゲート端末30、出口ゲート端末40及び管理サーバ50は、ネットワークNWに接続されている。ネットワークNWは、WAN(Wide Area Network)、LAN(Local Area Network)、移動体通信網等により構成されている。キオスク端末10と管理サーバ50とは、ネットワークNWを介して通信可能になっている。入口ゲート端末30と出口ゲート端末40とは、ネットワークNWを介して又はネットワークNWを介さずに通信可能になっている。出口ゲート端末40と管理サーバ50とは、ネットワークNWを介して通信可能になっている。携帯端末60は、ネットワークNWを介して管理サーバ50等のサーバと通信可能になっている。
 次に、本実施形態による情報処理システム1における各構成要素についてさらに図3乃至図14を用いて説明する。
 まず、携帯端末60の構成について図3を用いて説明する。図3は、携帯端末60のハードウェア構成の一例を示すブロック図である。
 携帯端末60は、利用者Uが所持又は携帯して使用する端末であり、例えば、スマートフォン、タブレット端末、携帯電話等の携帯情報機器である。携帯端末60は、図3に示すように、CPU(Central Processing Unit)602と、RAM(Random Access Memory)604と、記憶装置606と、入力装置608と、ディスプレイ610と、移動体無線通信部612と、近距離無線通信部614とを有している。CPU602、RAM604、記憶装置606、入力装置608、ディスプレイ610、移動体無線通信部612及び近距離無線通信部614は、バスライン616に接続されている。
 CPU602は、記憶装置606に記憶されたプログラムを実行することにより動作し、携帯端末60全体の動作を制御する制御部として機能する。また、CPU602は、記憶装置606に記憶されたアプリケーションプログラムを実行して、携帯端末60としての各種処理を実行する。RAM604は、CPU602の動作に必要なメモリ領域を提供する。
 例えば、記憶装置606には、キオスク端末10において税関申告を行うための税関申告アプリケーションがインストールされている。CPU602は、税関申告アプリケーションを実行することにより、利用者Uが税関申告を行うための各種処理を行うことができる。
 より具体的には、CPU602は、例えば、税関申告に必要とされる申告情報の利用者Uによる入力を受け付けることができる。申告情報は、例えば、携帯品・別送品申告書に記載して申告すべき事項と同内容の情報である。すなわち、申告情報は、例えば、利用者Uの氏名、入国する国での現住所又は滞在先、職業、生年月日、旅券番号、搭乗便名、出発地、入国日、税関申告において申告すべき事項等の税関申告に必要な情報を含む。
 また、CPU602は、例えば、後述するように、利用者Uにより入力された申告情報を含む二次元コード等のコードである申告用コードを生成してディスプレイ610に表示させることができる。携帯端末60は、申告用コードを表示する媒体として機能することができる。
 申告用コードは、申告情報を含むことができれば特に限定されるものではないが、例えば、QRコード(登録商標)等の二次元コードである。また、申告用コードは、例えば、バーコード等の一次元コードであってもよい。CPU602は、有効期限を設定した有効期限付きの申告用コードを生成することもできる。CPU602は、申告用コードとともに、設定した有効期限をディスプレイ610に表示させることができる。有効期限付きの申告用コードは、生成された後、有効期限として設定された日時の経過により無効になる。申告用コードに有効期限が設定されていることにより、利用者Uに対して、申告用コードの生成後、速やかに税関申告を行うことを促すことができる。
 なお、利用者Uにその同行者である同行家族がいる場合、利用者U及び同行家族の各自がそれぞれの携帯端末60を用いて税関申告を行うこともできるし、利用者Uが代表して税関申告を行うこともできる。利用者Uが代表して税関申告を行う場合、CPU602は、利用者U自身がキオスク端末10で使用する申告用コードのほか、同行家族がキオスク端末10で使用する同行家族向けの申告用コードを生成してディスプレイ610に表示することができる。同行家族は、利用者Uの携帯端末60に表示された同行家族向けの申告用コードを使用して、利用者Uと同様にキオスク端末10を利用することができる。また、同行家族は、キオスク端末10の利用後、利用者Uと同様に電子化ゲート20又は有人ブースMに誘導される。
 また、申告用コードを表示するコード表示媒体は、携帯端末60である必要は必ずしもなく、他の媒体であってもよい。例えば、申告用コードは、コード表示媒体としての紙に印刷されたものであってもよい。
 また、税関申告アプリケーションは、例えば、日本語、英語、中国語、韓国語等の多言語に対応している。これにより、税関申告アプリケーションは、例えば、携帯端末60の言語設定で複数の言語の中から選択されて設定された言語で表示及び入力が可能になっている。また、税関申告アプリケーションは、例えば、携帯端末60の言語設定とは別に、そのアプリケーション内の設定で複数の言語の中から選択されて設定された言語で表示及び入力が可能であってもよい。税関申告アプリケーションは、こうして設定された言語である使用言語で使用することができる。
 CPU602は、税関申告アプリケーションの使用言語を示す情報である言語情報を、申告用コードにさらに含ませることができる。言語情報は、例えば、携帯端末60の言語設定で設定されている言語を示す情報、又は税関申告アプリケーション内の設定で言語が設定されていれば当該言語に関する情報である。
 記憶装置606は、不揮発性メモリ、ハードディスクドライブ等の記憶媒体により構成され、記憶部として機能する。記憶装置606は、CPU602により実行されるプログラム、そのプログラムの実行の際にCPU602により参照されるデータ等を記憶する。記憶装置606は、CPU602により実行されるアプリケーションプログラムとして、税関申告アプリケーションを記憶する。
 記憶装置606は、税関申告アプリケーションで入力された申告情報等の情報を記憶することができる。また、記憶装置606は、税関申告アプリケーションで生成された申告用コードを記憶することができる。
 入力装置608は、例えば、ディスプレイ610に組み込まれたタッチパネルである。入力装置608は、利用者Uからの入力を受け付ける入力部として機能する。利用者Uは、入力装置608を介して携帯端末60に対して、各種情報を入力したり、処理の実行の指示を入力したりすることができる。例えば、利用者Uは、税関申告アプリケーションを実行する携帯端末60に対して、タッチパネルである入力装置608を介して、申告情報を入力したり、申告用コードの生成指示を入力したりすることができる。
 ディスプレイ610は、利用者Uに対して、各種画面を表示する表示部として機能する。例えば、税関申告アプリケーションを実行する携帯端末60において、ディスプレイ610は、後述するように、申告情報の入力を受け付ける申告情報入力画面、申告用コードを表示する申告用コード表示画面等を表示する。
 移動体無線通信部612は、CPU602による制御に従って、移動体通信網を介してネットワークNWに接続する。移動体無線通信部612の通信方式は、特に限定されるものではないが、例えば、第3世代移動通信方式、LTE(Long Term Evolution)方式、第4世代移動通信方式等が挙げられる。
 近距離無線通信部614は、CPU602による制御に従って、アクセスポイント、外部機器等と無線通信を行い、例えば、空港の構内等のアクセスポイントを介してネットワークNWに接続する。近距離無線通信部614の通信方式は、特に限定されるものではないが、例えば、Wi-Fi(登録商標)等の無線LAN方式、Bluetooth(登録商標)通信方式、NFC(Near Field Communication)方式、赤外線通信方式等が挙げられる。
 こうして、携帯端末60が構成されている。
 次に、キオスク端末10の構成について図4A乃至図10を用いて説明する。図4A及び図4Bは、キオスク端末10の外観を示す概略図である。図4Aはポール100に設置されたキオスク端末10の全体を示す斜視図であり、図4Bはポール100に設置されたキオスク端末10を拡大して示す斜視図である。図5は、キオスク端末10のハードウェア構成の一例を示すブロック図である。図6A及び図6Bは、キオスク端末10が1台設置された場合の構成を示す概略図である。図7A及び図7Bは、キオスク端末10が2台設置された場合の構成を示す概略図である。図8A及び図8Bは、キオスク端末10が3台設置された場合の構成を示す概略図である。図9は、キオスク端末10における覗き見の防止を説明する概略図である。図10は、キオスク端末10が高さ違いで設置された場合の構成を示す概略図である。
 キオスク端末10は、利用者Uの携帯端末60に表示された申告用コードによる税関申告を受け付け、その税関申告の内容に応じて利用者Uを電子化ゲート20又は有人ブースMに誘導する情報処理装置である。キオスク端末10は、図4A及び図4Bに示すように、長手方向を鉛直にして設置された支持体であるポール100の側部に取り付けられて設置されている。なお、キオスク端末10は、後述するように1本のポール100に1台又は複数台設置することができる。
 また、キオスク端末10は、図5に示すように、CPU102と、RAM104と、記憶装置106と、入力装置108と、ディスプレイ110とを有している。さらに、キオスク端末10は、旅券読取装置112と、コード読取装置114と、カメラ116と、深度カメラ118と、通信部120と、ステータスランプ122を有している。CPU102、RAM104、記憶装置106、入力装置108、ディスプレイ110、旅券読取装置112、コード読取装置114、カメラ116、深度カメラ118、通信部120及びステータスランプ122は、バスライン124に接続されている。
 図4A及び図4Bに示すように、キオスク端末10は、ポール100に取り付けられた筐体126を有している。筐体126は、ディスプレイ110及びカメラ116が設けられた第1筐体部126aと、旅券読取装置112及びコード読取装置114が設けられた第2筐体部126bとを有している。なお、筐体126内には、CPU102、RAM104、記憶装置106及び通信部120が収容されている。
 第1筐体部126aは、ディスプレイ110が設けられたディスプレイ面を有している。第2筐体部126bは、旅券読取装置112及びコード読取装置114が設けられた読取面を有している。第1筐体部126aの下部には、ディスプレイ面と読取面とが互いに鈍角をなすように第2筐体部126bが一体的に連結されている。第1筐体部126a及び第2筐体部126bは、キオスク端末10がポール100に設置された際、第1筐体部126aのディスプレイ面が、ポール100側の後方とは逆の前方斜め上方を向き、第2筐体部126bの読取面が略水平になるように構成されている。
 キオスク端末10は、例えば、所定の身長以上の身長を有する利用者Uがディスプレイ110並びに旅券読取装置112及びコード読取装置114を見下ろすことになる高さに位置するようにポール100に設置されている。
 第1筐体部126aのディスプレイ面には、ディスプレイ110が、前方斜め上方をその画面が向くように設けられている。ディスプレイ110には、タッチパネルとしての入力装置108が組み込まれている。
 また、第1筐体部126aのディスプレイ面の下部におけるディスプレイ110と第2筐体部126bとの間の部分中央には、カメラ116が設けられている。カメラ116は、第1筐体部126aに設けられた表示部であるディスプレイ110と、第2筐体部126bに設けられた情報取得部である旅券読取装置112及びコード読取装置114との間に設けられている。なお、カメラ116は、1つ設けられているほか、ディスプレイ110を挟んで上下に2つ設けられていてもよい。この場合、下側のカメラ116は、例えば、上述のように第1筐体部126aのディスプレイ面の下部におけるディスプレイ110と第2筐体部126bとの間の部分中央に設けられている。一方、上側のカメラ116は、例えば、第1筐体部126aのディスプレイ面の上部におけるディスプレイ110の上側の部分中央に設けられている。
 カメラ116は、その撮影方向が前方斜め上方を向く方向となるように設けられている。キオスク端末10の前の利用者Uは、視線を前方斜め下方に向けて、ディスプレイ110、旅券読取装置112又はコード読取装置114を見下ろしてキオスク端末10を操作することになる。カメラ116は、このようにディスプレイ110、旅券読取装置112又はコード読取装置114を見下ろしてキオスク端末10を操作する利用者Uの顔を撮影可能な画角を有している。
 また、第1筐体部126aのディスプレイ面の上部中央には、深度カメラ118が設けられている。深度カメラ118は、カメラ116により撮影される物体の三次元情報を取得可能に設けられている。なお、深度カメラ118は、上述のように1つ又は2つ設けられたカメラ116と隣接して並ぶように設けられていてもよい。
 また、第1筐体部126aのディスプレイ面の両側部には、ディスプレイ110に沿って、板状のバイザー128がディスプレイ面から突出するようにそれぞれ設けられている。バイザー128は、キオスク端末10の側方、斜め背後、斜め前方からディスプレイ110に向けられる視線を遮って、キオスク端末10を利用する利用者U以外の者によるディスプレイ110の覗き見を困難にする遮蔽部として機能する。
 また、第1筐体部126aのディスプレイ面の両側部には、キオスク端末10を操作する利用者Uの顔を照らすための照明部である照明130がそれぞれ設けられている。照明130は、例えば、ディスプレイ110に沿って下方から上方に向かって照らす光源、ディスプレイ110に沿って設けられた棒状光源等の光源により構成することができる。光源としては、特に限定されるものではないが、LED(Light Emitting Diode)等を用いることができる。ディスプレイ110の両側部に設けられた照明130により、キオスク端末10を操作する利用者Uの顔をカメラ116により撮影する際に十分な明るさを確保することができる。なお、照明130は、キオスク端末10の運用の間、常時点灯していてもよい。また、照明130は、キオスク端末10の運用の間、必ずしも常時点灯している必要はなく、利用者Uの顔をカメラ116により撮影する際に点灯しているように構成することもできる。この場合、照明130は、例えば、旅券読取装置112により旅券が読み取られ又はコード読取装置114により申告用コードが読み取られると点灯するように構成することができる。また、照明130は、例えば、キオスク端末10に設けられた不図示の人感センサにより利用者Uが検知されると点灯するように構成することができる。また、これら所定のタイミングで点灯した照明130は、例えば、カメラ116による利用者Uの顔の撮影の終了後又は所定の時間の経過後に消灯するように構成することができる。
 第2筐体部126bの読取面には、ディスプレイ110に向かって、左側に旅券読取装置112が設けられ、右側にコード読取装置114が設けられている。空港等において設置される他のキオスク端末においては、一般的に、QRコード等のコードを読み取る読取装置が端末に向かって右側に設けられている。キオスク端末10においても、ディスプレイ110に向かって右側にコード読取装置114が設けられていることにより、利用者Uは、円滑に携帯端末60に表示させた申告用コードをコード読取装置114にかざして読み取らせることができる。
 旅券読取装置112は、例えば、旅券を読み取る読取部を上に向けて設けられおり、その読取部上に旅券が差し込まれるスロットを有するように構成されている。この場合、利用者Uは、身分事項ページを開いた旅券をそのページを下に向けてスロットに差し込んで旅券読取装置112の読取部にかざすことにより、旅券読取装置112にその旅券を読み取らせることができる。スロットに旅券を差し込む方式では、スロットに旅券を差し込めば、ページを開いた状態を維持するために利用者Uが旅券を押さえ続ける必要がなく、また、旅券読取装置112の読取部に対して旅券の位置を正確に合わせることができる。これにより、円滑な旅券の読取りを実現することができる。
 なお、旅券読取装置112の構成は、上記の構成に限定されるものではなく、種々の構成を採用することができる。例えば、旅券読取装置112は、その読取部に身分事項ページを開いた旅券を利用者Uが押さえるように構成することもできる。この場合、利用者Uは、身分事項ページを開いた旅券をそのページを下に向けて旅券読取装置112の読取部に押さえてかざすことにより、旅券読取装置112にその旅券を読み取らせることができる。
 また、コード読取装置114も、例えば、申告用コードを読み取る読取部を上に向けて設けられている。この場合、利用者Uは、申告用コードを表示させた携帯端末60のディスプレイ610を下に向けてコード読取装置114の読取部にかざすことにより、コード読取装置114に申告用コードを読み取らせることができる。
 なお、コード読取装置114の構成も、上記の構成に限定されるものではなく、種々の構成を採用することができる。例えば、コード読取装置114は、その読取部が上から申告用コード読み取るように構成することもできる。この場合、利用者Uは、申告用コードを表示させた携帯端末60のディスプレイ610を上に向けてコード読取装置114の読取部にかざすことにより、コード読取装置114に申告用コードを読み取らせることができる。
 ポール100の上部には、ディスプレイ110を含む第1筐体126aの上方に位置するようにステータスランプ122が設けられている。ステータスランプ122は、そのステータスランプ122がステータスを示すキオスク端末10の上方に対応して位置するように、ポール100の上部に取り付けられたアーム132の先端部に設けられている。アーム132は、ポール100からキオスク端末10の上方の側に突出している。
 また、アーム132には、キオスク端末10の状況を監視する監視カメラ134が設けられている。監視部として機能する監視カメラ134は、より具体的には、キオスク端末10及びその周辺の様子、キオスク端末10を操作する利用者Uの様子等を撮影して監視する。監視カメラ134は、対応するキオスク端末10に接続され又はネットワークNWに接続されている。監視カメラ134は、キオスク端末10を経由して又は経由せずにネットワークNWを介して、利用者Uの様子を撮影した映像を管理サーバ50に送信することができる。
 CPU102は、記憶装置106に記憶されたプログラムを実行することにより動作し、キオスク端末10全体の動作を制御する制御部として機能する。また、CPU102は、記憶装置106に記憶されたアプリケーションプログラムを実行してキオスク端末10としての各種処理を実行する。RAM104は、CPU102の動作に必要なメモリ領域を提供する。
 より具体的には、CPU102は、キオスク端末10を利用して税関申告を行う利用者Uの顔照合を管理サーバ50に対して要求する照合要求部として機能する。照合要求部としてのCPU102は、利用者Uの顔照合として、利用者Uの撮像顔画像と利用者Uの旅券顔画像との照合を要求する。撮影顔画像は、キオスク端末10の利用時にカメラ116により撮像された利用者Uの顔画像である。旅券顔画像は、旅券読取装置112により利用者Uの旅券から取得された顔画像である。照合を要求するため、CPU102は、撮影顔画像及び旅券顔画像又はこれらから抽出した顔特徴量を照合要求とともに管理サーバ50に送信する。CPU102は、旅券及び申告用コードの少なくとも一方を読み取って利用者Uの撮影顔画像を取得する一方、旅券及び申告用コードの他方を読み取ると、利用者Uの顔照合を管理サーバ50に対して要求することができる。なお、CPU102が撮影顔画像を取得するタイミング及びCPU102が顔照合を要求するタイミングは、これらに限定されるものではなく、それぞれ種々のバリエーションが可能である。
 CPU102は、カメラ116による撮影の間、撮影顔画像における装着物推定を行うことができる。CPU102は、装着物推定により、撮影顔画像におけるマスク、サングラス、眼鏡、帽子等の顔装着物を検知することができる。CPU102は、利用者Uの顔に装着された装着物である顔装着物を検知した場合、利用者Uに対して、顔照合の妨げとなる顔装着物を取り外すように警告を行うことができる。CPU102は、例えば、顔装着物を取り外すように利用者Uに指示する表示をディスプレイ110に表示したり、スピーカー等から顔装着物を取り外すように利用者Uに指示する音声を発したりすることにより警告を行うことができる。
 また、CPU102は、管理サーバ50に対して要求した顔照合の結果を示す情報である照合情報を管理サーバ50から受信して取得する照合情報取得部として機能する。照合情報は、顔照合の結果、旅券顔画像と撮影顔画像とが一致してキオスク端末10で税関申告を行う利用者Uの本人確認に成功したこと、又は一致せずに利用者Uの本人確認に失敗したことを示している。なお、旅券顔画像と撮影顔画像とが一致する場合には、両顔画像の間の類似度を示す照合スコアが所定の閾値を超えて両顔画像が高い類似度を示す場合が含まれる。
 なお、CPU102は、照合要求部及び照合情報取得部として機能することに代えて、利用者Uの顔照合として旅券顔画像と撮影顔画像とを照合して照合情報を取得する照合部として機能することもできる。CPU102は、旅券顔画像と撮像顔画像との照合に際して、旅券顔画像から抽出した顔特徴量と、撮像顔画像から抽出した顔特徴量とを照合することにより、両顔画像を照合することができる。
 また、CPU102は、利用者Uの利用者情報を管理サーバ50に送信する利用者情報送信部として機能する。利用者Uの利用者情報は、互いに関連付けられた利用者Uの身分事項情報、顔情報及び申告情報を含んでいる。
 身分事項情報は、利用者Uの氏名、生年月日等の利用者U個人に関する情報を含んでいる。また、身分事項情報は、利用者Uの旅券の旅券番号、旅券の有効期限等の利用者Uの旅券に関する情報を含んでいる。身分事項情報は、旅券読取装置112により利用者Uの旅券から取得されたものである。
 顔情報は、利用者Uの撮影顔画像及び旅券顔画像である。また、顔情報は、撮像顔画像及び旅券顔画像それら自体でなくてもよく、撮像顔画像及び旅券顔画像からそれぞれ抽出された顔特徴量であってもよい。この場合、CPU102は、撮像顔画像及び旅券顔画像のそれぞれから顔特徴量を抽出する。
 申告情報は、利用者Uが入国する際の税関申告において申告すべき情報を含んでいる。申告情報は、コード読取装置114により、利用者Uの携帯端末60に表示された申告用コードから取得されたものである。申告情報は、上述のように、例えば、利用者Uの氏名、入国する国での現住所又は滞在先、職業、生年月日、旅券番号、搭乗便名、出発地、入国日、税関申告において申告すべき事項等の税関申告に必要な情報を含んでいる。
 なお、管理サーバ50に送信された利用者Uの利用者情報は、後述するように管理サーバ50において利用者情報データベース(DB、Database)506aに登録される。利用者情報に含まれる撮影顔画像又は旅券顔画像は、予め登録された登録生体情報である登録顔画像として利用者情報DB506aに登録される。
 また、CPU102は、キオスク端末10を利用して税関申告を行う利用者Uの申告情報に含まれる申告内容の判定を管理サーバ50に対して要求する判定要求部として機能する。判定要求部としてのCPU102は、管理サーバ50に対して送信した申告情報に含まれる申告内容の判定を要求する。CPU102は、申告情報に含まれる申告内容の判定結果を示す情報である判定情報を管理サーバ50から受信する。
 また、CPU102は、管理サーバ50に対して要求した申告内容の判定結果を示す情報である判定情報を管理サーバ50から受信して取得する判定情報取得部として機能する。判定情報は、判定の結果、利用者Uが課税対象であるか否か、利用者Uにリスクがあるか否かを示している。利用者Uが課税対象である場合とは、例えば、利用者Uが免税の範囲を超える品物を持っている旨の申告が申告内容にある場合、商品貨物又は商品サンプルを持っている旨の申告が申告内容にある場合等である。利用者Uにリスクがある場合とは、例えば、当該国への持ち込みが禁止又は制限されているものを持っている旨の申告が申告内容にある場合、他人から預かったものを持っている旨の申告が申告内容にある場合等である。
 なお、CPU102は、判定要求部及び判定情報取得部として機能することに代えて、利用者Uの申告情報に含まれる申告内容の判定する判定部として機能することもできる。この場合、CPU102は、管理サーバ50と同様に申告情報に含まれる申告内容を判定することができる。
 また、CPU102は、管理サーバ50から受信した照合情報及び判定情報に基づき、利用者Uについて電子化ゲート20の利用可否を判定する判定部として機能する。判定部としてのCPU102は、利用者Uの旅券顔画像と撮影顔画像とが一致し、利用者Uが課税対象でなく、利用者Uにリスクがない場合に、利用者Uが電子化ゲート20を利用できると判定する。一方、CPU102は、利用者Uの旅券顔画像と撮影顔画像とが一致しない場合、利用者Uが課税対象である場合又は利用者Uにリスクがある場合に、利用者Uが電子化ゲート20を利用できないと判定する。
 また、CPU102は、電子化ゲート20の利用可否の判定結果を示す情報であるゲート利用可否情報を管理サーバ50に送信することができる。この場合、管理サーバ50に送信されたゲート利用可否情報は、後述するように管理サーバ50において利用者情報DB506aに利用者情報と関連付けられて登録される。利用者Uの旅券顔画像と撮影顔画像とが一致し、かつ、利用者Uが課税対象でなく、利用者Uにリスクがない場合に、ゲート利用可否情報は、利用者Uが電子化ゲート20を利用可能であることを示す。
 また、CPU102は、キオスク端末10で税関申告を行う利用者Uに対する案内、通知等の画面をディスプレイ110に表示させる表示制御部として機能する。例えば、表示制御部としてのCPU102は、キオスク端末10の利用方法を案内する案内画面をディスプレイ110に表示させる。また、CPU102は、利用者Uの携帯端末60から取得した申告情報に含まれる申告内容を利用者Uが確認し、必要に応じて修正するための申告内容確認画面をディスプレイ110に表示させる。
 また、CPU102は、電子化ゲート20の利用可否の判定結果に応じて、キオスク端末10において税関申告を行った利用者Uに対する処理を行う処理部として機能する。より具体的には、CPU102は、電子化ゲート20の利用可否の判定結果に応じて、利用者Uを電子化ゲート20又は有人ブースMに誘導する誘導画面をディスプレイ110に表示させて、利用者Uを電子化ゲート20又は有人ブースMに誘導する。
 また、CPU102は、キオスク端末10で税関申告を行う利用者Uの携帯端末60に表示された申告用コードから読み取られた言語情報に基づき、キオスク端末10の使用言語を設定する言語設定部として機能する。また、CPU102は、入力装置108を介して、キオスク端末10の使用言語を別の言語に変更する変更入力が利用者Uかから入力された場合、変更入力に応じて使用言語を変更する。なお、キオスク端末10の使用言語は、例えば、ディスプレイ110に各種情報を表示させるとともに、入力装置108からの入力を受け付ける言語である。キオスク端末10は、携帯端末60の税関申告アプリケーションと同様に、例えば、日本語、英語、中国語、韓国語等の多言語に対応している。これにより、キオスク端末10は、複数の言語の中から設定された使用言語で表示及び入力が可能になっている。
 記憶装置106は、不揮発性メモリ、ハードディスクドライブ等の記憶媒体により構成され、記憶部として機能する。記憶装置106は、CPU102により実行されるプログラム、そのプログラムの実行の際にCPU102により参照されるデータ等を記憶する。
 入力装置108は、例えば、ディスプレイ110に組み込まれたタッチパネルである。入力装置108は、利用者Uからの指示の入力を受け付ける入力部として機能する。利用者Uは、入力装置108を介して、キオスク端末10に対して、各種情報を入力したり、処理の実行の指示を入力したりすることができる。
 ディスプレイ110は、キオスク端末10を利用する利用者Uに対して、各種画面を表示する表示部として機能する。例えば、ディスプレイ110は、キオスク端末10の利用方法を案内する案内画面、利用者Uに対する申告内容確認画面、利用者Uに対する誘導画面等を表示する。また、ディスプレイ110は、撮影顔画像と旅券顔画像との照合の結果を示す照合情報、及び申告内容の判定結果を示す判定情報を表示することもできる。
 ディスプレイ110としては、例えば、縦長に設置することができる。縦長のディスプレイ110により、同サイズの横長のディスプレイと同等の情報量の表示を実現しつつ、キオスク端末10の狭小スペースへの設置を実現することができる。さらに、縦長のディスプレイ110により、ディスプレイ110の前に立つ利用者Uの身体によりその背後からのディスプレイ110の覗き見を防止することができる。
 旅券読取装置112は、利用者Uの旅券を読み取って旅券に記録された情報を取得する読取部として機能する。旅券読取装置112は、例えば、イメージスキャナ、非接触IC(Integrated Circuit)リーダ、OCR(Optical Character Reader)装置等により構成されている。旅券読取装置112は、その読取部にかざされた媒体である旅券を読み取って旅券から情報を取得する。
 例えば、旅券読取装置112は、OCR装置により旅券券面に表示された利用者Uの身分事項情報を読み取って取得する。また、例えば、旅券読取装置112は、イメージスキャナにより、旅券券面に表示された利用者Uの旅券顔画像を読み取って取得する。また、IC旅券の場合、旅券読取装置112は、非接触ICリーダにより、IC旅券のICチップに記録された利用者Uの身分事項情報、旅券顔画像等を読み取って取得する。なお、旅券に記録されて含まれる利用者Uの生体情報は、顔画像に限定されるものではなく、虹彩画像等の他の生体情報であってもよい。旅券読取装置112は、旅券に含まれる利用者Uの生体情報を取得することができる。
 コード読取装置114は、利用者Uの携帯端末60に表示された申告用コードを読み取って申告用コードに含まれる申告情報及び言語情報を取得する読取部として機能する。コード読取装置114は、例えば、QRコードリーダ、バーコードリーダ等の読み取るべき申告用コードの種類に応じたコードリーダである。コード読取装置114は、その読取部にかざされたコード表示媒体である携帯端末60に表示された申告用コードを読み取って申告用コードから情報を取得する。
 カメラ116は、キオスク端末10を利用して税関申告を行う利用者Uの生体情報として利用者Uの顔画像を取得する生体情報取得部として機能する。カメラ116は、例えば、キオスク端末10の前の利用者Uの顔を動画又は静止画で撮影するデジタルカメラ等の撮影装置であり、撮影した動画又は静止画から利用者Uの顔画像である撮影顔画像を取得する。カメラ116は、CPU102の制御に従って、後述するように、キオスク端末10の前で旅券読取装置112に旅券を読み取らせ又はコード読取装置114に申告用コードを読み取らせる利用者Uの顔画像を撮影して撮影顔画像を取得する。このように、カメラ116は、旅券及び申告用コードの少なくとも一方を読み取ると、利用者Uの顔画像を撮影して撮影顔画像を取得することができる。なお、カメラ116に代えて、生体情報取得部として、旅券読取装置112により旅券から取得される生体情報と同種の生体情報を利用者Uから取得するものを設けることができる。
 CPU102は、カメラ116により撮影される撮影顔画像における目間の画素数を所定の範囲に設定することができる。この場合、CPU102は、例えば、カメラ116により撮影される顔画像のうち、目間の画素数が所定の画素数未満の顔画像を撮影顔画像の対象から除外することができる。これにより、カメラ116は、キオスク端末10を操作する利用者Uの背後にいる遠方の人を撮影することなく、キオスク端末10を操作する利用者Uを確実に撮影することができる。
 また、CPU102は、カメラ116の撮影可能範囲における両側の所定の範囲をそれぞれマスキングすることができる。これにより、カメラ116は、キオスク端末10を操作する利用者Uの周囲の人の映り込みを防止しつつ、キオスク端末10を操作する利用者Uを確実に撮影することができる。
 なお、キオスク端末10は、カメラ116により撮影された撮影顔画像が、ディスプレイ110等に表示されないように構成することができる。この場合、利用者Uは、キオスク端末10において自身の顔が撮影されたことを認識することはない。このため、利用者Uは、撮影に対する抵抗感を感じることがなく、撮影による心理的圧迫を受けることもなく、キオスク端末10を快適に利用することができる。
 深度カメラ118は、カメラ116により撮影される物体の三次元情報を取得する。CPU102は、深度カメラ118により取得された三次元情報に基づき、カメラ116による利用者Uの撮影顔画像が、生身の人間の撮影から取得されたものであるか、写真等の二次元画像の撮影から取得されたものであるかを判定することができる。これにより、他人へのなりすまし等の不正行為を防止することができる。
 通信部120は、ネットワークNWに接続され、ネットワークNWを介してデータの送受信を行う。通信部120は、CPU102による制御に従って、管理サーバ50等との間の通信を行う。
 ステータスランプ122は、キオスク端末10の状況を示す状況表示部として機能する。より具体的には、ステータスランプ122は、キオスク端末10の状況として、例えば、キオスク端末10での利用者Uの税関申告の進捗状況、キオスク端末10の異常の有無、キオスク端末10の使用の可否等の状況を互いに異なるランプ色で示すことができる。ステータスランプ122は、CPU102による制御に従って、キオスク端末10の状況に応じたランプ色で点灯することができる。なお、ステータスランプ122とポール100との間に、不審な行動を検知するための監視カメラを設けてもよい。この監視カメラは、例えば、旅券読取装置112により旅券が読み取られ又はコード読取装置114により申告用コードが読み取られると撮影を開始するように構成することができる。
 ステータスランプ122は、状況に応じて、例えば、緑色、黄色、赤色、緑色の点滅、黄色の点滅又は赤色の点滅のように異なるランプ色で点灯することができる。この場合、例えば、各ランプ色は、次の状況を示す。すなわち、緑色は、顔照合が整合し、税関情報が問題ない場合を示す。黄色は、顔照合が失敗した場合を示す。赤色は、税関情報に問題がある場合を示す。緑色の点滅は、税関の申告状況が遅い場合を示す。黄色の点滅は、キオスク端末10を含むシステムに問題がある場合を示す。赤色の点滅は、違法な旅券又は顔照合によりブラックリストに該当する人物と判定した場合を示す。なお、これらは例示であり、ランプ色と状況との組み合わせは、他の組み合わせであってもよい。このように、ステータスランプ122は、例えば、旅券読取装置112又はコード読取装置114により読み取られた情報、顔照合の結果及び手続の状況の少なくとも1つに基づいて異なる点灯を行うことができる。また、ディスプレイ110の側部に設けられた上記の照明130も、ステータスランプ122と同様の色で点灯してもよい。照明130も、ステータスランプ122と同様に、例えば、旅券読取装置112又はコード読取装置114により読み取られた情報、顔照合の結果及び手続の状況の少なくとも1つに基づいて異なる点灯を行うことができる。この場合、照明130は、例えば、バイザー128の上面又は上端部に設けることができる。ディスプレイ110の画面内容はバイザー128で周囲から隠れる一方、ランプ色とエラー等の状況との関係を知る職員等の関係者は、ステータスランプ122や照明130の点灯状況に応じて、キオスク端末10の状況を把握することができる。これにより、関係者は、例えば、ディスプレイ110や照明130が赤色で点滅した場合に即時に対応する等、適切に対応することができる。
 こうして、キオスク端末10が構成されている。
 上述のようにして構成されるキオスク端末10は、1本のポール100に1台設置することもできるし、1本のポール100に複数台設置することもできる。図6Bはキオスク端末10が1台設置された場合の構成を示す斜視図であり、図6Aは図6Bの上面図である。図7Bはキオスク端末10が2台設置された場合の構成を示す斜視図であり、図7Aは図7Bの上面図である。図8Bはキオスク端末10が3台設置された場合の構成を示す斜視図であり、図8Aは図8Bの上面図である。
 1本のポール100に1台のキオスク端末10が設置された構成の場合、1台のキオスク端末10は、図6A及び図6Bに示すように、所定の方向を向けてポール100の側部に設置されている。
 また、1本のポール100に複数台のキオスク端末10を設置することにより、情報処理装置群であるキオスク端末群を構成することもできる。
 1本のポール100に2台のキオスク端末10が設置された構成の場合、図7A及び図7Bに示すように、2台のキオスク端末10が、ポール100を中心に放射状に所定の角度間隔でポール100の側部に設置されている。隣接する2台のキオスク端末10の間の角度間隔は、例えば120°になっている。こうして、2台のキオスク端末10を含むキオスク端末群が構成される。
 1本のポール100に3台のキオスク端末10が設置された構成の場合、図8A及び図8Bに示すように、3台のキオスク端末10が、ポール100を中心に放射状に所定の角度間隔でポール100の側部に設置されている。3台のキオスク端末10のうちの隣接する2台のキオスク端末10の間の角度間隔は、例えばそれぞれ120°の等角度になっている。こうして、3台のキオスク端末10を含むキオスク端末群が構成される。
 このように、複数台のキオスク端末10を設置する場合、ポール100を中心に放射状に設置することにより、横方向に直線状に並べて設置するよりも、隣接するキオスク端末10を利用する各利用者U間の間隔をより大きく確保することができる。これにより、隣接するキオスク端末10の前の利用者Uによるキオスク端末10のディスプレイ110の覗き見を困難なものにすることができる。
 なお、複数台のキオスク端末10を放射状に設置する場合、隣接する2台のキオスク端末10の間の角度間隔は、上記の120°に限定されるものではなく、適宜設定することができる。また、1本のポール100に設置するキオスク端末10の台数も、上記の台数に限定されるものではなく、4台以上の複数台であってもよい。
 さらに、キオスク端末10には、ディスプレイ110の両側にディスプレイ110に沿ってバイザー128がそれぞれ設けられている。キオスク端末10では、バイザー128によっても、ディスプレイ110の覗き見が困難なものになっている。
 図9は、図8A及び図8Bに示すように3台のキオスク端末10が設置された構成において、バイザー128による視線の遮りを示している。図9に示すように、キオスク端末10の前の利用者Uにより隣接するキオスク端末10に向ける視線は、図中の破線矢印で示すように、隣接するキオスク端末10に設けられたバイザー128により遮られることになる。こうして、バイザー128によっても、ディスプレイ110の覗き見が困難なものになっている。
 また、1本のポール100に複数台のキオスク端末10を設置する場合、高さ違いで複数台のキオスク端末10を設置することができる。例えば、図10に示すように、3台のキオスク端末10が設置された構成において、1台のキオスク端末10を他の2台のキオスク端末10よりも低い位置に設置することができる。こうして、複数台のキオスク端末10を互いに高さ違いで設置することにより、幅広い身長の利用者Uがキオスク端末10を利用することができる。また、他のキオスク端末10よりも低い位置に設置されたキオスク端末10は、例えば、車いすを使用する利用者Uが、車いすを使用したまま利用することができる。
 なお、キオスク端末10をポール100に取り付けて固定する手段としては、特に限定されるものはなく、種々の手段を用いることができる。例えば、キオスク端末10は、ポール100に設けられた高さの異なる複数段の取付位置のいずれかにビス留めにより固定して設置することができる。また、例えば、キオスク端末10は、キオスク端末10を利用する利用者U自身、キオスク端末10を管理する税関職員等が上下にスライド可能にポール100に設置するともできる。この場合、利用者U等は、ポール100に設置されたキオスク端末10を上下にスライドさせて、キオスク端末10の高さを調整することができる。
 また、キオスク端末10に接続される不図示の電源コード、通信ケーブル等のコード類又はケーブル類は、ポール100内に収納されて隠されている。また、コード類又はケーブル類の余剰部分は、キオスク端末10の筐体126内に収容することができる。
 なお、キオスク端末10は、上記のポール100のほか、支持台、カウンタ等の種々の支持体に設置することができる。
 次に、電子化ゲート20の構成について図11乃至図13を用いて説明する。図11は、電子化ゲート20を構成する入口ゲート端末30及び出口ゲート端末40の外観を示す概略図である。図12は、入口ゲート端末30のハードウェア構成の一例を示すブロック図である。図13は、出口ゲート端末40のハードウェア構成の一例を示すブロック図である。
 電子化ゲート20は、キオスク端末10により電子化ゲート20に誘導された利用者Uについて、電子化ゲート20における顔照合の結果等に基づいて、その通過を許否するゲート装置である。電子化ゲート20の通過を許可された利用者Uは、税関検査場Cを出場することができる。電子化ゲート20の通過を許可されなかった利用者Uは、例えば、税関職員により有人ブースMに誘導されて税関職員による対面での税関検査を受ける等の個別の対応を受けることになる。
 図11に示すように、電子化ゲート20を構成する入口ゲート端末30及び出口ゲート端末40は、それぞれ電子化ゲート20の利用が可能であるとして電子化ゲート20に誘導された利用者Uが通過すべきゲート通路Pの入口及び出口にそれぞれ設置されている。ゲート通路Pは、ゲート通路Pに沿って両側に設置された例えば仕切り板、壁、柵、検査台等により、ゲート通路Pに進入した利用者Uの出口ゲート端末40以外からの退出が制限されている。
 まず、入口ゲート端末30について図11及び図12を用いて説明する。図11に示すように、入口ゲート端末30は、電子化ゲート20に誘導された利用者Uが通過するゲート通路Pの入口に設置されたゲート装置である。入口ゲート端末30は、図12に示すように、CPU302と、RAM304と、記憶装置306と、入口ゲート扉308と、通過検知センサ310と、通信部312と、案内表示器314とを有している。CPU302、RAM304、記憶装置306、入口ゲート扉308、通過検知センサ310、通信部312及び案内表示器314は、バスライン316に接続されている。
 また、図11に示すように、入口ゲート端末30は、ゲート通路Pの入口を挟んで対向するように設置された一対の筐体318を有している。一対の筐体318には、一対の筐体318の間を閉鎖可能に入口ゲート扉308が設けられている。また、一対の筐体318には、ゲート通路Pに進入する方向に並ぶように複数の通過検知センサ310が設けられている。また、一対の筐体318には、ゲート通路Pの外側である入口ゲート端末30の前方に向けられた案内表示器314が設けられている。CPU302、RAM304、記憶装置306及び通信部312は、筐体318に収容されていてもよいし、筐体318とは別個の筐体に収容されていてもよい。
 CPU302は、記憶装置306に記憶されたプログラムを実行することにより動作し、入口ゲート端末30全体の動作を制御する制御部として機能する。また、CPU302は、記憶装置306に記憶されたアプリケーションプログラムを実行して、入口ゲート端末30としての各種処理を実行する。RAM304は、CPU302の動作に必要なメモリ領域を提供する。
 より具体的には、CPU302は、複数の通過検知センサ310の出力信号及びそれらの出力順に基づき、利用者Uが入口ゲート端末30を通過してゲート通路Pに進入したか否かを判定する判定部として機能する。
 また、CPU302は、入口ゲート扉308の開扉動作及び閉扉動作を制御する扉制御部として機能する。CPU302は、ゲート通路Pに利用者Uが進入していない場合、入口ゲート扉308を開扉状態に維持する。また、CPU302は、通過検知センサ310の出力信号に基づき利用者Uが入口ゲート端末30を通過してゲート通路Pに進入したと判定すると、入口ゲート扉308を閉扉する。また、CPU302は、ゲート通路Pに進入した利用者Uが出口ゲート端末40を通過してゲート通路Pから退出したと判定するまで、入口ゲート扉308を閉扉状態に維持する。また、CPU302は、出口ゲート端末40から送信される出口通過情報により、利用者Uがゲート通路Pから退出したと判定する。CPU302は、利用者Uがゲート通路Pから退出したと判定すると、入口ゲート扉308を開扉する。
 また、CPU302は、上述のように利用者Uが入口ゲート端末30を通過してゲート通路Pに進入したと判定すると、利用者Uが入口ゲート端末30を通過してゲート通路Pに進入したことを示す入口通過情報を出口ゲート端末40に送信する。
 また、CPU302は、入口ゲート扉308の開閉状態に応じて案内表示器314の表示を制御する表示制御部として機能する。CPU302は、入口ゲート扉308が開扉された状態である場合、ゲート通路Pへの進入が許可されていることを示す表示を案内表示器314に表示させる。また、CPU302は、入口ゲート扉308が閉扉された状態である場合、ゲート通路Pへの進入が禁止されていることを示す表示を案内表示器314に表示させる。
 記憶装置306は、不揮発性メモリ、ハードディスクドライブ等の記憶媒体により構成され、記憶部として機能する。記憶装置306は、CPU302により実行されるプログラム、そのプログラムの実行の際にCPU302により参照されるデータ等を記憶する。
 入口ゲート扉308は、CPU302による制御に従って、開扉動作及び閉扉動作を行う開閉扉であり、利用者Uの通過を許す開扉状態と利用者Uの通過を遮る閉扉状態との間を移行する。入口ゲート扉308の開閉方式は、特に限定されるものではないが、例えば、フラッパー式、スライド式、回転式等である。
 通過検知センサ310は、利用者Uの通過を検知すると、利用者Uの通過を示す出力信号を出力する。CPU302は、ゲート通路Pに進入する方向に並ぶように一対の筐体318に設けられた複数の通過検知センサ310の出力信号及びそれらの出力順に基づき、利用者Uが入口ゲート端末30を通過してゲート通路Pに進入したか否かを判定することができる。通過検知センサ310は、特に限定されるものではないが、例えば、透過型の光電センサ、反射型の光電センサ等である。透過型の光電センサは、赤外線等の光を照射する照射部と、照射部により照射された光を受光する受光部とを有し、受光部で受光する光の変化に基づき、物体の通過を示す出力信号を出力する。
 通信部312は、ネットワークNWに接続され、ネットワークNWを介してデータの送受信を行う。通信部312は、CPU302による制御に従って、出口ゲート端末40等との間の通信を行う。なお、通信部312は、ネットワークNWを介さずに、出口ゲート端末40と通信可能に出口ゲート端末40と接続されていてもよい。
 案内表示器314は、CPU302による制御に従って、ゲート通路Pへの進入の許否を示す表示を表示する。案内表示器314は、入口ゲート扉308が開扉された状態の場合、ゲート通路Pへの進入が許可されていることを示す表示を表示する。また、案内表示器314は、入口ゲート扉308が閉扉された状態の場合、ゲート通路Pへの進入が禁止されていることを示す表示を表示する。案内表示器314は、例えば、色表示、記号表示、文字表示等により、ゲート通路Pへの進入の許否を示す表示を表示することができる。
 こうして、入口ゲート端末30が構成されている。
 次に、出口ゲート端末40の構成について図11及び図13を用いて説明する。図11に示すように、出口ゲート端末40は、電子化ゲート20に誘導された利用者Uが通過する通路であるゲート通路Pの出口に設置されたゲート装置である。また、出口ゲート端末40は、図13に示すように、CPU402と、RAM404と、記憶装置406と、ディスプレイ408とを有している。さらに、出口ゲート端末40は、第1カメラ410と、第2カメラ412と、出口ゲート扉414と、通過検知センサ416と、通信部418と、案内表示器420とを有している。CPU402、RAM404、記憶装置406、ディスプレイ408、第1カメラ410、第2カメラ412、出口ゲート扉414、通過検知センサ416、通信部418及び案内表示器420は、バスライン422に接続されている。
 また、図11に示すように、出口ゲート端末40は、ゲート通路Pの出口を挟んで対向するように設置された一対の筐体424を有している。一対の筐体424には、一対の筐体424の間を閉鎖可能に出口ゲート扉414が設けられている。また、一対の筐体424には、ゲート通路Pから退出する方向に並ぶように複数の通過検知センサ416が設けられている。また、一対の筐体424には、ゲート通路Pの内側である出口ゲート端末40の前方に向けられた案内表示器420が設けられている。CPU402、RAM404、記憶装置406及び通信部418は、筐体424に収容されていてもよいし、筐体424とは別個の筐体に収容されていてもよい。
 また、一対の筐体424の一方の上には、ディスプレイ408が設置されている。ディスプレイ408は、例えば、その画面が出口ゲート端末40前のゲート通路P中央を向くように設置されている。ディスプレイ408の画面側の下部及び上部には、それぞれ第1カメラ410及び第2カメラ412が設けられている。なお、ディスプレイ408の設置位置は、特に限定されるものではなく、ゲート通路Pにおける利用者Uがディスプレイ408を見ることが可能な位置であればよい。
 第1カメラ410は、入口ゲート端末30と出口ゲート端末40との間のゲート通路P内を少なくとも撮影可能範囲とし、第2カメラ412よりも遠距離までを撮影可能な遠距離カメラである。第2カメラ412は、出口ゲート端末40の前を少なくとも撮影可能範囲とする近距離カメラである。なお、第1カメラ410及び第2カメラ412が設けられる位置は、特に限定されるものではなく、それぞれの撮影可能範囲を実現可能な位置であればよい。
 第1カメラ410は、入口ゲート端末30から出口ゲート端末40に向かってゲート通路Pを移動する利用者Uを撮影してその顔画像を第1対象顔画像として取得する。第2カメラ412は、必要に応じて、ゲート通路Pを移動して出口ゲート端末40到達して出口ゲート扉414の前にいる利用者Uを撮影してその顔画像を第2対象顔画像として取得する。第1カメラ410による利用者Uの撮影は、利用者Uに意識させることなく行われる。一方、第2カメラ412による利用者Uの撮影は、例えばディスプレイ408の表示等により撮影の通知を受けた利用者Uに対して行われる。出口ゲート端末40は、第1カメラ410により利用者Uに意識させることなく撮影された第1対象顔画像を用いた顔照合により本人確認を行う非積極認証を行うことができる。また、出口ゲート端末40は、非積極認証に失敗した場合に、第2カメラ412により利用者Uが意識して撮影された第2対象顔画像を用いた顔照合により本人確認を行う積極認証を行うことができる。
 CPU402は、記憶装置406に記憶されたプログラムを実行することにより動作し、出口ゲート端末40全体の動作を制御する制御部として機能する。また、CPU402は、記憶装置406に記憶されたアプリケーションプログラムを実行して、出口ゲート端末40としての各種処理を実行する。RAM404は、CPU402の動作に必要なメモリ領域を提供する。
 より具体的には、CPU402は、入口ゲート端末30を通過してゲート通路Pに進入した利用者Uの顔照合を管理サーバ50に対して要求する照合要求部として機能する。
 照合要求部としてのCPU402は、第1カメラ410により撮影された利用者Uの顔画像である第1対象顔画像と、管理サーバ50の利用者情報DB506aに登録された複数の登録顔画像とを1:Nで照合することを管理サーバ50に対して要求する。このため、CPU402は、第1対象顔画像から抽出された顔特徴量又は第1対象顔画像自体を照合要求とともに管理サーバ50に送信する。
 なお、CPU402は、第1対象顔画像の品質を示す品質値を計算し、計算した品質値が所定の閾値以上であるか否かを判定する品質判定部として機能することができる。品質値は、第1対象顔画像の品質がより高いほどより大きな値に設定することができる。照合要求部としてのCPU402は、品質値が所定の閾値以上の高品質の第1対象顔画像について、登録顔画像との照合を管理サーバ50に対して要求することができる。なお、品質値は、第1対象顔画像の品質がより高いほどより小さな値に設定することもできる。この場合、品質判定部としてのCPU402は、計算した品質値が所定の閾値以下であるか否かを判定することができる。また、この場合、照合要求部としてのCPU402は、品質値が所定の閾値以下の高品質の第1対象顔画像について、登録顔画像との照合を管理サーバ50に対して要求することができる。このように、CPU402は、第1対象顔画像の品質を判定し、一定の品質以上の高品質の第1対象顔画像について、登録顔画像との照合を要求することができる。
 第1対象顔画像は、利用者Uに意識させることなく第1カメラ410により撮影される。このため、第1対象顔画像として一定以上の品質値のものが得られない場合や、マスク、サングラス、眼鏡、帽子等の利用者Uの顔に装着された顔装着物により、第1対象顔画像を用いた顔照合が不一致となる場合がある。これらの場合、照合要求部としてのCPU402は、第2カメラ412により撮影された利用者Uの顔画像である第2対象顔画像と、利用者情報DB506aに登録された複数の登録顔画像とを1:Nで照合することを管理サーバ50に対して要求する。このため、CPU402は、第2対象顔画像から抽出された顔特徴量又は第2対象顔画像自体を照合要求とともに管理サーバ50に送信する。
 また、CPU402は、第1カメラ410による撮影の間の利用者Uの顔の状態に応じて利用者Uに対する警告を行う警告部として機能する。より具体的には、CPU402は、例えば次のようにして警告を行うことができる。
 まず、CPU402は、第1カメラ410による撮影の間、第1対象顔画像における視線検出を行うことができる。CPU402は、視線検出により第1対象顔画像から検出された利用者Uの視線の状況に応じて警告を行うことができる。すなわち、CPU402は、視線検出の結果、利用者Uが下又は横を向いていると判定すると、利用者Uに対して、出口ゲート端末40の側である前を向くように警告を行うことができる。CPU402は、例えば、前を向くように利用者Uに顔の向きの変更を指示する表示をディスプレイ408に表示したり、スピーカー等から前を向くように利用者Uに顔の向きの変更を指示する音声を発したりすることにより警告を行うことができる。この場合、ディスプレイ408による警告の表示は、不要な顔照合の失敗を防ぐため、顔照合を行う前に行うことができる。
 また、CPU402は、第1カメラ410による撮影の間、撮影された第1対象顔画像における装着物推定を行うことができる。CPU402は、装着物推定により、第1対象顔画像におけるマスク、サングラス、眼鏡、帽子等の顔装着物を検知することができる。CPU402は、顔装着物を検知した場合、利用者Uに対して、顔照合の妨げとなる顔装着物を取り外すように警告を行うことができる。CPU402は、例えば、顔装着物を取り外すように利用者Uに指示する表示をディスプレイ408に表示したり、スピーカー等から顔装着物を取り外すように利用者Uに指示する音声を発したりすることにより警告を行うことができる。この場合、ディスプレイ408による警告の表示は、不要な顔照合の失敗を防ぐため、顔照合を行う前に行うことができる。
 また、CPU402は、管理サーバ50に対して要求した第1対象顔画像又は第2顔画像の顔照合の結果を示す照合情報を管理サーバ50から取得する照合情報取得部として機能する。照合情報は、照合の結果、第1対象顔画像又は第2対象顔画像と一致する登録顔画像が発見されて利用者Uの本人確認に成功したこと、又は一致する登録顔画像が発見されずに利用者Uの本人確認に失敗したことを示している。なお、第1対象顔画像又は第2対象顔画像と登録顔画像とが一致する場合には、両顔画像の間の類似度を示す照合スコアが所定の閾値を超えて両顔画像が高い類似度を示す場合が含まれる。
 なお、CPU402は、照合要求部及び照合情報取得部として機能することに代えて、第1対象顔画像又は第2対象顔画像と利用者情報DB506aの登録顔画像とを1:Nで照合して照合情報を出力する照合部として機能するように構成することもできる。この場合、CPU402は、管理サーバ50の利用者情報DB506aを参照して、又は利用者情報DB506aと同期されて記憶装置406に格納された利用者情報DBを参照して顔画像の照合を行うことができる。
 また、CPU402は、顔照合による利用者Uの本人確認に成功した場合に、その利用者Uの利用者情報と関連付けられたゲート利用可否情報を管理サーバ50から取得する情報取得部として機能することができる。ゲート利用可否情報は、上述のように、利用者Uについて電子化ゲート20の利用可否の判定結果を示す情報である。
 また、CPU402は、第1対象顔画像又は第2対象顔画像の顔照合の照合結果、及び電子化ゲート20の利用可否の判定結果に基づき、ゲート通路P内の利用者Uについて電子化ゲート20の通過の可否を判定する判定部として機能する。判定部としてのCPU402は、第1対象顔画像又は第2対象顔画像の顔照合が一致して利用者Uの本人確認に成功し、かつ、その利用者Uが電子化ゲート20を利用可能である場合に、電子化ゲート20の通過が可能であると判定する。本人確認に成功した場合とは、第1対象顔画像又は第2対象顔画像と、キオスク端末10で取得された撮影顔画像又は旅券顔画像である登録顔画像とが一致した場合である。利用者Uが電子化ゲート20を利用可能である場合とは、一致した登録顔画像を含む利用者情報と関連付けられ、利用者Uが電子化ゲート20を利用可能であることを示すゲート利用可否情報が存在する場合である。
 また、CPU402は、出口ゲート扉414の開扉動作及び閉扉動作を制御する扉制御部として機能する。CPU402は、利用者Uについて電子化ゲート20の通過が可能であると判定すると、通常状態が閉扉状態である出口ゲート扉414を開扉する。また、CPU402は、通過検知センサ416の出力信号に基づき利用者Uが出口ゲート端末40を通過してゲート通路Pから退出したと判定すると、出口ゲート扉414を閉扉する。
 また、CPU402は、複数の通過検知センサ416の出力信号及びそれらの出力順に基づき、利用者Uが出口ゲート端末40を通過してゲート通路Pから退出したか否かを判定する判定部として機能する。
 また、CPU402は、上述のように利用者Uが出口ゲート端末40を通過してゲート通路Pから退出したと判定すると、利用者Uが出口ゲート端末40を通過してゲート通路Pから退出したことを示す出口通過情報を入口ゲート端末30に送信する。
 また、CPU402は、ディスプレイ408の表示を制御する表示制御部として機能する。CPU402は、ゲート通路P内の利用者Uに対する各種通知をディスプレイ408に表示させることができる。例えば、CPU402は、ゲート通路P内の利用者Uに対して、マスク、サングラス、眼鏡、帽子等の顔照合の障害となる顔装着物を取り外すことように指示する警告をディスプレイ408に表示させることができる。また、例えば、CPU402は、出口ゲート扉414の前に留まる利用者Uに対して、必要に応じて、第2カメラ412により顔画像を撮影する旨の通知をディスプレイ408に表示させることができる。CPU402は、第1対象顔画像と登録顔画像との照合が不一致である場合又はその照合ができない場合に、利用者Uに対して出口ゲート扉414の前に留まるようにディスプレイ408に表示させることができる。この場合、CPU402は、さらに、利用者Uに対して出口ゲート扉414の前に留まりディスプレイ408を見るようにディスプレイ408に表示させることもできる。これにより、第2カメラ412により利用者Uの顔画像を撮影することができるように利用者Uを誘導することができる。
 また、CPU402は、出口ゲート扉414の開閉状態に応じて案内表示器420の表示を制御する表示制御部として機能する。CPU402は、出口ゲート扉414が開扉された状態の場合、ゲート通路Pからの退出が許可されていることを示す表示を案内表示器420に表示させる。また、CPU402は、出口ゲート扉414が閉扉された状態である場合、ゲート通路Pからの退出が禁止されていることを示す表示を案内表示器420に表示させる。
 記憶装置406は、不揮発性メモリ、ハードディスクドライブ等の記憶媒体により構成され、記憶部として機能する。記憶装置406は、CPU402により実行されるプログラム、そのプログラムの実行の際にCPU402により参照されるデータ等を記憶する。
 ディスプレイ408は、ゲート通路P内の利用者Uに対して、各種画面を表示する表示部として機能する。例えば、ディスプレイ408は、マスク、サングラス、眼鏡、帽子等の顔照合の障害となる顔装着物を取り外すことように指示する警告を表示する。また、例えば、ディスプレイ408は、必要に応じて、第2カメラ412により顔を撮影する旨の通知を表示する。具体的には、ディスプレイ408は、第1カメラ410により撮影された第1対象顔画像では照合ができなかった場合に、積極認証ができるようにディスプレイ408の前に立ち止まって第2カメラ412の方向に注目するように利用者に指示する表示を表示する。例えば、ディスプレイ408は、顔認証を行うのでディスプレイ408の前に立ち止まって、第2カメラ412のほうを見てください等との表示を表示することができる。また、ディスプレイ408は、動いている利用者Uの顔画像である第1対象顔画像による非積極認証の照合結果、静止している利用者Uの顔画像である第2対象顔画像による積極認証の照合結果を表示することができる。
 第1カメラ410は、ゲート通路Pに進入してゲート通路Pを出口ゲート端末40に向かって移動する利用者Uを撮影して、利用者Uの生体情報として利用者Uの顔画像である第1対象顔画像を取得する生体情報取得部として機能する。第1カメラ410により撮影される第1対象顔画像は、動いている利用者Uの顔画像である。第1カメラ410は、例えば、ゲート通路Pを移動する利用者Uを動画又は静止画で撮影するデジタルカメラ等の撮影装置であり、撮影した動画又は静止画から利用者Uの第1対象顔画像を取得する。第1カメラ410は、上述のように、入口ゲート端末30と出口ゲート端末40との間のゲート通路P内を少なくとも撮影可能範囲とし、第2カメラ412よりも遠距離までを撮影可能な遠距離カメラである。第1カメラ410は、利用者Uに撮影されていることを意識させることなく利用者Uを撮影する。なお、第1カメラ410に代えて、生体情報取得部として、管理サーバ50の利用者情報DB506aに登録された登録生体情報と同種の生体情報を利用者Uから取得するものを設けることができる。
 第2カメラ412は、必要に応じて、ゲート通路Pを移動して出口ゲート端末40の出口ゲート扉414に到達して立ち止まった利用者Uを撮影して、利用者Uの生体情報として利用者Uの顔画像である第2対象顔画像を取得する生体情報取得部として機能する。第2カメラ412により撮影される第2対象顔画像は、静止している利用者Uの顔画像である。第2カメラ412は、例えば、出口ゲート扉414の前の利用者Uを動画又は静止画で撮影するデジタルカメラ等の撮影装置であり、撮影した動画又は静止画から利用者Uの第2対象顔画像を取得する。第2カメラ412は、上述のように、出口ゲート端末40の前を少なくとも撮影可能範囲とする近距離カメラである。第2カメラ412は、例えばディスプレイ408の表示、音声案内等により撮影の通知を受けた利用者Uを撮影する。第2カメラ412は、所定の場合に、出口ゲート扉414の前に留まる利用者Uから、登録顔画像と照合する第2対象顔画像を取得する。ここにいう所定の場合とは、後述するように、第1対象顔画像と登録顔画像との照合が不一致である場合又はその照合ができない場合である。具体的には、所定の場合とは、閉扉状態の出口ゲート扉414に向かって移動する利用者Uの顔の向きが出口ゲート扉414を向いていない場合、利用者Uの顔に装着物が装着されていた場合等である。なお、第2カメラ412に代えて、生体情報取得部として、管理サーバ50の利用者情報DB506aに登録された登録生体情報と同種の生体情報を利用者Uから取得するものを設けることができる。
 出口ゲート扉414は、CPU402による制御に従って、開扉動作及び閉扉動作を行う開閉扉であり、利用者Uの通過を遮る閉扉状態と利用者Uの通過を許す開扉状態との間を移行する。出口ゲート扉414の開閉方式は、特に限定されるものではないが、例えば、フラッパー式、スライド式、回転式等である。
 通過検知センサ416は、利用者Uの通過を検知すると、利用者Uの通過を示す出力信号を出力する。CPU402は、ゲート通路Pに退出する方向に並ぶように一対の筐体424に設けられた複数の通過検知センサ416の出力信号及びそれらの出力順に基づき、利用者Uが出口ゲート端末40を通過してゲート通路Pから退出したか否かを判定することができる。通過検知センサ416は、特に限定されるものではないが、入口ゲート端末30の通過検知センサ310と同様に、例えば、透過型の光電センサ、反射型の光電センサ等である。
 通信部418は、ネットワークNWに接続され、ネットワークNWを介してデータの送受信を行う。通信部418は、CPU402による制御に従って、管理サーバ50、入口ゲート端末30等との間の通信を行う。なお、通信部418は、ネットワークNWを介さずに、入口ゲート端末30と通信可能に入口ゲート端末30と接続されていてもよい。
 案内表示器420は、CPU402による制御に従って、ゲート通路Pからの退出の許否を示す表示を表示する。案内表示器420は、出口ゲート扉414が閉扉された状態の場合、ゲート通路Pからの退出が禁止されていることを示す表示を表示する。また、案内表示器420は、出口ゲート扉414が開扉された状態の場合、ゲート通路Pからの退出が許可されていることを示す表示を表示する。案内表示器420は、例えば、色表示、記号表示、文字表示等により、ゲート通路Pからの退出の許否を示す表示を表示することができる。
 こうして、出口ゲート端末40が構成されている。
 次に、管理サーバ50の構成について図14を用いて説明する。図14は、管理サーバ50のハードウェア構成の一例を示すブロック図である。
 管理サーバ50は、情報処理システム1を管理し、第1対象顔画像又は第2対象顔画像と利用者情報DB506aの複数の登録顔画像との照合、申告情報に含まれる申告内容の判定等を行う情報処理装置である。なお、管理サーバ50の機能は、単一のサーバにより実現されてもよいし、複数のサーバにより実現されてもよい。
 管理サーバ50は、図14に示すように、CPU502と、RAM504と、記憶装置506と、通信部508とを有している。CPU502、RAM504、記憶装置506及び通信部508は、バスライン510に接続されている。
 CPU502は、記憶装置506に記憶されたプログラムを実行することにより動作し、管理サーバ50全体の動作を制御する制御部として機能する。また、CPU502は、記憶装置506に記憶されたアプリケーションプログラムを実行して、管理サーバ50としての各種処理を実行する。RAM504は、CPU502の動作に必要なメモリ領域を提供する。
 より具体的には、CPU502は、キオスク端末10から利用者Uの顔照合を要求する照合要求を受信した場合に、利用者Uの顔照合を行う照合部として機能する。照合部としてのCPU502は、利用者情報に含まれる撮影顔画像と旅券顔画像とを1:1で照合する。CPU502は、撮影顔画像と旅券顔画像との照合に際して、撮影顔画像から抽出した顔特徴量と、旅券顔画像から抽出した顔特徴量とを照合することにより、両顔画像を照合することができる。
 また、CPU502は、照合要求を送信したキオスク端末10に対して、利用者Uの顔照合の結果を示す照合情報を送信する送信部として機能する。照合情報は、照合一致又は照合不一致を示している。すなわち、照合情報は、照合の結果、撮影顔画像と旅券顔画像とが一致して税関申告を行う利用者Uの本人確認に成功したこと、又は撮影顔画像と旅券顔画像とが一致せずに利用者Uの本人確認に失敗したことを示している。
 また、CPU502は、キオスク端末10から利用者Uの利用者情報を受信した場合に、利用者Uの申告情報に含まれる申告内容を判定する判定部として機能する。判定部としてのCPU502は、利用者Uの申告情報に含まれる申告内容から、利用者Uが課税対象であるか否か、利用者Uにリスクがあるか否かを判定する。利用者Uが課税対象である場合及び利用者Uにリスクがある場合は、それぞれ上述したとおりである。
 また、CPU502は、利用者情報を送信したキオスク端末10に対して、利用者Uの申告情報に含まれる申告内容の判定結果を示す判定情報を送信する送信部として機能する。判定情報は、上述のように、判定の結果、利用者Uが課税対象であるか否か、利用者Uにリスクがあるか否かを示している。
 CPU502は、キオスク端末10から受信した利用者Uの利用者情報を記憶装置506に記憶して管理する情報管理部として機能する。情報管理部としてのCPU502は、キオスク端末10から受信した利用者情報を、記憶装置506に格納された利用者情報DB506aに登録して管理する。CPU502は、キオスク端末10から利用者情報を受信するたびに、受信した利用者情報を利用者情報DB506aに登録する。
 利用者Uの利用者情報は、上述したように、互いに関連付けられた利用者Uの身分事項情報、顔情報及び申告情報を含んでいる。顔情報は、キオスク端末10で取得された撮影顔画像及び旅券顔画像又はこれらから抽出した顔特徴量である。利用者情報DB506aに登録された撮影顔画像又は旅券顔画像は、予め登録された登録生体情報である登録顔画像として用いられる。登録顔画像としては、撮影顔画像及び旅券顔画像のいずれを用いることもできるが、旅券顔画像よりも新しい撮影顔画像を登録顔画像として用いることができる。利用者情報DB506aに登録された撮影顔画像若しくは旅券顔画像である登録顔画像又はその顔特徴量は、電子化ゲート20における利用者Uの本人確認のための顔照合に用いられる。
 また、CPU502は、キオスク端末10からゲート利用可否情報を受信した場合に、利用者情報DB506aに利用者情報と関連付けてゲート利用可否情報を登録する。ゲート利用可否情報は、上述のように、税関申告を行う利用者Uについて電子化ゲート20の利用可否の判定結果を示す情報である。
 なお、CPU502は、ゲート利用可否情報に基づき、電子化ゲート20の利用が可能と判定された利用者Uの利用者情報について、利用者情報DB506aに登録することもできる。すなわち、CPU502は、電子化ゲート20を利用できないと判定された利用者Uの利用者情報については、利用者情報DB506aに登録しないこともできる。
 また、CPU502は、キオスク端末10からゲート利用可否情報を受信することに代えて、キオスク端末10と同様に利用者Uの電子化ゲート20の利用可否を判定してゲート利用可否情報を取得することもできる。
 また、CPU502は、利用者情報DB506aの利用者情報を、その登録から一定時間経過後に削除することができる。例えば、CPU502は、税関検査場Cにおいてキオスク端末10での税関申告の完了から電子化ゲート20を通過するまでに通常要する時間の経過後に利用者情報を削除することができる。
 また、CPU502は、出口ゲート端末40から利用者Uの顔照合を要求する照合要求を受信した場合に、利用者Uの顔照合を行う照合部として機能する。照合部としてのCPU502は、第1対象顔画像若しくは第2対象顔画像又はその顔特徴量と、利用者情報DB506aに登録された複数の登録顔画像又はそれらの顔特徴量とを1:Nで照合する。CPU502は、第1対象顔画像又は第2対象顔画像と登録顔画像との照合に際して、第1対象顔画像又は第2対象顔画像から抽出した顔特徴量と、登録顔画像から抽出した顔特徴量とを照合することにより、両顔画像を照合することができる。
 照合部としてのCPU502は、第1対象顔画像又は第2対象顔画像と複数の登録顔画像との照合により、複数の登録顔画像の中から、第1対象顔画像又は第2対象顔画像と一致する登録顔画像の発見を試みる。また、CPU502は、第1対象顔画像又は第2対象顔画像の顔特徴量と複数の登録顔画像の顔特徴量との照合により、複数の登録顔画像の顔特徴量の中から、第1対象顔画像又は第2対象顔画像の顔特徴量と一致する登録顔画像の顔特徴量の発見を試みる。なお、第1対象顔画像又は第2対象顔画像と登録顔画像とが一致する場合には、両顔画像の間の類似度を示す照合スコアが所定の閾値を超えて両顔画像が高い類似度を示す場合が含まれる。また、第1対象顔画像又は第2対象顔画像の顔特徴量と登録顔画像の顔特徴量とが一致する場合には、両顔特徴量の間の類似度を示す照合スコアが所定の閾値を超えて両顔特徴量が高い類似度を示す場合が含まれる。
 CPU502は、照合要求を送信した出口ゲート端末40に対して、照合の結果を示す照合情報を送信する送信部として機能する。照合情報は、照合一致又は照合不一致を示している。すなわち、照合情報は、照合の結果、第1対象顔画像又は第2対象顔画像と一致する登録顔画像が発見されて利用者Uの本人確認に成功したこと、又は一致する登録顔画像が発見されずに利用者Uの本人確認に失敗したことを示している。また、照合情報は、照合の結果、第1対象顔画像又は第2対象顔画像の顔特徴量と一致する登録顔画像の顔特徴量が発見されて利用者Uの本人確認に成功したこと、又は一致する登録顔画像の顔特徴量が発見されずに利用者Uの本人確認に失敗したことを示している。なお、CPU502は、第1対象顔画像若しくは第2対象顔画像又はその顔特徴量と一の登録顔画像又はその顔特徴量との照合を行うことがありうる。
 CPU502は、第1対象顔画像又は第2対象顔画像と一致した登録顔画像又はその登録顔画像を含む利用者情報を利用者情報DB506aから削除することができる。また、CPU502は、第1対象顔画像の顔特徴量又は第2対象顔画像の顔特徴量と一致した登録顔画像の顔特徴量又はその登録顔画像の顔特徴量を含む利用者情報を利用者情報DB506aから削除することができる。
 また、CPU502は、必要に応じて、出口ゲート端末40に対して、必要に応じてゲート利用可否情報を送信する送信部として機能する。
 記憶装置506は、不揮発性メモリ、ハードディスクドライブ等の記憶媒体により構成され、記憶部として機能する。記憶装置506は、CPU502により実行されるプログラム、そのプログラムの実行の際にCPU502により参照されるデータ等を記憶する。
 また、記憶装置506は、利用者情報DB506aを格納している。利用者情報DB506aには、キオスク端末10で税関申告を行った複数の利用者Uの利用者情報が登録されている。また、利用者情報DB506aには、利用者情報に関連付けられて利用者Uのゲート利用可否情報が登録されている。
 通信部508は、ネットワークNWに接続され、ネットワークNWを介してデータの送受信を行う。通信部508は、CPU502による制御に従って、キオスク端末10、出口ゲート端末40等との間の通信を行う。
 こうして、管理サーバ50が構成されている。
 本実施形態によるキオスク端末10は、ディスプレイ110と旅券読取装置112及びコード読取装置114との間に設けられたカメラ116により、キオスク端末10を操作する利用者Uを撮影する。利用者Uは、ディスプレイ110を見たり、旅券読取装置112に旅券をかざし又はコード読取装置114に携帯端末60をかざしたりする際に、カメラ116の方に顔を向けることになる。これにより、キオスク端末10は、旅券読取装置112による旅券の読取り又はコード読取装置114による申告用コードの読取りと並行して読取りの間に、利用者Uの顔をカメラ116により撮影して撮影顔画像を取得する。利用者Uは必然的にディスプレイ110と旅券読取装置112及びコード読取装置114との間に設けられたカメラ116に顔を向けるため、利用者Uのキオスク端末10の操作を中断させてカメラ116に顔を向けさせる必要はない。また、キオスク端末10は、旅券読取装置112による旅券の読取りとコード読取装置114による申告用コードの読取りとを同時に又は任意の順序で実行することができる。
 したがって、本実施形態によるキオスク端末10によれば、旅券の読取り、申告用コードの読取り及び顔照合に用いる撮影顔画像の取得を含むキオスク端末10での手続を短時間で完了することができる。また、キオスク端末10は、旅券又は申告用コードの読取りの間に利用者Uの顔を撮影することができるので、利用者Uに撮影を意識させることがなく、よって利用者Uの心理的負担を軽減することができる。
 また、本実施形態による電子化ゲート20の出口ゲート端末40は、出口ゲート端末40に向かって移動する利用者Uを第1カメラ410で撮影して取得した第1対象顔画像と、管理サーバ50の利用者情報DB506aに登録された登録顔画像とを照合する。第1対象顔画像は、利用者Uが止まることなく取得することができる。したがって、本実施形態による電子化ゲート20によれば、第1対象顔画像を用いて利用者Uの顔照合を効率よく行うことができる。これにより、利用者Uが電子化ゲート20の通過に要する時間を短縮することができる。また、出口ゲート端末40は、第1対象顔画像の照合が不一致であった場合又は照合ができなかった場合に、出口ゲート扉414の前に留まる利用者Uを第2カメラ412で撮影して取得した第2対象顔画像と登録顔画像とを照合する。したがって、本実施形態による電子化ゲート20によれば、利用者Uの顔照合による本人確認を確実に行うことができる。
 さらに、本実施形態による電子化ゲート20の出口ゲート端末40は、予め判定されたゲート利用可否の判定結果に応じて、出口ゲート扉414を開扉する。したがって、本実施形態による電子化ゲート20によれば、利用者Uが電子化ゲート20の通過に要する時間を短縮することができる。
 以下、本実施形態による情報処理システム1における各構成要素の動作及びこれらの動作を実現する制御方法についてさらに図15A乃至図20を用いて説明する。
 まず、キオスク端末10の動作について管理サーバ50の動作とともに図15A乃至図18Cを用いて説明する。図15Aは、携帯端末60における申告情報入力画面の一例を示す概略図である。図15Bは、携帯端末60における申告用コード表示画面の一例を示す概略図である。図16は、キオスク端末10及び管理サーバ50の動作を示すシーケンス図である。図17は、キオスク端末10の言語設定動作を示すシーケンス図である。図18Aは、キオスク端末10における受付画面の一例を示す概略図である。図18Bは、キオスク端末10における申告内容確認画面の一例を示す概略図である。図18Cは、キオスク端末10における誘導画面の一例を示す概略図である。
 例えば、航空機で外国から空港に到着した利用者Uは、入国審査場での入国審査、手荷物受取場での受託手荷物の受取り等を経て、税関申告を行うべく税関検査場Cに向かう。利用者Uは、携帯端末60で実行された税関申告アプリケーションにおいて、申告情報を入力し、申告情報を含む申告用コードを生成して表示させる。なお、利用者Uは、キオスク端末10を利用するまでに、申告用コードを生成して表示させておけばよい。
 図15Aは、携帯端末60における税関申告アプリケーションの申告情報入力画面SHEを示している。申告情報入力画面SHEは、例えば、旅具通関における申告において申告すべき情報入力するための申告情報入力欄SHE10を有している。申告情報入力欄SHE10は、例えば、日本国の場合、税関様式C第5360号の携帯品・別送品申告書による申告において申告すべき情報を入力可能になっている。すなわち、申告情報入力欄SHE10は、搭乗便名、出発地、入国日等の利用者Uの搭乗に関する情報である搭乗情報、並びに質問に対する回答を入力することが可能になっている。なお、税関申告アプリケーションにおいて、申告情報のうち、利用者Uの氏名、現住所、電話番号、生年月日、旅券番号等の税関申告のたびに変わることのない利用者Uの基本情報は、図示しない利用者登録画面、設定画面等で入力して登録しておくことができる。
 図15Bは、携帯端末60における税関申告アプリケーションの申告用コード表示画面SHCを示している。申告用コード表示画面SHCは、申告情報入力画面SHEで入力された申告情報を含む申告用コードが生成されて表示された申告用コード表示欄SHC10を有している。申告用コード表示欄SHC10に表示された申告用コードは、申告情報のほか、税関申告アプリケーションの使用言語に関する言語情報をさらに含んでいる。また、申告用コード表示欄SHC10は、申告用コードの有効期限となる日時、申告用コードの使い方等を表示することができる。
 税関検査場Cに入場した利用者Uは、税関検査場Cの入口付近に設置されたキオスク端末10で税関申告を行う。なお、利用者Uは、キオスク端末10の前に行くまでに、携帯端末60で申告用コードを生成して表示させておくことができる。その際、利用者Uは、携帯端末60の税関申告アプリケーションで表示される申告用コードの使い方、キオスク端末10の付近に設置されたデジタルサイネージ端末70に表示されているキオスク端末10での手続方法等の案内を参照することができる。
 図16に示すように、キオスク端末10のCPU102は、旅券読取装置112に旅券がかざされたか否か、コード読取装置114に申告用コードがかざされたか否かをそれぞれ継続的に判定する(ステップS102)。こうして、CPU102は、旅券及び申告用コードの少なくとも一方がかざされるまで待機する(ステップS102、NO)。
 図18Aは、利用者Uにより旅券及び申告用コードの少なくとも一方がかざされるのを待機するキオスク端末10のディスプレイ110に表示される受付画面SKRの一例を示している。受付画面SKRは、例えば、キオスク端末10を利用するために申告用コードが必要であること、及び旅券及び申告用コードのかざし方を表示する。
 図16に示すように、CPU102は、旅券がかざされたと判定すると(ステップS102、YES)、旅券読取装置112により、旅券から利用者Uの身分事項情報、旅券顔画像等の旅券情報を読み取って取得する(ステップS104)。また、CPU102は、申告用コードがかざされたと判定すると(ステップS102、YES)、コード読取装置114により、申告用コードから申告情報及び言語情報を読み取って取得する(ステップS106)。
 なお、利用者Uは、申告用コードよりも先に旅券を旅券読取装置112にかざして読み取らせてもよいし、旅券よりも先に申告用コードをコード読取装置114にかざして読み取らせてもよい。また、利用者Uは、旅券及び申告用コードを同時にそれぞれ旅券読取装置112及びコード読取装置114にかざして読み取らせてもよい。CPU102は、利用者Uの旅券及び申告用コードを読み取らせるタイミングに応じて、旅券読取装置112による旅券の読取り及びコード読取装置114による申告用コードの読取りを任意の順序で又は同時に実行させることができる。
 また、CPU102は、旅券及び申告用コードのうちの一方を読み取った後、他方がかざされることなく、一定時間が経過又は利用者Uがキオスク端末10から離れたことを検知した場合には、処理を中断することができる。この場合、CPU102は、例えば、ディスプレイ110にエラー表示等を表示させたり、それまでの処理を無効にするリセット処理を行ったりすることができる。その後、CPU102は、ステップS102に移行することができる。なお、CPU102は、例えば、カメラ116により撮影される動画像又は連続的に撮影される静止画に基づき、利用者Uがキオスク端末10から離れたことを検知することができる。
 さらに、CPU102は、旅券又は申告用コードがかざされたと判定すると(ステップS102、YES)、カメラ116により、利用者Uの顔を撮影して利用者Uの撮影顔画像を取得する(ステップS108)。CPU102は、旅券読取装置112による旅券の読取り又はコード読取装置114による申告用コードの読取りと並行して、旅券又は申告用コードの読取りの間にカメラ116による利用者Uの顔の撮影を行うことができる。カメラ116は、旅券又は申告用コードがかざされたときに撮影を開始することができる。
 こうして、CPU102は、カメラ116により、キオスク端末10の前で旅券読取装置112に旅券を読み取らせ又はコード読取装置114に申告用コードを読み取らせる利用者Uの顔画像を撮影して撮影顔画像を取得する。
 カメラ116は、上述のように、その撮影方向が前方斜め上方を向く方向となるように設けられ、ディスプレイ110、旅券読取装置112又はコード読取装置114を見下ろしてキオスク端末10を操作する利用者Uの顔を撮影可能な画角を有している。このため、カメラ116は、視線を前方斜め下方に向けてディスプレイ110、旅券読取装置112又はコード読取装置114を見下ろしてキオスク端末10を操作する利用者Uの顔を、利用者Uに撮影を意識させることなく撮影することができる。例えば、カメラ116による撮影に際して、カメラ116の方向を向くように利用者Uに要求する必要はない。
 また、カメラ116は、所定のフレームレートで動画を撮影し又は所定の時間間隔で静止画を撮影することにより、キオスク端末10を操作する利用者Uについて複数の顔画像を取得することができる。この場合、CPU102は、カメラ116により撮影された利用者Uの複数の顔画像のうち、最も品質の高い顔画像を、利用者Uの撮影顔画像として選択して取得することができる。カメラ116は、旅券又は申告用コードがかざされたことをトリガーとして撮影を開始することができる。顔画像の品質は、例えば、カメラ116に対する顔の向きを基準に評価することができ、カメラ116に対する顔の向きが所定の範囲内である場合に、一定以上の品質を有する顔画像であると評価することができる。
 CPU102は、旅券から利用者Uの旅券顔画像を取得し、カメラ116により利用者Uの撮影顔画像を取得すると、管理サーバ50に対して、利用者Uの顔照合を要求する照合要求をネットワークNWを介して送信する(ステップS110)。CPU102は、撮影顔画像及び旅券顔画像又はこれらの顔特徴量を照合要求とともに管理サーバ50に送信する。
 管理サーバ50のCPU502は、キオスク端末10から照合要求を受信すると、利用者Uの顔照合を行う(ステップS112)。CPU502は、撮影顔画像と旅券顔画像とを1:1で照合する。
 次いで、CPU502は、撮影顔画像と旅券顔画像との照合の結果を示す照合情報をキオスク端末10にネットワークNWを介して送信する(ステップS114)。
 こうして、利用者Uがキオスク端末10を操作している間に、撮影顔画像と旅券顔画像とを照合する利用者Uの顔照合が行われる。
 なお、キオスク端末10は、撮影顔画像と旅券顔画像との照合が一致しない場合には、カメラ116により利用者Uの顔を撮影して利用者Uの撮影顔画像を取得するステップS108を改めて実行して、撮影顔画像の再撮影を行うことができる。キオスク端末10は、撮影顔画像の再撮影を1回だけ又は複数回行うことができる。
 また、CPU102は、利用者Uによる申告内容の確認及び必要に応じた訂正のため、キオスク端末10の使用言語を設定する(ステップS116)。使用言語の設定において、CPU102は、まず、図17に示すように、申告用コードから読み取った言語情報を取得する(ステップS202)。
 次いで、CPU102は、取得した言語情報に示される税関申告アプリケーションの使用言語を、キオスク端末10の使用言語として設定する(ステップS204)。ここでキオスク端末10の使用言語に設定される税関申告アプリケーションの使用言語は、携帯端末60の言語設定で設定されている言語、又は税関申告アプリケーション内の設定で言語が設定されていれば当該言語である。これにより、CPU102は、利用者Uが使用する携帯端末60の税関申告アプリケーションの使用言語と同一の使用言語で、ディスプレイ110に各種情報を表示させることできる。また、CPU102は、利用者Uが使用する携帯端末60の税関申告アプリケーションの使用言語と同一の使用言語で、ディスプレイ110に組み込まれたタッチパネル等の入力装置108から利用者Uによる入力を受け付けることができる。
 また、CPU102は、入力装置108を介して利用者Uにより使用言語の別の言語への変更を指示する変更指示の入力があったか否かを判定する(ステップS206)。変更指示の入力がなければ(ステップS206、NO)、CPU102は、ステップS204で設定した使用言語を維持する。
 変更指示の入力があれば(ステップS206、YES)、CPU102は、変更指示で指示された別の言語にキオスク端末10の使用言語を変更する(ステップS208)。
 こうして、利用者Uは、外国人である場合であっても、キオスク端末10において自らが使用する言語又は自らが変更を指示した言語で表示内容の確認及び情報の入力を行うことができる。このため、利用者Uは、言語が障害となることなく、キオスク端末10を円滑に利用することができる。
 キオスク端末10の使用言語を設定した後、CPU102は、図16に示すように、申告用コードから読み取った申告情報の申告内容をディスプレイ110に表示して利用者Uに確認させ、利用者Uからの訂正を必要に応じて受け付ける(ステップS118)。利用者Uは、ディスプレイ110に表示された申告内容を確認するとともに、申告内容に訂正の必要がある場合には入力装置108を介して申告内容を訂正する。申告内容を確認した利用者Uは、入力装置108を介して、申告内容を確認して申告内容を確定することを指示する確定指示を入力する。これにより、税関申告において利用者Uが申告する申告内容が確定される。
 図18Bは、利用者Uにより申告内容の確認及び必要に応じた訂正が行われるキオスク端末10のディスプレイ110に表示される申告内容確認画面SKCの一例を示している。申告内容確認画面SKCは、申告情報に含まれる申告内容を表示する。申告内容確認画面SKCは、例えば、利用者Uのタッチ入力により訂正ボタンが押されることにより、申告内容の訂正が可能な申告内容訂正画面に移行することができる。また、申告内容確認画面SKCにおいて、例えば、利用者Uのタッチ入力により確認ボタンが押されることにより、キオスク端末10に確定指示が入力される。これにより、税関申告において利用者Uが申告する申告内容が確定される。
 なお、CPU102は、携帯端末60のディスプレイ610に表示される図15Aに示す税関申告アプリケーションの申告情報入力画面SHEとレイアウトが統一された申告内容確認画面SKCを表示することができる。両画面のレイアウトが統一されていることにより、キオスク端末10の操作に迷いにくい画面表示を実現することができる。
 申告内容が確定されると、図16に示すように、CPU102は、利用者Uの利用者情報をネットワークNWを介して管理サーバ50に送信する(ステップS120)。利用者情報は、互いに関連付けられた利用者Uの身分事項情報、顔情報及び申告情報を含んでいる。なお、CPU102は、ステップS110で照合要求とともに撮影顔画像及び旅券顔画像を送信するので、利用者情報のうちの顔情報を改めて送信しなくてもよい。
 次いで、CPU502は、利用者Uの利用者情報の申告情報に含まれる申告内容を判定する(ステップS122)。CPU502は、利用者Uの申告情報に含まれる申告内容から、利用者Uが課税対象であるか否か、利用者Uにリスクがあるか否かを判定する。
 さらにCPU502は、申告内容の判定に加えて、旅券番号の照合を行うことができる。この場合、CPU502は、利用者情報の身分事項情報に含まれる旅券番号と、利用者情報の申告情報に含まれる旅券番号とを照合する。
 次いで、CPU502は、利用者Uの申告情報に含まれる申告内容の判定結果を示す判定情報をネットワークNWを介してキオスク端末10に送信する(ステップS124)。また、CPU502は、旅券番号の照合結果を判定情報に含ませることができる。
 キオスク端末10のCPU102は、管理サーバ50から判定情報を受信すると、受信した判定情報及び先に受信した照合情報に基づき、利用者Uについて電子化ゲート20の利用可否を判定する(ステップS126)。先に受信した照合情報は、ステップS114で管理サーバ50から送信されたものである。なお、CPU102は、撮影顔画像と旅券顔画像との照合の結果を示す照合情報、及び申告内容の判定結果を示す判定情報をディスプレイ110に表示させて利用者Uに示すことができる。
 CPU102は、利用者Uの旅券顔画像と撮影顔画像とが一致し、利用者Uが課税対象でなく、利用者Uにリスクがない場合に、利用者Uが電子化ゲート20を利用できると判定する。判定情報が旅券番号の照合結果を含む場合には、CPU102は、利用者Uの旅券顔画像と撮影顔画像とが一致し、利用者Uが課税対象でなく、利用者Uにリスクがなく、さらに旅券番号が一致した場合に、利用者Uが電子化ゲート20を利用できると判定する。
 一方、CPU102は、利用者Uの旅券顔画像と撮影顔画像とが一致しない場合、利用者Uが課税対象である場合又は利用者Uにリスクがある場合に、利用者Uが電子化ゲート20を利用できないと判定する。また、判定情報が旅券番号の照合結果を含む場合には、CPU102は、旅券番号が一致しない場合にも、利用者Uが電子化ゲート20を利用できないと判定する。
 CPU102は、電子化ゲート20の利用可否の判定結果を示すゲート利用可否情報を管理サーバ50に送信する(ステップS128)。ゲート利用可否情報は、利用者Uの旅券顔画像と撮影顔画像とが一致し、かつ、利用者Uが課税対象でなく、利用者Uにリスクがない場合に、利用者Uが電子化ゲート20を利用可能であることを示す。また、判定情報が旅券番号の照合結果を含む場合、ゲート利用可否情報は、さらに旅券番号が一致した場合に、利用者Uが電子化ゲート20を利用可能であることを示す。
 管理サーバ50のCPU502は、キオスク端末10からゲート利用可否情報を受信すると、利用者Uの利用者情報を、ゲート利用可否情報と関連付けて利用者情報DB506aに登録する(ステップS130)。なお、CPU502は、キオスク端末10からゲート利用可否情報を受信することに代えて、キオスク端末10のCPU102と同様に、照合情報及び判定情報に基づき、利用者Uについて電子化ゲート20の利用可否を判定することもできる。
 また、CPU502は、利用者情報をゲート利用可否情報と関連付けて利用者情報DB506aに登録することに代えて、特定の利用者Uの利用者情報について、利用者情報DB506aに登録することもできる。すなわち、CPU502は、ゲート利用可否情報に基づき、電子化ゲート20の利用が可能と判定された利用者Uの利用者情報について、利用者情報DB506aに登録することもできる。つまり、CPU502は、特定の利用者U以外の利用者Uの利用者情報については、利用者情報DB506aに登録しないこともできる。
 次いで、キオスク端末10のCPU102は、利用者Uが電子化ゲート20を利用できると判定すると(ステップS132、YES)、利用者Uを電子化ゲート20に誘導するための処理を実行する(ステップS134)。CPU102は、例えば、利用者Uを電子化ゲート20に誘導する誘導画面をディスプレイ110に表示させて、利用者Uを電子化ゲート20に誘導する。
 図18Cは、利用者Uを電子化ゲート20に誘導するキオスク端末10のディスプレイ110に表示される誘導画面SKGの一例を示している。誘導画面SKGは、例えば、電子化ゲート20に誘導する文言、記号、絵等を示すとともに、税関申告が完了したことを示す文言、記号、絵等を示している。
 一方、CPU102は、利用者Uが電子化ゲート20を利用できないと判定すると(ステップS132、NO)、電子化ゲート20を利用できない利用者Uに対する対応処理を実行する(ステップS136)。CPU102は、対応処理として、例えば、利用者Uを有人ブースMに誘導する誘導画面をディスプレイ110に表示させて、利用者Uを有人ブースMに誘導する。
 こうして、キオスク端末10において利用者Uによる税関申告が行われる。
 次に、キオスク端末10において利用者Uが誘導された電子化ゲート20の動作について管理サーバ50の動作とともに図19及び図20を用いて説明する。図19は、電子化ゲート20を構成する入口ゲート端末30及び出口ゲート端末40、並びに管理サーバ50の動作を示すシーケンス図である。
 ゲート通路Pに利用者Uが進入していない電子化ゲート20の待機状態においては、入口ゲート端末30の入口ゲート扉308が開扉状態に、出口ゲート端末40の出口ゲート扉414が閉扉状態になっている。さらに、待機状態においては、入口ゲート端末30の案内表示器314が、ゲート通路Pへの進入許可を示す表示を表示し、出口ゲート端末40の案内表示器420が、ゲート通路Pからの退出禁止を示す表示を表示している。
 キオスク端末10において税関申告を完了して電子化ゲート20に誘導された利用者Uは、入口ゲート扉308が開扉状態の入口ゲート端末30を通過してゲート通路Pに進入することになる。
 図19に示すように、待機状態において、入口ゲート端末30のCPU302は、利用者Uが入口ゲート端末30を通過してゲート通路Pに進入したか否かを判定し(ステップS302)、利用者Uの通過を待機する(ステップS302、NO)。CPU302は、複数の通過検知センサ310の出力信号及びそれらの出力順に基づき、利用者Uが入口ゲート端末30を通過してゲート通路Pに進入したか否かを判定することができる。
 CPU302は、利用者Uが入口ゲート端末30を通過してゲート通路Pに進入したと判定すると(ステップS302、YES)、入口ゲート扉308を閉扉する(ステップS304)。また、CPU302は、案内表示器314の表示を、ゲート通路Pへの進入許可を示す表示からゲート通路Pへの進入禁止を示す表示に変更する。
 入口ゲート扉308は、後述するように、ゲート通路Pに進入した利用者Uが出口ゲート端末40を通過してゲート通路Pから退出するまで開扉しないように制御される。このため、利用者Uは、ゲート通路Pに1人だけしか進入できない。これにより、第1カメラ410により複数人の利用者Uが撮影される事態を防止することができ、第1対象顔画像の照合を確実に行うことができる。
 また、CPU302は、利用者Uが入口ゲート端末30を通過してゲート通路Pに進入したことを示す入口通過情報を出口ゲート端末40に送信する(ステップS306)。なお、CPU302は、ステップS304及びステップS306のいずれを先の順序で実行することもできるし、両ステップS304、S306を同時に実行することもできる。
 入口ゲート端末30から入口通過情報を受信した出口ゲート端末40のCPU402は、第1カメラ410により、ゲート通路Pを出口ゲート端末40に向かって移動する利用者Uを撮影して、利用者Uの第1対象顔画像を取得する(ステップS308)。第1カメラ410は、所定のフレームレートで動画を撮影し又は所定の時間間隔で静止画を撮影することにより、ゲート通路Pを移動する利用者Uについて複数の第1対象顔画像を取得する。こうして、ゲート通路Pにおいて動いている利用者Uの顔画像である第1対象顔画像が取得される。第1カメラ410による撮影の間、利用者Uは、ゲート通路Pにおいて立ち止まることなく、出口ゲート端末40に向かって移動することができる。
 第1カメラ410による撮影の間、CPU402は、第1対象顔画像における視線検出を行い、視線検出の結果、利用者Uが下又は横を向いていると判定すると、利用者Uに対して、出口ゲート端末40の側である前を向くように警告を行うことができる。CPU402は、例えば、ディスプレイ408への表示、スピーカー等からの音声等により、利用者Uに対して前を向くように警告を行うことができる。これにより、品質の高い第1対象顔画像をより確実に取得することができる。
 CPU402は、上記の警告に反して、利用者Uが前を向かない場合、以下のステップS310の品質判定、及びステップS312の照合要求を行わず、第1対象顔画像の照合を行わないようにすることもできる。
 また、第1カメラ410による撮影の間、CPU402は、撮影された第1対象顔画像における装着物推定を行い、第1対象顔画像におけるサングラス、眼鏡、帽子等の顔装着物の検知を試みる。CPU402は、顔装着物を検知した場合、例えば、ディスプレイ408への表示、スピーカー等からの音声等により、利用者Uに対して、顔装着物を取り外すように指示する警告を行うことができる。これにより、第1対象顔画像の照合を妨げる要因を除去することができる。
 CPU402は、上記の警告に反して、利用者Uの顔から顔装着物が取り外されない場合、以下のステップS310の品質判定、及びステップS312の照合要求を行わず、第1対象顔画像の照合を行わないようにすることもできる。
 CPU402は、取得した第1対象顔画像のそれぞれについて品質値を計算し、計算した品質値に基づき第1対象顔画像の品質を判定する(ステップS310)。
 CPU402は、品質の判定の結果、一定の品質以上の高品質の第1対象顔画像について、管理サーバ50に対して照合要求をネットワークNWを介して順次送信する(ステップS312)。これにより、CPU402は、一定の品質以上の第1対象顔画像と、管理サーバ50の利用者情報DB506aに登録された複数の登録顔画像とを1:Nで照合することを管理サーバ50に対して要求する。CPU402は、第1対象顔画像から抽出された顔特徴量又は第1対象顔画像自体を照合要求とともに管理サーバ50に送信する。
 なお、CPU402は、品質にかかわらず取得された第1対象顔画像のすべてを管理サーバ50に送信してもよい。この場合、管理サーバ50のCPU502は、第1対象顔画像の品質の判定を同様に行い、一定の品質以上の第1対象顔画像について登録顔画像との照合を行うことができる。また、CPU502は、品質のいかんにかかわらず、第1対象顔画像と登録顔画像との照合を行うことができる。
 管理サーバ50のCPU502は、出口ゲート端末40から第1対象顔画像の照合要求を受信すると、第1対象顔画像の照合を行う(ステップS314)。CPU502は、出口ゲート端末40から受信した第1対象顔画像の顔特徴量と、利用者情報DB506aに登録された複数の登録顔画像の顔特徴量とを1:Nで照合する。第1対象顔画像の顔特徴量は、出口ゲート端末40から受信したもの又は出口ゲート端末40から受信した第1対象顔画像から抽出したものである。
 次いで、CPU502は、第1対象顔画像の照合の結果を示す照合情報を出口ゲート端末40にネットワークNWを介して送信する(ステップS316)。
 出口ゲート端末40のCPU402及び管理サーバ50のCPU502は、一定の品質以上の複数の第1対象顔画像について、上記ステップS312、S314、S316を繰り返して実行することができる。
 出口ゲート端末40のCPU402は、管理サーバ50から照合情報を受信する。CPU402は、いずれかの第1対象顔画像についての照合情報が、一致する登録顔画像が発見されてゲート通路Pを移動する利用者Uの本人確認に成功したことを示した時点で(ステップS318、YES)、第1カメラ410による撮影を終了する。続いて、CPU402は、ステップS336に移行する。
 一方、CPU402は、所定時点までに、いずれの第1対象顔画像についての照合情報も、一致する登録顔画像が発見されずに利用者Uの本人確認に失敗したことを示す場合(ステップS318、NO)、第1対象顔画像の照合による本人確認に失敗したと判定する。なお、所定の時点とは、例えば、利用者Uが出口ゲート端末40の出口ゲート扉414に到達した時点である。CPU402は、第1カメラ410により撮影される画像から、利用者Uが出口ゲート扉414に到達したか否かを判定することができる。
 また、CPU402は、上記と同様の所定時点までに照合情報を受信しなかった場合も、第1対象顔画像の照合による本人確認に失敗したと判定することができる。この場合は、一定の品質以上の第1対象顔画像を取得することができず、第1対象顔画像と登録顔画像との照合ができない場合である。
 CPU402は、第1対象顔画像の照合による本人確認に失敗したと判定した場合、第2カメラ412による撮影を行う旨を利用者Uに対して通知する(ステップS320)。すなわち、CPU402は、第1対象顔画像と登録顔画像との照合が一致せず又は照合ができなかった場合に、第2カメラ412による撮影を行う旨を利用者Uに対して通知する。CPU402は、例えば、ディスプレイ408の表示、音声案内等により、第2カメラ412により撮影を行う旨の通知を行うことができる。
 次いで、CPU402は、第2カメラ412により、通知を受けて出口ゲート扉414の前に留まる利用者Uの撮影を行う(ステップS322)。これにより、CPU402は、出口ゲート端末40の出口ゲート扉414の前に到達して出口ゲート扉414の前に留まる利用者Uの第2対象顔画像を取得する。こうして、出口ゲート扉414の前で静止している利用者Uの顔画像である第2対象顔画像が取得される。
 第2カメラ412は、所定のフレームレートで動画を撮影し又は所定の時間間隔で静止画を撮影することにより、出口ゲート扉414の前の利用者Uについて複数の顔画像を取得することができる。この場合、CPU402は、第2カメラ412により撮影された利用者Uの複数の顔画像のうち、最も品質の高い顔画像を、利用者Uの第2対象顔画像として選択して取得することができる。
 CPU402は、第2カメラ412による撮影に際して、例えば、ディスプレイ408への表示、スピーカー等からの音声等により、利用者Uに対して案内を行うことができる。例えば、CPU402は、第2対象顔画像において顔装着物が検知されていれば当該顔装着物を取り外すこと、第2カメラ412がディスプレイ408の方向を向くこと等を利用者Uに案内することができる。
 図20は、第2カメラ412による撮影の際のディスプレイ408に表示される案内表示の一例を示している。図示するように、ディスプレイ408の表示により、顔装着物であるマスクを取り外すことを案内することができる。
 次いで、CPU402は、第2対象顔画像について、管理サーバ50に対して照合要求をネットワークNWを介して送信する(ステップS324)。これにより、CPU402は、第2対象顔画像と、管理サーバ50の利用者情報DB506aに登録された複数の登録顔画像とを1:Nで照合することを管理サーバ50に対して要求する。CPU402は、第2対象顔画像から抽出された顔特徴量又は第2対象顔画像自体を照合要求とともに管理サーバ50に送信する。
 管理サーバ50のCPU502は、出口ゲート端末40から第2対象顔画像の照合要求を受信すると、第2対象顔画像の照合を行う(ステップS326)。CPU502は、出口ゲート端末40から受信した第2対象顔画像の顔特徴量と、利用者情報DB506aに登録された複数の登録顔画像の特徴量とを1:Nで照合する。第2対象顔画像の顔特徴量は、出口ゲート端末40から受信したもの又は出口ゲート端末40から受信した第2対象顔画像から抽出したものである。
 次いで、CPU502は、第2対象顔画像の照合の結果を示す照合情報を出口ゲート端末40にネットワークNWを介して送信する(ステップS328)。
 出口ゲート端末40のCPU402は、管理サーバ50から照合情報を受信する。CPU402は、第2対象顔画像についての照合情報が、一致する登録顔画像が発見されて出口ゲート扉414の前の利用者Uの本人確認に成功したことを示す場合(ステップS330、YES)、ステップS336に移行する。
 なお、出口ゲート端末40は、第2対象顔画像と登録顔画像との照合が一致しない場合には、第2カメラ412により利用者Uを撮影して利用者Uの第2対象顔画像を取得するステップS322を改めて実行して、第2対象顔画像の再撮影を行うことができる。出口ゲート端末40は、第2対象顔画像の再撮影を1回だけ又は複数回行うことができる。
 また、管理サーバ50のCPU502は、第1対象顔画像の照合又は第2対象顔画像の照合の結果、利用者Uに本人確認に成功した場合(ステップS332、YES)、ゲート利用可否情報の送信を行う(ステップS334)。すなわち、CPU502は、本人確認に成功した利用者Uの利用者情報に関連付けられたゲート利用可否情報を利用者情報DB506aから取得して出口ゲート端末40にネットワークNWを介して送信する。
 出口ゲート端末40のCPU402は、第2対象顔画像についての照合情報が、一致する登録顔画像が発見されずに利用者Uの本人確認に失敗したことを示す場合(ステップS330、NO)、対応処理を実行する(ステップS338)。この場合、第1対象顔画像の照合及び第2対象顔画像の照合のいずれによっても利用者Uの本人確認に失敗したことになる。CPU402は、対応処理として、税関職員をゲート通路Pに呼び出すため、例えば、アラームを鳴らしたり、税関職員の端末宛に通知を送信したりすることができる。この場合、税関職員は、例えば、利用者Uを有人ブースM又は別室に誘導することができる。また、税関職員は、電子化ゲート20の側方に設けられた検査台にて対面で税関審査を行った後、手動で開扉した出口ゲート扉414から利用者Uをゲート通路Pから退出させることができる。
 一方、第1対象顔画像の照合又は第2対象顔画像の照合により利用者Uの本人確認に成功してステップS336に移行したCPU402は、本人確認に成功した利用者Uについて、電子化ゲート20の利用可否を判定する(ステップS336)。CPU402は、管理サーバ50から受信したゲート利用可否情報に基づき、電子化ゲート20の利用可否を判定する。
 CPU402は、電子化ゲート20が利用できないと判定すると(ステップS336、NO)、対応処理を実行する(ステップS338)。この場合、第1対象顔画像の照合又は第2対象顔画像の照合により利用者Uの本人確認に成功したものの、その利用者Uは、課税対象であると判定されている者、リスクがあると判定されている者等である。CPU402は、対応処理として、税関職員をゲート通路Pに呼び出すため、例えば、アラームを鳴らしたり、税関職員の端末宛に通知を送信したりすることができる。この場合も、税関職員は、上記と同様に利用者Uに対応することができる。
 一方、CPU402は、電子化ゲート20が利用できると判定すると(ステップS336、YES)、出口ゲート扉414を開扉する(ステップS340)。また、CPU402は、案内表示器420の表示を、ゲート通路Pからの退出禁止を示す表示からゲート通路Pからの退出許可を示す表示に変更する。
 次いで、CPU402は、利用者Uが出口ゲート端末40を通過してゲート通路Pから退出したか否かを判定し(ステップS342)、利用者Uの通過を待機する(ステップS342、NO)。CPU402は、複数の通過検知センサ416の出力信号及びそれらの出力順に基づき、利用者Uが出口ゲート端末40を通過してゲート通路Pから退出したか否かを判定することができる。
 CPU402は、利用者Uが出口ゲート端末40を通過してゲート通路Pから退出したと判定すると(ステップS342、YES)、出口ゲート扉414を閉扉する(ステップS344)。また、CPU402は、案内表示器420の表示を、ゲート通路Pからの退出許可を示す表示からゲート通路Pからの退出禁止を示す表示に変更する。
 また、CPU402は、利用者Uが出口ゲート端末40を通過してゲート通路Pから退出したことを示す出口通過情報を入口ゲート端末30に送信する(ステップS346)。なお、CPU402は、ステップS344及びステップS346のいずれを際の順序で実行することもできるし、両ステップS344、S346を同時に実行することもできる。
 出口ゲート端末40から出口通過情報を受信した入口ゲート端末30のCPU302は、入口ゲート扉308を開扉する(ステップS348)。また、CPU302は、案内表示器314の表示を、ゲート通路Pへの進入禁止を示す表示からゲート通路Pへの進入許可を示す表示に変更する。
 こうして、電子化ゲート20は、利用者Uのゲート通路Pへの進入を待機する待機状態に移行する。
 このように、本実施形態によれば、キオスク端末10において、旅券の読取り又は申告用コードの読取りの間に、生体情報の照合である顔照合に用いる撮影顔画像を取得する。したがって、本実施形態によれば、旅券の読取り及び申告用コードの読取りによる情報の取得と、撮影顔画像を用いた顔照合とを含むキオスク端末10での手続を短時間で完了することができる。
 また、本実施形態によれば、電子化ゲート20の出口ゲート端末40において、出口ゲート端末40に向かって移動する利用者Uを第1カメラ410で撮影して、生体情報の照合である顔照合に用いる第1対象顔画像を取得する。また、本実施形態によれば、予め判定されたゲート利用可否の判定結果に応じて、出口ゲート扉414を開扉する。したがって、本実施形態によれば、利用者Uが電子化ゲート20の通過に要する時間を短縮することができる。
 [他の実施形態]
 上記実施形態において説明した情報処理装置は、他の実施形態によれば、図21に示すように構成することもできる。図21は、他の実施形態による情報処理装置の構成を示す概略図である。
 図21に示すように、他の実施形態による情報処理装置1000は、読取部1002と、表示部1004と、生体情報取得部1006とを有する。読取部1002は、利用者の媒体を読み取って、媒体から利用者の生体情報を含む情報を取得する。表示部1004は、読取部1002よりも高い位置に設けられている。生体情報取得部1006は、読取部1002と表示部1004との間に設けられ、利用者から利用者の生体情報を取得する。
 他の実施形態による情報処理装置1000によれば、読取部1002と表示部1004との間に設けられた生体情報取得部1006により、媒体の読取りの間に、利用者から利用者の生体情報を取得する。このため、他の実施形態による情報処理装置1000によれば、情報の取得と生体情報の照合とを短時間で完了することができる。
 [変形実施形態]
 本発明は、上記実施形態に限らず、種々の変形が可能である。
 例えば、上記実施形態では、キオスク端末10において税関申告が行われる場合を例に説明したが、これに限定されるものではない。キオスク端末10は、利用者による種々の申告を受け付けるように構成することができる。
 また、上記実施形態では、カメラ116、第1カメラ410及び第2カメラ412が利用者Uの生体情報として利用者Uの顔画像を撮影して取得する場合を例に説明したが、これに限定されるものではない。カメラ116、第1カメラ410及び第2カメラ412は、利用者Uの生体情報として、顔情報である顔画像のほか、虹彩画像等を取得するものであってもよい。
 また、上記実施形態によるキオスク端末10は、一又は複数の装置からなるシステムとして構成することができる。また、上記実施形態による入口ゲート端末30は、一又は複数の装置からなるシステムとして構成することができる。また、上記実施形態による出口ゲート端末40は、一又は複数の装置からなるシステムとして構成することができる。また、上記実施形態による管理サーバ50は、一又は複数の装置からなるシステムとして構成することができる。
 また、上記の各実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のコンピュータプログラムが記録された記録媒体はもちろん、そのコンピュータプログラム自体も各実施形態に含まれる。
 該記録媒体としては、例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM(Compact Disc-Read Only Memory)、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また、該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS(Operating System)上で動作して処理を実行するものも各実施形態の範疇に含まれる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 前記利用者の媒体を読み取って、前記媒体から前記利用者の生体情報を含む情報を取得する読取部と、
 前記読取部よりも高い位置に設けられた表示部と、
 前記読取部と前記表示部との間に設けられ、前記利用者から前記利用者の生体情報を取得する生体情報取得部と
 を有する情報処理装置。
 (付記2)
 前記生体情報取得部は、斜め上方を撮影方向とし、前記利用者の顔を撮影する撮影装置であり、前記生体情報として前記利用者の顔画像を取得する付記1記載の情報処理装置。
 (付記3)
 前記読取部により取得された前記生体情報と、前記生体情報取得部により取得された前記生体情報との照合を要求し又は前記照合を行う制御部を有する付記1又は2に記載の情報処理装置。
 (付記4)
 前記読取部は、
  前記生体情報を含む第1の媒体を読み取って、前記第1の媒体から前記生体情報を含む第1の情報を取得する第1の読取部と、
  第2の媒体に表示されたコードを読み取って、前記コードから第2の情報を取得する第2の読取部とを有する付記1乃至3のいずれかに記載の情報処理装置。
 (付記5)
 前記第1の媒体は、前記利用者の旅券であり、
 前記第2の媒体は、税関申告に必要な申告情報を含む前記コードを表示する携帯端末である付記4記載の情報処理装置。
 (付記6)
 前記表示部の側部に設けられ、前記第1の媒体及び前記第2の媒体の少なくとも一方を読み取ると、点灯する照明部を有する付記4又は5に記載の情報処理装置。
 (付記7)
 前記照明部は、前記読取部により読み取られた情報、前記照合の結果及び手続の状況の少なくとも1つに基づいて異なる点灯を行う付記6記載の情報処理装置。
 (付記8)
 前記表示部の側部に設けられた遮蔽部を有する付記1乃至7のいずれかに記載の情報処理装置。
 (付記9)
 前記照明部は、前記遮蔽物の上面に配置されている付記8記載の情報処理装置。
 (付記10)
 前記表示部の上方に設けられ、状況を示す状況表示部を有する付記1乃至9のいずれかに記載の情報処理装置。
 (付記11)
 前記状況表示部は、前記読取部により読み取られた情報、前記照合の結果及び手続の状況の少なくとも1つに基づいて異なる点灯を行う付記10記載の情報処理装置。
 (付記12)
 支持体の側部に前記支持体を中心に放射状に複数設置される付記1乃至11のいずれかに記載の情報処理装置。
 (付記13)
 120°の角度間隔で前記支持体に3つ設置される付記12記載の情報処理装置。
 (付記14)
 互いに高さ違いで前記支持体に複数設置される付記12又は13に記載の情報処理装置。
1…情報処理システム
10…キオスク端末
20…電子化ゲート
30…入口ゲート端末
40…出口ゲート端末
50…管理サーバ
60…携帯端末

Claims (14)

  1.  前記利用者の媒体を読み取って、前記媒体から前記利用者の生体情報を含む情報を取得する読取部と、
     前記読取部よりも高い位置に設けられた表示部と、
     前記読取部と前記表示部との間に設けられ、前記利用者から前記利用者の生体情報を取得する生体情報取得部と
     を有する情報処理装置。
  2.  前記生体情報取得部は、斜め上方を撮影方向とし、前記利用者の顔を撮影する撮影装置であり、前記生体情報として前記利用者の顔画像を取得する請求項1記載の情報処理装置。
  3.  前記読取部により取得された前記生体情報と、前記生体情報取得部により取得された前記生体情報との照合を要求し又は前記照合を行う制御部を有する請求項1又は2に記載の情報処理装置。
  4.  前記読取部は、
      前記生体情報を含む第1の媒体を読み取って、前記第1の媒体から前記生体情報を含む第1の情報を取得する第1の読取部と、
      第2の媒体に表示されたコードを読み取って、前記コードから第2の情報を取得する第2の読取部とを有する請求項1乃至3のいずれか1項に記載の情報処理装置。
  5.  前記第1の媒体は、前記利用者の旅券であり、
     前記第2の媒体は、税関申告に必要な申告情報を含む前記コードを表示する携帯端末である請求項4記載の情報処理装置。
  6.  前記表示部の側部に設けられ、前記第1の媒体及び前記第2の媒体の少なくとも一方を読み取ると、点灯する照明部を有する請求項4又は5に記載の情報処理装置。
  7.  前記照明部は、前記読取部により読み取られた情報、前記照合の結果及び手続の状況の少なくとも1つに基づいて異なる点灯を行う請求項6記載の情報処理装置。
  8.  前記表示部の側部に設けられた遮蔽部を有する請求項1乃至7のいずれか1項に記載の情報処理装置。
  9.  前記照明部は、前記遮蔽物の上面に配置されている請求項8記載の情報処理装置。
  10.  前記表示部の上方に設けられ、状況を示す状況表示部を有する請求項1乃至9のいずれか1項に記載の情報処理装置。
  11.  前記状況表示部は、前記読取部により読み取られた情報、前記照合の結果及び手続の状況の少なくとも1つに基づいて異なる点灯を行う請求項10記載の情報処理装置。
  12.  支持体の側部に前記支持体を中心に放射状に複数設置される請求項1乃至11のいずれか1項に記載の情報処理装置。
  13.  120°の角度間隔で前記支持体に3つ設置される請求項12記載の情報処理装置。
  14.  互いに高さ違いで前記支持体に複数設置される請求項12又は13に記載の情報処理装置。
PCT/JP2018/038219 2018-10-12 2018-10-12 情報処理装置 WO2020075308A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2020549932A JP7184091B2 (ja) 2018-10-12 2018-10-12 情報処理装置
PCT/JP2018/038219 WO2020075308A1 (ja) 2018-10-12 2018-10-12 情報処理装置
CN201880098570.5A CN112840372B (zh) 2018-10-12 2018-10-12 信息处理装置
SG11202103587YA SG11202103587YA (en) 2018-10-12 2018-10-12 Information processing apparatus
EP18936336.9A EP3866101A4 (en) 2018-10-12 2018-10-12 INFORMATION PROCESSING DEVICE
US16/366,482 US11636277B2 (en) 2018-10-12 2019-03-27 Information processing apparatus
JP2022183772A JP7494891B2 (ja) 2018-10-12 2022-11-17 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/038219 WO2020075308A1 (ja) 2018-10-12 2018-10-12 情報処理装置

Publications (1)

Publication Number Publication Date
WO2020075308A1 true WO2020075308A1 (ja) 2020-04-16

Family

ID=69718888

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/038219 WO2020075308A1 (ja) 2018-10-12 2018-10-12 情報処理装置

Country Status (6)

Country Link
US (1) US11636277B2 (ja)
EP (1) EP3866101A4 (ja)
JP (2) JP7184091B2 (ja)
CN (1) CN112840372B (ja)
SG (1) SG11202103587YA (ja)
WO (1) WO2020075308A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021256099A1 (ja) * 2020-06-17 2021-12-23
WO2022185608A1 (ja) * 2021-03-03 2022-09-09 パナソニックIpマネジメント株式会社 対話装置および対話方法
WO2022201491A1 (ja) * 2021-03-26 2022-09-29 日本電気株式会社 認証端末、コード生成端末、認証システム、認証方法及び非一時的なコンピュータ可読媒体
WO2024084687A1 (ja) * 2022-10-21 2024-04-25 日本電気株式会社 情報処理装置、情報処理システム、情報処理方法、及び、記録媒体

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11222494B2 (en) * 2019-06-17 2022-01-11 Steven Van Till Indexing a video surveillance stream to match an access control credential or token with best facial image detected at a security portal method of operation and system
DE102020119120A1 (de) * 2020-07-21 2022-01-27 Bundesdruckerei Gmbh Vorrichtung und verfahren zur erzeugung einer brillenglaslosen oder brillenlosen abbildung einer periokularen region einer bebrillten person

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002304448A (ja) 2001-04-03 2002-10-18 Sanpuranetto:Kk 出入国管理用カードシステム
JP2009281412A (ja) * 2008-05-19 2009-12-03 Toshiba Corp 通信装置の取付構造
WO2012144105A1 (ja) * 2011-04-19 2012-10-26 株式会社日立製作所 生体認証システム
JP2016053896A (ja) * 2014-09-04 2016-04-14 グローリー株式会社 ゲートシステムおよびゲート通過の制御方法
JP2018109935A (ja) * 2016-12-28 2018-07-12 グローリー株式会社 顔照合装置及び顔照合方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL136320A0 (en) * 1997-12-08 2001-05-20 Soltesz John A Self-service kiosk with biometrics verification and/or registration capability
JP4206903B2 (ja) 2003-10-31 2009-01-14 沖電気工業株式会社 チェックインシステム
WO2007028374A1 (de) * 2005-09-08 2007-03-15 Grohmann Technologies Gmbh Terminal und verfahren zum erfassen biometrischer daten einer person sowie terminalsystem
US7980378B2 (en) * 2006-03-23 2011-07-19 Cummins-Allison Corporation Systems, apparatus, and methods for currency processing control and redemption
TW200941385A (en) * 2008-02-13 2009-10-01 Yawlin C Chen System and method of marketing beauty products
KR101184432B1 (ko) * 2009-06-04 2012-09-20 인천국제공항공사 출입국 절차 자동화 장치 및 그 자동화 방법
JP5053396B2 (ja) * 2010-02-15 2012-10-17 東芝テック株式会社 コードシンボル読取装置及びその制御プログラム
WO2013113003A1 (en) * 2012-01-27 2013-08-01 Phi, Inc. Kiosk for energy sector logistics
JP6121805B2 (ja) 2013-06-06 2017-04-26 株式会社東芝 入退館管理システム、及び入退館管理装置
US10885598B2 (en) * 2013-09-20 2021-01-05 Dallas/Fort Worth International Airport Apparatus, system, and method supporting compliance with customs/border requirements
US10803539B2 (en) * 2013-09-20 2020-10-13 Dallas/Fort Worth International Airport Board Apparatus, system, and method supporting compliance with customs/border requirements
CN104184589B (zh) * 2014-08-26 2018-09-07 重庆邮电大学 一种身份认证方法、终端设备,及***
CA3074916A1 (en) * 2014-10-02 2016-04-07 Ecoatm, Llc Application for device evaluation and other processes associated with device recycling
US20160275518A1 (en) * 2015-03-19 2016-09-22 ecoATM, Inc. Device recycling systems with facial recognition
TWI566113B (zh) * 2015-05-29 2017-01-11 鴻海精密工業股份有限公司 室內空間規劃系統和方法
US9838468B2 (en) * 2015-10-28 2017-12-05 Iberon, Llc System and method for directing entrants at a checkpoint using a mobile device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002304448A (ja) 2001-04-03 2002-10-18 Sanpuranetto:Kk 出入国管理用カードシステム
JP2009281412A (ja) * 2008-05-19 2009-12-03 Toshiba Corp 通信装置の取付構造
WO2012144105A1 (ja) * 2011-04-19 2012-10-26 株式会社日立製作所 生体認証システム
JP2016053896A (ja) * 2014-09-04 2016-04-14 グローリー株式会社 ゲートシステムおよびゲート通過の制御方法
JP2018109935A (ja) * 2016-12-28 2018-07-12 グローリー株式会社 顔照合装置及び顔照合方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KIMIZUKA, HIROSHI: "Utilization of biometric technology in the field of immigration control and boarding procedures", THE JOURNAL OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. 90, no. 12, 1 December 2007 (2007-12-01), pages 1031 - 1036, XP009527066, ISSN: 0913-5693 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021256099A1 (ja) * 2020-06-17 2021-12-23
WO2021256099A1 (ja) * 2020-06-17 2021-12-23 日本電気株式会社 顔認証方法
JP7400975B2 (ja) 2020-06-17 2023-12-19 日本電気株式会社 顔認証方法
WO2022185608A1 (ja) * 2021-03-03 2022-09-09 パナソニックIpマネジメント株式会社 対話装置および対話方法
JP7511168B2 (ja) 2021-03-03 2024-07-05 パナソニックIpマネジメント株式会社 対話装置および対話方法
WO2022201491A1 (ja) * 2021-03-26 2022-09-29 日本電気株式会社 認証端末、コード生成端末、認証システム、認証方法及び非一時的なコンピュータ可読媒体
WO2024084687A1 (ja) * 2022-10-21 2024-04-25 日本電気株式会社 情報処理装置、情報処理システム、情報処理方法、及び、記録媒体

Also Published As

Publication number Publication date
CN112840372A (zh) 2021-05-25
JP7494891B2 (ja) 2024-06-04
EP3866101A4 (en) 2021-10-20
US20200082135A1 (en) 2020-03-12
SG11202103587YA (en) 2021-05-28
JP2023014140A (ja) 2023-01-26
JP7184091B2 (ja) 2022-12-06
JPWO2020075308A1 (ja) 2021-09-02
US11636277B2 (en) 2023-04-25
EP3866101A1 (en) 2021-08-18
CN112840372B (zh) 2024-07-09

Similar Documents

Publication Publication Date Title
WO2020075307A1 (ja) ゲート装置、ゲート装置の制御方法及び記録媒体
WO2020075308A1 (ja) 情報処理装置
WO2020075306A1 (ja) 情報処理装置、情報処理方法及び記録媒体
EP2657875B1 (en) Authentication card, authentication system, guidance method, and program
KR101939696B1 (ko) 사용자 무의식형 멀티모달 출입통제시스템
JP2022040245A (ja) 顔照合システム、顔照合装置、顔照合方法、及び記録媒体
CN105303155B (zh) 虹膜识别设备及其操作方法
US20230135416A1 (en) Facial authentication apparatus and control method for facial authentication apparatus
KR101548624B1 (ko) 홍채의 포커싱이 자동 조절되는 홍채 인식 시스템 및 그 방법
JP7509205B2 (ja) ゲート装置、ゲートシステム、ゲート制御方法
JP7476995B2 (ja) 情報処理装置、情報処理方法及び記録媒体
JP7223302B2 (ja) 情報処理装置、情報処理方法及び記録媒体
CN108492417B (zh) 快速人证核验方法及人证核验***
US12039817B2 (en) Gate system
US20220351559A1 (en) Gate apparatus, control method, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18936336

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020549932

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018936336

Country of ref document: EP

Effective date: 20210512