JP2020161938A - Processing device, server device, road side machine, and vehicle - Google Patents

Processing device, server device, road side machine, and vehicle Download PDF

Info

Publication number
JP2020161938A
JP2020161938A JP2019058232A JP2019058232A JP2020161938A JP 2020161938 A JP2020161938 A JP 2020161938A JP 2019058232 A JP2019058232 A JP 2019058232A JP 2019058232 A JP2019058232 A JP 2019058232A JP 2020161938 A JP2020161938 A JP 2020161938A
Authority
JP
Japan
Prior art keywords
feature amount
control unit
information
electronic device
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019058232A
Other languages
Japanese (ja)
Inventor
雅之 岸
Masayuki Kishi
雅之 岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2019058232A priority Critical patent/JP2020161938A/en
Publication of JP2020161938A publication Critical patent/JP2020161938A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Traffic Control Systems (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Image Analysis (AREA)

Abstract

To provide a technique for facilitating estimation of a feature amount which expresses features of a person.SOLUTION: A processing device includes an estimation section. An electronic apparatus includes: an operation button to be operated by a person; and a sensor for acquiring biological information of a person from a part where the person touches the operation button. The estimation section estimates a feature amount which expresses features of the person based on biological information of the person acquired by the sensor of the electronic apparatus.SELECTED DRAWING: Figure 10

Description

本開示は、人の特徴を表す特徴量を推定する技術に関する。 The present disclosure relates to a technique for estimating a feature amount representing a person's characteristics.

特許文献1には、指紋情報を利用した技術が記載されている。 Patent Document 1 describes a technique using fingerprint information.

特表2017−504853号公報Special Table 2017-504853

人の特徴を表す特徴量を推定する場合、当該特徴量を簡単に推定できることが望まれる。 When estimating a feature amount representing a person's characteristics, it is desired that the feature amount can be easily estimated.

そこで、本発明は上述の点に鑑みて成されたものであり、人の特徴を表す特徴量を簡単に推定することが可能な技術を提供することを目的とする。 Therefore, the present invention has been made in view of the above points, and an object of the present invention is to provide a technique capable of easily estimating a feature amount representing a human feature.

処理装置、サーバ装置、路側機、電子機器機及び車両が開示される。一の実施の形態では、処理装置は推定部を備える。電子機器は、人によって操作される操作ボタンと、当該人における、当該操作ボタンをさわる部位から、当該人の生体情報を取得するセンサとを備える。推定部は、電子機器のセンサが取得する人の生体情報に基づいて、当該人の特徴を表す特徴量を推定する。 Processing devices, server devices, roadside machines, electronic devices and vehicles are disclosed. In one embodiment, the processing device comprises an estimation unit. The electronic device includes an operation button operated by a person and a sensor that acquires biological information of the person from a portion of the person who touches the operation button. The estimation unit estimates a feature amount representing the characteristics of the person based on the biological information of the person acquired by the sensor of the electronic device.

また、一の実施の形態では、処理装置は、カメラ及び判定部をさらに備える。判定部は、推定部で推定された特徴量に基づいて、カメラで得られる撮影画像において人が写るか否かを判定する。 Further, in one embodiment, the processing device further includes a camera and a determination unit. The determination unit determines whether or not a person is captured in the captured image obtained by the camera based on the feature amount estimated by the estimation unit.

また、一の実施の形態では、サーバ装置は、上記の処理装置が有する推定部を備える。 Further, in one embodiment, the server device includes an estimation unit included in the above-mentioned processing device.

また、一の実施の形態では、サーバ装置は、上記の処理装置が有する判定部を備える。 Further, in one embodiment, the server device includes a determination unit included in the above-mentioned processing device.

また、一の実施の形態では、路側機は、上記の処理装置が有するカメラ及び判定部を備える。 Further, in one embodiment, the roadside machine includes a camera and a determination unit included in the above-mentioned processing device.

また、一の実施の形態では、電子機器は、車両に搭載される電子機器であって、上記の処理装置が有するカメラ及び判定部を備える。 Further, in one embodiment, the electronic device is an electronic device mounted on a vehicle, and includes a camera and a determination unit included in the above-mentioned processing device.

また、一の実施の形態では、車両は、上記の電子機器を備える。 Also, in one embodiment, the vehicle comprises the electronic devices described above.

人の特徴を表す特徴量を簡単に推定することができる。 It is possible to easily estimate the amount of features that represent human characteristics.

通信システムの一例を示す図である。It is a figure which shows an example of a communication system. 通信システムの一例を示す図である。It is a figure which shows an example of a communication system. 携帯型電子機器の外観の一例を示す斜視図である。It is a perspective view which shows an example of the appearance of a portable electronic device. 携帯型電子機器の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of a portable electronic device. 路側機の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of a roadside machine. 車両に搭載される電子機器の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the electronic device mounted on a vehicle. サーバ装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of a server device. 携帯型電子機器の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation of a portable electronic device. 処理装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of a processing apparatus. 処理装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of a processing apparatus. 特徴量及び指紋情報が処理装置に登録されている様子の一例を示す図である。It is a figure which shows an example of the appearance that a feature amount and fingerprint information are registered in a processing apparatus. 処理装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of a processing apparatus. 指紋サイズの拡大率と補正拡大率との関係の一例を示す図である。It is a figure which shows an example of the relationship between the enlargement ratio of fingerprint size and the correction enlargement ratio. 処理装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of a processing apparatus. 携帯型電子機器の表示例を示す図である。It is a figure which shows the display example of a portable electronic device. 処理装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of a processing apparatus. 携帯型電子機器の表示例を示す図である。It is a figure which shows the display example of a portable electronic device. 携帯型電子機器の表示例を示す図である。It is a figure which shows the display example of a portable electronic device.

<通信システムの概要>
図1及び2は通信システム1の一例を示す図である。通信システム1は、例えば、高度道路交通システム(ITS:Intelligent Transport Systems)で使用される通信システムである。具体的には、通信システム1は、ITSの安全運転支援通信システムとして使用されることが可能である。安全運転支援通信システムは、安全運転支援システムと呼ばれたり、安全運転支援無線システムと呼ばれたりする。なお、通信システム1の使用用途はこの限りではない。
<Outline of communication system>
1 and 2 are diagrams showing an example of the communication system 1. The communication system 1 is, for example, a communication system used in intelligent transport systems (ITS). Specifically, the communication system 1 can be used as a safe driving support communication system of ITS. The safe driving support communication system is called a safe driving support system or a safe driving support wireless system. The usage of the communication system 1 is not limited to this.

図1に示されるように、通信システム1は、複数の携帯型電子機器2と、複数の路側機3と、複数の電子機器40がそれぞれ搭載された複数の車両4と、サーバ装置5とを備える。複数の携帯型電子機器2と、複数の路側機3と、複数の電子機器40と、サーバ装置5とは、ネットワーク6に接続されている。複数の携帯型電子機器2と、複数の路側機3と、複数の電子機器40と、サーバ装置5とは、ネットワーク6を通じて互いに通信することが可能である。車両4は、それに搭載された電子機器40によって、携帯型電子機器2等の他の装置と通信することが可能である。ネットワーク6には、携帯電話通信網及びインターネット等が含まれる。以後、携帯型電子機器2を単に電子機器2と呼ぶことがある。また、車両4に搭載された電子機器40を車載機器40と呼ぶことがある。 As shown in FIG. 1, the communication system 1 includes a plurality of portable electronic devices 2, a plurality of roadside devices 3, a plurality of vehicles 4 each equipped with a plurality of electronic devices 40, and a server device 5. Be prepared. The plurality of portable electronic devices 2, the plurality of roadside devices 3, the plurality of electronic devices 40, and the server device 5 are connected to the network 6. The plurality of portable electronic devices 2, the plurality of roadside devices 3, the plurality of electronic devices 40, and the server device 5 can communicate with each other through the network 6. The vehicle 4 can communicate with other devices such as the portable electronic device 2 by the electronic device 40 mounted on the vehicle 4. The network 6 includes a mobile phone communication network, the Internet, and the like. Hereinafter, the portable electronic device 2 may be simply referred to as an electronic device 2. Further, the electronic device 40 mounted on the vehicle 4 may be referred to as an in-vehicle device 40.

路側機3は、図2に示されるように、例えば、車道8に設けられた横断歩道80の近くに位置する。図2に示される車道8は、片側1車線の車道であって、第1車線8aと、当該第1車線8aの対向車線となる第2車線8bとを備える。路側機3は、例えば、第1車線8aの近くに位置する。 As shown in FIG. 2, the roadside machine 3 is located near, for example, a pedestrian crossing 80 provided on the roadway 8. The lane 8 shown in FIG. 2 is a lane with one lane on each side, and includes a first lane 8a and a second lane 8b which is an oncoming lane of the first lane 8a. The roadside machine 3 is located near, for example, the first lane 8a.

車道8の近くには、車道8に沿って車道8に併設された2つの歩道9が存在する。2つの歩道9は、第1車線8aに沿って第1車線8aに併設された歩道9aと、第2車線8bに沿って第2車線8bに併設された歩道9bとを備える。 Near the roadway 8, there are two sidewalks 9 attached to the roadway 8 along the roadway 8. The two sidewalks 9 include a sidewalk 9a attached to the first lane 8a along the first lane 8a and a sidewalk 9b attached to the second lane 8b along the second lane 8b.

ここで、本例では、歩道とは、車道に沿って当該車道に併設された、歩行者が通行するための道路であるとする。また、車道を横切る横断歩道は、歩道とは別のものであって、車道に含まれるものとする。 Here, in this example, it is assumed that the sidewalk is a road along the roadway for pedestrians to pass along. In addition, the pedestrian crossing that crosses the roadway is different from the sidewalk and is included in the roadway.

車道8の上方には、車両4の横断歩道80の通行を制御するための2つの車両用信号機10が位置する。2つの車両用信号機10は、第1車線8aの上方に位置し、第1車線8aを走行する車両4の運転者が視認可能な車両用信号機10aと、第2車線8bの上方に位置し、第2車線8bを走行する車両4の運転者が視認可能な車両用信号機10bとを備える。 Above the roadway 8, two vehicle traffic lights 10 for controlling the passage of the pedestrian crossing 80 of the vehicle 4 are located. The two vehicle traffic lights 10 are located above the first lane 8a and above the vehicle traffic lights 10a and the second lane 8b, which are visible to the driver of the vehicle 4 traveling in the first lane 8a. It is provided with a vehicle signal 10b that can be visually recognized by the driver of the vehicle 4 traveling in the second lane 8b.

また、車道8の近くには、歩行者の横断歩道80の通行を制御するための2つの歩行者用信号機11が位置する。2つの歩行者用信号機11は、第1車線8a側の歩道9aの上方に位置する歩行者用信号機11aと、第2車線8b側の歩道9bの上方に位置する歩行者用信号機11bとを備える。横断歩道80を歩道9b側から歩道9a側に向かって横断する歩行者は歩行者用信号機11aを視認可能である。一方で、横断歩道80を歩道9a側から歩道9b側に向かって横断する歩行者は歩行者用信号機11bを視認可能である。 Further, two pedestrian traffic lights 11 for controlling the passage of the pedestrian crosswalk 80 are located near the roadway 8. The two pedestrian traffic lights 11 include a pedestrian traffic light 11a located above the sidewalk 9a on the first lane 8a side and a pedestrian traffic light 11b located above the sidewalk 9b on the second lane 8b side. .. A pedestrian who crosses the pedestrian crossing 80 from the sidewalk 9b side toward the sidewalk 9a side can see the pedestrian traffic light 11a. On the other hand, a pedestrian who crosses the pedestrian crossing 80 from the sidewalk 9a side toward the sidewalk 9b side can visually recognize the pedestrian traffic light 11b.

通信システム1では、路側機3と、車道8を走る自動車等の車両4と、歩道9を歩くユーザ20が所持する電子機器2とが、互いに通信を行うことが可能である。ユーザ20は、人であって、歩行者であるとも言える。また、複数の車両4は、互いに通信することが可能である。路側機3と車両4との間の通信、車両4間の通信、路側機3と歩行者の電子機器2との間の通信、歩行者の電子機器2と車両4の間の通信は、それぞれ、路車間通信、車車間通信、路歩間通信、歩車間通信と呼ばれる。以後、ユーザ20を歩行者20と呼ぶことがある。 In the communication system 1, the roadside machine 3, the vehicle 4 such as an automobile running on the roadway 8, and the electronic device 2 possessed by the user 20 walking on the sidewalk 9 can communicate with each other. It can be said that the user 20 is a person and a pedestrian. Further, the plurality of vehicles 4 can communicate with each other. Communication between the roadside unit 3 and the vehicle 4, communication between the vehicles 4, communication between the roadside unit 3 and the pedestrian electronic device 2, and communication between the pedestrian electronic device 2 and the vehicle 4 are performed, respectively. , Road-to-vehicle communication, vehicle-to-vehicle communication, road-to-walk communication, pedestrian-to-vehicle communication. Hereinafter, the user 20 may be referred to as a pedestrian 20.

電子機器2は、ユーザ20からの所定の入力に応じて、当該電子機器2の位置情報等をサーバ装置5等に送信することが可能である。ユーザ20は、例えば、自身にトラブルが発生した場合に、電子機器2に対して所定の入力を行う。サーバ装置5は、電子機器2のユーザ20にトラブルが発生した場合に所定の処理を行うことが可能である。歩行者20によって所持される電子機器2は、歩端末と呼ばれることがある。 The electronic device 2 can transmit the position information and the like of the electronic device 2 to the server device 5 and the like in response to a predetermined input from the user 20. For example, when a trouble occurs in the user 20, the user 20 inputs a predetermined input to the electronic device 2. The server device 5 can perform a predetermined process when a trouble occurs in the user 20 of the electronic device 2. The electronic device 2 possessed by the pedestrian 20 is sometimes called a walking terminal.

路側機3は、図2に示されるように、後述するカメラ320及び表示部340を備える。第1車線8aを走行する車両4の運転者及び第2車線8bを走行する車両4の運転者は、路側機3の表示部340の表示を視認することが可能である。 As shown in FIG. 2, the roadside machine 3 includes a camera 320 and a display unit 340, which will be described later. The driver of the vehicle 4 traveling in the first lane 8a and the driver of the vehicle 4 traveling in the second lane 8b can visually recognize the display of the display unit 340 of the roadside machine 3.

横断歩道80の近くに位置する路側機3は、当該横断歩道80の車両4の通行を制御するための車両用信号機10a及び10bと、当該横断歩道80の歩行者の通行を制御するための歩行者用信号機11a及び11bとを制御することが可能である。路側機3は、その周辺に位置する車両用信号機10a及び10b及び歩行者用信号機11a及び11bを制御することが可能であると言える。 The roadside machine 3 located near the pedestrian crossing 80 includes vehicle traffic lights 10a and 10b for controlling the passage of the vehicle 4 on the pedestrian crossing 80, and pedestrians walking on the pedestrian crossing 80. It is possible to control the pedestrian traffic lights 11a and 11b. It can be said that the roadside machine 3 can control the vehicle traffic lights 10a and 10b and the pedestrian traffic lights 11a and 11b located in the vicinity thereof.

また路側機3は、例えば、車両用信号機10及び歩行者用信号機11の灯火に関する情報及び道路規制に関する情報などを車両4及び電子機器2に通知することが可能である。また、路側機3は、その周辺の車両4及び歩行者を検知することが可能である。横断歩道80の近くに位置する路側機3は、例えば、横断歩道80を渡る歩行者を検知することが可能である。そして、路側機3は、検知した車両4及び歩行者に関する情報を、車両4及び電子機器2に通知することが可能である。また、路側機3は、車両4及び電子機器2から通知される情報を、他の車両4及び電子機器2に通知することが可能である。 Further, the roadside unit 3 can, for example, notify the vehicle 4 and the electronic device 2 of information on the lighting of the vehicle traffic light 10 and the pedestrian traffic light 11 and information on road regulation. In addition, the roadside machine 3 can detect vehicles 4 and pedestrians in the vicinity thereof. The roadside machine 3 located near the pedestrian crossing 80 can detect, for example, a pedestrian crossing the pedestrian crossing 80. Then, the roadside machine 3 can notify the vehicle 4 and the electronic device 2 of the detected information about the vehicle 4 and the pedestrian. Further, the roadside machine 3 can notify the other vehicle 4 and the electronic device 2 of the information notified from the vehicle 4 and the electronic device 2.

車両4は、自身の位置、速度及びウィンカーに関する情報などを、車載機器40を使用して、他の車両4、路側機3及び電子機器2に対して通知することが可能である。そして、車両4は、他の装置から通知される情報に基づいて警告等の各種通知を運転者に行うことによって、運転者の安全運転を支援することが可能である。車両4は、車載機器40が備えるスピーカ及び表示装置等を利用して、運転者に各種通知を行うことが可能である。 The vehicle 4 can notify the other vehicle 4, the roadside machine 3, and the electronic device 2 of information about its own position, speed, blinker, and the like by using the in-vehicle device 40. Then, the vehicle 4 can support the safe driving of the driver by giving various notifications such as warnings to the driver based on the information notified from the other device. The vehicle 4 can give various notifications to the driver by using the speaker, the display device, and the like included in the in-vehicle device 40.

本例の通信システム1では、複数の路側機3及びサーバ装置5が、複数のカメラ320を用いてユーザ20の位置の追跡を行うことが可能な処理装置7(図1参照)を構成している。処理装置7は処理システムであるとも言える。処理装置7の動作については後で詳細に説明する。 In the communication system 1 of this example, a plurality of roadside machines 3 and a server device 5 constitute a processing device 7 (see FIG. 1) capable of tracking the position of the user 20 using a plurality of cameras 320. There is. It can be said that the processing device 7 is a processing system. The operation of the processing device 7 will be described in detail later.

このように、通信システム1では、路車間通信、車車間通信、路歩間通信及び歩車間通信が行われることによって、車両4の運転者の安全運転が支援される。 As described above, in the communication system 1, the safe driving of the driver of the vehicle 4 is supported by performing the road-to-vehicle communication, the vehicle-to-vehicle communication, the road-to-step communication, and the pedestrian-to-vehicle communication.

なお図2の例では、車両4として、自動車の車両が示されているが、車両4は、自動車以外の車両であってもよい。例えば、車両4は、バスの車両であってもよいし、路面電車の車両であってもよい。また、路側機3の設置場所は図2の例に限られない。 In the example of FIG. 2, a vehicle of an automobile is shown as the vehicle 4, but the vehicle 4 may be a vehicle other than the automobile. For example, the vehicle 4 may be a bus vehicle or a tram vehicle. Further, the installation location of the roadside machine 3 is not limited to the example of FIG.

<携帯機器の構成例>
図3は電子機器2の外観の一例を示す斜視図である。図4は電子機器2の電気的構成の一例を示すブロック図である。図3に示されるように、電子機器2は、当該電子機器2の外装を成すケース21を備える。ケース21は、例えば、やや細長い板状を成しており、ユーザ20が片手でそれを所持することが可能な形状となっている。電子機器2は、例えば、子供に所持される機器である。なお、電子機器2のユーザ20は、子供以外であってもよい。また、ケース21の形状は図3の例には限られない。
<Example of mobile device configuration>
FIG. 3 is a perspective view showing an example of the appearance of the electronic device 2. FIG. 4 is a block diagram showing an example of the electrical configuration of the electronic device 2. As shown in FIG. 3, the electronic device 2 includes a case 21 that forms the exterior of the electronic device 2. The case 21, for example, has a slightly elongated plate shape, and is shaped so that the user 20 can hold it with one hand. The electronic device 2 is, for example, a device possessed by a child. The user 20 of the electronic device 2 may be other than a child. Further, the shape of the case 21 is not limited to the example of FIG.

電子機器2は、ケース21以外にも、図4に示されるように、制御部200、通信部210、操作ボタン220、衛星信号受信部230、ブザー240、表示部250、タッチパネル260及びセンサ270を備える。制御部200、通信部210、操作ボタン220、衛星信号受信部230、ブザー240、表示部250、タッチパネル260及びセンサ270は、ケース21内に収納されている。図3に示されるように、ユーザ20が操作ボタン220を操作できるように、操作ボタン220の表面の一部はケース21から露出している。また、表示部250の表示面250aは、ケース21から露出している。 In addition to the case 21, the electronic device 2 includes a control unit 200, a communication unit 210, an operation button 220, a satellite signal receiving unit 230, a buzzer 240, a display unit 250, a touch panel 260, and a sensor 270, as shown in FIG. Be prepared. The control unit 200, the communication unit 210, the operation button 220, the satellite signal receiving unit 230, the buzzer 240, the display unit 250, the touch panel 260, and the sensor 270 are housed in the case 21. As shown in FIG. 3, a part of the surface of the operation button 220 is exposed from the case 21 so that the user 20 can operate the operation button 220. Further, the display surface 250a of the display unit 250 is exposed from the case 21.

制御部200は、電子機器2の他の構成要素を制御することによって、電子機器2の動作を統括的に管理することが可能である。制御部200は制御装置あるいは制御回路とも言える。制御部200は、以下にさらに詳細に述べられるように、種々の機能を実行するための制御及び処理能力を提供するために、少なくとも1つのプロセッサを含む。 The control unit 200 can comprehensively manage the operation of the electronic device 2 by controlling other components of the electronic device 2. The control unit 200 can also be said to be a control device or a control circuit. The control unit 200 includes at least one processor to provide control and processing power for performing various functions, as described in more detail below.

種々の実施形態によれば、少なくとも1つのプロセッサは、単一の集積回路(IC)として、又は複数の通信可能に接続された集積回路IC及び/又はディスクリート回路(discrete circuits)として実行されてもよい。少なくとも1つのプロセッサは、種々の既知の技術に従って実行されることが可能である。 According to various embodiments, at least one processor may be run as a single integrated circuit (IC) or as multiple communicably connected integrated circuit ICs and / or discrete circuits. Good. At least one processor can be run according to various known techniques.

1つの実施形態において、プロセッサは、例えば、関連するメモリに記憶された指示を実行することによって1以上のデータ計算手続又は処理を実行するように構成された1以上の回路又はユニットを含む。他の実施形態において、プロセッサは、1以上のデータ計算手続き又は処理を実行するように構成されたファームウェア(例えば、ディスクリートロジックコンポーネント)であってもよい。 In one embodiment, the processor comprises, for example, one or more circuits or units configured to perform one or more data calculation procedures or processes by executing instructions stored in the associated memory. In other embodiments, the processor may be firmware (eg, a discrete logic component) configured to perform one or more data computation procedures or processes.

種々の実施形態によれば、プロセッサは、1以上のプロセッサ、コントローラ、マイクロプロセッサ、マイクロコントローラ、特定用途向け集積回路(ASIC)、デジタル信号処理装置、プログラマブルロジックデバイス、フィールドプログラマブルゲートアレイ、又はこれらのデバイス若しくは構成の任意の組み合わせ、又は他の既知のデバイス及び構成の組み合わせを含み、以下に説明される機能を実行してもよい。 According to various embodiments, the processor is one or more processors, controllers, microprocessors, microcontrollers, application specific integrated circuits (ASICs), digital signal processing devices, programmable logic devices, field programmable gate arrays, or any of these. Any combination of devices or configurations, or other known device and configuration combinations may be included to perform the functions described below.

本例では、制御部200は、CPU(Central Processing Unit)201及び記憶部202を備える。記憶部202は、ROM(Read Only Memory)及びRAM(Random Access Memory)などの、CPU201が読み取り可能な非一時的な記録媒体を含む。記憶部202が有するROMは、例えば、不揮発性メモリであるフラッシュROM(フラッシュメモリ)である。記憶部202には、電子機器2を制御するための制御プログラム202a等が記憶されている。制御部200の各種機能は、CPU201が記憶部202内の制御プログラム202aを実行することによって実現される。 In this example, the control unit 200 includes a CPU (Central Processing Unit) 201 and a storage unit 202. The storage unit 202 includes a non-temporary recording medium such as a ROM (Read Only Memory) and a RAM (Random Access Memory) that can be read by the CPU 201. The ROM included in the storage unit 202 is, for example, a flash ROM (flash memory) which is a non-volatile memory. A control program 202a or the like for controlling the electronic device 2 is stored in the storage unit 202. Various functions of the control unit 200 are realized by the CPU 201 executing the control program 202a in the storage unit 202.

なお、制御部200の構成は上記の例に限られない。例えば、制御部200は、複数のCPU201を備えてもよい。また制御部200は、少なくとも一つのDSP(Digital Signal Processor)を備えてもよい。また、制御部200の全ての機能あるいは制御部200の一部の機能は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。また、記憶部202は、ROM及びRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えていてもよい。記憶部202は、例えば、小型のハードディスクドライブ及びSSD(Solid State Drive)などを備えていてもよい。 The configuration of the control unit 200 is not limited to the above example. For example, the control unit 200 may include a plurality of CPU 201s. Further, the control unit 200 may include at least one DSP (Digital Signal Processor). Further, all the functions of the control unit 200 or some functions of the control unit 200 may be realized by a hardware circuit that does not require software to realize the functions. Further, the storage unit 202 may include a non-temporary recording medium other than the ROM and RAM that can be read by a computer. The storage unit 202 may include, for example, a small hard disk drive, an SSD (Solid State Drive), or the like.

通信部210は、制御部200による制御によって、他の装置と通信することが可能である。通信部210は、無線でネットワーク6に接続されている。電子機器2の通信部210は、ネットワーク6を通じて、他の電子機器2、路側機3、車載機器40及びサーバ装置5と通信することが可能である。また、通信部210は、路側機3とネットワーク6を介さずに直接通信することが可能である。通信部210は、例えば、ITSに割り当てられている760MHz帯を使用して、路側機3と直接通信することが可能である。通信部210は、他の装置から受信した情報を制御部200に出力する。通信部210は、制御部200からの情報を他の装置に送信する。通信部210は通信回路とも言える。以後、単に760MHz帯と言えば、ITSに割り当てられている760MHz帯を意味する。 The communication unit 210 can communicate with other devices under the control of the control unit 200. The communication unit 210 is wirelessly connected to the network 6. The communication unit 210 of the electronic device 2 can communicate with other electronic devices 2, the roadside device 3, the in-vehicle device 40, and the server device 5 through the network 6. Further, the communication unit 210 can directly communicate with the roadside machine 3 without going through the network 6. The communication unit 210 can directly communicate with the roadside machine 3 by using, for example, the 760 MHz band assigned to the ITS. The communication unit 210 outputs the information received from the other device to the control unit 200. The communication unit 210 transmits the information from the control unit 200 to another device. The communication unit 210 can be said to be a communication circuit. Hereinafter, the 760 MHz band simply means the 760 MHz band assigned to the ITS.

電子機器2の通信部210は、他の電子機器2、車載機器40及びサーバ装置5の少なくとも一つと、ネットワーク6を介さずに直接通信することが可能であってもよい。この場合、通信部210は、例えば760MHz帯を使用して、他の電子機器2、車載機器40及びサーバ装置5の少なくとも一つと直接無線通信を行ってもよい。また通信部210は、近距離無線通信を行うことが可能であってもよい。例えば、通信部210は、Bluetooth(登録商標)に準拠して無線通信することが可能であってもよい。また通信部210は、WiFi等の無線LAN(Local Area Network)を用いて無線通信を行うことが可能であってもよい。また通信部210は、他の無線通信方式に基づいて無線通信することが可能であってもよい。 The communication unit 210 of the electronic device 2 may be capable of directly communicating with at least one of the other electronic device 2, the in-vehicle device 40, and the server device 5 without going through the network 6. In this case, the communication unit 210 may directly perform wireless communication with at least one of the other electronic device 2, the in-vehicle device 40, and the server device 5 by using, for example, the 760 MHz band. Further, the communication unit 210 may be capable of performing short-range wireless communication. For example, the communication unit 210 may be capable of wireless communication in accordance with Bluetooth (registered trademark). Further, the communication unit 210 may be capable of performing wireless communication using a wireless LAN (Local Area Network) such as WiFi. Further, the communication unit 210 may be capable of wireless communication based on another wireless communication method.

操作ボタン220は、ユーザ20にトラブルが発生した場合に当該ユーザ20が操作するボタンである。ユーザ20は、操作ボタン220を操作することによって、ユーザ20にトラブルが発生したことを電子機器2に対して通知することができる。操作ボタン220は、例えば押しボタンである。電子機器2を所持する子供は、例えば、不審者に襲われた場合、急に体調を壊して動けなくなった場合、交通事故に巻きまれた場合、迷子になった場合などに、操作ボタン220を操作する。操作ボタン220が操作されると、操作ボタン220から操作信号が制御部200に出力される。制御部200は、操作ボタン220から操作信号が入力されると、操作ボタン220が操作されたと判断する。 The operation button 220 is a button operated by the user 20 when a trouble occurs in the user 20. By operating the operation button 220, the user 20 can notify the electronic device 2 that a trouble has occurred in the user 20. The operation button 220 is, for example, a push button. A child who possesses the electronic device 2 presses the operation button 220, for example, when he / she is attacked by a suspicious person, suddenly becomes ill and cannot move, is involved in a traffic accident, or gets lost. Manipulate. When the operation button 220 is operated, an operation signal is output from the operation button 220 to the control unit 200. When the operation signal is input from the operation button 220, the control unit 200 determines that the operation button 220 has been operated.

衛星信号受信部230は、測位衛星が送信する衛星信号を受信することが可能である。衛星信号受信部230は衛星信号受信回路とも言える。衛星信号受信部230は、受信した衛星信号に基づいて、電子機器2の絶対的な位置(言い換えれば、絶対座標系の位置)を示す位置情報を取得することが可能である。衛星信号受信部230は、電子機器2の位置情報を取得する位置取得部あるいは位置取得回路であると言える。衛星信号受信部230が取得する位置情報は、例えば、緯度、経度及び高度で表される。以後、衛星信号受信部230を単に受信部230と呼ぶことがある。 The satellite signal receiving unit 230 can receive the satellite signal transmitted by the positioning satellite. The satellite signal receiving unit 230 can be said to be a satellite signal receiving circuit. The satellite signal receiving unit 230 can acquire position information indicating the absolute position (in other words, the position of the absolute coordinate system) of the electronic device 2 based on the received satellite signal. It can be said that the satellite signal receiving unit 230 is a position acquisition unit or a position acquisition circuit that acquires the position information of the electronic device 2. The position information acquired by the satellite signal receiving unit 230 is represented by, for example, latitude, longitude and altitude. Hereinafter, the satellite signal receiving unit 230 may be simply referred to as a receiving unit 230.

受信部230は、例えばGPS受信機であって、GPS(Global Positioning System)の測位衛星からの無線信号を受信することが可能である。受信部230は、受信した無線信号に基づいて、電子機器2の現在位置を、例えば緯度、経度及び高度で算出し、算出した緯度、経度及び高度を含む位置情報を制御部200に出力する。受信部230は、位置情報を繰り返し取得する。電子機器2の位置情報は、当該電子機器2を持つユーザ20の位置を示す位置情報であるとも言える。また、受信部230は、位置情報を取得する際に、現在の時刻を示す時刻情報も取得することができる。受信部230は、取得した時刻情報を制御部200に出力する。 The receiving unit 230 is, for example, a GPS receiver, and can receive a radio signal from a GPS (Global Positioning System) positioning satellite. The receiving unit 230 calculates the current position of the electronic device 2 based on the received wireless signal, for example, by latitude, longitude and altitude, and outputs the position information including the calculated latitude, longitude and altitude to the control unit 200. The receiving unit 230 repeatedly acquires the position information. It can be said that the position information of the electronic device 2 is the position information indicating the position of the user 20 who has the electronic device 2. In addition, when the receiving unit 230 acquires the position information, it can also acquire the time information indicating the current time. The receiving unit 230 outputs the acquired time information to the control unit 200.

なお受信部230は、GPS以外のGNSS(Global Navigation Satellite System)の測位衛星からの信号に基づいて電子機器2の位置情報を求めてもよい。例えば、受信部230は、GLONASS(Global Navigation Satellite System)、IRNSS(Indian Regional Navigational Satellite System)、COMPASS、Galileoあるいは準天頂衛星システム(QZSS:Quasi-Zenith Satellites System)の測位衛星からの信号に基づいて電子機器2の位置情報を求めてもよい。 The receiving unit 230 may obtain the position information of the electronic device 2 based on a signal from a positioning satellite of a GNSS (Global Navigation Satellite System) other than GPS. For example, the receiver 230 is based on signals from positioning satellites of GLONASS (Global Navigation Satellite System), IRNSS (Indian Regional Navigational Satellite System), COMPASS, Galileo or Quasi-Zenith Satellites System (QZSS). The position information of the electronic device 2 may be obtained.

ブザー240は、制御部200による制御によって、音を出力したり、音の出力を停止したりする。 The buzzer 240 outputs sound or stops sound output under the control of the control unit 200.

表示部250は、例えば、液晶ディスプレイあるいは有機ELディスプレイである。表示部250は、制御部200によって制御されることによって、文字、記号、図形などの各種情報を表示面250aに表示することが可能である。 The display unit 250 is, for example, a liquid crystal display or an organic EL display. The display unit 250 can display various information such as characters, symbols, and figures on the display surface 250a by being controlled by the control unit 200.

タッチパネル260は、表示部250の表示面250aに対する指等の操作子による操作を検出することが可能である。タッチパネル260は、例えば、投影型静電容量方式のタッチパネルである。ユーザ20が指等の操作子によって、表示面250aに対して操作を行ったとき、その操作に応じた電気信号をタッチパネル260は制御部200に入力することが可能である。制御部200は、タッチパネル260からの電気信号に基づいて、表示面250aに対して行われた操作の内容を特定することが可能である。そして制御部200は、特定した操作内容に応じた処理を行うことが可能である。 The touch panel 260 can detect an operation by an operator such as a finger on the display surface 250a of the display unit 250. The touch panel 260 is, for example, a projection type capacitance type touch panel. When the user 20 operates the display surface 250a with an operator such as a finger, the touch panel 260 can input an electric signal corresponding to the operation to the control unit 200. The control unit 200 can specify the content of the operation performed on the display surface 250a based on the electric signal from the touch panel 260. Then, the control unit 200 can perform processing according to the specified operation content.

センサ270は、ユーザ20の生体情報を取得することが可能である。センサ270は、例えば、操作ボタン220の裏側に位置している。センサ270は、ユーザ20における、操作ボタン220をさわる部位から生体情報を取得することができる。センサ270は、例えば指紋センサである。センサ270としての指紋センサは、静電容量方式のセンサであってもよいし、光学式のセンサであってもよいし、他の方式のセンサであってもよい。センサ270は、ユーザ20における、操作ボタン220をさわる指の指紋を検出し、検出した指紋に関する指紋情報を取得して制御部200に出力する。指紋情報は、例えば、指紋を示す画像である。指紋情報は、指紋を示す画像以外であってもよい。 The sensor 270 can acquire the biometric information of the user 20. The sensor 270 is located, for example, behind the operation button 220. The sensor 270 can acquire biometric information from the portion of the user 20 that touches the operation button 220. The sensor 270 is, for example, a fingerprint sensor. The fingerprint sensor as the sensor 270 may be a capacitance type sensor, an optical type sensor, or another type of sensor. The sensor 270 detects the fingerprint of the finger touching the operation button 220 of the user 20, acquires the fingerprint information related to the detected fingerprint, and outputs the fingerprint information to the control unit 200. The fingerprint information is, for example, an image showing a fingerprint. The fingerprint information may be other than an image showing the fingerprint.

電子機器2の構成は、上記の例に限られない。例えば、電子機器2はスピーカを備えてもよい。また電子機器2は、スマートフォン等の携帯電話機であってもよい。また、電子機器2は、例えば、タブレット端末、パーソナルコンピュータ、ウェアラブル機器などであってよい。電子機器2として採用されるウェアラブル機器は、リストバンド型あるいは腕時計型などの腕に装着するタイプであってもよいし、ヘッドバンド型あるいはメガネ型などの頭に装着するタイプであってもよいし、服型などの体に装着するタイプであってもよい。 The configuration of the electronic device 2 is not limited to the above example. For example, the electronic device 2 may include a speaker. Further, the electronic device 2 may be a mobile phone such as a smartphone. Further, the electronic device 2 may be, for example, a tablet terminal, a personal computer, a wearable device, or the like. The wearable device adopted as the electronic device 2 may be a wristband type, a wristwatch type, or the like worn on the arm, or a headband type, a glasses type, or the like worn on the head. , It may be a type worn on the body such as a clothes type.

<路側機の構成例>
図5は路側機3の構成の一例を示すブロック図である。図5に示されるように、路側機3は、制御部300、通信部310、カメラ320、センサ330及び表示部340を備える。制御部300は、路側機3の他の構成要素を制御することによって、路側機3の動作を統括的に管理することが可能である。制御部300は制御装置あるいは制御回路とも言える。制御部300は、以下にさらに詳細に述べられるように、種々の機能を実行するための制御及び処理能力を提供するために、少なくとも1つのプロセッサを含む。電子機器2の制御部200が備えるプロセッサについての上記の説明は、制御部300が備えるプロセッサについても適用することができる。
<Configuration example of roadside machine>
FIG. 5 is a block diagram showing an example of the configuration of the roadside machine 3. As shown in FIG. 5, the roadside machine 3 includes a control unit 300, a communication unit 310, a camera 320, a sensor 330, and a display unit 340. The control unit 300 can comprehensively manage the operation of the roadside machine 3 by controlling other components of the roadside machine 3. The control unit 300 can also be said to be a control device or a control circuit. The control unit 300 includes at least one processor to provide control and processing power for performing various functions, as described in more detail below. The above description of the processor included in the control unit 200 of the electronic device 2 can also be applied to the processor included in the control unit 300.

本例では、制御部300は、CPU301及び記憶部302を備える。記憶部302は、ROM及びRAMなどの、CPU301が読み取り可能な非一時的な記録媒体を含む。記憶部302が有するROMは、例えば、不揮発性メモリであるフラッシュROMである。記憶部302には、路側機3を制御するための制御プログラム302a等が記憶されている。制御部300の各種機能は、CPU301が記憶部302内の制御プログラム302aを実行することによって実現される。 In this example, the control unit 300 includes a CPU 301 and a storage unit 302. The storage unit 302 includes a non-temporary recording medium such as a ROM and a RAM that can be read by the CPU 301. The ROM included in the storage unit 302 is, for example, a flash ROM which is a non-volatile memory. A control program 302a or the like for controlling the roadside machine 3 is stored in the storage unit 302. Various functions of the control unit 300 are realized by the CPU 301 executing the control program 302a in the storage unit 302.

なお、制御部300の構成は上記の例に限られない。例えば、制御部300は、複数のCPU301を備えてもよい。また制御部300は、少なくとも一つのDSPを備えてもよい。また、制御部300の全ての機能あるいは制御部300の一部の機能は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。また、記憶部302は、ROM及びRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えていてもよい。 The configuration of the control unit 300 is not limited to the above example. For example, the control unit 300 may include a plurality of CPU 301s. Further, the control unit 300 may include at least one DSP. Further, all the functions of the control unit 300 or some functions of the control unit 300 may be realized by a hardware circuit that does not require software to realize the functions. Further, the storage unit 302 may include a non-temporary recording medium other than the ROM and RAM that can be read by a computer.

通信部310は、制御部300による制御によって、他の装置と通信することが可能である。通信部310は、有線及び無線の少なくとも一方でネットワーク6に接続されている。路側機3の通信部310は、ネットワーク6を通じて、他の路側機3、電子機器2、車載機器40及びサーバ装置5と通信することが可能である。また、路側機3の通信部310は、他の路側機3、電子機器2及び車載機器40とネットワーク6を介さずに直接無線通信することが可能である。通信部310は、例えば760MHz帯を使用して、路側機3の周辺の車載機器40と、路側機3の周辺の電子機器2と直接無線通信を行うことが可能である。また、路側機3の通信部310は、例えば760MHz帯を使用して、当該路側機3の隣の路側機3と直接無線通信を行うことが可能である。通信部310は、他の装置から受信した情報を制御部300に出力する。通信部310は、制御部300からの情報を他の装置に送信する。通信部310は通信回路とも言える。 The communication unit 310 can communicate with other devices under the control of the control unit 300. The communication unit 310 is connected to the network 6 at least one of wired and wireless. The communication unit 310 of the roadside machine 3 can communicate with other roadside machines 3, the electronic device 2, the in-vehicle device 40, and the server device 5 through the network 6. Further, the communication unit 310 of the roadside machine 3 can directly wirelessly communicate with another roadside machine 3, the electronic device 2, and the in-vehicle device 40 without going through the network 6. The communication unit 310 can directly perform wireless communication between the in-vehicle device 40 around the roadside machine 3 and the electronic device 2 around the roadside machine 3, for example, using the 760 MHz band. Further, the communication unit 310 of the roadside machine 3 can directly perform wireless communication with the roadside machine 3 adjacent to the roadside machine 3 by using, for example, the 760 MHz band. The communication unit 310 outputs information received from another device to the control unit 300. The communication unit 310 transmits the information from the control unit 300 to another device. The communication unit 310 can be said to be a communication circuit.

また通信部310は、車両用信号機10及び歩行者用信号機11に接続されている。制御部300は、通信部310を介して、車両用信号機10及び歩行者用信号機11を制御することが可能である。 Further, the communication unit 310 is connected to the vehicle traffic light 10 and the pedestrian traffic light 11. The control unit 300 can control the vehicle traffic light 10 and the pedestrian traffic light 11 via the communication unit 310.

なお、通信部310は、サーバ装置5と、ネットワーク6を介さずに直接通信することが可能であってもよい。この場合、通信部310は、例えば760MHz帯を使用して、サーバ装置5と直接無線通信を行ってもよい。また通信部310は、近距離無線通信を行うことが可能であってもよい。また通信部310は、WiFi等の無線LANを用いて無線通信を行うことが可能であってもよい。また通信部310は、他の無線通信方式に基づいて無線通信することが可能であってもよい。 The communication unit 310 may be able to directly communicate with the server device 5 without going through the network 6. In this case, the communication unit 310 may directly perform wireless communication with the server device 5 using, for example, the 760 MHz band. Further, the communication unit 310 may be capable of performing short-range wireless communication. Further, the communication unit 310 may be capable of performing wireless communication using a wireless LAN such as WiFi. Further, the communication unit 310 may be capable of wireless communication based on another wireless communication method.

カメラ320は、車道8あるいは歩道9の上方に位置する。カメラ320は、路側機3の周辺の道路の様子を撮影することが可能である。本例では、カメラ320は、横断歩道80の様子と、その周囲の様子とを撮影することが可能である。カメラ320で生成された撮影画像は制御部300に入力される。カメラ320は、例えば動画を撮影することが可能である。以後、カメラ320で得られる撮影画像をカメラ画像と呼ぶことがある。 The camera 320 is located above the roadway 8 or the sidewalk 9. The camera 320 can capture the state of the road around the roadside machine 3. In this example, the camera 320 can capture the state of the pedestrian crossing 80 and the state around it. The captured image generated by the camera 320 is input to the control unit 300. The camera 320 can capture a moving image, for example. Hereinafter, the captured image obtained by the camera 320 may be referred to as a camera image.

センサ330は、路側機3の周辺の道路の状況を検出することが可能である。センサ330は、例えば、レーダーセンサ及び赤外線センサ等を備えている。センサ330は、例えば、路側機3の周辺の歩行者及び車両4を検出することが可能である。センサ330は、検出結果を制御部300に出力する。 The sensor 330 can detect the condition of the road around the roadside machine 3. The sensor 330 includes, for example, a radar sensor, an infrared sensor, and the like. The sensor 330 can detect, for example, pedestrians and vehicles 4 around the roadside machine 3. The sensor 330 outputs the detection result to the control unit 300.

表示部340は、制御部300によって制御されることによって、文字、記号、図形などの各種情報を表示することが可能である。表示部340は、図2に示されるように、車道8の上方に位置する。これにより、車道8上の車両4の運転者は、表示部340で表示される情報を視認することができる。表示部340は、発光体として、例えば発光ダイオードを備える。なお、表示部340は発光ダイオード以外の発光体を備えてもよい。例えば、表示部340は液晶ディスプレイであってもよいし、有機ELディスプレイであってもよい。 The display unit 340 can display various information such as characters, symbols, and figures by being controlled by the control unit 300. The display unit 340 is located above the roadway 8 as shown in FIG. As a result, the driver of the vehicle 4 on the roadway 8 can visually recognize the information displayed on the display unit 340. The display unit 340 includes, for example, a light emitting diode as a light emitting body. The display unit 340 may include a light emitting body other than the light emitting diode. For example, the display unit 340 may be a liquid crystal display or an organic EL display.

路側機3の構成は上記の例に限られない。例えば、路側機3はスピーカを備えてもよい。また、路側機3は表示部340を備えなくてもよい。また、路側機3はセンサ330を備えなくてもよい。 The configuration of the roadside machine 3 is not limited to the above example. For example, the roadside machine 3 may be provided with a speaker. Further, the roadside machine 3 does not have to include the display unit 340. Further, the roadside machine 3 does not have to be provided with the sensor 330.

<車載機器の構成例>
図6は車載機器40の構成の一例を示す図である。車載機器40は、例えば、カーナビゲーション装置と、ラジオ等を含む音響機器とを備える。車載機器40は、カーナビゲーション装置及び音響機器のうち、カーナビゲーション装置だけを備えてもよいし、音響機器だけを備えてもよい。また、車載機器40は、車両4のライト及び方向指示器等を制御する車両制御機能を有してもよい。
<Configuration example of in-vehicle device>
FIG. 6 is a diagram showing an example of the configuration of the in-vehicle device 40. The in-vehicle device 40 includes, for example, a car navigation device and an audio device including a radio and the like. Among the car navigation device and the audio device, the in-vehicle device 40 may include only the car navigation device or only the audio device. Further, the in-vehicle device 40 may have a vehicle control function for controlling a light of the vehicle 4, a direction indicator, and the like.

図6に示されるように、車載機器40は、例えば、制御部400、通信部410、表示部420、タッチパネル430、衛星信号受信部440、スピーカ450、センサ460及びカメラ470を備える。 As shown in FIG. 6, the in-vehicle device 40 includes, for example, a control unit 400, a communication unit 410, a display unit 420, a touch panel 430, a satellite signal receiving unit 440, a speaker 450, a sensor 460, and a camera 470.

制御部400は、車載機器40の他の構成要素を制御することによって、車載機器40の動作を統括的に管理することが可能である。制御部400は制御装置あるいは制御回路とも言える。制御部400は、以下にさらに詳細に述べられるように、種々の機能を実行するための制御及び処理能力を提供するために、少なくとも1つのプロセッサを含む。電子機器2の制御部200が備えるプロセッサについての上記の説明は、制御部400が備えるプロセッサについても適用することができる。 The control unit 400 can comprehensively manage the operation of the vehicle-mounted device 40 by controlling other components of the vehicle-mounted device 40. The control unit 400 can also be said to be a control device or a control circuit. The control unit 400 includes at least one processor to provide control and processing power for performing various functions, as described in more detail below. The above description of the processor included in the control unit 200 of the electronic device 2 can also be applied to the processor included in the control unit 400.

本例では、制御部400は、CPU401及び記憶部402を備える。記憶部402は、ROM及びRAMなどの、CPU401が読み取り可能な非一時的な記録媒体を含む。記憶部402が有するROMは、例えば、不揮発性メモリであるフラッシュROMである。記憶部402には、車載機器40を制御するための制御プログラム402a等が記憶されている。制御部400の各種機能は、CPU401が記憶部402内の制御プログラム402aを実行することによって実現される。 In this example, the control unit 400 includes a CPU 401 and a storage unit 402. The storage unit 402 includes a non-temporary recording medium such as a ROM and a RAM that can be read by the CPU 401. The ROM included in the storage unit 402 is, for example, a flash ROM which is a non-volatile memory. A control program 402a or the like for controlling the in-vehicle device 40 is stored in the storage unit 402. Various functions of the control unit 400 are realized by the CPU 401 executing the control program 402a in the storage unit 402.

なお、制御部400の構成は上記の例に限られない。例えば、制御部400は、複数のCPU401を備えてもよい。また制御部400は、少なくとも一つのDSPを備えてもよい。また、制御部400の全ての機能あるいは制御部400の一部の機能は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。また、記憶部402は、ROM及びRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えていてもよい。 The configuration of the control unit 400 is not limited to the above example. For example, the control unit 400 may include a plurality of CPUs 401. Further, the control unit 400 may include at least one DSP. Further, all the functions of the control unit 400 or some functions of the control unit 400 may be realized by a hardware circuit that does not require software to realize the functions. Further, the storage unit 402 may include a non-temporary recording medium other than the ROM and RAM that can be read by a computer.

通信部410は、無線でネットワーク6に接続されている。車載機器40の通信部410は、ネットワーク6を通じて、他の車載機器40、路側機3、電子機器2及びサーバ装置5と通信することが可能である。また、通信部410は、路側機3とネットワーク6を介さずに直接無線通信することが可能である。通信部410は、例えば、760MHz帯を使用して、車両4の周辺の路側機3と直接無線通信を行うことが可能である。通信部410は、他の装置から受信した情報を制御部400に出力する。通信部410は、制御部400からの情報を他の装置に送信する。通信部410は通信回路とも言える。 The communication unit 410 is wirelessly connected to the network 6. The communication unit 410 of the in-vehicle device 40 can communicate with the other in-vehicle device 40, the roadside device 3, the electronic device 2, and the server device 5 through the network 6. Further, the communication unit 410 can directly wirelessly communicate with the roadside unit 3 without going through the network 6. For example, the communication unit 410 can directly perform wireless communication with the roadside unit 3 around the vehicle 4 by using the 760 MHz band. The communication unit 410 outputs the information received from the other device to the control unit 400. The communication unit 410 transmits the information from the control unit 400 to another device. The communication unit 410 can be said to be a communication circuit.

なお、車載機器40の通信部410は、他の車載機器40、電子機器2及びサーバ装置5の少なくとも一つと、ネットワーク6を介さずに直接通信することが可能であってもよい。この場合、車載機器40の通信部410は、例えば、760MHz帯を使用して、他の車載機器40、電子機器2及びサーバ装置5の少なくとも一つと直接無線通信を行ってもよい。また通信部410は、近距離無線通信を行うことが可能であってもよい。また通信部410は、WiFi等の無線LANを用いて無線通信を行うことが可能であってもよい。また通信部410は、他の無線通信方式に基づいて無線通信することが可能であってもよい。 The communication unit 410 of the vehicle-mounted device 40 may be capable of directly communicating with at least one of the other vehicle-mounted device 40, the electronic device 2, and the server device 5 without going through the network 6. In this case, the communication unit 410 of the vehicle-mounted device 40 may directly perform wireless communication with at least one of the other vehicle-mounted device 40, the electronic device 2, and the server device 5 by using, for example, the 760 MHz band. Further, the communication unit 410 may be capable of performing short-range wireless communication. Further, the communication unit 410 may be capable of performing wireless communication using a wireless LAN such as WiFi. Further, the communication unit 410 may be capable of wireless communication based on another wireless communication method.

表示部420は、例えば、液晶ディスプレイあるいは有機ELディスプレイである。表示部420は、制御部400によって制御されることによって、文字、記号、図形などの各種情報を表示することが可能である。 The display unit 420 is, for example, a liquid crystal display or an organic EL display. The display unit 420 can display various information such as characters, symbols, and figures by being controlled by the control unit 400.

タッチパネル430は、表示部420の表示面に対する指等の操作子による操作を検出することが可能である。タッチパネル430は、例えば、投影型静電容量方式のタッチパネルである。車載機器40のユーザが指等の操作子によって、表示部420の表示面に対して操作を行ったとき、その操作に応じた電気信号をタッチパネル430は制御部400に入力することが可能である。制御部400は、タッチパネル430からの電気信号に基づいて、表示面に対して行われた操作の内容を特定することが可能である。そして制御部400は、特定した操作内容に応じた処理を行うことが可能である。 The touch panel 430 can detect an operation by an operator such as a finger on the display surface of the display unit 420. The touch panel 430 is, for example, a projection type capacitance type touch panel. When the user of the in-vehicle device 40 operates the display surface of the display unit 420 with an operator such as a finger, the touch panel 430 can input an electric signal corresponding to the operation to the control unit 400. .. The control unit 400 can specify the content of the operation performed on the display surface based on the electric signal from the touch panel 430. Then, the control unit 400 can perform processing according to the specified operation content.

衛星信号受信部440は、測位衛星が送信する衛星信号を受信することが可能である。衛星信号受信部440は衛星信号受信回路とも言える。衛星信号受信部440は、受信した衛星信号に基づいて、車両4の絶対的な位置(言い換えれば、絶対座標系の位置)を示す位置情報を取得することが可能である。衛星信号受信部440は、車両4の位置情報を取得する位置取得部あるいは位置取得回路であると言える。衛星信号受信部440が取得する位置情報は、例えば、緯度、経度及び高度で表される。以後、衛星信号受信部440を単に受信部440と呼ぶことがある。 The satellite signal receiving unit 440 can receive the satellite signal transmitted by the positioning satellite. The satellite signal receiving unit 440 can be said to be a satellite signal receiving circuit. The satellite signal receiving unit 440 can acquire position information indicating the absolute position of the vehicle 4 (in other words, the position of the absolute coordinate system) based on the received satellite signal. It can be said that the satellite signal receiving unit 440 is a position acquisition unit or a position acquisition circuit that acquires the position information of the vehicle 4. The position information acquired by the satellite signal receiving unit 440 is represented by, for example, latitude, longitude and altitude. Hereinafter, the satellite signal receiving unit 440 may be simply referred to as a receiving unit 440.

受信部440は、例えばGPS受信機であって、GPSの測位衛星からの無線信号を受信することが可能である。受信部440は、受信した無線信号に基づいて、車両4の現在位置を、例えば緯度、経度及び高度で算出し、算出した緯度、経度及び高度を含む位置情報を制御部200に出力する。受信部440は、位置情報を繰り返し取得する。 The receiving unit 440 is, for example, a GPS receiver, and can receive a radio signal from a GPS positioning satellite. The receiving unit 440 calculates the current position of the vehicle 4 based on the received radio signal, for example, by latitude, longitude and altitude, and outputs the position information including the calculated latitude, longitude and altitude to the control unit 200. The receiving unit 440 repeatedly acquires the position information.

なお受信部440は、GPS以外のGNSSの測位衛星からの信号に基づいて電子機器2の位置情報を求めてもよい。例えば、受信部440は、GLONASS、IRNSS、COMPASS、Galileoあるいは準天頂衛星システムの測位衛星からの信号に基づいて車両4の位置情報を求めてもよい。 The receiving unit 440 may obtain the position information of the electronic device 2 based on a signal from a GNSS positioning satellite other than GPS. For example, the receiving unit 440 may obtain the position information of the vehicle 4 based on the signal from the positioning satellite of GLONASS, IRNSS, COMPASS, Galileo or the quasi-zenith satellite system.

スピーカ450は、例えばダイナミックスピーカである。スピーカ450は、制御部400からの電気的な音信号を音に変換し、それによって得られた音を車載機器40の外部に出力することが可能である。 The speaker 450 is, for example, a dynamic speaker. The speaker 450 can convert an electrical sound signal from the control unit 400 into sound, and output the sound obtained thereby to the outside of the in-vehicle device 40.

センサ460は、例えば、複数種類のセンサを備える。センサ460は、例えば、加速度センサ、地磁気センサ及びジャイロセンサ等を備える。制御部400は、加速度センサ、地磁気センサ及びジャイロセンサでの検出結果に基づいて、車両4の進行方向等を特定することが可能である。また制御部400は、加速度センサ、地磁気センサ及びジャイロセンサでの検出結果に基づいて、受信部440で取得される位置情報を補正することが可能である。センサ460が備えるセンサの種類はこの限りではない。 The sensor 460 includes, for example, a plurality of types of sensors. The sensor 460 includes, for example, an acceleration sensor, a geomagnetic sensor, a gyro sensor, and the like. The control unit 400 can specify the traveling direction of the vehicle 4 and the like based on the detection results of the acceleration sensor, the geomagnetic sensor, and the gyro sensor. Further, the control unit 400 can correct the position information acquired by the reception unit 440 based on the detection results of the acceleration sensor, the geomagnetic sensor and the gyro sensor. The type of sensor included in the sensor 460 is not limited to this.

カメラ470は、車両4の周辺を撮影することが可能である。カメラ470は、例えば、車両4の前方の様子を撮影することが可能である。カメラ470は、制御部400による制御によって、例えば動画を撮影する。制御部400は、カメラ470に常に撮影を実行させてもよいし、所定の条件が成立したときにカメラ470に撮影を実行させてもよい。カメラ470は、ドライブレコーダと呼ばれるカメラであってもよいし、他のカメラであってもよい。 The camera 470 can take a picture of the periphery of the vehicle 4. The camera 470 can capture, for example, the front view of the vehicle 4. The camera 470 captures, for example, a moving image under the control of the control unit 400. The control unit 400 may cause the camera 470 to always perform shooting, or may cause the camera 470 to perform shooting when a predetermined condition is satisfied. The camera 470 may be a camera called a drive recorder or another camera.

以上のような構成を備える車載機器40では、通信部410が、路側機3の通信部310が送信する情報を受信する。車載機器40では、制御部400が、受信部440及びセンサ460で得られた各種情報等に基づいて、車両4に関する車両情報を生成する。車載機器40は、生成した車両情報及び路側機3からの情報等に基づいて、車両4の運転者に対して警告等の通知を行う。車載機器40は、表示部420及びスピーカ450等を用いて、車両4の運転者に対して警告等の通知を行うことができる。 In the in-vehicle device 40 having the above configuration, the communication unit 410 receives the information transmitted by the communication unit 310 of the roadside machine 3. In the in-vehicle device 40, the control unit 400 generates vehicle information regarding the vehicle 4 based on various information obtained by the reception unit 440 and the sensor 460. The in-vehicle device 40 notifies the driver of the vehicle 4 of a warning or the like based on the generated vehicle information, the information from the roadside machine 3, and the like. The in-vehicle device 40 can give a warning or the like to the driver of the vehicle 4 by using the display unit 420, the speaker 450, or the like.

<サーバ装置の構成例>
図7はサーバ装置5の構成の一例を示すブロック図である。図7に示されるように、サーバ装置5は、制御部500、通信部510、表示部520及び入力部530を備える。制御部500は、サーバ装置5の他の構成要素を制御することによって、サーバ装置5の動作を統括的に管理することが可能である。制御部500は制御装置あるいは制御回路とも言える。制御部500は、以下にさらに詳細に述べられるように、種々の機能を実行するための制御及び処理能力を提供するために、少なくとも1つのプロセッサを含む。電子機器2の制御部200が備えるプロセッサについての上記の説明は、制御部500が備えるプロセッサについても適用することができる。
<Server device configuration example>
FIG. 7 is a block diagram showing an example of the configuration of the server device 5. As shown in FIG. 7, the server device 5 includes a control unit 500, a communication unit 510, a display unit 520, and an input unit 530. The control unit 500 can comprehensively manage the operation of the server device 5 by controlling other components of the server device 5. The control unit 500 can also be said to be a control device or a control circuit. The control unit 500 includes at least one processor to provide control and processing power for performing various functions, as described in more detail below. The above description of the processor included in the control unit 200 of the electronic device 2 can also be applied to the processor included in the control unit 500.

本例では、制御部500は、CPU501及び記憶部502を備える。記憶部502は、ROM及びRAMなどの、CPU501が読み取り可能な非一時的な記録媒体を含む。記憶部502が有するROMは、例えば、不揮発性メモリであるフラッシュROMである。記憶部502には、サーバ装置5を制御するための制御プログラム502a等が記憶されている。制御部500の各種機能は、CPU501が記憶部502内の制御プログラム502aを実行することによって実現される。 In this example, the control unit 500 includes a CPU 501 and a storage unit 502. The storage unit 502 includes a non-temporary recording medium such as a ROM and a RAM that can be read by the CPU 501. The ROM included in the storage unit 502 is, for example, a flash ROM which is a non-volatile memory. A control program 502a or the like for controlling the server device 5 is stored in the storage unit 502. Various functions of the control unit 500 are realized by the CPU 501 executing the control program 502a in the storage unit 502.

なお、制御部500の構成は上記の例に限られない。例えば、制御部500は、複数のCPU501を備えてもよい。また制御部500は、少なくとも一つのDSPを備えてもよい。また、制御部500の全ての機能あるいは制御部500の一部の機能は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。また、記憶部502は、ROM及びRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えていてもよい。 The configuration of the control unit 500 is not limited to the above example. For example, the control unit 500 may include a plurality of CPUs 501. Further, the control unit 500 may include at least one DSP. Further, all the functions of the control unit 500 or some functions of the control unit 500 may be realized by a hardware circuit that does not require software to realize the functions. Further, the storage unit 502 may include a non-temporary recording medium other than the ROM and RAM that can be read by a computer.

通信部510は、制御部500による制御によって、他の装置と通信することが可能である。通信部510は、有線及び無線の少なくとも一方でネットワーク6に接続されている。通信部510は、ネットワーク6を通じて、電子機器2、路側機3及び車載機器40と通信することが可能である。通信部510は、他の装置から受信した情報を制御部500に出力する。通信部510は、制御部500からの情報を他の装置に送信する。通信部510は通信回路とも言える。 The communication unit 510 can communicate with other devices under the control of the control unit 500. The communication unit 510 is connected to the network 6 at least one of wired and wireless. The communication unit 510 can communicate with the electronic device 2, the roadside machine 3, and the in-vehicle device 40 through the network 6. The communication unit 510 outputs the information received from the other device to the control unit 500. The communication unit 510 transmits the information from the control unit 500 to another device. The communication unit 510 can be said to be a communication circuit.

なお、通信部510は、近距離無線通信を行うことが可能であってもよい。また通信部510は、WiFi等の無線LANを用いて無線通信を行うことが可能であってもよい。また通信部510は、他の無線通信方式に基づいて無線通信することが可能であってもよい。 The communication unit 510 may be capable of performing short-range wireless communication. Further, the communication unit 510 may be capable of performing wireless communication using a wireless LAN such as WiFi. Further, the communication unit 510 may be capable of wireless communication based on another wireless communication method.

表示部520は、例えば、液晶ディスプレイあるいは有機ELディスプレイである。表示部520は、制御部500によって制御されることによって、文字、記号、図形などの各種情報を表示することが可能である。 The display unit 520 is, for example, a liquid crystal display or an organic EL display. The display unit 520 can display various information such as characters, symbols, and figures by being controlled by the control unit 500.

入力部530は、サーバ装置5のユーザからの入力を受け付けることが可能である。入力部530は、例えば、マウス及びキーボードを備える。入力部530は、表示部520の表示面に対する操作を検出するタッチパネルを備えてもよい。 The input unit 530 can receive input from the user of the server device 5. The input unit 530 includes, for example, a mouse and a keyboard. The input unit 530 may include a touch panel for detecting an operation on the display surface of the display unit 520.

サーバ装置5の構成は上記の例に限られない。例えば、サーバ装置5は表示部520を備えなくてもよい。また、サーバ装置5は入力部530を備えなくてもよい。 The configuration of the server device 5 is not limited to the above example. For example, the server device 5 does not have to include the display unit 520. Further, the server device 5 does not have to include the input unit 530.

<通信システムの動作例>
<携帯機器の動作例>
図8は、操作ボタン220が操作される場合の電子機器2の動作の一例を示すフローチャートである。図8に示されるように、ステップs1において、電子機器2の制御部200が、操作ボタン220が操作されたと判断すると、ステップs2が実行される。操作ボタン220がユーザ20の指で操作されると、センサ270は当該指の指紋情報を取得する。
<Operation example of communication system>
<Example of operation of mobile device>
FIG. 8 is a flowchart showing an example of the operation of the electronic device 2 when the operation button 220 is operated. As shown in FIG. 8, in step s1, when the control unit 200 of the electronic device 2 determines that the operation button 220 has been operated, step s2 is executed. When the operation button 220 is operated by the finger of the user 20, the sensor 270 acquires the fingerprint information of the finger.

ステップs2において、制御部200は、ユーザ20にトラブルが発生したことを示すトラブル発生情報を生成する。そして、制御部200は、通信部210に、トラブル発生情報をサーバ装置5に対して送信させる。トラブル発生情報には、操作ボタン220が操作されたときにセンサ270で取得された指紋情報が含まれる。また、トラブル発生情報には、受信部230で取得された最新の位置情報が含まれる。またトラブル発生情報には、電子機器2の識別情報が含まれる。 In step s2, the control unit 200 generates trouble occurrence information indicating that the trouble has occurred in the user 20. Then, the control unit 200 causes the communication unit 210 to transmit the trouble occurrence information to the server device 5. The trouble occurrence information includes fingerprint information acquired by the sensor 270 when the operation button 220 is operated. In addition, the trouble occurrence information includes the latest position information acquired by the receiving unit 230. Further, the trouble occurrence information includes the identification information of the electronic device 2.

操作ボタン220が再度操作されると、ステップs1が再度実行される。その後、電子機器2は同様に動作する。以後、トラブル発生情報に含まれる指紋情報を取得指紋情報と呼ぶことがある。また、操作ボタン220が操作された電子機器2を対象電子機器2と呼ぶことがある。また、対象電子機器2のユーザ20、つまりトラブルが発生したユーザ20を対象ユーザ20と呼ぶことがある。 When the operation button 220 is operated again, step s1 is executed again. After that, the electronic device 2 operates in the same manner. Hereinafter, the fingerprint information included in the trouble occurrence information may be referred to as the acquired fingerprint information. Further, the electronic device 2 on which the operation button 220 is operated may be referred to as a target electronic device 2. Further, the user 20 of the target electronic device 2, that is, the user 20 in which the trouble has occurred may be referred to as the target user 20.

<処理装置の動作例>
図9は、電子機器2がトラブル発生情報を送信した場合の処理装置7の動作の一例を示すフローチャートである。図9に示されるように、ステップs11において、処理装置7が備えるサーバ装置5の通信部510がトラブル発生情報を受信すると、ステップs12が実行される。ステップs12において、サーバ装置5の制御部500は、ステップs11で受信されたトラブル発生情報に含まれる位置情報が示す位置においてトラブルが発生したことを通知するトラブル通知情報を生成する。トラブル通知情報には、対象電子機器2からのトラブル発生情報に含まれる位置情報が含まれる。そして、制御部500は、通信部510に、生成したトラブル通知情報を、通知先の通信装置に対して送信させる。サーバ装置5の記憶部502には、各電子機器2の識別情報に対応付けられて通知先の通信装置の識別情報が記憶されている。制御部500は、対象電子機器2からのトラブル発生情報に含まれる識別情報と記憶部502内の情報に基づいて、通知先の通信装置を特定する。
<Operation example of processing device>
FIG. 9 is a flowchart showing an example of the operation of the processing device 7 when the electronic device 2 transmits the trouble occurrence information. As shown in FIG. 9, in step s11, when the communication unit 510 of the server device 5 included in the processing device 7 receives the trouble occurrence information, step s12 is executed. In step s12, the control unit 500 of the server device 5 generates trouble notification information notifying that a trouble has occurred at the position indicated by the position information included in the trouble occurrence information received in step s11. The trouble notification information includes location information included in the trouble occurrence information from the target electronic device 2. Then, the control unit 500 causes the communication unit 510 to transmit the generated trouble notification information to the communication device of the notification destination. The storage unit 502 of the server device 5 stores the identification information of the communication device of the notification destination in association with the identification information of each electronic device 2. The control unit 500 identifies the communication device to be notified based on the identification information included in the trouble occurrence information from the target electronic device 2 and the information in the storage unit 502.

通知先の通信装置としては、例えば、対象ユーザ20の親が所持する携帯電話機が考えられる。対象ユーザ20の親が所持する携帯電話機は、サーバ装置5からトラブル通知情報を受信すると、表示部等を利用して、当該親に対して、子供にトラブルが発生したことを通知する。このとき、携帯電電話機は、トラブル通知情報に含まれる位置情報、つまり、トラブルが発生した子供の位置を示す位置情報を表示してもよい。これより、親は、トラブルが発生した子供の位置を特定することができる。 As the communication device of the notification destination, for example, a mobile phone owned by the parent of the target user 20 can be considered. When the mobile phone owned by the parent of the target user 20 receives the trouble notification information from the server device 5, it notifies the parent that a trouble has occurred in the child by using the display unit or the like. At this time, the mobile phone may display the position information included in the trouble notification information, that is, the position information indicating the position of the child in which the trouble has occurred. This allows the parent to locate the child in trouble.

なお、通信部510は、トラブル通知情報を例えば警察署あるいは交番が有する通信装置に送信してもよい。これより、ユーザ20にトラブルが発生したことを警察署あるいは交番に通知することができる。また、通信部510はトラブル通知情報を警備会社が有する通信装置に送信してもよい。これより、ユーザ20にトラブルが発生したことを警備会社に通知することができる。 The communication unit 510 may transmit the trouble notification information to, for example, a police station or a communication device owned by a police box. As a result, the user 20 can be notified to the police station or police box that a trouble has occurred. Further, the communication unit 510 may transmit the trouble notification information to the communication device owned by the security company. From this, it is possible to notify the security company that a trouble has occurred in the user 20.

ステップs12の後、ステップs13が実行される。ステップs13において、処理装置7は、対象ユーザ20、つまりトラブルが発生したユーザ20の位置を追跡する追跡処理を実行する。追跡処理では、複数のカメラが使用されて、トラブルが発生したユーザ20の位置が追跡される。本例の追跡処理では、路側機3のカメラ320が使用される。 After step s12, step s13 is executed. In step s13, the processing device 7 executes a tracking process for tracking the position of the target user 20, that is, the user 20 in which the trouble has occurred. In the tracking process, a plurality of cameras are used to track the position of the user 20 in which the trouble has occurred. In the tracking process of this example, the camera 320 of the roadside machine 3 is used.

図10は追跡処理の一例を示すフローチャートである。図10に示されるように、追跡処理では、まずステップs21が実行される。ステップs21において、サーバ装置5の制御部500は、対象電子機器2からのトラブル発生情報に含まれる取得指紋情報に基づいて、対象ユーザ20の現在の特徴を表す特徴量を推定する。以後、単に特徴量と言えば、ユーザ20の特徴を表す特徴量を意味する。また、ユーザ20の現在の特徴を表す特徴量を現在の特徴量と呼ぶことがある。現在の特徴量は、現在のユーザ20の特徴を表す特徴量であるとも言える。 FIG. 10 is a flowchart showing an example of tracking processing. As shown in FIG. 10, in the tracking process, step s21 is first executed. In step s21, the control unit 500 of the server device 5 estimates a feature amount representing the current feature of the target user 20 based on the acquired fingerprint information included in the trouble occurrence information from the target electronic device 2. Hereinafter, the term "feature amount" simply means a feature amount representing the feature of the user 20. Further, the feature amount representing the current feature of the user 20 may be referred to as the current feature amount. It can be said that the current feature amount is a feature amount representing the characteristics of the current user 20.

本例では、サーバ装置5には、図11に示されるように、各電子機器2について、当該電子機器2の識別情報600と、当該電子機器2のユーザ20の特徴を表す特徴量610と、当該電子機器2のユーザの指紋情報620とが対応付けられて登録されている。識別情報600、特徴量610及び指紋情報620は記憶部502に記憶されることによって、サーバ装置5に登録されている。以後、サーバ装置5に登録されている特徴量610及び指紋情報620を、それぞれ、登録特徴量610及び登録指紋情報620と呼ぶことがある。 In this example, in the server device 5, as shown in FIG. 11, for each electronic device 2, the identification information 600 of the electronic device 2 and the feature amount 610 representing the characteristics of the user 20 of the electronic device 2 are provided. The fingerprint information 620 of the user of the electronic device 2 is associated and registered. The identification information 600, the feature amount 610, and the fingerprint information 620 are registered in the server device 5 by being stored in the storage unit 502. Hereinafter, the feature amount 610 and the fingerprint information 620 registered in the server device 5 may be referred to as the registered feature amount 610 and the registered fingerprint information 620, respectively.

記憶部502には、例えば、ユーザ20が電子機器2を使用するようになったときの当該ユーザの特徴量及び指紋情報が、登録特徴量610及び登録指紋情報620としてそれぞれ記憶されている。例えば、あるユーザ20が6歳のときに電子機器2を使用するようになった場合を考える。この場合、ユーザ20が6歳のときの特徴量及び指紋情報が、当該ユーザ20が所持する電子機器2の識別情報に対応付けられて記憶部502に記憶されている。他の例として、あるユーザ20が8歳のときに電子機器2を使用するようになった場合を考える。この場合、ユーザ20が8歳のときの特徴量及び指紋情報が、当該ユーザ20が所持する電子機器2の識別情報に対応付けられて記憶部502に記憶されている。 In the storage unit 502, for example, the feature amount and fingerprint information of the user when the user 20 comes to use the electronic device 2 are stored as the registered feature amount 610 and the registered fingerprint information 620, respectively. For example, consider a case where a user 20 comes to use the electronic device 2 when he is 6 years old. In this case, the feature amount and fingerprint information when the user 20 is 6 years old are stored in the storage unit 502 in association with the identification information of the electronic device 2 possessed by the user 20. As another example, consider a case where a user 20 starts to use the electronic device 2 when he / she is 8 years old. In this case, the feature amount and fingerprint information when the user 20 is 8 years old are stored in the storage unit 502 in association with the identification information of the electronic device 2 possessed by the user 20.

記憶部502内の登録特徴量610には、例えば、ユーザの顔に関する顔情報と、ユーザの体形に関する体形情報と、歩幅とが含まれる。顔情報には、例えば、顔に含まれる2つの目の間の距離が含まれる。体形情報には、身長、体重及び腕の長さが含まれる。なお、特徴量610に含まれる情報は、これに限られない。以後、顔に含まれる2つの目の間の距離を、単に目の間隔と呼ぶことがある、また、人の特徴量に含まれる個々の値を構成値と呼ぶことがある。また、登録特徴量610に含まれる構成値を第1構成値と呼ぶことがある。本例では、登録特徴量610には、複数の第1構成値が含まれる。 The registered feature amount 610 in the storage unit 502 includes, for example, face information regarding the user's face, body shape information regarding the user's body shape, and stride length. The face information includes, for example, the distance between two eyes contained in the face. Body shape information includes height, weight and arm length. The information included in the feature amount 610 is not limited to this. Hereinafter, the distance between two eyes included in the face may be simply referred to as an eye spacing, and individual values included in a person's feature amount may be referred to as a constituent value. Further, the constituent value included in the registered feature amount 610 may be referred to as a first constituent value. In this example, the registered feature amount 610 includes a plurality of first constituent values.

電子機器2の動作モードには、当該電子機器2のユーザ20の特徴量及び指紋情報をサーバ装置5に登録するための登録モードが含まれる。例えば、電子機器2の表示面250aに対して所定の操作が行われると、当該電子機器2の動作モードが登録モードに設定される。例えば、登録モードで動作する電子機器2の表示面250aが操作されることによって、当該電子機器2のユーザ20の特徴量が当該電子機器2に対して入力される。電子機器2は、入力された特徴量を、登録対象の特徴量として記憶部202に記憶する。また、登録モードで動作する電子機器2の操作ボタン220がユーザ20の指で操作された場合にセンサ270で取得された指紋情報が、登録対象の指紋情報として記憶部202に記憶される。電子機器2は、記憶部202内の登録対象の特徴量及び指紋情報を、当該電子機器2の識別情報とともに、サーバ装置5に送信する。サーバ装置5は、受信した登録対象の特徴量及び指紋情報と識別情報を、互いに対応付けて記憶部502に記憶する。これにより、図11のように、電子機器2の識別情報600と、当該電子機器2のユーザ20の特徴量610と、当該電子機器2のユーザ20の指紋情報620とが互いに対応付けられてサーバ装置5に登録される。 The operation mode of the electronic device 2 includes a registration mode for registering the feature amount and the fingerprint information of the user 20 of the electronic device 2 in the server device 5. For example, when a predetermined operation is performed on the display surface 250a of the electronic device 2, the operation mode of the electronic device 2 is set to the registration mode. For example, by operating the display surface 250a of the electronic device 2 operating in the registration mode, the feature amount of the user 20 of the electronic device 2 is input to the electronic device 2. The electronic device 2 stores the input feature amount in the storage unit 202 as the feature amount to be registered. Further, the fingerprint information acquired by the sensor 270 when the operation button 220 of the electronic device 2 operating in the registration mode is operated by the finger of the user 20 is stored in the storage unit 202 as the fingerprint information to be registered. The electronic device 2 transmits the feature amount and the fingerprint information of the registration target in the storage unit 202 to the server device 5 together with the identification information of the electronic device 2. The server device 5 stores the received feature amount to be registered, fingerprint information, and identification information in the storage unit 502 in association with each other. As a result, as shown in FIG. 11, the identification information 600 of the electronic device 2, the feature amount 610 of the user 20 of the electronic device 2, and the fingerprint information 620 of the user 20 of the electronic device 2 are associated with each other and the server. It is registered in the device 5.

ステップs21においては、サーバ装置5に登録されている登録特徴量610及ぶ登録指紋情報620が使用される。ステップs21において、制御部500は、取得指紋情報と、対象ユーザ20の登録指紋情報との比較を実行し、当該比較の結果に基づいて対象ユーザ20の登録特徴量を補正することによって、対象ユーザ20の現在の特徴量を推定する。 In step s21, the registered fingerprint information 620 having a registered feature amount of 610 registered in the server device 5 is used. In step s21, the control unit 500 compares the acquired fingerprint information with the registered fingerprint information of the target user 20, and corrects the registered feature amount of the target user 20 based on the result of the comparison. Estimate the current features of 20.

図12はステップs21の詳細を示すフローチャートである。図12に示されるように、ステップs21では、まずステップs211が実行される。ステップs211において、制御部500は、記憶部502から、トラブル発生情報に含まれる識別情報に対応する登録特徴量610及び登録指紋情報620を取得する。これにより、制御部500では、対象ユーザの登録特徴量610及び登録指紋情報620が取得される。 FIG. 12 is a flowchart showing the details of step s21. As shown in FIG. 12, in step s21, step s211 is first executed. In step s211 the control unit 500 acquires the registered feature amount 610 and the registered fingerprint information 620 corresponding to the identification information included in the trouble occurrence information from the storage unit 502. As a result, the control unit 500 acquires the registered feature amount 610 and the registered fingerprint information 620 of the target user.

次にステップs212において、制御部500は、トラブル発生情報に含まれる取得指紋情報と、対象ユーザ20の登録指紋情報620との比較を実行する。制御部500は、例えば、取得指紋情報に基づいて、対象ユーザ20の指紋の現在の大きさを求める。また、制御部500は、対象ユーザ20の登録指紋情報に基づいて、対象ユーザ20の指紋の過去の大きさを求める。そして、制御部500は、対象ユーザ20の指紋の過去の大きさに対する、対象ユーザの指紋の現在の大きさの倍率を求める。この倍率を指紋サイズの拡大率と呼ぶことがある。指紋サイズの拡大率は、取得指紋情報についての登録指紋情報からの変化量であるとも言える。言い換えれば、指紋サイズの拡大率は、取得指紋情報が登録指紋情報からどの程度変化したかを示す情報であるとも言える。 Next, in step s212, the control unit 500 compares the acquired fingerprint information included in the trouble occurrence information with the registered fingerprint information 620 of the target user 20. The control unit 500 obtains the current size of the fingerprint of the target user 20, for example, based on the acquired fingerprint information. Further, the control unit 500 obtains the past size of the fingerprint of the target user 20 based on the registered fingerprint information of the target user 20. Then, the control unit 500 obtains a magnification of the current size of the fingerprint of the target user with respect to the past size of the fingerprint of the target user 20. This magnification is sometimes called the fingerprint size enlargement ratio. It can be said that the enlargement rate of the fingerprint size is the amount of change from the registered fingerprint information about the acquired fingerprint information. In other words, the fingerprint size enlargement rate can be said to be information indicating how much the acquired fingerprint information has changed from the registered fingerprint information.

次にステップs213において、制御部500は、ステップs212での比較の結果に基づいて、対象ユーザ20の登録特徴量610を補正する。補正後の登録特徴量610が、対象ユーザ20の現在の特徴量となる。例えば、制御部500は、対象ユーザ20の登録特徴量610に含まれる各第1構成値に対して、指紋サイズの拡大率に応じた拡大率を掛け合わすことによって、対象ユーザ20の登録特徴量610を補正する。以後、登録特徴量610に含まれる第1構成値に対して掛け合わされる拡大率を補正拡大率と呼ぶことがある。 Next, in step s213, the control unit 500 corrects the registered feature amount 610 of the target user 20 based on the result of the comparison in step s212. The corrected registered feature amount 610 is the current feature amount of the target user 20. For example, the control unit 500 multiplies each first configuration value included in the registered feature amount 610 of the target user 20 by an enlargement rate according to the enlargement rate of the fingerprint size, so that the registered feature amount of the target user 20 Correct 610. Hereinafter, the enlargement ratio multiplied by the first constituent value included in the registered feature amount 610 may be referred to as a correction enlargement ratio.

本例では、記憶部502において、登録特徴量610に含まれる各第1構成値について、当該第1構成値に対して掛け合わされる補正拡大率が記憶されている。具体的には、記憶部502には、登録特徴量610に含まれる目の間隔、身長、体重、腕の長さ及び歩幅のそれぞれの値についての補正拡大率が記憶されている。また、記憶部502には、各第1構成値に関して、指紋サイズの拡大率の各値について、当該値に対応する補正拡大率が記憶されている。 In this example, the storage unit 502 stores the correction enlargement ratio multiplied by the first constituent value for each first constituent value included in the registered feature amount 610. Specifically, the storage unit 502 stores correction enlargement ratios for each of the values of eye spacing, height, weight, arm length, and stride included in the registered feature amount 610. Further, in the storage unit 502, for each of the first constituent values, for each value of the fingerprint size enlargement ratio, the correction enlargement ratio corresponding to the value is stored.

図13は、登録特徴量610に含まれるある第1構成値(以後、対象の第1構成値と呼ぶことがある)についての補正拡大率の一例を示す図である。図13のXn(nは1以上の整数)は、指紋サイズの拡大率の値を示している。また、図13のYnは、補正拡大率の値を示している。指紋サイズの拡大率Xnが大きいほど、それに対応する補正拡大率Ynが大きくなる。補正拡大率は、ユーザ20が成長して指紋の大きさが大きくなった場合に、ユーザ20の身長等の第1構成値が、指紋が大きくなる前の値からどの程度大きくなるかを示す情報である。 FIG. 13 is a diagram showing an example of a correction enlargement ratio for a certain first constituent value (hereinafter, may be referred to as a target first constituent value) included in the registered feature amount 610. Xn (n is an integer of 1 or more) in FIG. 13 indicates the value of the fingerprint size enlargement ratio. Further, Yn in FIG. 13 indicates the value of the correction enlargement ratio. The larger the fingerprint size magnification Xn, the larger the corresponding correction magnification Yn. The correction enlargement ratio is information indicating how much the first constituent value such as the height of the user 20 becomes larger than the value before the fingerprint becomes larger when the user 20 grows and the size of the fingerprint becomes larger. Is.

図13の例では、指紋サイズの拡大率がX1の場合、ステップs213において、対象の第1構成値に対して補正拡大率Y1が掛け合わされる。これにより、対象の第1構成値が補正される。指紋サイズの拡大率がX2の場合、対象の第1構成値に対して補正拡大率Y2が掛け合わされる。指紋サイズの拡大率がX3の場合、対象の第1構成値に対して補正拡大率Y3が掛け合わされる。ステップs21で推定された現在の特徴量には、指紋サイズの拡大率に応じた補正拡大率が掛け合わされた各第1構成値が含まれる。以後、推定された現在の特徴量に含まれる補正後の第1構成値を第2構成値と呼ぶことがある。また、推定された現在の特徴量を推定特徴量と呼ぶことがある。 In the example of FIG. 13, when the enlargement ratio of the fingerprint size is X1, in step s213, the correction enlargement ratio Y1 is multiplied by the first constituent value of the target. As a result, the target first constituent value is corrected. When the enlargement ratio of the fingerprint size is X2, the correction enlargement ratio Y2 is multiplied by the first constituent value of the target. When the fingerprint size enlargement ratio is X3, the correction enlargement ratio Y3 is multiplied by the target first configuration value. The current feature amount estimated in step s21 includes each first constituent value multiplied by the correction enlargement ratio according to the enlargement ratio of the fingerprint size. Hereinafter, the corrected first constituent value included in the estimated current feature amount may be referred to as a second constituent value. In addition, the estimated current feature amount may be called an estimated feature amount.

以上の説明から理解できるように、ステップs21において、制御部500は、取得指紋情報についての登録指紋情報からの変化に応じて登録特徴量を補正することによって、対象ユーザ20の現在の特徴量を推定していると言える。 As can be understood from the above description, in step s21, the control unit 500 corrects the registered feature amount according to the change from the registered fingerprint information of the acquired fingerprint information, thereby adjusting the current feature amount of the target user 20. It can be said that it is estimated.

なお、制御部500は、機械学習を用いて、指紋サイズの拡大率に応じた補正拡大率を求めてもよい。制御部500は、例えば、ディープラーニングを用いて、指紋サイズの拡大率に応じた補正拡大率を求めてもよい。この場合、制御部500は、各構成値について学習済みのニューラルネットワークを準備する。そして、制御部500は、学習済みの各ニューラルネットワークに対して、ステップs212で求めた指紋サイズの拡大率を入力する。これにより、ある構成値についてのニューラルネットワークからは、当該ある構成値に掛け合わされる、指紋サイズの拡大率に応じた補正拡大率が出力される。 The control unit 500 may use machine learning to obtain a correction enlargement ratio according to the enlargement ratio of the fingerprint size. The control unit 500 may obtain the correction enlargement ratio according to the enlargement ratio of the fingerprint size by using, for example, deep learning. In this case, the control unit 500 prepares a trained neural network for each configuration value. Then, the control unit 500 inputs the enlargement ratio of the fingerprint size obtained in step s212 to each trained neural network. As a result, the neural network for a certain constituent value outputs a corrected enlargement ratio according to the enlargement ratio of the fingerprint size, which is multiplied by the certain constituent value.

ステップs21において、対象ユーザ20の現在の特徴量が推定されると、図10に示されるようにステップs22が実行される。本例では、処理装置7は、対象ユーザ20の位置を追跡するために、調査対象の路側機3で得られるカメラ画像において対象ユーザ20が写るか否かを判定する。言い換えれば、処理装置7は、調査対象の路側機3のカメラ320が対象ユーザ20を撮影することが可能な否かを調べる。ステップs22では、サーバ装置5の制御部500が、トラブル発生情報に含まれる位置情報に基づいて調査対象の路側機3を決定する。言い換えれば、制御部500は、対象ユーザ20にトラブルが発生したときの対象ユーザ20の位置に基づいて調査対象の路側機3を決定する。ステップs22において、制御部500は、例えば、トラブル発生情報に含まれる位置情報が示す位置の周辺に存在する複数の路側機3を特定する。そして、制御部500は、特定した複数の路側機3のそれぞれを調査対象の路側機3に決定する。記憶部502には、各路側機3の位置を示す位置情報が含まれていることから、制御部500は、トラブル発生情報に含まれる位置情報が示す位置の周辺に存在する複数の路側機3を特定することができる。 When the current feature amount of the target user 20 is estimated in step s21, step s22 is executed as shown in FIG. In this example, in order to track the position of the target user 20, the processing device 7 determines whether or not the target user 20 is captured in the camera image obtained by the roadside machine 3 to be investigated. In other words, the processing device 7 examines whether or not the camera 320 of the roadside machine 3 to be investigated can photograph the target user 20. In step s22, the control unit 500 of the server device 5 determines the roadside machine 3 to be investigated based on the position information included in the trouble occurrence information. In other words, the control unit 500 determines the roadside machine 3 to be investigated based on the position of the target user 20 when a trouble occurs in the target user 20. In step s22, the control unit 500 identifies, for example, a plurality of roadside machines 3 existing around the position indicated by the position information included in the trouble occurrence information. Then, the control unit 500 determines each of the specified plurality of roadside machines 3 as the roadside machine 3 to be investigated. Since the storage unit 502 includes position information indicating the position of each roadside machine 3, the control unit 500 has a plurality of roadside machines 3 existing around the position indicated by the position information included in the trouble occurrence information. Can be identified.

ステップs22の後、ステップs23において、処理装置7は、調査対象の路側機3で得られるカメラ画像に対象ユーザ20が写っているか否かを判定する。ステップs23では、まず、制御部500が、通信部510に、ステップs21で得られた推定特徴量を、調査対象の各路側機3に対して送信させる。調査対象の路側機3では、制御部300が、通信部310で受信される推定特徴量に基づいて、カメラ画像に対象ユーザ20が写るか否かを判定する。ここで、路側機3で得られるカメラ画像に対象ユーザ20が写る場合には、当該路側機3の周辺に対象ユーザ20が位置すると言える。したがって、調査対象の路側機3の制御部300は、ステップs23において、対象ユーザ20の推定特徴量とカメラ画像に基づいて、当該路側機3の周辺に対象ユーザ20が位置するか否かを判定すると言える。以後、調査対象の路側機3を調査対象機3と呼ぶことがある。 After step s22, in step s23, the processing device 7 determines whether or not the target user 20 is captured in the camera image obtained by the roadside machine 3 to be investigated. In step s23, first, the control unit 500 causes the communication unit 510 to transmit the estimated feature amount obtained in step s21 to each roadside machine 3 to be investigated. In the roadside machine 3 to be investigated, the control unit 300 determines whether or not the target user 20 is captured in the camera image based on the estimated feature amount received by the communication unit 310. Here, when the target user 20 is captured in the camera image obtained by the roadside machine 3, it can be said that the target user 20 is located around the roadside machine 3. Therefore, in step s23, the control unit 300 of the roadside machine 3 to be investigated determines whether or not the target user 20 is located around the roadside machine 3 based on the estimated feature amount of the target user 20 and the camera image. It can be said that. Hereinafter, the roadside aircraft 3 to be investigated may be referred to as the investigation target aircraft 3.

図14は、対象ユーザ20の推定特徴量を受信した調査対象機3の動作の一例を示すフローチャートである。図14に示されるように、ステップs231において、調査対象機3の制御部300は、カメラ320で得られるカメラ画像に人物が写るか否かを判定する。制御部300は、カメラ画像に対して画像処理を行うことによって、カメラ画像に人物が写るか否かを判定することができる。制御部300は、例えば、ニューラルネットワークを用いた機械学習等の人工知能を用いて、カメラ画像に人物が写るか否かを判定してもよい。以後、カメラ画像に写る人物を撮影人物と呼ぶことがある。 FIG. 14 is a flowchart showing an example of the operation of the survey target machine 3 that has received the estimated feature amount of the target user 20. As shown in FIG. 14, in step s231, the control unit 300 of the investigation target machine 3 determines whether or not a person appears in the camera image obtained by the camera 320. The control unit 300 can determine whether or not a person appears in the camera image by performing image processing on the camera image. The control unit 300 may determine whether or not a person appears in the camera image by using artificial intelligence such as machine learning using a neural network, for example. Hereinafter, the person shown in the camera image may be referred to as the photographed person.

ステップs231においてNOと判定されると、ステップs236において、制御部300は、カメラ画像に対象ユーザ20が写らないと判定する。その後、ステップs235が実行される。一方で、ステップs231においてYESと判定されると、ステップs232において、制御部300は、撮影人物の特徴を表す特徴量を取得する。ステップs232では、制御部300は、対象ユーザの推定特徴量に含まれる各第2構成値と同様の値を特徴量として取得する。制御部300は、例えば、撮影人物の目の間隔、身長、体重、腕の長さ及び歩幅を特徴量として取得する。制御部300は、カメラ画像に複数の人物が写っている場合には、当該複数の人物のそれぞれについて特徴量を取得する。制御部300は、カメラ画像に対して画像処理を行うことによって、撮影人物の特徴量を求めることができる。制御部300は、例えば、ニューラルネットワークを用いた機械学習等の人工知能を用いて、撮影人物の特徴量を取得してもよい。以後、撮影人物の特徴量に含まれる構成値を第3構成値と呼ぶことがある。 If NO is determined in step s231, the control unit 300 determines in step s236 that the target user 20 is not captured in the camera image. After that, step s235 is executed. On the other hand, if YES is determined in step s231, in step s232, the control unit 300 acquires a feature amount representing the feature of the photographed person. In step s232, the control unit 300 acquires a value similar to each second configuration value included in the estimated feature amount of the target user as the feature amount. The control unit 300 acquires, for example, the eye spacing, height, weight, arm length, and stride length of the photographed person as feature quantities. When a plurality of people are shown in the camera image, the control unit 300 acquires the feature amount for each of the plurality of people. The control unit 300 can obtain the feature amount of the photographed person by performing image processing on the camera image. The control unit 300 may acquire the feature amount of the photographed person by using artificial intelligence such as machine learning using a neural network, for example. Hereinafter, the constituent value included in the feature amount of the photographed person may be referred to as a third constituent value.

ステップs232の後、ステップs233が実行される。ステップs233において、制御部300は、対象ユーザ20の推定特徴量に類似する特徴量を有する撮影人物が存在するか否かを判定する。ステップs233において、制御部300は、ステップs232で求めた特徴量が、対象ユーザ20の推定特徴量に類似する場合、対象ユーザ20の推定特徴量に類似する特徴量を有する撮影人物が存在すると判定する。 After step s232, step s233 is executed. In step s233, the control unit 300 determines whether or not there is a photographed person having a feature amount similar to the estimated feature amount of the target user 20. In step s233, when the feature amount obtained in step s232 is similar to the estimated feature amount of the target user 20, it is determined that there is a photographer having a feature amount similar to the estimated feature amount of the target user 20. To do.

ステップs233において、制御部300は、対象ユーザ20の推定特徴量に含まれる各第2構成値について、当該第2構成値と、撮影人物の特徴量に含まれる、当該第2構成値に対応する第3構成値とが互いに近いか否かを判定する。制御部300は、第2及び第3構成値が互いに近いか否かを判定する場合には、例えば、第2構成値と第3構成値の差分の絶対値を求める。そして、制御部300は、求めた差分の絶対値がしきい値以下のとき、第2及び第3構成値が互いに近いと判定する。一方で、制御部300は、求めた差分の絶対値がしきい値よりも大きいとき、第2及び第3構成値は互いに近くはないと判定する。制御部300は、対象ユーザ20の推定特徴量に含まれるすべての第2構成値について、当該第2構成値と、撮影人物の特徴量に含まれる、当該第2構成値に対応する第3構成値とが互いに近いと判定すると、撮影人物の特徴量が、対象ユーザ20の推定特徴量に類似すると判定する。一方で、制御部300は、対象ユーザ20の推定特徴量に含まれる複数の第2構成値の少なくとも一つについて、当該第2構成値と、撮影人物の特徴量に含まれる、当該第2構成値に対応する第3構成値とが互いに近くはないと判定すると、撮影人物の特徴量が、対象ユーザ20の推定特徴量に類似しないと判定する。 In step s233, the control unit 300 corresponds to the second configuration value included in the estimated feature amount of the target user 20 and the second configuration value included in the feature amount of the photographed person. It is determined whether or not the third constituent value is close to each other. When determining whether or not the second and third constituent values are close to each other, the control unit 300 obtains, for example, the absolute value of the difference between the second constituent value and the third constituent value. Then, when the absolute value of the obtained difference is equal to or less than the threshold value, the control unit 300 determines that the second and third constituent values are close to each other. On the other hand, the control unit 300 determines that the second and third constituent values are not close to each other when the absolute value of the obtained difference is larger than the threshold value. The control unit 300 has the second configuration value for all the second configuration values included in the estimated feature amount of the target user 20, and the third configuration corresponding to the second configuration value included in the feature amount of the photographed person. If it is determined that the values are close to each other, it is determined that the feature amount of the photographed person is similar to the estimated feature amount of the target user 20. On the other hand, the control unit 300 has the second configuration value included in the second configuration value and the feature quantity of the photographed person for at least one of the plurality of second configuration values included in the estimated feature quantity of the target user 20. If it is determined that the third constituent values corresponding to the values are not close to each other, it is determined that the feature amount of the photographed person is not similar to the estimated feature amount of the target user 20.

本例では、ステップs233において、制御部300は、対象ユーザ20の推定特徴量に含まれる目の間隔と、撮影人物の特徴量に含まれる目の間隔とが互いに近いか否かを判定する間隔判定を行う。間隔判定において、制御部300は、対象ユーザ20の推定特徴量に含まれる目の間隔と、撮影人物の特徴量に含まれる目の間隔との差分の絶対値を求める。そして、制御部300は、求めた差分の絶対値がしきい値以下のとき、対象ユーザ20の推定特徴量に含まれる目の間隔と、撮影人物の特徴量に含まれる目の間隔とが互いに近いと判定する。一方で、制御部300は、求めた差分の絶対値がしきい値よりも大きいとき、対象ユーザ20の推定特徴量に含まれる目の間隔と、撮影人物の特徴量に含まれる目の間隔とが互いに近くはないと判定する。同様にして、制御部300は、対象ユーザ20の推定特徴量に含まれる身長と、撮影人物の特徴量に含まれる身長とが互いに近いか否かを判定する身長判定を行う。また、制御部300は、対象ユーザ20の推定特徴量に含まれる体重と、撮影人物の特徴量に含まれる体重とが互いに近いか否かを判定する体重判定を行う。また、制御部300は、対象ユーザ20の推定特徴量に含まれる腕の長さと、撮影人物の特徴量に含まれる腕の長さとが互いに近いか否かを判定する長さ判定を行う。また、制御部300は、対象ユーザ20の推定特徴量に含まれる歩幅と、撮影人物の特徴量に含まれる歩幅とが互いに近いか否かを判定する歩幅判定を行う。制御部300は、間隔判定、身長判定、体重判定、長さ判定及び歩幅判定のすべてにおいて「近い」と判定した場合、撮影人物の特徴量が、対象ユーザ20の推定特徴量に類似すると判定する。一方で、制御部300は、間隔判定、身長判定、体重判定、長さ判定及び歩幅判定の少なくとも一つにおいて「近くない」と判定した場合、撮影人物の特徴量が、対象ユーザ20の推定特徴量に類似しないと判定する。 In this example, in step s233, the control unit 300 determines whether or not the eye spacing included in the estimated feature amount of the target user 20 and the eye spacing included in the feature amount of the photographed person are close to each other. Make a judgment. In the interval determination, the control unit 300 obtains an absolute value of the difference between the eye spacing included in the estimated feature amount of the target user 20 and the eye spacing included in the feature amount of the photographed person. Then, when the absolute value of the obtained difference is equal to or less than the threshold value, the control unit 300 has the eye spacing included in the estimated feature quantity of the target user 20 and the eye spacing included in the feature quantity of the photographed person. Judge as close. On the other hand, when the absolute value of the obtained difference is larger than the threshold value, the control unit 300 determines the eye spacing included in the estimated feature quantity of the target user 20 and the eye spacing included in the feature quantity of the photographed person. Are not close to each other. Similarly, the control unit 300 performs a height determination for determining whether or not the height included in the estimated feature amount of the target user 20 and the height included in the feature amount of the photographed person are close to each other. Further, the control unit 300 performs a weight determination for determining whether or not the weight included in the estimated feature amount of the target user 20 and the weight included in the feature amount of the photographed person are close to each other. Further, the control unit 300 determines the length for determining whether or not the arm length included in the estimated feature amount of the target user 20 and the arm length included in the feature amount of the photographed person are close to each other. Further, the control unit 300 performs a stride determination for determining whether or not the stride included in the estimated feature amount of the target user 20 and the stride included in the feature amount of the photographed person are close to each other. When the control unit 300 determines that the interval determination, height determination, weight determination, length determination, and stride determination are all "close", the control unit 300 determines that the feature amount of the photographed person is similar to the estimated feature amount of the target user 20. .. On the other hand, when the control unit 300 determines that at least one of the interval determination, the height determination, the weight determination, the length determination, and the stride determination is "not close", the feature amount of the photographed person is the estimated feature of the target user 20. Determined to be dissimilar to quantity.

なお、推定特徴量と撮影人物の特徴量が類似しているか否かの判定方法は、上記の例に限られない。 The method for determining whether or not the estimated feature amount and the feature amount of the photographed person are similar is not limited to the above example.

また、カメラ画像に複数の人物が写っている場合には、ステップs232では、複数の撮影人物のそれぞれの特徴量が求められる。この場合、制御部300は、ステップs232で求められた複数の特徴量に、対象ユーザ20の推定特徴量に類似する特徴量が含まれる場合には、対象ユーザ20の推定特徴量に類似する特徴量を有する撮影人物が存在すると判定する。 Further, when a plurality of persons are captured in the camera image, in step s232, the feature amounts of the plurality of photographed persons are obtained. In this case, when the plurality of feature quantities obtained in step s232 include a feature quantity similar to the estimated feature quantity of the target user 20, the control unit 300 has a feature similar to the estimated feature quantity of the target user 20. It is determined that there is a photographer having a quantity.

ステップs233においてYESと判定されると、ステップs234において、制御部300はカメラ画像に対象ユーザ20が写ると判定する。ステップs234の後、ステップs235が実行される。一方で、ステップs233においてNOと判定されると、ステップs236が実行されて、カメラ画像に対象ユーザ20が写らないと判定される。 If YES is determined in step s233, the control unit 300 determines in step s234 that the target user 20 is captured in the camera image. After step s234, step s235 is executed. On the other hand, if NO is determined in step s233, step s236 is executed and it is determined that the target user 20 is not captured in the camera image.

ステップs235では、調査対象機3は、カメラ画像に対象ユーザ20が写るか否かの判定結果をサーバ装置5に送信する。ステップs234が実行される場合、制御部300は、カメラ画像に対象ユーザ20が写ることを示す判定情報を生成する。一方で、ステップs236が実行される場合、制御部300は、カメラ画像に対象ユーザ20が写らないことを示す判定情報を生成する。そして、制御部300は、通信部310に、判定情報をサーバ装置5に対して送信させる。これにより、サーバ装置5は、調査対象の各路側機3から判定情報を受け取ることができる。サーバ装置5では、通信部510が、調査対象機3から、カメラ画像に対象ユーザ20が写ることを示す判定情報を受信すると、制御部500は、図10のステップs23において、その調査対象機3の位置の周辺に対象ユーザ20が存在すると判定する。そして、ステップs23において、制御部500は、その周辺に対象ユーザ20が存在すると判定した路側機3の位置情報を追跡位置情報として記憶部502に記憶する。以後、カメラ画像に対象ユーザ20が写ることを示す判定情報を肯定判定情報と呼ぶことがある。 In step s235, the survey target machine 3 transmits the determination result of whether or not the target user 20 is captured in the camera image to the server device 5. When step s234 is executed, the control unit 300 generates determination information indicating that the target user 20 is captured in the camera image. On the other hand, when step s236 is executed, the control unit 300 generates determination information indicating that the target user 20 is not captured in the camera image. Then, the control unit 300 causes the communication unit 310 to transmit the determination information to the server device 5. As a result, the server device 5 can receive the determination information from each roadside machine 3 to be investigated. In the server device 5, when the communication unit 510 receives the determination information indicating that the target user 20 is captured in the camera image from the survey target machine 3, the control unit 500 receives the survey target machine 3 in step s23 of FIG. It is determined that the target user 20 exists around the position of. Then, in step s23, the control unit 500 stores the position information of the roadside machine 3 determined that the target user 20 exists in the vicinity thereof in the storage unit 502 as tracking position information. Hereinafter, the determination information indicating that the target user 20 is captured in the camera image may be referred to as affirmative determination information.

サーバ装置5が、調査対象の各路側機3から判定情報を受け取った後、ステップs24が実行される。ステップs24において、制御部500は、追跡処理の終了条件が成立したか否かを判定する。終了条件としては、例えば、サーバ装置5が、対象電子機器2から、対象ユーザ20のトラブルが解消したことを通知する解消通知情報を受信することが考えられる。対象電子機器2は、例えば、対象ユーザ20が操作ボタン220を一定時間以上押すと、解消通知情報をサーバ装置5に送信する。制御部500は、追跡処理中に、対象電子機器2から解消通知情報を受信した場合、ステップs24において終了条件が成立したと判定する。 Step s24 is executed after the server device 5 receives the determination information from each roadside machine 3 to be investigated. In step s24, the control unit 500 determines whether or not the end condition of the tracking process is satisfied. As the termination condition, for example, it is conceivable that the server device 5 receives the resolution notification information notifying that the trouble of the target user 20 has been resolved from the target electronic device 2. For example, when the target user 20 presses the operation button 220 for a certain period of time or longer, the target electronic device 2 transmits the cancellation notification information to the server device 5. When the control unit 500 receives the cancellation notification information from the target electronic device 2 during the tracking process, the control unit 500 determines that the end condition is satisfied in step s24.

ステップs24においてYESと判定されると、追跡処理が終了する。一方で、ステップs24においてNOと判定されると、ステップs22が再度実行される。2回目以降のステップs22においては、制御部500は、直前のステップs23において、記憶部502内に追跡位置情報を記憶した場合には、当該追跡位置情報が示す位置の周辺の複数の路側機3を調査対象機3として決定する。つまり、制御部500は、直前のステップs23において、その周辺に対象ユーザ20が存在すると判定した路側機3の周辺の複数の路側機3を、調査対象機3として決定する。ユーザ20が移動する場合には、調査対象の路側機3は変更される。一方で、制御部500は、直前のステップs23において記憶部502内に追跡位置情報を記憶していない場合には、前回のステップs22において調査対象機3として決定した複数の路側機3を再度調査対象機3として決定する。つまり、制御部500は、直前のステップs23において、各調査対象機3がカメラ画像に対象ユーザ20が写らないと判定した場合には、調査対象機3を変更しない。 If YES is determined in step s24, the tracking process ends. On the other hand, if NO is determined in step s24, step s22 is executed again. In the second and subsequent steps s22, when the control unit 500 stores the tracking position information in the storage unit 502 in the immediately preceding step s23, the control unit 500 has a plurality of roadside machines 3 around the position indicated by the tracking position information. Is determined as the survey target machine 3. That is, in the immediately preceding step s23, the control unit 500 determines a plurality of roadside machines 3 around the roadside machine 3 that are determined to have the target user 20 in the vicinity thereof as the survey target machine 3. When the user 20 moves, the roadside machine 3 to be investigated is changed. On the other hand, when the control unit 500 does not store the tracking position information in the storage unit 502 in the immediately preceding step s23, the control unit 500 again investigates the plurality of roadside aircraft 3 determined as the investigation target aircraft 3 in the previous step s22. Determined as the target machine 3. That is, when the control unit 500 determines in the immediately preceding step s23 that the target user 20 does not appear in the camera image, the control unit 500 does not change the survey target machine 3.

ステップs22の後、再度ステップs23が実行される。このステップs23において、サーバ装置5は、調査対象機3から肯定判定情報を受信すると、その調査対象機3の位置の周辺に対象ユーザ20が存在すると判定する。そして、サーバ装置5は、ステップs23において、その周辺に対象ユーザ20が存在すると判定した路側機3の位置情報を、新たな追跡位置情報として記憶部502に記憶する。これにより、記憶部502には、最新の追跡位置情報が順次記憶され、その結果、対象ユーザ20の位置が追跡される。ステップs23の後、ステップs24が実行される。ステップs24においてNOと判定されると、以後、処理装置7は同様に動作する。 After step s22, step s23 is executed again. In step s23, when the server device 5 receives the affirmative determination information from the survey target machine 3, it determines that the target user 20 exists around the position of the survey target machine 3. Then, in step s23, the server device 5 stores the position information of the roadside machine 3 determined that the target user 20 exists in the vicinity thereof in the storage unit 502 as new tracking position information. As a result, the latest tracking position information is sequentially stored in the storage unit 502, and as a result, the position of the target user 20 is tracked. After step s23, step s24 is executed. If NO is determined in step s24, the processing device 7 operates in the same manner thereafter.

以上のように、処理装置7は、カメラ320で得られる撮影画像に対象ユーザ20が写るか否かを、対象ユーザ20についての推定した特徴量に基づいて判定する判定処理を実行する(ステップs23)。そして、処理装置7は、判定処理を、それに使用するカメラ320を変更しながら繰り返し実行することによって、対象ユーザ20の位置を追跡している。 As described above, the processing device 7 executes a determination process of determining whether or not the target user 20 appears in the captured image obtained by the camera 320 based on the estimated feature amount of the target user 20 (step s23). ). Then, the processing device 7 tracks the position of the target user 20 by repeatedly executing the determination process while changing the camera 320 used for the determination process.

本例では、サーバ装置5の表示部520は、追跡処理の実行中において、記憶部502内の最新の追跡位置情報を表示する。このとき、表示部520は、追跡位置情報の軌跡を地図上に表示してもよい。また表示部520は、トラブル通知情報に含まれる位置情報を表示してもよい。つまり、表示部520は、対象ユーザ20にトラブルが発生したときの対象ユーザ20の位置を表示してもよい。図15は表示部520の表示例を示す図である。図15の例では、表示部520は、地図700上に、最新の追跡位置情報710と、追跡位置情報の軌跡720と、トラブル通知情報に含まれる位置情報730とを表示している。 In this example, the display unit 520 of the server device 5 displays the latest tracking position information in the storage unit 502 while the tracking process is being executed. At this time, the display unit 520 may display the locus of the tracking position information on the map. Further, the display unit 520 may display the position information included in the trouble notification information. That is, the display unit 520 may display the position of the target user 20 when a trouble occurs in the target user 20. FIG. 15 is a diagram showing a display example of the display unit 520. In the example of FIG. 15, the display unit 520 displays the latest tracking position information 710, the tracking position information locus 720, and the position information 730 included in the trouble notification information on the map 700.

このように、表示部520に、最新の追跡位置情報710が表示されることにより、表示部520の表示を見た人は、対象ユーザ20が現在位置する場所を特定することができる。よって、トラブルが発生したユーザ20を早期に発見することが可能となる。その結果、トラブルが発生したユーザ20を早期に救出することが可能となる。 By displaying the latest tracking position information 710 on the display unit 520 in this way, the person who sees the display on the display unit 520 can specify the location where the target user 20 is currently located. Therefore, it is possible to detect the user 20 in which the trouble has occurred at an early stage. As a result, it is possible to rescue the user 20 in which the trouble has occurred at an early stage.

なお、サーバ装置5は、記憶部502内の追跡位置情報を他の装置に送信してもよい。例えば、サーバ装置5は、追跡位置情報を、対象ユーザ20の親が所持する携帯電話機に送信してもよい。この場合、対象ユーザ20の親が所持する携帯電話機は、受信した追跡位置情報を表示してもよい。また、サーバ装置5は、追跡位置情報を、警察署あるいは交番が有する通信装置に送信してもよい。この場合、警察署あるいは交番が有する通信装置は、受信した追跡位置情報を表示してもよい。また、サーバ装置5は、追跡位置情報を、警備会社が有する通信装置に送信してもよい。この場合、警備会社が有する通信装置は、受信した追跡位置情報を表示してもよい。 The server device 5 may transmit the tracking position information in the storage unit 502 to another device. For example, the server device 5 may transmit the tracking position information to the mobile phone owned by the parent of the target user 20. In this case, the mobile phone owned by the parent of the target user 20 may display the received tracking position information. Further, the server device 5 may transmit the tracking position information to the communication device of the police station or the police box. In this case, the communication device of the police station or police box may display the received tracking position information. Further, the server device 5 may transmit the tracking position information to the communication device owned by the security company. In this case, the communication device owned by the security company may display the received tracking position information.

また、調査対象機3が生成する肯定判定情報には、対象ユーザ20の位置情報が含まれてもよい。調査対象機3の制御部300は、対象ユーザ20が写るカメラ画像に基づいて、対象ユーザ20の位置情報を取得することが可能である。制御部300は、例えば、カメラ画像に写る、対象ユーザ20の推定特徴量と類似する特徴量を有する人物を、対象ユーザ20であると決定する。そして、制御部300は、カメラ画像において、対象ユーザ20の足元が写る領域を特定する。そして、制御部300は、特定した領域に写る場所の絶対的な位置を示す位置情報を、対象ユーザ20の位置情報として取得する。路側機3のカメラ320の画角、設置高さ及び設置角度(言い換えればカメラ320の向き)は一定であることから、制御部300は、カメラ画像に写る各場所の絶対的な位置(緯度、経度及び高度)を求めることができる。肯定判定情報に対象ユーザ20の位置情報が含まれる場合には、サーバ装置5は、調査対象機3から受け取る肯定判定情報に含まれる位置情報を追跡位置情報として記憶部502に記憶してもよい。これにより、対象ユーザ20が現在位置する場所をより正確に特定することができる。 Further, the affirmative determination information generated by the survey target machine 3 may include the position information of the target user 20. The control unit 300 of the survey target machine 3 can acquire the position information of the target user 20 based on the camera image of the target user 20. For example, the control unit 300 determines that the target user 20 is a person who has a feature amount similar to the estimated feature amount of the target user 20 in the camera image. Then, the control unit 300 specifies an area in which the feet of the target user 20 are captured in the camera image. Then, the control unit 300 acquires the position information indicating the absolute position of the place reflected in the specified area as the position information of the target user 20. Since the angle of view, the installation height, and the installation angle (in other words, the direction of the camera 320) of the camera 320 of the roadside machine 3 are constant, the control unit 300 controls the absolute position (latitude, latitude,) of each place reflected in the camera image. (Longitude and altitude) can be obtained. When the affirmative determination information includes the position information of the target user 20, the server device 5 may store the position information included in the affirmative determination information received from the investigation target machine 3 in the storage unit 502 as tracking position information. .. This makes it possible to more accurately identify the location where the target user 20 is currently located.

また終了条件は、上記の条件以外の条件であってもよい。終了条件は、例えば、対象ユーザ20の親の携帯電話機から、対象ユーザ20の無事が確認されたことを通知する通知情報をサーバ装置5が受信することであってもよい。また、終了条件は、警察署、交番あるいは警備会社が有する通信装置から、対象ユーザ20の無事が確認されたことを通知する通知情報をサーバ装置5が受信することであってもよい。 Further, the end condition may be a condition other than the above condition. The termination condition may be, for example, that the server device 5 receives notification information notifying that the safety of the target user 20 has been confirmed from the mobile phone of the parent of the target user 20. Further, the termination condition may be that the server device 5 receives notification information notifying that the safety of the target user 20 has been confirmed from the communication device owned by the police station, police box or security company.

また、図12のステップs213においては、指紋サイズの拡大率に基づいて、対象ユーザ20の登録特徴量610が補正されていたが、他の情報に基づいて、登録特徴量610が補正されてもよい。制御部500は、例えば、隆線間隔の拡大率に基づいて、対象ユーザ20の登録特徴量610を補正してもよい。隆線間隔の拡大率とは、対象ユーザ20の過去の指紋での隆線の間隔に対する、対象ユーザの現在の指紋での隆線の間隔の倍率を意味する。以下に、制御部500が、隆線間隔の拡大率に基づいて、対象ユーザ20の登録特徴量610を補正する場合の当該制御部500の動作の一例について説明する。 Further, in step s213 of FIG. 12, the registered feature amount 610 of the target user 20 is corrected based on the enlargement ratio of the fingerprint size, but even if the registered feature amount 610 is corrected based on other information. Good. The control unit 500 may correct the registered feature amount 610 of the target user 20 based on, for example, the enlargement ratio of the ridge interval. The expansion rate of the ridge spacing means the magnification of the ridge spacing in the current fingerprint of the target user with respect to the ridge spacing in the past fingerprint of the target user 20. Hereinafter, an example of the operation of the control unit 500 when the control unit 500 corrects the registered feature amount 610 of the target user 20 based on the enlargement ratio of the ridge interval will be described.

制御部500は、ステップs212において、取得指紋情報に基づいて、対象ユーザ20の現在の指紋での隆線の間隔を求める。また、制御部500は、対象ユーザ20の登録指紋情報に基づいて、対象ユーザ20の過去の指紋での隆線の間隔を求める。そして、制御部500は、対象ユーザ20の過去の指紋での隆線の間隔に対する、対象ユーザの現在の指紋での隆線の間隔の倍率、つまり隆線間隔の拡大率を求める。 In step s212, the control unit 500 obtains the interval of the ridges on the current fingerprint of the target user 20 based on the acquired fingerprint information. Further, the control unit 500 obtains the interval of the ridges on the past fingerprints of the target user 20 based on the registered fingerprint information of the target user 20. Then, the control unit 500 obtains the magnification of the ridge spacing with the target user's current fingerprint, that is, the enlargement ratio of the ridge spacing with respect to the ridge spacing with the past fingerprint of the target user 20.

次にステップs213において、制御部500は、隆線間隔の拡大率に基づいて、対象ユーザ20の登録特徴量610を補正する。例えば、制御部500は、指紋サイズの拡大率に基づいて登録特徴量610を補正する場合と同様に、対象ユーザ20の登録特徴量610に含まれる各第1構成値に対して、隆線間隔の拡大率に応じた拡大率を掛け合わすことによって、対象ユーザ20の登録特徴量610を補正する。記憶部502には、登録特徴量610に含まれる各第1構成値に関して、上述の図13と同様に、稜線間隔の拡大率の各値について、当該値に対応する補正拡大率が記憶されている。なお、制御部500は、機械学習を用いて、隆線間隔の拡大率に応じた補正拡大率を求めてもよい。 Next, in step s213, the control unit 500 corrects the registered feature amount 610 of the target user 20 based on the enlargement ratio of the ridge interval. For example, the control unit 500 corrects the registered feature amount 610 based on the enlargement ratio of the fingerprint size, and similarly to the case where the registered feature amount 610 is corrected, the ridge interval is relative to each first configuration value included in the registered feature amount 610 of the target user 20. The registered feature amount 610 of the target user 20 is corrected by multiplying the enlargement ratio according to the enlargement ratio of. In the storage unit 502, for each of the first constituent values included in the registered feature amount 610, as in FIG. 13 described above, for each value of the enlargement ratio of the ridge line interval, the correction enlargement ratio corresponding to the value is stored. There is. The control unit 500 may use machine learning to obtain a correction enlargement ratio according to the enlargement ratio of the ridge spacing.

上記の例では、制御部500は、対象ユーザ20の登録特徴量610を補正することによって、対象ユーザ20の現在の特徴量を推定していたが、登録特徴量610を使用せずに現在の特徴量を推定してもよい。この場合、制御部500は、例えば、ディープラーニング等の機械学習を用いて、対象ユーザ20の現在の特徴量を推定してもよい。制御部500は、ニューラルネットワークを用いて、対象ユーザ20の現在の特徴量を推定する場合には、多数の人の指紋情報及び特徴量を学習データとして用いて、ニューラルネットワークを学習させる。この場合、ニューラルネットワークに指紋情報を入力し、特徴量を教師データとして当該ニューラルネットワークを学習させる。そして、制御部500は、学習済みのニューラルネットワークに対してトラブル発生情報に含まれる取得指紋情報を入力したときに当該学習済みニューラルネットワークから出力される特徴量を、対象ユーザ20の現在の特徴量として使用する。以後、対象ユーザ20の現在の特徴量を推定する場合に使用するニューラルネットワークを特徴量推定用ニューラルネットワークと呼ぶことがある。特徴量推定用ニューラルネットワークの学習は、サーバ装置5が稼働している間に、繰り返し行われてもよい。また、特徴量推定用ニューラルネットワークの学習は、サーバ装置5以外の装置が行ってもよい。 In the above example, the control unit 500 estimates the current feature amount of the target user 20 by correcting the registered feature amount 610 of the target user 20, but the current feature amount 610 is not used and the current feature amount 610 is not used. Features may be estimated. In this case, the control unit 500 may estimate the current feature amount of the target user 20 by using machine learning such as deep learning, for example. When the control unit 500 estimates the current feature amount of the target user 20 by using the neural network, the control unit 500 trains the neural network by using the fingerprint information and the feature amount of a large number of people as learning data. In this case, fingerprint information is input to the neural network, and the neural network is trained using the feature amount as teacher data. Then, the control unit 500 sets the feature amount output from the learned neural network when the acquired fingerprint information included in the trouble occurrence information is input to the learned neural network to the current feature amount of the target user 20. Used as. Hereinafter, the neural network used when estimating the current feature amount of the target user 20 may be referred to as a feature amount estimation neural network. The learning of the feature quantity estimation neural network may be repeated while the server device 5 is operating. Further, the learning of the feature quantity estimation neural network may be performed by a device other than the server device 5.

以上のように、本例では、処理装置7は、電子機器2のセンサ270が取得する、ユーザ20の生体情報に基づいて、当該ユーザ20の特徴量を推定する。これにより、処理装置7は、ユーザ20の特徴量を簡単に取得することができる。 As described above, in this example, the processing device 7 estimates the feature amount of the user 20 based on the biometric information of the user 20 acquired by the sensor 270 of the electronic device 2. As a result, the processing device 7 can easily acquire the feature amount of the user 20.

また本例では、処理装置7は、推定したユーザ20の特徴量に基づいて、カメラ画像において当該ユーザ20が写るか否かを判定する。したがって、ユーザ20が成長して、当該ユーザ20の特徴量が変化する場合であっても、カメラ画像において当該ユーザ20が写るか否かを適切に判定することができる。よって、ユーザ20が現在存在する場所を適切に特定することができる。 Further, in this example, the processing device 7 determines whether or not the user 20 is captured in the camera image based on the estimated feature amount of the user 20. Therefore, even when the user 20 grows and the feature amount of the user 20 changes, it can be appropriately determined whether or not the user 20 is captured in the camera image. Therefore, the location where the user 20 currently exists can be appropriately specified.

また、操作ボタン220が操作された場合、対象電子機器2がその位置情報をサーバ装置5に繰り返し送信することによって、サーバ装置5は対象ユーザ20の位置を追跡することが可能となる。しかしながら、対象ユーザ20が電子機器2を落としたり、電子機器2が捨てられたりした場合には、サーバ装置5は、対象ユーザ20の位置を追跡することが難しくなる。本例に係る処理装置7は、カメラ320を使用して対象ユーザ20の位置を追跡することから、対象ユーザ20が電子機器2を落としたり、電子機器2が捨てられたりした場合であっても、処理装置7は対象ユーザ20の位置を適切に追跡することができる。 Further, when the operation button 220 is operated, the target electronic device 2 repeatedly transmits the position information to the server device 5, so that the server device 5 can track the position of the target user 20. However, if the target user 20 drops the electronic device 2 or the electronic device 2 is abandoned, it becomes difficult for the server device 5 to track the position of the target user 20. Since the processing device 7 according to this example tracks the position of the target user 20 by using the camera 320, even if the target user 20 drops the electronic device 2 or the electronic device 2 is abandoned. , The processing device 7 can appropriately track the position of the target user 20.

登録特徴量610及び推定特徴量に含まれる構成値は上記の例には限られない。登録特徴量610及び推定特徴量には、目の間隔、身長、体重、腕の長さ及び歩幅の一部だけが含まれてもよい。また、登録特徴量610及び推定特徴量には、目の間隔、身長、体重、腕の長さ及び歩幅以外の、ユーザ20の成長によって変化する値が含まれてもよい。例えば、登録特徴量610及び推定特徴量には、年齢が含まれてもよいし、足の長さが含まれてもよい。 The constituent values included in the registered feature amount 610 and the estimated feature amount are not limited to the above examples. The registered features 610 and estimated features may include only a portion of eye spacing, height, weight, arm length and stride length. In addition, the registered feature amount 610 and the estimated feature amount may include values that change with the growth of the user 20, other than eye spacing, height, weight, arm length, and stride length. For example, the registered features 610 and the estimated features may include age or foot length.

上記の追跡処理では、路側機3が備えるカメラ320が使用されたが、路側機3が備えるカメラ320以外のカメラが使用されてもよい。例えば、店舗、住宅及び街灯等に設置されたカメラが追跡処理で使用されてもよい。この場合、店舗、住宅及び街灯に設置されたカメラと接続された通信装置が、路側機3と同様の動作を行うことによって、上記と同様の追跡処理が実現される。また、追跡処理では、車両4が備えるカメラ470が使用されてもよい。この場合、車載機器40が、路側機3と同様の動作を行うことによって、上記と同様の追跡処理が実現される。図16は、車両4のカメラ470が使用される追跡処理の一例を示すフローチャートである。追跡処理において、カメラ470が使用される場合には、処理装置7には複数の車載機器40が含まれる。 In the above tracking process, the camera 320 included in the roadside machine 3 is used, but a camera other than the camera 320 included in the roadside machine 3 may be used. For example, cameras installed in stores, houses, street lights, etc. may be used in the tracking process. In this case, the same tracking process as described above is realized by the communication device connected to the camera installed in the store, the house, and the street light performing the same operation as the roadside unit 3. Further, in the tracking process, the camera 470 included in the vehicle 4 may be used. In this case, the in-vehicle device 40 performs the same operation as the roadside machine 3, thereby realizing the same tracking process as described above. FIG. 16 is a flowchart showing an example of tracking processing in which the camera 470 of the vehicle 4 is used. When the camera 470 is used in the tracking process, the processing device 7 includes a plurality of in-vehicle devices 40.

図16に示されるように、処理装置7のサーバ装置5は上述のステップs21を実行する。ステップs21の後、ステップs522が実行される。ステップs522において、サーバ装置5の制御部500は、トラブル発生情報に含まれる位置情報に基づいて調査対象の車両4を決定する。例えば、制御部500は、トラブル発生情報に含まれる位置情報が示す位置の周辺に存在する複数の車両4を特定する。そして、制御部500は、特定した複数の車両4を調査対象の車両4に決定する。図16の例では、各車載機器40は、受信部440で取得される最新の位置情報を、繰り返しサーバ装置5に送信する。これにより、制御部500は、トラブル発生情報に含まれる位置情報が示す位置の周辺に存在する複数の車両4を特定することができる。制御部500は、トラブル発生情報に含まれる位置情報が示す位置から、例えば数十メートル以内の車両4を、調査対象の車両4として決定する。 As shown in FIG. 16, the server device 5 of the processing device 7 executes the above-mentioned step s21. After step s21, step s522 is executed. In step s522, the control unit 500 of the server device 5 determines the vehicle 4 to be investigated based on the position information included in the trouble occurrence information. For example, the control unit 500 identifies a plurality of vehicles 4 existing around the position indicated by the position information included in the trouble occurrence information. Then, the control unit 500 determines the specified plurality of vehicles 4 as the vehicles 4 to be investigated. In the example of FIG. 16, each in-vehicle device 40 repeatedly transmits the latest position information acquired by the receiving unit 440 to the server device 5. As a result, the control unit 500 can identify a plurality of vehicles 4 existing around the position indicated by the position information included in the trouble occurrence information. The control unit 500 determines, for example, a vehicle 4 within several tens of meters from the position indicated by the position information included in the trouble occurrence information as the vehicle 4 to be investigated.

ステップs522の後、ステップs523において、処理装置7は、調査対象の車両4が備える車載機器40のカメラ470で得られる撮影画像に対象ユーザ20が写っているか否かを判定する。ステップs523では、まず、制御部500が、通信部510に、ステップs21で得られた推定特徴量を、調査対象の各車両4の車載機器40に対して送信させる。調査対象の車両4では、車載機器40の通信部410が対象ユーザ20の推定特徴量を受信する。車載機器40は、通信部310で受信された推定特徴量に基づいて、カメラ470で得られる撮影画像に対象ユーザ20が写るか否かを判定する。この車載機器40の動作は、上述の図14を用いて説明した調査対象機3の動作と同様である。 After step s522, in step s523, the processing device 7 determines whether or not the target user 20 is captured in the captured image obtained by the camera 470 of the vehicle-mounted device 40 included in the vehicle 4 to be investigated. In step s523, first, the control unit 500 causes the communication unit 510 to transmit the estimated feature amount obtained in step s21 to the in-vehicle device 40 of each vehicle 4 to be investigated. In the vehicle 4 to be investigated, the communication unit 410 of the in-vehicle device 40 receives the estimated feature amount of the target user 20. The in-vehicle device 40 determines whether or not the target user 20 is included in the captured image obtained by the camera 470 based on the estimated feature amount received by the communication unit 310. The operation of the in-vehicle device 40 is the same as the operation of the investigation target machine 3 described with reference to FIG. 14 described above.

ステップs523において、サーバ装置5は、調査対象の各車両4の車載機器40から判定情報を受け取る。ステップs523において、サーバ装置5では、通信部510が、調査対象の車両4から肯定判定情報を受信すると、制御部500は、ステップs523において、その調査対象の車両4の位置の周辺に対象ユーザ20が存在すると判定する。そして、ステップs523において、制御部500は、その周辺に対象ユーザ20が存在すると判定した車両4の位置情報を追跡位置情報として記憶部502に記憶する。 In step s523, the server device 5 receives determination information from the in-vehicle device 40 of each vehicle 4 to be investigated. In step s523, when the communication unit 510 receives the affirmative determination information from the vehicle 4 to be investigated in the server device 5, the control unit 500 sets the target user 20 around the position of the vehicle 4 to be investigated in step s523. Is determined to exist. Then, in step s523, the control unit 500 stores the position information of the vehicle 4 determined that the target user 20 exists in the vicinity thereof in the storage unit 502 as tracking position information.

サーバ装置5が、調査対象の各車両4から判定情報を受け取った後、上述のステップs24が実行される。ステップs24においてYESと判定されると、追跡処理が終了する。一方で、ステップs24においてNOと判定されると、ステップs522が再度実行される。2回目以降のステップs522においては、制御部500は、直前のステップs523において、記憶部502内に追跡位置情報を記憶した場合には、当該追跡位置情報が示す位置の周辺の複数の車両4を調査対象の車両4として決定する。つまり、制御部500は、直前のステップs523において、その周辺に対象ユーザ20が存在すると判定した車両4の周辺の複数の車両4を、調査対象として決定する。一方で、制御部500は、直前のステップs23において記憶部502内に追跡位置情報を記憶していない場合には、前回のステップs522と同様に、トラブル発生情報に含まれる位置情報が示す位置の周辺の複数の車両4をあらためて特定する。そして、制御部500は、特定した複数の車両4を調査対象の車両4として決定する。 After the server device 5 receives the determination information from each vehicle 4 to be investigated, the above-mentioned step s24 is executed. If YES is determined in step s24, the tracking process ends. On the other hand, if NO is determined in step s24, step s522 is executed again. In the second and subsequent steps s522, when the tracking position information is stored in the storage unit 502 in the immediately preceding step s523, the control unit 500 displays a plurality of vehicles 4 around the position indicated by the tracking position information. It is determined as the vehicle 4 to be investigated. That is, in the immediately preceding step s523, the control unit 500 determines a plurality of vehicles 4 around the vehicle 4 that is determined to have the target user 20 in the vicinity thereof as the investigation target. On the other hand, when the control unit 500 does not store the tracking position information in the storage unit 502 in the immediately preceding step s23, the position indicated by the position information included in the trouble occurrence information is the same as in the previous step s522. A plurality of vehicles 4 in the vicinity are specified again. Then, the control unit 500 determines the specified plurality of vehicles 4 as the vehicles 4 to be investigated.

ステップs522の後、再度ステップs523が実行される。このステップs523において、サーバ装置5は、調査対象の車両4の車載機器40から肯定判定情報を受信すると、その調査対象の車両4の位置の周辺に対象ユーザ20が存在すると判定する。そして、サーバ装置5は、ステップs523において、その周辺に対象ユーザ20が存在すると判定した車両4の位置情報を、新たな追跡位置情報として記憶部502に記憶する。これにより、記憶部502には、最新の追跡位置情報が順次記憶され、対象ユーザ20の位置が追跡される。ステップs523の後、ステップs24が実行される。ステップs24においてNOと判定されると、以後、処理装置7は同様に動作する。 After step s522, step s523 is executed again. In step s523, when the server device 5 receives the affirmative determination information from the in-vehicle device 40 of the vehicle 4 to be investigated, it determines that the target user 20 exists around the position of the vehicle 4 to be investigated. Then, in step s523, the server device 5 stores the position information of the vehicle 4 determined that the target user 20 exists in the vicinity thereof in the storage unit 502 as new tracking position information. As a result, the latest tracking position information is sequentially stored in the storage unit 502, and the position of the target user 20 is tracked. After step s523, step s24 is executed. If NO is determined in step s24, the processing device 7 operates in the same manner thereafter.

なお、図16の追跡処理と、図10の追跡処理とが並列的に実行されてもよい。この場合、処理装置7には、複数の車載機器40と複数の路側機3とが含まれる。 The tracking process of FIG. 16 and the tracking process of FIG. 10 may be executed in parallel. In this case, the processing device 7 includes a plurality of in-vehicle devices 40 and a plurality of roadside machines 3.

また、処理装置7は、ステップs21で得られた対象ユーザ20の推定特徴量を、対象電子機器2に表示させてもよい。この場合、処理装置7のサーバ装置5は、例えば追跡処理が終了した後に、ステップs21で得られた対象ユーザ20の推定特徴量を対象電子機器2に送信する。対象電子機器2では、制御部200が、通信部210が受信する推定特徴量を表示部250に表示させる。 Further, the processing device 7 may display the estimated feature amount of the target user 20 obtained in step s21 on the target electronic device 2. In this case, the server device 5 of the processing device 7 transmits, for example, the estimated feature amount of the target user 20 obtained in step s21 to the target electronic device 2 after the tracking process is completed. In the target electronic device 2, the control unit 200 causes the display unit 250 to display the estimated feature amount received by the communication unit 210.

図17は、対象電子機器2が、処理装置7で得られた対象ユーザ20の推定特徴量を表示する場合の対象電子機器2の表示例を示す図である。対象電子機器2は、対象ユーザ20の推定特徴量を受信すると、当該推定特徴量が正しいか否かを対象ユーザが入力するための第1入力画面800を表示部250に表示させる。第1入力画面800には、対象ユーザ20の推定特徴量に含まれる各第2構成値について、当該第2構成値を示す情報810が示されている。具体的には、第1入力画面800には、推定特徴量に含まれる目の間隔を示す情報810aと、推定特徴量に含まれる身長を示す情報810bと、推定特徴量に含まれる体重を示す情報810cと、推定特徴量に含まれる腕の長さを示す情報810dと、推定特徴量に含まれる歩幅を示す情報810eとが示されている。 FIG. 17 is a diagram showing a display example of the target electronic device 2 when the target electronic device 2 displays the estimated feature amount of the target user 20 obtained by the processing device 7. When the target electronic device 2 receives the estimated feature amount of the target user 20, the target electronic device 2 causes the display unit 250 to display a first input screen 800 for the target user to input whether or not the estimated feature amount is correct. On the first input screen 800, information 810 indicating the second configuration value is shown for each second configuration value included in the estimated feature amount of the target user 20. Specifically, the first input screen 800 shows information 810a indicating the eye spacing included in the estimated feature amount, information 810b indicating the height included in the estimated feature amount, and weight included in the estimated feature amount. Information 810c, information 810d indicating the length of the arm included in the estimated feature amount, and information 810e indicating the stride length included in the estimated feature amount are shown.

また、第1入力画面800には、推定特徴量が正しいときに操作される操作ボタン820と、推定特徴量が正しくないときに操作される操作ボタン830とが示されている。対象電子機器2の制御部200は、操作ボタン820が操作されると、推定特徴量が、対象ユーザ20において正しいと判断されたと認識する。そして、制御部200は、推定特徴量が対象ユーザ20において正しいと判断されたことを通知する第1通知情報を生成する。制御部200は、通信部210に、第1通知情報をサーバ装置5に対して送信させる。第1通知情報を受信したサーバ装置5では、制御部500は、記憶部502内の対象ユーザ20の登録特徴量610を、ステップs21で得られた推定特徴量に置き換えて、登録特徴量610を更新する。 Further, on the first input screen 800, an operation button 820 operated when the estimated feature amount is correct and an operation button 830 operated when the estimated feature amount is not correct are shown. When the operation button 820 is operated, the control unit 200 of the target electronic device 2 recognizes that the estimated feature amount is determined to be correct by the target user 20. Then, the control unit 200 generates the first notification information for notifying that the estimated feature amount is determined to be correct by the target user 20. The control unit 200 causes the communication unit 210 to transmit the first notification information to the server device 5. In the server device 5 that has received the first notification information, the control unit 500 replaces the registered feature amount 610 of the target user 20 in the storage unit 502 with the estimated feature amount obtained in step s21, and replaces the registered feature amount 610 with the estimated feature amount obtained in step s21. Update.

一方で、制御部200は、操作ボタン830が操作されると、推定特徴量が、対象ユーザ20において正しくないと判断されたと認識する。そして、制御部200は、対象ユーザ20が正しい特徴量を入力するための第2入力画面900を表示部250に表示させる。 On the other hand, when the operation button 830 is operated, the control unit 200 recognizes that the estimated feature amount is determined to be incorrect by the target user 20. Then, the control unit 200 causes the display unit 250 to display the second input screen 900 for the target user 20 to input the correct feature amount.

図18は第2入力画面900の一例を示す図である。図18に示されるように、第2入力画面900には、対象ユーザ20の特徴量を入力するための複数の入力欄910と操作ボタン920とが示されている。操作ボタン920は、対象ユーザ20が特徴量を対象電子機器2に入力した後に操作する操作ボタンである。複数の入力欄910には、目の間隔を入力するための入力欄910bと、身長を入力するための入力欄910bと、体重を入力するための入力欄910cと、腕の長さを入力するための入力欄910dと、歩幅を入力するための入力欄910eとが含まれる。対象ユーザ20は、入力欄910を操作することによって値を入力することができる。対象電子機器2の制御部200は、入力欄910が操作されて値が入力されると、入力された当該値を、操作された当該入力欄910に表示する。対象ユーザ20は、各入力欄910を操作して、目の間隔、身長、体重、腕の長さ及び歩幅についての値を入力すると、操作ボタン920を操作する。操作ボタン920が操作されると、制御部200は、対象ユーザ20から入力された複数の値を、対象ユーザ20の現在の正しい特徴量とする。そして、制御部200は、通信部210に、対象ユーザ20の現在の正しい特徴量を、サーバ装置5に対して送信させる。対象ユーザ20の現在の正しい特徴量を受信したサーバ装置5では、制御部500は、記憶部502内の対象ユーザ20の登録特徴量610を、サーバ装置5で受信された特徴量に置き換えて、登録特徴量610を更新する。 FIG. 18 is a diagram showing an example of the second input screen 900. As shown in FIG. 18, the second input screen 900 shows a plurality of input fields 910 and operation buttons 920 for inputting the feature amount of the target user 20. The operation button 920 is an operation button that the target user 20 operates after inputting the feature amount into the target electronic device 2. In the plurality of input fields 910, input the input field 910b for inputting the eye spacing, the input field 910b for inputting the height, the input field 910c for inputting the weight, and the arm length. The input field 910d for inputting the stride length and the input field 910e for inputting the stride length are included. The target user 20 can input a value by operating the input field 910. When the input field 910 is operated and a value is input, the control unit 200 of the target electronic device 2 displays the input value in the operated input field 910. The target user 20 operates each input field 910 to input values for eye spacing, height, weight, arm length, and stride length, and then operates the operation button 920. When the operation button 920 is operated, the control unit 200 sets a plurality of values input from the target user 20 as the current correct feature amount of the target user 20. Then, the control unit 200 causes the communication unit 210 to transmit the current correct feature amount of the target user 20 to the server device 5. In the server device 5 that has received the current correct feature amount of the target user 20, the control unit 500 replaces the registered feature amount 610 of the target user 20 in the storage unit 502 with the feature amount received by the server device 5. The registered feature amount 610 is updated.

なお、第1入力画面800において操作ボタン830が操作されたときに、対象電子機器2は第2入力画面900を表示しなくてもよい。この場合、操作ボタン830が操作されたときには登録特徴量610は更新されない。また、電子機器2は、第1入力画面800を表示せずに、第2入力画面900を表示してもよい。この場合、電子機器2の動作モードが登録モードに設定されたときに、第2入力画面900が電子機器2に表示されてもよい。 The target electronic device 2 does not have to display the second input screen 900 when the operation button 830 is operated on the first input screen 800. In this case, the registered feature amount 610 is not updated when the operation button 830 is operated. Further, the electronic device 2 may display the second input screen 900 without displaying the first input screen 800. In this case, the second input screen 900 may be displayed on the electronic device 2 when the operation mode of the electronic device 2 is set to the registration mode.

また、第1入力画面800において、推定特徴量に含まれる複数の第2構成値のそれぞれについて、操作ボタン820及び830を設けて、対象ユーザ20が各第2構成値が正しいか否かを個別に入力できるようにしてもよい。この場合、第2入力画面900には、操作ボタン830が操作されて対象ユーザ20が正しくないと判断した第2構成値に対応する入力欄910だけが示されてもよい。 Further, on the first input screen 800, operation buttons 820 and 830 are provided for each of the plurality of second configuration values included in the estimated feature amount, and the target user 20 individually determines whether or not each second configuration value is correct. You may be able to enter in. In this case, the second input screen 900 may show only the input field 910 corresponding to the second configuration value that the operation button 830 is operated and the target user 20 determines to be incorrect.

また、第1入力画面800が表示されている場合には、第1入力画面800に含まれる操作ボタン820と同様の働きを操作ボタン220が行ってもよい。この場合、ハードウェアボタンである操作ボタン220が操作されると、対象電子機器2は、トラブル発生情報ではなく、第1通知情報をサーバ装置5に送信する。このとき、第1通知情報には、操作ボタン220が操作されたときにセンサ270で取得された指紋情報が含まれてもよい。指紋情報を含む第1通知情報を受信したサーバ装置5では、制御部500が、記憶部502内の対象ユーザ20の登録指紋情報620を、第1通知情報に含まれる指紋情報に置き換えて、登録指紋情報620を更新する。 Further, when the first input screen 800 is displayed, the operation button 220 may perform the same function as the operation button 820 included in the first input screen 800. In this case, when the operation button 220, which is a hardware button, is operated, the target electronic device 2 transmits the first notification information to the server device 5 instead of the trouble occurrence information. At this time, the first notification information may include fingerprint information acquired by the sensor 270 when the operation button 220 is operated. In the server device 5 that has received the first notification information including the fingerprint information, the control unit 500 replaces the registered fingerprint information 620 of the target user 20 in the storage unit 502 with the fingerprint information included in the first notification information and registers it. The fingerprint information 620 is updated.

また、第2入力画面900が表示されている場合には、第2入力画面900に含まれる操作ボタン920と同様の働きを操作ボタン220が行ってもよい。この場合、操作ボタン220が操作されると、対象電子機器2は、トラブル発生情報ではなく、対象ユーザ20から入力された現在の正しい特徴量をサーバ装置5に送信する。対象電子機器2は、対象ユーザ20の現在の正しい特徴量とともに、操作ボタン220が操作されたときにセンサ270で取得された指紋情報をサーバ装置5に送信してもよい。対象電子機器2から指紋情報を受信したサーバ装置5では、制御部500が、記憶部502内の対象ユーザ20の登録指紋情報620を、受信された指紋情報に置き換えて、登録指紋情報620を更新する。 Further, when the second input screen 900 is displayed, the operation button 220 may perform the same function as the operation button 920 included in the second input screen 900. In this case, when the operation button 220 is operated, the target electronic device 2 transmits the current correct feature amount input from the target user 20 to the server device 5 instead of the trouble occurrence information. The target electronic device 2 may transmit the fingerprint information acquired by the sensor 270 when the operation button 220 is operated to the server device 5 together with the current correct feature amount of the target user 20. In the server device 5 that has received the fingerprint information from the target electronic device 2, the control unit 500 replaces the registered fingerprint information 620 of the target user 20 in the storage unit 502 with the received fingerprint information and updates the registered fingerprint information 620. To do.

また、上述のように、サーバ装置5の記憶部502内の登録指紋情報620及び登録特徴量610が更新される場合に、更新された登録指紋情報620及び登録特徴量610が、上述の特徴量推定用ニューラルネットワークの学習で使用される学習データに含められてもよい。 Further, as described above, when the registered fingerprint information 620 and the registered feature amount 610 in the storage unit 502 of the server device 5 are updated, the updated registered fingerprint information 620 and the registered feature amount 610 are the above-mentioned feature amounts. It may be included in the training data used in the training of the estimation neural network.

また、上記の例では、路側機3のカメラ320が追跡処理で使用される場合、路側機3の制御部300が、カメラ画像において対象ユーザ20が写るか否かを判定する判定部として機能するが、サーバ装置5の制御部500が当該判定部として機能してもよい。この場合、上述の図10のステップs23において、サーバ装置5の制御部500は、撮影画像(言い換えれば、カメラ画像)を送信することを指示する指示情報を生成する。そして、制御部500は、通信部510に、指示情報を各調査対象機3に対して送信させる。指示情報を受信した調査対象機3では、制御部300が、通信部310に、カメラ320で得られるカメラ画像をサーバ装置5に対して送信させる。サーバ装置5の制御部500は、各調査対象機3について、当該調査対象機3からのカメラ画像に対象ユーザ20が写るか否かを推定特徴量に基づいて判定する。この制御部500の動作は、上述の図14を用いて説明した路側機3の制御部300の動作と同様である。 Further, in the above example, when the camera 320 of the roadside machine 3 is used in the tracking process, the control unit 300 of the roadside machine 3 functions as a determination unit for determining whether or not the target user 20 is captured in the camera image. However, the control unit 500 of the server device 5 may function as the determination unit. In this case, in step s23 of FIG. 10 described above, the control unit 500 of the server device 5 generates instruction information instructing the transmission of a captured image (in other words, a camera image). Then, the control unit 500 causes the communication unit 510 to transmit instruction information to each survey target machine 3. In the survey target machine 3 that has received the instruction information, the control unit 300 causes the communication unit 310 to transmit the camera image obtained by the camera 320 to the server device 5. The control unit 500 of the server device 5 determines whether or not the target user 20 is captured in the camera image from the survey target machine 3 for each survey target machine 3 based on the estimated feature amount. The operation of the control unit 500 is the same as the operation of the control unit 300 of the roadside machine 3 described with reference to FIG. 14 described above.

また図16のように、車載機器40のカメラ470が追跡処理で使用される場合、車載機器40の制御部400が、カメラ470で得られる撮影画像において対象ユーザ20が写るか否かを判定する判定部として機能するが、サーバ装置5の制御部500が当該判定部として機能してもよい。この場合、上述の図16のステップs523において、サーバ装置5の制御部500は、撮影画像を送信することを指示する指示情報を生成する。そして、制御部500は、通信部510に、指示情報を各調査対象の車両4に対して送信させる。指示情報を受信した調査対象の車両4の車載機器40では、制御部400が、通信部410に、カメラ470で得られる撮影画像をサーバ装置5に対して送信させる。サーバ装置5の制御部500は、各調査対象の車両4について、当該調査対象の車両4からの撮影画像に対象ユーザ20が写るか否かを推定特徴量に基づいて判定する。 Further, as shown in FIG. 16, when the camera 470 of the in-vehicle device 40 is used in the tracking process, the control unit 400 of the in-vehicle device 40 determines whether or not the target user 20 is captured in the captured image obtained by the camera 470. Although it functions as a determination unit, the control unit 500 of the server device 5 may function as the determination unit. In this case, in step s523 of FIG. 16 described above, the control unit 500 of the server device 5 generates instruction information instructing the transmission of the captured image. Then, the control unit 500 causes the communication unit 510 to transmit instruction information to each vehicle 4 to be investigated. In the in-vehicle device 40 of the vehicle 4 to be investigated that has received the instruction information, the control unit 400 causes the communication unit 410 to transmit the captured image obtained by the camera 470 to the server device 5. The control unit 500 of the server device 5 determines whether or not the target user 20 appears in the captured image from the vehicle 4 to be investigated for each vehicle 4 to be investigated based on the estimated feature amount.

また上記の例では、サーバ装置5の制御部500が、対象ユーザ20の特徴量を推定する推定部として機能しているが、路側機3のカメラ320が追跡処理で使用される場合には、路側機3の制御部300が、当該推定部として機能してもよい。この場合、上述の図10において、サーバ装置5は、ステップs21を実行せずにステップs22を実行する。そして、サーバ装置5は、ステップs23において、各調査対象機3に対して、取得指紋情報と、対象ユーザ20の登録特徴量610及び登録指紋情報620を送信する。調査対象機3では、制御部300が、サーバ装置5からの取得指紋情報、登録特徴量610及び登録指紋情報620を使用して、上述の図12と同様にして、対象ユーザ20の現在の特徴量を推定する。路側機3の記憶部302には、上述の図13のように、指紋サイズの拡大率の各値について、当該値に対応する補正拡大率が記憶されている。各調査対象機3で取得された推定特徴量はサーバ装置5に送信される。 Further, in the above example, the control unit 500 of the server device 5 functions as an estimation unit for estimating the feature amount of the target user 20, but when the camera 320 of the roadside machine 3 is used in the tracking process, The control unit 300 of the roadside machine 3 may function as the estimation unit. In this case, in FIG. 10 described above, the server device 5 executes step s22 without executing step s21. Then, in step s23, the server device 5 transmits the acquired fingerprint information, the registered feature amount 610 of the target user 20, and the registered fingerprint information 620 to each survey target machine 3. In the survey target machine 3, the control unit 300 uses the fingerprint information acquired from the server device 5, the registered feature amount 610, and the registered fingerprint information 620 to perform the current features of the target user 20 in the same manner as in FIG. Estimate the amount. As shown in FIG. 13 above, the storage unit 302 of the roadside machine 3 stores the correction enlargement ratio corresponding to each value of the fingerprint size enlargement ratio. The estimated feature amount acquired by each survey target machine 3 is transmitted to the server device 5.

また、車載機器40のカメラ470が追跡処理で使用される場合には、車載機器40の制御部400が、対象ユーザ20の特徴量を推定する推定部として機能してもよい。この場合、上述の図16において、サーバ装置5は、ステップs21を実行せずにステップs522を実行する。そして、サーバ装置5は、ステップs523において、各調査対象の車両4に対して、取得指紋情報と、対象ユーザ20の登録特徴量610及び登録指紋情報620を送信する。調査対象の車両4の車載機器40では、制御部500が、サーバ装置5からの取得指紋情報、登録特徴量610及び登録指紋情報620を使用して、対象ユーザ20の現在の特徴量を推定する。車載機器40の記憶部402には、上述の図13のように、指紋サイズの拡大率の各値について、当該値に対応する補正拡大率が記憶されている。各調査対象の車両4の車載機器40で取得された推定特徴量はサーバ装置5に送信される。 Further, when the camera 470 of the in-vehicle device 40 is used in the tracking process, the control unit 400 of the in-vehicle device 40 may function as an estimation unit for estimating the feature amount of the target user 20. In this case, in FIG. 16 described above, the server device 5 executes step s522 without executing step s21. Then, in step s523, the server device 5 transmits the acquired fingerprint information, the registered feature amount 610 of the target user 20, and the registered fingerprint information 620 to each vehicle 4 to be investigated. In the in-vehicle device 40 of the vehicle 4 to be investigated, the control unit 500 estimates the current feature amount of the target user 20 by using the fingerprint information acquired from the server device 5, the registered feature amount 610, and the registered fingerprint information 620. .. As shown in FIG. 13 described above, the storage unit 402 of the in-vehicle device 40 stores the correction enlargement ratio corresponding to each value of the fingerprint size enlargement ratio. The estimated feature amount acquired by the in-vehicle device 40 of the vehicle 4 to be investigated is transmitted to the server device 5.

上記の追跡処理では、ユーザ20の現在の特徴量の推定に、指紋情報が使用されているが、指紋情報以外の、人の成長に応じて変化する生体情報が使用されてもよい。例えば、人の静脈に関する静脈情報、人の掌紋に関する掌紋情報、人の虹彩に関する虹彩情報あるいは人の声紋に関する声紋情報が使用されてもよい。 In the above tracking process, fingerprint information is used for estimating the current feature amount of the user 20, but biological information other than the fingerprint information, which changes according to the growth of the person, may be used. For example, vein information about a person's vein, palmprint information about a person's palmprint, iris information about a person's iris, or voiceprint information about a person's voiceprint may be used.

例えば、追跡処理において、指紋情報の代わりに静脈情報が使用される場合を考える。この場合、電子機器2のセンサ270は、ユーザ20の指紋情報ではなく、ユーザ20の静脈情報を取得する。センサ270は、例えば、操作ボタン220をさわる指の静脈情報を取得することができる。電子機器2は、操作ボタン220が操作されると、そのときにセンサ270で取得される静脈情報を含むトラブル発生情報を送信する。処理装置7は、対象ユーザ20の指紋情報の代わりに、対象ユーザ20の静脈情報を使用して、上記と同様にして、対象ユーザ20の現在の特徴量を推定する。 For example, consider the case where vein information is used instead of fingerprint information in the tracking process. In this case, the sensor 270 of the electronic device 2 acquires the vein information of the user 20 instead of the fingerprint information of the user 20. The sensor 270 can acquire, for example, vein information of a finger touching the operation button 220. When the operation button 220 is operated, the electronic device 2 transmits trouble occurrence information including vein information acquired by the sensor 270 at that time. The processing device 7 uses the vein information of the target user 20 instead of the fingerprint information of the target user 20 to estimate the current feature amount of the target user 20 in the same manner as described above.

他の例として、追跡処理において、指紋情報の代わりに掌紋情報が使用される場合を考える。この場合、電子機器2のセンサ270は、ユーザ20の指紋情報ではなく、ユーザ20の掌紋情報を取得する。センサ270は、例えば、操作ボタン220をさわる手の平の掌紋情報を取得することができる。ユーザ20は、トラブルが発生した場合には、操作ボタン220を手の平で押圧して操作する。電子機器2は、操作ボタン220が操作されると、そのときにセンサ270で取得される掌紋情報を含むトラブル発生情報を送信する。処理装置7は、対象ユーザ20の指紋情報の代わりに、対象ユーザ20の掌紋情報を使用して、上記と同様にして、対象ユーザ20の現在の特徴量を推定する。 As another example, consider the case where the palm print information is used instead of the fingerprint information in the tracking process. In this case, the sensor 270 of the electronic device 2 acquires the fingerprint information of the user 20 instead of the fingerprint information of the user 20. The sensor 270 can acquire, for example, palm print information of the palm touching the operation button 220. When a trouble occurs, the user 20 presses the operation button 220 with the palm of his hand to operate it. When the operation button 220 is operated, the electronic device 2 transmits trouble occurrence information including the palm print information acquired by the sensor 270 at that time. The processing device 7 uses the palm print information of the target user 20 instead of the fingerprint information of the target user 20 to estimate the current feature amount of the target user 20 in the same manner as described above.

なお、センサ270は、電子機器2の前面を覆う手の平の掌紋情報を取得してもよい。この場合、ユーザ20は、トラブルが発生した場合、例えば、手の平を電子機器2の前面にかざしながら操作ボタン220を操作する。また、センサ270は、電子機器2の背面を覆う手の平の掌紋情報を取得してもよい。この場合、ユーザ20は、トラブルが発生した場合、例えば、片方の手の平が電子機器2の背面を覆うように当該片方の手で電子機器2を持った状態で操作ボタン220を操作する。 The sensor 270 may acquire the palm print information of the palm covering the front surface of the electronic device 2. In this case, when a trouble occurs, the user 20 operates the operation button 220 while holding the palm of the hand over the front surface of the electronic device 2, for example. Further, the sensor 270 may acquire the palm print information of the palm covering the back surface of the electronic device 2. In this case, when a trouble occurs, the user 20 operates the operation button 220 while holding the electronic device 2 with the other hand so that the palm of one hand covers the back surface of the electronic device 2.

他の例として、追跡処理において、指紋情報の代わりに虹彩情報が使用される場合を考える。この場合、電子機器2のセンサ270は、例えばカメラを有し、当該カメラを用いてユーザ20の虹彩情報を取得する。センサ270は、カメラで得られる、ユーザ20の顔が写る撮影画像に基づいて、当該ユーザ20の虹彩情報を取得する。センサ270のカメラは、例えば、電子機器2の前面に設けられる。ユーザ20は、トラブルが発生した場合、電子機器2の前面のカメラに自身の顔が写る状態で操作ボタン220を操作する。電子機器2は、操作ボタン220が操作されると、そのときにセンサ270で取得される虹彩情報を含むトラブル発生情報を送信する。処理装置7は、対象ユーザ20の指紋情報の代わりに、対象ユーザ20の虹彩情報を使用して、上記と同様にして、対象ユーザ20の現在の特徴量を推定する。 As another example, consider the case where the iris information is used instead of the fingerprint information in the tracking process. In this case, the sensor 270 of the electronic device 2 has, for example, a camera, and uses the camera to acquire the iris information of the user 20. The sensor 270 acquires the iris information of the user 20 based on the captured image of the user 20's face obtained by the camera. The camera of the sensor 270 is provided, for example, on the front surface of the electronic device 2. When a trouble occurs, the user 20 operates the operation button 220 with his / her face reflected in the camera in front of the electronic device 2. When the operation button 220 is operated, the electronic device 2 transmits trouble occurrence information including the iris information acquired by the sensor 270 at that time. The processing device 7 uses the iris information of the target user 20 instead of the fingerprint information of the target user 20 to estimate the current feature amount of the target user 20 in the same manner as described above.

他の例として、追跡処理において、指紋情報の代わりに声紋情報が使用される場合を考える。この場合、電子機器2のセンサ270は、例えばマイクを有し、当該マイクを用いてユーザ20の声紋情報を取得する。センサ270は、マイクが出力する、ユーザ20の声を示す信号に基づいて、当該ユーザ20の声紋情報を取得する。ユーザ20は、トラブルが発生した場合、声を発しながら操作ボタン220を操作する。電子機器2は、操作ボタン220が操作されると、そのときにセンサ270で取得される声紋情報を含むトラブル発生情報を送信する。処理装置7は、対象ユーザ20の指紋情報の代わりに、対象ユーザ20の声紋情報を使用して、上記と同様にして、対象ユーザ20の現在の特徴量を推定する。 As another example, consider the case where the voiceprint information is used instead of the fingerprint information in the tracking process. In this case, the sensor 270 of the electronic device 2 has, for example, a microphone, and the voiceprint information of the user 20 is acquired by using the microphone. The sensor 270 acquires the voiceprint information of the user 20 based on the signal indicating the voice of the user 20 output by the microphone. When a trouble occurs, the user 20 operates the operation button 220 while speaking out. When the operation button 220 is operated, the electronic device 2 transmits trouble occurrence information including the voiceprint information acquired by the sensor 270 at that time. The processing device 7 uses the voiceprint information of the target user 20 instead of the fingerprint information of the target user 20 to estimate the current feature amount of the target user 20 in the same manner as described above.

なお、追跡処理において声紋情報が使用される場合には、電子機器2は、ユーザ20が発する所定の音声がセンサ270のマイクに入力されたとき、当該ユーザ20にトラブルが発生したと判定して、当該ユーザ20の声紋情報を含むトラブル発生情報を送信してもよい。また、電子機器2がマイクを備える場合には、追跡処理において使用される生体情報の種類にかかわらず、電子機器2は、ユーザ20が発する所定の音声がマイクに入力されたとき、当該ユーザ20の生体情報を含むトラブル発生情報を送信してもよい。また、電子機器2が、当該電子機器2の振動を検出する加速度センサを備える場合には、電子機器2は、ユーザ20が電子機器2に加える所定の振動を加速度センサが検出したとき、トラブル発生情報を送信してもよい。 When the voiceprint information is used in the tracking process, the electronic device 2 determines that a trouble has occurred in the user 20 when a predetermined voice emitted by the user 20 is input to the microphone of the sensor 270. , Trouble occurrence information including the voiceprint information of the user 20 may be transmitted. Further, when the electronic device 2 is provided with a microphone, regardless of the type of biometric information used in the tracking process, the electronic device 2 receives the user 20 when a predetermined voice emitted by the user 20 is input to the microphone. The trouble occurrence information including the biometric information of the above may be transmitted. Further, when the electronic device 2 includes an acceleration sensor for detecting the vibration of the electronic device 2, the electronic device 2 causes a trouble when the acceleration sensor detects a predetermined vibration applied to the electronic device 2 by the user 20. Information may be sent.

上記の例では、ユーザ20の推定特徴量は、当該ユーザ20の位置を追跡するために使用されているが、他の目的のために使用されてもよい。また処理装置7は、トラブルが発生したユーザ20だけではなく、トラブルが発生していないユーザ20の現在の特徴量を推定してもよい。また、処理装置7は、ユーザ20の位置の追跡を行わず、ユーザ20の現在の特徴量を推定する処理だけを実行してもよい。この場合、処理装置7は、ユーザ20の現在の特徴量を推定するサーバ装置5だけで構成されてもよいし、ユーザ20の現在の特徴量を推定する路側機3だけで構成されてもよいし、ユーザ20の現在の特徴量を推定する車載機器40だけで構成されてもよい。 In the above example, the estimated features of the user 20 are used to track the position of the user 20, but may be used for other purposes. Further, the processing device 7 may estimate not only the user 20 in which the trouble has occurred but also the current feature amount of the user 20 in which the trouble has not occurred. Further, the processing device 7 may execute only the process of estimating the current feature amount of the user 20 without tracking the position of the user 20. In this case, the processing device 7 may be composed only of the server device 5 that estimates the current feature amount of the user 20, or may be composed only of the roadside machine 3 that estimates the current feature amount of the user 20. However, it may be composed only of the in-vehicle device 40 that estimates the current feature amount of the user 20.

以上のように、通信システム1は詳細に説明されたが、上記した説明は、全ての局面において例示であって、この開示がそれに限定されるものではない。また、上述した各種変形例は、相互に矛盾しない限り組み合わせて適用可能である。そして、例示されていない無数の変形例が、この開示の範囲から外れることなく想定され得るものと解される。 As described above, the communication system 1 has been described in detail, but the above description is an example in all aspects, and the disclosure is not limited thereto. In addition, the various modifications described above can be applied in combination as long as they do not contradict each other. And it is understood that innumerable variations not illustrated can be assumed without departing from the scope of this disclosure.

2 携帯型電子機器
3 路側機
4 車両
5 サーバ装置
7 処理装置
40 車載機器
200,300,400 制御部
2 Portable electronic equipment 3 Roadside equipment 4 Vehicles 5 Server equipment 7 Processing equipment 40 In-vehicle equipment 200, 300, 400 Control unit

Claims (13)

人によって操作される操作ボタンと、前記人における、前記操作ボタンをさわる部位から、当該人の生体情報を取得するセンサとを備える電子機器の前記センサが取得する前記生体情報に基づいて、前記人の特徴を表す特徴量を推定する推定部を備える、処理装置。 The person is based on the biometric information acquired by the sensor of an electronic device including an operation button operated by the person and a sensor for acquiring the biometric information of the person from a portion of the person who touches the operation button. A processing device including an estimation unit for estimating a feature amount representing a feature of the above. 請求項1に記載の処理装置であって、
前記推定部は、前記センサで取得された前記生体情報と、前記処理装置に記憶されている前記生体情報との比較を実行し、当該比較の結果に基づいて、前記処理装置に記憶されている前記特徴量を補正することによって、前記人の現在の前記特徴量を推定する、処理装置。
The processing apparatus according to claim 1.
The estimation unit executes a comparison between the biometric information acquired by the sensor and the biometric information stored in the processing device, and is stored in the processing device based on the result of the comparison. A processing device that estimates the current feature amount of the person by correcting the feature amount.
請求項1及び請求項2のいずれか一つに記載の処理装置であって、
前記推定部が推定した前記特徴量を前記電子機器に表示させる、処理装置。
The processing apparatus according to any one of claims 1 and 2.
A processing device that causes the electronic device to display the feature amount estimated by the estimation unit.
請求項3に記載の処理装置であって、
前記電子機器が表示する前記特徴量が正しいか否かを前記人が入力するための画面を前記電子機器に表示させる、処理装置。
The processing apparatus according to claim 3.
A processing device that causes the electronic device to display a screen for the person to input whether or not the feature amount displayed by the electronic device is correct.
請求項1から請求項4のいずれか一つに記載の処理装置であって、
カメラと、
前記推定部で推定された前記特徴量に基づいて、前記カメラで得られる撮影画像において前記人が写るか否かを判定する判定部と
をさらに備える、処理装置。
The processing apparatus according to any one of claims 1 to 4.
With the camera
A processing device further including a determination unit for determining whether or not the person is photographed in a captured image obtained by the camera based on the feature amount estimated by the estimation unit.
請求項1から請求項4のいずれか一つに記載の処理装置であって、
カメラで得られる撮影画像に前記人が写るか否かを、前記推定部で推定された前記特徴量に基づいて判定する判定処理を、当該カメラを変更しながら繰り返し実行することによって、前記人の位置を追跡する、処理装置。
The processing apparatus according to any one of claims 1 to 4.
By repeatedly executing the determination process of determining whether or not the person appears in the captured image obtained by the camera based on the feature amount estimated by the estimation unit while changing the camera, the person A processing device that tracks the position.
請求項1から請求項5のいずれか一つに記載の処理装置が有する推定部を備えるサーバ装置。 A server device including an estimation unit included in the processing device according to any one of claims 1 to 5. 請求項5に記載の処理装置が有する判定部を備えるサーバ装置。 A server device including a determination unit included in the processing device according to claim 5. 請求項5に記載の処理装置が有するカメラ及び判定部を備える路側機。 A roadside machine including a camera and a determination unit included in the processing device according to claim 5. 請求項9に記載の路側機であって、
前記処理装置が有する推定部をさらに備える、路側機。
The roadside machine according to claim 9.
A roadside machine further comprising an estimation unit included in the processing device.
請求項5に記載の処理装置が有するカメラ及び判定部を備える、車両に搭載される電子機器。 An electronic device mounted on a vehicle, comprising a camera and a determination unit included in the processing device according to claim 5. 請求項11に記載の電子機器であって、
前記処理装置が有する推定部をさらに備える、電子機器。
The electronic device according to claim 11.
An electronic device further comprising an estimation unit included in the processing device.
請求項11及び請求項12のいずれか一つに記載の電子機器を備える車両。 A vehicle including the electronic device according to any one of claims 11 and 12.
JP2019058232A 2019-03-26 2019-03-26 Processing device, server device, road side machine, and vehicle Pending JP2020161938A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019058232A JP2020161938A (en) 2019-03-26 2019-03-26 Processing device, server device, road side machine, and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019058232A JP2020161938A (en) 2019-03-26 2019-03-26 Processing device, server device, road side machine, and vehicle

Publications (1)

Publication Number Publication Date
JP2020161938A true JP2020161938A (en) 2020-10-01

Family

ID=72643713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019058232A Pending JP2020161938A (en) 2019-03-26 2019-03-26 Processing device, server device, road side machine, and vehicle

Country Status (1)

Country Link
JP (1) JP2020161938A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023166619A1 (en) * 2022-03-02 2023-09-07 日本電気株式会社 Information processing device, information processing method, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023166619A1 (en) * 2022-03-02 2023-09-07 日本電気株式会社 Information processing device, information processing method, and recording medium

Similar Documents

Publication Publication Date Title
JP6894471B2 (en) Patrol car patrol by self-driving car (ADV) subsystem
CN108732589B (en) Automatic acquisition of training data for object recognition using 3D LIDAR and localization
JP6754856B2 (en) Sensor-intensive framework for self-driving vehicles
JP6468062B2 (en) Object recognition system
CN106662458B (en) Wearable sensor data for improving map and navigation data
KR20170137636A (en) Information-attainment system based on monitoring an occupant
JP6826940B2 (en) Electronics, roadside units, operating methods and control programs and transportation systems
Mancini et al. Embedded multisensor system for safe point-to-point navigation of impaired users
US20170343372A1 (en) Navigation system with vision augmentation mechanism and method of operation thereof
US11801843B2 (en) Method, system, and computer program product for determining safety-critical traffic scenarios for driver assistance systems (DAS) and highly automated driving functions (HAD)
JP6459311B2 (en) Action estimation device, action estimation method, and action estimation program
JP6760898B2 (en) Information processing equipment and information processing system
JP7325190B2 (en) IMAGING DEVICE, CONTROL PROGRAM, AND OPERATION METHOD OF IMAGING DEVICE
JP2020161938A (en) Processing device, server device, road side machine, and vehicle
JP2019028542A (en) Information processing device, management device, portable electronic apparatus, control program, method for operating information processing device, method for operating portable electronic apparatus, and data structure
JP7445040B2 (en) Notification device and notification method
JP6424100B2 (en) NAVIGATION SYSTEM, NAVIGATION DEVICE, GLASS TYPE DEVICE, AND METHOD FOR LINKING THE DEVICE
JP7327963B2 (en) Processing device, photographing device and information processing device
JP7397575B2 (en) Traffic light control device and traffic light control method
JP6757230B2 (en) In-vehicle device and awakening system
TW201510961A (en) Image recognition detector for blind person
JP2020154393A (en) Portable electronic apparatus, communication system, server device, control program and communication method
CN110023788B (en) Electronic device, control device, recording medium, and method for operating electronic device
JP7332303B2 (en) IMAGING DEVICE, CONTROL PROGRAM, AND OPERATION METHOD OF IMAGING DEVICE
JP7224958B2 (en) Notification device and notification method