JP2019121049A - Vehicle allocation device, vehicle allocation method, and program for allocating vehicle to predetermined place desired by user - Google Patents

Vehicle allocation device, vehicle allocation method, and program for allocating vehicle to predetermined place desired by user Download PDF

Info

Publication number
JP2019121049A
JP2019121049A JP2017254012A JP2017254012A JP2019121049A JP 2019121049 A JP2019121049 A JP 2019121049A JP 2017254012 A JP2017254012 A JP 2017254012A JP 2017254012 A JP2017254012 A JP 2017254012A JP 2019121049 A JP2019121049 A JP 2019121049A
Authority
JP
Japan
Prior art keywords
vehicle
image information
user
place
allocation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017254012A
Other languages
Japanese (ja)
Other versions
JP6638994B2 (en
Inventor
山口 健二
Kenji Yamaguchi
健二 山口
義弘 三宅
Yoshihiro Miyake
義弘 三宅
武 吉岡
Takeshi Yoshioka
武 吉岡
岳一 井上
Takekazu Inoue
岳一 井上
一浩 武藤
Kazuhiro Muto
一浩 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Research Institute Ltd
Optage Inc
Original Assignee
Japan Research Institute Ltd
K Opticom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Research Institute Ltd, K Opticom Corp filed Critical Japan Research Institute Ltd
Priority to JP2017254012A priority Critical patent/JP6638994B2/en
Publication of JP2019121049A publication Critical patent/JP2019121049A/en
Application granted granted Critical
Publication of JP6638994B2 publication Critical patent/JP6638994B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To allocate a vehicle precisely to a predetermined place requested by a user even in various situations.SOLUTION: A vehicle allocation system 1 includes: receiving means 11 for allocating a vehicle to a predetermined place desired by a user and receiving desired vehicle allocation image information, which is image information showing the predetermined place; image acquisition means 12 for acquiring vehicle image information that is image information photographed by photographing means 16 loaded on the vehicle; and determination means 13 for determining whether or not the vehicle has arrived at the predetermined place based on the desired vehicle allocation image information and the vehicle image information.SELECTED DRAWING: Figure 2

Description

本発明は、ユーザが要望する所定場所に車両を配車する配車装置に関する。   BACKGROUND OF THE INVENTION Field of the Invention The present invention relates to a dispatching apparatus for dispatching a vehicle to a predetermined place desired by a user.

従来、ユーザが要望する所定場所に車両を配車するサービスが知られている。このようなサービスでは、例えば、ユーザがサービスを提供する者に、所定場所を伝えることで、車両が所定場所に配車される。   2. Description of the Related Art Conventionally, there is known a service for allocating a vehicle to a predetermined place desired by a user. In such a service, for example, the vehicle is distributed to a predetermined place by notifying the predetermined person to the person who provides the service.

このため、ユーザは、所定場所を、サービスを提供する者に、正確に伝えないと、車両の配車がスムーズにされない場合もあった。そこで、特許文献1には、ユーザ端末に撮影手段を装備させるとともに、該撮影手段により取得されるユーザの周辺映像が付加された配車要求情報が、ユーザ端末からコントロールセンターに送信されると、該配車要求情報を受けたコントロールセンターが、ユーザ周辺の画像情報を付加した配車指令情報を通信ネットワークを介して所定のタクシー端末に送信し、タクシー端末が送信された画像情報を出力表示するタクシー配車システムが開示されている。このようなタクシー配車システムによれば、地理に詳しくないユーザが、容易にタクシーの配車サービスを受けることができ、タクシーの乗務員が的確にユーザの待つ詳細な呼出位置を認識できる。   For this reason, the user may not be able to smoothly distribute the vehicle unless the user accurately informs the person providing the service with the predetermined place. Therefore, according to Patent Document 1, when the user terminal is equipped with a photographing unit, and allocation request information to which a peripheral image of the user acquired by the photographing unit is added is transmitted from the user terminal to the control center, A taxi dispatch system in which the control center having received the dispatch request information transmits dispatch command information added with image information around the user to a predetermined taxi terminal via the communication network, and the taxi terminal outputs and displays the transmitted image information Is disclosed. According to such a taxi allocation system, a user who is not familiar with geography can easily receive a taxi allocation service, and the taxi crew can accurately recognize the detailed call position where the user waits.

特開2002−32897号公報JP 2002-32897 A

ところで、国が官民ITS構想・ロードマップ2016で提示しているように、「限定地域での無人自動走行移動サービス」の実現に向けた取り組みが加速している。これは、制限された区域(限定地域)内において、地域公共交通に近いイメージのサービスを行おうとするものであり、基本的には、限定地域内から地域公共交通までをつなぐ移動手段という想定であるが、自宅玄関前からの乗降の可能性も検討されている。すでに大学や企業による公道での自動走行技術実証も進められており、この流れでいけば、政府のロードマップのとおり、2020年度にはサービスが普及することが期待されている。   By the way, as the country presents in the public-private ITS concept and road map 2016, efforts for realizing "unmanned automatic travel and movement service in limited area" are accelerating. This is an attempt to provide an image service close to regional public transportation in a restricted area (limited area). Basically, it is assumed to be a means of transportation that links local public transportation from within a limited area. There is, however, the possibility of getting in and out of the front door at home is also being considered. Demonstration of automatic driving technology on public roads by universities and companies is already in progress, and in this trend, it is expected that services will be disseminated in fiscal 2020 according to the government's roadmap.

このような無人自動走行移動サービスが普及した場合、特許文献1のタクシー配車システムのように、タクシーの乗務員の認識を必要とする技術を利用することはできない。また、従来のタクシーの乗務員によるサービスでも、特許文献1のタクシー配車システムは、タクシーの乗務員の経験や知識が乏しい場合には、この乗務員が、ユーザの待つ詳細な呼出位置を認識するのが困難となる。   When such an unmanned automatic traveling and moving service becomes widespread, it is impossible to use a technology that requires the recognition of taxi drivers, as in the taxi allocation system of Patent Document 1. Also, even with the conventional taxi crew service, the taxi dispatch system of Patent Document 1 has difficulty in recognizing the detailed call position where the user waits when the taxi crew's experience or knowledge of the taxi crew is scarce. It becomes.

したがって、本発明では、上記のような課題にかんがみ、多様な状況においても、ユーザが要望する所定場所に車両を的確に配車できる配車装置、配車方法及びプログラムを提供することを目的とする。   Therefore, in view of the problems as described above, the present invention aims to provide an allocation apparatus, an allocation method, and a program capable of accurately allocating a vehicle to a predetermined place desired by a user even in various situations.

上記課題を解決するため、本発明は、以下のような解決手段を提供する。   In order to solve the above-mentioned subject, the present invention provides the following solutions.

(1)ユーザが要望する所定場所に車両を配車する配車装置であって、前記所定場所が写っている画像情報である配車希望場所画像情報を受信する受信手段と、前記車両に積載された撮像手段により撮像した画像情報である車両画像情報を取得する画像取得手段と、 前記配車希望場所画像情報と前記車両画像情報に基づき、前記車両が前記所定場所に到着したか否かを判定する判定手段と、を備えることを特徴とする。 (1) A vehicle allocation apparatus for allocating a vehicle to a predetermined place requested by a user, the receiving means for receiving an image of a desired area for allocating the vehicle, which is image information showing the predetermined area, and an image loaded on the vehicle Image acquisition means for acquiring vehicle image information which is image information imaged by means; determination means for determining whether or not the vehicle has arrived at the predetermined place based on the vehicle allocation desired place image information and the vehicle image information And.

(2)上記(1)に記載の構成において、前記受信手段は、前記車両に乗車予定のユーザが写っている前記配車希望場所画像情報を受信し、前記判定手段は、前記配車希望場所画像情報と前記車両画像情報とに基づき、前記車両画像情報に、ユーザが写っているか否かを判定することを特徴とする。 (2) In the configuration described in the above (1), the receiving means receives the desired dispatching place image information in which a user who is scheduled to get on the vehicle is shown, and the judging means receives the desired dispatching place image information It is characterized by judging whether the user is reflected in the vehicle image information based on the vehicle image information and the vehicle image information.

(3)上記(1)又は(2)に記載の構成において、前記受信手段は、前記ユーザが写っている画像をSNS上の配車のための専用のトーク部屋から受信することを特徴とする。 (3) In the configuration described in the above (1) or (2), the receiving unit is characterized in that an image showing the user is received from a dedicated talk room for allocation of vehicles on the SNS.

(4)上記(1)から(3)までのいずれか1つに記載の構成において、前記車両画像情報を、ユーザが操作する端末に、送信する送信手段を、更に備え、前記受信手段は、前記車両画像情報にユーザの位置を示すユーザ位置情報が付加された2次車両画像情報を受信し、前記判定手段は、前記2次車両画像情報に基づき、前記車両がユーザの近傍に到着したか否かを判定することを特徴とする。 (4) In the configuration according to any one of (1) to (3) above, the apparatus further comprises transmission means for transmitting the vehicle image information to a terminal operated by the user, the reception means comprising Whether secondary vehicle image information in which user position information indicating the position of the user is added to the vehicle image information is received, and the determination means has arrived at the vicinity of the user based on the secondary vehicle image information It is characterized by judging whether or not.

(5)ユーザが要望する所定場所に車両を配車する配車装置が実行する方法であって、前記所定場所が写っている画像情報である配車希望場所画像情報を受信するステップと、前記車両に積載された撮像手段により撮像した画像情報である車両画像情報を取得するステップと、前記配車希望場所画像情報と前記車両画像情報に基づき、前記車両が前記所定場所に到着したか否かを判定するステップと、を含むことを特徴とする。 (5) A method executed by the allocation apparatus for allocating a vehicle to a predetermined place desired by a user, the method comprising: receiving the image of a distribution desired place, which is image information showing the predetermined area; Acquiring vehicle image information that is image information captured by the imaging means, and determining whether the vehicle has arrived at the predetermined location based on the desired vehicle location information and the vehicle image information And.

(6)ユーザが要望する所定場所に車両を配車する配車装置を制御するコンピュータを、前記所定場所が写っている画像情報である配車希望場所画像情報を受信する受信手段、前記車両に積載された撮像手段により撮像した画像情報である車両画像情報を取得する画像取得手段、前記配車希望場所画像情報と前記車両画像情報に基づき、前記車両が前記所定場所に到着したか否かを判定する判定手段、として機能させることを特徴とするプログラム。 (6) A computer for controlling a dispatching device for dispatching the vehicle to a predetermined place desired by the user, a receiving means for receiving the dispatching desired place image information which is image information showing the predetermined place, and loaded on the vehicle Image acquisition means for acquiring vehicle image information which is image information imaged by imaging means, determination means for determining whether or not the vehicle has arrived at the predetermined place based on the vehicle allocation desired place image information and the vehicle image information , A program characterized by acting as.

本発明によれば、多様な状況においても、ユーザが要望する所定場所に車両を的確に配車できる配車装置、配車方法及びプログラムを提供することができる。   According to the present invention, it is possible to provide an allocation apparatus, an allocation method, and a program capable of accurately allocating a vehicle to a predetermined place desired by a user even in various situations.

本発明が適用される配車システムの概念を説明する図である。It is a figure explaining the concept of the dispatch system to which the present invention is applied. 本発明の実施形態に係る配車システムにおける配車装置及びユーザ端末の機能構成を示す図である。It is a figure which shows the function structure of the dispatch apparatus in the dispatch system which concerns on embodiment of this invention, and a user terminal. 本発明の実施形態に係る配車装置が実行する配車処理フローを示す図である。It is a figure which shows the allocation processing flow which the allocation apparatus which concerns on embodiment of this invention performs. 配車希望場所画像情報の一例を示す図である。It is a figure which shows an example of dispatch desired place image information. 車両画像情報の一例を示す図である。It is a figure showing an example of vehicle picture information. 2次車両画像情報の一例を示す図である。It is a figure which shows an example of secondary vehicle image information.

以下、添付図面を参照して、本発明を実施するための形態(以下、実施形態)について詳細に説明する。以降の図においては、実施形態の説明の全体を通して同じ要素には同じ番号又は符号を付している。また、機能構成の図において、機能ブロック間の矢印は、データの流れ方向、又は処理の流れ方向を表す。   Hereinafter, with reference to the accompanying drawings, modes (hereinafter, embodiments) for carrying out the present invention will be described in detail. In the following drawings, the same elements are denoted by the same reference numerals or symbols throughout the description of the embodiments. Also, in the functional configuration diagram, arrows between functional blocks indicate the flow direction of data or the flow direction of processing.

(配車システムの概要)
まず、本発明が適用されるユーザを認証するための配車システムの概要について説明する。配車システムは、ユーザが要望する所定場所に車両を配車するシステムである。
(Overview of dispatch system)
First, an overview of a vehicle allocation system for authenticating a user to which the present invention is applied will be described. The dispatch system is a system for dispatching a vehicle to a predetermined place desired by a user.

図1は、本発明が適用される配車システム1の概念を説明する図である。   FIG. 1 is a view for explaining the concept of a dispatch system 1 to which the present invention is applied.

配車システム1は、配車装置10と、配車装置10と通信可能であり、ユーザBに操作されるユーザ端末20と、を含む。   The dispatch system 1 includes a dispatch device 10 and a user terminal 20 that can communicate with the dispatch device 10 and operated by the user B.

本実施形態において、配車装置10は、車両Aに積載された装置であるが、これに限らず、車両Aと通信可能なサーバ等で構成してもよい。また、車両Aは、自動運転に関する周知のシステムを備えた車両であってもよいし、配車システム1を運営するスタッフ又は乗車したユーザ(以下、「運転者」ともいう。)の操作により走行する車両であってもよい。   In the present embodiment, the allocation apparatus 10 is an apparatus loaded on the vehicle A. However, the present invention is not limited to this, and may be configured by a server or the like that can communicate with the vehicle A. In addition, the vehicle A may be a vehicle equipped with a known system for automatic driving, and travels by operations of a staff who operates the dispatch system 1 or a user who gets on the vehicle (hereinafter, also referred to as a “driver”). It may be a vehicle.

配車システム1では、まず、車両Aの配車を希望するユーザBが、ユーザ端末20により、配車を要望する所定場所(例えば、ユーザBが居る場所等)が写っている画像情報である配車希望場所画像情報を、位置情報(例えば、緯度経度を示す情報)とともに、配車装置10に送信する。なお、図1に示すように、配車希望場所画像情報には、ユーザBの少なくとも特徴的な部分(例えば、顔等)の画像情報が含まれているのが好ましい。   In the dispatch system 1, first, a dispatch desired place which is image information in which a predetermined place (for example, a place where the user B is present, etc.) where the user B who desires the dispatch of the vehicle A requests the dispatch by the user terminal 20 The image information is transmitted to the allocation device 10 together with the position information (for example, information indicating latitude and longitude). In addition, as shown in FIG. 1, it is preferable that the dispatch desired place image information includes image information of at least a characteristic portion (for example, a face or the like) of the user B.

配車装置10は、配車希望場所画像情報及び位置情報を受信する。なお、配車装置10は、配車希望場所画像情報を、ユーザ端末20から送信されたものに限らず、ユーザ端末20から送信された位置情報が示す位置を撮像可能な外部撮像手段(例えば、防犯カメラ等)が撮像したものや、インターネット上に公開されている位置情報が示す位置の画像情報を受信してもよい。この場合、ユーザ端末20は、所定場所の位置情報のみを、配車装置10に送信すればよい。   The dispatch device 10 receives the dispatch desired place image information and the position information. The dispatching apparatus 10 is not limited to the one for which the dispatching desired place image information is sent from the user terminal 20, and may be an external imaging means (for example, a security camera) capable of capturing the position indicated by the position information sent from the user terminal 20. Etc.) or image information of a position indicated by position information disclosed on the Internet may be received. In this case, the user terminal 20 may transmit only position information of a predetermined place to the dispatch device 10.

車両Aは、自動運転可能な車両である場合、配車装置10が受信した位置情報に向かって走行する。また、車両Aは、運転者に運転される場合、配車装置10が受信した位置情報を運転者に認識可能な態様で示す(例えば、車両Aに積載されたカーナビゲーションシステムに、当該位置情報を表示する。)。   When the vehicle A is a vehicle capable of autonomous driving, the vehicle A travels toward the position information received by the dispatch device 10. In addition, when the driver drives the vehicle A, the vehicle A indicates the position information received by the dispatch device 10 in a manner that can be recognized by the driver (for example, the car navigation system loaded on the vehicle A displays the position information). indicate.).

配車装置10は、例えば、車両Aが、所定場所近傍(例えば、所定場所の位置情報が示す位置から10m以内等)に到達した場合、車両Aに積載された撮像手段(例えば、カメラ)により撮像した画像情報である車両画像情報を取得する。   For example, when the vehicle A reaches the vicinity of a predetermined place (for example, within 10 m from the position indicated by the position information of the predetermined place), the allocation device 10 captures an image by an imaging unit (for example, a camera) loaded on the vehicle A The vehicle image information which is the selected image information is acquired.

そして、配車装置10は、配車希望場所画像情報と車両画像情報に基づき、車両Aが所定場所に到着したか否かを判定する。詳細には、配車装置10は、配車希望場所画像情報と車両画像情報と、を比較し、両画像情報が互いに近似しているか否かを判定し、所定値以上近似していた場合、車両Aが所定場所に到着したと判定する。   Then, the dispatch apparatus 10 determines whether or not the vehicle A has arrived at a predetermined place based on the dispatch desired place image information and the vehicle image information. In detail, the dispatch apparatus 10 compares the dispatch desired place image information with the vehicle image information, determines whether both image information are similar to each other, and when the vehicle A approximates the predetermined value or more, the vehicle A Is determined to have arrived at a predetermined location.

これにより、配車装置10により、ユーザBが要望する所定場所が写っている配車希望場所画像情報と、車両Aに積載された撮像手段により撮像された車両画像情報とに基づき、車両Aが所定場所に到着したか否かを判定するので、車両Aの運転者が所定場所に到着したか否かを判定する必要がない。よって、車両Aが、運転者がいない自動運転可能な車両である場合や、運転者が所定場所の土地勘がない様な場合等の多様な状況においても、ユーザが要望する所定場所に車両を的確に配車できる。   As a result, the vehicle A is located at the predetermined location based on the image of the desired location at which the predetermined location requested by the user B is shown by the allocation device 10 and the vehicle image information captured by the imaging means loaded on the vehicle A. It is not necessary to determine whether the driver of the vehicle A has arrived at a predetermined location. Therefore, even in various situations, such as when the vehicle A is an autonomously drivable vehicle without a driver, or when the driver does not know the land of a predetermined location, the vehicle is requested to the predetermined location desired by the user. It can be properly distributed.

(機能構成)
図2は、本発明の実施形態に係る配車システム1における配車装置10及びユーザ端末20の機能構成を示す図である。
(Functional configuration)
FIG. 2 is a diagram showing functional configurations of the vehicle allocation device 10 and the user terminal 20 in the vehicle allocation system 1 according to the embodiment of the present invention.

(配車装置10の構成)
配車装置10は、受信手段11と、画像取得手段12と、判定手段13と、入出力手段14と、送信手段15と、撮像手段16と、外部表示手段17と、を備える。配車装置10は、車両に積載される装置として構成してもよいし、受信手段11と、画像取得手段12と、判定手段13と、を備え、車両外に設けられたサーバで構成し、これらの構成により、通信可能な車両に積載された入出力手段14、撮像手段16及び外部表示手段17を制御してもよい。
(Configuration of dispatch device 10)
The allocation apparatus 10 includes a receiving unit 11, an image acquisition unit 12, a determination unit 13, an input / output unit 14, a transmission unit 15, an imaging unit 16, and an external display unit 17. The allocation apparatus 10 may be configured as an apparatus to be loaded on a vehicle, or may be configured as a server provided with the reception unit 11, the image acquisition unit 12, and the determination unit 13 and provided outside the vehicle. The input / output unit 14, the imaging unit 16, and the external display unit 17 loaded in the communicable vehicle may be controlled by the configuration of the above.

受信手段11は、ユーザ端末20から、ユーザが配車を要望する所定場所(例えば、ユーザが居る場所等)の位置情報(例えば、緯度経度、住所、地名等の位置を特定できる情報)を受信し、受信した位置情報を、車両や車両に設置されている入出力手段14に、例えば、地図情報とともに表示する。車両は、受信した位置情報に向かって走行する。   The receiving unit 11 receives, from the user terminal 20, position information (for example, information that can specify the position such as latitude and longitude, an address, a place name, etc.) at a predetermined place (for example, a place where the user is). The received position information is displayed on the vehicle or the input / output means 14 installed in the vehicle together with, for example, the map information. The vehicle travels toward the received position information.

また、受信手段11は、ユーザ端末20や、ユーザ端末20から送信された位置情報が示す位置を撮像可能な外部撮像手段(例えば、防犯カメラ等)や、インターネット上に公開されている情報から、ユーザが配車を要望する所定場所が写っている画像情報である配車希望場所画像情報を受信する。また、受信手段11は、車両に乗車予定のユーザが写っている配車希望場所画像情報を受信する。また、受信手段11は、車両画像情報にユーザの位置を示すユーザ位置情報が付加された2次車両画像情報を、ユーザ端末20から受信する。車両画像情報及び2次車両画像情報の詳細は、後述する。また、受信手段11は、後述するSNS上の配車システム1のために専用に設けられたトーク部屋からユーザが写っている自撮り写真を受信することも可能である。   Also, the receiving unit 11 may use the user terminal 20, an external imaging unit (for example, a security camera etc.) capable of imaging the position indicated by the position information transmitted from the user terminal 20, and information disclosed on the Internet. Desired vehicle allocation location image information is received, which is image information in which a predetermined location for which the user requests distribution is shown. Moreover, the receiving means 11 receives the dispatch desired place image information in which the user who is going to get on the vehicle is shown. Also, the receiving unit 11 receives, from the user terminal 20, secondary vehicle image information in which user position information indicating the position of the user is added to the vehicle image information. Details of the vehicle image information and the secondary vehicle image information will be described later. Moreover, the receiving means 11 can also receive a self-portrait photograph in which the user is shown from the talk room provided exclusively for the dispatch system 1 on SNS mentioned later.

画像取得手段12は、車両に積載された撮像手段16により撮像した画像情報である車両画像情報を取得する。又は、画像取得手段12は、車両に積載された撮像手段16ではなく、所定場所近傍に配置された外部のWebカメラなどの撮像手段からの画像を取得してもよい。また、画像取得手段12は、車両画像情報を、動画として取得してもよいし、所定間隔(例えば、10秒間隔)で撮像された静止画として取得してもよい。また、画像取得手段12は、車両が、所定場所近傍(例えば、所定場所の位置情報が示す位置から10m以内等)に到達した場合に、車両画像情報を取得してもよいし、例えば、走行中に随時画像を撮像しているドライブレコーダから、車両画像情報を取得してもよい。   The image acquisition unit 12 acquires vehicle image information which is image information captured by the imaging unit 16 loaded on the vehicle. Alternatively, the image acquisition unit 12 may acquire an image from an imaging unit such as an external web camera disposed near a predetermined place, instead of the imaging unit 16 loaded on the vehicle. Moreover, the image acquisition means 12 may acquire vehicle image information as a moving image, and may acquire it as a still image imaged at predetermined intervals (for example, 10 second intervals). In addition, the image acquisition unit 12 may acquire vehicle image information when the vehicle reaches near a predetermined place (for example, within 10 m from a position indicated by position information of the predetermined place), for example, traveling Vehicle image information may be acquired from a drive recorder that captures an image as needed.

判定手段13は、受信手段11が受信した配車希望場所画像情報と、画像取得手段12が取得した車両画像情報に基づき、車両が所定場所に到着したか否かを判定する。詳細には、判定手段13は、例えば、配車希望場所画像情報及び車両画像情報を画像処理し、ピクセル単位の輝度差を算出し、輝度差が所定値以内であれば配車希望場所画像情報及び車両画像情報が、同一の場所を撮像した画像であると判断し、同一の場所を撮像した画像であると判断した場合には、車両が所定場所に到着したと判定する。また、判定手段13は、ユーザが正面を向いていないためユーザが写っていると判定できない場合には、後述する送信手段15により、ユーザに対して車両に向かって正面(すなわち、車両を迎える方向)を向くようにユーザに指示をしてもよい。ユーザが正面を向いていれば、ユーザが写っているかどうかの判断が容易になるからである。   The determination means 13 determines whether the vehicle has arrived at a predetermined place based on the vehicle allocation desired place image information received by the reception means 11 and the vehicle image information acquired by the image acquisition means 12. More specifically, the determination unit 13 performs image processing on desired vehicle allocation information and vehicle image information, for example, to calculate a luminance difference in pixel units, and if the luminance difference is within a predetermined value, desired vehicle allocation image information and vehicle If it is determined that the image information is an image obtained by capturing the same place, and it is determined that the image is obtained by capturing the same place, it is determined that the vehicle has arrived at the predetermined place. In addition, when the determination means 13 can not determine that the user is photographed because the user is not facing the front, the transmission means 15 described later causes the user to face the vehicle in front (that is, a direction in which the vehicle is received). The user may be instructed to turn the This is because if the user is facing front, it is easy to determine whether the user is in the picture.

また、判定手段13は、配車希望場所画像情報にユーザが写っているか否かを判定し、ユーザが写っていると判定した場合には、当該配車希望場所画像情報と画像取得手段12が取得した車両画像情報とに基づき、車両画像情報に、当該ユーザが写っているか否かを判定する。詳細には、判定手段13は、受信手段11が受信した配車希望場所画像情報にユーザの画像が含まれる場合には、車希望場所画像情報及び車両画像情報においてそれぞれ特定した両画像情報の人の画像部分を、上記と同様に、同一性を判断する。また、判定手段13は、車両画像情報において、当該ユーザを特定できない場合には、後述する2次車両画像情報に基づき、車両がユーザの近傍に到着したか否かを判定する。   Further, the determination means 13 determines whether or not the user is shown in the image for dispatch desired place image information, and when it is determined that the user is shown, the image acquisition means 12 acquires the image for dispatch desired place and image information Based on the vehicle image information, it is determined whether the user is shown in the vehicle image information. More specifically, when the vehicle allocation desired place image information received by the receiving means 11 includes the image of the user, the determination means 13 determines that the person of both image information specified in the vehicle desired place image information and the vehicle image information is specified. The image parts are checked for identity as described above. If the user can not be identified in the vehicle image information, the determination unit 13 determines whether the vehicle has arrived in the vicinity of the user based on secondary vehicle image information described later.

また、判定手段13は、配車希望場所画像に含まれる位置情報と車両の位置情報の近接度(例えば、位置情報の差が数10メートル以内)で第1の判定をし、ユーザが発見できたかどうかで第2の判定をするという2段階の判定で到着を判定してもよい。   In addition, the determination unit 13 makes a first determination based on the proximity of the position information included in the image of the desired vehicle allocation location and the position information of the vehicle (for example, the difference in position information is within several tens of meters), and the user could find The arrival may be determined by a two-stage determination that the second determination is made.

ここで、配車希望場所画像にユーザが写っているかどうかの判定のために、ユーザの写真が必要であるが、ユーザの写真は、配車システム1のサービスの利用会員DB(図示せず)にある会員画像を使用してもよいし、配車申込時に顔画像を添付するなどしてもよい。   Here, a photo of the user is required to determine whether the user is shown in the vehicle allocation desired location image, but the user's photo is in a service member use DB (not shown) of the vehicle allocation system 1 A member image may be used, or a face image may be attached at the time of dispatch application.

また、ユーザの写真は、車両から見て配車希望場所画像を背景に、ユーザの顔が見えるようにして撮像した自撮り写真であってもよい。高度化された画像解析技術を用いれば、画像の一部で背景が同じ場所であるかどうかも判断可能である。   In addition, the user's picture may be a self-portrait picture taken so that the user's face can be seen against the background of the vehicle's desired allocation location image. With advanced image analysis techniques, it is also possible to determine if the background is in the same place in part of the image.

また、ユーザは、LINE(登録商標)などのSNS上のコミュニケーション手段に配車システム1の専用のトーク部屋(ユーザが配車システム1と直接会話可能な手段)を設け、受信手段11は、配車申込時等に背景を含んだ自撮り写真をそのトーク部屋から受信するようにしてもよい。SNSのサーバから配車装置10に自撮り写真が転送されると、その写真属性から位置情報を取得し、その写真画像からユーザの顔画像情報が取得できる。このようにすることで、非常に簡単な配車受付システムが実現できる。   In addition, the user provides a dedicated talk room for the dispatch system 1 (a means by which the user can directly talk to the dispatch system 1) to communication means on the SNS such as LINE (registered trademark), and the receiving means 11 applies for dispatching. A self-portrait picture including a background may be received from the talk room. When a self-portrait photo is transferred from the SNS server to the allocation apparatus 10, position information can be obtained from the photo attribute, and face image information of the user can be obtained from the photo image. By doing this, a very simple dispatch acceptance system can be realized.

入出力手段14は、例えば、車両に積載されたタッチパネルで構成される。入出力手段14は、車両の操作パネルや、車両に積載されたカーナビゲーションシステムの操作パネルや、これらの操作パネルとは別に設けられたものでもよい。   The input / output means 14 is constituted by, for example, a touch panel loaded on a vehicle. The input / output means 14 may be provided separately from the operation panel of the vehicle, the operation panel of the car navigation system loaded on the vehicle, and these operation panels.

送信手段15は、判定手段13が車両画像情報において、ユーザを特定できない場合、ユーザ端末20に、車両画像情報を送信する。   The transmission means 15 transmits vehicle image information to the user terminal 20 when the determination means 13 can not specify the user in the vehicle image information.

撮像手段16は、車両に積載されたカメラ、又は外部のカメラで構成される。撮像手段16は、予め車両に搭載されているものや、車両に積載されたドライブレコーダのものでも、これらとは別に設けられたものでもよい。   The imaging unit 16 is configured of a camera mounted on a vehicle or an external camera. The imaging unit 16 may be one mounted in advance on a vehicle, one on a drive recorder mounted on the vehicle, or one provided separately from these.

外部表示手段17は、判定手段13が、車両が所定場所に到着したと判定した場合に、例えば、車両のフロントガラスや、サイドガラスに映像を投影するプロジェクタや、車両外に画像を表示する画像表示装置で構成されている。このような、外部表示手段17を備えることで、配車希望場所画像情報に含まれていたユーザの画像を、車外に対して表示することで、車両が、ユーザが要望した車両であることをユーザに認識させることが可能となる。   For example, when the determination unit 13 determines that the vehicle has arrived at a predetermined location, the external display unit 17 displays an image on the windshield of the vehicle, a projector that projects an image on the side glass, or an image displayed outside the vehicle It consists of a device. By providing the external display unit 17 as described above, the image of the user contained in the information on the desired vehicle allocation location is displayed to the outside of the vehicle, so that the vehicle is a vehicle requested by the user. Can be recognized by

(ユーザ端末20の構成)
ユーザ端末20は、ユーザに操作される機器(例えば、携帯電話、スマートフォン、タブレット端末、パーソナルコンピュータ、ゲーム機器等の携帯端末)で構成されている。
(Configuration of user terminal 20)
The user terminal 20 is configured by a device operated by the user (for example, a portable terminal such as a mobile phone, a smartphone, a tablet terminal, a personal computer, or a game device).

ユーザ端末20は、入出力手段21と、端末制御手段22と、送受信手段23と、位置情報取得手段24と、撮像手段25と、を備える。   The user terminal 20 includes an input / output unit 21, a terminal control unit 22, a transmission / reception unit 23, a position information acquisition unit 24, and an imaging unit 25.

入出力手段21は、例えば、タッチパネルで構成され、配車装置10から受信した車両画像情報を表示するとともに、表示した車両画像情報に対するユーザの操作(例えば、車両画像情報におけるユーザ自身を特定する操作(例えば、タッチ操作))を受け付ける。   The input / output unit 21 is configured of, for example, a touch panel, displays vehicle image information received from the allocation apparatus 10, and performs user operation on the displayed vehicle image information (for example, operation for specifying the user himself in the vehicle image information For example, touch operation) is accepted.

端末制御手段22は、ユーザ端末20を全体的に制御し、送受信手段23が受信した、配車装置10からの車両画像情報を入出力手段21に表示制御し、車両画像情報に対するユーザの操作を反映したユーザ位置情報を車両画像情報に付加した2次車両画像情報を生成し、この2次車両画像情報を、送受信手段23により、配車装置10に送信する。   The terminal control means 22 controls the user terminal 20 as a whole, controls the display of the vehicle image information from the dispatch apparatus 10 received by the transmission / reception means 23 on the input / output means 21, and reflects the user's operation on the vehicle image information. The secondary vehicle image information in which the user position information is added to the vehicle image information is generated, and the secondary vehicle image information is transmitted to the dispatch device 10 by the transmitting and receiving means 23.

送受信手段23は、端末制御手段22の制御により、位置情報取得手段24が取得した現在位置の位置情報及び撮像手段25により撮像された、配車を要望する所定場所(例えば、ユーザが居る場所等)が写っている画像情報である配車希望場所画像情報を配車装置10に送信する。また、送受信手段23は、端末制御手段22の制御により、配車装置10から車両画像情報を受信し、配車装置10に2次車両画像情報を送信する。   The transmitting and receiving means 23 is a predetermined place (for example, a place where the user is located), for which the vehicle allocation is requested, captured by the imaging means 25 and the position information of the current position acquired by the position information acquiring means 24 under the control of the terminal control means 22. Is transmitted to the dispatching apparatus 10 as the dispatching desired place image information which is the image information in which the image is taken. Further, the transmission / reception means 23 receives the vehicle image information from the dispatch apparatus 10 and transmits the secondary vehicle image information to the dispatch apparatus 10 under the control of the terminal control means 22.

位置情報取得手段24は、例えば、GPS(Global Positioning System)で構成され、端末制御手段22の制御により、現在の位置情報を取得する。   The position information acquisition unit 24 is formed of, for example, a GPS (Global Positioning System), and acquires current position information under the control of the terminal control unit 22.

撮像手段25は、例えば、カメラで構成され、ユーザの操作に基づき、端末制御手段22の制御により、配車を要望する所定場所が写っている画像情報である配車希望場所画像情報を撮像する。   The imaging unit 25 is formed of, for example, a camera, and under control of the terminal control unit 22, images the vehicle allocation desired place image information, which is image information in which a predetermined place where vehicle allocation is requested, is taken.

以上説明した上記の本システムの機能構成は、あくまで一例であり、一つの機能ブロック(データベース及び機能処理部)を分割したり、複数の機能ブロックをまとめて一つの機能ブロックとして構成したりしてもよい。各機能処理部は、装置に内蔵されたCPU(Central Processing Unit)が、ROM(Read Only Memory)、フラッシュメモリ、SSD(Solid State Drive)、ハードディスク等の記憶装置に格納されたコンピュータ・プログラム(例えば、基幹ソフト等)を読み出し、CPUにより実行されたコンピュータ・プログラムによって実現される。すなわち、各機能処理部は、このコンピュータ・プログラムが、記憶装置に格納されたデータベース(DB;Data Base)やメモリ上の記憶領域からテーブル等の必要なデータを読み書きし、場合によっては、関連するハードウェア(例えば、入出力装置、表示装置、通信インターフェース装置)を制御することによって実現される。また、本発明の実施形態におけるデータベース(DB)は、商用データベースであってよいが、単なるテーブルやファイルの集合体をも意味し、データベースの内部構造自体は問わないものとする。   The functional configuration of the above-described present system described above is merely an example, and one functional block (database and functional processing unit) may be divided or a plurality of functional blocks may be collectively configured as one functional block. It is also good. Each function processing unit is a computer program (for example, a computer program) stored in a storage device such as a ROM (Read Only Memory), a flash memory, an SSD (Solid State Drive), or a hard disk. , Core software etc.), and realized by a computer program executed by the CPU. That is, each function processing unit reads and writes necessary data such as a table from a database (DB) stored in a storage device or a storage area on a memory, and in some cases, the computer program It is realized by controlling hardware (for example, an input / output device, a display device, a communication interface device). Further, the database (DB) in the embodiment of the present invention may be a commercial database, but also means a mere collection of tables and files, and the internal structure of the database itself is not limited.

(処理フロー)
図3は、本発明の実施形態に係る配車装置10が実行する配車処理フローを示す図である。このような配車処理フローは、配車システム1に含まれる配車装置10が実行する配車方法を示すものである。なお、以降の処理フロー図(フローチャート)においては、各ステップの入力と出力の関係を損なわない限り、各ステップの処理順序を入れ替えてもよい。
(Processing flow)
FIG. 3 is a diagram showing a dispatching process flow executed by the dispatching apparatus 10 according to the embodiment of the present invention. Such a dispatch process flow indicates a dispatch method executed by the dispatch apparatus 10 included in the dispatch system 1. In the following process flow diagram (flow chart), the processing order of each step may be interchanged as long as the relationship between the input and the output of each step is not impaired.

まず、図3を参照して、配車装置10が実行する配車処理フローについて説明する。   First, with reference to FIG. 3, the allocation process flow which the allocation apparatus 10 performs is demonstrated.

ステップS1において、受信手段11は、ユーザ端末20から、ユーザが配車を要望する所定場所の位置情報及びユーザが配車を要望する所定場所が写っている画像情報である配車希望場所画像情報を受信し、受信した位置情報を、車両や車両に設置されている入出力手段14に、例えば、地図情報とともに表示する。車両は、受信した位置情報に向かって走行する。   In step S 1, the receiving unit 11 receives, from the user terminal 20, location information of a predetermined place where the user requests for allocation, and a vehicle allocation desired place image information which is image information in which the predetermined location where the user requests for allocation is photographed. The received position information is displayed on the vehicle or the input / output means 14 installed in the vehicle together with, for example, the map information. The vehicle travels toward the received position information.

ステップS2において、画像取得手段12は、車両が、所定場所近傍に到達した場合に、車両に積載された撮像手段16により撮像した画像情報である車両画像情報を取得する。   In step S2, the image acquisition means 12 acquires vehicle image information which is image information captured by the imaging means 16 loaded on the vehicle when the vehicle reaches near a predetermined place.

ステップS3において、判定手段13は、ステップS1で受信手段11が受信した配車希望場所画像情報にユーザが写っているか否かを判定し、ユーザが写っていると判定した場合には、ステップS4に処理を移し、ユーザが写っていないと判定した場合には、ステップS7処理を移す。   In step S3, the determination means 13 determines whether or not the user is shown in the desired vehicle allocation location image information received by the reception means 11 in step S1, and if it is determined that the user is shown in step S4. If it is determined that the user is not photographed, the process proceeds to step S7.

図4は、配車希望場所画像情報の一例を示す図である。図4に示す例では、配車希望場所画像情報において、ユーザが配車を要望する所定場所の周囲の建物に加え、ユーザBが写っている。この場合、ステップS3において、判定手段13は、ユーザが写っていると判定し、ステップS4に処理を移す。   FIG. 4 is a figure which shows an example of dispatch desired place image information. In the example shown in FIG. 4, in the vehicle allocation desired place image information, the user B is shown in addition to the buildings around the predetermined place where the user requests vehicle allocation. In this case, in step S3, the determination means 13 determines that the user is photographed, and moves the process to step S4.

図3に戻って、ステップS4において、判定手段13は、ステップS2で画像取得手段12が取得した車両画像情報においてユーザを特定可能か否かを判定し、ユーザを特定可能と判定した場合には、ステップS7に処理を移し、ユーザを特定できないと判定した場合には、ステップS5に処理を移す。   Returning to FIG. 3, in step S4, the determination unit 13 determines whether or not the user can be identified in the vehicle image information acquired by the image acquisition unit 12 in step S2, and determines that the user can be identified. The processing moves to step S7, and when it is determined that the user can not be specified, the processing moves to step S5.

図5は、車両画像情報の一例を示す図である。図5に示す例では、車両画像情報において、建物に加え、複数の人が写っている。例えば、複数の人が互いに似ていたり、画像が不鮮明であった場合、ステップS4において、判定手段13は、ユーザを特定できないと判定し、ステップS5に処理を移す。   FIG. 5 is a diagram showing an example of vehicle image information. In the example shown in FIG. 5, in the vehicle image information, in addition to the building, a plurality of people are shown. For example, when a plurality of persons are similar to each other or the image is unclear, in step S4, the determination unit 13 determines that the user can not be identified, and the process proceeds to step S5.

図3に戻って、ステップS5において、送信手段15は、ユーザ端末20に、車両画像情報を送信する。ユーザ端末20は、端末制御手段22の制御により、送受信手段23により、車両画像情報を受信し、入出力手段21に受信した車両画像情報を表示するとともに、表示した車両画像情報に対するユーザの操作(例えば、車両画像情報におけるユーザ自身を特定する操作(例えば、タッチ操作))を受け付ける。そして、端末制御手段22は、車両画像情報に対するユーザの操作を反映したユーザ位置情報を車両画像情報に付加した2次車両画像情報を生成し、この2次車両画像情報を、送受信手段23により、配車装置10に送信する。   Returning to FIG. 3, in step S <b> 5, the transmission unit 15 transmits vehicle image information to the user terminal 20. The user terminal 20 receives the vehicle image information by the transmission / reception unit 23 under the control of the terminal control unit 22 and displays the received vehicle image information on the input / output unit 21 and operates the user on the displayed vehicle image information ( For example, an operation (for example, touch operation) for specifying the user in vehicle image information is received. Then, the terminal control means 22 generates secondary vehicle image information in which user position information reflecting the user's operation on the vehicle image information is added to the vehicle image information, and the secondary vehicle image information is transmitted and received by the transmitting and receiving means 23 It transmits to the dispatch device 10.

図6は、2次車両画像情報の一例を示す図である。図6に示す例では、図5に示す車両画像情報に対して、ユーザBが選択操作(例えば、タッチ操作)したことで、ユーザBが強調表示(ユーザ位置情報:図6に示す例では、輪郭が強調された表示)されている。   FIG. 6 is a diagram showing an example of secondary vehicle image information. In the example shown in FIG. 6, when the user B performs a selection operation (for example, a touch operation) on the vehicle image information shown in FIG. 5, the user B highlights (user position information: in the example shown in FIG. 6) The outline is highlighted.

図3に戻って、ステップS6において、受信手段11は、車両画像情報にユーザの位置を示すユーザ位置情報が付加された2次車両画像情報を、ユーザ端末20から受信する。   Returning to FIG. 3, in step S <b> 6, the receiving unit 11 receives, from the user terminal 20, secondary vehicle image information in which user position information indicating the position of the user is added to vehicle image information.

ステップS7において、判定手段13は、ステップS1で受信手段11が受信した配車希望場所画像情報と、ステップS2で画像取得手段12が取得した車両画像情報又はステップS6で受信手段11が受信した2次車両画像情報と、に基づき、車両が所定場所に到着したか否かを判定し、所定場所に到着したと判定した場合には、本処理を終了し、所定場所に到着したと判定しない場合には、ステップS2に処理を戻す。   In step S7, the determination means 13 receives the vehicle allocation desired place image information received by the reception means 11 in step S1, the vehicle image information acquired by the image acquisition means 12 in step S2, or the secondary received by the reception means 11 in step S6. Based on the vehicle image information, it is determined whether the vehicle has arrived at the predetermined location, and if it is determined that the vehicle has arrived at the predetermined location, the present processing is ended and it is not determined that the vehicle has arrived at the predetermined location. The process returns to step S2.

図4及び図6に示す例では、ステップS7において、判定手段13は、図4に示す配車希望場所画像情報で特定したユーザBと、図6に示す2次車両画像情報で選択されたユーザBとの同一性を判断し、同一と判断した場合には、所定場所に到着したと判定する。   In the example shown in FIG.4 and FIG.6, in step S7, the determination means 13 determines the user B specified by the dispatch desired place image information shown in FIG. 4 and the user B selected by the secondary vehicle image information shown in FIG. If it is determined that they are identical, it is determined that they have arrived at a predetermined place.

(実施形態の効果)
本実施形態によれば、配車システム1は、ユーザが要望する所定場所が写っている配車希望場所画像情報と、車両に積載された撮像手段16により撮像された車両画像情報とに基づき、車両が所定場所に到着したか否かを判定するので、車両の運転者が所定場所に到着したか否かを判定する必要がない。よって、車両が、運転者がいない自動運転可能な車両である場合や、運転者が所定場所の土地勘がない様な場合等の多様な状況においても、ユーザが要望する所定場所に車両を的確に配車できる。
(Effect of the embodiment)
According to the present embodiment, the vehicle allocation system 1 is based on the vehicle allocation desired place image information in which the predetermined place requested by the user is shown and the vehicle image information captured by the imaging means 16 loaded on the vehicle. Since it is determined whether the vehicle has arrived at the predetermined place, it is not necessary to determine whether the driver of the vehicle has arrived at the predetermined place. Therefore, even in various situations, such as when the vehicle is an autonomously drivable vehicle without a driver, or when the driver does not know the land of a predetermined location, etc. It can be distributed to

また、車両に乗車予定のユーザが写っている配車希望場所画像情報と車両画像情報とに基づき、車両画像情報に、ユーザが写っているか否かを判定するので、車両を乗車予定のユーザの側まで配車することが可能となる。   In addition, it is determined whether or not the user is shown in the vehicle image information on the basis of the vehicle allocation information and the vehicle allocation information where the user who is scheduled to get in the vehicle is shown, and it is determined whether the user is in the vehicle image information. It will be possible to dispatch vehicles.

また、車両画像情報にユーザの位置を示すユーザ位置情報が付加された2次車両画像情報に基づき、車両がユーザの近傍に到着したか否かを判定するので、ユーザが要望する所定場所に多くの人がいる場合でも、車両を的確に乗車予定のユーザの側まで配車することが可能となる。   In addition, since it is determined whether the vehicle has arrived in the vicinity of the user based on the secondary vehicle image information in which the user position information indicating the position of the user is added to the vehicle image information, Even when there are people in the group, it is possible to properly allocate the vehicle to the side of the user who is planning to get on the vehicle.

以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   Although the present invention has been described above using the embodiment, it goes without saying that the technical scope of the present invention is not limited to the scope described in the above embodiment. It is apparent to those skilled in the art that various changes or modifications can be added to the above embodiment. It is also apparent from the scope of the claims that the embodiments added with such alterations or improvements can be included in the technical scope of the present invention.

1 配車システム
10 配車装置
11 受信手段
12 画像取得手段
13 判定手段
14 入出力手段
15 送信手段
16 撮像手段
17 外部表示手段
20 ユーザ端末
21 入出力手段
22 端末制御手段
23 送受信手段
24 位置情報取得手段
25 撮像手段
DESCRIPTION OF SYMBOLS 1 allocation system 10 allocation apparatus 11 reception means 12 image acquisition means 13 determination means 14 input / output means 15 transmission means 16 imaging means 17 external display means 20 user terminal 21 input / output means 22 terminal control means 23 transmission / reception means 24 position information acquisition means 25 Imaging means

Claims (6)

ユーザが要望する所定場所に車両を配車する配車装置であって、
前記所定場所が写っている画像情報である配車希望場所画像情報を受信する受信手段と、
前記車両に積載された撮像手段により撮像した画像情報である車両画像情報を取得する画像取得手段と、
前記配車希望場所画像情報と前記車両画像情報に基づき、前記車両が前記所定場所に到着したか否かを判定する判定手段と、を備えることを特徴とする配車装置。
A vehicle allocation apparatus for allocating a vehicle to a predetermined place desired by a user,
Reception means for receiving the vehicle dispatching desired place image information, which is image information showing the predetermined place;
An image acquisition unit that acquires vehicle image information that is image information captured by an imaging unit loaded on the vehicle;
And a determination unit that determines whether the vehicle has arrived at the predetermined location based on the desired location image information and the vehicle image information.
前記受信手段は、前記車両に乗車予定のユーザが写っている前記配車希望場所画像情報を受信し、
前記判定手段は、前記配車希望場所画像情報と前記車両画像情報とに基づき、前記車両画像情報に、ユーザが写っているか否かを判定することを特徴とする請求項1に記載の配車装置。
The receiving means receives the desired vehicle location information in which a user who is scheduled to get on the vehicle is shown;
The vehicle allocation apparatus according to claim 1, wherein the determination means determines whether or not the user is reflected in the vehicle image information based on the vehicle allocation desired place image information and the vehicle image information.
前記受信手段は、前記ユーザが写っている画像をSNS上の配車のための専用のトーク部屋から受信することを特徴とする請求項1又は2に記載の配車装置。   The vehicle arrangement apparatus according to claim 1, wherein the receiving unit receives an image in which the user is photographed from a dedicated talk room for the vehicle allocation on an SNS. 前記車両画像情報を、ユーザが操作する端末に、送信する送信手段を、更に備え、
前記受信手段は、前記車両画像情報にユーザの位置を示すユーザ位置情報が付加された2次車両画像情報を受信し、
前記判定手段は、前記2次車両画像情報に基づき、前記車両がユーザの近傍に到着したか否かを判定することを特徴とする請求項1から3までのいずれか1項に記載の配車装置。
It further comprises a transmission unit for transmitting the vehicle image information to a terminal operated by a user,
The receiving means receives secondary vehicle image information in which user position information indicating the position of the user is added to the vehicle image information,
The dispatch apparatus according to any one of claims 1 to 3, wherein the determination means determines whether the vehicle has arrived in the vicinity of the user based on the secondary vehicle image information. .
ユーザが要望する所定場所に車両を配車する配車装置が実行する方法であって、
前記所定場所が写っている画像情報である配車希望場所画像情報を受信するステップと、
前記車両に積載された撮像手段により撮像した画像情報である車両画像情報を取得するステップと、
前記配車希望場所画像情報と前記車両画像情報に基づき、前記車両が前記所定場所に到着したか否かを判定するステップと、を含むことを特徴とする配車方法。
It is a method executed by a dispatching apparatus for dispatching a vehicle to a predetermined location desired by a user,
Receiving vehicle allocation desired place image information which is image information showing the predetermined place;
Acquiring vehicle image information that is image information captured by an imaging unit loaded on the vehicle;
Determining whether or not the vehicle has arrived at the predetermined location based on the desired location image information and the vehicle image information.
ユーザが要望する所定場所に車両を配車する配車装置を制御するコンピュータを、
前記所定場所が写っている画像情報である配車希望場所画像情報を受信する受信手段、
前記車両に積載された撮像手段により撮像した画像情報である車両画像情報を取得する画像取得手段、
前記配車希望場所画像情報と前記車両画像情報に基づき、前記車両が前記所定場所に到着したか否かを判定する判定手段、として機能させることを特徴とするプログラム。
A computer for controlling a dispatching device for dispatching a vehicle to a predetermined place desired by a user;
A receiving unit for receiving a vehicle dispatching desired place image information which is image information showing the predetermined place;
An image acquisition unit that acquires vehicle image information that is image information captured by an imaging unit loaded on the vehicle;
A program characterized in that the program functions as determination means for determining whether or not the vehicle has arrived at the predetermined place, based on the image information of a desired place for dispatch and the image information of the vehicle.
JP2017254012A 2017-12-28 2017-12-28 Vehicle dispatching device, vehicle dispatching method, and program for distributing a vehicle to a predetermined place requested by a user Active JP6638994B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017254012A JP6638994B2 (en) 2017-12-28 2017-12-28 Vehicle dispatching device, vehicle dispatching method, and program for distributing a vehicle to a predetermined place requested by a user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017254012A JP6638994B2 (en) 2017-12-28 2017-12-28 Vehicle dispatching device, vehicle dispatching method, and program for distributing a vehicle to a predetermined place requested by a user

Publications (2)

Publication Number Publication Date
JP2019121049A true JP2019121049A (en) 2019-07-22
JP6638994B2 JP6638994B2 (en) 2020-02-05

Family

ID=67307858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017254012A Active JP6638994B2 (en) 2017-12-28 2017-12-28 Vehicle dispatching device, vehicle dispatching method, and program for distributing a vehicle to a predetermined place requested by a user

Country Status (1)

Country Link
JP (1) JP6638994B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135113A (en) * 2019-02-14 2020-08-31 トヨタ自動車株式会社 Travel controller and travel control method
JP2021018709A (en) * 2019-07-23 2021-02-15 トヨタ自動車株式会社 vehicle
WO2021100190A1 (en) * 2019-11-22 2021-05-27 三菱電機株式会社 Merging assistance device, merging assistance system, and merging assistance method
JP2021093078A (en) * 2019-12-12 2021-06-17 トヨタ自動車株式会社 Server device, information processing system, program of terminal device, and operation method of the information processing system
CN112995947A (en) * 2019-12-17 2021-06-18 丰田自动车株式会社 Control device, system, medium, terminal device, and control method
WO2022201255A1 (en) * 2021-03-22 2022-09-29 日本電気株式会社 Boarding assistance system, boarding assistance method, and program recording medium
JP7294231B2 (en) 2020-05-07 2023-06-20 トヨタ自動車株式会社 AUTOMATIC VEHICLE CONTROL DEVICE, VEHICLE ALLOCATION SYSTEM, AND VEHICLE ALLOCATION METHOD

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067890A (en) * 2001-08-22 2003-03-07 Fujitsu Ten Ltd Vehicle allocation system, vehicle allocation request program and information terminal
JP2005250614A (en) * 2004-03-02 2005-09-15 Nec Mobiling Ltd Taxi dispatching system
JP2016197314A (en) * 2015-04-03 2016-11-24 株式会社日立製作所 Driving support system, driving support apparatus and driving support method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067890A (en) * 2001-08-22 2003-03-07 Fujitsu Ten Ltd Vehicle allocation system, vehicle allocation request program and information terminal
JP2005250614A (en) * 2004-03-02 2005-09-15 Nec Mobiling Ltd Taxi dispatching system
JP2016197314A (en) * 2015-04-03 2016-11-24 株式会社日立製作所 Driving support system, driving support apparatus and driving support method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135113A (en) * 2019-02-14 2020-08-31 トヨタ自動車株式会社 Travel controller and travel control method
US11912309B2 (en) 2019-02-14 2024-02-27 Toyota Jidosha Kabushiki Kaisha Travel control device and travel control method
US11648964B2 (en) 2019-02-14 2023-05-16 Toyota Jidosha Kabushiki Kaisha Travel control device and travel control method
JP2021018709A (en) * 2019-07-23 2021-02-15 トヨタ自動車株式会社 vehicle
US11796995B2 (en) 2019-07-23 2023-10-24 Toyota Jidosha Kabushiki Kaisha Vehicle with presentation device
JP7226167B2 (en) 2019-07-23 2023-02-21 トヨタ自動車株式会社 vehicle
JP7016455B2 (en) 2019-11-22 2022-02-04 三菱電機株式会社 Merge support device, merge support system, and merge support method
JPWO2021100190A1 (en) * 2019-11-22 2021-05-27
WO2021100190A1 (en) * 2019-11-22 2021-05-27 三菱電機株式会社 Merging assistance device, merging assistance system, and merging assistance method
JP7264799B2 (en) 2019-12-12 2023-04-25 トヨタ自動車株式会社 Server device, information processing system, program for terminal device, and method of operating information processing system
JP2021093078A (en) * 2019-12-12 2021-06-17 トヨタ自動車株式会社 Server device, information processing system, program of terminal device, and operation method of the information processing system
CN112995947A (en) * 2019-12-17 2021-06-18 丰田自动车株式会社 Control device, system, medium, terminal device, and control method
JP7294231B2 (en) 2020-05-07 2023-06-20 トヨタ自動車株式会社 AUTOMATIC VEHICLE CONTROL DEVICE, VEHICLE ALLOCATION SYSTEM, AND VEHICLE ALLOCATION METHOD
WO2022201255A1 (en) * 2021-03-22 2022-09-29 日本電気株式会社 Boarding assistance system, boarding assistance method, and program recording medium

Also Published As

Publication number Publication date
JP6638994B2 (en) 2020-02-05

Similar Documents

Publication Publication Date Title
JP6638994B2 (en) Vehicle dispatching device, vehicle dispatching method, and program for distributing a vehicle to a predetermined place requested by a user
US11714414B2 (en) Autonomous vehicle pickup and drop-off management
KR102108383B1 (en) Method for providing smart parking spot finding service with real time path tracing and parking lot occupied state
JP6508130B2 (en) Car sharing system
JP2021534470A (en) Methods and equipment for booking taxi hire
US10841733B1 (en) Display control based on location of vehicle
KR101975479B1 (en) Method for providing call taxi service capable of requesting multiple car allocations
JP2014164316A (en) Information provision system using on-vehicle camera
JP2019176329A (en) Vehicle communication control method and vehicle communication device
KR20180087064A (en) The System for Expression of Parking lot Extra Site through License Plate Recognition
JP7388294B2 (en) Server device, information processing system, program, control device, vehicle, and operation method of information processing system
US10575181B2 (en) Cellular service borrowing using dedicated short range communication technology
JP2002032897A (en) Taxi arrangement service method and system therefor
US20210089983A1 (en) Vehicle ride-sharing assist system
US8874108B2 (en) Integrating mobile devices into a fixed communication infrastructure
US20130155246A1 (en) Broker service system to acquire location based image data
KR20170030210A (en) The traffic information serivce system using with media board
JP2020149476A (en) Program, information processing device, and control method
TWI715860B (en) Driving service system and providing-side mobile device thereof and server
KR20220118309A (en) Method, information processing device, and system
JP2020086947A (en) Vehicle dispatch device
JP7192701B2 (en) Information processing device, control method, and program
US20220049964A1 (en) Server apparatus, information processing system, medium, and method of operating information processing system
JP7497319B2 (en) Vehicle dispatch system
WO2018230111A1 (en) Information processing device, information processing method, and information processing system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180508

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191219

R150 Certificate of patent or registration of utility model

Ref document number: 6638994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250