JP7006159B2 - サーバ装置 - Google Patents

サーバ装置 Download PDF

Info

Publication number
JP7006159B2
JP7006159B2 JP2017219387A JP2017219387A JP7006159B2 JP 7006159 B2 JP7006159 B2 JP 7006159B2 JP 2017219387 A JP2017219387 A JP 2017219387A JP 2017219387 A JP2017219387 A JP 2017219387A JP 7006159 B2 JP7006159 B2 JP 7006159B2
Authority
JP
Japan
Prior art keywords
image recognition
unit
vehicle
recognition logic
logic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017219387A
Other languages
English (en)
Other versions
JP2019091235A (ja
Inventor
千尋 因幡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017219387A priority Critical patent/JP7006159B2/ja
Priority to RU2018139022A priority patent/RU2707153C1/ru
Priority to BR102018072856-3A priority patent/BR102018072856A2/pt
Priority to KR1020180136984A priority patent/KR20190054944A/ko
Priority to EP18205733.1A priority patent/EP3483788B1/en
Priority to CN201811345574.7A priority patent/CN110033056B/zh
Priority to US16/188,665 priority patent/US11030467B2/en
Publication of JP2019091235A publication Critical patent/JP2019091235A/ja
Priority to KR1020210007841A priority patent/KR20210010606A/ko
Application granted granted Critical
Publication of JP7006159B2 publication Critical patent/JP7006159B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/125Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両の乗員に情報を通知するサーバ装置および車載装置に関する。
画像認識用のアルゴリズムは、認識対象物によって異なる。そこで、認識対象物に応じた最適なアルゴリズムをより容易に決定できるようにするための技術が知られている(例えば、特許文献1参照)。
特開2015-130093号公報
画像認識を利用して、様々な場所における様々な対象物の情報を低コストで収集することが求められている。
本発明はこうした状況に鑑みてなされたものであり、その目的は、様々な場所における様々な対象物の情報を低コストで収集できるサーバ装置および車載装置を提供することにある。
上記課題を解決するために、本発明のある態様のサーバ装置は、複数の車両から取得された情報にもとづいて、前記複数の車両の中から所定の対象物を画像認識するための画像認識ロジックを配信する配信対象車両を特定する特定部と、前記特定部で特定された前記配信対象車両に前記画像認識ロジックを配信する配信部と、前記画像認識ロジックが配信された配信対象車両から、当該車両の車外の撮像画像において当該画像認識ロジックを実行することにより認識された前記対象物に関する情報を取得する取得部であって、前記対象物に関する情報は、前記対象物が撮像されたときの前記配信対象車両の位置情報を含む、取得部と、前記対象物が撮像されたときの前記配信対象車両の位置情報にもとづいて前記対象物の位置情報を導出する導出部と、を備える。
この態様によると、特定された配信対象車両に画像認識ロジックを配信し、配信対象車両から、撮像画像において画像認識ロジックを実行することにより認識された対象物に関する情報を取得するので、複数の対象物のそれぞれに特化した画像認識ロジックを車両に予め組み込むことなく、様々な場所における様々な対象物の情報を低コストで収集できる。
前記特定部は、前記画像認識ロジックに関連した地域を走行する可能性のある前記車両の中から配信対象車両を特定してもよい。
前記特定部は、前記画像認識ロジックに関連した期間に前記地域を走行する可能性のある前記車両の中から配信対象車両を特定してもよい。
記配信部は、導出された前記対象物の位置情報を前記複数の車両に配信してもよい。
前記配信部は、前記対象物に関する情報の取得終了条件が満たされた場合、前記画像認識ロジックを配信した前記配信対象車両に、前記画像認識ロジックの削除指示を配信してもよい。
前記画像認識ロジックは学習済みネットワークモデルにより構成されてもよい。
本発明の別の態様は、サーバ装置である。この装置は、複数の車両から取得された情報にもとづいて、前記複数の車両の中から共通又は同一の所定の対象物を画像認識するための画像認識ロジックを配信する複数の配信対象車両を特定する特定部と、前記特定部で特定された前記各配信対象車両に前記画像認識ロジックを配信する配信部と、前記画像認識ロジックが配信された各配信対象車両から、当該車両の車外の撮像画像において当該画像認識ロジックを実行することにより認識された前記対象物に関する情報を取得する取得部であって、前記対象物に関する情報は、前記対象物が撮像されたときの前記配信対象車両の位置情報を含む、取得部と、前記対象物が撮像されたときの前記配信対象車両の位置情報にもとづいて前記対象物の位置情報を導出する導出部と、を備える。
各車両は、前記画像認識ロジックを実行する画像認識部を備えてもよい。前記サーバ装置は、それぞれ異なるタイプの前記画像認識部で実行可能な、共通の前記対象物を画像認識するための複数の画像認識ロジックを記憶する記憶部をさらに備えてもよい。前記配信部は、前記特定部で特定された各配信対象車両に、前記記憶部に記憶された前記複数の画像認識ロジックのうちの各配信対象車両の前記画像認識部で実行可能な前記画像認識ロジックを配信してもよい。
本発明の別の態様は、サーバ装置である。この装置は、サーバ装置であって、複数の車両から取得された情報にもとづいて、前記複数の車両の中から所定の対象物を画像認識するための画像認識ロジックを配信する配信対象車両を特定する特定部と、前記特定部で特定された前記配信対象車両に前記画像認識ロジックを配信する配信部と、前記画像認識ロジックが配信された配信対象車両から、当該車両の車外の撮像画像において当該画像認識ロジックを実行することにより認識された前記対象物に関する情報を取得する取得部と、を備える。各車両は、前記画像認識ロジックを実行する画像認識部を備える。前記サーバ装置は、それぞれ異なるタイプの前記画像認識部で実行可能な、共通の前記対象物を画像認識するための複数の画像認識ロジックを記憶する記憶部をさらに備える。前記配信部は、前記特定部で特定された各配信対象車両に、前記記憶部に記憶された前記複数の画像認識ロジックのうちの各配信対象車両の前記画像認識部で実行可能な前記画像認識ロジックを配信する。
本発明の別の態様は、サーバ装置である。この装置は、サーバ装置であって、複数の車両から取得された情報にもとづいて、前記複数の車両の中から共通又は同一の所定の対象物を画像認識するための画像認識ロジックを配信する複数の配信対象車両を特定する特定部と、前記特定部で特定された前記各配信対象車両に前記画像認識ロジックを配信する配信部と、前記画像認識ロジックが配信された各配信対象車両から、当該車両の車外の撮像画像において当該画像認識ロジックを実行することにより認識された前記対象物に関する情報を取得する取得部と、を備える。各車両は、前記画像認識ロジックを実行する画像認識部を備える。前記サーバ装置は、それぞれ異なるタイプの前記画像認識部で実行可能な、共通の前記対象物を画像認識するための複数の画像認識ロジックを記憶する記憶部をさらに備える。前記配信部は、前記特定部で特定された各配信対象車両に、前記記憶部に記憶された前記複数の画像認識ロジックのうちの各配信対象車両の前記画像認識部で実行可能な前記画像認識ロジックを配信する。
本発明によれば、様々な場所における様々な対象物の情報を低コストで収集できる。
第1の実施の形態に係る車両システムの構成を示すブロック図である。 図1の車載装置とサーバ装置の構成を示すブロック図である。 図1の車載装置を搭載した車両が対象物を画像認識する状況を説明するための図である。 図1のサーバ装置における画像認識ロジックの配信処理を示すフローチャートである。 図1の車載装置における画像認識処理を示すフローチャートである。 図1のサーバ装置における対象物の情報の取得処理を示すフローチャートである。 図7(a)は、第2の実施の形態に係るサーバ装置の記憶部に記憶された第1テーブルのデータ構造を示す図であり、図7(b)は、記憶部に記憶された第2テーブルのデータ構造を示す図であり、図7(c)は、記憶部に記憶された第3テーブルのデータ構造を示す図である。
(第1の実施の形態)
図1は、第1の実施の形態に係る車両システム1の構成を示すブロック図である。車両システム1は、複数の車載装置10と、サーバ装置12とを備える。図1では、複数の車載装置10のうち3台の車載装置10を図示している。
車載装置10は、自動車である車両14に搭載されている。車載装置10は、サーバ装置12と無線通信を行う。無線通信の規格は特に限定されないが、例えば、3G(第3世代移動通信システム)、4G(第4世代移動通信システム)または5G(第5世代移動通信システム)、Wi‐Fi(IEEE802.11規格)を含む。車載装置10は、図示しない基地局を介してサーバ装置12と無線通信を行ってもよい。サーバ装置12は、例えばデータセンターに設置され、複数の車載装置10から送信された情報を処理する情報処理装置として機能する。
図2は、図1の車載装置10とサーバ装置12の構成を示すブロック図である。車載装置10は、通信部20と、処理部22と、記憶部24と、撮像部26と、方位センサ28と、GPS受信部30と、ナビゲーション部32とを備える。処理部22は、車両情報取得部40と、画像認識ロジック取得部42と、画像認識部44と、導出部46と、通知部48とを備える。
サーバ装置12は、通信部60と、処理部62と、記憶部64とを備える。処理部62は、連携データ取得部70と、設定部72と、特定部74と、配信部76と、対象物情報取得部78と、導出部80とを備える。
ここでは、(1)画像認識ロジックの配信処理、(2)画像認識処理、(3)対象物の情報の取得処理の順に説明する。
(1)画像認識ロジックの配信処理
まず車載装置10について説明する。車両情報取得部40は、自車両の情報を定期的に取得する。自車両の情報は、例えば、自車両の位置情報、自車両の走行方向を示す方位情報を含む。
車両情報取得部40は、位置情報を、例えば、GPS受信部30から取得する。車両情報取得部40は、方位情報を、例えば、GPS受信部30または方位センサ28から取得する。位置情報と方位情報には、取得された時刻が添付されていてもよいし、サーバ装置12が位置情報と方位情報とを受信した時刻を取得された時刻とみなしてもよい。車両情報取得部40が自車両の情報を取得する頻度は、実験などにより適宜定めることができる。車両情報取得部40が自車両の情報を取得する頻度は、情報の種類毎に異なってもよい。
車両情報取得部40は、位置情報と設定ルート情報を通信部20へ出力する。車両情報取得部40は、位置情報と方位情報を導出部46に出力する。導出部46に出力された位置情報と方位情報は、後述する(2)画像認識処理で用いられる。
通信部20は、サーバ装置12と通信を行う。通信部20は携帯電話で用いられる公衆通信網(3G、4G、5G、Wi‐Fiなど)を介してサーバ装置12と通信するように構成されていてもよい。通信部20は、車両情報取得部40で取得された位置情報と設定ルート情報を定期的にサーバ装置12に送信する。この情報には、送信元になる車両14を識別するための識別情報が添付される。情報を送信する頻度は、実験などにより適宜定めることができる。
サーバ装置12について説明する。記憶部64は、複数の画像認識ロジックを記憶している。各画像認識ロジックは、所定の対象物を画像認識するためのものであり、当該対象物の認識精度が高まるように最適化されている。画像認識ロジックは、周知の技術を用いて構成できる。画像認識ロジックの一例はニューラルネットワークモデルである。その一例は、多層ニューラルネットワークの入力、出力、ネットワーク構造、及びネットワーク重み(ウェイト)を含むデータ構造である。この場合、所望の対象物を好適に認識できるようにネットワーク重みが適切に近似されている。撮像画像は、特徴量抽出ステップを経てニューラルネットワークに入力される。画像認識ロジックの他の例は、汎用プロセッサにより実行されるプログラムであり、画像認識アルゴリズムが実装されたものである。
対象物は、車両14に搭載された撮像部26により撮像可能なもののうち、画像認識ロジックを用いて画像認識部44が認識することが期待されるものである。対象物は、例えば、タンポポの花やヒマワリの花などの各種の花、故障車、道路上の落下物、道路の陥没、冠水した道路、凍結路、除雪された道路、人間、傘をさした人間などであるが、特に限定されない。対象物が花である場合、画像認識ロジックは、複数の花が咲いていることを認識するように構成されていてもよい。
各画像認識ロジックには、地域(西海岸、東海岸、東海地方などの広いエリアや、州や市などの自治体や、国道1号線などの所定の道路などを含む概念)が関連付けられている。各画像認識ロジックには、期間(開始日時、終了日時などを含む概念)が関連付けられてもよい。各画像認識ロジックには、有効期限(有効時間、有効日数)が関連付けられていてもよい。各画像認識ロジックには、優先度(処理速度や処理精度に関する優先度を含む概念)が関連付けられていてもよい。
例えば、タンポポの花用の画像認識ロジックには、タンポポの花が広範囲で咲いている可能性のある複数組の地域と期間が関連付けられている。地域と期間は、例えば、地域A1および3月1日から3月20日の期間、地域A2および3月10日から3月30日の期間、地域A3および3月20日から4月10日の期間などである。他の花用の画像認識ロジックにも、同様に複数組の地域と期間が関連付けられている。
故障車用の画像認識ロジックには、高速道路や国道などに沿った地域が関連付けられている。道路上の落下物用の画像認識ロジックには、高速道路や国道などに沿った地域が関連付けられている。道路の陥没用の画像認識ロジックには、道路に陥没が発生しやすい地域が関連付けられている。
凍結路用の画像認識ロジックには、道路が凍結しやすい地域および期間が関連付けられている。除雪された道路用の画像認識ロジックには、積雪が発生しやすい地域および期間が関連付けられている。
通信部60は、複数の車載装置10の通信部20と無線通信を行う。通信部60は、複数の車載装置10の通信部20から複数の車両14の位置情報と設定ルート情報を受信する。通信部60は、複数の車両14の位置情報と設定ルート情報を特定部74に出力する。
特定部74は、複数の車両14から取得された情報にもとづいて、記憶部64に記憶された各画像認識ロジックに関して、画像認識ロジックを配信する1以上の車両14を定期的に特定する。画像認識ロジックを配信する車両14の最大数が予め定められていてもよい。
特定部74は、画像認識ロジックに関連した情報に基づいて車両14を特定する。具体的には、特定部74は、画像認識ロジックに関連した地域や画像認識ロジックに関連した期間を用いて車両14を特定する。
画像認識ロジックに関連した地域を用いた車両14の特定について説明する。特定部74は、一例として、複数の車両14の設定ルート情報にもとづいて、画像認識ロジックに関連した地域を走行する可能性のある1以上の車両14を特定する。特定部74は、設定ルートが画像認識ロジックに関連した地域を通る車両14を、当該地域を走行する可能性のある車両14として特定する。
特定部74は、他の例として、設定ルート情報を用いずに車両を特定することもできる。具体的には、特定部74は、各車両14の位置情報の履歴から、各車両14が頻繁に走行している地域を特定し、頻繁に走行している地域が画像認識ロジックに関連した地域に重なる車両14を、画像認識ロジックに関連した地域を走行する可能性がある車両14として特定する。各車両14が頻繁に走行している地域は、自宅周辺や生活圏または通勤経路などであることが予想され、今後も走行する可能性が高いためである。対象地域を頻繁に走行している車両の特定の具体的方法は、たとえば過去N(Nは自然数)日間で画像認識ロジックに関連した地域を走行した回数が所定の閾値以上(Nに対して80%以上など)である車両を特定するように構成してもよい。
特定部74は、さらにその他の例として画像認識ロジックに関連した地域に対応する車両をあらかじめ記憶しておいてもよい。例えば画像認識ロジックに関連した地域が「東京23区」であれば、品川、練馬、杉並、世田谷、足立ナンバーの車両を、画像認識ロジックに関連した地域を走行する可能性のある車両として特定してもよい。
特定部74は、設定ルート情報を用いた車両特定と、設定ルート情報を用いない車両特定のいずれを採用してもよいし、その両方を採用して車両を特定してもよい。また、上述の手法により特定される車両14のセットを間引いて減らしたセットを最終的に特定した車両14としてもよい。
特定部74は、画像認識ロジックに期間が関連付けられている場合、当該期間に、当該画像認識ロジックに関連した地域を走行する可能性のある1以上の車両14を特定する。特定部74は、画像認識ロジックに関連した地域を走行する可能性があり、且つ、当該地域を走行する予想日時が当該画像認識ロジックに関連した期間に含まれる車両14を、当該期間に当該地域を走行する可能性のある車両14として特定する。
特定部74は、特定した車両14を識別するための情報を、画像認識ロジックの情報に対応付けて記憶部64に記憶させる。特定部74は、記憶部64に記憶された情報にもとづいて、車両14の処理能力を超えて画像認識ロジックが車両14に対して配信されないように、画像認識ロジックを配信する車両14を特定してもよい。車両14の処理能力の上限はたとえば、車両14に配信され動作している画像認識ロジックの数(上限数)であってもよい。上限数は、例えば1であるが、画像認識部44の処理能力に応じて2以上であってもよい。あるいは処理能力の上限は例えば、画像認識ロジックの画像認識部44への処理要求量であってもよく、具体的にはニューラルネットの大きさであってもよい。特定部74は、処理要求量が車両14の有する画像認識部44の処理能力の上限を超えるような車両14を、あらかじめ特定しないようにしてもよい。
連携データ取得部70は、図示しない他のサーバ装置からインターネットなどを介して連携データを定期的に取得し、取得した連携データを特定部74に出力する。連携データには、交通情報、催し物情報、災害情報、工事情報、天気データのいずれか含んでいてもよい。連携データは、ある地域のある期間や日時においてこれから発生する/現在発生している事象を表すデータである。例えば天気データは、現在日時の複数の地域の天気の情報、および、現在日時より後の複数の地域の天気予報の情報を含む。
特定部74は、連携データに関連付けられた事象に基づいて選択された画像認識ロジックを、連携データに関連付けられた地域および期間に基づき選択された車両14に配信するようにしてもよい。例えば連携データが天気データの場合、特定部74は、期間Aに地域Bで豪雨が発生するという天気データにもとづいて、冠水した道路用の画像認識ロジックを、期間Aに地域Bを走行する車両を含んで画像認識ロジックを配信するように、車両14を特定してもよい。特定部74は、期間Cに地域Dで氷点下になるという天気データに基づいて、凍結路用の画像認識ロジックを、期間Cに地域Dを走行する車両を含んで画像認識ロジックを配信するように、車両14を特定してもよい。
配信部76は、特定部74で特定された1以上の車両14を識別するための情報と画像認識ロジックを記憶部64から読み出し、通信部60に出力する。通信部60は、特定部74で特定された1以上の車両14に画像認識ロジックを送信する。これは、配信部76が、特定部74で特定された1以上の車両14に画像認識ロジックを配信することに相当する。このような配信は、各画像認識ロジックについて行われる。画像認識ロジックには、送信先になる車両14を識別するための識別情報が添付される。
(2)画像認識処理
車載装置10について説明する。通信部20は、サーバ装置12から自車両宛に送信された画像認識ロジックを受信する。画像認識ロジック取得部42は、通信部20から、画像認識ロジックを取得する。これは、画像認識ロジック取得部42が、サーバ装置12から、所定の対象物を画像認識するための画像認識ロジックを取得することに相当する。画像認識ロジック取得部42は、取得した画像認識ロジックを記憶部24に記憶させる。
記憶部24は、画像認識ロジック取得部42で取得された画像認識ロジックの他に、先行車両および歩行者用の画像認識ロジックを予め記憶していてもよい。記憶部24は、信号機、道路の車線、交通標識などを認識する画像認識ロジックを予め記憶していてもよい。後述するように、記憶部24は、画像認識ロジック取得部42で取得された画像認識ロジックを一定期間だけ記憶する。
画像認識部44は、先行車両と歩行者の画像認識とともに、画像認識ロジック取得部42で取得された画像認識ロジックをロードし、画像認識ロジックを実行することにより、撮像画像において対象物を画像認識する。画像認識部44は、ロードされた画像認識ロジックにより、撮像画像内における対象物の存在の有無、撮像画像内における対象物の数、撮像画像内における対象物の面積などを認識する能力を持つ。これらを総称して画像認識結果と呼ぶ。画像認識部44は、画像認識ロジックのタイプに応じて、ニューラルネットワークを実行する専用プロセッサであってもよいし、RISC命令やCISC命令をロードして実行する汎用プロセッサであってもよい。
画像認識部44には、車載カメラなどを含む撮像部26により撮像された車両14の車外の撮像画像のデータが供給される。撮像画像は、例えば、車両14の前方の画像である。撮像画像の各フレームには、撮像時刻が添付される。
画像認識部44は、記憶部24に記憶されている先行車両および歩行者認識用の画像認識ロジックにより、撮像画像において先行車両と歩行者を画像認識する。画像認識には、周知の技術を用いることができる。先行車両と歩行者の画像認識結果は、例えば、周知の衝突防止機能や自動運転などに用いられる。
画像認識部44は、画像認識ロジックを複数並列に実行することができる。また、複数並列に実行される画像認識ロジックの処理優先度は同一であってもよく、異なっていてもよい。画像認識ロジックに関連付けられた優先度に基づいた処理がなされてもよい。例えば先行車両及び/又は歩行者を認識するための画像認識ロジックの単位時間あたりの画像認識の頻度は、他の画像認識ロジックによる単位時間あたりの画像認識の頻度よりも高くなるようにしてもよい。ロードされている画像認識ロジックより優先度の高い画像認識ロジックが取得された場合、画像認識部44はロードされている画像認識部44を追い出して、取得された優先度の高い画像認識部44を替りにロードするようにしてもよい。
導出部46は、画像認識部44で対象物が画像認識された場合、車両情報取得部40で取得された位置情報と方位情報、および、画像認識部44での画像認識結果にもとづいて、対象物の情報を導出する。対象物の情報は、例えば、撮像地点、撮像地点における対象物の方向、および、対象物の面積を含む。撮像地点は、緯度および経度を含む。撮像地点は、対象物が撮像されたときの車両14の位置である。つまり、対象物の情報は、対象物が撮像されたときの車両14の位置情報を含むといえる。対象物が撮像されたときの車両14の位置は、撮像画像における対象物が画像認識されたフレームの撮像時刻に対応する位置情報から概ね特定できる。撮像地点における対象物の方向は、例えば方角で表され、対象物が撮像されたときの車両14の走行方向、および、撮像画像内の対象物の位置から特定できる。対象物の面積は、周知の技術を用いて画像認識結果から導出できる。
通知部48は、導出部46で導出された対象物の情報を通信部20に出力する。通信部20は、対象物の情報をサーバ装置12に送信する。これは、通知部48が、対象物の情報を、通信部20を介してサーバ装置12に通知することに相当する。通知部48が対象物の情報を通知するタイミングは、特に限定されないが、例えば、車両14のアクセサリスイッチがオフになったときである。通知部48が対象物の情報を通知するタイミングは、対象物に応じて異なってもよい。例えば、対象物が花などである場合、通知を急がなくてもよいため、通知タイミングは、車両14のアクセサリスイッチがオフになったときである。また、対象物が故障車、道路上の落下物、道路の陥没、冠水した道路などの場合、通知が早いほうが好ましいため、通知タイミングは、対象物の情報が導出されたときであってもよい。
図3は、図1の車載装置10を搭載した車両14が対象物を画像認識する状況を説明するための図である。図3では、車両14aは、道路R1を北から南に向かって走行しており、車両14bは、道路R1を南から北に向かって走行している。道路R1の西側には、花の咲いたタンポポが群生している領域100が存在する。車両14aと車両14bには、それぞれ、タンポポの花用の画像認識ロジックが配信されており、定期的にタンポポの花の画像認識を行いながら走行している。
領域100のタンポポの花が画像認識されたときの車両14aの位置は、位置P1である。車両14aの車載装置10の導出部46は、撮像地点を位置P1と導出し、撮像地点におけるタンポポの花の方向を、南西と導出する。
領域100のタンポポの花が画像認識されたときの車両14bの位置は、位置P2である。車両14bの車載装置10の導出部46は、撮像地点を位置P2と導出し、撮像地点におけるタンポポの花の方向を、北西と導出する。
(3)対象物の情報の取得処理
図2に戻る。サーバ装置12の通信部60は、画像認識ロジックが配信された各車両14から、対象物の情報を受信する。対象物情報取得部78は、通信部60で受信された対象物の情報を取得する。これは、対象物情報取得部78が、画像認識ロジックが配信された各車両14から、当該車両14の車外の撮像画像において当該画像認識ロジックを実行することにより認識された対象物に関する情報を取得することに相当する。
導出部80は、取得された対象物の情報に含まれる撮像地点および撮像地点における対象物の方向にもとづいて、対象物の位置情報を導出する。対象物の位置情報は、緯度および経度を含む。また、導出部80は、取得された対象物の情報に含まれる対象物の面積にもとづいて、対象物の存在範囲を導出する。
図3の例では、対象物の位置は、位置P1の南西、位置P2の北西であることから、概ね位置P1と位置P2の間の位置の西側であることが導出される。
配信部76は、通信部60を介して、導出された対象物の位置情報、対象物の名称、および、対象物の存在範囲を、複数の車両14に配信する。
画像認識ロジックの削除について説明する。削除は配信部76からの指示又は車両14の判断に基づいて実行される。又はこれらを併用してもよい。配信部76からの指示による削除について説明する。配信部76は、対象物に関する情報の取得終了条件が満たされた場合、画像認識ロジックを配信した車両14に、画像認識ロジックの削除指示を配信する。処理部62は、取得終了条件が満たされた場合、記憶部64に記憶された、特定した車両14を識別するための情報を削除する。車両14の判断に基づいた削除について説明する。画像認識ロジックに関連付けられた有効期限があれば、現在時刻が有効期限を超過している場合に画像認識ロジックを削除する。画像認識ロジックに関連付けられた期間があれば、現在時刻が期間を超過している場合に画像認識ロジックを削除する。
画像認識ロジックの削除が実行された結果、当該車両14に画像認識ロジックを新たに配信可能な状態になる。取得終了条件は、例えば、現在日時が画像認識ロジックに関連した期間を過ぎたこと、または、画像認識ロジックを配信してから一定期間が経過したことである。花用の画像認識ロジックの場合、取得終了条件は、画像認識された単位面積内の花の割合が所定の割合を超えたことであってもよい。一定期間と所定の割合は、実験などにより適宜定めることができる。なお、画像認識ロジックはデータとして削除せずに実行を休止させるようにするだけでもよい。休止された画像認識ロジックは例えば画像認識部44からアンロードされて、画像認識部44のリソースがその分だけ解放される。休止された画像認識ロジックは再び活性化されて画像認識部44にロードされることもできる。
車載装置10について説明する。通信部20は、配信された対象物の位置情報、対象物の名称、および、対象物の存在範囲を受信する。ナビゲーション部32は、通信部20で受信された情報にもとづいて、対象物の情報を地図に重ねて表示して、対象物の位置、名称および存在範囲を乗員に通知する。対象物の情報は、アイコンを用いて表示してもよいし、アイコンと文字を用いて表示してもよい。ナビゲーション部32は、地図上の対象物の存在範囲を塗りつぶしてもよい。また、ナビゲーション部32は、自車両の位置が対象物の位置に近づいた場合、対象物の位置、名称および存在範囲を音声で乗員に通知してもよい。
また、通信部20は、サーバ装置12から配信された画像認識ロジックの削除指示を受信する。画像認識ロジック取得部42は、通信部20で受信された画像認識ロジックの削除指示を取得する。画像認識ロジック取得部42が画像認識ロジックの削除指示を取得した場合、処理部22は、記憶部24に記憶された画像認識ロジックを削除する。この結果、画像認識部44は、この画像認識ロジックによる画像認識を終了する。
なお、サーバ装置12において、対象物情報取得部78が、画像認識ロジックが配信された各車両14から対象物の情報を取得した後、所定期間、各車両14から対象物の情報を取得しない場合、配信部76は、通信部60を介して、対象物の情報の通知終了指示を複数の車両14に配信する。所定期間は、実験などにより適宜定めることができる。車載装置10のナビゲーション部32は、通信部20が対象物の情報の通知終了指示を受信すると、乗員への対象物の情報の通知を終了する。
この構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
次に、以上の構成による車両システム1の全体的な動作を説明する。図4は、図1のサーバ装置12における画像認識ロジックの配信処理を示すフローチャートである。図4の処理は、サーバ装置12が保持する各画像認識ロジックに関して行われる。特定部74は、複数の車両14から情報を取得し(S10)、取得された情報にもとづいて画像認識ロジックを配信する車両14を特定し(S12)、配信部76は、特定された車両14に画像認識ロジックを配信する(S14)。
図5は、図1の車載装置10における画像認識処理を示すフローチャートである。画像認識ロジック取得部42は、サーバ装置12から画像認識ロジックを取得し(S20)、画像認識部44は、取得された画像認識ロジックにより撮像画像において対象物を画像認識する(S22)。対象物が画像認識されない場合(S24のN)、ステップ22に戻る。対象物が画像認識された場合(S24のY)、導出部46は、画像認識結果にもとづいて対象物の情報を導出し(S26)、通知部48は、導出された対象物の情報をサーバ装置12に通知する(S28)。
図6は、図1のサーバ装置12における対象物の情報の取得処理を示すフローチャートである。図6の処理は、図4の処理の後に行われる。対象物情報取得部78は、画像認識ロジックが配信された各車両14から対象物の情報を取得し(S40)、導出部80は、対象物の位置情報を導出し(S42)、配信部76は、導出された対象物の位置情報を複数の車両14に配信する(S44)。
このように本実施の形態によれば、特定された車両14に画像認識ロジックを配信し、各車両14から、撮像画像において画像認識ロジックを実行することにより認識された対象物に関する情報を取得するので、複数の対象物のそれぞれに特化した画像認識ロジックを車両14に予め組み込むことなく、様々な場所における様々な対象物の情報を低コストで収集できる。
また、特定部74は、画像認識ロジックに関連した地域を走行する可能性のある車両14を特定するので、対象物を画像認識する可能性のある車両14に選択的に画像認識ロジックを配信できる。そのため、対象物を画像認識する可能性のない車両14の画像認識のリソースを無駄にすることなく、対象物の情報を効率的に収集できる。
また、特定部74は、画像認識ロジックに関連した期間に、当該画像認識ロジックに関連した地域を走行する可能性のある車両14を特定するので、対象物を画像認識する可能性がより高い車両14に選択的に画像認識ロジックを配信できる。そのため、対象物の存在する期間が決まっている場合にも、対象物を画像認識する可能性のない車両14の画像認識のリソースを無駄にすることなく、対象物の情報を効率的に収集できる。
また、対象物が撮像されたときの車両14の位置情報にもとづいて対象物の位置情報を導出し、導出された対象物の位置情報を複数の車両14に配信するので、複数の車両14の乗員に、様々な場所における様々な対象物の情報を知らせることができる。よって、車両14の乗員の利便性を向上できる。
また、対象物に関する情報の取得の終了条件が満たされた場合、画像認識ロジックを配信した車両14に、画像認識ロジックの削除指示を配信するので、車両14の画像認識のリソースを有効活用できる。
(第2の実施の形態)
第2の実施の形態では、サーバ装置12は、車載装置10の画像認識部44を構成するプロセッサのタイプに対応した画像認識ロジックを配信することが、第1の実施の形態と異なる。以下では、第1の実施の形態との相違点を中心に説明する。
複数の車両14の車載装置10の画像認識部44を構成するプロセッサのタイプは、2種類以上である。そのため、特定部74が特定した複数の車両14の画像認識部44のプロセッサのタイプは、2種類以上の場合がある。サーバ装置12の記憶部64は、それぞれ異なるタイプのプロセッサの画像認識部44で実行可能な、共通の対象物を画像認識するための複数の画像認識ロジックを記憶している。記憶部64は、各対象物に関して、このような複数のタイプのプロセッサに対応した複数の画像認識ロジックを記憶している。また、記憶部64は、以下に説明する第1テーブルと第2テーブルを予め記憶している。
図7(a)は、第2の実施の形態に係るサーバ装置12の記憶部64に記憶された第1テーブルのデータ構造を示す図である。第1テーブルは、車両14の識別情報と、当該車両14の画像認識部44のプロセッサのタイプとの関係を示す。
車両14の識別情報「Vehicle001」には、当該車両14の画像認識部44のプロセッサのタイプ「A」が対応付けられている。車両14の識別情報「Vehicle002」には、当該車両14の画像認識部44のプロセッサのタイプ「B」が対応付けられている。
図示は省略するが、第1テーブルには、車両システム1の全ての車両14の識別情報と、各車両14のプロセッサのタイプとが登録されている。新たな車両14が車両システム1に加えられると、新たな車両14の識別情報等が第1テーブルに登録される。
図7(b)は、第2の実施の形態に係る記憶部64に記憶された第2テーブルのデータ構造を示す図である。第2テーブルは、画像認識ロジックの識別情報と、当該画像認識ロジックを実行可能なプロセッサのタイプとの関係を示す。
画像認識ロジックの識別情報「Data001-A」には、当該画像認識ロジックを実行可能なプロセッサのタイプ「A」が対応付けられている。画像認識ロジックの識別情報「Data001-B」には、当該画像認識ロジックを実行可能なプロセッサのタイプ「B」が対応付けられている。「Data001-A」の画像認識ロジックと「Data001-B」の画像認識ロジックは、共通の対象物を画像認識するためのものである。
画像認識ロジックの識別情報「Data002-A」には、当該画像認識ロジックを実行可能なプロセッサのタイプ「A」が対応付けられている。画像認識ロジックの識別情報「Data002-B」には、当該画像認識ロジックを実行可能なプロセッサのタイプ「B」が対応付けられている。「Data002-A」の画像認識ロジックと「Data002-B」の画像認識ロジックは、「Data001-A」の画像認識ロジックが認識する対象物とは異なる共通の対象物を画像認識するためのものである。
この例では、識別情報の前半部分の「Data001」等が共通の画像認識ロジックは、共通の対象物を画像認識するためのものである。識別情報の前半部分が異なる画像認識ロジックは、それぞれ異なる対象物を画像認識するためのものである。
図示は省略するが、第2テーブルには、記憶部64に記憶された全ての画像認識ロジックの識別情報と、各画像認識ロジックを実行可能なプロセッサのタイプとが登録されている。
図7(c)は、第2の実施の形態に係る記憶部64に記憶された第3テーブルのデータ構造を示す図である。第3テーブルは、特定部74が特定した車両14の識別情報と、配信部76が当該車両14に配信する画像認識ロジックの識別情報との関係を示す。
特定部74は、第1の実施の形態と同様に、所定の対象物を画像認識するための画像認識ロジックを配信する1以上の車両14を特定する。ここでは、特定部74は、識別情報の前半部分が「Data001」の画像認識ロジックを配信する車両14として、識別情報「Vehicle001」と「Vehicle002」の車両14を特定している一例について説明する。
特定部74は、記憶部64の第1テーブルと第2テーブルに基づいて、特定した各車両14の識別情報に、記憶部64に記憶された複数の画像認識ロジックのうちの各車両14の画像認識部44で実行可能な画像認識ロジックの識別情報を対応付けて、第3テーブルとして記憶部64に記憶させる。
図7(c)の例では、車両14の識別情報「Vehicle001」には、当該車両14のプロセッサのタイプ「A」で実行可能な識別情報「Data001-A」の画像認識ロジックが対応付けられている。車両14の識別情報「Vehicle002」には、当該車両14のプロセッサのタイプ「B」で実行可能な識別情報「Data001-B」の画像認識ロジックが対応付けられている。
配信部76は、記憶部64の第3テーブルに基づいて、特定部74で特定された各車両14に、各車両14の画像認識部44で実行可能な画像認識ロジックを配信する。この例では、配信部76は、識別情報「Vehicle001」の車両14に、識別情報「Data001-A」の画像認識ロジックを配信する。配信部76は、識別情報「Vehicle002」の車両14に、識別情報「Data001-B」の画像認識ロジックを配信する。この結果、識別情報「Vehicle001」の車両14と、識別情報「Vehicle002」の車両14は、それぞれ、共通の対象物を画像認識する。
なお、図示は省略するが、同一のタイプのプロセッサの複数の車両14が特定された場合、配信部76は、特定された複数の車両14に、各車両14の画像認識部44で実行可能な同一の画像認識ロジックを配信する。
本実施の形態によれば、特定部74で特定された各車両14に、各車両14の画像認識部44で実行可能な画像認識ロジックを配信するので、複数の車両14の画像認識部44のプロセッサのタイプが2種類以上であっても、各車両14から対象物に関する情報を取得できる。
以上、実施の形態をもとに本発明を説明した。実施の形態はあくまでも例示であり、各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
1…車両システム、10…車載装置、12…サーバ装置、40…車両情報取得部、42…画像認識ロジック取得部、44…画像認識部、46…導出部、48…通知部、70…連携データ取得部、72…設定部、74…特定部、76…配信部、78…対象物情報取得部、80…導出部。

Claims (10)

  1. 複数の車両から取得された情報にもとづいて、前記複数の車両の中から所定の対象物を画像認識するための画像認識ロジックを配信する配信対象車両を特定する特定部と、
    前記特定部で特定された前記配信対象車両に前記画像認識ロジックを配信する配信部と、
    前記画像認識ロジックが配信された配信対象車両から、当該車両の車外の撮像画像において当該画像認識ロジックを実行することにより認識された前記対象物に関する情報を取得する取得部であって、前記対象物に関する情報は、前記対象物が撮像されたときの前記配信対象車両の位置情報を含む、取得部と、
    前記対象物が撮像されたときの前記配信対象車両の位置情報にもとづいて前記対象物の位置情報を導出する導出部と、
    を備えることを特徴とするサーバ装置。
  2. 前記特定部は、前記画像認識ロジックに関連した地域を走行する可能性のある前記車両の中から配信対象車両を特定することを特徴とする請求項1に記載のサーバ装置。
  3. 前記特定部は、前記画像認識ロジックに関連した期間に前記地域を走行する可能性のある前記車両の中から配信対象車両を特定することを特徴とする請求項2に記載のサーバ装置。
  4. 記配信部は、導出された前記対象物の位置情報を前記複数の車両に配信することを特徴とする請求項1から3のいずれかに記載のサーバ装置。
  5. 前記配信部は、前記対象物に関する情報の取得終了条件が満たされた場合、前記画像認識ロジックを配信した前記配信対象車両に、前記画像認識ロジックの削除指示を配信することを特徴とする請求項1から4のいずれかに記載のサーバ装置。
  6. 前記画像認識ロジックは学習済みネットワークモデルにより構成されることを特徴とする請求項1から5のいずれかに記載のサーバ装置。
  7. 複数の車両から取得された情報にもとづいて、前記複数の車両の中から共通又は同一の所定の対象物を画像認識するための画像認識ロジックを配信する複数の配信対象車両を特定する特定部と、
    前記特定部で特定された前記各配信対象車両に前記画像認識ロジックを配信する配信部と、
    前記画像認識ロジックが配信された各配信対象車両から、当該車両の車外の撮像画像において当該画像認識ロジックを実行することにより認識された前記対象物に関する情報を取得する取得部であって、前記対象物に関する情報は、前記対象物が撮像されたときの前記配信対象車両の位置情報を含む、取得部と、
    前記対象物が撮像されたときの前記配信対象車両の位置情報にもとづいて前記対象物の位置情報を導出する導出部と、
    を備えることを特徴とするサーバ装置。
  8. 各車両は、前記画像認識ロジックを実行する画像認識部を備え、
    前記サーバ装置は、それぞれ異なるタイプの前記画像認識部で実行可能な、共通の前記対象物を画像認識するための複数の画像認識ロジックを記憶する記憶部をさらに備え、
    前記配信部は、前記特定部で特定された各配信対象車両に、前記記憶部に記憶された前記複数の画像認識ロジックのうちの各配信対象車両の前記画像認識部で実行可能な前記画像認識ロジックを配信することを特徴とする請求項1からのいずれかに記載のサーバ装置。
  9. サーバ装置であって、
    複数の車両から取得された情報にもとづいて、前記複数の車両の中から所定の対象物を画像認識するための画像認識ロジックを配信する配信対象車両を特定する特定部と、
    前記特定部で特定された前記配信対象車両に前記画像認識ロジックを配信する配信部と、
    前記画像認識ロジックが配信された配信対象車両から、当該車両の車外の撮像画像において当該画像認識ロジックを実行することにより認識された前記対象物に関する情報を取得する取得部と、
    を備え、
    各車両は、前記画像認識ロジックを実行する画像認識部を備え、
    前記サーバ装置は、それぞれ異なるタイプの前記画像認識部で実行可能な、共通の前記対象物を画像認識するための複数の画像認識ロジックを記憶する記憶部をさらに備え、
    前記配信部は、前記特定部で特定された各配信対象車両に、前記記憶部に記憶された前記複数の画像認識ロジックのうちの各配信対象車両の前記画像認識部で実行可能な前記画像認識ロジックを配信する、ことを特徴とするサーバ装置。
  10. サーバ装置であって、
    複数の車両から取得された情報にもとづいて、前記複数の車両の中から共通又は同一の所定の対象物を画像認識するための画像認識ロジックを配信する複数の配信対象車両を特定する特定部と、
    前記特定部で特定された前記各配信対象車両に前記画像認識ロジックを配信する配信部と、
    前記画像認識ロジックが配信された各配信対象車両から、当該車両の車外の撮像画像において当該画像認識ロジックを実行することにより認識された前記対象物に関する情報を取得する取得部と、
    を備え、
    各車両は、前記画像認識ロジックを実行する画像認識部を備え、
    前記サーバ装置は、それぞれ異なるタイプの前記画像認識部で実行可能な、共通の前記対象物を画像認識するための複数の画像認識ロジックを記憶する記憶部をさらに備え、
    前記配信部は、前記特定部で特定された各配信対象車両に、前記記憶部に記憶された前記複数の画像認識ロジックのうちの各配信対象車両の前記画像認識部で実行可能な前記画像認識ロジックを配信する、ことを特徴とするサーバ装置。
JP2017219387A 2017-11-14 2017-11-14 サーバ装置 Active JP7006159B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2017219387A JP7006159B2 (ja) 2017-11-14 2017-11-14 サーバ装置
RU2018139022A RU2707153C1 (ru) 2017-11-14 2018-11-07 Серверное устройство и автомобильное устройство
BR102018072856-3A BR102018072856A2 (pt) 2017-11-14 2018-11-07 Dispositivo de servidor e dispositivo em veículo
KR1020180136984A KR20190054944A (ko) 2017-11-14 2018-11-09 서버 장치 및 차량 탑재 장치
EP18205733.1A EP3483788B1 (en) 2017-11-14 2018-11-12 Server device and in-vehicle device
CN201811345574.7A CN110033056B (zh) 2017-11-14 2018-11-13 服务器设备以及车载设备
US16/188,665 US11030467B2 (en) 2017-11-14 2018-11-13 Server device and in-vehicle device
KR1020210007841A KR20210010606A (ko) 2017-11-14 2021-01-20 서버 장치 및 차량 탑재 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017219387A JP7006159B2 (ja) 2017-11-14 2017-11-14 サーバ装置

Publications (2)

Publication Number Publication Date
JP2019091235A JP2019091235A (ja) 2019-06-13
JP7006159B2 true JP7006159B2 (ja) 2022-01-24

Family

ID=64277607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017219387A Active JP7006159B2 (ja) 2017-11-14 2017-11-14 サーバ装置

Country Status (7)

Country Link
US (1) US11030467B2 (ja)
EP (1) EP3483788B1 (ja)
JP (1) JP7006159B2 (ja)
KR (2) KR20190054944A (ja)
CN (1) CN110033056B (ja)
BR (1) BR102018072856A2 (ja)
RU (1) RU2707153C1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7110966B2 (ja) * 2018-12-13 2022-08-02 トヨタ自動車株式会社 表示制御装置及び表示制御プログラム
KR20190091419A (ko) 2019-07-17 2019-08-06 엘지전자 주식회사 자율주행 차량의 제어방법 및 이를 위한 제어장치
JP7074166B2 (ja) * 2020-08-07 2022-05-24 トヨタ自動車株式会社 サーバ、車両の制御装置、および車両の機械学習システム
US11976940B2 (en) 2021-09-30 2024-05-07 Woven By Toyota, Inc. Vehicle data collection system and method of using

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005259031A (ja) 2004-03-15 2005-09-22 Sumitomo Electric Ind Ltd 人間認識システム、人間認識装置、記憶装置及び人間認識方法
JP2015135552A (ja) 2014-01-16 2015-07-27 株式会社デンソー 学習システム、車載装置、及び、サーバ
JP2017054491A (ja) 2015-09-11 2017-03-16 インテル・コーポレーション モノのインターネットエッジデバイスのためのオブジェクト認識技術

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101451768B1 (ko) 2011-03-21 2014-10-17 팅크웨어(주) 주행 영상 획득을 위한 전자 기기 및 전자 기기의 주행 영상 획득 방법 및 주행 영상 제공을 위한 서버 및 서버의 주행 영상 제공 방법
KR101870284B1 (ko) 2011-04-29 2018-07-24 팅크웨어(주) 전자기기, 그 제어방법 및 전자기기와 통신하는 서버
EP2743901B1 (en) * 2011-08-10 2018-10-31 Toyota Jidosha Kabushiki Kaisha Driving assistance device
JP5408240B2 (ja) * 2011-12-12 2014-02-05 株式会社デンソー 警告システム、車両装置、及びサーバ
JP5708689B2 (ja) * 2013-03-13 2015-04-30 株式会社デンソー 物体検出装置
JP6208018B2 (ja) 2014-01-08 2017-10-04 株式会社東芝 画像認識アルゴリズム組合せ選択装置
EP3734504A1 (en) * 2015-02-10 2020-11-04 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
US10414052B2 (en) * 2016-02-09 2019-09-17 Cobalt Robotics Inc. Building-integrated mobile robot
US9754510B1 (en) * 2016-03-03 2017-09-05 Toyota Motor Engineering & Manufacturing North America, Inc. Vision-assist devices for providing information to a user through thermal feedback and methods
US10558222B2 (en) * 2016-07-21 2020-02-11 Mobileye Vision Technologies Ltd. Navigating a vehicle using a crowdsourced sparse map
CN106379319B (zh) * 2016-10-13 2019-11-19 上汽大众汽车有限公司 一种汽车辅助驾驶***及控制方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005259031A (ja) 2004-03-15 2005-09-22 Sumitomo Electric Ind Ltd 人間認識システム、人間認識装置、記憶装置及び人間認識方法
JP2015135552A (ja) 2014-01-16 2015-07-27 株式会社デンソー 学習システム、車載装置、及び、サーバ
JP2017054491A (ja) 2015-09-11 2017-03-16 インテル・コーポレーション モノのインターネットエッジデバイスのためのオブジェクト認識技術

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高橋 邦彦,村上 陽志,プローブカーシステムとその課題,NEC技報 Vol.54 No.7,日本,日本電気株式会社,2001年07月25日,pp.73-76

Also Published As

Publication number Publication date
BR102018072856A2 (pt) 2019-06-11
US20190147256A1 (en) 2019-05-16
EP3483788B1 (en) 2023-11-22
JP2019091235A (ja) 2019-06-13
US11030467B2 (en) 2021-06-08
CN110033056A (zh) 2019-07-19
KR20190054944A (ko) 2019-05-22
KR20210010606A (ko) 2021-01-27
CN110033056B (zh) 2023-08-01
RU2707153C1 (ru) 2019-11-22
EP3483788A1 (en) 2019-05-15

Similar Documents

Publication Publication Date Title
JP7006159B2 (ja) サーバ装置
TWI752262B (zh) 路側裝置、通訊系統及危險偵測方法
JP5805356B1 (ja) 通信装置、運転支援装置、および、運転支援システム
JP6567170B2 (ja) 自動化された自動車の位置特定方法
JP7298285B2 (ja) 情報処理装置及び情報処理プログラム
JP2007114857A (ja) 交通情報処理装置
CN105225508A (zh) 路况提示方法及装置
CN112073936A (zh) 用于网络节点通信的***和方法
WO2019131075A1 (ja) 送信装置、点群データ収集システムおよびコンピュータプログラム
US20180314902A1 (en) Non-transitory storage medium storing image transmission program, image transmission method, in-vehicle device, vehicle, and image processing system
JP2007163442A (ja) ナビゲーション装置、サーバシステム、これらの制御方法ならびに制御プログラム、気象データ配信表示システム及び方法
US20230392943A1 (en) Server apparatus and information processing method
CN111462519A (zh) 引导装置、引导方法及存储介质
JP7203907B1 (ja) 制御装置、移動体、制御方法、及び端末
JP6969311B2 (ja) 情報処理装置
JP2019074803A (ja) サーバ装置および車両システム
JP7157018B2 (ja) 移動空間情報処理システム、移動空間情報処理方法および通信装置
CN110581981B (zh) 显示控制装置以及计算机可读存储介质
JP6547788B2 (ja) 情報処理システム、情報処理装置及びプログラム
JP2018077587A (ja) 車載通信装置、情報収集システム、コンピュータプログラム及び通信方法
CN111341132A (zh) 用于车辆的引导设备、引导装置和方法及计算机程序产品
JP6993140B2 (ja) 危険通知装置、端末、危険通知情報送信方法、及び危険通知情報提供方法
US20210291842A1 (en) Update system and electronic control device
CN112833894A (zh) 信息提供***、信息提供装置和非暂时性计算机可读介质
JP2024008038A (ja) 電子装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211220