JP7294323B2 - 動体管理装置、動体管理システム、動体管理方法、及びコンピュータプログラム - Google Patents

動体管理装置、動体管理システム、動体管理方法、及びコンピュータプログラム Download PDF

Info

Publication number
JP7294323B2
JP7294323B2 JP2020510659A JP2020510659A JP7294323B2 JP 7294323 B2 JP7294323 B2 JP 7294323B2 JP 2020510659 A JP2020510659 A JP 2020510659A JP 2020510659 A JP2020510659 A JP 2020510659A JP 7294323 B2 JP7294323 B2 JP 7294323B2
Authority
JP
Japan
Prior art keywords
moving body
moving
unit
moving object
bodies
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020510659A
Other languages
English (en)
Other versions
JPWO2019188429A1 (ja
Inventor
明紘 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Publication of JPWO2019188429A1 publication Critical patent/JPWO2019188429A1/ja
Application granted granted Critical
Publication of JP7294323B2 publication Critical patent/JP7294323B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、動体管理装置、動体管理システム、動体管理方法、及びコンピュータプログラムに関する。本出願は、2018年3月29日出願の日本出願第2018-063865号に基づく優先権を主張し、前記日本出願に記載された全ての内容を援用するものである。
車両を運行する際には、自車の動きだけではなく、他車の動きにも十分に注意する必要がある。車両に加えて、歩行者が存在している場合には特に注意が必要である。従来、このような移動物体(以下、「動体」と呼ぶ。)を検知する技術として、後掲の特許文献1に開示された技術がある。
特許文献1には、街頭に設置された監視カメラなどの複数のセンサを用い、一方のセンサで検知された測定結果によって、他方のセンサの対象物に影響を与える情報を取得し、複数のセンサから取得した様々な計測結果を統合した形で保持することによって、システム全体の性能向上を図るシステムが開示されている。
特開2016-85602号公報
本開示の一態様に係る動体管理装置は、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知部と、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知部と、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理部と、前記統合処理部の処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知部とを含む。
本開示の一の態様に係る動体管理システムは、上述の動体管理装置と、前記第1周期で周囲の物体までの距離を示す測距信号を前記第1の動体検知部に前記第1の信号として送信する第1のセンサと、前記第2周期で撮像範囲の画像を示す画像信号を前記第2の信号として前記第2の動体検知部に送信する第2のセンサとを含む。
本開示の一の態様に係る動体管理方法は、コンピュータが、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、コンピュータが、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、コンピュータが、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、コンピュータが、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを含む。
本開示の一の態様に係るコンピュータプログラムは、コンピュータに、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップと、を実行させる。
本開示の他の態様に係る動体管理装置は、第1周期で周囲の物体までの距離を測定して測距信号を送信する距離センサから前記測距信号を受信し、前記第1周期より長い第2周期で撮像範囲の画像を表す画像信号を送信する撮像装置から前記画像信号を受信することが可能なように接続された受信部と、受信部が受信した情報を読取り可能に前記受信部に接続されたプロセッサとを含み、前記プロセッサは、前記測距信号に基づいて1つ以上の第1の動体を検知する第1の動体検知ステップと、前記画像信号に基づいて1つ以上の第2の動体を検知する第2の動体検知ステップと、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を前記第2周期より短い周期で実行する統合処理ステップと、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを実行するようにプログラムされている。
本開示は、このような特徴的な処理部を備える動体管理装置、かかる特徴的な処理をステップとする動体管理方法、及びかかる特徴的な処理をコンピュータに実行させるためのプログラムとして実現することができる。また、かかるステップの一部又は全部を実行する機能を有する半導体集積回路として実現したり、動体管理装置を含む動体管理システムとして実現したりすることができる。
図1は本発明の第1の実施形態に係る動体管理システムの概要を示す模式図である。 図2は図1に示すシステムにおいて複数種類のセンサからの情報を統合することにより動体情報を管理し、安全な運行に必要な情報を車両に報知する動体管理装置であるセンサ共有サーバのブロック図である。 図3は図2に示すセンサ共有サーバの動体追跡部による解析結果を表形式で示す図である。 図4は図2に示すセンサ共有サーバの属性検出部による解析結果を表形式で示す図である。 図5は図2に示すセンサ共有サーバの統合処理部による解析結果を表形式で示す図である。 図6は図2に示すセンサ共有サーバの車両追跡部により管理される車両情報を表形式で示す図である。 図7はコンピュータを、図2に示すセンサ共有サーバの統合処理部として機能させるためのプログラムの制御構造を示すフローチャートである。 図8はコンピュータを、図7に示す解析結果の統合処理を実現するよう動作させるためのプログラムの制御構造を示すフローチャートである。 図9はコンピュータを、図2に示す警告報知部として動作させるためのプログラムの制御構造を示すフローチャートである。 図10は本発明の第1の実施形態による車両への警告処理を説明するための図である。 図11は本発明の第2の実施形態における、検知された動体の統合のためのある組合せ方法を説明するための図である。 図12は本発明の第2の実施形態における、検知された動体の統合のための他の組合せ方法を説明するための図である。 図13は本発明の第2の実施形態において、コンピュータを、解析結果の統合処理を実現するよう動作させるためのプログラムの制御構造を示すフローチャートである。 図14は本発明の第3の実施形態に係るセンサ共有サーバのブロック図である。 図15は第1の実施形態に係るセンサ共有サーバの外観図である。 図16は図15に示すセンサ共有サーバの内部構成を示すブロック図である。
<本開示が解決しようとする課題>
特許文献1に開示された発明は、複数のセンサの計測結果を統合することでシステム全体の性能向上を図る点で優れたものといえる。しかし、特許文献1は、個々のセンサの性能の相違及び特性を十分に考慮していないという問題がある。
例えば特許文献1には、センサとして画像センサ(カメラ等)、距離センサ(レーザレーダ)等が挙げられている。特許文献1では、これらから得た情報を統合することによりシステム全体の性能向上を目指している。しかし、例えば距離センサの場合、その出力を処理して動体の位置を検出するためには短い時間しか必要としないのに対し、画像センサから得た画像から動体の属性等を示す情報を導き出すためには、比較的長い処理時間が必要な画像処理を行う必要がある。そのため、特許文献1に開示された発明による処理速度は、結局画像センサの出力に対する画像処理により律速されてしまい、動体の位置の計測精度が十分に得られないという問題がある。
<本開示の効果>
本開示によれば、動体の管理をより精度高く行うことができる。
<本発明の実施形態の概要>
以下、本発明の実施形態の概要を列記して説明する。
(1) 本実施形態に係る動体管理装置は、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知部と、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知部と、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理部と、前記統合処理部の処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知部とを含む。
第2の動体検知部による詳細な属性情報により高い信頼性で特定の属性を持つと判定された動体について、第1の動体検知部による検知結果を用いて精度高く位置を定め追跡できる。その結果、動体の管理をより精度高く行うことができる。
(2) 本実施形態に係る動体管理装置において、前記統合処理部は、1つの前記第1の動体の位置と、1つの前記第2の動体の位置が所定の条件を充足するときに、前記1つの第1の動体と、前記1つの第2の動体とが同一か否かを判定する位置判定部と、前記位置判定部によって同一と判定された前記1つの第1の動体及び前記1つの第2の動体を統合する統合部とを含んでもよい。
統合処理部は、動体の位置に基づいて同一と判定された動体を統合する。位置計算は少ない計算量で行えるので、動体の数が多くなっても簡単な処理で高速に統合を実行できる。
(3) 本実施形態に係る動体管理装置において、前記位置判定部は、前記1つの第1の動体の前記位置と前記1つの第2の動体の前記位置に加えて、前記1つの第1の動体及び前記1つの第2の動体がそれぞれ前記第1の動体検知部及び前記第2の動体検知部により検知された時刻が所定の条件を充足するときに、前記1つの第1の動体と、前記1つの第2の動体とが一致するか否かを判定する位置・時間判定部を含んでもよい。
位置に加えて時間まで含めて同一と判定された動体を統合するので、統合結果の信頼性が高くなる。検出された位置及び時間が近接している第1の動体と第2の動体とは同一のものである可能性が非常に高いためである。
(4) 本実施形態に係る動体管理装置において、前記統合部は、前記位置判定部により同一と判定された動体の位置及び属性を、前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いて設定してもよい。
第1の動体検知部の出力と第2の動体検知部の出力との、他より優れた点を組合せるので、動体を統合した後の動体の追跡及び報知が的確に行える。
(5) 本実施形態に係る動体管理装置において、前記統合部は、
前記第1の動体検知部によって検知される前記第1の動体の数と、前記第2の動体検知部によって検知される前記第2の動体の数とが一致するか否かを判定する動体数判定部と、前記動体数判定部による結果に基づいて、統合の対象となり得る前記第1の動体と前記第2の動体とのグループを決定するグループ決定部とを含み、前記位置判定部は、前記グループ決定部により決定されたグループに含まれる1つの前記第1の動体の位置と、前記グループに含まれる1つの前記第2の動体の位置が所定の条件を充足するか否かによって、前記1つの第1の動体と、前記1つの第2の動体とが同一か否かを判定するグループ内判定部を含んでもよい。
第1の動体検知部により検知された動体と第2の動体検知部により検知された動体の数とを比較し、その結果に応じて統合方法を変える。したがって、動体の検知結果に応じて最適な方法で動体の統合を行うことができる。
(6) 本実施形態に係る動体管理装置において、前記統合処理部はさらに、前記グループ内判定部が前記グループに含まれる前記1つの第1の動体が前記グループに含まれる前記1つの第2の動体と同一であると判定せず、又は、前記グループに含まれる前記1つの第2の動体が前記グループに含まれる前記1つの第1の動体と同一であると判定しない場合に、前記1つの第1の動体及び前記1つの第2の動体に関する情報のうちで値が設定されていないものに既定の値を設定することにより統合後の動体を生成する既定値設定部を含んでもよい。
他の動体と組合されなかった動体でも統合後の解析結果に含まれるので、動体の見落としがなくなる。その結果、車両にとってより安全な動体管理を行うことができる。
(7) 本実施形態に係る動体管理装置において、前記報知部は、所定領域内の車両の位置を検知する車両位置検知部と、前記統合処理部の処理結果及び前記車両位置検知部の検知結果に基づいて、所定の属性を持つ動体を中心とする所定範囲内に位置する車両があるときに、前記車両に対して前記所定の条件を満たす動体に関する警告を報知する警告部とを含んでもよい。
所定の属性を持つ動体から所定範囲内にある車両に、適時に注意すべき動体について的確な警告を報知できる。
(8) 本実施形態に係る動体管理システムは、(1)~(7)のいずれか1つに記載の動体管理装置と、前記第1周期で周囲の物体までの距離を示す測距信号を前記第1の動体検知部に前記第1の信号として送信する第1のセンサと、前記第2周期で撮像範囲の画像を示す画像信号を前記第2の信号として前記第2の動体検知部に送信する第2のセンサとを含む。
第1のセンサ及び第2のセンサの出力を動体管理装置に送信すると、動体管理装置の第2の動体検知部による詳細な属性情報により高い信頼性で特定の属性を持つと判定された動体について、動体管理装置の第1の動体検知部による検知結果を用いて精度高く位置を定め追跡できる。その結果、動体の管理をより精度高く行うことができる。
(9) 本実施形態に係る動体管理方法は、コンピュータが、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、コンピュータが、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、コンピュータが、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、コンピュータが、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを含む。
この動体管理方法の第2の動体検知ステップによる詳細な属性情報により高い信頼性で特定の属性を持つと判定された動体について、第1の動体検知ステップによる検知結果を用いて精度高く位置を定め追跡できる。その結果、動体の管理をより精度高く行うことができる。
(10) 本実施形態に係るコンピュータプログラムは、コンピュータに、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップと、を実行させる。
このコンピュータプログラムが第2の動体検知ステップを実行して得られる詳細な属性情報により、高い信頼性で特定の属性を持つと判定された動体について、第1の動体検知ステップを実行して得られる検知結果を用いて精度高く位置を定め追跡できる。その結果、動体の管理をより精度高く行うことができる。
(11) 本実施形態に係る動体管理装置は、第1周期で周囲の物体までの距離を測定して測距信号を送信する距離センサから前記測距信号を受信し、前記第1周期より長い第2周期で撮像範囲の画像を表す画像信号を送信する撮像装置から前記画像信号を受信することが可能なように接続された受信部と、受信部が受信した情報を読取り可能に前記受信部に接続されたプロセッサとを含み、前記プロセッサは、前記測距信号に基づいて1つ以上の第1の動体を検知する第1の動体検知ステップと、前記画像信号に基づいて1つ以上の第2の動体を検知する第2の動体検知ステップと、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を前記第2周期より短い周期で実行する統合処理ステップと、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを実行するようにプログラムされている。
プロセッサが、画像信号に対して第2の動体検知ステップを実行して得られる詳細な属性情報により、高い信頼性で特定の属性を持つと判定された動体について、測距信号に対して第1の動体検知ステップを実行することにより得られる検知結果を用いて精度高く位置を定め追跡できる。その結果、動体の管理をより精度高く行うことができる。
<本発明の実施形態の詳細>
以下、図面を参照しつつ、本発明の実施形態の詳細を説明する。なお、以下に記載する実施形態の少なくとも一部を任意に組み合わせてもよい。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらの説明は繰り返さない。
なお、以下の説明では、記載を簡略にするため、コンピュータプログラムを単に「プログラム」と呼ぶ。
<第1の実施形態>
〈構成〉
図1を参照して、本発明の第1の実施形態に係る動体管理システム50は、後述する各種センサの出力を統合し、所定領域内の車両に適宜警告等を報知する処理を行うためのセンサ共有サーバ66と、所定の撮像範囲を撮像して画像信号をセンサ共有サーバ66に送信する複数のカメラ60と、周囲の所定範囲64内に存在する動体までの距離を測定し、測距信号をセンサ共有サーバ66に送信する複数のLiDAR(Laser Imaging Detection and Ranging)62とを含む。複数のカメラ60及びLiDAR62の一部は、街灯、ビル、信号柱等の社会基盤施設(インフラストラクチャー。以下「インフラ」と呼ぶ。)に取り付けられたインフラセンサであり、他の一部は車両に搭載された車両センサである。本実施形態では、センサ共有サーバ66は各インフラセンサの設置された位置を管理している。そのため、センサ共有サーバ66はLiDAR62からの測距信号及びカメラ60からの画像信号を処理することで各動体の位置を緯度と経度との組合せで計算できる。
カメラ60はセンサ共有サーバ66に対して画像信号を送信する。画像信号に含まれる情報は多く、人、車両等を広く検知できるだけではなく、人であればその位置及び姿勢、歩行中か否か、スマートフォンを持って歩いているか否か、何色の服を来ているか等の、各動体の属性を示す情報を得ることができる。しかし、これら属性情報を得るためにはセンサ共有サーバ66において画像信号に対する画像処理を行う必要があり、そのためには比較的長い時間が必要である。一方LiDAR62は、周囲を例えば指向性の高いレーザ光で周囲をスキャンし、動体により反射されたレーザ光を検知して動体までの距離を測定するものである。LiDAR62では対象物の属性としては限定されたものしかわからないが、センサ共有サーバ66において処理するための時間は短い。
動体管理システム50の目的は、複数のカメラ60のように対象物の細かい属性まで判別できるが処理には比較的長い時間を要するセンサ出力と、LiDAR62のように対象物の属性については限定的な情報しかわからないが、処理には短い時間しか必要としないセンサ出力との双方を用いて、例えばスマートフォンを見ながら歩く人68のように車両にとって危険な人物を発見したときには、その人物の移動を精度高く追跡し、必要に応じて車両に警告を送信することである。
図2を参照して、センサ共有サーバ66は、上記したように複数のインフラセンサ設備80(カメラ及びLiDARのいずれか又は双方を含む。)からの信号及び車両搭載センサ82(カメラ及びLiDARのいずれか又は双方を含む。)からの信号を受信するための受信処理部110を含む。インフラセンサ設備80の各々は、カメラ又はLiDARからなるインフラセンサ90と、インフラセンサ90の出力する信号をセンサ共有サーバ66の受信処理部110に対して送信するための通信装置92とを含む。車両搭載センサ82も同様、カメラ又はLiDARからなる車両センサ100と、車両センサ100の出力する信号をセンサ共有サーバ66の受信処理部110に向けて送信する通信装置102とを含む。
センサ共有サーバ66はさらに、受信処理部110が受信した信号のうち、LiDAR62等からの測距信号を解析することにより各動体の位置を第1周期で決定し追跡する動体追跡部112と、動体追跡部112による解析結果113を記憶するための第1の解析結果記憶部114と、受信処理部110が受信した信号のうち、カメラからの画像信号に対して画像解析を行うことにより、画像中の車両、人等の動体の属性及び位置を第2周期で決定する属性検出部116とを含む。センサ共有サーバ66はさらに、属性検出部116の解析結果117を記憶するための第2の解析結果記憶部118と、解析結果記憶部114に記憶された解析結果113と解析結果記憶部118に記憶された解析結果117とを第2周期より短い周期で繰返し統合し、統合後の解析結果125を出力する統合処理部124と、統合処理部124が出力した統合後の解析結果125を蓄積して記憶する第3の解析結果記憶部126とを含む。統合処理部124が第2周期より短い周期で統合処理を行うため、場合によっては属性検出部116による解析が間に合わないことがある。本実施形態では、そうしたときには後述する統合処理によってデータの欠損がないようにして動体の統合を行う。
解析結果113、117及び125はそれぞれ所定時間ごとに算出されるが、過去の一定時間に算出された解析結果もそれぞれ履歴として解析結果記憶部114、118及び126に蓄積され記憶されている。統合処理部124が統合処理を行うときに、解析結果記憶部126に蓄積されている過去の統合解析結果125の履歴を参照することがある。
センサ共有サーバ66はさらに、受信処理部110が各車両から受信した信号に基づいて、管理対象の車両の位置、速度及び移動方向等からなる車両情報を得るための車両追跡部120と、車両追跡部120により解析された各車両の位置、速度及び移動方向等の車両情報121を記憶するための車両情報記憶部122とを含む。センサ共有サーバ66はさらに、統合後の解析結果125の動体情報と、車両情報121とを照合し、統合後の動体情報において危険な歩行者という属性を持つ歩行者の各々について、当該歩行者から所定範囲内に位置する車両に対して警告を報知する処理を行うための警告報知部128と、警告報知部128による警告報知のための信号を対象車両に送信するための送信処理部130とを含む。
図3を参照して、図2に示す動体追跡部112の解析結果113は、管理対象となっている動体ごとに、その識別番号である動体IDと、その動体が検知された時刻と、その動体のその時刻における位置と、その動体についてLiDAR62で検出された属性とを含む。LiDAR62からの出力により得られる情報にはこれ以外の情報もあるが、ここではそれらの図示を省略している。動体追跡部112は、この解析結果113を第1周期で更新する。
位置は、経度及び緯度により特定される。インフラセンサの場合には、センサが設置された位置が予め分かっているため、センサの設置された位置の経度及び緯度と、センサに対する動体の相対位置とにより動体の経度及び緯度が特定できる。車両センサの場合には、車両に搭載されているGPS(Global Positionig System)及びその補正手段による緯度・経度の測定結果を基準に用いることができる。
LiDAR62は基本的に対象動体との距離を測定するためのものであるため、図3に示す属性はこの信号から判定できる限られた情報のみであり、例えば、人、一般車両、大型車両等の区別に限定されている。なお、動体IDは、センサ共有サーバ66が検出した動体を管理するためのものである。したがってセンサ共有サーバ66の管理する領域内で新たな動体が検知されるとその動体に新たなIDが割り当てられる。またセンサ共有サーバ66の管理する領域からある動体が離脱すると、本実施形態ではそのIDの割り当てが解消する。動体IDは以後の図4及び図5においても同様である。ただし、図3及び図4に示す動体IDは互いに無関係である。また図5に示す動体IDは処理の仕方により様々であるが、本実施形態では、後述するように図3又は図4に示すものとは無関係となる。
図4を参照して、図2に示す属性検出部116の解析結果117は、解析結果113と同様、管理対象となっている動体ごとに、その識別番号である動体IDと、その動体が検知された時刻と、その動体のその時刻における位置と、その動体についてカメラ60からの画像信号を画像処理することで検出された属性とを含む。カメラ60の出力する画像は所定の撮像範囲の画像を含む。したがって、適切な画像処理を行うことにより、各動体について解析結果113よりも詳細な属性、例えば人であれば、大人と子供の区別、着用している衣服の色彩、歩行しているか否か、等の属性を得ることができる。本実施形態で特に用いるのは、いわゆる「歩きスマホ」をしている人、予測できないような動きをする子供、小さい子供と大人との2人連れ、子供又は老人が運転している自転車等、車両の運転者にとって特に注意すべき動体であることを示す属性である。なお、カメラ60に対する画像解析の結果得られる情報はこれ以外にも存在するが、図4では図示を省略してある。また、解析結果117は、画像処理に時間がかかるため第1周期より長い第2周期で更新される。
図5を参照して、図2に示す統合処理部124の解析結果125の構成自体は、図3に示す解析結果113及び図4に示す解析結果117と同様で、動体IDと、その動体が検知された時刻と、その時刻のその動体の位置と、その動体の属性とを含む。解析結果125が解析結果113とも解析結果117とも異なるのは、解析結果113と解析結果117とを統合したことにより、各動体の位置はLiDAR62等により検知されたときの位置であるのに対し、各動体の属性はその動体についてカメラ60等により検出された詳細な属性となっている点である。解析結果113と解析結果117との統合を行う手法については後述する。解析結果125は、統合処理ごとに作成され、蓄積される。
図6を参照して、図2に示す車両追跡部120が管理する車両情報121は、車両IDと、その車両が検知された時刻と、その車両が検知されたときのその車両の位置と、そのときのその車両の進行方向と、そのときの速度とを含む。車両の位置としては、車両に搭載されているGPS及びその補正手段による測定結果を用いる。これらの情報から、その車両がある一定時間の間に移動する距離と、そのときの位置とが推定できる。この車両IDも、図3、図4、及び図5に示す動体IDとは無関係であり、センサ共有サーバ66が管理する領域に車両が進入したことが検知されたときにその車両に割り当てられ、車両がその領域から離脱したときに割り当てが解消される。
図7を参照して、図2に示す統合処理部124をコンピュータにより実現するためのプログラムは、NTP(Network Time Protocol)サーバ等から現時刻を取得するステップ150と、ステップ150において取得された時刻を基準として、解析を開始する時刻(解析開始時刻)を現時刻から所定時間前に設定するステップ152と、図3に示す解析結果113及び図4に示す解析結果117から、解析開始時刻から現時刻までの範囲に入る時刻情報を持つレコードを抽出するステップ154とを含む。ここで抽出された各レコードには、そのレコードが解析結果113から抽出されたものか、解析結果117から抽出されたものかを示す情報を付しておく。
このプログラムはさらに、ステップ154において、抽出されたレコードの位置情報の差及び時間的な差(検知された時刻の相違)により計算される動体間の距離が所定のしきい値内である動体同士をグルーピングするステップ156と、ステップ156でグルーピングされた各グループについて、後述する処理160を実行するステップ158とを含む。なお、このしきい値は比較的小さな値であることが望ましい。また、ステップ156のグルーピングでは、他の全ての動体との距離がしきい値より大きい動体が生じ得る。そうした場合にはその動体のみを構成要素とするグループを形成する。なお、ここでいう距離とは、ユークリッド距離であるものとするが、これ以外にも数学的な距離の定義に適合するものであればどのようなものでも使用できる。例えば位置の場合には単にその絶対値の和を計算して距離としてもよい。また、ここでは時間と位置との双方をまとめて距離を計算した。このように距離を計算することで統合処理がより正確となる。しかしこれに限らず、それぞれについて距離を計算した後にその和を最終的な距離として用いても良い。
位置に加えて時間まで含めて同一と判定された動体を統合するので、統合結果の信頼性が高くなる。検出された位置及び時間が近接している動体は同一のものである可能性が非常に高いためである。
さらに、位置情報のみを用いて距離を計算してもよい。この場合には動体の位置に基づいて同一と判定された動体を統合する。位置計算は少ない計算量で行えるので、動体の数が多くなっても簡単な処理で高速に統合を実行できる。
処理160は、処理対象のグループに対し、解析結果113と解析結果117とを統合する処理を実行するステップ170と、ステップ170の解析結果(統合解析結果)125を図2に示す解析結果記憶部126に出力するステップ172とを含む。
図8を参照して、図7に示すステップ170を実現するプログラムは、LiDAR62等で検知した動体の個数がカメラ60等で検知した動体の個数と等しいか否かを判定するステップ200と、ステップ200の判定が肯定ならLiDAR62により検知された動体とカメラ60により検知された動体のうち、最も近接する動体同士を統合し解析結果125として出力し処理を終了するステップ202とを含む。ここでの統合では、位置としてLiDAR62の検出結果を用い、属性としてはカメラ60の検出結果を用いる。位置情報についてはLiDAR62の方が短い間隔で精度高く検出できるのに対し、属性に関してはカメラ60からの検出結果の方が詳細だからである。このような組合せにより、統合結果はより的確に動体の位置及び属性を表現することになる。なお、このプログラムは、第2周期より短く第1周期以上の周期で実行される。第1周期で実行すれば動体の位置を精度高く追跡できて好ましい。この場合、属性検出部116による動体検知の更新が間に合わないことがあり得る。しかしその場合には、直前に属性検出部116により検知された動体の情報がそのまま用いられるため、統合処理に支障はない。
動体追跡部112の出力と属性検出部116の出力との、他より優れた点を組合せるので、動体を統合した後の動体の追跡及び報知が的確に行える。
このプログラムはさらに、ステップ200の判定が否定のときに実行され、LiDAR62が検知した動体の個数がカメラ60の検知した動体の個数より多いか否かを判定するステップ204と、ステップ204の判定が肯定であるときに、カメラ60により検知された動体の各々に対し、LiDAR62により検知された動体のうちで最も近接する動体を統合して解析結果125として出力するステップ206と、ステップ206の後に実行され、LiDAR62が検知した動体の内で残った動体の各々について、1サイクル前の統合後の解析結果の中で、この動体の位置と最も近接しておりかつその値が所定しきい値より小さかった動体があるか否かを判定するステップ207と、ステップ207の判定が肯定であるときに、その動体を抽出し、その属性情報をLiDAR62により得られた情報の属性情報に代入することで両者の情報を統合して統合後の解析結果125として出力し処理を終了するステップ208と、ステップ207の判定が否定であるときに、LiDAR62から得られた動体の情報をそのまま使用して統合後の解析結果125として出力し処理を終了するステップ209とを含む。
このプログラムはさらに、ステップ204の判定が否定のときに、LiDAR62により検知された動体の各々に、カメラ60により検知された動体の内で最も近接したものを統合して解析結果125として出力するステップ210と、ステップ210の後、カメラ60の検知した動体のうち残ったものを解析結果125として出力し処理を終了するステップ212とを含む。この際、この動体に関して画像から得られた情報は全て統合後の動体の情報に引き継がれる。ステップ208の処理により、例えばある動体に画像処理により得られた属性情報が付された場合、その後にその動体がカメラには捉えられなかったとしてもその属性情報が引き継がれる。したがって、カメラによる画像が得られずLiDAR62による情報しか得られないところでも、特定の属性を持つ動体を追跡することが可能になる。
以上のように本実施形態では、LiDAR62により検知された動体の数とカメラ60により検知された動体の数とを比較し、その結果に応じて異なる処理をしている。こうすることで動体の検知結果に応じて最適な方法で動体の統合が行え、処理が簡単になり、かつオクルージョン等で動体の数が一時的に一致しなくなっても処理を正常に継続できる。
また、上記方法では他の動体と組合されなかった動体でも統合後の解析結果に含まれる。その結果、動体の見落としがなくなり、車両にとってより安全な動体管理を行うことができる。
図9を参照して、図2に示す警告報知部128を実現するプログラムは、統合した結果の中で属性として危険な歩行者等、車両にとって注意すべき属性を持つ動体を検索するステップ240と、ステップ240に続き、検索された各動体について、処理244を実行するステップ242とを含む。
処理244は、図6に示す車両情報121の中で、その危険歩行者等の動体から所定距離内に位置し、かつその動体に接近中の車両を検索するステップ250と、ステップ250で検索された各車両に対して危険歩行者の接近を報知する警告を送信するステップ252とを含む。
<動作>
この第1の実施形態に係る動体管理システム50は以下のように動作する。図1を参照して、動体管理システム50の複数のカメラ60は、それぞれ所定の撮像範囲を撮像して画像信号をセンサ共有サーバ66に送信する。複数のLiDAR62は、それぞれ周囲の所定範囲内に存在する動体までの距離を測定し、測距信号をセンサ共有サーバ66に送信する。
図2を参照して、センサ共有サーバ66の受信処理部110は、上記したように複数のインフラセンサ設備80からの信号及び車両搭載センサ82からの信号を受信し、LiDAR62からの信号を動体追跡部112に与え、カメラ60からの画像信号を属性検出部116に与える。一方、受信処理部110は、車両センサ100から受信した情報のうち、車両の位置、速度及び進行方向を示す情報を車両追跡部120に与える。車両追跡部120は受けた情報に基づいて図6に示す車両情報121を生成し、管理する。
センサ共有サーバ66の動体追跡部112は、受信処理部110から受けたLiDAR62等からの測距信号を解析することにより、各動体の位置を第1周期で決定する。この解析に要する時間は短く、第1周期で解析結果113が更新される。属性検出部116は、受信処理部110から受けた画像信号に対して画像解析を行うことにより、画像中の車両、人等の動体の属性及び位置を決定する。画像処理には時間がかかるため、属性検出部116による属性検出の周期は動体追跡部112による解析結果113の更新周期より長い第2周期となる。属性検出部116の解析結果117は解析結果記憶部118に格納される。
図7に示すプログラムは一定間隔で繰り返して起動される。ステップ150で現時刻を取得し、ステップ152で現時刻より所定時間前の解析開始時間を計算する。続いてステップ154で、図3に示す解析結果113及び図4に示す解析結果117から、解析開始時刻から現時刻までの範囲に入る時刻情報を持つレコードを抽出する。ここで抽出された各レコードには、そのレコードが解析結果113から抽出されたものか、解析結果117から抽出されたものかを示す情報を付しておく。
このプログラムはさらに、ステップ156において、ステップ154で抽出されたレコードにより示される動体の間の距離がしきい値以内となるものをグルーピングする。続くステップ158で、グルーピングされた各グループについて、解析結果113と解析結果117とを統合する処理を実行する(ステップ170)。具体的には以下の処理が実行される。
図8を参照して、ステップ200において、LiDAR62等で検知した動体の個数がカメラ60等で検知した動体の個数と等しいか否かを判定する。ステップ200の判定が肯定であるときには、ステップ202においてLiDAR62により検知された動体とカメラ60により検知された動体のうち、最も近接する動体同士を統合した新たな動体の情報を統合後の解析結果125として出力する。この統合処理では、位置情報としてはLiDAR62からの解析結果113側の情報を用い、属性情報としてはカメラ60からの解析結果117側の情報を用いる。図示していないこれら以外の要素については、それぞれ予め定められた既定の情報を採用する。
ステップ200の判定が否定のときには、LiDAR62が検知した動体の個数がカメラ60の検知した動体の個数より多いか否かを判定するステップ204が実行される。ステップ204の判定が肯定であれば、ステップ206で、カメラ60により検知された動体の各々に対し、LiDAR62により検知された動体のうちで最も近接する動体を統合して出来た新たな動体の情報を統合後の解析結果125として出力する。ステップ206に続き、LiDAR62が検知した動体の内で残った動体について、前のサイクルの統合処理により検知された動体のうちで、その位置とこの動体の位置との差が最も小さく、かつその値がしきい値以下のものがあるか否かをステップ207で判定する。ステップ207の判定が肯定であれば、ステップ208でその動体の属性情報をLiDAR62により得られた情報に統合してできる新たな動体の情報を統合後の解析結果125として出力し処理を終了する。ステップ207の判定が否定であれば、LiDAR62により検知された動体のみの情報を用いて統合後の動体の情報を作成し、解析結果125として出力し処理を終了する。
一方、ステップ204の判定が否定のときには、ステップ210で、LiDAR62により検知された動体の各々に、カメラ60により検知された動体の内で最も近接したものを統合して解析結果125として出力する。ステップ210の後、カメラ60の検知した動体のうちで残ったものを解析結果125として出力する。この際、この動体に関して画像から得られた情報は全て統合後の動体の情報に引き継がれる。ステップ208及びステップ212の双方において、組合せられる相手側から得られる筈だった情報については、相手が存在しないので、既定値(例えば空欄)に設定される。このように組合せる相手が存在していないときでも、一方のみからの情報で統合結果を作成することにより、一時的なオクルージョンが原因で、検出された動体数が不一致になっても動作を継続できる。
以上のようにして、図7のステップ170に示す解析結果の統合処理が行われると、続くステップ172でステップ170の処理結果(統合解析結果)を図2に示す解析結果125として出力する。
以上のステップ170および172からなる処理160が各グループに対して実行される。この結果、統合後の解析結果125(図2及び図5を参照)が生成される。
以上の処理が所定時間ごとに繰り返されることにより、図5に示す解析結果125は、LiDAR62等の出力に対する解析結果とカメラ60からの画像信号に対する画像処理の結果得られる解析結果とが互いに統合された形で記録され管理される。この場合、位置情報にはLiDAR62からの出力に基づいて検出された情報が用いられる。したがって各動体の位置は第1の周期という比較的短い周期で更新され、各移動体の位置に関する情報の精度が高くなる。一方、カメラ60の出力する画像信号から得られる各動体の属性に関する情報は、解析結果125の属性に反映される。この属性の更新は第1の周期より低い第2の周期で行われるが、LiDAR62により検知される属性と比較してより詳細である。したがって、この統合後の解析結果125により、正確な属性にしたがって特定した動体の位置を、精度高く追跡することが可能になる。
この解析結果125を利用して車両に対する警告を報知するのが図2に示す警告報知部128である。図9を参照して、このプログラムは、ステップ240により、統合した結果の中で属性として危険な歩行者等、車両にとって注意すべき属性を持つ動体を検索する。続くステップ242で、その危険歩行者等の各々について、処理244を実行する。処理244のステップ250では、処理対象の危険歩行者等から所定距離内に位置し、かつその動体に接近中の車両を検索する。続くステップ252で、検索された各車両に対して危険歩行者の接近を報知する警告を図2に示す送信処理部130を介して送信する。
-本実施形態の効果-
図10を参照して、例えばセンサ共有サーバ66の管理する領域280を考える。領域280には複数のカメラ290、292、294、296、298、300及び302と、LiDAR304を初めとする複数のLiDARが存在する。ここでは説明を分かりやすくするため、LiDARとしてはLiDAR304のみが存在するものとする。
カメラ294とLiDAR304の検知範囲が重複する領域306内の位置308で例えばLiDAR304、カメラ294により歩行者が検知されたものとする。これらから得られる情報は統合され、図5に示す解析結果125のような形で管理される。カメラ294の出力を画像処理することにより、この歩行者が危険な歩行者であることが判定されたものとする。すると、この歩行者に対応する動体に関する統合情報には、危険歩行者であることを示す属性が付される。
一方、この歩行者が位置310を介して位置312に移動する間、カメラの画像情報が得られなかったものとする。この場合でも、統合情報に付された属性は引き継がれるため、LiDAR304からの情報しか得られなくてもこの特定の動体を追跡しながら、その動体が特定の属性を持つと判定できる。
そこで例えば歩行者が位置314まで移動したとき、カメラ302による画像処理が間に合わなくても、この歩行者が危険な属性を持つことがセンサ共有サーバ66では判定できる。したがって、歩行者の位置314から所定の範囲322(例えば位置314を中心とする半径Rの範囲)内にいる車両又はこの範囲322に向けて移動中の車両324等に対して、注意すべき歩行者がいることを示す警告326を的確に送信できる。
以上のように本実施形態によれば、短い周期で処理可能だが詳細な属性が得られないLiDAR62からの測距信号により検知した動体と、より長い周期でしか処理できないが、より詳細な属性を検出できるカメラ60等からの画像信号を画像処理することにより検知した動体とを統合する。この際、位置情報についてはLiDAR62から得られたものを用い、属性についてはカメラ60から得られたものを用いる。したがって、高い信頼性で動体の属性を検出すると同時に、その位置についての高い精度で検出できる。そのため、周囲の車両等に対して、注意すべき動体に関する的確な報知を行うことができる。その結果、本実施の形態に係るシステムは、一般的には車両の運転支援に利用でき、特にある領域内で注意を要する動体に関する注意喚起を行うことにより、車両の安全な運行管理に利用できる。
<第2の実施形態>
第1の実施形態では、LiDAR62から得られた動体と、カメラ60から得られた動体の位置との差が所定のしきい値以下の場合、その中で最も近接した動体同士を統合している。しかしこの場合、統合の仕方によっては統合の誤りが発生する可能性がある。
図11を参照して、例えば、LiDAR62から得られた動体340及び342と、カメラ60から得られた動体344及び346とにおいて、動体340と動体344、動体340と動体346、動体342と動体344及び動体346のいずれにおいてもしきい値以下の場合には図11と図12の2つの組合せ方が生じる。図11の場合には、動体340と動体344が組み合わされ、動体342と動体346とが組み合わされている。一方図12の場合には、動体340と動体346とが組み合わされ、動体342と動体344とが組み合わされている。こうした場合の組合せ方としては、図11の方が妥当と考えられるが、動体342と動体344とを先に組合せた場合、図12のようになってしまうという可能性がある。本実施形態は、こうした可能性をできるだけ排除するためのものである。具体的には、本実施形態では、図11に示すような状態が発生した場合、可能な組合せの全てについて、組合せる対象となる動体の間の距離の自乗の和を計算し、その値が最も小さくなるような組合せを採用する。
この第2の実施形態に係るセンサ共有サーバにおいては、図8に示すプログラムに替えて図13に示す制御構造を持つプログラムを採用する。図13を参照して、このプログラムは、LiDARにより検知された動体とカメラにより検知された動体との間の距離がしきい値以下となっているグループの各々に対して実行されるものである。このプログラムは、LiDARにより検知された動体とカメラにより検知された動体との可能な組合せを全て計算するステップ350と、ステップ350で計算された全ての組合せについて、LiDARにより検知された動体とカメラにより検知された動体とで組み合わされたものの間の距離の自乗の和を計算し、その値が最小となる組合せを採用するステップ352と、ステップ352で採用された組合せにしたがった動体の組合せを統合後の解析結果に出力するステップ354とを含む。この処理により、LiDARにより検知された動体とカメラにより検知された動体との間で組合せ可能なものは全て組合される。
このプログラムはさらに、ステップ354の後、処理対象のグループのうちでLiDARにより検知された動体の個数とカメラにより検知された動体の個数が等しいか否かを判定し、判定が肯定ならこのプログラムの実行を終了するステップ356と、ステップ356の判定結果が否定の時に、LiDARにより検知された動体の個数がカメラにより検知された動体の個数より多いか否かを判定するステップ358とを含む。このプログラムはさらに、ステップ358の判定が肯定のときに実行され、LiDARの検知した動体の内で他の動体と組合されなかった動体の各々について、1ステップ前の統合結果の履歴内においてこの動体の位置と近接する位置にあり、かつその値が所定のしきい値以内の動体があるか否かを判定するステップ359と、ステップ359の判定が肯定であれば、その動体の属性情報をLiDARにより得られた情報の属性情報に代入して新たな動体の情報を統合後の解析結果に出力するステップ360とを含む。このプログラムはさらに、ステップ359の判定が否定であれば、LiDARの情報のみを用いて統合後の動体の情報を作成し統合後の解析結果に出力するステップ361と、ステップ358の判定が否定のときに、残ったカメラ検知動体の情報を用いて新たな統合後の情報を生成し統合後の解析結果に出力するステップ362とを含む。
この第2の実施の形骸によれば、図11又は図12のようなケースが発生したときにも、LiDARの検知した動体とカメラの検知した動体との、もっとも好ましい(正しい可能性が高い)組合せを得ることができる。その結果、危険な属性が付与された動体について精度高く追跡できる。
<第3の実施形態>
第1及び第2の実施形態では、LiDARによる検知動体とカメラによる検知動体とを統合する際に、インフラセンサからの情報だけでなく車両センサからの情報を用いている。こうすることにより、インフラセンサが存在しない領域でも移動中の動体を検知できる可能性が高い。しかし本発明はそのような実施形態には限定されない。インフラセンサからの情報のみを用いることも考えられる。第3の実施形態はそのような実施形態である。
図14を参照して、この第3の実施形態に係るセンサ共有サーバ380は、図2に示す受信処理部110に替えて、インフラセンサ設備80からの信号を受信し、インフラセンサ設備80の内のLiDARからの信号を動体追跡部112に、カメラからの画像信号を属性検出部116に、それぞれ与えるための第1の受信処理部390と、車両搭載センサ82からの信号を受信し、車両追跡部120に与えるための第2の受信処理部392とを含む。
このセンサ共有サーバ380では、注意すべき動体の検知及びその追跡は、インフラセンサ設備80からの信号のみによって行われる。その他の点ではセンサ共有サーバ380はセンサ共有サーバ66と同じ構成を持ち、同じプログラムで動作する。したがってそれらについての詳細な説明は繰り返さない。
この第3の実施形態によれば、予めインフラセンサの位置が分かっているため、例えば画像信号から固定的な背景を削除して画像処理の速度を上げたり、2つのカメラからの画像を用いて動体の位置及び属性の検知精度を高めたりすることができるという効果がある。また、重要な地点のみ、複数のセンサを配置しておくことで、ある領域については効率的に動体の検知を行うことができるという効果がある。ただしこの実施形態では、インフラセンサが設置されていない領域では動体の検知及び追跡が不可能になるという欠点もある。
[コンピュータによる実現]
この発明の上記実施形態に係る動体管理システム50及びその構成要素は、プロセッサを含むコンピュータハードウェアと、そのコンピュータハードウェアにより実行されるプログラムと、コンピュータハードウェアに格納されるデータとにより実現される。図15はこのコンピュータシステム430の外観を示し、図16はコンピュータシステム430の内部構成を示す。
図15を参照して、このコンピュータシステム430は、DVD(Digital Versatile Disc)ドライブ450を有するコンピュータ440と、キーボード446と、マウス448と、モニタ442とを含む。
図16を参照して、コンピュータ440は、DVDドライブ450に加えて、CPU(Central Processing Unit:中央処理装置)456と、GPU(Graphic Processing Unit)457と、CPU456、GPU457、DVDドライブ450に接続されたバス466と、ブートアッププログラム等を記憶する読出専用メモリ(ROM)458と、バス466に接続され、プログラム命令、システムプログラム、および作業データ等を記憶するランダムアクセスメモリ(RAM)460と、不揮発性メモリであるハードディスクドライブ(HDD)454を含む。コンピュータシステム430はさらに、他端末との通信を可能とするネットワーク468への接続を提供するネットワークインターフェイス(I/F)444を含む。
上記各実施形態では、図2に示す解析結果113、117及び125、並びに車両情報121等は、いずれもHDD454又はRAM460に記憶される。すなわち、HDD454、RAM460により解析結果記憶部114、118及び126、並びに車両情報記憶部122等が実現される。
コンピュータシステム430に動体管理システム50及びその構成要素の機能を実現させるためのコンピュータプログラムは、DVDドライブ450に装着されるDVD462に記憶され、DVDドライブ450からHDD454に転送される。又は、プログラムはネットワーク468を通じてコンピュータ440に送信されHDD454に記憶されてもよい。プログラムは実行の際にRAM460にロードされる。DVD462から、又はネットワークを介して、直接にRAM460にプログラムをロードしてもよい。
このプログラムは、コンピュータ440にこの実施形態の動体管理システム50のセンサ共有サーバ66及びセンサ共有サーバ380として動作を行なわせる複数の命令を含む。この動作を行なわせるのに必要な基本的機能のいくつかはコンピュータ440上で動作するオペレーティングシステム(OS)若しくはサードパーティのプログラム、又はコンピュータ440にインストールされる各種ツールキットのモジュールにより提供される。したがって、このプログラムはこの実施形態のシステムおよび方法を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能又は「プログラミング・ツール・キット」を呼出すことにより、上記した動体管理システム50及びその構成要素としての動作を実行する命令のみを含んでいればよい。コンピュータシステム430の動作は周知であるので、ここでは繰返さない。なお、GPU457は並行処理を行うことが可能であり、多くの動体に関する統合処理を同時並行的に実行する際に有効に機能する。
[変形例]
以上の説明は、以下に付記する特徴を含む。
付記1
1以上の第1の動体を検知可能な第1の動体検知部の直前の所定回数の検知結果を履歴として記憶する第1の履歴記憶部と、
1以上の第2の動体を検知可能な第2の動体検知部の直前の所定回数の検知結果を履歴として記憶する第2の履歴記憶部とをさらに含み、
統合処理部は、第1及び第2の動体検知部の最新の検知結果と、前記第1の履歴記憶部及び前記第2の履歴記憶部に記憶された直前のそれぞれ所定回数の検知結果とに基づいて1つの前記第1の動体と1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い第3周期で実行する時間を考慮した時間・空間的統合処理部を含む。
時間・空間的統合処理部により、同一の動体の検知がより正確に行える。第1の動体検知部が検知した動体と、第2の動体検知部が検知した動体とが空間的に近傍に存在しているだけでなく、両者が検出された時刻が近接している場合には、両者が同一の動体である可能性が非常に高いためである。また、空間的に複数の動体が検出されたときには、それらの時間的な軌跡が分かれば、最新の検出時に2つの動体を区別できる可能性が高くなるためである。
上記実施形態では、センサとしてLiDAR及びカメラの2種類のみを用いている。しかし本発明はそのような実施形態には限定されない。測距センサとしては赤外線によるものを用いても良い。又、カメラをステレオカメラにすれば、カメラによる位置検知の精度をより高くできる。
今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
50 動体管理システム
60、290、292、294、296、298、300、302 カメラ
62、304 LiDAR
66、380 センサ共有サーバ
80 インフラセンサ設備
82 車両搭載センサ
90 インフラセンサ
92、102 通信装置
100 車両センサ
110、390、392 受信処理部
112 動体追跡部
113、117、125 解析結果
114、118、126 解析結果記憶部
116 属性検出部
120 車両追跡部
121 車両情報
122 車両情報記憶部
124、394 統合処理部
128 警告報知部
130 送信処理部
150、152、154、156、158、170、172、200、202、204、206、207、208、209、210、212、240、242、250、252、350、352、354、356、358、359、360、361、362 ステップ
160、244 処理
306 領域
308、310、312、314 位置
322 所定の範囲
324 車両
326 警告
340、342、344、346 動体
430 コンピュータシステム
440 コンピュータ
442 モニタ
444 ネットワークI/F
446 キーボード
448 マウス
450 DVDドライブ
454 ハードディスク
456 CPU
457 GPU
458 ROM
460 RAM
462 DVD
466 バス
468 ネットワーク

Claims (10)

  1. 外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知部と、
    外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知部と、
    1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理部と、
    前記統合処理部の処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知部とを含み、
    前記統合処理部は、同一と判定された動体の位置及び属性を、前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いてそれぞれ設定する、動体管理装置。
  2. 前記統合処理部は、
    前記1つの第1の動体の位置と、前記1つの第2の動体の位置が所定の条件を充足するか否かにより、前記1つの第1の動体と、前記1つの第2の動体とが同一か否かを判定する位置判定部と、
    前記位置判定部によって同一と判定された前記1つの第1の動体及び前記1つの第2の動体の位置及び属性、それぞれ前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いて設定することにより統合する統合部とを含む、請求項1に記載の動体管理装置。
  3. 前記位置判定部は、前記1つの第1の動体の前記位置と前記1つの第2の動体の前記位置に加えて、前記1つの第1の動体及び前記1つの第2の動体がそれぞれ前記第1の動体検知部及び前記第2の動体検知部により検知された時刻が所定の条件を充足するか否かにより、前記1つの第1の動体と、前記1つの第2の動体とが一致するか否かを判定する位置・時間判定部を含む、請求項2に記載の動体管理装置。
  4. 前記位置判定部は、
    前記第1の動体検知部によって検知される前記第1の動体の数と、前記第2の動体検知部によって検知される前記第2の動体の数とが一致するか否かを判定する動体数判定部と、
    前記動体数判定部による結果に基づいて、統合の対象となり得る前記第1の動体と前記第2の動体とのグループを決定するグループ決定部と、
    記グループ決定部により決定されたグループに含まれる1つの前記第1の動体の位置と、前記グループに含まれる1つの前記第2の動体の位置が所定の条件を充足するか否かによって、前記1つの第1の動体と、前記1つの第2の動体とが同一か否かを判定するグループ内判定部を含む、請求項2に記載の動体管理装置。
  5. 前記統合処理部はさらに、前記グループ内判定部が前記グループに含まれる前記1つの第1の動体が前記グループに含まれる前記1つの第2の動体と同一であると判定せず、又は、前記グループに含まれる前記1つの第2の動体が前記グループに含まれる前記1つの第1の動体と同一であると判定しない場合に、前記1つの第1の動体及び前記1つの第2の動体に関する情報のうちで値が設定されていないものに既定の値を設定することにより統合後の動体を生成する既定値設定部を含む、請求項に記載の動体管理装置。
  6. 前記報知部は、
    所定領域内の車両の位置を検知する車両位置検知部と、
    前記統合処理部の処理結果及び前記車両位置検知部の検知結果に基づいて、所定の属性を持つ動体を中心とする所定範囲内に位置する車両があるときに、前記車両に対して前記所定の条件を満たす動体に関する警告を報知する警告部とを含む、請求項1から請求項のいずれか1項に記載の動体管理装置。
  7. 請求項1から請求項のいずれか1項に記載の動体管理装置と、
    前記第1周期で周囲の物体までの距離を示す測距信号を前記第1の動体検知部に前記第1の信号として送信する第1のセンサと、
    前記第2周期で撮像範囲の画像を示す画像信号を前記第2の信号として前記第2の動体検知部に送信する第2のセンサとを含む動体管理システム。
  8. コンピュータが、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、
    コンピュータが、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、
    コンピュータが、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、
    コンピュータが、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを含み、
    前記統合処理ステップにおいては、コンピュータが、同一と判定された動体の位置及び属性を、前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いてそれぞれ設定する、動体管理方法。
  9. コンピュータに、
    外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、
    外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、
    1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、
    前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップと、を実行させるためのコンピュータプログラムであって、
    前記統合処理ステップにおいては、同一と判定された動体の位置及び属性を、前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いてそれぞれ設定する処理をコンピュータに実行させる、コンピュータプログラム
  10. 第1周期で周囲の物体までの距離を測定して測距信号を送信する距離センサから前記測距信号を受信し、前記第1周期より長い第2周期で撮像範囲の画像を表す画像信号を送信する撮像装置から前記画像信号を受信することが可能なように接続された受信部と、
    前記受信部が受信した情報を読取り可能に前記受信部に接続されたプロセッサとを含み、
    前記プロセッサは、
    前記測距信号に基づいて1つ以上の第1の動体を検知する第1の動体検知ステップと、
    前記画像信号に基づいて1つ以上の第2の動体を検知する第2の動体検知ステップと、
    1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を前記第2周期より短い周期で実行する統合処理ステップと、
    前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを実行するようにプログラムされており、
    前記プロセッサは、前記統合処理ステップにおいては、同一と判定された動体の位置及び属性を、前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いてそれぞれ設定するようにプログラムされている、動体管理装置。
JP2020510659A 2018-03-29 2019-03-15 動体管理装置、動体管理システム、動体管理方法、及びコンピュータプログラム Active JP7294323B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018063865 2018-03-29
JP2018063865 2018-03-29
PCT/JP2019/010894 WO2019188429A1 (ja) 2018-03-29 2019-03-15 動体管理装置、動体管理システム、動体管理方法、及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JPWO2019188429A1 JPWO2019188429A1 (ja) 2021-04-15
JP7294323B2 true JP7294323B2 (ja) 2023-06-20

Family

ID=68058827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020510659A Active JP7294323B2 (ja) 2018-03-29 2019-03-15 動体管理装置、動体管理システム、動体管理方法、及びコンピュータプログラム

Country Status (2)

Country Link
JP (1) JP7294323B2 (ja)
WO (1) WO2019188429A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022034571A (ja) * 2018-11-26 2022-03-04 住友電気工業株式会社 交通情報処理サーバ、交通情報の処理方法、及びコンピュータプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038640A (ja) 2002-07-04 2004-02-05 Nissan Motor Co Ltd 車両用外界認識装置
JP2007187618A (ja) 2006-01-16 2007-07-26 Omron Corp 物体識別装置
JP2009110172A (ja) 2007-10-29 2009-05-21 Fuji Heavy Ind Ltd 物体検出装置
JP2015219721A (ja) 2014-05-16 2015-12-07 本田技研工業株式会社 動作支援システム及び物体認識装置
JP2016018413A (ja) 2014-07-09 2016-02-01 富士通テン株式会社 車両用装置、車両制御システム、車両制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038640A (ja) 2002-07-04 2004-02-05 Nissan Motor Co Ltd 車両用外界認識装置
JP2007187618A (ja) 2006-01-16 2007-07-26 Omron Corp 物体識別装置
JP2009110172A (ja) 2007-10-29 2009-05-21 Fuji Heavy Ind Ltd 物体検出装置
JP2015219721A (ja) 2014-05-16 2015-12-07 本田技研工業株式会社 動作支援システム及び物体認識装置
JP2016018413A (ja) 2014-07-09 2016-02-01 富士通テン株式会社 車両用装置、車両制御システム、車両制御方法

Also Published As

Publication number Publication date
JPWO2019188429A1 (ja) 2021-04-15
WO2019188429A1 (ja) 2019-10-03

Similar Documents

Publication Publication Date Title
US10740658B2 (en) Object recognition and classification using multiple sensor modalities
US10520904B2 (en) Event classification and object tracking
JP6494719B2 (ja) 交通信号マップ作成及び検出
US11915099B2 (en) Information processing method, information processing apparatus, and recording medium for selecting sensing data serving as learning data
US10077054B2 (en) Tracking objects within a dynamic environment for improved localization
US10317901B2 (en) Low-level sensor fusion
KR102338370B1 (ko) 센서를 이용하여 획득한 공간 정보를 활용하는 차량 및 센싱 장치, 그리고 이를 위한 서버
JP5886439B2 (ja) ジオフェンス管理のための方法および/または装置
JP2020115322A (ja) 車両位置推定のためのシステムおよび方法
US11408739B2 (en) Location correction utilizing vehicle communication networks
EP4105908A1 (en) Method, apparatus, server, and computer program for collision accident prevention
CN113959457B (zh) 一种自动驾驶车辆的定位方法、装置、车辆和介质
US10109191B2 (en) Method of quickly detecting road distress
CN114274972A (zh) 自主驾驶环境中的场景识别
US20180107946A1 (en) Alert output apparatus
JP7167696B2 (ja) 関係情報作成装置、交通制御システム、関係情報作成方法およびコンピュータプログラム
JP7294323B2 (ja) 動体管理装置、動体管理システム、動体管理方法、及びコンピュータプログラム
JP2016153832A (ja) 地図データ記憶装置、制御方法、プログラム及び記憶媒体
JP2019106166A (ja) 情報処理方法、情報処理装置およびプログラム
US11679771B2 (en) Vehicle event identification
JP2019158762A (ja) 異常検出装置、異常検出方法および異常検出システム
JP7069944B2 (ja) 環境検出装置、環境検出システム、環境検出方法、及びコンピュータプログラム
US20220319322A1 (en) Drive assist apparatus and drive assist method
US20190188599A1 (en) Information processing method, information processing apparatus, and program
CN113721235B (zh) 对象状态确定方法、装置、电子设备以及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230522

R150 Certificate of patent or registration of utility model

Ref document number: 7294323

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150