JP6790417B2 - 情報処理装置及び情報処理サーバ - Google Patents

情報処理装置及び情報処理サーバ Download PDF

Info

Publication number
JP6790417B2
JP6790417B2 JP2016070596A JP2016070596A JP6790417B2 JP 6790417 B2 JP6790417 B2 JP 6790417B2 JP 2016070596 A JP2016070596 A JP 2016070596A JP 2016070596 A JP2016070596 A JP 2016070596A JP 6790417 B2 JP6790417 B2 JP 6790417B2
Authority
JP
Japan
Prior art keywords
information
information processing
map
unit
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016070596A
Other languages
English (en)
Other versions
JP2017181870A (ja
Inventor
啓 福井
啓 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016070596A priority Critical patent/JP6790417B2/ja
Priority to CN201680083931.XA priority patent/CN108780615A/zh
Priority to US16/069,734 priority patent/US20190025071A1/en
Priority to PCT/JP2016/088891 priority patent/WO2017168900A1/ja
Priority to EP16897115.8A priority patent/EP3438953A4/en
Publication of JP2017181870A publication Critical patent/JP2017181870A/ja
Application granted granted Critical
Publication of JP6790417B2 publication Critical patent/JP6790417B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3811Point data, e.g. Point of Interest [POI]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/42Document-oriented image-based pattern recognition based on the type of document
    • G06V30/422Technical drawings; Geographical maps
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Educational Administration (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Educational Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Description

本開示は、情報処理装置及び情報処理サーバに関する。
近年、地図情報を利用した種々のサービスが提案されている。また、実世界において観測した情報に基づき地図情報を更新する種々の手法が提案されている。上記のような手法には、例えば、特許文献1に記載の地図データ更新方法がある。
特開2005−98853号公報
しかし、特許文献1に記載の地図データ更新方法は、自動車の走行する道路に係る情報更新に限定されている。また、特許文献1の地図データ更新方法では、検出した実世界における地形情報の変化を地図データに反映させることが困難である。
そこで、本開示では、実世界の変化に応じた地図情報の動的更新をより精度高く実現することが可能な情報処理装置、及び情報処理サーバを提案する。
本開示によれば、一または複数のセンサから実世界の単位空間に係る観測情報を取得する取得部と、リファレンス地図と前記実世界の単位空間との不整合に係る情報に基づいて、前記単位空間において取得した前記観測情報を送信する通信部と、を備え、前記通信部は、サーバにより前記不整合が予測された不整合予測を含む不整合に係る情報に基づいて前記サーバから発行されるコマンドを受信し、前記コマンドに基づいて前記単位空間において取得した前記観測情報を送信する、情報処理装置が提供される。
また、本開示によれば、一または複数のセンサから取得された実世界の単位空間に係る観測情報を受信する通信部と、前記観測情報に基づいてリファレンス地図を生成する地図生成部と、を備え、前記地図生成部は、前記リファレンス地図と前記実世界の単位空間との不整合を予測した不整合予測を含む不整合に係る情報に基づいて前記単位空間に係る前記観測情報を要求するコマンドを生成し、前記観測情報は、前記コマンドに応じて送信される、情報処理サーバが提供される。
以上説明したように本開示によれば、実世界の変化に応じた地図情報の動的更新をより精度高く実現することが可能となる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示に係る自動運転車の周辺環境に係る模式図である。 本開示に係る自動運転車が認識する周辺環境のイメージ図である。 本開示に係るリファレンス地図と実世界との不整合に係る例図である。 本開示に係るリファレンス地図と実世界との不整合に係る例図である。 実施形態に係るリファレンス地図更新の概念図である。 実施形態に係るシステム構成例である。 実施形態に係る情報処理サーバ及び情報処理装置の機能ブロック図である。 実施形態に係る整合性判定の流れを示すフローチャートである。 実施形態の整合性判定に係る入出力の概念図である。 実施形態に係る新部分地図生成の流れを示すフローチャートである。 実施形態に係る不整合予測に基づくコマンド送信の流れを示すフローチャートである。 実施形態の三次元地図生成に係る入出力の概念図である。 実施形態に係る1次地図に含まれる物体のイメージ図である。 実施形態に係るセグメンテーション処理及び物体表面生成のイメージ図である。 実施形態に係るテクスチャ投影のイメージ図である。 実施形態に係る物体属性付加地図のイメージ図である。 本開示に係るハードウェア構成例である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.本開示に係る背景
1.1.ニューラルネットワークとは
1.2.ニューラルネットワークを利用した運転制御
1.3.自動運転制御に係るリファレンス地図
2.実施形態
2.1.リファレンス地図更新の概要
2.2.本実施形態に係るシステム構成例
2.3.本実施形態に係る情報処理サーバ10
2.4.本実施形態に係る情報処理装置20
2.5.情報処理装置20による整合性判定の流れ
2.6.整合性判定の詳細
2.7.新部分地図の生成に係る流れ
2.8.不整合予測に基づくコマンドの送信
2.9.不整合予測に基づく運転制御
2.10.三次元地図生成の詳細
2.11.物体表面生成地図及びテクスチャ投影地図
2.12.本実施形態に係る物体属性付加地図
3.ハードウェア構成例
4.まとめ
<1.本開示に係る背景>
[1.1.ニューラルネットワークとは]
ニューラルネットワークとは、人間の脳神経回路を模したモデルであり、人間が持つ学習能力をコンピュータ上で実現しようとする技法である。上述したとおり、ニューラルネットワークは学習能力を有することを特徴の一つとする。ニューラルネットワークでは、シナプスの結合によりネットワークを形成した人工ニューロン(ノード)が、学習によりシナプスの結合強度を変化させることで、問題に対する解決能力を獲得することが可能である。すなわち、ニューラルネットワークは、学習を重ねることで、問題に対する解決ルールを自動的に推論することができる。
ニューラルネットワークによる学習の例としては、画像認識や音声認識が挙げられる。ニューラルネットワークでは、例えば、入力される画像パターンを繰り返し学習することで、入力画像に含まれる物体等を認識することが可能となる。ニューラルネットワークの有する上記のような学習能力は、人工知能(Artificial Intelligence)の発展を推し進める鍵としても注目されている。また、ニューラルネットワークの有する学習能力は、種々の産業分野における応用が期待される。ニューラルネットワークの有する学習能力を応用する例としては、例えば、各種の装置における自律制御が挙げられる。
[1.2.ニューラルネットワークを利用した運転制御]
ここで、ニューラルネットワークを利用した自律制御について、例を挙げて説明する。近年、ユーザ操作に依らず自律的に動作する種々の装置が開発されている。上記のような装置には、例えば、運転者による制御を要しない自動運転車がある。自動運転車は、各種のセンサにより取得した情報から周囲の環境を認識し、認識した環境に応じて、自律走行を実現する。
ニューラルネットワークは、上記のような自動運転車における環境認識や運転制御に応用することができる。自動運転制御には、例えば、多層構造のニューラルネットワークを用いたディープラーニング(Deep Learning:深層学習)により運転制御機能を獲得した学習器(以下、自動運転AI、とも呼ぶ)が用いられてよい。すなわち、自動運転AIは、学習により獲得した環境認識能力や運転制御能力に基づいて、周囲環境に応じた自動車の運転制御を行うことができる。例えば、自動運転AIは、センサから観測される観測情報に基づいて歩行者を認識し、歩行者を避けるためにハンドル制御やブレーキ制御などを行うことができる。
図1A及び図1Bは、自動運転車AV1による周囲環境の認識について説明するための図である。図1Aは、実世界における自動運転車AV1の周囲環境を模式的に示した図である。図1Aを参照すると、自動運転車AV1の周囲には、動物体DO1〜DO4と静物体SO1〜4が存在している。ここで、動物体DO1〜DO4は、動的に移動する物体であってよく、図1Aに示す一例においては、それぞれ車両、自転車、または歩行者として示されている。また、静物体SO1〜4は、自律的に移動しない物体であってよく、同図の一例では、それぞれ信号機、看板、街路樹、または建物として示されている。
次に、図1Bを参照して、自動運転車AV1が認識する周囲環境の例について説明する。図1Bは、自動運転車AV1が認識する周囲環境を模式的に示した図である。図1Bに示すように、自動運転車AV1は、例えば、画像情報を含む観測情報に基づいて検出した特徴点により周囲環境を認識してもよい。このため、図1Bでは、動物体DO1〜DO4及び静物体SO1〜4は、それぞれ自動運転車AV1が検出した特徴点の集合により表されている。このように、自動運転車AV1は、搭載されるカメラ等からの情報を基に検出した物体の特徴点を追跡することで、周囲の環境を認識することができる。
また、図1Bには図示しないが、自動運転車AV1は、自動運転AIが物体認識を行った結果に基づいて、周囲環境を認識することもできる。この場合、例えば、動物体DO1〜DO4は、それぞれ特徴点と物体認識に基づいた3次元情報として認識されてよい。また、自動運転AIは、観測情報から認識した周囲環境における物体の特性に応じた運転制御を行うことができる。例えば、自動運転AIは、対向する車両の走行軌跡や歩行者の道路横断などを認識し、アクセル制御やブレーキ制御、ハンドル制御などを行ってよい。
[1.3.自動運転制御に係るリファレンス地図]
以上説明したように、自動運転AIを搭載する自動運転車は、搭載されるカメラ等のセンサから取得した観測情報に基づいて周囲環境を認識し、自律運転を行うことができる。また、上記のような自動運転制御では、周囲環境のリファレンスとなる三次元地図(以下、リファレンス地図、とも呼ぶ)を用いることで、より精度の高い運転制御を実現することが可能となる。すなわち、自動運転車は、リファレンス地図を参照し、観測情報とのマッチングを図ることで、周囲環境の認識や自己位置同定の精度を向上させることができる。ここで、上記のリファレンス地図は、例えば、画像情報を含む複数の観測情報から生成された三次元地図であってよい。
一方、自動運転制御にリファレンス地図を利用する場合、リファレンス地図の精度が重要な鍵となる。例えば、リファレンス地図と実世界における地形とに不整合が生じている場合、自動運転車による自己位置同定や物体認識の精度が著しく低下する可能性がある。
図2A及び図2Bは、リファレンス地図と実世界における地形に不整合について説明するための図である。なお、上記の地形には、地面や道路を含む地形の他、実世界に存在する種々の静物体が含まれてよい。
図2Aは、リファレンス地図に保存される所定の単位空間における三次元地図のイメージ図である。図2Aを参照すると、リファレンス地図には、道路情報の他、信号機や看板などを含む静物体の三次元位置情報が含まれている。
また、図2Bは、図2Aに示したリファレンス地図と同一の単位空間における実世界の地形を示すイメージ図である。図2Bを参照すると、実世界の地形と図2Aに示したリファレンス地図とには不整合が生じていることがわかる。具体的には、実世界の地形には、リファレンス地図には存在しない建物NO1が新たに建設されている。また、看板NO2においては、リファレンス地図における同一の看板とは内容が異なっている。
上記で示したように、実世界における地形は変化するものであり、リファレンス地図の作成時から時間が経過するにつれ、両者の間には不整合が生じる可能性がある。また、自動運転車が実世界に則していないリファレンス地図を参照することで、自己位置同定に不具合が生じることも想定される。
このため、リファレンス地図は、実世界の地形変化に応じて適宜更新されることが求められる。特に、自動運転制御などに利用される場合、安全確保の観点からも、より実世界に則した精度の高いリファレンス地図が期待されている。
本開示に係る情報処理装置20、及び情報処理サーバ10は、上記で説明したようなリファレンス地図の更新に着目して発想されたものであり、実世界の変化をより効率的に検出し、リファレンス地図をより実世界に近い状態に保つことが可能である。以降の実施形態の説明では、本開示に係る情報処理装置20、及び情報処理サーバ10に係る機能上の特徴を挙げながら、当該特徴の奏する効果について述べる。また、本開示では主にニューラルネットワークを用いた学習について説明するが、本開示に係る学習手法は係る例に限定されない。本開示に係る技術思想は、入力と出力の関係から法則性を獲得する学習器全般に適用され得る。
また、以降の実施形態の説明では、実世界を走行する自動運転車を例に説明するが、本開示に係る情報処理サーバ10及び情報処理装置20の適用は係る例に限定されない。本開示に係る情報処理サーバ10及び情報処理装置20は、屋内を走行する特殊車両や、災害現場などでの災害対応ロボットに適用することも可能である。すなわち、本開示に係るリファレンス地図の生成技術は、屋外または屋内の区別なく有用な効果を奏するものである。また、本開示に係る観測情報は、環境状況に応じた移動体により収集されてよい。
<2.実施形態>
[2.1.リファレンス地図更新の概要]
まず、本実施形態に係るリファレンス地図の更新について概要を説明する。本実施形態に係るリファレンス地図の更新では、自動運転車などに搭載される情報処理装置20が、リファレンス地図と実世界との不整合を検出し、不整合を検出した単位空間において観測した観測情報を情報処理サーバに送信することができる。また、本実施形態に係る情報処理サーバは、情報処理装置20から送信された不整合に係る情報に基づいて、不整合が検出された単位空間に係る観測情報を要求するコマンド発行し複数の情報処理装置20に送信することができる。
一方、上記のコマンドを受信した情報処理装置20は、指定された単位空間に自動車などの移動体を誘導し、あるいは移動させ、当該単位空間において観測した観測情報を情報処理サーバに送信することができる。情報処理サーバは、情報処理装置20から取得した複数の観測情報に基づいて、新たな三次元部分地図を生成し、対象の単位空間に係るリファレンス地図を更新する。
図3は、本実施形態のリファレンス地図更新に係る概念図である。図3には、情報処理サーバ10、及び情報処理装置20を搭載した車両V1及びV2が示されている。また、図3に示される地図M1は、単位空間に係るリファレンス地図のイメージである。
情報処理装置20を搭載した車両V1は、実世界の地形を観測しながら走行する自動運転車などの車両であってよい。この際、車両V1は、取得した観測情報に基づいて認識する周囲環境とリファレンス地図とのマッチングを行いながら、実世界を走行する。ここで、実世界とリファレンス地図との不整合が検出された場合、車両V1に搭載される情報処理装置20は、単位空間において観測した観測情報を情報処理サーバ10に送信する。
続いて、不整合に係る情報を受信した情報処理サーバ10は、不整合が検出された単位空間に係る観測情報を複数の情報処理装置20に要求するコマンドを発行する。ここで、上記の情報処理装置20は、自動運転AIやカーナビゲーションシステムなどの車載システムであってもよい。情報処理装置20が自動運転AIである場合、情報処理装置20は受信した上記のコマンドに基づいて対象となる単位空間に車両V2を移動させる。また、情報処理装置20がカーナビゲーションシステムである場合、情報処理装置20は、対象となる単位空間に車両V2を誘導するための経路変更などを行ってよい。
上記の制御により、車両V2が指定された単位空間に移動すると、情報処理装置20は取得した観測情報を情報処理サーバ10に送信する。情報処理サーバ10は、複数の情報処理装置20から取得した観測情報に基づいて、単位空間に係る新たな三次元部分地図を生成し、リファレンス地図を更新することができる。なお、図3に示す一例において、車両V2及びV2´は同一の車両を示しており、車両V2´は指定単位空間に移動した車両V2を表している。
以上、本実施形態に係るリファレンス地図の更新について概要を説明した。本実施形態に係る情報処理装置20、及び情報処理サーバ10によれば、実世界を走行する移動体が観測した観測情報に基づいて、実世界とリファレンス地図との不整合を動的に検出することが可能となる。また、本実施形態によれば、不整合が予測される単位空間における観測情報を効率的に取得し、リファレンス地図を更新することができる。
なお、上記では情報処理装置20が搭載される移動体の例として自動車を用いて説明したが、本実施形態に係る移動体は係る例に限定されない。本実施形態に係る移動体は、例えばドローンを含む無人航空機(UAV:Unmanned Aerial Vehicle)や、船舶、または種々のロボットであってもよい。さらに、本実施形態に係る移動体は、人により操作される種々の車両や装置であってもよい。この場合、本実施形態に係る情報処理サーバ10は、例えば、人が運転する車両や、人が操作するドローンにより観測された観測情報を収集することが可能である。本実施形態に係る移動体は、周囲環境の観測手段、及び指定空間エリアへの移動手段を有する装置として広く実現され得る。
[2.2.本実施形態に係るシステム構成例]
次に、本実施形態に係るシステム構成例について説明する。図4を参照すると、本実施形態に係るシステムは、情報処理サーバ10、複数の情報処理装置20a及び20b、及び複数の移動体30a及び30bを備える。また、情報処理サーバ10と情報処理装置20a及び20bとは、ネットワーク40を介して、互いに通信が行えるように接続される。
ここで、本実施形態に係る情報処理サーバ10は、不整合に係る情報に基づいて実世界の単位空間に係る観測情報を要求するコマンドを生成し、少なくとも1つの情報処理装置20に送信するサーバである。また、情報処理サーバ10は、受信した観測情報に基づいてリファレンス地図を更新する機能を有する。
また、本実施形態に係る情報処理装置20は、リファレンス地図と実世界の単位空間との不整合に係る情報に基づいて、当該単位空間において取得した観測情報を送信する情報処理サーバ10に送信する装置である。情報処理装置20は、例えば、自動運転AI、カーナビゲーションシステム、PC(Personal Computer)、タブレット、またはスマートフォンなどであってよい。
また、本実施形態に係る情報処理装置20は、それぞれが異なる装置であってよい。例えば、図4に示される情報処理装置20aは自動運転AIであってよいし、情報処理装置20bは、カーナビゲーションシステムであってもよい。本実施形態に係る情報処理装置20は、移動体30から観測情報を取得する機能と、情報処理サーバ10からのコマンドに基づいて移動体30の目的地を設定する機能と、を有する種々の情報処理端末であり得る。
本実施形態に係る移動体30は、実世界の地形情報を観測するための種々のセンサを有する装置であってよい。移動体30は、例えば、自動運転車を含む各種の自動車、無人航空機、船舶、または災害対応ロボットなどであってよい。また、本実施形態に係る移動体30は、観測情報の収集を目的としたデータ収集用のドローンや車両であってもよい。本実施形態に係る移動体30は、実世界において観測した観測情報を情報処理装置20に引き渡す機能を有する。ここで、上記の観測情報には、例えば、RGB−Dカメラ、レーザーレンジファインダー、GPS、Wi―Fi(登録商標)、地磁気センサ、気圧センサ、加速度センサ、ジャイロセンサ、または振動センサなどにより取得される情報が含まれてよい。
また、ネットワーク40は、情報処理サーバ10と情報処理装置20を接続する機能を有する。ネットワーク40は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク40は、IP−VPN(Internt Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
以上、本実施形態に係るシステム構成例について説明した。以降の説明では、本実施形態に係る情報処理サーバ10と情報処理装置20の機能構成上の特徴について述べる。
[2.3.本実施形態に係る情報処理サーバ10]
次に、本実施形態に係る情報処理サーバ10について詳細に説明する。本実施形態に係る情報処理サーバ10は、情報処理装置20から受信した実世界の単位空間において取得された観測情報に基づいてリファレンス地図を更新する機能を有する。また、情報処理サーバ10は、複数の情報処理装置20に、上記の観測情報を要求する機能を有する。図5は、本実施形態に係る情報処理サーバ10及び情報処理装置20の機能ブロック図である。図5を参照すると、本実施形態に係る情報処理サーバ10は、地図生成部110及び装置通信部120を備える。
(地図生成部110)
地図生成部110は、リファレンス地図の生成に係る機能を有する。上記のリファレンス地図は、例えば、三次元地図であってよい。地図生成部110は、特に、本実施形態においては、後述する装置通信部120が受信した観測情報に基づいてリファレンス地図を生成する機能を有してよい。具体的には、地図生成部110は、観測情報に基づいて新たな三次元地図を生成し上記のリファレンス地図を更新してよい。また、地図生成部110は、観測情報に基づいて物体認識を行い、認識した物体の属性情報を上記の三次元地図に付加することができる。
さらに、本実施形態に係る地図生成部110は、観測情報に基づいてセグメンテーション処理を実施し、当該セグメンテーション処理の結果を三次元地図に付加してもよい。また、地図生成部110は、上記のセグメンテーション処理の結果に基づいて物体表面生成やテクスチャ投影を実施し、物体表面生成地図またはテクスチャ投影地図を生成することができる。
また、地図生成部110は、リファレンス地図と実世界の単位空間との不整合に係る情報に基づいて、当該単位空間に係る観測情報を要求するコマンドを生成する機能を有する。この際、上記の不整合に係る情報は、情報処理装置20からの観測情報を受信したことを含んでよい。すなわち、情報処理サーバ10は、情報処理装置20が不整合と判定した観測情報を受信したことに基づいて上記のコマンドを生成してよい。
また、地図生成部110は、リファレンス地図と実世界の単位空間との不整合予測に基づいて上記のコマンドを生成することができる。情報処理サーバ10による上記の不整合予測については後述する。
(装置通信部120)
装置通信部120は、一または複数のセンサから取得された実世界の単位空間に係る観測情報を受信する機能を有する。また、装置通信部120は、地図生成部110が生成した上記のコマンドを少なくとも1つの情報処理装置20に送信する機能を有する。
ここで、上記の観測情報は、リファレンス地図と実世界の単位空間との不整合に係る情報に基づいて送信される情報であってよい。すなわち、上記の観測情報は、情報処理装置20が不整合を検出したことに基づいて送信する観測情報であってよいし、情報処理装置20が上記のコマンドに基づいて送信する観測情報であってもよい。
[2.4.本実施形態に係る情報処理装置20]
次に、本実施形態に係る情報処理装置20について詳細に説明する。本実施形態に係る情報処理装置20は、移動体30が観測した観測情報を取得する機能を有する。また、情報処理装置20は、リファレンス地図と実世界の単位空間との不整合に係る情報に基づいて、取得した観測情報を情報処理サーバ10に送信する機能を有する。図5を参照すると、本実施形態に係る情報処理装置20は、判定部210、移動設定部220、観測情報取得部230、及びサーバ通信部240を備える。
(判定部210)
判定部210は、実世界の単位空間において取得した観測情報に基づいてリファレンス地図と実世界との整合性を判定する機能を有する。具体的には、判定部210は、単位空間において取得した観測情報から検出した特徴点と、リファレンス地図に記述された特徴点とをマッチングし、上記の整合性を判定してよい。この際、判定部210は、リファレンス地図とのマッチングを確認した単位空間の一部領域における観測情報から検出した特徴点とリファレンス地図に記述された特徴点との距離に基づいて、上記の整合性を判定することができる。なお、判定部210による不整合判定の詳細については後述する。
(移動設定部220)
移動設定部220は、移動体30の目的地を設定する機能を有する。ここで、本実施形態に係る移動設定部220は、情報処理装置20の様態に応じた機能を有してよい。例えば、情報処理装置20が自動運転AIである場合、移動設定部220は、情報処理サーバ10から発行されるコマンドに含まれる単位空間の座標情報に基づいて、当該単位空間に移動体30を移動させることができる。
また、例えば、情報処理装置20がカーナビゲーションシステムである場合、移動設定部220は、上記のコマンドに含まれる単位空間の座標情報に基づいて、移動体30の移動予定経路を変更することができる。このように、移動設定部220の有する機能は、情報処理装置20及び移動体30の仕様に応じて適宜設計されてよい。
また、移動設定部220は、移動コストや安全確保などに基づいて、移動体の目的地を変更するか否かを判定する機能を有してよい。ここで、上記の移動コストには、移動距離、移動時間、燃料、及び高速道路などの利用料金が含まれてよい。
(観測情報取得部230)
観測情報取得部230は、一または複数のセンサから実世界の単位空間に係る観測情報を取得する機能を有する。ここで、上記の観測情報には、深度情報が含まれてよい。上記の深度情報は、例えば、移動体30が備えるRGB−Dカメラやレーザーレンジファインダーから得られる情報であってよい。
また、上記の観測情報には、位置情報や姿勢情報が含まれてよい。上記の位置情報及び姿勢情報は、例えば、移動体30が備えるGPS、Wi−Fi、地磁気センサ、気圧センサ、加速度センサ、ジャイロセンサ、及び振動センサなどから得られる情報であってよい。
(サーバ通信部240)
サーバ通信部240は、観測情報取得部230が取得した観測情報を情報処理サーバ10に送信する機能を有する。また、サーバ通信部240は、情報処理装置20から発行されるコマンドを受信する機能を有する。
具体的には、本実施形態に係るサーバ通信部240は、リファレンス地図と実世界の単位空間との不整合に係る情報に基づいて、当該単位空間において取得した観測情報を情報処理サーバ10に送信してよい。すなわち、サーバ通信部240は、判定部210による整合性判定の判定結果に基づいて、上記の観測情報を情報処理サーバ10に送信することができる。
また、本実施形態に係るサーバ通信部240は、情報処理サーバ10から発行されるコマンドに基づいて、上記の単位空間において取得した観測情報を送信してよい。この際、サーバ通信部240は、移動体30が単位空間に移動したことに基づいて観測情報を送信することができる。
[2.5.情報処理装置20による整合性判定の流れ]
次に、本実施形態に係る整合性判定の流れについて詳細に説明する。上述したとおり、本実施形態に係る情報処理装置20は、実世界の単位空間において取得した観測情報に基づいて、リファレンス地図と実世界との整合性を判定することができる。
この際、情報処理装置20の判定部210は、単位空間において取得した観測情報から検出した特徴点と、当該観測情報が取得された単位空間に対応するリファレンス地図に記述された特徴点とをマッチングし、両者の整合性を判定してよい。
より具体的には、判定部210は、リファレンス地図とのマッチングを確認した単位空間の一部領域における観測情報から検出した特徴点とリファレンス地図に記述された特徴点との距離に基づいて、上記の整合性を判定してよい。
すなわち、判定部210は、観測情報とリファレンス地図とが全体としてマッチングしているのに対し、一部領域における特徴点の距離が大きいことを検出した場合、両者の不整合を判定することができる。
以下、図6を参照して、本実施形態に係る整合性判定の流れについて説明する。図6は、本実施形態に係る整合性判定の流れを示すフローチャートである。なお、以下の説明においては、情報処理装置20が自動運転AIとしての機能を有する場合を例に述べる。
図6を参照すると、まず、サーバ通信部240は、移動体30の走行位置周辺に係るリファレンス地図を取得する(S1101)。この際、サーバ通信部240は、移動体30が備えるGPSなどにより取得された情報に基づいて上記のリファレンス地図を取得してもよい。
次に、観測情報取得部230は、移動体30が実世界の単位空間において観測した観測情報を取得する(S1102)。ここで、上記の観測情報には、RGBD画像やレーザーレンジファインダー情報、またGPS、地磁気センサ、Wi−Fi、気圧センサ、加速度センサ、ジャイロセンサ、及び振動センサにより取得された情報が含まれてよい。
次に、判定部210は、ステップS1101において取得したリファレンス地図と、ステップS1102において取得した観測情報とのマッチングを行う(S1103)。この際、判定部210が行うマッチングの詳細については後述する。
次に、判定部210は、ステップS1103で行ったマッチングの結果に基づいて、リファレンス地図と観測情報との整合性を判定する(S1104)。上述したとおり、判定部210は、観測情報とリファレンス地図とが全体としてマッチングしているのに対し、一部領域における特徴点の距離が大きいことを検知した場合(距離>ε)、両者の不整合を判定してよい。なお、判定部210による整合性判定の詳細について後述する。
リファレンス地図と観測情報との不整合が検出された場合(S1104:不整合)、サーバ通信部240は、ステップS1102において取得した観測情報を情報処理サーバ10に送信する(S1105)。
一方、リファレンス地図と観測情報との整合性が確認された場合(S1104:整合)、情報処理装置20は対象の単位空間に係る不整合判定を終了する。また、この際、移動設定部220は移動体30の運転制御を行い、次の単位空間へと移動させてよい(S1106)。移動体30が次の単位空間に移動すると、判定部210は、ステップS1101〜S1105の処理を繰り返し実行する。
以上、本実施形態に係る整合性判定の流れについて説明した。なお、上記では、判定部210がリファレンス地図と観測情報との不整合を検出したことに基づいて、サーバ通信部240が当該観測情報を情報処理サーバ10に送信する場合を例に述べた。一方、本実施形態に係る観測情報の送信は係る例に限定されない。
本実施形態に係る整合性の判定は、例えば、移動体30の搭乗者により行われてもよい。搭乗者は、リファレンス地図と実世界との不整合を目視などにより確認した場合、観測情報を情報処理サーバ10に送信するための操作を行うこともできる。この場合、情報処理装置20は、上記の操作を受け付けるユーザインタフェースを備えてよい。このように、本実施形態では、観測情報の送信に係る複数の手段を備えることで、より多くの不整合に係る情報を収集することが可能である。
[2.6.整合性判定の詳細]
以上、本実施形態に係る整合性判定の流れについて説明した。続いて、本実施形態に係る整合性判定の詳細について詳細に説明する。図7は、本実施形態の整合性判定に係る入出力の概念図である。図7を参照すると、判定部210は、入力される観測情報に基づいて、リファレンス地図と実世界との整合性判定結果を出力することができる。なお、図7においては、判定部210が有する各機能を機能B1〜B7として示している。
(物体認識による動物体除去)
図7を参照すると、判定部210は、入力情報から動物体を除去する機能を有する(機能B1)。この際、入力される情報は、RGBD画像やレーザーレンジファインダー情報であってよい。また、上記の動物体は、自律的に移動する歩行者や車などの物体であってよい。判定部210が入力情報から動物体を除去することで、整合性判定に使用する地形情報のみを抽出することができる。
この際、判定部210は、例えば、入力情報に対して、領域認識や物体認識を行うことで動物体の除去を行ってよい。この際、上記の領域認識や物体認識には、広く利用されている方法を用いることができる。判定部210は、例えば、予めデータベースに記録された動物体の特徴情報と入力情報とを照合することで動物体に係る物体認識を行ってもよい。また、判定部210は、物体認識能力を獲得した学習器による出力結果に基づいて、動物体の除去を行うこともできる。
(特徴点検出)
また、判定部210は、機能B1から出力される動物体を除去したRGBD画像などに基づいて特徴点を検出し記述する機能を有する(機能B2)。この際、判定部210は、例えば、SIFT(Scale Invariant Feature Transform)やSURF(Speeded Up Robust Features)などを用いて特徴点の検出を行ってもよい。また、例えば、判定部210は、Harrisのコーナー検出法などを用いることもできる。
(特徴点マッチング)
また、判定部210は、機能B2から出力される複数のRGBD画像に係る特徴点の記述に基づいて、各特徴点のマッチングを行う機能を有する(機能B3)。この際、判定部210は、複数のRGBD画像間で対応関係にある特徴点をマッチングする。この際、判定部210は、特徴点検出に用いた手法に対応したマッチングを行ってよい。例えば、特徴点検出にSIFTやSURFを用いた場合、判定部210は検出した特徴点に係る特徴量ベクトルに基づいて、上記のマッチングを行ってもよい。
また、判定部210は、特徴点マッピングの際、観測情報に含まれるGPS、地磁気センサ、Wi−Fi、気圧センサ、加速度センサ、ジャイロセンサ、及び振動センサにより取得されたセンサ情報を用いてよい。判定部210は、上記のセンサ情報から算出したおおまかな位置情報や姿勢情報を用いることで、特徴点マッピングを効率化することができる。
(カメラパラメータの算出)
また、判定部210は、機能B3から出力されるマッチング情報に基づいて、特徴点の三次元座標を算出し、当該特徴点の三次元座標から各RGBD画像に対応したカメラパラメータを算出する機能を有する(機能B4)。ここで、上記のカメラパラメータは、カメラの有する自由度のベクトルや各種の内部パラメータを含んでよい。例えば、本実施形態に係るカメラパラメータは、カメラの位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx、Φy、Φz)と、であってよい。また、本実施形態に係るカメラパラメータは、例えば、焦点距離、F値、せん断係数などの内部パラメータを含んでよい。
この際、判定部210は、連続するフレーム(RGBD画像)間における特徴点の位置、カメラ間の位置ベクトル、カメラの3軸回転ベクトル、及び各カメラ間位置と特徴点とを結ぶベクトルなどの相対値を連続的に算出してよい。判定部210は、エピポーラ幾何に基づくエピポーラ方程式を解くことで上記の算出を行うことができる。
また、判定部210は、カメラパラメータの算出の際、上述したセンサ情報から算出したおおまかな位置情報や姿勢情報を用いることで、カメラパラメータの算出を効率化することができる。
(投影誤差最小化)
また、判定部210は、機能B4から出力されるカメラパラメータに基づいて、投影誤差の最小化を行う機能を有する(機能B5)。具体的には、判定部210は、各カメラパラメータと各特徴点の位置分布を最小化する統計処理を行う。
この際、判定部210は、誤差の大きい特徴点を検出し当該特徴点を削除することで、投影誤差の最小化を行うことができる。判定部210は、例えば、Levenberg−Marquardt法により最小自乗法の最適解を推定してもよい。これにより、判定部210は、誤差を収束したカメラ位置、カメラ回転行列、特徴点の三次元座標を求めることができる。
(観測情報の三次元空間射影)
また、判定部210は、機能B5から出力される誤差の最小化されたカメラパラメータ及び特徴点の三次元座標に基づいて、観測情報の三次元空間射影を行う機能を有する(機能B6)。すなわち、判定部210は、移動体30から取得した画像情報に係る特徴点を三次元空間上に射影した三次元地図(以下、観測点地図、とも呼ぶ)を得ることができる。
(三次元空間における距離計算)
また、判定部210は、機能B6から出力される三次元空間射影の情報に基づいて、当該三次元空間における特徴点の距離計算を行う機能を有する。すなわち、判定部210は、三次元空間においてリファレンス地図に記述される特徴点と観測情報から検出された特徴点との距離を算出する。ここで、算出された距離が所定の閾値以上である場合、判定部210は、リファレンス地図と実世界との不整合を判定してよい。
この際、判定部210は、最近傍点誤差に基づいて整合性を判定してもよい。判定部210は、例えば、観測情報から抽出した各特徴点と各特徴点の最も近傍に位置するリファレンス地図上の特徴点との距離rを算出し、距離rの平均が所定の閾値εを超えることに基づいて、不整合を判定することができる。
また、例えば、判定部210は、同一地形判定器を用いて整合性の判定を行ってもよい。ここで、上記の同一地形判定器は、ディープラーニングなどにより同一地形の判定能力を獲得した学習器であってよい。具体的には、同一地形判定器は、入力されるリファレンス地図と観測点地図とに基づいて三次元空間における地形情報の一致または不一致を判定する機能を有してよい。この場合、判定部210は、同一地形判定器による出力値が所定の閾値εを超えることに基づいて不整合を判定することができる。
また、例えば、判定部210は、二次元または三次元における物体認識結果に基づいて整合性の判定を行ってもよい。ここで、上記の物体認識は、ディープラーニングなどにより物体認識能力を獲得した学習器により出力される情報であってよい。この場合、判定部210は予め登録されたリファレンス地図上の物体情報と、学習器が出力した物体認識情報とを比較する。この際、判定部210は、学習器から出力される物体認識結果が予め登録される物体情報と異なることに基づいて不整合を判定することができる。
以上、本実施形態に係る整合性判定について詳細に説明した。上記で説明したとおり、本実施形態に係る情報処理装置20は、移動体30から取得する観測情報に基づいて、リファレンス地図と実世界との整合性を判定することができる。本実施形態に係る情報処理装置20が有する上記の機能によれば、リファレンス地図と実世界の不整合を自動で判定し、当該不整合に係る単位空間における観測情報を効果的に収集することが可能となる。
[2.7.新部分地図の生成に係る流れ]
次に、本実施形態に係る新部分地図の生成について詳細に説明する。本実施形態に係る情報処理サーバ10は、受信したリファレンス地図と実世界の単位空間との不整合に係る情報に基づいて、複数の情報処理装置20に、単位空間に係る観測情報を要求するコマンドを送信することができる。また、本実施形態に係る情報処理サーバ10は、情報処理装置20から受信した複数の観測情報に基づいて、当該観測情報が観測された単位空間に係る新たな三次元部分地図を生成することができる。
以下、本実施形態に係る新部分地図の生成の流れについて詳細に説明する。図8は、本実施形態に係る新部分地図生成の流れを示すフローチャートである。
図8を参照すると、まず、情報処理サーバ10の装置通信部120は、情報処理装置20から不整合に係る観測情報を受信する(S1201)。
次に、装置通信部120は、単位空間に係る観測情報を要求するコマンドを送信する(S1202)。この際、上記のコマンドは、地図生成部110が、ステップS1201で受信した観測情報に基づいて生成したコマンドであってよい。
次に、地図生成部110は、複数の情報処理装置20から送信される単位空間の観測情報に基づいて、当該単位空間に係る新部分地図を生成する(S1203)。この際、上記の観測情報は、ステップS1202において装置通信部120が送信するコマンドに基づいて情報処理装置20から送信される情報であってよい。なお、地図生成部110による新部分地図の生成については後述する。
次に、地図生成部110は、ステップS1203で生成した新部分地図の誤差を判定する(S1204)。この際、地図生成部110は、広く利用されている手法に基づいて上記の誤差を判定してもよい。地図生成部110は、例えば、Bundle調整に用いられるような手法に基づいて新部分地図の誤差を判定することができる。地図生成部110は、複数の観測地点から得られる三次元空間中の特徴点の信頼度を距離により定義し、所定数以上の観測地点に係る特徴点が所定以下の誤差範囲に収まっていることに基づいて、新部分地図の誤差を判定してもよい。
ここで、生成した新部分地図の誤差が所定の閾値εより小さい場合(S1204:Yes)、地図生成部110は、生成した新部分地図が完成したと判断し、対象となる単位空間に係るリファレンス地図を更新する(S1205)。この際、地図生成部110は、対象となる単位空間の不整合に係る情報を削除し、新部分地図生成に係る処理を終了する。また、この際、地図生成部110は、リファレンス地図に係る変更の履歴を保存してもよい。
一方、生成した新部分地図の誤差が所定の閾値ε以上である場合(S1204:No)、地図生成部110は、生成した新部分地図の精度が低いと判断し、ステップS1202に復帰し、より多くの観測情報を収集してよい。この場合、地図生成部110は、生成する新部分地図の誤差が所定の閾値εより小さくなるまで、ステップS1202〜S1204における処理を繰り返し実行してよい。
以上、本実施形態に係る新部分地図生成の流れについて説明した。上述したとおり、本実施形態に係る情報処理サーバ10は、情報処理装置20から送信される不整合に係る観測情報に基づいて、該当する単位空間に係る観測情報の収集を要求することができる。また、本実施形態に係る情報処理サーバ10は、複数の情報処理装置20から受信した観測情報に基づいて、単位空間に係る新部分地図を生成し、リファレンス地図を更新することができる。
本実施形態に係る情報処理サーバ10が有する上記の機能によれば、不整合に係る観測情報を自動的に収集し、リファレンス地図を動的に更新し続けることが可能となる。これにより、実世界における地形変化をより早く検出し、リファレンス地図をより実世界に則した状態に保つことができる。
また、本実施形態に係る情報処理サーバ10は、ステップS1205において保存されるリファレンス地図の変更履歴から単位空間の地形変化に係る推定を行ってもよい。具体的には、情報処理サーバ10は、上記の変更履歴から地形変化に係る周期性や規則性を見出し、季節や時間帯などに起因する地形変化を推定することができる。本実施形態に係る情報処理サーバ10が有する上記の推定機能によれば、実世界の状況により近い情報を提供することが可能となる。
なお、上記の説明では、生成した新部分地図の誤差に基づいてリファレンス地図を更新する場合を例に述べたが、本実施形態に係るリファレンス地図の更新は係る例に限定されない。本実施形態に係るリファレンス地図の更新は、地形変化や交通量などに応じて適宜変形されてよい。例えば、検出された不整合の規模が大きい場合、すなわち実世界に大規模の地形変化が起こった場合、情報処理サーバ10は、リファレンス地図の精度よりも公開までの時間を優先してもよい。
また、交通量が多い単位空間に係る不整合の場合においても、情報処理サーバ10は、リファレンス地図の公開を優先することができる。上記のような場合、地形変化に係る情報をより早く公開することで、自動運転車を含む移動体30の安全を確保することが可能となる。また、この際、情報処理サーバ10は、リファレンス地図の公開後も、対象単位空間に係る観測情報を継続的に収集し新部分地図の精度を高めることができる。
また、図8を用いた説明では、リファレンス地図の更新が自動的に行われる場合を例に述べたが、リファレンス地図の更新は、ユーザによる最終確認を介して行われてもよい。生成されたリファレンス地図の品質をユーザが確認することで、当該リファレンス地図の信頼性をより高めることができる。また、上記のユーザによる最終確認は、設定により要否が切り替えられてもよい。設定により要否を切り替えることで、例えば、重点区域に係るリファレンス地図の更新のみをユーザが確認する、などの運用が可能となる。本実施形態に係る新部分地図の生成は、仕様や運用に応じて適宜設計されてよい。
[2.8.不整合予測に基づくコマンドの送信]
図8を用いた説明では、情報処理サーバ10が、不整合に係る観測情報を受信したことに基づいて、観測情報を要求するコマンド(以下、単に、コマンド、とも呼ぶ)を送信する場合を例に説明した。一方、本実施形態に係る情報処理サーバ10は、不整合予測に基づいて上記のコマンドを送信してもよい。図9は、情報処理サーバ10による不整合予測に基づくコマンドの送信について説明するためのフローチャートである。
図9を参照すると、情報処理サーバ10の地図生成部110は、単位空間における所定期間内のリファレンス地図の更新履歴または交通履歴に基づいて、コマンド生成に係る判定を行ってよい(S1301)。
単位空間に係るリファレンス地図が長らく更新されていない場合、リファレンス地図と実世界の地形とに不整合が生じている可能性がある。また、単位空間における交通量が少ない場合、実世界の地形とリファレンス地図とに不整合が生じていても不整合の検出が遅れることが想定される。このため、地図生成部110が単位空間における所定期間内のリファレンス地図の更新履歴または交通履歴をトリガーとしてコマンドを生成することで、不整合を検出する可能性を高め、より精度の高いリファレンス地図を生成することが可能となる。
この際、地図生成部110は、例えば、交通量の少ない地域においては、幹線道路や比較的交通量の多い主要道路などに係る観測情報を集中的に収集するようにコマンドの生成を行うこともできる。また、例えば、地図生成部110は、移動体30が頻繁に利用する道路における観測情報を重点的に収集するようにコマンドを生成してもよい。なお、上記の道路には、例えば、自動運転車の専用道路などが含まれてもよい。地図生成部110が上記のようにコマンドを生成することで、重要地点に係るリファレンス地図の更新頻度を高めることが可能となる。
また、地図生成部110は、保有するリファレンス地図のデータに基づいて、コマンド生成に係る判定を行ってよい(S1302)。具体的には、地図生成部110は、リファレンス地図のデータが存在しない地域、時間帯、または季節などに基づいて、コマンドを生成することができる。
地図生成部110が保有するリファレンス地図のデータに基づいてコマンドを生成することで、リファレンス地図がまだ生成されていない単位空間に係る観測情報を効率よく収集することが可能となる。また、本実施形態に係るリファレンス地図は時間帯や季節などに応じて生成されてもよい。この場合、同一の単位空間に係る複数のリファレンス地図が生成され、実世界の状況により近い情報を提供することが可能となる。
また、地図生成部110は、収集された工事情報や建設情報に基づいて、コマンド生成に係る判定を行ってよい(S1303)。上記の工事情報や建設情報は、ユーザにより入力される情報であってもよいし、情報処理サーバ10が他の装置から自動で収集する情報であってもよい。
工事や建設が行われる単位空間では、着工前のリファレンス地図と実世界の地形に不整合が生じる可能性が高い。このため、地図生成部110が工事情報や建設情報をトリガーにコマンドを生成することで、リファレンス地図を実世界の最新地形に近い状態に保つことが可能となる。
また、地図生成部110は、収集された災害情報、事故情報、事件情報、または気象情報などに基づいて、コマンド生成に係る判定を行ってよい(S1304)。上記の災害情報、事故情報、または気象情報は、ユーザにより入力される情報であってもよいし、情報処理サーバ10が他の装置から自動で収集する情報であってもよい。
災害や事故が生じた単位空間や異常気象が予測される単位空間では、発生前のリファレンス地図と実世界の地形に不整合が生じる可能性が高い。このため、地図生成部110が災害情報や事故情報をトリガーにコマンドを生成することで、リファレンス地図を実世界の最新地形に近い状態に保つことが可能となる。
また、地図生成部110は、衛星写真上の変化を検出したことに基づいて、コマンド生成に係る判定を行ってよい(S1305)。地図生成部110は、複数の衛星写真に係る時間情報と座標情報とから衛星写真上の変化を検出することが可能である。また、上記の変化検出は別の装置により行われてもよい。
衛星写真上で変化が検出された単位空間では、リファレンス地図と実世界の地形に不整合が生じている可能性が高い。このため、地図生成部110が衛星写真上の変化をトリガーにコマンドを生成することで、リファレンス地図を実世界の最新地形に近い状態に保つことが可能となる。
ステップS1301〜S1305のいずれかの条件が成立した場合、地図生成部110は、観測情報を要求するコマンドを生成する。また、この際、装置通信部120は、自動運転AIやカーナビゲーションシステムを含む情報処理装置20に対しコマンドの送信を行う(S1306)。
続いて、装置通信部120は、データ収集用ドローンやデータ収集用車両に搭載される情報処理装置20に対しコマンドの送信を行う(S1307)。
以上、本実施形態に係る不整合予測に基づくコマンドの送信について詳細に説明した。上述したとおり、本実施形態に係る情報処理サーバ10は、種々の条件に基づいてリファレンス地図と実世界との不整合を予測し、観測情報を要求するコマンドを送信することができる。本実施形態に係る情報処理サーバ10が有する上記の機能によれば、上記の不整合を検出できる可能性を一層に高め、リファレンス地図を実世界の最新地形に近い状態に保つことが可能となる。
また、本実施形態に係る情報処理サーバ10は、リファレンス地図の最新性確保に係る学習に基づいて上記のコマンドを送信することも可能である。この場合、情報処理サーバ10は、コマンドにより移動体30を対象の単位空間に導くことを制御(アクション)と捉え、当該制御に係る強化学習などを行ってもよい。この際、情報処理サーバ10は、例えば、早期に不整合を検出することを報酬としてもよいし、移動体30から受信する想定外の不整合に係る観測情報の数を報酬としてもよい。本実施形態に係る情報処理サーバ10の有する上記の機能によれば、より効率的に不整合を検出し、リファレンス地図の最新性を確保することが可能となる。
なお、図9には図示していないが、情報処理サーバ10は、移動体30の種類に応じて、コマンドを送信するか否かを判定してよい。例えば、情報処理サーバ10が災害情報や事故情報をトリガーにコマンドを生成する場合、装置通信部120は、コマンドの送信先をデータ収集用ドローンやデータ収集用車両に限定してもよい。災害や事故が発生した単位空間では安全確保が求められるため、情報処理サーバ10がコマンドの送信先を限定することで、二次災害を防ぐことができる。
また、情報処理サーバ10は、災害情報や事故情報以外の情報に基づいて、コマンドの送信先を制御してもよい。例えば、情報処理サーバ10は、単位空間の座標や重要度、気象状況や渋滞情報を含む交通情報などに基づいてコマンドの送信先を制御してもよい。なお、この際、情報処理サーバ10は、コマンドを送信する移動体30の種類だけではなく、送信先となる情報処理装置20の数を制御することができる。情報処理サーバ10が送信先となる情報処理装置20の数を適宜制御することで、対象となる単位空間に応じた柔軟な対応が可能となる。
また、コマンドはユーザ操作に基づいて発行されてもよい。この場合、ユーザは、観測情報を収集する単位空間を任意に設定できてよい。情報処理サーバ10は、ユーザによる入力情報に基づいて、コマンドを生成し、当該コマンドを情報処理装置に送信することができる。
また、情報処理サーバ10によるコマンド送信先の制御とは別に、コマンドを受信した情報処理装置20がコマンドに応じるか否かの判定を行ってもよい。すなわち、情報処理装置20の移動設定部220は、コマンドに含まれる単位空間の座標情報に基づいて、当該単位空間を移動先として設定するか否かを判定することができる。
この場合、移動設定部220は、単位空間までの移動コスト、または安全確保などに基づいて上記の判定を行ってよい。なお、移動設定部220は、例えば、取得した災害情報、事故情報、気象情報、衛星写真情報、または渋滞情報を含む交通情報などに基づいて、上記の判定を行ってよい。ここで、上記の移動コストには、移動距離、移動時間、燃料、及び高速道路などの利用料金などが含まれてよい。
[2.9.不整合予測に基づく運転制御]
以上、本実施形態に係る不整合予測に基づくコマンドの送信について説明した。続いて、本実施形態に係る不整合予測に基づく運転制御について詳細に説明する。本実施形態に係る情報処理装置20は、情報処理サーバ10による不整合予測の結果に基づいて、移動体30の運転制御を行ってよい。より具体的には、情報処理装置20の移動設定部220は、リファレンス地図の最新性に基づいて移動体30の運転モードを変更することができる。すなわち、移動設定部220は、不整合の度合いに基づいて運転制御のモードを変更する制御部として機能する。
上述したとおり、不整合が予測された単位空間では、リファレンス地図と実世界との地形に乖離があることが想定される。すなわち、不整合が予測された単位空間では、リファレンス地図の最新性が低いといえる。このため、最新性の低いリファレンス地図を有する単位空間において、情報処理装置20が移動体30に係る運転モードを変更することで、より安全な自動運転を実現することが可能となる。
この際、情報処理装置20は、上述したような、単位空間に係るリファレンス地図の更新履歴や、リファレンス地図が存在しない地域、季節、時間帯などの情報に基づいて、運転モードを変更してもよい。また、情報処理装置20は、工事情報、建設情報、災害情報、事故情報、事件情報、または交通取り締まり情報などに基づいて、運転モードを変更することができる。また、情報処理装置20は、衛星写真情報やリファレンス地図の利用実績、交通履歴などに基づいて、運転モードを変更してもよい。情報処理装置20は、例えば、不整合を検出せずに単位空間を走行した実績に基づいて、運転モードを変更することもできる。
続いて、情報処理装置20が制御する運転モードの具体例について説明する。上述したとおり、本実施形態に係る情報処理装置20は、不整合予測に基づいて移動体30に係る運転モードを変更することができる。例えば、情報処理装置20は、不整合予測における不整合の度合いが高い場合、より安全を優先するモードを選択してよい。情報処理装置20は、例えば、制御アルゴリズムや使用する係数を変更することで、上記のモード選択を行うことができる。
具体的には、情報処理装置20は、自動運転AIに係る種々の運転制御能力に応じて、標準モードや慎重運転を行うモードなどを選択してよい。この際、情報処理装置20は、例えば、走行スピードを落とすことで、情報処理サーバ10を含む各種のサーバとの情報通信頻度を高めることも可能である。
また、情報処理装置20は、自動運転モードから、運転者によるマニュアル運転を実行するモードや運転者が運転補助を行うモードに切り替える提案を行ってもよい。また、情報処理装置20は、周囲の歩行者や走行車に対し自己位置を知らせるための制御を行ってもよい。この際、情報処理装置20は、例えば、クラクションを鳴らす制御を実行してもよいし、周囲の走行車などに自己位置に係る情報を送信してもよい。
また、情報処理装置20は、周囲における歩行者や走行車の状態や反応をより詳細に把握するような運転制御を行うこともできる。情報処理装置20は、例えば、交差点に進入する際、移動体30の車体前方部を突出した状態で減速または停止し、歩行者や走行車の状態をより詳細に把握してから、続く運転制御を行ってもよい。
また、情報処理装置20は、不整合の度合いが低いリファレンス地図を有する単位空間へ迂回するように制御を行うことも可能である。すなわち、情報処理装置20は、より信頼度の高いリファレンス地図を有する単位空間を優先して経路選択を行うことができる。
以上、本実施形態に係る不整合予測に基づく運転制御について説明した。上述したとおり、本実施形態に係る情報処理装置20は、不整合予測に基づいて、移動体30に係る運転モードを変更することができる。本実施形態に係る情報処理装置20が有する上記の機能によれば、移動体30のより安全な運転制御を実現することが可能となる。
なお、上記では、情報処理装置20が不整合予測に基づいて、移動体30に係る運転モードを変更する場合を述べたが、情報処理装置20は、観測情報の収集や自己位置同定に係る手法及び処理手順をさらに変更してもよい。すなわち、本実施形態に係る情報処理装置20は、リファレンス地図の最新性に応じた適切な制御を行うことが可能である。
[2.10.三次元地図生成の詳細]
次に、本実施形態に係る三次元地図生成の詳細について説明する。上述したとおり、本実施形態に係る情報処理サーバ10の地図生成部110は、受信した情報処理装置20からの観測情報に基づいて、リファレンス地図を生成することができる。この際、地図生成部110は、観測情報に基づいた特徴点地図及び観測点地図を含む1次地図と、1次地図に付加情報を加えた2次地図と、を生成することができる。ここで、上記の2次地図には、物体認識地図、セグメンテーション地図、物体属性付加地図、物体表面生成地図、及びテクスチャ投影地図などが含まれてよい。
図10は、本実施形態の三次元地図生成に係る入出力の概念図である。図10を参照すると、地図生成部110は、入力される観測情報に基づいて、三次元地図を生成することができる。なお、図10においては、地図生成部110が有する各機能を機能B10〜B14として示している。ここで、機能B10〜B14において用いられる技術手法は、図7で説明した判定部210の機能B2〜B6で用いられる手法と重複するため、詳細な説明は省略する。
(1次地図の生成)
上述したとおり、本実施形態に係る地図生成部110は、受信した観測情報に基づいて、三次元地図を生成することができる。ここで、地図生成部110は、受信した複数の観測情報に対し、特徴点検出(機能B10)、特徴点マッチング(機能B11)、カメラパラメータ算出(機能B12)、及び投影誤差最小化(機能B13)に係る処理を行ってよい。地図生成部110は、上記の一連の処理により、単位空間の三次元特徴点地図を生成することができる。
また、地図生成部110は、さらに、観測情報の三次元空間射影(機能B14)を行うことで、観測情報に基づいた観測点地図を生成することができる。ここで、上記の観測点地図は、移動体30から取得した画像情報に係る特徴点を三次元空間上に射影した三次元地図であってよい。
(2次地図の生成)
また、本実施形態に係る110は、生成した1次地図に対し付加情報を加えて2次地図を生成することができる。具体的には、地図生成部110は、生成した1次地図に対し物体認識情報を付加した物体認識地図、及びセグメンテーション地図を生成することができる。
ここで、地図生成部110は、2次地図として生成した上記の物体認識地図またはセグメンテーション地図に対しさらなる処理を実施し、より有用な情報を付加した2次地図を生成することができる。
例えば、地図生成部110は、認識した物体の属性情報を付加した物体属性付加地図を生成してもよい。また、地図生成部110は、さらに付加情報を付加した三次元地図を生成してもよい。ここで、上記の付加情報には、例えば、画像情報、テキスト情報、または音情報などが含まれてよい。本実施形態に係る物体属性付加地図の詳細については後述する。
また、例えば、地図生成部110は、セグメンテーション処理に基づいて物体表面を生成し物体表面生成地図を得てもよい。また、地図生成部110は、生成した物体表面にテクスチャ投影を実施し、テクスチャ投影地図を生成するこができる。なお、本実施形態に係る物体表面生成地図及びテクスチャ投影地図の詳細については後述する。
以上、説明したように、本実施形態に係る情報処理サーバ10は、情報処理装置20から受信した複数の観測情報に基づいて、1次地図及び2次地図を生成することができる。情報処理サーバ10が有する上記の機能によれば、移動体30の仕様や地図の利用目的に応じた種々の三次元地図を生成することが可能となる。
[2.11.物体表面生成地図及びテクスチャ投影地図]
次に、本実施形態に係る物体表面生成地図及びテクスチャ投影地図について詳細に説明する。本実施形態に係る地図生成部110は、1次地図にセグメンテーション処理を施したセグメンテーション地図に基づいて、物体表面の生成を行うことができる。また、地図生成部110は、生成した物体表面にテクスチャを投影することができる。
図11A〜11Cは、本実施形態に係る物体表面生成及びテクスチャ投影について説明するためのイメージ図である。ここで、図11Aは、地図生成部110が生成した1次地図に含まれる物体のイメージ例であってよい。図11Aを参照すると、1次地図における物体は特徴点の集合として表現されている。
また、図11Bに示す物体は、図11Aで示した1次地図に対し、セグメンテーション処理及び物体表面生成を実施したイメージ例であってよい。この際、地図生成部110は、広く利用される手法を用いて、セグメンテーション処理や物体表面生成を行うことができる。例えば、地図生成部110は、グラフカットや領域拡張法などを用いて、セグメンテーション処理を実施してもよい。また、上記のセグメンテーション処理は、学習によりセグメンテーション能力を獲得した学習器による実行されてもよい。
また、地図生成部110は、ポリゴン生成やデンスステレオマッチング(Dense Stereo Matching)に用いられるような技術手法を用いて物体表面の生成を行ってもよい。また、上記の物体表面生成は、学習により物体表面の生成能力を獲得した学習器により実行されてもよい。
図11Cは、生成した物体表面に対しテクスチャが投影された物体の例を示すイメージ図である。地図生成部110は、例えば、観測情報に含まれる画像情報から抽出した色情報や、認識した物体の特性情報に基づいて、テクスチャの投影を行ってよい。この際、地図生成部110は、テクスチャマッピングで用いられるような手法を用いてもよい。また、テクスチャ投影は、学習によりテクスチャ投影能力を獲得した学習器により実行されてもよい。
以上、本実施形態に係る物体表面生成地図及びテクスチャ投影地図について説明した。上述したように、本実施形態に係る地図生成部110は、受信した観測情報に基づいて物体表面の生成やテクスチャの投影を行うことができる。本実施形態に係る情報処理サーバ10による上記の機能によれば、より付加価値の高い三次元地図を提供することが可能となる。
[2.12.本実施形態に係る物体属性付加地図]
次に、本実施形態に係る物体属性付加地図について詳細に説明する。上述したとおり、本実施形態に係る地図生成部110は、生成した1次地図と物体認識の結果に基づいて、物体属性付加地図を生成することができる。
図12は、本実施形態に係る物体属性付加地図のイメージ図である。図12を参照すると、本実施形態に係る物体属性付加地図には、道路情報や静物体SO5〜SO8を含む地形情報に加え、属性情報A1〜A4が含まれている。ここで、属性情報A1〜A4は、静物体SO5〜SO8に係る物体認識に基づいた付加情報であってよい。
本実施形態に係る上記の付加情報は、物体認識の結果に基づいた種々の情報が含まれてよい。図12に示す一例では、静物体SO5〜SO8に係る付加情報として、物体名称や衝突時の危険レベルが含まれている。ここで、上記の危険レベルは、例えば、自動運転車が静物体に衝突した際における自動運転車の破損度合を示す指標であってよい。
例えば、図12に示す一例では、ゴミ箱として静物体SO7が示されているが、対応する属性情報A3には、衝突時危険レベル1が設定されている。一方、ビルとして示される静物体SO8に対応する属性情報A4は、衝突時危険レベル10が設定されている。
ゴミ箱は可動物であるため、例え自動運転車が衝突した場合でも、自動運転車及びゴミ箱双方の破損度合は比較的小さいことが想定される。このため、地図生成部110は、物体認識の結果に基づいて、静物体SO7に対する属性情報として衝突時危険レベル1を設定している。
一方、ビルは固定物であるため、自動運転車が衝突した場合、自動運転車及びビル双方の破損度合が深刻な状況となる可能性が高い。このため、地図生成部110は、物体認識の結果に基づいて、静物体SO8に対する属性情報として衝突時危険レベル10を設定している。
ここで、自動運転車に搭載される情報処理装置20は、属性情報に含まれる上記の衝突時危険レベルを参照しながら、自動運転車の制御を行うことができる。例えば、歩行者や対向する自動車が飛び出して来た際、状況によっては回避後に静物体への衝突を避けられない場合がある。上記のような場合、情報処理装置20が属性情報に含まれる各静物体の衝突時危険レベルに基づいて自動運転車の制御を行うことで、破損度合をより少なく抑える可能性を高めることができる。具体的には、図12に示した例の場合、情報処理装置20は、より衝突時危険レベルの低い静物体SO7に向かうように自動運転車の制御を行ってよい。なお、図示していないが、本実施形態に係る情報処理装置20は、道路を含む地形情報に関連付いた属性情報に基づいて運転制御を行うこともできる。例えば、情報処理装置20は、属性情報から川や崖などの地形を認識し、落下時における車体や搭乗者への被害を考慮した運転制御を行ってよい。本実施形態に係る情報処理装置20が有する上記の機能によれば、衝突や落下などに係るリスクを低減し、より安全な運転制御を実現することが可能となる。
以上、本実施形態に係る物体属性付加地図について説明した。上述したとおり、本実施形態に係る地図生成部110は、物体認識の結果に基づいた種々の属性情報を三次元地図に付加することができる。
また、情報処理装置20は、物体属性付加地図を表示装置に表示させる制御を行ってもよい。表示装置に物体属性付加地図が表示されることで、ユーザが三次元地図に含まれる物体の属性情報を視認することが可能となる。
また、この場合、地図生成部110は、生成した物体属性付加地図にさらに画像情報、テキスト情報、音声情報などを含めることができる。ユーザは、表示装置に表示される属性情報を確認することで、実世界に存在する静物体に係る種々の情報を得ることができる。
<3.ハードウェア構成例>
次に、本開示に係る情報処理サーバ10及び情報処理装置20に共通するハードウェア構成例について説明する。図13は、本開示に係る情報処理サーバ10及び情報処理装置20のハードウェア構成例を示すブロック図である。図13を参照すると、情報処理サーバ10及び情報処理装置20は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(入力装置878)
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
(出力装置879)
出力装置879には、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
(ストレージ880)
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信装置883)
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
<4.まとめ>
以上説明したように、本開示に係る情報処理サーバ10は、情報処理装置20から受信した実世界の単位空間において取得された観測情報に基づいてリファレンス地図を更新する機能を有する。また、情報処理サーバ10は、複数の情報処理装置20に、上記の観測情報を要求する機能を有する。また、本開示に係る情報処理装置20は、移動体が観測した観測情報を取得する機能を有する。また、情報処理装置20は、リファレンス地図と実世界の単位空間との不整合に係る情報に基づいて、取得した観測情報を情報処理サーバ10に送信する機能を有する。係る構成によれば、実世界の変化に応じた地図情報の動的更新をより精度高く実現することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
一または複数のセンサから実世界の単位空間に係る観測情報を取得する取得部と、
リファレンス地図と前記実世界の単位空間との不整合に係る情報に基づいて、前記単位空間において取得した前記観測情報を送信する通信部と、
を備える、
情報処理装置。
(2)
前記単位空間において取得した前記観測情報に基づいて前記リファレンス地図と前記実世界との整合性を判定する判定部、
をさらに備え、
前記通信部は、前記判定部による判定結果に基づいて、前記単位空間において取得した前記観測情報を送信する、
前記(1)に記載の情報処理装置。
(3)
前記判定部は、前記単位空間において取得した前記観測情報から検出した特徴点と、前記リファレンス地図に記述された特徴点とをマッチングし、前記整合性を判定する、
前記(2)に記載の情報処理装置。
(4)
前記判定部は、前記リファレンス地図とのマッチングを確認した単位空間の一部領域における前記観測情報から検出した特徴点と前記リファレンス地図に記述された特徴点との距離に基づいて、前記整合性を判定する、
前記(2)または(3)に記載の情報処理装置。
(5)
前記リファレンス地図は三次元地図である、
前記(1)〜(4)のいずれかに記載の情報処理装置。
(6)
前記観測情報は、深度情報を含む、
前記(1)〜(5)のいずれかに記載の情報処理装置。
(7)
前記観測情報は、位置情報または姿勢情報のうち少なくともいずれかを含む、
前記(1)〜(6)のいずれかに記載の情報処理装置。
(8)
前記通信部は、サーバから発行されるコマンドを受信し、前記コマンドに基づいて前記単位空間において取得した前記観測情報を送信する、
前記(1)〜(7)のいずれかに記載の情報処理装置。
(9)
移動体の目的地を設定する移動設定部、
をさらに備える、
前記(8)に記載の情報処理装置。
(10)
前記移動設定部は、前記コマンドに含まれる前記単位空間の座標情報に基づいて前記単位空間に前記移動体を移動させ、
前記通信部は、前記移動体が前記単位空間に移動したことに基づいて前記単位空間において取得した観測情報を送信する、
前記(9)に記載の情報処理装置。
(11)
前記移動設定部は、前記コマンドに含まれる前記単位空間の座標情報に基づいて前記移動体の移動予定経路を変更し、
前記通信部は、前記移動体が前記単位空間に移動したことに基づいて前記単位空間において取得した観測情報を送信する、
前記(9)に記載の情報処理装置。
(12)
前記移動設定部は、移動コストまたは安全確保のうち少なくともいずれかに基づいて、前記移動体の目的地を変更するか否かを判定する、
前記(9)〜(11)のいずれかに記載の情報処理装置。
(13)
一または複数のセンサから取得された実世界の単位空間に係る観測情報を受信する通信部と、
前記観測情報に基づいてリファレンス地図を生成する地図生成部と、
を備え、
前記観測情報は、前記リファレンス地図と前記実世界の単位空間との不整合に係る情報に基づいて送信される、
情報処理サーバ。
(14)
前記地図生成部は、前記不整合に係る情報に基づいて前記単位空間に係る観測情報を要求するコマンドを生成し、
前記通信部は、少なくとも1つの情報処理装置に前記コマンドを送信する、
前記(13)に記載の情報処理サーバ。
(15)
前記不整合に係る情報は、前記情報処理装置から送信される前記観測情報を受信したこと、を含み、
前記地図生成部は、前記情報処理装置から送信される前記観測情報を受信したことに基づいて前記コマンドを生成する、
前記(14)に記載の情報処理サーバ。
(16)
前記地図生成部は、前記リファレンス地図と前記実世界の単位空間との不整合予測に基づいて前記コマンドを発行する、
前記(14)または(15)に記載の情報処理サーバ。
(17)
前記地図生成部は、前記観測情報に基づいて新たな三次元地図を生成し前記リファレンス地図を更新する、
前記(13)〜(16)のいずれかに記載の情報処理サーバ。
(18)
前記地図生成部は、前記観測情報に基づいて物体認識を行い、認識した物体の属性情報を前記三次元地図に付加する、
前記(17)に記載の情報処理サーバ。
(19)
前記地図生成部は、前記観測情報に基づいてセグメンテーション処理を実施し、前記セグメンテーション処理の結果を前記三次元地図に付加する、
前記(17)または(18)に記載の情報処理サーバ。
(20)
前記地図生成部は、前記セグメンテーション処理の結果に基づいて物体表面生成またはテクスチャ投影を実施し、物体表面生成地図またはテクスチャ投影地図を生成する、
前記(19)に記載の情報処理サーバ。
10 情報処理サーバ
110 地図生成部
120 装置通信部
20 情報処理装置
210 判定部
220 移動設定部
230 観測情報取得部
240 サーバ通信部
30 移動体

Claims (19)

  1. 一または複数のセンサから実世界の単位空間に係る観測情報を取得する取得部と、
    リファレンス地図と前記実世界の単位空間との不整合に係る情報に基づいて、前記単位空間において取得した前記観測情報を送信する通信部と、
    を備え、
    前記通信部は、サーバにより前記不整合が予測された不整合予測を含む不整合に係る情報に基づいて前記サーバから発行されるコマンドを受信し、前記コマンドに基づいて前記単位空間において取得した前記観測情報を送信する、
    情報処理装置。
  2. 前記単位空間において取得した前記観測情報に基づいて前記リファレンス地図と前記実世界との整合性を判定する判定部、
    をさらに備え、
    前記通信部は、前記判定部による判定結果に基づいて、前記単位空間において取得した前記観測情報を送信する、
    請求項1に記載の情報処理装置。
  3. 前記判定部は、前記単位空間において取得した前記観測情報から検出した特徴点と、前記リファレンス地図に記述された特徴点とをマッチングし、前記整合性を判定する、
    請求項2に記載の情報処理装置。
  4. 前記判定部は、前記リファレンス地図とのマッチングを確認した単位空間の一部領域における前記観測情報から検出した特徴点と前記リファレンス地図に記述された特徴点との距離に基づいて、前記整合性を判定する、
    請求項3に記載の情報処理装置。
  5. 前記リファレンス地図は三次元地図である、
    請求項1に記載の情報処理装置。
  6. 前記観測情報は、深度情報を含む、
    請求項1に記載の情報処理装置。
  7. 前記観測情報は、位置情報または姿勢情報のうち少なくともいずれかを含む、
    請求項3に記載の情報処理装置。
  8. 移動体の目的地を設定する移動設定部、
    をさらに備える、
    請求項に記載の情報処理装置。
  9. 前記移動設定部は、前記コマンドに含まれる前記単位空間の座標情報に基づいて前記単位空間に前記移動体を移動させ、
    前記通信部は、前記移動体が前記単位空間に移動したことに基づいて前記単位空間において取得した観測情報を送信する、
    請求項に記載の情報処理装置。
  10. 前記移動設定部は、前記コマンドに含まれる前記単位空間の座標情報に基づいて前記移動体の移動予定経路を変更し、
    前記通信部は、前記移動体が前記単位空間に移動したことに基づいて前記単位空間において取得した観測情報を送信する、
    請求項に記載の情報処理装置。
  11. 前記移動設定部は、移動コストまたは安全確保のうち少なくともいずれかに基づいて、前記移動体の目的地を変更するか否かを判定する、
    請求項に記載の情報処理装置。
  12. 一または複数のセンサから取得された実世界の単位空間に係る観測情報を受信する通信部と、
    前記観測情報に基づいてリファレンス地図を生成する地図生成部と、
    を備え、
    前記地図生成部は、前記リファレンス地図と前記実世界の単位空間との不整合を予測した不整合予測を含む不整合に係る情報に基づいて前記単位空間に係る前記観測情報を要求するコマンドを生成し、前記観測情報は、前記コマンドに応じて送信される、
    情報処理サーバ。
  13. 記通信部は、少なくとも1つの情報処理装置に前記コマンドを送信する、
    請求項12に記載の情報処理サーバ。
  14. 前記不整合に係る情報は、前記情報処理装置から送信される前記観測情報を受信したこと、を含み、
    前記地図生成部は、前記情報処理装置から送信される前記観測情報を受信したことに基づいて前記コマンドを生成する、
    請求項13に記載の情報処理サーバ。
  15. 前記地図生成部は、前記リファレンス地図と前記実世界の単位空間との不整合予測に基づいて前記コマンドを発行する、
    請求項12に記載の情報処理サーバ。
  16. 前記地図生成部は、前記観測情報に基づいて新たな三次元地図を生成し前記リファレンス地図を更新する、
    請求項12に記載の情報処理サーバ。
  17. 前記地図生成部は、前記観測情報に基づいて物体認識を行い、認識した物体の属性情報を前記三次元地図に付加する、
    請求項16に記載の情報処理サーバ。
  18. 前記地図生成部は、前記観測情報に基づいてセグメンテーション処理を実施し、前記セグメンテーション処理の結果を前記三次元地図に付加する、
    請求項16に記載の情報処理サーバ。
  19. リファレンス地図と実世界の単位空間との不整合が予測された不整合予測を含む不整合に係る情報を受信する受信部と、
    前記不整合の度合いに基づいて運転制御のモードを変更する制御部と、
    を備える、
    情報処理装置。
JP2016070596A 2016-03-31 2016-03-31 情報処理装置及び情報処理サーバ Active JP6790417B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016070596A JP6790417B2 (ja) 2016-03-31 2016-03-31 情報処理装置及び情報処理サーバ
CN201680083931.XA CN108780615A (zh) 2016-03-31 2016-12-27 信息处理设备
US16/069,734 US20190025071A1 (en) 2016-03-31 2016-12-27 Information processing device
PCT/JP2016/088891 WO2017168900A1 (ja) 2016-03-31 2016-12-27 情報処理装置
EP16897115.8A EP3438953A4 (en) 2016-03-31 2016-12-27 INFORMATION PROCESSING DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016070596A JP6790417B2 (ja) 2016-03-31 2016-03-31 情報処理装置及び情報処理サーバ

Publications (2)

Publication Number Publication Date
JP2017181870A JP2017181870A (ja) 2017-10-05
JP6790417B2 true JP6790417B2 (ja) 2020-11-25

Family

ID=59963890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016070596A Active JP6790417B2 (ja) 2016-03-31 2016-03-31 情報処理装置及び情報処理サーバ

Country Status (5)

Country Link
US (1) US20190025071A1 (ja)
EP (1) EP3438953A4 (ja)
JP (1) JP6790417B2 (ja)
CN (1) CN108780615A (ja)
WO (1) WO2017168900A1 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6882664B2 (ja) * 2017-02-07 2021-06-02 富士通株式会社 移動***置推定システム、移動***置推定端末装置、情報格納装置、及び移動***置推定方法
US10663303B2 (en) * 2017-06-12 2020-05-26 Panasonic Intellectual Property Management Co., Ltd. System and method for dynamically authenticating map data using blockchains
WO2019103150A1 (ja) 2017-11-27 2019-05-31 三菱電機株式会社 地図整備システムおよび地図整備方法
JP2019105684A (ja) * 2017-12-11 2019-06-27 株式会社デンソー 交差点内の走行軌道データ生成装置、交差点内の走行軌道データ生成プログラム及び記憶媒体
US11269352B2 (en) * 2017-12-15 2022-03-08 Baidu Usa Llc System for building a vehicle-to-cloud real-time traffic map for autonomous driving vehicles (ADVS)
WO2019130945A1 (ja) * 2017-12-27 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び移動体
CN108225348B (zh) * 2017-12-29 2021-08-24 百度在线网络技术(北京)有限公司 地图创建以及运动实体定位的方法和装置
JP2019152924A (ja) * 2018-02-28 2019-09-12 学校法人立命館 自己位置同定システム、車両、及び処理装置
US10657388B2 (en) * 2018-03-13 2020-05-19 Honda Motor Co., Ltd. Robust simultaneous localization and mapping via removal of dynamic traffic participants
US11106211B2 (en) 2018-04-02 2021-08-31 Sony Group Corporation Vision-based sample-efficient reinforcement learning framework for autonomous driving
WO2019239477A1 (ja) * 2018-06-12 2019-12-19 三菱電機株式会社 地図生成装置および地図生成システム
SG11201811261SA (en) * 2018-06-14 2020-01-30 Beijing Didi Infinity Technology & Development Co Ltd Systems and methods for updating a high-resolution map based on binocular images
EP3819897B1 (en) 2018-07-02 2023-05-10 Nissan Motor Co., Ltd. Driving support method and driving support device
KR102611507B1 (ko) 2018-07-04 2023-12-07 르노 에스.아.에스. 주행 지원 방법 및 주행 지원 장치
CN111238465B (zh) * 2018-11-28 2022-02-18 台达电子工业股份有限公司 地图建置设备及其地图建置方法
CN113422815B (zh) * 2018-12-17 2023-03-24 北京百度网讯科技有限公司 远程控制方法、装置、设备及计算机可读存储介质
US11193789B2 (en) * 2018-12-21 2021-12-07 Here Global B.V. Method, apparatus, and computer program product for identifying at-risk road infrastructure
US11194847B2 (en) * 2018-12-21 2021-12-07 Here Global B.V. Method, apparatus, and computer program product for building a high definition map from crowd sourced data
CN109606384B (zh) * 2018-12-29 2021-04-20 百度在线网络技术(北京)有限公司 车辆控制方法、装置、设备和存储介质
CN109781122B (zh) * 2019-01-31 2022-03-01 北京经纬恒润科技股份有限公司 高精度地图更新方法及装置
JP7245084B2 (ja) * 2019-03-15 2023-03-23 日立Astemo株式会社 自動運転システム
JP6921343B2 (ja) 2019-03-18 2021-08-18 三菱電機株式会社 地図情報補正装置、移動体、地図情報補正システム、地図情報補正方法、地図情報補正プログラム、制御回路および記憶媒体
US20200326203A1 (en) * 2019-04-15 2020-10-15 Qualcomm Incorporated Real-world traffic model
CN113785253A (zh) * 2019-05-09 2021-12-10 索尼集团公司 信息处理装置、信息处理方法和程序
JP7039536B2 (ja) * 2019-09-05 2022-03-22 株式会社 ミックウェア 地図情報処理システム
JP2021064237A (ja) * 2019-10-16 2021-04-22 ソニー株式会社 情報処理装置と情報処理方法およびプログラム
US11280630B2 (en) * 2019-11-27 2022-03-22 Zoox, Inc. Updating map data
EP4107484A1 (en) * 2020-02-20 2022-12-28 TomTom Global Content B.V. Generating map change data
JP7205515B2 (ja) * 2020-04-06 2023-01-17 トヨタ自動車株式会社 地図更新システム、データ送信装置、およびデータ送信方法
JP7325667B2 (ja) * 2020-12-04 2023-08-14 三菱電機株式会社 ダイナミックマップ生成装置、学習装置、ダイナミックマップ生成方法、および、学習方法
EP4092383A1 (en) * 2021-05-19 2022-11-23 NextBillion.ai Pte. Ltd. Customized digital map generation
WO2023171336A1 (ja) * 2022-03-11 2023-09-14 ソニーグループ株式会社 学習方法、情報処理装置、および記録媒体
KR102618997B1 (ko) * 2023-07-13 2023-12-29 주식회사포앤텍 정밀도로지도 제작을 위한 mms 데이터 기반의 도로시설물 위치 확인 시스템
KR102618996B1 (ko) * 2023-07-17 2023-12-28 주식회사포앤텍 정밀도로지도 제작을 위한 mms 이미지 데이터의 처리시스템

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002054934A (ja) * 2000-08-11 2002-02-20 Denso Corp 道路地図情報更新システム
JP4380151B2 (ja) * 2002-12-20 2009-12-09 株式会社デンソー 地図評価システム、及び、地図評価装置
JP4459717B2 (ja) * 2004-05-26 2010-04-28 富士フイルム株式会社 地図更新システム
US7706971B2 (en) * 2005-07-21 2010-04-27 The Boeing Company System and method for data mapping and map discrepancy reporting
JP5227065B2 (ja) * 2008-01-25 2013-07-03 株式会社岩根研究所 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置
JP5216690B2 (ja) * 2009-06-01 2013-06-19 株式会社日立製作所 ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム
JP2011002794A (ja) * 2009-06-22 2011-01-06 Nikon Corp レンズユニット及びカメラボディ
JP2011027594A (ja) * 2009-07-27 2011-02-10 Toyota Infotechnology Center Co Ltd 地図データ検証システム
CN101694392B (zh) * 2009-09-29 2015-03-18 北京四维图新科技股份有限公司 一种导航终端的地图更新方法、导航终端及***
JP5471626B2 (ja) * 2010-03-09 2014-04-16 ソニー株式会社 情報処理装置、マップ更新方法、プログラム及び情報処理システム
JP5452442B2 (ja) * 2010-10-25 2014-03-26 株式会社日立製作所 ロボットシステム及び地図更新方法
JP2012127896A (ja) * 2010-12-17 2012-07-05 Kumamoto Univ 移動***置測定装置
EP2761326B1 (en) * 2011-09-16 2020-03-25 Saab Ab Method for improving the accuracy of a radio based navigation system
EP2876620B1 (en) * 2012-07-17 2019-08-14 Nissan Motor Company, Limited Driving assistance system and driving assistance method
US9633564B2 (en) * 2012-09-27 2017-04-25 Google Inc. Determining changes in a driving environment based on vehicle behavior
US20140168261A1 (en) * 2012-12-13 2014-06-19 Jeffrey N. Margolis Direct interaction system mixed reality environments
WO2014119098A1 (ja) * 2013-02-01 2014-08-07 ソニー株式会社 情報処理装置、端末装置、情報処理方法及びプログラム
US10134189B2 (en) * 2014-01-23 2018-11-20 Sony Corporation Image display device and image display method
JP5813181B1 (ja) * 2014-06-24 2015-11-17 アイサンテクノロジー株式会社 衛星測位地図表示システム
JP6344763B2 (ja) * 2014-07-11 2018-06-20 アルパイン株式会社 電子装置、路車間通信システム、現在位置補正方法および現在位置補正プログラム
JP6683127B2 (ja) * 2014-08-01 2020-04-15 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
CN106663338A (zh) * 2014-08-01 2017-05-10 索尼公司 信息处理装置、信息处理方法和程序
CN105204520B (zh) * 2015-09-17 2018-07-06 深圳市十方联智科技有限公司 一种无人飞行器的控制方法

Also Published As

Publication number Publication date
WO2017168900A1 (ja) 2017-10-05
CN108780615A (zh) 2018-11-09
US20190025071A1 (en) 2019-01-24
EP3438953A1 (en) 2019-02-06
EP3438953A4 (en) 2019-04-10
JP2017181870A (ja) 2017-10-05

Similar Documents

Publication Publication Date Title
JP6790417B2 (ja) 情報処理装置及び情報処理サーバ
JP6972392B2 (ja) 自律走行シミュレーションのための時間伸縮法
JP7105305B2 (ja) 多段画像ベースの物体検出および認識
US11150660B1 (en) Scenario editor and simulator
JP6992182B2 (ja) 自律走行車両運行管理計画
JP6897668B2 (ja) 情報処理方法および情報処理装置
JP2022065083A (ja) 物理的環境の変化に応答して自律車両をナビゲートするための適応マッピング
US11927952B2 (en) Adaptive multi-network vehicle architecture
JP7180670B2 (ja) 制御装置、制御方法、並びにプログラム
WO2022087751A1 (en) Method and system for graph neural network based pedestrian action prediction in autonomous driving systems
US11670088B2 (en) Vehicle neural network localization
CA3139481A1 (en) Systems and methods for actor motion forecasting within a surrounding environment of an autonomous vehicle
CN114435351A (zh) 用于基于神经网络的自动驾驶的***和方法
KR20220052846A (ko) Lidar를 사용한 대상체 식별
CN114415672A (zh) 用于自主驾驶车辆的动态模型评估
JP7462837B2 (ja) 低信頼度の物体検出条件における車両動作のための注釈及びマッピング
JP2024513666A (ja) ログデータに基づいたシミュレートされた環境でのオブジェクトのインスタンス化
EP4241047A2 (en) Architecture for map change detection in autonomous vehicles
JP2022539557A (ja) テレオペレータに連絡するための技法
EP4213107A1 (en) Continuous learning machine using closed course scenarios for autonomous vehicles
JP7135690B2 (ja) 情報処理装置および方法、プログラム、並びに移動体制御システム
WO2021187299A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2021193103A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20240087450A1 (en) Emergency vehicle intent detection
US20230056589A1 (en) Systems and methods for generating multilevel occupancy and occlusion grids for controlling navigation of vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190329

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190521

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201019

R151 Written notification of patent or utility model registration

Ref document number: 6790417

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151