JP7494809B2 - 支援装置、支援方法、支援プログラム - Google Patents

支援装置、支援方法、支援プログラム Download PDF

Info

Publication number
JP7494809B2
JP7494809B2 JP2021107964A JP2021107964A JP7494809B2 JP 7494809 B2 JP7494809 B2 JP 7494809B2 JP 2021107964 A JP2021107964 A JP 2021107964A JP 2021107964 A JP2021107964 A JP 2021107964A JP 7494809 B2 JP7494809 B2 JP 7494809B2
Authority
JP
Japan
Prior art keywords
frame
captured
external object
initial
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021107964A
Other languages
English (en)
Other versions
JP2023005785A (ja
Inventor
将司 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2021107964A priority Critical patent/JP7494809B2/ja
Publication of JP2023005785A publication Critical patent/JP2023005785A/ja
Application granted granted Critical
Publication of JP7494809B2 publication Critical patent/JP7494809B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本開示は、物標のアノテーションを支援する技術に、関する。
移動体から外界物標が複数フレームに亘って時系列に撮影された動画データは、例えば座標又はラベル等の項目をアノテーションされることで、自動運転制御用の機械学習モデルをトレーニングする教師データとして活用可能となる。そこで特許文献1に開示の技術では、物標認識用とは別に、アノテーション用の機械学習モデルが用いられることで、自動アノテーションが実現されている。
米国特許出願公開第2020/0019799号明細書
しかし、特許文献1に開示の技術では、アノテーション用の機械学習モデルによる処理が高負荷となる。これは、アノテーションを支援する装置への要求性能が高くなることを意味するため、望ましくない。
本開示の課題は、低負荷な処理によりアノテーションを支援する支援装置を、提供することにある。本開示のまた別の課題は、低負荷な処理によりアノテーションを支援する支援方法を、提供することにある。本開示のさらに別の課題は、低負荷な処理によりアノテーションを支援する支援プログラムを、提供することにある。
以下、課題を解決するための本開示の技術的手段について、説明する。尚、特許請求の範囲及び本欄に記載された括弧内の符号は、後に詳述する実施形態に記載された具体的手段との対応関係を示すものであり、本開示の技術的範囲を限定するものではない。
本開示の第一態様は、
プロセッサ(62)を有し、ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援する支援装置であって、
プロセッサは、
対の初期フレーム(F1,F2)に映る外界物標に関して、位置座標である初期座標の手動アノテーションを要求することと、
対の初期フレームよりも後に撮影された対象フレーム(Fo)に映る外界物標に関して、位置座標である対象座標を自動アノテーションすることとを、実行するように構成され、
対象座標を自動アノテーションすることは、
対象フレームにおける対象座標を予測する予測関数モデル(Mf)を、各初期フレームにおける初期座標と、各初期フレーム間におけるホスト移動体の移動距離とに基づき調整することと、
対象フレームよりも前に撮影された過去フレーム(F2,Fo)と対象フレームとの間におけるホスト移動体の移動距離を、予測関数モデルへ入力することにより、対象フレームにおける対象座標を自動アノテーションすることとを、含む。
本開示の第二態様は、
ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援するために、プロセッサ(62)により実行される支援方法であって、
対の初期フレーム(F1,F2)に映る外界物標に関して、位置座標である初期座標の手動アノテーションを要求することと、
対の初期フレームよりも後に撮影された対象フレーム(Fo)に映る外界物標に関して、位置座標である対象座標を自動アノテーションすることとを、含み、
対象座標を自動アノテーションすることはさらに、
対象フレームにおける対象座標を予測する予測関数モデル(Mf)を、各初期フレームにおける初期座標と、各初期フレーム間におけるホスト移動体の移動距離とに基づき調整することと、
対象フレームよりも前に撮影された過去フレーム(F2,Fo)と対象フレームとの間におけるホスト移動体の移動距離を、予測関数モデルへ入力することにより、対象フレームにおける対象座標を自動アノテーションすることとを、含む。
本開示の第三態様は、
ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援するために記憶媒体(60)に記憶され、プロセッサ(62)に実行させる命令を含む支援プログラムであって、
命令は、
対の初期フレーム(F1,F2)に映る外界物標に関して、位置座標である初期座標の手動アノテーションを要求させることと、
対の初期フレームよりも後に撮影された対象フレーム(Fo)に映る外界物標に関して、位置座標である対象座標を自動アノテーションさせることとを、含み、
対象座標を自動アノテーションさせることはさらに、
対象フレームにおける対象座標を予測する予測関数モデル(Mf)を、各初期フレームにおける初期座標と、各初期フレーム間におけるホスト移動体の移動距離とに基づき調整させることと、
対象フレームよりも前に撮影された過去フレーム(F2,Fo)と対象フレームとの間におけるホスト移動体の移動距離を、予測関数モデルへ入力することにより、対象フレームにおける対象座標を自動アノテーションさせることとを、含む。
これら第一~第三態様によると、対の初期フレームよりも後に撮影された対象フレームに映る外界物標に関しての対象座標を予測する予測関数モデルが、調整される。このとき予測関数モデルの調整は、各初期フレームに映る外界物標に関しての初期座標と、各初期フレーム間におけるホスト移動体の移動距離とに基づく。そこで第一~第三態様では、対象フレームよりも前に撮影された過去フレームと対象フレームとの間におけるホスト移動体の移動距離が予測関数モデルへと入力されることで、対象座標が自動アノテーションされることになる。これによれば、初期フレームにおける初期座標が要求に応じて手動アノテーションされた後には、予測関数モデルの調整と当該調整済関数モデルへの入力という低負荷な処理により、対象座標のアノテーションを支援することが可能となる。
本開示の第四態様は、
プロセッサ(62)を有し、ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援する支援装置であって、
プロセッサは、
所定の初期フレーム(F1)に映る外界物標に関して、時間変化に対して固定される静的状態を識別する静的識別ラベル(Ls)の手動アノテーションを、要求することと、
初期フレームよりも後に撮影されたフレーム(F2,Fo)に映る外界物標に関して、手動アノテーションによる静的識別ラベルを自動アノテーションすることとを、実行するように構成される。
本開示の第五態様は、
ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援するために、プロセッサ(62)により実行される支援方法であって、
所定の初期フレーム(F1)に映る外界物標に関して、時間変化に対して固定される静的状態を識別する静的識別ラベル(Ls)の手動アノテーションを、要求することと、
初期フレームよりも後に撮影されたフレーム(F2,Fo)に映る外界物標に関して、手動アノテーションによる静的識別ラベルを自動アノテーションすることとを、含む。
本開示の第六態様は、
ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援するために記憶媒体(60)に記憶され、プロセッサ(62)に実行させる命令を含む支援プログラムであって、
命令は、
所定の初期フレーム(F1)に映る外界物標に関して、時間変化に対して固定される静的状態を識別する静的識別ラベル(Ls)の手動アノテーションを、要求させることと、
初期フレームよりも後に撮影されたフレーム(F2,Fo)に映る外界物標に関して、手動アノテーションによる静的識別ラベルを自動アノテーションさせることとを、含む。
これら第四~第六態様によると、所定の初期フレームに映る外界物標に関して、時間変化に対して固定される静的状態を識別する静的識別ラベルの手動アノテーションが、要求される。これによれば、要求に応じた手動アノテーション後には、所定の初期フレームよりも後に撮影されたフレームに映る外界物標に関して、手動アノテーションによる静的識別ラベルを自動アノテーションするという低負荷な処理により、アノテーションを支援することが可能となる。
本開示の第七態様は、
プロセッサ(62)を有し、ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援する支援装置であって、
プロセッサは、
所定の初期フレーム(F1)に映る外界物標に関して、時間変化に対して遷移する動的状態を識別する動的識別ラベル(Ld)の手動アノテーションと、初期フレームよりも後に撮影されたフレーム(F2,Fo)のうち、動的状態が遷移したタイミングの遷移フレーム(Ft)に映る外界物標に関して、動的識別ラベルの手動アノテーションとを、要求することと、
初期フレームよりも後に撮影された手動アノテーション外のフレーム(F2,Fo)に映る外界物標に関して、手動アノテーションによる動的識別ラベルを自動アノテーションすることとを、実行するように構成される。
本開示の第八態様は、
ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援するために、プロセッサ(62)により実行される支援方法であって、
所定の初期フレーム(F1)に映る外界物標に関して、時間変化に対して遷移する動的状態を識別する動的識別ラベル(Ld)の手動アノテーションと、初期フレームよりも後に撮影されたフレーム(F2,Fo)のうち、動的状態が遷移したタイミングの遷移フレーム(Ft)に映る外界物標に関して、動的識別ラベルの手動アノテーションとを、要求することと、
初期フレームよりも後に撮影された手動アノテーション外のフレーム(F2,Fo)に映る外界物標に関して、手動アノテーションによる動的識別ラベルを自動アノテーションすることとを、含む。
本開示の第九態様は、
ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援するために記憶媒体(60)に記憶され、プロセッサ(62)に実行させる命令を含む支援プログラムであって、
命令は、
所定の初期フレーム(F1)に映る外界物標に関して、時間変化に対して遷移する動的状態を識別する動的識別ラベル(Ld)の手動アノテーションと、初期フレームよりも後に撮影されたフレーム(F2,Fo)のうち、動的状態が遷移したタイミングの遷移フレーム(Ft)に映る外界物標に関して、動的識別ラベルの手動アノテーションとを、要求させることと、
初期フレームよりも後に撮影された手動アノテーション外のフレーム(F2,Fo)に映る外界物標に関して、手動アノテーションによる動的識別ラベルを自動アノテーションさせることとを、含む。
これら第七~第九態様によると、所定の初期フレームに映る外界物標に関して、時間変化に対して遷移する動的状態を識別する動的識別ラベルの手動アノテーションが、要求される。また第七~第九態様によると、所定の初期フレームよりも後に撮影されたフレームのうち、動的状態が遷移したタイミングの遷移フレームに映る外界物標に関しても、動的識別ラベルの手動アノテーションが要求される。故に、これらの要求に応じた手動アノテーション後には、所定の初期フレームよりも後に撮影された手動アノテーション外のフレームに映る外界物標に関して、手動アノテーションによる静的識別ラベルを自動アノテーションするという低負荷な処理により、アノテーションを支援することが可能となる。
一実施形態の全体構成を示すブロック図である。 一実施形態の適用されるホスト車両の撮影環境を示す模式図である。 一実施形態による撮影データを示す模式図である。 一実施形態による支援装置の機能構成を示すブロック図である。 一実施形態による支援方法を示すフローチャートである。 一実施形態による初期フレームを示す模式図である。 一実施形態による初期フレームを示す模式図である。 一実施形態による外界物標の状態遷移及びラベルを説明するための模式図である。 一実施形態による対象フレームを示す模式図である。 一実施形態による座標変換を説明するための模式図である。 一実施形態による姿勢角を説明するための模式図である。 一実施形態による予測関数モデルの特性を説明するための模式図である。 一実施形態による予測関数モデルの構築原理を説明するための模式図である。 一実施形態による予測関数モデルの構築原理を説明するための模式図である。
以下、本開示の一実施形態を図面に基づき説明する。
図1に示す一実施形態の支援装置1は、ホスト移動体としてのホスト車両2に搭載される外界カメラ3によって、図2に示すように撮影された動画データVdに対してのアノテーション処理を支援する。図3に示すように動画データVdは、ホスト車両2の外界に存在する外界物標Taを複数フレームに亘って含むように、撮影される。即ち動画データVdは、複数フレーム毎のシーケンス画像から構成される、画像データセットであるともといえる。動画データVdを撮影する外界カメラ3は、例えばCMOS等の撮像素子によりホスト車両2の外界を撮影するために、ホスト車両2に搭載される車載カメラである。外界カメラ3によって撮影された動画データVdは、図2,3に示すようにホスト車両2に搭載される記憶媒体4において、支援装置1へ提供可能に保存される。支援装置1へ提供されてアノテーション処理の施された動画データVdは、例えばホスト車両2を含む各種移動体での自動運転制御用の機械学習モデルをトレーニングするために、教師データ等として活用される。
図1に示す一実施形態の支援装置1は、例えばデータ解析センタ等といった、ホスト車両2の外部に設置される。ホスト車両2から支援装置1への動画データVdの提供は、例えば両者2,1間の通信ネットワークを介したデータ伝送により、又は記憶媒体4の物理的移動により、実現される。支援装置1は、表示ユニット5、入力ユニット7、及び専用コンピュータ6を有している。表示ユニット5は、支援装置1のオペレータに向けて動画データVdを表示する、例えば液晶パネル又は有機ELパネル等である。入力ユニット7は、支援装置1のオペレータから入力を受け付ける、例えばマウス、トラックボール、及びキーボード等のうち少くとも一種類である。
支援装置1を構成する専用コンピュータ6は、メモリ60及びプロセッサ62を、少なくとも一つずつ有している。メモリ60は、コンピュータにより読み取り可能なプログラム及びデータ等を非一時的に記憶する、例えば半導体メモリ、磁気媒体、及び光学媒体等のうち、少なくとも一種類の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。メモリ60には、ホスト車両2から支援装置1へ提供された動画データVdが記憶される。メモリ60において動画データVdは、外界物標Taのアノテーションに応じて更新される。
支援装置1においてプロセッサ62は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、及びRISC(Reduced Instruction Set Computer)-CPU等のうち、少なくとも一種類をコアとして含んでいる。プロセッサ62は、動画データVdに対しての外界物標Taのアノテーションを支援するためにメモリ60に記憶された、支援プログラムに含まれる複数の命令を実行する。これにより支援装置1は、動画データVdに対しての外界物標Taのアノテーションを支援するための機能ブロックを、複数構築する。支援装置1において構築される複数の機能ブロックには、図4に示す手動アノテーションブロック100及び自動アノテーションブロック110が含まれている。
これら手動アノテーションブロック100及び自動アノテーションブロック110の共同により、支援装置1が動画データVdに対しての外界物標Taのアノテーションを支援する支援方法は、図5に示す支援フローに従って実行される。本支援フローは、支援装置1のオペレータからの起動指令に応じて実行される。尚、本支援フローにおける各「S」は、支援プログラムに含まれた複数命令によって実行される複数ステップを、それぞれ意味している。
S10において手動アノテーションブロック100は、支援装置1のオペレータへ外界物標Taの手動アノテーションを表示ユニット5での表示によって要求することで、入力ユニット7による手動アノテーションの入力を当該オペレータから受け付ける。ここで手動アノテーションとは、動画データVdにおいてアノテーション対象の外界物標Taに関するアノテーション項目がオペレータによって入力されることを、意味する。尚、以下では手動アノテーションブロック100を、単にブロック100という。
S10において手動アノテーションの対象となる外界物標Taは、静止物及び移動体のいずれであってもよい。外界物標Taとしての静止物は、ホスト車両2の運転に影響する位置固定の物標、例えば信号機、標識、路面標示、及び道路構造物のうち、少なくとも一種類である。外界物標Taとしての移動体は、ホスト車両2の運転に影響する移動可能な物標、例えばホスト車両2以外の他車両、バイク、自転車、及び歩行者等のうち、少なくとも一種類である。
ここから、S10のブロック100によるアノテーション項目毎の処理内容を説明する。S10におけるブロック100は、図6に示すように位置座標を手動アノテーションする外界物標Taが初めて映るフレームF1と、図7に示すように同じ外界物標Taが連続して次に映るフレームF2とを、初期フレームF1,F2として少なくとも一対選択するように、オペレータへ要求する。さらにS10におけるブロック100は、図6,7の如く対の初期フレームF1,F2に映る外界物標Taに関して、横方向での位置座標である初期座標x,xと、縦方向での位置座標である初期座標y,yとの、手動アノテーションをオペレータへ要求する。ここで位置座標のアノテーションでは、対象フレームに映る外界物標Taの例えば角部、端部、又は縁部等といった一部に位置座標が付与されてもよいし、当該外界物標Taを囲むバウンディングボックスの例えば矩形角部、又は矩形辺部等といった一部に位置座標が付与されてもよい。
こうして初期フレームF1,F2の選択要求及び初期座標x,y及びx,yの手動アノテーション要求を受けたオペレータは、必要な入力操作を支援装置1に対して行う。このときオペレータは、表示ユニット5において動画データVdの各フレームを時間の経過順に送りながら、アノテーション対象とする少なくとも一つの外界物標Taが現出する毎に、要求に応じた入力を入力ユニット7へ与える。その結果、手動アノテーションされた初期座標x,y及びx,yの各組は、それぞれ対応する初期フレームF1,F2毎に一組ずつ又は複数組ずつ関連付けてメモリ60に記憶されることで、それらフレームF1,F2の更新データとして付加される。また、手動アノテーションされた初期座標x,y及びx,yの各組は、それぞれ入力ユニット7へのオペレータ入力に応答して、表示ユニット5による表示中のフレームF1又はF2に重畳表示されるとよい。
S10におけるブロック100はまた、図8に示すように手動アノテーション対象の外界物標Taが初めて映る初期フレームF1に関して、静的識別ラベルLs及び動的識別ラベルLdの手動アノテーションをオペレータへ要求する。即ち、位置座標の手動アノテーションが要求される初期フレームF1,F2の対のうち、先に撮影されたフレームF1に関して、静的識別ラベルLs及び動的識別ラベルLdの手動アノテーションが要求される。このとき静的識別ラベルLsとは、時間変化に対して固定される外界物標Taの静的状態を、識別するために設定される。ここで静的状態は、外界物標Taの種別を含む。また静的状態は、例えば外界物標Taの種別が図8の如き信号機である場合に、当該信号機における灯火色毎のランプが並ぶ向き等も含んでいてもよい。一方で動的識別ラベルLdとは、時間変化に対して遷移する外界物標Taの動的状態を、識別するために設定される。ここで動的状態とは、外界物標Taの作動状態を含む。例えば外界物標Taの種別が図8の如き信号機である場合において動的状態としての作動状態は、当該信号機の灯火色等を含んでいてもよい。
S10におけるブロック100は、先の初期フレームF1よりも後に撮影されて手動アノテーション対象の外界物標Taが映る初期フレームF2及び後続フレーム(即ち、後述の対象フレームFo)のうち、図8の如く当該対象物標Taの動的状態が遷移したタイミングの遷移フレームFtを少なくとも一つ選択するように、オペレータへ要求する。さらにS10におけるブロック100は、遷移フレームFtに映る外界物標Taに関しても、動的識別ラベルLdの手動アノテーションをオペレータへ要求する。
S10において、識別ラベルLs,Ldの手動アノテーション及び遷移フレームFtの選択は、初期フレームF1,F2の選択及び初期座標x,y,x,yの手動アノテーションと同時に、要求される。またS10において、初期座標x,y,x,yの手動アノテーション対象は、動的状態の遷移する外界物標Taを含んでいてもよいし、含んでいなくてもよい。そのため、全ての識別ラベルLs,Ldの手動アノテーション対象は、全ての初期座標x,y,x,yの手動アノテーション対象と完全に一致している必要はなく、少なくとも一部の初期座標x,y,x,yの手動アノテーション対象と一致していればよい。
こうして識別ラベルLs,Ldの手動アノテーション要求及び遷移フレームFtの選択要求を受けたオペレータは、必要な入力操作を支援装置1に対して行う。このときオペレータは、表示ユニット5において動画データVdの各フレームを時間の経過順に送りながら、アノテーション対象とする少なくとも一つの外界物標Taが現出する毎と、当該現出物標Taの動的状態が遷移した場合とに、要求に応じた入力を入力ユニット7へ与える。その結果、手動アノテーションされた識別ラベルLs,Ldは、それぞれ対応する初期フレームF1と、動的状態が遷移した場合の遷移フレームFtとに関連付けてメモリ60に記憶されることで、それらフレームF1,Foの更新データとして付加される。また、手動アノテーションされた識別ラベルLs,Ldは、入力ユニット7へのオペレータ入力に応答して、表示ユニット5による表示中のフレームF1又はFoに重畳表示されるとよい。
図5に示すS11において自動アノテーションブロック110は、外界物標Taの位置座標及び識別ラベルLs,Ldのうち、S10のブロック100による手動アノテーションが未実施であるアノテーション項目の自動アノテーションを、実行する。ここで自動アノテーションとは、動画データVdにおいてアノテーション対象の外界物標Taに関するアノテーション項目が支援装置1の自動処理によって付与されることを、意味する。尚、以下では自動アノテーションブロック110を、単にブロック110という。
ここから、S11のブロック110によるアノテーション項目毎の処理内容を説明する。S11におけるブロック110は、手動アノテーション対象の外界物標Taが映る対の初期フレームF1,F2よりも後に撮影されて、図9に示すように同じ外界物標Taがそれら初期フレームF1,F2から連続して映る対象フレームFoを、少なくとも一つ抽出する。さらにS11におけるブロック110は、対象フレームFoに映る外界物標Taに関して、横方向での位置座標である対象座標xと、縦方向での位置座標である対象座標yとを、自動アノテーションする。ここで、対象座標x,yに付されるサフィックスmは、対象フレームFoを時間の早い順に識別するための、3以上の整数である。
S11による対象座標x,yの自動アノテーションにおいてブロック110は、図5に示すように、対象フレームFoにおける対象座標x,yを予測する予測関数モデルMfを、調整する。ここで予測関数モデルMfは、後述の数1~数23の関数演算式に従って構築される。こうした予測関数モデルMfの調整は、各初期フレームF1,F2における初期座標x,y及びx,yの組と、それら各初期フレームF1,F2間におけるホスト車両2の移動距離とに、基づく。また予測関数モデルMfの調整は、各初期フレームF1,F2における初期座標x,y及びx,yの組が複数組ずつ存在する場合、それら各組毎に実行される。
以下、予測関数モデルMfの詳細を説明する。尚、以下では、初期座標x,y,x,yと対象座標x,yとを含む位置座標を、初期フレームF1,F2及び対象フレームFoを時間の早い順に識別するための、1以上の整数であるサフィックスnを用いて、x,yと表記する。
予測関数モデルMfを構成する数1,2の関数演算式は、それぞれ先の初期フレームF1における画像座標系での初期座標x,yを、中心座標系での位置座標x’,y’へ変換する。予測関数モデルMfを構成する数3,4の関数演算式は、それぞれ後の初期フレームF2における画像座標系での初期座標x,yを、中心座標系での位置座標x’,y’へ変換する。ここで図6,7,9,10に示すように画像座標系は、各フレームにおける縦横両方向の走査開始点(フレーム幅及びフレーム高さの起算位置)を、原点Oとしている。一方で図10に示すように中心座標系は、各フレームにおける縦横両方向の中心点(フレーム幅及びフレーム高さの各半値位置)を、原点O’としている。尚、数1,3のNhは、各フレームの横方向での画像サイズであるフレーム幅を意味し、動画データVdにおいては各フレームに共通して事前付加されている。また数2,4のNvは、各フレームの縦方向での画像サイズであるフレーム高さを意味し、動画データVdにおいては各フレームに共通して事前付加されている。
Figure 0007494809000001
Figure 0007494809000002
Figure 0007494809000003
Figure 0007494809000004
予測関数モデルMfを構成する数5の関数演算式は、各初期フレームF1,F2間におけるホスト車両2の姿勢変化量として、それら各フレームF1,F2のピッチ角θp_1,θp_2間での変化量(以下、ピッチ角変化量という)θp_2_1を与える。ここでピッチ角θp_n(後述の数18も参照)は、図11に示すように縦方向の位置座標に影響する、ピッチ軸Pまわりでの姿勢角を意味し、動画データVdにおいては各フレーム毎に事前付加されている。予測関数モデルMfを構成する数6の関数演算式は、各初期フレームF1,F2間におけるホスト車両2の姿勢変化量として、それら各フレームF1,F2のヨー角θy_1,θy_2間での変化量(以下、ヨー角変化量という)θy_2_1を与える。ここでヨー角θy_n(後述の数19も参照)は、図11に示すように横方向の位置座標に影響する、ヨー軸Yまわりでの姿勢角を意味し、動画データVdにおいては各フレーム毎に事前付加されている。
Figure 0007494809000005
Figure 0007494809000006
予測関数モデルMfを構成する数7の関数演算式は、初期フレームF1における中心座標系での位置座標y’を、そのまま位置座標y”に定義する。予測関数モデルMfを構成する数8の関数演算式は、初期フレームF2における中心座標系での位置座標y’を、ピッチ角変化量θp_2_1により補正した位置座標y”へ変換する。予測関数モデルMfを構成する数9の関数演算式は、初期フレームF1における中心座標系での位置座標x’を、そのまま位置座標x”に定義する。予測関数モデルMfを構成する数10の関数演算式は、初期フレームF2における中心座標系での位置座標x’を、ヨー角変化量θy_2_1により補正した位置座標x”へ変換する。こうして定義又は変換された位置座標x”,y”及びx”,y”の各組は、図12に二点鎖線で示すように中心座標系の原点O’を通る仮想直線上に、位置する。尚、数8,10のfは、外界カメラ3の焦点距離であり、動画データVdにおいては各フレームに共通して事前付加されている。また、位置座標x”,y”へ変換するための補正としては、姿勢変化量による補正の他、例えば外界カメラ3のレンズ歪量等による補正が、追加されてもよい。
Figure 0007494809000007
Figure 0007494809000008
Figure 0007494809000009
Figure 0007494809000010
予測関数モデルMfを構成する数11の関数演算式は、各初期フレームF1,F2間におけるホスト車両2の移動距離Dd_2_1を用いて、ホスト車両2での撮影位置とアノテーション対象の外界物標Taとの、図2に示す相対高さhを与える。即ち数11の関数演算式は、初期フレームF1,F2での位置座標y”,y”に基づき相対高さhを決定することで、アノテーション対象の外界物標Taに合わせて予測関数モデルMfを調整する、調整演算式ともいえる。ここで特に初期フレームF2での位置座標y”は、座標yを座標変換してからピッチ角変化量θp_2_1により補正した、初期座標を意味する。尚、数11のfとkとは、それぞれ外界カメラ3の焦点距離と各フレームの画素密度とであり、いずれも動画データVdにおいては各フレームに共通して事前付加されている。
Figure 0007494809000011
図13に示すように数11の相対高さhは、ホスト車両2の外界カメラ3における撮像面Piの中心位置と、外界物標Taにおいて位置座標y”に対応する位置との間の、鉛直方向距離に定義される。こうした相対高さhは、外界カメラ3の撮像面Pi及び焦点面Pf間の焦点距離fと、各フレーム撮影時における撮像面Pi及び外界物標Ta間の水平方向距離Dと、画素密度kの逆数に対する位置座標y”の乗算値とに、相関する。また、図14に示すようにフレームの進行に伴う位置座標x”,y”の移動量は、各フレーム撮影時における焦点面Pf及び外界物標Ta間の水平方向距離Dに反比例する。これらの知見に基づき数11の関数演算式は、各初期フレームF1,F2での水平方向距離DであるD,D間の差分に対応した、ホスト車両2の移動距離Dd_2_1に基づくことで、予測関数モデルMfを調整するための相対高さhを与えることになる。
ここで数11の移動距離Dd_2_1は、動画データVdにおいて各初期フレームF1,F2に事前付加されたホスト車両2の自己位置に基づき、与えられる。但し、アノテーション対象の外界物標Taが静止物である場合、予測関数モデルMfを構成する数12の関数演算式により、初期フレームF1,F2の撮影時における自己位置間の距離差ΔDが、そのまま移動距離Dd_2_1として与えられる。一方、アノテーション対象の外界物標Taが移動体である場合、予測関数モデルMfを構成する数13の関数演算式により、各初期フレームF1,F2間の距離差ΔDと、それら各フレームF1,F2間において当該移動体に予測される移動距離ΔLとの、総和が移動距離Dd_2_1として与えられる。この場合に予測関数モデルMfは、移動体である外界物標Taの移動距離ΔLを各初期フレームF1,F2間において補償したホスト車両2の移動距離Dd_2_1に基づき、調整されるといえる。尚、距離差ΔDを与える自己位置は、動画データVdにおいて各フレーム毎に事前付加されている。また、数13及び後述する数16のvは、外界物標Taの予測される移動速度であり、動画データVdにおいては各フレーム毎に事前付加されている。さらに、数13のt1,t2及び後述する数16のtは、各フレームの撮影時刻であり、動画データVdにおいては各フレーム毎に事前付加されている。
Figure 0007494809000012
Figure 0007494809000013
予測関数モデルMfを構成する数14の関数演算式は、対象フレームFoと、その直前に撮影された初期フレームF2又は対象フレームFoである過去フレームとの間における、ホスト車両2の移動距離Dd_n_n-1を用いて、当該対象フレームFoでの横方向の位置座標y”を与える。ここで、数14の関数演算式を満たす位置座標y”は、図12に示すように中心座標系の原点O’を通る上述の仮想直線上を、フレームの進行に伴って移動する。そこで位置座標y”は、最終的に自動アノテーションする座標yを与えるために、本実施形態では後述する補正及び変換が施される前の、対象座標を意味する。
Figure 0007494809000014
ここで数14の移動距離Dd_n_n-1は、動画データVdにおいてサフィックスnが2以上の各フレーム毎に事前付加されたホスト車両2の自己位置に基づき、与えられる。但し、アノテーション対象の外界物標Taが静止物である場合、予測関数モデルMfを構成する数15の関数演算式により、対象フレームFo及びその直前過去フレームの撮影時における自己位置間の距離差ΔDが、そのまま移動距離Dd_n_n-1として与えられる。一方、アノテーション対象の外界物標Taが移動体である場合、予測関数モデルMfを構成する数16の関数演算式により、対象フレームFo及び直前過去フレーム間の距離差ΔDと、それら各フレーム間において当該移動体に予測される移動距離ΔLとの、総和が移動距離Dd_n_n-1として与えられる。この場合に位置座標y”は、移動体である外界物標Taの移動距離ΔLを対象フレームFo及び直前過去フレーム間において補償したホスト車両2の移動距離Dd_n_n-1に基づき、与えられるといえる。
Figure 0007494809000015
Figure 0007494809000016
予測関数モデルMfを構成する数17の関数演算式は、対象フレームFoでの横方向の位置座標x”を与える。ここで、数17の関数演算式を満たす位置座標x”は、図12に示すように中心座標系の原点O’を通る上述の仮想直線上を、フレームの進行に伴って移動すると予測される。そこで位置座標x”は、最終的に自動アノテーションする座標xを与えるために、本実施形態では後述する補正及び変換が施される前の、対象座標を意味する。
Figure 0007494809000017
予測関数モデルMfを構成する数18の関数演算式は、対象フレームFo及び初期フレームF1間におけるホスト車両2の姿勢変化量として、それら各フレームFo,F1のピッチ角θp_n,θp_1間でのピッチ角変化量θp_n_1を与える。予測関数モデルMfを構成する数19の関数演算式は、対象フレームFo及び初期フレームF1間におけるホスト車両2の姿勢変化量として、それら各フレームFo,F1のヨー角θy_n,θy_1間でのヨー角変化量θy_n_1を与える。
Figure 0007494809000018
Figure 0007494809000019
予測関数モデルMfを構成する数20の関数演算式は、対象フレームFoにおける位置座標y”を、ピッチ角変化量θp_n_1により補正した位置座標y’へ変換する。予測関数モデルMfを構成する数21の関数演算式は、対象フレームFoにおける位置座標x”を、ヨー角変化量θy_n_1により補正した位置座標x’へ変換する。尚、位置座標x’,y’へ変換するための補正としては、姿勢変化量による補正の他、例えば外界カメラ3のレンズ歪量等による補正が、追加されてもよい。
Figure 0007494809000020
Figure 0007494809000021
予測関数モデルMfを構成する数22,23の関数演算式は、それぞれ対象フレームFoにおける中心座標系での位置座標x’,y’を、画像座標系での位置座標x,yである対象座標x,yへ変換する。こうして変換された対象座標x,yは、以上説明した数1~23の関数演算式を満たす予測関数モデルMfから出力されることで、アノテーション対象の外界物標Taに自動アノテーションされる。
Figure 0007494809000022
Figure 0007494809000023
そこで、S11による対象座標x,yの自動アノテーションにおいてブロック110は、図5に示すように、対象フレームFo及び直前過去フレーム間におけるホスト車両2の移動距離Dd_n_n-1を、相対高さhの決定された調整済の予測関数モデルMfへ入力する。これによりS11のブロック110は、対象フレームFoに付与すべき対象座標x,yを、自動アノテーションする。その結果、自動アノテーションされた対象座標x,yは、対応する対象フレームFoに関連付けてメモリ60に記憶されることで、当該フレームFoの更新データとして付加される。また、自動アノテーションされた対象座標x,yは、入力ユニット7へのオペレータ入力又は当該自動アノテーションの完了に応答して、表示ユニット5による各フレームの表示送りに合わせた適時に、重畳表示されてもよい。ここで対象座標x,yが重畳表示される場合には、入力ユニット7へのオペレータ入力に応答して、例えばカーブ走行路等での対象座標x,yの手動補正が受け付けられてもよい。
さて、S11におけるブロック110は、対の初期フレームF1,F2のうち後に撮影された初期フレームF2と、対象フレームFoとに映る外界物標Taに関して、図8に示すように手動アノテーションによる静的識別ラベルLsを自動アノテーションする。このとき自動アノテーションされる静的識別ラベルLsは、S10のブロック100による要求に応答して、対の初期フレームF1,F2のうち先に撮影された初期フレームF1への手動アノテーションにより、付与されたラベルとなる。こうして初期フレームF1から引き継がれた静的識別ラベルLsは、対応する初期フレームF2及び対象フレームFoに関連付けてメモリ60に記憶されることで、それらフレームF2,Foの更新データとして付加される。また、自動アノテーションされた静的識別ラベルLsは、入力ユニット7へのオペレータ入力又は当該自動アノテーションの完了に応答して、表示ユニット5による各フレームの表示送りに合わせた適時に、重畳表示されてもよい。ここで静的識別ラベルLsが重畳表示される場合には、入力ユニット7へのオペレータ入力に応答して、静的識別ラベルLsの手動補正が受け付けられてもよい。
S11におけるブロック110は、先の初期フレームF1よりも後に撮影された、手動アノテーション外のフレームF2,Foに映る外界物標Taに関して、図8に示すように手動アノテーションによる動的識別ラベルLdを自動アノテーションする。このとき自動アノテーションされる動的識別ラベルLdは、S10のブロック100による要求に応答して、対の初期フレームF1,F2のうち先に撮影された初期フレームF1への手動アノテーションにより、又はそれよりも後に撮影された場合の遷移フレームFtへの手動アノテーションにより、付与されたラベルとなる。またこのとき、同じ外界物標Taに関して異なる動的状態の動的識別ラベルLdを手動アノテーションされた遷移フレームFtが複数存在する場合、各遷移フレームFtから次の遷移フレームFt又は次の初期フレームF1までの対象フレームFoに、それぞれ各遷移フレームFtの動的識別ラベルLdが引き継がれる。尚、図8では、次の初期フレームF1よりも一つ前のフレーム又は動画データVdの最終フレームが、FNと表示されている。
こうして自動アノテーションされた動的識別ラベルLdは、対応する初期フレームF2及び対象フレームFoに関連付けてメモリ60に記憶されることで、それらフレームF2,Foの更新データとして付加される。また、自動アノテーションされた動的識別ラベルLdは、入力ユニット7へのオペレータ入力又は当該自動アノテーションの完了に応答して、表示ユニット5による各フレームの表示送りに合わせた適時に、重畳表示されてもよい。ここで動的識別ラベルLdが重畳表示される場合には、入力ユニット7へのオペレータ入力に応答して、動的識別ラベルLdの手動補正が受け付けられてもよい。
(作用効果)
以上説明した本実施形態の作用効果を、以下に説明する。
本実施形態によると、対の初期フレームF1,F2よりも後に撮影された対象フレームFoに映る外界物標Taに関しての対象座標x,yを予測する予測関数モデルMfが、調整される。このとき予測関数モデルMfの調整は、各初期フレームF1,F2に映る外界物標Taに関しての初期座標x,y,x,yと、各初期フレームF1,F2間におけるホスト車両2の移動距離Dd_2_1とに基づく。そこで本実施形態では、対象フレームFoよりも前に撮影された過去フレームと対象フレームFoとの間におけるホスト車両2の移動距離Dd_n_n-1が予測関数モデルMfへと入力されることで、対象座標x,yが自動アノテーションされることになる。これによれば、初期フレームF1,F2の初期座標x,y,x,yが要求に応じて手動アノテーションされた後には、予測関数モデルMfの調整と当該調整済関数モデルMfへの入力という低負荷な処理により、対象座標x,yのアノテーションを支援することが可能となる。
本実施形態によると、各初期フレームF1,F2間におけるホスト車両2の姿勢変化量により補正された初期座標に基づくことで、予測関数モデルMfが調整される。これによれば、姿勢変化量による補正を含んだ予測関数モデルMfの調整と、当該調整済関数モデルMfへの入力という低負荷な処理により、対象座標x,yを正確に自動アノテーションすることができる。故に、低負荷処理によるアノテーション支援への信頼度を高めることが可能となる。
本実施形態によると、対象フレームFo及びその直前過去フレーム間におけるホスト車両2の姿勢変化量により補正された対象座標x,yが、自動アノテーションされる。これによれば、姿勢変化量による補正を与えるような予測関数モデルMfの調整と、当該調整済関数モデルMfへの入力という低負荷な処理により、対象座標x,yを正確に自動アノテーションすることができる。故に、低負荷処理によるアノテーション支援への信頼度を高めることが可能となる。
本実施形態によると、各初期フレームF1,F2間において外界物標Taの移動距離ΔLを補償されたホスト車両2の移動距離Dd_2_1に基づき、予測関数モデルMfが調整される。これによれば、移動距離補償を含んだ予測関数モデルMfの調整と、当該調整済関数モデルMfへの入力という低負荷な処理により、対象座標x,yを正確に自動アノテーションすることができる。故に、低負荷処理によるアノテーション支援への信頼度を高めることが可能となる。
本実施形態によると、対象フレームFo及びその直前過去フレーム間において外界物標Taの移動距離ΔLを補償されたホスト車両2の移動距離Dd_n_n-1が、予測関数モデルMfへと入力される。これによれば、予測関数モデルMfの調整と、当該調整済関数モデルへの補償後移動距離Dd_n_n-1の入力という低負荷な処理により、対象座標x,yを正確に自動アノテーションすることができる。故に、低負荷処理によるアノテーション支援への信頼度を高めることが可能となる。
本実施形態によると、所定の初期フレームF1に映る外界物標Taに関して、時間変化に対して固定される静的状態を識別する静的識別ラベルLsの手動アノテーションが、要求される。これによれば、要求に応じた手動アノテーション後には、所定の初期フレームF1よりも後に撮影されたフレームに映る外界物標Taに関して、手動アノテーションによる静的識別ラベルLsを自動アノテーションするという低負荷な処理により、アノテーションを支援することが可能となる。
本実施形態によると、所定の初期フレームF1に映る外界物標Taに関して、時間変化に対して遷移する動的状態を識別する動的識別ラベルLdの手動アノテーションが、要求される。また本実施形態によると、所定の初期フレームF1よりも後に撮影されたフレームのうち、動的状態が遷移したタイミングの遷移フレームFtに映る外界物標Taに関しても、動的識別ラベルLdの手動アノテーションが要求される。故に、これらの要求に応じた手動アノテーション後には、所定の初期フレームF1よりも後に撮影された手動アノテーション外のフレームに映る外界物標Taに関して、手動アノテーションによる動的識別ラベルLdを自動アノテーションするという低負荷な処理により、アノテーションを支援することが可能となる。
(他の実施形態)
以上、一実施形態について説明したが、本開示は、当該説明の実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態に適用することができる。
変形例において支援装置1を構成する専用コンピュータは、デジタル回路及びアナログ回路のうち、少なくとも一方をプロセッサとして有していてもよい。ここでデジタル回路とは、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、SOC(System on a Chip)、PGA(Programmable Gate Array)、及びCPLD(Complex Programmable Logic Device)等のうち、少なくとも一種類である。またこうしたデジタル回路は、プログラムを記憶したメモリを、有していてもよい。
変形例のブロック100によるS10において、静的識別ラベルLs及び動的識別ラベルLdのうち少なくとも一方の手動アノテーションは、初期フレームF1,F2の選択及び初期座標x,y,x,yの手動アノテーションとは前後して要求されてもよい。変形形では、ブロック100によるS10において静的識別ラベルLs及び動的識別ラベルLdのうち少なくとも一方の手動アノテーションの要求と、ブロック110によるS11において当該少なくとも一方の自動アノテーションとが、実行されなくてもよい。
変形例のブロック110によるS11において、数1~4,22,23の関数演算式を満たす座標変換は、実行されなくてもよい。変形例のブロック110によるS11において、数8,10,20,21の関数演算式を満たす補正は、実行されなくてもよい。変形例のブロック110によるS11において、数13,16の関数演算式による補償は、実行されなくてもよい。
変形例において支援装置1の適用される動画データVdを提供するホスト移動体は、例えば走行をリモート制御可能なドローン等であってもよい。ここまでの説明形態の他、上述の実施形態及び変形例による支援装置1は、プロセッサ62及びメモリ60を少なくとも一つずつ有した半導体装置(例えば半導体チップ等)として、実施されてもよい。
1:支援装置、2:ホスト車両、5:表示ユニット、60:メモリ、62:プロセッサ、F1,F2:初期フレーム、Fo:対象フレーム、Ft:遷移フレーム、Ld:動的識別ラベル、Ls:静的識別ラベル、Mf:予測関数モデル、Ta:外界物標、Vd:動画データ

Claims (21)

  1. プロセッサ(62)を有し、ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援する支援装置であって、
    前記プロセッサは、
    対の初期フレーム(F1,F2)に映る前記外界物標に関して、位置座標である初期座標の手動アノテーションを要求することと、
    対の前記初期フレームよりも後に撮影された対象フレーム(Fo)に映る前記外界物標に関して、位置座標である対象座標を自動アノテーションすることとを、実行するように構成され、
    前記対象座標を自動アノテーションすることは、
    前記対象フレームにおける前記対象座標を予測する予測関数モデル(Mf)を、各前記初期フレームにおける前記初期座標と、各前記初期フレーム間における前記ホスト移動体の移動距離とに基づき調整することと、
    前記対象フレームよりも前に撮影された過去フレーム(F2,Fo)と前記対象フレームとの間における前記ホスト移動体の移動距離を、前記予測関数モデルへ入力することにより、前記対象フレームにおける前記対象座標を自動アノテーションすることとを、含む支援装置。
  2. 前記対象座標を自動アノテーションすることは、
    各前記初期フレーム間における前記ホスト移動体の姿勢変化量により補正した前記初期座標に基づき、前記予測関数モデルを調整することを、含む請求項1に記載の支援装置。
  3. 前記対象座標を自動アノテーションすることは、
    前記対象フレーム及び前記過去フレーム間における前記ホスト移動体の姿勢変化量により補正した前記対象座標を、自動アノテーションすることを、含む請求項1又は2に記載の支援装置。
  4. 前記対象座標を自動アノテーションすることは、
    各前記初期フレーム間において前記外界物標の移動距離を補償した前記ホスト移動体の移動距離に基づき、前記予測関数モデルを調整することを、含む請求項1~3のいずれか一項に記載の支援装置。
  5. 前記対象座標を自動アノテーションすることは、
    前記対象フレーム及び前記過去フレーム間において前記外界物標の移動距離を補償した前記ホスト移動体の移動距離を、前記予測関数モデルへ入力することを、含む請求項1~4のいずれか一項に記載の支援装置。
  6. 表示ユニット(5)を有し、
    前記プロセッサは、
    前記対象座標を当該表示ユニットに表示することを、さらに実行するように構成される請求項1~5のいずれか一項に記載の支援装置。
  7. 記憶媒体(60)を有し、
    前記プロセッサは、
    前記対象座標を当該記憶媒体に記憶することを、さらに実行するように構成される請求項1~6のいずれか一項に記載の支援装置。
  8. 前記プロセッサは、
    対の前記初期フレームのうち先に撮影された前記初期フレーム(F1)に映る前記外界物標に関して、時間変化に対して固定される静的状態を識別する静的識別ラベル(Ls)の手動アノテーションを、要求することと、
    対の前記初期フレームのうち後に撮影された前記初期フレーム(F2)と、前記対象フレームとに映る前記外界物標に関して、手動アノテーションによる前記静的識別ラベルを自動アノテーションすることとを、さらに実行するように構成される請求項1~7のいずれか一項に記載の支援装置。
  9. 前記プロセッサは、
    対の前記初期フレームのうち先に撮影された前記初期フレーム(F1)に映る前記外界物標に関して、時間変化に対して遷移する動的状態を識別する動的識別ラベル(Ld)の手動アノテーションと、当該先の前記初期フレームよりも後に撮影された前記初期フレーム(F2)及び前記対象フレームのうち、前記動的状態が遷移したタイミングのフレームである遷移フレーム(Ft)に映る前記外界物標に関して、前記動的識別ラベルの手動アノテーションとを、要求することと、
    当該先の前記初期フレーム(F1)よりも後に撮影された手動アノテーション外のフレーム(F2,Fo)に映る前記外界物標に関して、手動アノテーションによる前記動的識別ラベルを自動アノテーションすることとを、さらに実行するように構成される請求項1~8のいずれか一項に記載の支援装置。
  10. プロセッサ(62)を有し、ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援する支援装置であって、
    前記プロセッサは、
    所定の初期フレーム(F1)に映る前記外界物標に関して、時間変化に対して固定される静的状態を識別する静的識別ラベル(Ls)の手動アノテーションを、要求することと、
    前記初期フレームよりも後に撮影されたフレーム(F2,Fo)に映る前記外界物標に関して、手動アノテーションによる前記静的識別ラベルを自動アノテーションすることとを、実行するように構成される支援装置。
  11. プロセッサ(62)を有し、ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援する支援装置であって、
    前記プロセッサは、
    所定の初期フレーム(F1)に映る前記外界物標に関して、時間変化に対して遷移する動的状態を識別する動的識別ラベル(Ld)の手動アノテーションと、前記初期フレームよりも後に撮影されたフレーム(F2,Fo)のうち、前記動的状態が遷移したタイミングの遷移フレーム(Ft)に映る前記外界物標に関して、前記動的識別ラベルの手動アノテーションとを、要求することと、
    前記初期フレームよりも後に撮影された手動アノテーション外のフレーム(F2,Fo)に映る前記外界物標に関して、手動アノテーションによる前記動的識別ラベルを自動アノテーションすることとを、実行するように構成される支援装置。
  12. 表示ユニット(5)を有し、
    前記プロセッサは、
    前記静的識別ラベルを当該表示ユニットに表示することを、さらに実行するように構成される請求項8又は10に記載の支援装置。
  13. 記憶媒体(60)を有し、
    前記プロセッサは、
    前記静的識別ラベルを当該記憶媒体に記憶することを、さらに実行するように構成される請求項8,10,12のいずれか一項に記載の支援装置。
  14. 表示ユニット(5)を有し、
    前記プロセッサは、
    前記動的識別ラベルを当該表示ユニットに表示することを、さらに実行するように構成される請求項9又は11に記載の支援装置。
  15. 記憶媒体(60)を有し、
    前記プロセッサは、
    前記動的識別ラベルを当該記憶媒体に記憶することを、さらに実行するように構成される請求項9,11,14のいずれか一項に記載の支援装置。
  16. ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援するために、プロセッサ(62)により実行される支援方法であって、
    対の初期フレーム(F1,F2)に映る前記外界物標に関して、位置座標である初期座標の手動アノテーションを要求することと、
    対の前記初期フレームよりも後に撮影された対象フレーム(Fo)に映る前記外界物標に関して、位置座標である対象座標を自動アノテーションすることとを、含み、
    前記対象座標を自動アノテーションすることはさらに、
    前記対象フレームにおける前記対象座標を予測する予測関数モデル(Mf)を、各前記初期フレームにおける前記初期座標と、各前記初期フレーム間における前記ホスト移動体の移動距離とに基づき調整することと、
    前記対象フレームよりも前に撮影された過去フレーム(F2,Fo)と前記対象フレームとの間における前記ホスト移動体の移動距離を、前記予測関数モデルへ入力することにより、前記対象フレームにおける前記対象座標を自動アノテーションすることとを、含む支援方法。
  17. ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援するために、プロセッサ(62)により実行される支援方法であって、
    所定の初期フレーム(F1)に映る前記外界物標に関して、時間変化に対して固定される静的状態を識別する静的識別ラベル(Ls)の手動アノテーションを、要求することと、
    前記初期フレームよりも後に撮影されたフレーム(F2,Fo)に映る前記外界物標に関して、手動アノテーションによる前記静的識別ラベルを自動アノテーションすることとを、含む支援方法。
  18. ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援するために、プロセッサ(62)により実行される支援方法であって、
    所定の初期フレーム(F1)に映る前記外界物標に関して、時間変化に対して遷移する動的状態を識別する動的識別ラベル(Ld)の手動アノテーションと、前記初期フレームよりも後に撮影されたフレーム(F2,Fo)のうち、前記動的状態が遷移したタイミングの遷移フレーム(Ft)に映る前記外界物標に関して、前記動的識別ラベルの手動アノテーションとを、要求することと、
    前記初期フレームよりも後に撮影された手動アノテーション外のフレーム(F2,Fo)に映る前記外界物標に関して、手動アノテーションによる前記動的識別ラベルを自動アノテーションすることとを、含む支援方法。
  19. ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援するために記憶媒体(60)に記憶され、プロセッサ(62)に実行させる命令を含む支援プログラムであって、
    前記命令は、
    対の初期フレーム(F1,F2)に映る前記外界物標に関して、位置座標である初期座標の手動アノテーションを要求させることと、
    対の前記初期フレームよりも後に撮影された対象フレーム(Fo)に映る前記外界物標に関して、位置座標である対象座標を自動アノテーションさせることとを、含み、
    前記対象座標を自動アノテーションさせることはさらに、
    前記対象フレームにおける前記対象座標を予測する予測関数モデル(Mf)を、各前記初期フレームにおける前記初期座標と、各前記初期フレーム間における前記ホスト移動体の移動距離とに基づき調整させることと、
    前記対象フレームよりも前に撮影された過去フレーム(F2,Fo)と前記対象フレームとの間における前記ホスト移動体の移動距離を、前記予測関数モデルへ入力することにより、前記対象フレームにおける前記対象座標を自動アノテーションさせることとを、含む支援プログラム。
  20. ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援するために記憶媒体(60)に記憶され、プロセッサ(62)に実行させる命令を含む支援プログラムであって、
    前記命令は、
    所定の初期フレーム(F1)に映る前記外界物標に関して、時間変化に対して固定される静的状態を識別する静的識別ラベル(Ls)の手動アノテーションを、要求させることと、
    前記初期フレームよりも後に撮影されたフレーム(F2,Fo)に映る前記外界物標に関して、手動アノテーションによる前記静的識別ラベルを自動アノテーションさせることとを、含む支援プログラム。
  21. ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援するために記憶媒体(60)に記憶され、プロセッサ(62)に実行させる命令を含む支援プログラムであって、
    前記命令は、
    所定の初期フレーム(F1)に映る前記外界物標に関して、時間変化に対して遷移する動的状態を識別する動的識別ラベル(Ld)の手動アノテーションと、前記初期フレームよりも後に撮影されたフレーム(F2,Fo)のうち、前記動的状態が遷移したタイミングの遷移フレーム(Ft)に映る前記外界物標に関して、前記動的識別ラベルの手動アノテーションとを、要求させることと、
    前記初期フレームよりも後に撮影された手動アノテーション外のフレーム(F2,Fo)に映る前記外界物標に関して、手動アノテーションによる前記動的識別ラベルを自動アノテーションさせることとを、含む支援プログラム。
JP2021107964A 2021-06-29 2021-06-29 支援装置、支援方法、支援プログラム Active JP7494809B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021107964A JP7494809B2 (ja) 2021-06-29 2021-06-29 支援装置、支援方法、支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021107964A JP7494809B2 (ja) 2021-06-29 2021-06-29 支援装置、支援方法、支援プログラム

Publications (2)

Publication Number Publication Date
JP2023005785A JP2023005785A (ja) 2023-01-18
JP7494809B2 true JP7494809B2 (ja) 2024-06-04

Family

ID=85107511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021107964A Active JP7494809B2 (ja) 2021-06-29 2021-06-29 支援装置、支援方法、支援プログラム

Country Status (1)

Country Link
JP (1) JP7494809B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017009934A1 (ja) 2015-07-13 2017-01-19 日産自動車株式会社 信号機認識装置及び信号機認識方法
JP2018013497A (ja) 2010-01-22 2018-01-25 グーグル エルエルシー 交通信号マップ作成及び検出
WO2020131498A1 (en) 2018-12-21 2020-06-25 Continental Automotive Systems, Inc. Systems and methods for automatic labeling of images for supervised machine learning
JP2020204804A (ja) 2019-06-14 2020-12-24 トヨタ自動車株式会社 画像認識装置
WO2021073656A1 (zh) 2019-10-16 2021-04-22 上海商汤临港智能科技有限公司 图像数据自动标注方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018013497A (ja) 2010-01-22 2018-01-25 グーグル エルエルシー 交通信号マップ作成及び検出
WO2017009934A1 (ja) 2015-07-13 2017-01-19 日産自動車株式会社 信号機認識装置及び信号機認識方法
WO2020131498A1 (en) 2018-12-21 2020-06-25 Continental Automotive Systems, Inc. Systems and methods for automatic labeling of images for supervised machine learning
JP2020204804A (ja) 2019-06-14 2020-12-24 トヨタ自動車株式会社 画像認識装置
WO2021073656A1 (zh) 2019-10-16 2021-04-22 上海商汤临港智能科技有限公司 图像数据自动标注方法及装置

Also Published As

Publication number Publication date
JP2023005785A (ja) 2023-01-18

Similar Documents

Publication Publication Date Title
US20240161622A1 (en) Vehicle environment modeling with a camera
JP7101255B2 (ja) 目標対象の運動の向きを予測するための方法、車両制御方法及び装置
CN109214986A (zh) 从下采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云
CN109214987A (zh) 从上采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云
US9536306B2 (en) Vehicle vision system
JP2021120864A (ja) 障害物を検出するための方法および装置、電子機器、記憶媒体並びにコンピュータプログラム
CN112714913A (zh) 结构注释
EP3676796A1 (en) Systems and methods for correcting a high-definition map based on detection of obstructing objects
US11783500B2 (en) Unsupervised depth prediction neural networks
KR20130030208A (ko) 에고모션 추정 시스템 및 방법
US11257231B2 (en) Camera agnostic depth network
CN112700486B (zh) 对图像中路面车道线的深度进行估计的方法及装置
US20240062415A1 (en) Terminal device localization method and related device therefor
CN112017246A (zh) 一种基于逆透视变换的图像获取方法及装置
EP4307219A1 (en) Three-dimensional target detection method and apparatus
CN111989915A (zh) 用于视觉推断的动态图像区域选择
JP2009265882A (ja) 車両周辺監視装置
Ye et al. Fusionad: Multi-modality fusion for prediction and planning tasks of autonomous driving
Zhao et al. Jperceiver: Joint perception network for depth, pose and layout estimation in driving scenes
Butt et al. CARL-D: A vision benchmark suite and large scale dataset for vehicle detection and scene segmentation
JP7494809B2 (ja) 支援装置、支援方法、支援プログラム
US20210302926A1 (en) Inferring device, training device, inferring method, and training method
CN113767393A (zh) 使用具有显示生命周期的矢量图数据可视化自主交通工具过程
CN117173399A (zh) 一种跨模态交叉注意力机制的交通目标检测方法及***
CN116736259A (zh) 一种用于塔吊自动驾驶的激光点云坐标标定的方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240506

R150 Certificate of patent or registration of utility model

Ref document number: 7494809

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150