JP7494809B2 - 支援装置、支援方法、支援プログラム - Google Patents
支援装置、支援方法、支援プログラム Download PDFInfo
- Publication number
- JP7494809B2 JP7494809B2 JP2021107964A JP2021107964A JP7494809B2 JP 7494809 B2 JP7494809 B2 JP 7494809B2 JP 2021107964 A JP2021107964 A JP 2021107964A JP 2021107964 A JP2021107964 A JP 2021107964A JP 7494809 B2 JP7494809 B2 JP 7494809B2
- Authority
- JP
- Japan
- Prior art keywords
- frame
- captured
- external object
- initial
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 32
- 230000003068 static effect Effects 0.000 claims description 45
- 230000007704 transition Effects 0.000 claims description 43
- 230000008859 change Effects 0.000 claims description 27
- 230000006870 function Effects 0.000 description 86
- 238000012545 processing Methods 0.000 description 20
- 230000004044 response Effects 0.000 description 15
- 238000012937 correction Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 230000014509 gene expression Effects 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 9
- 239000004065 semiconductor Substances 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 206010034719 Personality change Diseases 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
プロセッサ(62)を有し、ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援する支援装置であって、
プロセッサは、
対の初期フレーム(F1,F2)に映る外界物標に関して、位置座標である初期座標の手動アノテーションを要求することと、
対の初期フレームよりも後に撮影された対象フレーム(Fo)に映る外界物標に関して、位置座標である対象座標を自動アノテーションすることとを、実行するように構成され、
対象座標を自動アノテーションすることは、
対象フレームにおける対象座標を予測する予測関数モデル(Mf)を、各初期フレームにおける初期座標と、各初期フレーム間におけるホスト移動体の移動距離とに基づき調整することと、
対象フレームよりも前に撮影された過去フレーム(F2,Fo)と対象フレームとの間におけるホスト移動体の移動距離を、予測関数モデルへ入力することにより、対象フレームにおける対象座標を自動アノテーションすることとを、含む。
ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援するために、プロセッサ(62)により実行される支援方法であって、
対の初期フレーム(F1,F2)に映る外界物標に関して、位置座標である初期座標の手動アノテーションを要求することと、
対の初期フレームよりも後に撮影された対象フレーム(Fo)に映る外界物標に関して、位置座標である対象座標を自動アノテーションすることとを、含み、
対象座標を自動アノテーションすることはさらに、
対象フレームにおける対象座標を予測する予測関数モデル(Mf)を、各初期フレームにおける初期座標と、各初期フレーム間におけるホスト移動体の移動距離とに基づき調整することと、
対象フレームよりも前に撮影された過去フレーム(F2,Fo)と対象フレームとの間におけるホスト移動体の移動距離を、予測関数モデルへ入力することにより、対象フレームにおける対象座標を自動アノテーションすることとを、含む。
ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援するために記憶媒体(60)に記憶され、プロセッサ(62)に実行させる命令を含む支援プログラムであって、
命令は、
対の初期フレーム(F1,F2)に映る外界物標に関して、位置座標である初期座標の手動アノテーションを要求させることと、
対の初期フレームよりも後に撮影された対象フレーム(Fo)に映る外界物標に関して、位置座標である対象座標を自動アノテーションさせることとを、含み、
対象座標を自動アノテーションさせることはさらに、
対象フレームにおける対象座標を予測する予測関数モデル(Mf)を、各初期フレームにおける初期座標と、各初期フレーム間におけるホスト移動体の移動距離とに基づき調整させることと、
対象フレームよりも前に撮影された過去フレーム(F2,Fo)と対象フレームとの間におけるホスト移動体の移動距離を、予測関数モデルへ入力することにより、対象フレームにおける対象座標を自動アノテーションさせることとを、含む。
プロセッサ(62)を有し、ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援する支援装置であって、
プロセッサは、
所定の初期フレーム(F1)に映る外界物標に関して、時間変化に対して固定される静的状態を識別する静的識別ラベル(Ls)の手動アノテーションを、要求することと、
初期フレームよりも後に撮影されたフレーム(F2,Fo)に映る外界物標に関して、手動アノテーションによる静的識別ラベルを自動アノテーションすることとを、実行するように構成される。
ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援するために、プロセッサ(62)により実行される支援方法であって、
所定の初期フレーム(F1)に映る外界物標に関して、時間変化に対して固定される静的状態を識別する静的識別ラベル(Ls)の手動アノテーションを、要求することと、
初期フレームよりも後に撮影されたフレーム(F2,Fo)に映る外界物標に関して、手動アノテーションによる静的識別ラベルを自動アノテーションすることとを、含む。
ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援するために記憶媒体(60)に記憶され、プロセッサ(62)に実行させる命令を含む支援プログラムであって、
命令は、
所定の初期フレーム(F1)に映る外界物標に関して、時間変化に対して固定される静的状態を識別する静的識別ラベル(Ls)の手動アノテーションを、要求させることと、
初期フレームよりも後に撮影されたフレーム(F2,Fo)に映る外界物標に関して、手動アノテーションによる静的識別ラベルを自動アノテーションさせることとを、含む。
プロセッサ(62)を有し、ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援する支援装置であって、
プロセッサは、
所定の初期フレーム(F1)に映る外界物標に関して、時間変化に対して遷移する動的状態を識別する動的識別ラベル(Ld)の手動アノテーションと、初期フレームよりも後に撮影されたフレーム(F2,Fo)のうち、動的状態が遷移したタイミングの遷移フレーム(Ft)に映る外界物標に関して、動的識別ラベルの手動アノテーションとを、要求することと、
初期フレームよりも後に撮影された手動アノテーション外のフレーム(F2,Fo)に映る外界物標に関して、手動アノテーションによる動的識別ラベルを自動アノテーションすることとを、実行するように構成される。
ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援するために、プロセッサ(62)により実行される支援方法であって、
所定の初期フレーム(F1)に映る外界物標に関して、時間変化に対して遷移する動的状態を識別する動的識別ラベル(Ld)の手動アノテーションと、初期フレームよりも後に撮影されたフレーム(F2,Fo)のうち、動的状態が遷移したタイミングの遷移フレーム(Ft)に映る外界物標に関して、動的識別ラベルの手動アノテーションとを、要求することと、
初期フレームよりも後に撮影された手動アノテーション外のフレーム(F2,Fo)に映る外界物標に関して、手動アノテーションによる動的識別ラベルを自動アノテーションすることとを、含む。
ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、外界物標のアノテーションを支援するために記憶媒体(60)に記憶され、プロセッサ(62)に実行させる命令を含む支援プログラムであって、
命令は、
所定の初期フレーム(F1)に映る外界物標に関して、時間変化に対して遷移する動的状態を識別する動的識別ラベル(Ld)の手動アノテーションと、初期フレームよりも後に撮影されたフレーム(F2,Fo)のうち、動的状態が遷移したタイミングの遷移フレーム(Ft)に映る外界物標に関して、動的識別ラベルの手動アノテーションとを、要求させることと、
初期フレームよりも後に撮影された手動アノテーション外のフレーム(F2,Fo)に映る外界物標に関して、手動アノテーションによる動的識別ラベルを自動アノテーションさせることとを、含む。
以上説明した本実施形態の作用効果を、以下に説明する。
以上、一実施形態について説明したが、本開示は、当該説明の実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態に適用することができる。
Claims (21)
- プロセッサ(62)を有し、ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援する支援装置であって、
前記プロセッサは、
対の初期フレーム(F1,F2)に映る前記外界物標に関して、位置座標である初期座標の手動アノテーションを要求することと、
対の前記初期フレームよりも後に撮影された対象フレーム(Fo)に映る前記外界物標に関して、位置座標である対象座標を自動アノテーションすることとを、実行するように構成され、
前記対象座標を自動アノテーションすることは、
前記対象フレームにおける前記対象座標を予測する予測関数モデル(Mf)を、各前記初期フレームにおける前記初期座標と、各前記初期フレーム間における前記ホスト移動体の移動距離とに基づき調整することと、
前記対象フレームよりも前に撮影された過去フレーム(F2,Fo)と前記対象フレームとの間における前記ホスト移動体の移動距離を、前記予測関数モデルへ入力することにより、前記対象フレームにおける前記対象座標を自動アノテーションすることとを、含む支援装置。 - 前記対象座標を自動アノテーションすることは、
各前記初期フレーム間における前記ホスト移動体の姿勢変化量により補正した前記初期座標に基づき、前記予測関数モデルを調整することを、含む請求項1に記載の支援装置。 - 前記対象座標を自動アノテーションすることは、
前記対象フレーム及び前記過去フレーム間における前記ホスト移動体の姿勢変化量により補正した前記対象座標を、自動アノテーションすることを、含む請求項1又は2に記載の支援装置。 - 前記対象座標を自動アノテーションすることは、
各前記初期フレーム間において前記外界物標の移動距離を補償した前記ホスト移動体の移動距離に基づき、前記予測関数モデルを調整することを、含む請求項1~3のいずれか一項に記載の支援装置。 - 前記対象座標を自動アノテーションすることは、
前記対象フレーム及び前記過去フレーム間において前記外界物標の移動距離を補償した前記ホスト移動体の移動距離を、前記予測関数モデルへ入力することを、含む請求項1~4のいずれか一項に記載の支援装置。 - 表示ユニット(5)を有し、
前記プロセッサは、
前記対象座標を当該表示ユニットに表示することを、さらに実行するように構成される請求項1~5のいずれか一項に記載の支援装置。 - 記憶媒体(60)を有し、
前記プロセッサは、
前記対象座標を当該記憶媒体に記憶することを、さらに実行するように構成される請求項1~6のいずれか一項に記載の支援装置。 - 前記プロセッサは、
対の前記初期フレームのうち先に撮影された前記初期フレーム(F1)に映る前記外界物標に関して、時間変化に対して固定される静的状態を識別する静的識別ラベル(Ls)の手動アノテーションを、要求することと、
対の前記初期フレームのうち後に撮影された前記初期フレーム(F2)と、前記対象フレームとに映る前記外界物標に関して、手動アノテーションによる前記静的識別ラベルを自動アノテーションすることとを、さらに実行するように構成される請求項1~7のいずれか一項に記載の支援装置。 - 前記プロセッサは、
対の前記初期フレームのうち先に撮影された前記初期フレーム(F1)に映る前記外界物標に関して、時間変化に対して遷移する動的状態を識別する動的識別ラベル(Ld)の手動アノテーションと、当該先の前記初期フレームよりも後に撮影された前記初期フレーム(F2)及び前記対象フレームのうち、前記動的状態が遷移したタイミングのフレームである遷移フレーム(Ft)に映る前記外界物標に関して、前記動的識別ラベルの手動アノテーションとを、要求することと、
当該先の前記初期フレーム(F1)よりも後に撮影された手動アノテーション外のフレーム(F2,Fo)に映る前記外界物標に関して、手動アノテーションによる前記動的識別ラベルを自動アノテーションすることとを、さらに実行するように構成される請求項1~8のいずれか一項に記載の支援装置。 - プロセッサ(62)を有し、ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援する支援装置であって、
前記プロセッサは、
所定の初期フレーム(F1)に映る前記外界物標に関して、時間変化に対して固定される静的状態を識別する静的識別ラベル(Ls)の手動アノテーションを、要求することと、
前記初期フレームよりも後に撮影されたフレーム(F2,Fo)に映る前記外界物標に関して、手動アノテーションによる前記静的識別ラベルを自動アノテーションすることとを、実行するように構成される支援装置。 - プロセッサ(62)を有し、ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援する支援装置であって、
前記プロセッサは、
所定の初期フレーム(F1)に映る前記外界物標に関して、時間変化に対して遷移する動的状態を識別する動的識別ラベル(Ld)の手動アノテーションと、前記初期フレームよりも後に撮影されたフレーム(F2,Fo)のうち、前記動的状態が遷移したタイミングの遷移フレーム(Ft)に映る前記外界物標に関して、前記動的識別ラベルの手動アノテーションとを、要求することと、
前記初期フレームよりも後に撮影された手動アノテーション外のフレーム(F2,Fo)に映る前記外界物標に関して、手動アノテーションによる前記動的識別ラベルを自動アノテーションすることとを、実行するように構成される支援装置。 - 表示ユニット(5)を有し、
前記プロセッサは、
前記静的識別ラベルを当該表示ユニットに表示することを、さらに実行するように構成される請求項8又は10に記載の支援装置。 - 記憶媒体(60)を有し、
前記プロセッサは、
前記静的識別ラベルを当該記憶媒体に記憶することを、さらに実行するように構成される請求項8,10,12のいずれか一項に記載の支援装置。 - 表示ユニット(5)を有し、
前記プロセッサは、
前記動的識別ラベルを当該表示ユニットに表示することを、さらに実行するように構成される請求項9又は11に記載の支援装置。 - 記憶媒体(60)を有し、
前記プロセッサは、
前記動的識別ラベルを当該記憶媒体に記憶することを、さらに実行するように構成される請求項9,11,14のいずれか一項に記載の支援装置。 - ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援するために、プロセッサ(62)により実行される支援方法であって、
対の初期フレーム(F1,F2)に映る前記外界物標に関して、位置座標である初期座標の手動アノテーションを要求することと、
対の前記初期フレームよりも後に撮影された対象フレーム(Fo)に映る前記外界物標に関して、位置座標である対象座標を自動アノテーションすることとを、含み、
前記対象座標を自動アノテーションすることはさらに、
前記対象フレームにおける前記対象座標を予測する予測関数モデル(Mf)を、各前記初期フレームにおける前記初期座標と、各前記初期フレーム間における前記ホスト移動体の移動距離とに基づき調整することと、
前記対象フレームよりも前に撮影された過去フレーム(F2,Fo)と前記対象フレームとの間における前記ホスト移動体の移動距離を、前記予測関数モデルへ入力することにより、前記対象フレームにおける前記対象座標を自動アノテーションすることとを、含む支援方法。 - ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援するために、プロセッサ(62)により実行される支援方法であって、
所定の初期フレーム(F1)に映る前記外界物標に関して、時間変化に対して固定される静的状態を識別する静的識別ラベル(Ls)の手動アノテーションを、要求することと、
前記初期フレームよりも後に撮影されたフレーム(F2,Fo)に映る前記外界物標に関して、手動アノテーションによる前記静的識別ラベルを自動アノテーションすることとを、含む支援方法。 - ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援するために、プロセッサ(62)により実行される支援方法であって、
所定の初期フレーム(F1)に映る前記外界物標に関して、時間変化に対して遷移する動的状態を識別する動的識別ラベル(Ld)の手動アノテーションと、前記初期フレームよりも後に撮影されたフレーム(F2,Fo)のうち、前記動的状態が遷移したタイミングの遷移フレーム(Ft)に映る前記外界物標に関して、前記動的識別ラベルの手動アノテーションとを、要求することと、
前記初期フレームよりも後に撮影された手動アノテーション外のフレーム(F2,Fo)に映る前記外界物標に関して、手動アノテーションによる前記動的識別ラベルを自動アノテーションすることとを、含む支援方法。 - ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援するために記憶媒体(60)に記憶され、プロセッサ(62)に実行させる命令を含む支援プログラムであって、
前記命令は、
対の初期フレーム(F1,F2)に映る前記外界物標に関して、位置座標である初期座標の手動アノテーションを要求させることと、
対の前記初期フレームよりも後に撮影された対象フレーム(Fo)に映る前記外界物標に関して、位置座標である対象座標を自動アノテーションさせることとを、含み、
前記対象座標を自動アノテーションさせることはさらに、
前記対象フレームにおける前記対象座標を予測する予測関数モデル(Mf)を、各前記初期フレームにおける前記初期座標と、各前記初期フレーム間における前記ホスト移動体の移動距離とに基づき調整させることと、
前記対象フレームよりも前に撮影された過去フレーム(F2,Fo)と前記対象フレームとの間における前記ホスト移動体の移動距離を、前記予測関数モデルへ入力することにより、前記対象フレームにおける前記対象座標を自動アノテーションさせることとを、含む支援プログラム。 - ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援するために記憶媒体(60)に記憶され、プロセッサ(62)に実行させる命令を含む支援プログラムであって、
前記命令は、
所定の初期フレーム(F1)に映る前記外界物標に関して、時間変化に対して固定される静的状態を識別する静的識別ラベル(Ls)の手動アノテーションを、要求させることと、
前記初期フレームよりも後に撮影されたフレーム(F2,Fo)に映る前記外界物標に関して、手動アノテーションによる前記静的識別ラベルを自動アノテーションさせることとを、含む支援プログラム。 - ホスト移動体(2)から外界物標(Ta)が複数フレームに亘って時系列に撮影された動画データ(Vd)に対しての、前記外界物標のアノテーションを支援するために記憶媒体(60)に記憶され、プロセッサ(62)に実行させる命令を含む支援プログラムであって、
前記命令は、
所定の初期フレーム(F1)に映る前記外界物標に関して、時間変化に対して遷移する動的状態を識別する動的識別ラベル(Ld)の手動アノテーションと、前記初期フレームよりも後に撮影されたフレーム(F2,Fo)のうち、前記動的状態が遷移したタイミングの遷移フレーム(Ft)に映る前記外界物標に関して、前記動的識別ラベルの手動アノテーションとを、要求させることと、
前記初期フレームよりも後に撮影された手動アノテーション外のフレーム(F2,Fo)に映る前記外界物標に関して、手動アノテーションによる前記動的識別ラベルを自動アノテーションさせることとを、含む支援プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021107964A JP7494809B2 (ja) | 2021-06-29 | 2021-06-29 | 支援装置、支援方法、支援プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021107964A JP7494809B2 (ja) | 2021-06-29 | 2021-06-29 | 支援装置、支援方法、支援プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023005785A JP2023005785A (ja) | 2023-01-18 |
JP7494809B2 true JP7494809B2 (ja) | 2024-06-04 |
Family
ID=85107511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021107964A Active JP7494809B2 (ja) | 2021-06-29 | 2021-06-29 | 支援装置、支援方法、支援プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7494809B2 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017009934A1 (ja) | 2015-07-13 | 2017-01-19 | 日産自動車株式会社 | 信号機認識装置及び信号機認識方法 |
JP2018013497A (ja) | 2010-01-22 | 2018-01-25 | グーグル エルエルシー | 交通信号マップ作成及び検出 |
WO2020131498A1 (en) | 2018-12-21 | 2020-06-25 | Continental Automotive Systems, Inc. | Systems and methods for automatic labeling of images for supervised machine learning |
JP2020204804A (ja) | 2019-06-14 | 2020-12-24 | トヨタ自動車株式会社 | 画像認識装置 |
WO2021073656A1 (zh) | 2019-10-16 | 2021-04-22 | 上海商汤临港智能科技有限公司 | 图像数据自动标注方法及装置 |
-
2021
- 2021-06-29 JP JP2021107964A patent/JP7494809B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018013497A (ja) | 2010-01-22 | 2018-01-25 | グーグル エルエルシー | 交通信号マップ作成及び検出 |
WO2017009934A1 (ja) | 2015-07-13 | 2017-01-19 | 日産自動車株式会社 | 信号機認識装置及び信号機認識方法 |
WO2020131498A1 (en) | 2018-12-21 | 2020-06-25 | Continental Automotive Systems, Inc. | Systems and methods for automatic labeling of images for supervised machine learning |
JP2020204804A (ja) | 2019-06-14 | 2020-12-24 | トヨタ自動車株式会社 | 画像認識装置 |
WO2021073656A1 (zh) | 2019-10-16 | 2021-04-22 | 上海商汤临港智能科技有限公司 | 图像数据自动标注方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2023005785A (ja) | 2023-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240161622A1 (en) | Vehicle environment modeling with a camera | |
JP7101255B2 (ja) | 目標対象の運動の向きを予測するための方法、車両制御方法及び装置 | |
CN109214986A (zh) | 从下采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云 | |
CN109214987A (zh) | 从上采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云 | |
US9536306B2 (en) | Vehicle vision system | |
JP2021120864A (ja) | 障害物を検出するための方法および装置、電子機器、記憶媒体並びにコンピュータプログラム | |
CN112714913A (zh) | 结构注释 | |
EP3676796A1 (en) | Systems and methods for correcting a high-definition map based on detection of obstructing objects | |
US11783500B2 (en) | Unsupervised depth prediction neural networks | |
KR20130030208A (ko) | 에고모션 추정 시스템 및 방법 | |
US11257231B2 (en) | Camera agnostic depth network | |
CN112700486B (zh) | 对图像中路面车道线的深度进行估计的方法及装置 | |
US20240062415A1 (en) | Terminal device localization method and related device therefor | |
CN112017246A (zh) | 一种基于逆透视变换的图像获取方法及装置 | |
EP4307219A1 (en) | Three-dimensional target detection method and apparatus | |
CN111989915A (zh) | 用于视觉推断的动态图像区域选择 | |
JP2009265882A (ja) | 車両周辺監視装置 | |
Ye et al. | Fusionad: Multi-modality fusion for prediction and planning tasks of autonomous driving | |
Zhao et al. | Jperceiver: Joint perception network for depth, pose and layout estimation in driving scenes | |
Butt et al. | CARL-D: A vision benchmark suite and large scale dataset for vehicle detection and scene segmentation | |
JP7494809B2 (ja) | 支援装置、支援方法、支援プログラム | |
US20210302926A1 (en) | Inferring device, training device, inferring method, and training method | |
CN113767393A (zh) | 使用具有显示生命周期的矢量图数据可视化自主交通工具过程 | |
CN117173399A (zh) | 一种跨模态交叉注意力机制的交通目标检测方法及*** | |
CN116736259A (zh) | 一种用于塔吊自动驾驶的激光点云坐标标定的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230807 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240423 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240506 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7494809 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |