JP6665110B2 - 非同期光センサーによって観測されたシーン内の形状を追跡する方法 - Google Patents
非同期光センサーによって観測されたシーン内の形状を追跡する方法 Download PDFInfo
- Publication number
- JP6665110B2 JP6665110B2 JP2016565241A JP2016565241A JP6665110B2 JP 6665110 B2 JP6665110 B2 JP 6665110B2 JP 2016565241 A JP2016565241 A JP 2016565241A JP 2016565241 A JP2016565241 A JP 2016565241A JP 6665110 B2 JP6665110 B2 JP 6665110B2
- Authority
- JP
- Japan
- Prior art keywords
- event
- model
- objects
- detected event
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims description 108
- 239000011159 matrix material Substances 0.000 claims description 44
- 238000001514 detection method Methods 0.000 claims description 41
- 238000006073 displacement reaction Methods 0.000 claims description 40
- 230000009466 transformation Effects 0.000 claims description 36
- 239000013598 vector Substances 0.000 claims description 33
- 230000002123 temporal effect Effects 0.000 claims description 17
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 description 45
- 238000012360 testing method Methods 0.000 description 28
- 238000002474 experimental method Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 22
- 230000006870 function Effects 0.000 description 13
- 230000005484 gravity Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000000717 retained effect Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002688 persistence Effects 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 230000036982 action potential Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004138 cluster model Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
- シーンに向かい合って配列されたピクセルの行列を有する光センサーから非同期的な情報を受け取るステップであって、非同期的な情報が、行列の各ピクセルに関して、前記ピクセルから非同期に生じる連続的なイベントを含む、ステップと、
- 非同期的な情報内の物体に帰せられるイベントを検出した後、点の集合を含み、前記物体の追跡される形状を表すモデルを更新するステップとを含む、方法が提供される。
- 検出されたイベントが生じる行列のピクセルに関連する最小の距離を有するモデルの点を検出されたイベントに関連付けること、および
- 検出されたイベントが生じる行列のピクセルおよび関連付けられた点に従って、前記イベントの検出の前に実行された関連付けとは独立して更新されたモデルを決定することを含む。
ΣD(p[ev],Ft(A[ev])) (1)
ここで、p[ev]は、イベントevが生じたピクセルの行列の位置を示し、
A[ev]は、イベントevに関連するモデルの点を示し、
Ft(.)は、空間変換を示し、
D(.,.)は、行列の平面内の距離の測定値であり
総和は、実行された特定の数の関連付け(p[ev]⇔A[ev])に対して実行される。
- 物体の変位の平面を推定するステップであって、変位の平面が、現在の瞬間に終わる時間窓(time window)の間に物体に帰せられた検出されたイベントを示す点の集合に関連する距離の基準を最小化することによって、三次元、すなわち、ピクセルの行列の2つの方向に対応する2つの空間的次元および1つの時間の次元を有する空間内で推定される、ステップと、
- イベントの検出に続いて、前記イベントを物体に帰すべきか否かを判断するために物体の変位の推定された平面を考慮に入れるステップとをさらに含む。
S(t)={ev(p, t')/0<t - t'≦Δt} (2)
ここで、Δtは、持続時間(persistence time)である。時間間隔Δtがイベントのアクティブ化後に経過した後、このイベントは集合S(t)から削除される。
f=d[p, Ft(m)] (5)
ここで、d[., .]は、ピクセルの行列の平面内の距離の測定値である。d[., .]は、特に、二次の距離(quadratic distance)である可能性がある。
f=||cp - RΔθ[cm] -ΔT||2 (6)
ここで、cpおよびcmは、原点に関して回転RΔθの中心cを有し、それぞれ点pおよびmを指すベクトルを示する。
ΔT= -η1.∇Tf(Δθ0, ΔT0) (7)
Δθ= -η2.∇θf(Δθ0, ΔT0) (8)
ここで、η1およびη2は、予め定義された正の収束ステップである。例として、η1=0.25およびη2=0.025が、良好な感度を得るために選ばれる可能性がある。η1およびη2の好適な値は、いくつかのシミュレーションまたは実験を行うことによって必要に応じてそれぞれの応用に関して調整されるべきである。(7)および(8)において、偏導関数∇θf、∇Tfが、回転の角度および移動ベクトルの好適な値Δθ0、ΔT0に関して取得される。
sx=1+η3.( |px| - |mx| ) (11)
sy=1+η3.( |py| - |my| ) (12)
とすることがあり得る。式(11)および(12)において、|px|および|py|は、ベクトルcpの座標の絶対値であり、|mx|および|my|は、ベクトルcmの座標の絶対値である。
・最近に帰する: 新しいイベントev(p, t)は、モデルGkが最も近い(k(1)、...、k(j)の中の)物体k、すなわち、d(mk, p)を最小化する物体に帰せられる。理論的には、この方針は、新しいイベントがモデルGkに完璧に対応する場合、およびデータがいかなる雑音も含まない場合で、遮蔽による曖昧性がないときに正しく働く。
・すべてを拒絶する: この手法は、単純に、曖昧なイベントを無視し、つまり、図11のステップ45〜47が、イベントev(p, t)に関して実行されない。この手法は、事前に明確な判断をし得ないので論理的であるように見える。しかし、追跡は、形状のダイナミクスを損なう恐れがあるので失敗する可能性がある。
・すべてを更新する: 曖昧なイベントev(p, t)の近くのすべてのモデルGkが更新される。その他の観点では、図11のステップ45〜47が、d(mk, p)≦dthであるような各物体kに関して実行される。
・重み付けされた更新: 曖昧なイベントev(p, t)は、距離の反対方向の変化する重み付けによってそれぞれの近くのモデルGkに寄与する。言い換えれば、図11のステップ45〜47は、それぞれの重み係数αkが、たとえば、d(mk, p)に反比例する距離d(mk, p)の減少関数として計算され、Σαk=1であるようにして、d(mk, p)≦dthであるような各物体kに関して実行される。
Ck=(t - tk,N(k)) rk (14)
であり、ここで、「.」は、三次元空間内の2つのベクトルの間のスカラ積を示し、nk(i)は、平面Πk(i)の法線の方向を与えるベクトルであり、egk(i)は、三次元空間内の検出されたイベントev(p, t)を示す点eから平面Πk(i)の点gk(i)のうちの1つを指すベクトルである。
・出力信号がフレームからなる通常のカメラの画像を処理するICPアルゴリズム(図19の曲線85)。比較が正確であるために、フレームを区別した後に残っているピクセルの位置のみがICPアルゴリズムによって考慮される。
・50μsの期間にわたって収集されたイベントを考慮することによって、図8を参照して示された方法で、SVDの手法に基づく解析的な形態の推定とともに非同期的なイベントに基づくセンサー10を使用する形状追跡の方法(曲線86)。
・図11を参照して示された方法で、イベントev(p, t)の検出の前に実行された関連付けとは独立して、このイベントev(p, t)を生じる行列のピクセルpとモデルの点mとの間の現在の関連付けに従って更新されたモデルの推定とともに非同期的なイベントに基づくセンサー10を使用する形状追跡の方法(曲線87)。
・「トラック」の物体から生じるイベントと物体「トラック」の重心との間で観測された距離(曲線100)と、
・「自動車」の物体から生じるイベントと「自動車」の物体の重心との間で観測された距離(曲線101)と、
・「トラック」の物体から生じるイベントと「自動車」の物体の重心との間で観測された距離(曲線102)と、
・「トラック」の物体から生じるイベントと「自動車」の物体の重心との間で観測された距離(曲線103)とを示す。
11 回転板
15 光学部品
16 ピクセル
17a 感光素子
17b 感光素子
18a 検出回路
18b 検出回路
20 コンピュータ
78 曲線
79 曲線
85 曲線
86 曲線
87 曲線
90 曲線
91 曲線
92 トラッキング誤差
95 形状
96 形状
100 曲線
101 曲線
102 曲線
103 曲線
105 曲線
106 曲線
110 曲線
111 曲線
112 曲線
113 曲線
116 曲線
117 曲線
118 曲線
119 曲線
Claims (18)
- シーン内の形状を追跡する方法であって、
前記シーンに向かい合って配列されたピクセルの行列を有する光センサー(10)から非同期的な情報を受け取るステップであって、前記非同期的な情報が、前記行列の各ピクセルに関して、前記ピクセルから非同期に生じる連続的なイベントを含む、ステップと、
前記非同期的な情報内の物体に帰せられるイベントを検出した後、点の集合を含みかつ前記物体の追跡される形状を表すモデル(G)を更新するステップとを含み、前記更新するステップが、イベント(ev(p, t))の検出に続いて、
前記検出されたイベントが生じる前記行列の前記ピクセル(p)に関連する最小の距離を有する前記モデルの点(m)を前記検出されたイベントに関連付けること、および
前記検出されたイベントが生じる前記行列の前記ピクセル(p)および前記関連付けられた点(m)に従って、前記イベント(ev(p, t))の前記検出の前に実行された関連付けとは独立して前記更新されたモデルを決定することを含む、方法。 - 前記モデル(G)の点が、検出されたイベント(ev(p, t))が生じる前記ピクセル(p)に関連する閾値(dmax、dth)未満の距離にないとき、前記モデルが、前記物体に帰せられない前記イベントの前記検出に続いて更新されない、請求項1に記載の方法。
- 前記物体の変位の平面を推定するステップであって、変位の前記平面(Πk)が、現在の瞬間に終わる時間窓の間に前記物体に帰せられた検出されたイベントを示す点の集合に関連する距離の基準を最小化することによって、三次元、すなわち、ピクセルの前記行列の2つの方向に対応する2つの空間的次元および1つの時間の次元を有する空間内で推定される、ステップと、
イベント(ev(p, t))の検出に続いて、前記イベントを前記物体に帰すべきか否かを判断するために前記物体の変位の推定された平面を考慮に入れるステップとをさらに含む、請求項1または請求項2に記載の方法。 - 複数の物体が、前記シーン内で追跡されるそれぞれの形状を有し、前記複数の物体のうちのそれぞれの物体が、前記物体に帰せられるイベントの検出後に更新されるそれぞれのモデル(Gk)および変位の推定された平面(Πk)を有し、前記方法が、前記物体のうちの少なくとも2つに帰せられ得るイベント(ev(p, t))の検出に続いて、
前記検出されたイベントを示す点と前記物体に関してそれぞれ推定された変位の前記平面との間の三次元空間内のそれぞれの距離を計算するステップと、
前記検出されたイベントを、前記計算された距離が最小である前記物体に帰するステップとをさらに含む、請求項3に記載の方法。 - 前記物体の変位の前記平面(Πk)と前記物体に帰せられた検出されたイベントを示す点との間の距離の統計的分布を推定するステップと、
イベント(ev(p, t))の検出に続いて、前記イベントを前記物体に帰すべきか否かを判断するために前記物体の変位の前記推定された平面および前記推定された統計的分布を考慮に入れるステップとをさらに含む、請求項3または請求項4に記載の方法。 - 前記推定された統計的分布に基づいて許容可能な距離の値の間隔(Ik)を決定するステップと、
三次元空間内の検出されたイベントを示す前記点が、変位の前記推定された平面に関連して、前記許容可能な距離の値の前記間隔から外れる距離を有する場合、前記検出されたイベントを前記物体に帰さないステップとをさらに含む、請求項5に記載の方法。 - 複数の物体が、前記シーン内で追跡されるそれぞれの形状を有し、前記物体の各々が、前記物体に帰せられるイベントの検出の後に更新されるそれぞれのモデル(Gk)を有し、前記方法が、イベント(ev(p, t))の検出に続いて、
前記物体のうちの1つのみが、前記検出されたイベントが生じる前記行列の前記ピクセル(p)に関連する閾値(dth)未満の距離を有する点をそのモデル内に有する条件を満たす場合に、前記検出されたイベントを前記物体のうちの1つに帰するステップをさらに含む、請求項1から6のいずれか一項に記載の方法。 - 複数の物体が、前記シーン内で追跡されるそれぞれの形状を有し、前記物体のそれぞれの物体が、前記物体に帰せられるイベントの検出の後に更新されるそれぞれのモデル(Gk)を有し、前記方法が、前記物体のうちの少なくとも2つに帰せられ得るイベント(ev(p, t))の検出に続いて、
前記検出されたイベントが帰せられ得る各物体に関して、前記検出されたイベントが生じる前記行列の前記ピクセル(p)に関連するそれぞれの距離の基準を最小化することによって、前記物体のモデル(Gt)の点(m)を前記検出されたイベントに関連付けるステップと、
前記検出されたイベントを、距離の前記最小化された基準が最も小さい、物体に帰するステップとをさらに含む、請求項1から7のいずれか一項に記載の方法。 - 複数の物体が、前記シーン内で追跡されるそれぞれの形状を有し、前記複数の物体のうちのそれぞれの物体が、前記物体に帰せられるイベントの検出後に更新されるそれぞれのモデル(Gk)を有し、前記物体のうちの少なくとも2つに帰せられ得るイベント(ev(p, t))の検出に続いて、前記検出されたイベントが、前記物体のうちの前記少なくとも2つのいずれにも割り当てられない、請求項1から7のいずれか一項に記載の方法。
- 複数の物体が、前記シーン内で追跡されるそれぞれの形状を有し、前記複数の物体のうちのそれぞれの物体が、前記物体に帰せられるイベントの検出後に更新されるそれぞれのモデル(Gk)を有し、前記物体のうちの少なくとも2つに帰せられ得るイベント(ev(p, t))の検出に続いて、前記検出されたイベントが、前記検出されたイベントが帰せられ得る前記物体のそれぞれの物体に割り当てられる、請求項1から7のいずれか一項に記載の方法。
- 前記検出されたイベントが帰せられる物体の前記モデル(Gk)を更新するステップが、前記物体に関してそれぞれ最小化される距離の基準に依存する重み付けを用いて実行される、請求項10に記載の方法。
- 複数の物体が、前記シーン内で追跡されるそれぞれの形状を有し、前記複数の物体のうちのそれぞれの物体が、前記物体に帰せられるイベントの検出後に更新されるそれぞれのモデル(Gk)を有し、前記方法が、
各物体に関して、前記物体に帰せられるイベントのレートを推定し、前記物体に帰せられる最後のイベントが検出された瞬間を記憶するステップと、
前記物体のうちの少なくとも2つに帰せられ得るイベント(ev(p, t))の検出に続いて、イベントの前記推定されたレートに前記記憶された瞬間と前記イベントの検出の前記瞬間との間の時間間隔を掛けた積が1に最も近い前記物体のうちの1つに前記検出されたイベントを帰するステップとをさらに含む、請求項1から7のいずれか一項に記載の方法。 - 前記更新されたモデルを決定することが、パラメータの組によって定義された空間変換(Ft)を推定すること(45)と、前記推定された空間変換を前記モデル(Gk)に適用すること(46)とを含み、前記空間変換を推定することが、前記検出されたイベントが生じる前記行列の前記ピクセル(p)と前記検出されたイベントに関連する前記モデルの前記点(m)に前記空間変換を適用することによって得られた点との間のピクセルの前記行列の平面内の距離の勾配の関数として前記パラメータを計算することを含む、請求項1から12のいずれか一項に記載の方法。
- 前記空間変換(Ft)が、ピクセルの前記行列の前記平面内の移動および回転を含み、前記移動が、-η1.∇Tf(Δθ0, ΔT0)に等しい選択されたベクトルΔTを有し、前記回転が、-η2.∇θf(Δθ0, ΔT0)に等しい選択された角度Δθを有し、η1およびη2が、予め定義された正の収束ステップであり、Δθ0およびΔT0が、回転の前記角度の特定の値および前記移動のベクトルの特定の値である、請求項13に記載の方法。
- 回転の前記角度の前記特定の値および前記移動のベクトルの前記特定の値が、それぞれ、
- 前記空間変換(Ft)が、ピクセルの前記行列に含まれる2つの軸に応じたそれぞれの倍率の適用をさらに含むアフィン変換である、請求項14または請求項15に記載の方法。
- 前記2つの軸x、yに応じた前記倍率sx、syが、sx=1+η3.(|px|-|mx|)およびsy=1+η3.(|py|-|my|)に従ってそれぞれ計算され、η3が、予め定義された正の収束ステップであり、pxおよびpyが、前記検出されたイベントが生じる前記行列の前記ピクセル(p)の、軸xおよびyに応じたそれぞれの座標であり、mxおよびmyが、前記検出されたイベントに関連する前記モデルの前記点(m)の、前記軸xおよびyに応じたそれぞれの座標である、請求項16に記載の方法。
- 光センサー(10)から受け取られた非同期的な情報を使用して請求項1から17のいずれか一項に記載の方法を実行するように構成されたコンピュータ(20)を含む、シーン内の形状を追跡するためのデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1454003A FR3020699A1 (fr) | 2014-04-30 | 2014-04-30 | Procede de suivi de forme dans une scene observee par un capteur asynchrone de lumiere |
FR1454003 | 2014-04-30 | ||
PCT/FR2015/051129 WO2015166176A1 (fr) | 2014-04-30 | 2015-04-24 | Procédé de suivi de forme dans une scène observée par un capteur asynchrone de lumière |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017521746A JP2017521746A (ja) | 2017-08-03 |
JP6665110B2 true JP6665110B2 (ja) | 2020-03-13 |
Family
ID=51570522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016565241A Expired - Fee Related JP6665110B2 (ja) | 2014-04-30 | 2015-04-24 | 非同期光センサーによって観測されたシーン内の形状を追跡する方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US10109057B2 (ja) |
EP (1) | EP3138079B1 (ja) |
JP (1) | JP6665110B2 (ja) |
KR (1) | KR102326789B1 (ja) |
CN (1) | CN106462976B (ja) |
FR (1) | FR3020699A1 (ja) |
WO (1) | WO2015166176A1 (ja) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10147024B2 (en) * | 2014-09-16 | 2018-12-04 | Qualcomm Incorporated | Interfacing an event based system with a frame based processing system |
EP3120897A1 (en) * | 2015-07-22 | 2017-01-25 | Université Pierre et Marie Curie (Paris 6) | Method for downsampling a signal outputted by an asynchronous sensor |
US10757394B1 (en) | 2015-11-09 | 2020-08-25 | Cognex Corporation | System and method for calibrating a plurality of 3D sensors with respect to a motion conveyance |
US11562502B2 (en) | 2015-11-09 | 2023-01-24 | Cognex Corporation | System and method for calibrating a plurality of 3D sensors with respect to a motion conveyance |
US10812778B1 (en) * | 2015-11-09 | 2020-10-20 | Cognex Corporation | System and method for calibrating one or more 3D sensors mounted on a moving manipulator |
US9934557B2 (en) | 2016-03-22 | 2018-04-03 | Samsung Electronics Co., Ltd | Method and apparatus of image representation and processing for dynamic vision sensor |
KR20230087615A (ko) * | 2016-12-30 | 2023-06-16 | 소니 어드밴스드 비주얼 센싱 아게 | 동적 비전 센서 아키텍쳐 |
US11138742B2 (en) * | 2017-02-14 | 2021-10-05 | The Trustees Of The University Of Pennsylvania | Event-based feature tracking |
US10855927B2 (en) | 2017-03-08 | 2020-12-01 | Samsung Electronics Co., Ltd. | Event detecting device including an event signal generator and an output signal generator |
US10516841B2 (en) | 2017-03-08 | 2019-12-24 | Samsung Electronics Co., Ltd. | Pixel, pixel driving circuit, and vision sensor including the same |
CN108564014B (zh) * | 2017-04-17 | 2022-08-09 | 佳能株式会社 | 对象形状跟踪装置和方法以及图像处理*** |
US10466779B1 (en) * | 2017-07-24 | 2019-11-05 | Facebook Technologies, Llc | Event camera for eye tracking |
CN107610069B (zh) * | 2017-09-29 | 2020-10-09 | 西安电子科技大学 | 基于共享k-svd字典的dvs可视化视频去噪方法 |
CN111417983B (zh) * | 2017-11-14 | 2023-11-24 | 苹果公司 | 基于事件相机的可变形对象跟踪 |
EP3506622A1 (en) * | 2017-12-26 | 2019-07-03 | Prophesee | Method for outputting a signal from an event based sensor, and event-based sensor using such method |
JP7227926B2 (ja) * | 2018-01-05 | 2023-02-22 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像素子、撮像装置および固体撮像素子の制御方法 |
JP7357624B2 (ja) * | 2018-01-26 | 2023-10-06 | プロフジー | イベントベースセンサからの信号を処理する方法および装置 |
EP3518529A1 (en) * | 2018-01-26 | 2019-07-31 | Prophesee | Method and apparatus of processing a signal from an event-based sensor |
JP2019176334A (ja) * | 2018-03-28 | 2019-10-10 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像素子、テストシステム、および、固体撮像素子の制御方法 |
KR20210003118A (ko) * | 2018-04-30 | 2021-01-11 | 프로페시 | 비동기식 시간 기반 이미지 감지를 위한 시스템 및 방법 |
CN108764078B (zh) * | 2018-05-15 | 2019-08-02 | 上海芯仑光电科技有限公司 | 一种事件数据流的处理方法及计算设备 |
JP7031947B2 (ja) | 2018-05-22 | 2022-03-08 | オムニビジョン センサー ソリューション (シャンハイ) カンパニー リミテッド | オプティカルフロー計算方法及びコンピューティング機器 |
KR102503543B1 (ko) | 2018-05-24 | 2023-02-24 | 삼성전자주식회사 | 다이나믹 비전 센서, 전자 장치 및 이의 데이터 전송 방법 |
TWI684956B (zh) * | 2018-12-04 | 2020-02-11 | 中華電信股份有限公司 | 物體辨識與追蹤系統及其方法 |
US20220036110A1 (en) | 2018-12-13 | 2022-02-03 | Prophesee | Method of tracking objects in a scene |
EP3690736A1 (en) * | 2019-01-30 | 2020-08-05 | Prophesee | Method of processing information from an event-based sensor |
EP3693698A1 (de) * | 2019-02-05 | 2020-08-12 | Leica Geosystems AG | Vermessungsgerät mit ereignisbasierter kamera |
CN113615161A (zh) * | 2019-03-27 | 2021-11-05 | 索尼集团公司 | 对象检测装置、对象检测***以及对象检测方法 |
JP2020161987A (ja) * | 2019-03-27 | 2020-10-01 | ソニー株式会社 | 車両用撮影システム |
CN113647089B (zh) * | 2019-03-27 | 2024-06-04 | 索尼集团公司 | 成像*** |
TWI831962B (zh) * | 2019-04-26 | 2024-02-11 | 日商索尼半導體解決方案公司 | 事件檢測裝置、具備事件檢測裝置之系統及事件檢測方法 |
JP7315918B2 (ja) * | 2019-06-05 | 2023-07-27 | 株式会社デンソーアイティーラボラトリ | 画像処理装置、画像処理プログラムおよび画像処理方法 |
JP7120180B2 (ja) * | 2019-08-07 | 2022-08-17 | トヨタ自動車株式会社 | イメージセンサ |
US11340624B2 (en) | 2019-08-29 | 2022-05-24 | Ford Global Technologies, Llc | Vehicle neural network |
EP3879816B1 (en) * | 2020-03-11 | 2024-02-28 | Prophesee | Event filtering method for operating an event-based image sensor |
CN111829573B (zh) * | 2020-06-01 | 2022-06-24 | 惠州市德赛西威汽车电子股份有限公司 | 一种光感传感器耐久测试设备及方法 |
CN111814602B (zh) * | 2020-06-23 | 2022-06-17 | 成都信息工程大学 | 一种基于视觉的智能车环境动态目标检测的方法 |
US11500086B2 (en) * | 2020-09-28 | 2022-11-15 | Mitsubishi Electric Research Laboratories, Inc. | System and method for tracking a deformation |
KR102635416B1 (ko) * | 2021-05-14 | 2024-02-08 | 서울대학교산학협력단 | 이벤트 카메라 기반의 물체 추적 장치 및 방법 |
CN114777764B (zh) * | 2022-04-20 | 2023-06-30 | 中国科学院光电技术研究所 | 一种基于事件相机的高动态星敏感器星点提取方法 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0325622D0 (en) * | 2003-11-03 | 2003-12-10 | Cambridge Consultants | System for determining positional information |
US7706571B2 (en) * | 2004-10-13 | 2010-04-27 | Sarnoff Corporation | Flexible layer tracking with weak online appearance model |
US20060197664A1 (en) | 2005-01-18 | 2006-09-07 | Board Of Regents, The University Of Texas System | Method, system and apparatus for a time stamped visual motion sensor |
CA2609623C (en) | 2005-06-03 | 2015-12-29 | Universitaet Zuerich | Photoarray for detecting time-dependent image data |
AT502551B1 (de) * | 2005-06-15 | 2010-11-15 | Arc Seibersdorf Res Gmbh | Verfahren und bildauswertungseinheit zur szenenanalyse |
JP4541316B2 (ja) * | 2006-04-06 | 2010-09-08 | 三菱電機株式会社 | 映像監視検索システム |
US8335345B2 (en) * | 2007-03-05 | 2012-12-18 | Sportvision, Inc. | Tracking an object with multiple asynchronous cameras |
JP4766495B2 (ja) * | 2007-09-28 | 2011-09-07 | 株式会社ソニー・コンピュータエンタテインメント | 対象物追跡装置および対象物追跡方法 |
US8282222B2 (en) * | 2007-10-10 | 2012-10-09 | Gerard Dirk Smits | Image projector with reflected light tracking |
EP2093698A1 (en) * | 2008-02-19 | 2009-08-26 | British Telecommunications Public Limited Company | Crowd congestion analysis |
US20090296989A1 (en) * | 2008-06-03 | 2009-12-03 | Siemens Corporate Research, Inc. | Method for Automatic Detection and Tracking of Multiple Objects |
CN101753133B (zh) * | 2008-12-05 | 2014-06-25 | 飞思卡尔半导体公司 | 异步采样率转换中的快速追踪和抖动改善的方法 |
JP5289022B2 (ja) * | 2008-12-11 | 2013-09-11 | キヤノン株式会社 | 情報処理装置及び情報処理方法 |
FR2944363B1 (fr) * | 2009-04-14 | 2011-11-18 | Onera (Off Nat Aerospatiale) | Procede et systeme d'imagerie active a champ large |
US8218818B2 (en) * | 2009-09-01 | 2012-07-10 | Behavioral Recognition Systems, Inc. | Foreground object tracking |
JP5400718B2 (ja) * | 2010-07-12 | 2014-01-29 | 株式会社日立国際電気 | 監視システムおよび監視方法 |
CN101925178B (zh) * | 2010-09-16 | 2012-11-28 | 上海交通大学 | 异步无线传感器网络的运动目标跟踪方法 |
US8401242B2 (en) * | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Real-time camera tracking using depth maps |
FR2985065B1 (fr) | 2011-12-21 | 2014-01-10 | Univ Paris Curie | Procede d'estimation de flot optique a partir d'un capteur asynchrone de lumiere |
KR102070562B1 (ko) * | 2012-06-19 | 2020-01-30 | 삼성전자주식회사 | 이벤트 기반 이미지 처리 장치 및 그 장치를 이용한 방법 |
KR102017688B1 (ko) * | 2012-07-18 | 2019-09-04 | 삼성전자주식회사 | 반사광의 광량 변화를 이용한 근접 센서 |
JP2014186004A (ja) * | 2013-03-25 | 2014-10-02 | Toshiba Corp | 計測装置、方法及びプログラム |
FR3005188A1 (fr) * | 2013-04-26 | 2014-10-31 | Univ Paris Curie | Suivi visuel d'objet |
WO2015157341A1 (en) * | 2014-04-07 | 2015-10-15 | Samsung Electronics Co., Ltd. | High resolution, high frame rate, low power image sensor |
US10147024B2 (en) * | 2014-09-16 | 2018-12-04 | Qualcomm Incorporated | Interfacing an event based system with a frame based processing system |
US10043064B2 (en) * | 2015-01-14 | 2018-08-07 | Samsung Electronics Co., Ltd. | Method and apparatus of detecting object using event-based sensor |
US9934557B2 (en) * | 2016-03-22 | 2018-04-03 | Samsung Electronics Co., Ltd | Method and apparatus of image representation and processing for dynamic vision sensor |
-
2014
- 2014-04-30 FR FR1454003A patent/FR3020699A1/fr active Pending
-
2015
- 2015-04-24 US US15/307,490 patent/US10109057B2/en not_active Expired - Fee Related
- 2015-04-24 WO PCT/FR2015/051129 patent/WO2015166176A1/fr active Application Filing
- 2015-04-24 CN CN201580024149.6A patent/CN106462976B/zh not_active Expired - Fee Related
- 2015-04-24 KR KR1020167033430A patent/KR102326789B1/ko active IP Right Grant
- 2015-04-24 JP JP2016565241A patent/JP6665110B2/ja not_active Expired - Fee Related
- 2015-04-24 EP EP15725803.9A patent/EP3138079B1/fr active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017521746A (ja) | 2017-08-03 |
KR20170015306A (ko) | 2017-02-08 |
CN106462976B (zh) | 2020-11-03 |
WO2015166176A1 (fr) | 2015-11-05 |
CN106462976A (zh) | 2017-02-22 |
EP3138079A1 (fr) | 2017-03-08 |
FR3020699A1 (fr) | 2015-11-06 |
EP3138079B1 (fr) | 2019-09-18 |
KR102326789B1 (ko) | 2021-11-16 |
US20170053407A1 (en) | 2017-02-23 |
US10109057B2 (en) | 2018-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6665110B2 (ja) | 非同期光センサーによって観測されたシーン内の形状を追跡する方法 | |
EP3504682B1 (en) | Simultaneous localization and mapping with an event camera | |
Zhu et al. | Event-based feature tracking with probabilistic data association | |
Ni et al. | Visual tracking using neuromorphic asynchronous event-based cameras | |
JP4686663B2 (ja) | 歩行者トラッキング方法及び歩行者トラッキング装置 | |
US9213902B2 (en) | Method of estimating optical flow on the basis of an asynchronous light sensor | |
JP6650657B2 (ja) | フィンガープリントを使用してビデオ内で移動オブジェクトを追跡するため方法及びシステム | |
JP2016006626A (ja) | 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法 | |
Xiang et al. | Monocular multiview object tracking with 3d aspect parts | |
CN106228570B (zh) | 一种真值数据确定方法和装置 | |
JP2014071902A5 (ja) | ||
Sternig et al. | Multi-camera multi-object tracking by robust hough-based homography projections | |
Fernando et al. | Identification of moving obstacles with pyramidal Lucas Kanade optical flow and k means clustering | |
Schulz et al. | Video-based pedestrian head pose estimation for risk assessment | |
CN113256731A (zh) | 基于单目视觉的目标检测方法及装置 | |
Parameshwara et al. | MOMS with Events: Multi-object motion segmentation with monocular event cameras | |
CN106485283B (zh) | 一种基于Online Boosting的粒子滤波行人目标跟踪方法 | |
Wang et al. | PointIT: A fast tracking framework based on 3D instance segmentation | |
Marban et al. | Estimating position & velocity in 3d space from monocular video sequences using a deep neural network | |
Panda et al. | Blending of Learning-based Tracking and Object Detection for Monocular Camera-based Target Following | |
CN107977957B (zh) | 基于静态单目相机的土体失稳综合信息测量方法 | |
Tuncer et al. | Sequential distance dependent chinese restaurant processes for motion segmentation of 3d lidar data | |
Rezaee et al. | Vehicle tracking by fusing multiple cues in structured environments using particle filter | |
Daubney et al. | Real-time pose estimation of articulated objects using low-level motion | |
Mathiesen | Low-latency detection and tracking of aircraft in very high-resolution video feeds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180424 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190527 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190827 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6665110 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |