JP6720756B2 - 情報処理装置、情報処理方法及び情報処理システム - Google Patents
情報処理装置、情報処理方法及び情報処理システム Download PDFInfo
- Publication number
- JP6720756B2 JP6720756B2 JP2016150604A JP2016150604A JP6720756B2 JP 6720756 B2 JP6720756 B2 JP 6720756B2 JP 2016150604 A JP2016150604 A JP 2016150604A JP 2016150604 A JP2016150604 A JP 2016150604A JP 6720756 B2 JP6720756 B2 JP 6720756B2
- Authority
- JP
- Japan
- Prior art keywords
- captured image
- tracking
- attention area
- information processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20116—Active contour; Active surface; Snakes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Processing (AREA)
Description
1.情報処理システムの概要
2.情報処理装置
2.1.構成例
2.2.処理例
2.3.効果
2.4.応用例
2.5.変形例
2.6.適用例
3.ハードウェア構成例
4.まとめ
図1は、本開示の一実施形態に係る情報処理システム1の構成の概要を示す図である。図1に示すように、情報処理システム1は、撮像装置10、および情報処理装置20を備える。撮像装置10および情報処理装置20は、有線または無線の各種ネットワークにより接続される。
撮像装置10は、撮像画像(動画像)を生成する装置である。本実施形態に係る撮像装置10は、例えば、デジタルカメラにより実現される。他にも、撮像装置10は、例えばスマートフォン、タブレット、ゲーム機、またはウェアラブル装置など、撮像機能を有するあらゆる装置により実現されてもよい。例えば、撮像装置10は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像する。また、撮像装置10は、情報処理装置20との間で撮像画像等を送受信するための通信装置を含む。本実施形態において、撮像装置10は、観察対象である細胞が培養されている培地Mを撮像するための撮像ステージSの上方に設けられる。そして、撮像装置10は、培地Mを特定のフレームレートで撮像することにより動画像データを生成する。なお、撮像装置10は、培地Mを直接(他の部材を介さずに)撮像してもよいし、顕微鏡等の他の部材を介して培地Mを撮像してもよい。また、上記フレームレートは特に限定されないが、観察対象の変化の度合いに応じて設定されることが好ましい。なお、撮像装置10は、観察対象の変化を正しく追跡するため、培地Mを含む一定の撮像領域を撮像する。撮像装置10により生成された動画像データは、情報処理装置20へ送信される。
情報処理装置20は、画像解析機能を有する装置である。情報処理装置20は、PC(Personal Computer)、タブレット、スマートフォンなど、画像解析機能を有するあらゆる装置により実現される。また、情報処理装置20は、ネットワーク上の1または複数の情報処理装置によって実現されてもよい。本実施形態に係る情報処理装置20は、撮像装置10から撮像画像を取得し、取得した撮像画像について観察対象の領域の追跡を実行する。情報処理装置20による追跡処理の解析結果は、情報処理装置20の内部または外部に備えられる記憶装置または表示装置等に出力される。なお、情報処理装置20の各機能を実現する機能構成については後述する。
まず、図2〜図22を参照して本開示の第1の実施形態に係る情報処理装置20について説明する。
図2は、本開示の一実施形態に係る情報処理装置20の機能構成例を示すブロック図である。図2に示すように、情報処理装置20は、画像取得部210、初期設定部215、配置部220、推定部230、設定部240、および出力制御部250を含む。
画像取得部210は、撮像装置10により生成された撮像画像データを、不図示の通信装置を介して取得する。例えば、画像取得部210は、撮像装置10により生成された動画像データを時系列に取得する。
初期設定部215は、情報処理装置20による追跡処理が開始されていない場合に、画像取得部210から取得した撮像画像について注目領域の初期設定を行う機能を有する。
配置部220は、注目領域に関して、複数の追跡点を配置する機能を有する。
推定部230は、注目領域の設定に用いられた撮像画像(以後、第1の撮像画像と呼称する)と、画像取得部210から取得した他の撮像画像(以後第2の撮像画像と呼称する)との比較に基づいて、第1の撮像画像における注目領域に関して配置された追跡点の第2の撮像画像における位置を推定する機能を有する。ここで、第2の撮像画像とは、第1の撮像画像とは撮像時点が異なる撮像画像を意味する。第2の撮像画像は、例えば、第1の撮像画像のフレームの前後の数フレームのうちのいずれかのフレームの撮像画像であってもよい。より具体的には、第2の撮像画像は、第1の撮像画像の1フレーム後に生成された撮像画像であってもよい。また、詳細は後述するが、観察対象の状態または変化等に応じて、推定対象となる第2の撮像画像の撮像時点(第1の撮像画像と第2の撮像画像の間のフレーム数)が指定されてもよい。
設定部240は、推定部230から取得した第2の撮像画像における追跡点の位置に基づいて、第2の撮像画像における注目領域を設定する機能を有する。
出力制御部250は、設定部240から取得した注目領域に関する情報など、一連の追跡処理において得られた各種情報を出力する機能を有する。出力制御部250は、例えば、配置部220による追跡点の配置結果、推定部230による追跡点の位置の推定結果、または設定部240による注目領域の設定結果等を出力してもよい。出力制御部250による出力態様については特に限定されない。例えば、出力制御部250は撮像画像を不図示の表示装置に表示し、表示された撮像画像上に追跡点または注目領域等の各種情報を重畳してもよい。また、出力制御部250は、上記の各種情報を不図示の記憶装置に記憶してもよいし、不図示の通信装置を用いて外部装置に送信してもよい。
以上、本開示の一実施形態に係る情報処理装置20の構成例について説明した。次に、本開示の一実施形態に係る情報処理装置20による処理の一例について、図3〜図10を参照して説明する。なお、本実施形態に係る処理において得られる追跡点および注目領域等は、出力制御部250により表示装置の表示部Dに適宜表示されるものとして説明する。
まず、画像取得部210は、撮像装置10から動画像データを取得し、当該動画像データから一の撮像画像を初期設定部215に出力する(S101)。
以上、情報処理装置20による初期設定処理について説明した。続いて、情報処理装置20による追跡処理について説明する。
以上、本開示の一実施形態に係る情報処理装置20の構成例および処理例について説明した。本実施形態によれば、初期設定部215が、第1の撮像画像について細胞の領域に対応する注目領域を設定し、配置部220が、設定された注目領域に関して追跡点を配置し、推定部230が、配置された追跡点の第2の撮像画像における位置を推定する。さらに、本実施形態によれば、設定部240が、推定された追跡点の位置に基づいて第2の撮像画像について注目領域を設定し、配置部220が、設定された注目領域に関して追跡点を再配置する。かかる構成により、変化する注目領域に応じて追跡点を適切な位置に再配置することができる。これにより、追跡点どうしの離隔または近接による追跡処理の精度低下を防ぐことができ、観察対象の形状変化を高精度で追跡することが可能となる。
本開示の一実施形態に係る情報処理装置20による各種処理は、上述した処理例に限定されない。以下、本実施形態に係る情報処理装置20の配置部220、および推定部230による処理の応用例について説明する。
まず、配置部220による配置処理(再配置処理を含む)の第1の応用例について説明する。配置部220は、例えば、注目領域を定義する線の少なくとも一部の形状に応じて、当該形状を有する線上に配置される追跡点の配置間隔(配置数)を決定してもよい。つまり、配置部220は、形状に応じて追跡点の配置間隔を大きく、または小さくしてもよい。
次に、配置部220による配置処理の第2の応用例について説明する。配置部220は、注目領域内の画素に関する情報に基づいて追跡点の配置間隔(配置数)を決定してもよい。ここで、注目領域内の画素に関する情報は、例えば各画素の輝度情報であってもよい。また、当該画素に関する情報は、輝度情報に限らず、画素の濃淡の分布、またはエッジの強弱等であってもよい。
次に、配置部220による配置処理の第3の応用例について説明する。配置部220は、先の追跡処理において推定部230により推定された、各追跡点の動きベクトルの大きさに基づいて追跡点の配置間隔(配置数)を決定してもよい。配置部220は、例えば、各追跡点の動きベクトルの大きさの分布を取得し、当該分布に応じて追跡点の配置間隔を決定してもよい。
次に、推定部230による推定処理の応用例について説明する。本実施形態に係る推定部230は、他の撮像画像における各追跡点の位置を推定するが、その際に、推定部230は、推定結果を用いて観察対象の移動量をさらに算出してもよい。より具体的には、推定部230は、各追跡点について算出した動きベクトルを用いて、観察対象の移動量を算出してもよい。
(注目領域内の動き解析)
次に、本開示の一実施形態に係る情報処理装置20の変形例について説明する。図15は、本開示の一実施形態の変形例に係る情報処理装置20Aの機能構成例を示すブロック図である。本変形例に係る情報処理装置20Aは、本実施形態に係る情報処理装置20に含まれる画像取得部210、初期設定部215、配置部220、推定部230、設定部240、および出力制御部250を含むが、初期設定部215の代わりに初期処理部255および解析部260を含み得る。より具体的には、本変形例に係る情報処理装置20Aは、初期処理部255にて算出された動きベクトルに基づき、解析部260において追跡処理で特定された注目領域内の動き特徴量を算出し得る。
初期処理部255は、画像取得部210により取得された複数の撮像画像データについて動き解析を行い動きベクトルの算出を行う機能を有する。ここで算出される動きベクトルは上述した注目領域について配置された追跡点の動きベクトルではなく、撮像画像データのフレーム内部における動きベクトルを意味する。かかる動きベクトルは、後段の解析部260における動き特徴量の算出に用いられる。動きベクトルの算出対象となる撮像画像データは、取得された全ての撮像画像(動画像)データのフレームであってもよいし、自動的にまたはユーザの選択により選択された区間におけるフレームであってもよい。動きベクトルの算出については、ブロックマッチング等の公知のアルゴリズムを用いて適宜行われる。
解析部260は、追跡処理において設定部240により設定された注目領域についての動き特徴量を算出する機能を有する。具体的には、解析部260は、初期処理部255において予め算出された動きベクトルのうち、設定部240により設定された注目領域の内部における動きベクトルを特定し、特定された動きベクトルに基づいて注目領域についての動き特徴量を算出する。
図16は、本変形例に係る情報処理装置20Aによる処理の一例を示すフローチャートである。図16を参照すると、まず画像取得部210により動画像データ(撮像画像データ)が取得される(S201)。次に、初期処理部255により動画像データについて動きベクトルが算出される(S203)。
続いて、本開示の一実施形態に係る情報処理装置20の適用例について説明する。
本実施形態に係る情報処理装置20について、短時間でその形態を大きく変化させる細胞が、処理の主な対象となる。まず、本実施形態に係る情報処理装置20の第1の適用例について説明する。
本実施形態に係る情報処理装置20の適用対象は上述したような細胞に限られない。例えば、適用対象は、動物、植物または無生物である構造体であってもよい。これらの適用対象が短時間でその形状または構造を大きく変化させる場合、本実施形態に係る情報処理装置20による追跡処理は有用である。以下、本実施形態に係る情報処理装置20の第2の適用例について説明する。
本実施形態に係る情報処理装置20の適用対象(観察対象)は上述した一つの構造体だけでなく、複数の構造体からなる集団であってもよい。これらの適用対象が集団として短時間でその形状または構造を大きく変化させる場合、本実施形態に係る情報処理装置20による追跡処理は有用である。以下、本実施形態に係る情報処理装置20の第3の適用例について説明する。
本実施形態に係る情報処理装置20は、一の撮像画像データに対して一種類の構造体だけを適用対象とするだけではなく、異なる複数種類の構造体を適用対象としてもよい。これらの適用対象が相互に作用して短時間でその形状または構造を大きく変化させる場合、本実施形態に係る情報処理装置20による追跡処理は有用である。以下、本実施形態に係る情報処理装置20の第4の適用例について説明する。
次に、図23を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図23は、本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。図示された情報処理装置900は、例えば、上記の実施形態における情報処理装置20を実現しうる。
<4.まとめ>
(1)
撮像画像における注目領域に関して複数の追跡点を配置する配置部と、
前記撮像画像と、前記撮像画像とは撮像時点が異なる他の撮像画像との比較に基づいて、前記追跡点の前記他の撮像画像における位置を推定する推定部と、
前記推定部により推定された前記追跡点の位置に基づいて前記他の撮像画像における注目領域を設定する設定部と、
を備え、
前記設定部により前記撮像画像における前記注目領域が設定されている場合、
前記配置部は、設定された前記注目領域に関して前記追跡点を再配置し、
前記推定部は、再配置された追跡点の前記他の撮像画像における位置を推定する情報処理装置。
(2)
前記配置部は、前記注目領域を定義する線上に前記複数の追跡点を配置する、前記(1)に記載の情報処理装置。
(3)
前記配置部は、前記注目領域を定義する線の少なくとも一部の形状に応じて、当該形状を有する線上に配置される前記複数の追跡点の前記配置間隔を決定する、前記(2)に記載の情報処理装置。
(4)
前記配置部は、前記形状の曲率に応じて前記複数の追跡点の配置間隔を決定する、前記(3)に記載の情報処理装置。
(5)
前記配置部は、前記撮像画像における前記注目領域内の画素に関する情報に基づいて前記複数の追跡点の配置間隔を決定する、前記(2)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記画素に関する情報は、輝度情報を含む、前記(5)に記載の情報処理装置。
(7)
前記配置部は、前記注目領域に対応する観察対象に関する情報に基づいて前記複数の追跡点の配置間隔を決定する、前記(2)〜(6)のいずれか1項に記載の情報処理装置。
(8)
前記注目領域を定義する線は、前記注目領域を包囲する閉曲線である、前記(2)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記配置部は、先に配置された追跡点のうち少なくとも一の追跡点を、前記推定部により推定された位置と同一の位置に再配置する、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記推定部は、前記撮像画像と前記他の撮像画像との比較により得られる動きベクトルに基づいて前記他の撮像画像における前記追跡点の位置を推定する、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)
前記推定部は、前記撮像画像内の前記追跡点を含む追跡領域について、前記他の撮像画像における前記追跡領域の位置を所定の探索範囲において探索することにより、前記動きベクトルを算出する、前記(10)に記載の情報処理装置。
(12)
前記追跡領域の大きさは、前記注目領域に対応する観察対象に関する情報に基づいて決定される大きさである、前記(11)に記載の情報処理装置。
(13)
前記探索範囲の大きさは、前記注目領域に対応する観察対象に関する情報に基づいて決定される大きさである、前記(11)または(12)に記載の情報処理装置。
(14)
前記推定部は、前記動きベクトルに基づいて、前記注目領域に対応する観察対象の移動量を算出する、前記(10)〜(13)のいずれか1項に記載の情報処理装置。
(15)
前記配置部は、前記動きベクトルの大きさに基づいて前記複数の追跡点の配置間隔を決定する、前記(10)〜(14)のいずれか1項に記載の情報処理装置。
(16)
前記撮像画像の各々の解析により得られる動きベクトルを用いて、前記注目領域の内部の動き特徴量を算出する解析部をさらに備える、前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(17)
前記推定部は、前記注目領域に対応する観察対象に関する情報に基づいて決定される撮像時点において撮像された他の撮像画像における前記追跡点の位置を推定する、前記(1)〜(16)のいずれか1項に記載の情報処理装置。
(18)
前記設定部は、前記撮像画像内の画素に関する情報を用いて前記注目領域を設定する、前記(1)〜(17)のいずれかに記載の情報処理装置。
(19)
プロセッサが、
撮像画像における注目領域に関して複数の追跡点を配置することと、
前記撮像画像と、前記撮像画像とは撮像時点が異なる他の撮像画像との比較に基づいて、前記追跡点の前記他の撮像画像における位置を推定することと、
推定された前記追跡点の位置に基づいて前記他の撮像画像における注目領域を設定することと、
を含み、
前記プロセッサにより前記撮像画像における前記注目領域が設定されている場合、
前記プロセッサが、
設定された前記注目領域に関して前記追跡点を再配置することと、
再配置された追跡点の他の撮像画像における位置を推定することと、
をさらに含む情報処理方法。
(20)
複数の撮像画像を生成する撮像部
を備える撮像装置と、
前記撮像部から取得した一の撮像画像における注目領域に関して複数の追跡点を配置する配置部と、
前記一の撮像画像と、前記一の撮像画像とは前記撮像部による撮像時点が異なる他の撮像画像との比較に基づいて、前記追跡点の前記他の撮像画像における位置を推定する推定部と、
推定された前記追跡点の位置に基づいて前記他の撮像画像における注目領域を設定する設定部と、
を備え、
前記設定部により前記一の撮像画像における前記注目領域が設定されている場合、
前記配置部は、設定された前記注目領域に関して前記追跡点を再配置し、
前記推定部は、再配置された追跡点の前記他の撮像画像における位置を推定する
情報処理装置と、
を備える情報処理システム。
10 撮像装置
20 情報処理装置
210 画像取得部
215 初期設定部
220 配置部
230 推定部
240 設定部
250 出力制御部
255 初期処理部
260 解析部
Claims (18)
- 撮像画像における注目領域に関して、前記注目領域を定義する線上に複数の追跡点を配置し、前記注目領域を定義する線の少なくとも一部の形状に応じて、当該形状を有する線上に配置される前記複数の追跡点の配置間隔を決定する配置部と、
前記撮像画像と、前記撮像画像とは撮像時点が異なる他の撮像画像との比較に基づいて、前記追跡点の前記他の撮像画像における位置を推定する推定部と、
前記推定部により推定された前記追跡点の位置に基づいて前記他の撮像画像における注目領域を設定する設定部と、
を備え、
前記設定部により前記撮像画像における前記注目領域が設定されている場合、
前記配置部は、設定された前記注目領域に関して前記追跡点を再配置し、
前記推定部は、再配置された追跡点の前記他の撮像画像における位置を推定する情報処理装置。 - 前記配置部は、前記形状の曲率に応じて前記複数の追跡点の配置間隔を決定する、請求項1に記載の情報処理装置。
- 前記配置部は、前記撮像画像における前記注目領域内の画素に関する情報に基づいて前記複数の追跡点の配置間隔を決定する、請求項1または請求項2に記載の情報処理装置。
- 前記画素に関する情報は、輝度情報を含む、請求項3に記載の情報処理装置。
- 前記配置部は、前記注目領域に対応する観察対象に関する情報に基づいて前記複数の追跡点の配置間隔を決定する、請求項1乃至請求項4の何れか1項に記載の情報処理装置。
- 前記注目領域を定義する線は、前記注目領域を包囲する閉曲線である、請求項1乃至請求項5の何れか1項に記載の情報処理装置。
- 前記配置部は、先に配置された追跡点のうち少なくとも一の追跡点を、前記推定部により推定された位置と同一の位置に再配置する、請求項1乃至請求項6の何れか1項に記載の情報処理装置。
- 前記推定部は、前記撮像画像と前記他の撮像画像との比較により得られる動きベクトルに基づいて前記他の撮像画像における前記追跡点の位置を推定する、請求項1乃至請求項7の何れか1項に記載の情報処理装置。
- 前記推定部は、前記撮像画像内の前記追跡点を含む追跡領域について、前記他の撮像画像における前記追跡領域の位置を所定の探索範囲において探索することにより、前記動きベクトルを算出する、請求項8に記載の情報処理装置。
- 前記追跡領域の大きさは、前記注目領域に対応する観察対象に関する情報に基づいて決定される大きさである、請求項9に記載の情報処理装置。
- 前記探索範囲の大きさは、前記注目領域に対応する観察対象に関する情報に基づいて決定される大きさである、請求項9または請求項10に記載の情報処理装置。
- 前記推定部は、前記動きベクトルに基づいて、前記注目領域に対応する観察対象の移動量を算出する、請求項8乃至請求項11の何れか1項に記載の情報処理装置。
- 前記配置部は、前記動きベクトルの大きさに基づいて前記複数の追跡点の配置間隔を決定する、請求項8乃至請求項12の何れか1項に記載の情報処理装置。
- 前記撮像画像の各々の解析により得られる動きベクトルを用いて、前記注目領域の内部の動き特徴量を算出する解析部をさらに備える、請求項1乃至請求項13の何れか1項に記載の情報処理装置。
- 前記推定部は、前記注目領域に対応する観察対象に関する情報に基づいて決定される撮像時点において撮像された他の撮像画像における前記追跡点の位置を推定する、請求項1乃至請求項14の何れか1項に記載の情報処理装置。
- 前記設定部は、前記撮像画像内の画素に関する情報を用いて前記注目領域を設定する、請求項1乃至請求項15の何れか1項に記載の情報処理装置。
- プロセッサが、
撮像画像における注目領域に関して、前記注目領域を定義する線上に複数の追跡点を配置し、前記注目領域を定義する線の少なくとも一部の形状に応じて、当該形状を有する線上に配置される前記複数の追跡点の配置間隔を決定することと、
前記撮像画像と、前記撮像画像とは撮像時点が異なる他の撮像画像との比較に基づいて、前記追跡点の前記他の撮像画像における位置を推定することと、
推定された前記追跡点の位置に基づいて前記他の撮像画像における注目領域を設定することと、
を含み、
前記プロセッサにより前記撮像画像における前記注目領域が設定されている場合、
前記プロセッサが、
設定された前記注目領域に関して前記追跡点を再配置することと、
再配置された追跡点の他の撮像画像における位置を推定することと、
をさらに含む情報処理方法。 - 複数の撮像画像を生成する撮像部
を備える撮像装置と、
前記撮像部から取得した一の撮像画像における注目領域に関して、前記注目領域を定義する線上に複数の追跡点を配置し、前記注目領域を定義する線の少なくとも一部の形状に応じて、当該形状を有する線上に配置される前記複数の追跡点の配置間隔を決定する配置部と、
前記一の撮像画像と、前記一の撮像画像とは前記撮像部による撮像時点が異なる他の撮像画像との比較に基づいて、前記追跡点の前記他の撮像画像における位置を推定する推定部と、
推定された前記追跡点の位置に基づいて前記他の撮像画像における注目領域を設定する設定部と、
を備え、
前記設定部により前記一の撮像画像における前記注目領域が設定されている場合、
前記配置部は、設定された前記注目領域に関して前記追跡点を再配置し、
前記推定部は、再配置された追跡点の前記他の撮像画像における位置を推定する
情報処理装置と、
を備える情報処理システム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/004345 WO2017061080A1 (en) | 2015-10-08 | 2016-09-26 | Information processing device, information processing method, and information processing system |
EP16779193.8A EP3360113A1 (en) | 2015-10-08 | 2016-09-26 | Information processing device, information processing method, and information processing system |
CN201680058029.2A CN108140241A (zh) | 2015-10-08 | 2016-09-26 | 信息处理装置、信息处理方法和信息处理*** |
US15/765,103 US10929985B2 (en) | 2015-10-08 | 2016-09-26 | System and methods for tracking motion of biological cells |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015199991 | 2015-10-08 | ||
JP2015199991 | 2015-10-08 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017073119A JP2017073119A (ja) | 2017-04-13 |
JP2017073119A5 JP2017073119A5 (ja) | 2019-08-22 |
JP6720756B2 true JP6720756B2 (ja) | 2020-07-08 |
Family
ID=58537198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016150604A Active JP6720756B2 (ja) | 2015-10-08 | 2016-07-29 | 情報処理装置、情報処理方法及び情報処理システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10929985B2 (ja) |
EP (1) | EP3360113A1 (ja) |
JP (1) | JP6720756B2 (ja) |
CN (1) | CN108140241A (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10796142B2 (en) * | 2017-08-28 | 2020-10-06 | Nutech Ventures | Systems for tracking individual animals in a group-housed environment |
JP6981533B2 (ja) * | 2018-03-20 | 2021-12-15 | 株式会社島津製作所 | 細胞画像解析装置、細胞画像解析システム、学習データの生成方法、学習モデルの生成方法、学習データの生成プログラム、および、学習データの製造方法 |
KR102085699B1 (ko) * | 2018-07-09 | 2020-03-06 | 에스케이텔레콤 주식회사 | 객체 추적 서버, 객체 추적 시스템 및 객체 추적 방법을 수행하는 컴퓨터 판독 가능 기록매체에 저장된 프로그램 |
JPWO2020174862A1 (ja) * | 2019-02-28 | 2021-12-23 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および情報処理システム |
JPWO2020202701A1 (ja) * | 2019-03-29 | 2021-12-23 | 富士フイルム株式会社 | 細胞評価装置、細胞評価装置の作動方法、細胞評価装置の作動プログラム、並びに細胞培養システム |
JP7438684B2 (ja) * | 2019-07-30 | 2024-02-27 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
CN115118876B (zh) * | 2022-04-19 | 2023-09-22 | 北京航天飞行控制中心 | 拍摄参数的确定方法、装置及计算机可读存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5508035B2 (ja) | 2002-09-12 | 2014-05-28 | 株式会社日立メディコ | 画像診断装置 |
CN100393283C (zh) | 2002-09-12 | 2008-06-11 | 株式会社日立医药 | 生物体组织动状态跟踪方法、使用该方法的图像诊断装置 |
US8848974B2 (en) * | 2008-09-29 | 2014-09-30 | Restoration Robotics, Inc. | Object-tracking systems and methods |
WO2017041303A1 (en) * | 2015-09-11 | 2017-03-16 | SZ DJI Technology Co., Ltd. | Systems and methods for detecting and tracking movable objects |
-
2016
- 2016-07-29 JP JP2016150604A patent/JP6720756B2/ja active Active
- 2016-09-26 EP EP16779193.8A patent/EP3360113A1/en active Pending
- 2016-09-26 CN CN201680058029.2A patent/CN108140241A/zh active Pending
- 2016-09-26 US US15/765,103 patent/US10929985B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3360113A1 (en) | 2018-08-15 |
JP2017073119A (ja) | 2017-04-13 |
US10929985B2 (en) | 2021-02-23 |
US20180268557A1 (en) | 2018-09-20 |
CN108140241A (zh) | 2018-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6720756B2 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
JP6696152B2 (ja) | 情報処理装置、情報処理方法、プログラム及び情報処理システム | |
JP6777086B2 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
JP6922891B2 (ja) | 情報処理装置、情報処理方法、プログラム及び情報処理システム | |
WO2018083984A1 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
WO2018105298A1 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
EP3485458A1 (en) | Information processing device, information processing method, and information processing system | |
JP4373682B2 (ja) | 関心組織領域抽出方法、関心組織領域抽出プログラム及び画像処理装置 | |
WO2017159011A1 (ja) | 情報処理装置、情報処理方法、プログラム及び情報処理システム | |
JP4887491B2 (ja) | 医用画像処理方法及びその装置、プログラム | |
WO2017169397A1 (ja) | 画像処理装置、画像処理方法、及び画像処理システム | |
WO2017061080A1 (en) | Information processing device, information processing method, and information processing system | |
CN114926448A (zh) | 一种胶囊内窥镜图像特征点提取方法 | |
Khanal et al. | EchoFusion: tracking and reconstruction of objects in 4D freehand ultrasound imaging without external trackers | |
JP2013505779A (ja) | 運動情報を用いて医用画像の質を改善するコンピュータ可読媒体、システム、および方法 | |
Pan et al. | Nasopharyngeal Organ Segmentation Algorithm Based on Dilated Convolution Feature Pyramid | |
JP2004261377A (ja) | 中空臓器血管抽出方法、中空臓器血管抽出処理プログラムおよび画像処理装置 | |
Dhruv et al. | Detection of Pancreatic Tumor using Particle Swarm Optimization based Image Enhancement | |
WO2018012353A1 (en) | Information processing device, information processing method, and information processing system | |
CN115994886A (zh) | 利用放大来保持邻近的环境感知 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190222 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190712 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200519 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200601 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6720756 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |