JP7303793B2 - 長期間の継続的な動物行動モニタリング - Google Patents

長期間の継続的な動物行動モニタリング Download PDF

Info

Publication number
JP7303793B2
JP7303793B2 JP2020507071A JP2020507071A JP7303793B2 JP 7303793 B2 JP7303793 B2 JP 7303793B2 JP 2020507071 A JP2020507071 A JP 2020507071A JP 2020507071 A JP2020507071 A JP 2020507071A JP 7303793 B2 JP7303793 B2 JP 7303793B2
Authority
JP
Japan
Prior art keywords
animal
ellipse
neural network
input video
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020507071A
Other languages
English (en)
Other versions
JP2020530626A5 (ja
JP2020530626A (ja
Inventor
クマール,ビベーク
ゴイター,ブライアン・キュー
ピーターソン,ジム
チャーチル,ゲイリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jackson Laboratory
Original Assignee
Jackson Laboratory
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jackson Laboratory filed Critical Jackson Laboratory
Publication of JP2020530626A publication Critical patent/JP2020530626A/ja
Publication of JP2020530626A5 publication Critical patent/JP2020530626A5/ja
Priority to JP2023102972A priority Critical patent/JP2023120383A/ja
Application granted granted Critical
Publication of JP7303793B2 publication Critical patent/JP7303793B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K1/00Housing animals; Equipment therefor
    • A01K1/02Pigsties; Dog-kennels; Rabbit-hutches or the like
    • A01K1/03Housing for domestic or laboratory animals
    • A01K1/031Cages for laboratory animals; Cages for measuring metabolism of animals
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • A01K29/005Monitoring or measuring activity, e.g. detecting heat or mating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Environmental Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Animal Husbandry (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Zoology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Clinical Laboratory Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Housing For Livestock And Birds (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

[0001]本願は、2017年8月7日に出願された「Long-Term and Continuous Animal Behavioral Monitoring」という名称の米国仮特許出願第62/542,180号および2018年4月23日に出願された「Robust Mouse Tracking In Complex Environments Using Neural Networks」という名称の米国仮特許出願第62/661,610号の利益を主張するものである。これらの出願それぞれのすべての内容が参照により組み込まれる。
[0002]動物の行動は、内部または外部刺激に応じた神経系の出力と理解され得る。動物を正確に追跡できることは、動物の行動を分類するプロセスの一部として有益となり得る。たとえば、行動の変化は、老化、精神疾患、あるいは代謝性疾患の顕著な特徴であり、動物の生理状態、神経認知状態、および情動状態の影響に関する重要な情報を明らかにすることができる。
[0003]従来、動物の行動を評価する実験が非侵襲的に行われており、研究者が動物と直接的に相互作用する。一例として、研究者は、マウス等の動物を住居環境(たとえば、ケージ)から取り出し、その動物を異なる環境(たとえば、迷路等の装置)に移す場合がある。そして、研究者は、新たな環境の近くに自己の位置を定めて、動物を追跡することにより、動物の作業能力を観察する場合がある。ただし、動物は、新たな環境における異なる行動またはテストを実行する実験者に対する異なる行動を示し得ることが知られている。これは、データの混同に至り、再現性がなくて誤解を招く結果の原因となることが多い。
[0004]行動モニタリング実験中の人間の干渉を最小限に抑えるため、低侵襲モニタリング技術が開発されている。一例として、動物の行動のモニタリングに使用するビデオモニタリングが研究されている。ただし、ビデオモニタリングには課題が残っている。一側面においては、一組の広範な環境条件の下、長期間にわたって継続的に、高い時空間分解能でビデオデータを捕捉できることが主要なハードルとして残っている。数日、数週間、および/または数カ月等の長期間にわたって行われる動物の観察研究は、取得および格納にコストが掛かる大量のデータを生成する可能性がある。別の側面においては、十分な品質のビデオデータを取得および格納できることを仮定したとしても、長期間の観察中に生成された大量のビデオ映像を研究者が手動で精査するとともに、このような長期間にわたって動物を追跡するのは、経済的に実現不可能である。この課題は、新薬のスクリーニングまたはゲノミクス実験の実行に際して必要となり得るように、観察する動物の数が増えた場合により顕著になる。
[0005]この問題に対処するため、動物の行動の捕捉ビデオを解析するコンピュータベースの技術が開発されている。ただし、既存のコンピュータベースのシステムでは、複雑かつ動的な環境において、異なる動物を正確に追跡することができない。一例として、動物を追跡する既存のコンピュータベースの技術は、1匹の動物の背景(たとえば、ケージの壁および/または床、水入れ等のケージ内の物体)からの識別または複数匹の動物の相互識別を正確に行うことができない。最善の場合でも、観察期間に所与の動物が正確に追跡されなければ、有益な観察データが失われてしまう可能性がある。最悪の場合、観察期間に所与の動物またはその一部が間違って追跡されたり、別のものと間違えられたりすると、取得されたビデオデータから分類される行動に誤差が導入される可能性がある。追跡を容易化するため、動物の毛色の変更等の技術が採用されているものの、動物の毛色の変更によって、動物の行動が変化する可能性もある。結果として、複雑かつ動的な環境または遺伝子学的に異種の動物で実行される既存のビデオ追跡手法には、高レベルのユーザ関与を必要とするため、ビデオ観察に関する上述の利点が失われてしまう。このため、大規模および/または長期間の動物モニタリング実験は、依然として実現不可能である。
[0006]神経科学および行動科学が大量の行動データおよび計算行動学の時代に突入するにつれ、長期間にわたって半自然かつ動的な環境で動物の行動の分類を容易化するには、動物を追跡するより優れた技術が必要となる。
[0007]したがって、オープンフィールドにおける動物(たとえば、マウス)の堅牢かつスケーラブルな追跡を提供可能なニューラルネットワークを用いたシステムおよび方法が開発されている。一例として、高い時空間分解能で動物の動きのビデオデータの取得を容易化するシステムおよび方法が提供されている。このビデオデータは、長期間にわたって、一組の広範な環境条件の下、継続的に捕捉され得る。
[0008]取得されたビデオデータは、追跡のための畳み込みニューラルネットワーク・アーキテクチャの入力として採用され得る。ニューラルネットワークは、新たな環境または動物が提示された場合、トレーニング時に、高堅牢かつユーザ関与の調節なく複数の環境条件下で追跡を行い得るようにトレーニングされ得る。このような実験条件の例には、さまざまな毛色、体形、および行動のほか、異なるケージ環境にも関わらず、異なるマウス系統を含み得る。このため、本開示の実施形態は、最小侵襲動物追跡を容易化することにより、異種条件下で長期間にわたって、多数の動物の行動モニタリングを容易化し得る。
[0009]特定の実施形態においては、開示のビデオ観察および動物追跡技術が組み合わせて採用され得る。ただし、これらの技術はそれぞれ、単独での採用も可能であるし、相互または他の技術との任意の組み合わせでの採用も可能であることが了解され得る。
[0010]一実施形態においては、動物追跡の方法が提供される。この方法は、プロセッサにより、動物の観察を表すビデオデータを受信するステップと、プロセッサにより、ニューラルネットワーク・アーキテクチャを実行するステップと、を含み得る。ニューラルネットワーク・アーキテクチャは、ビデオデータから抽出された入力ビデオフレームを受信すること、入力ビデオフレームに基づいて、少なくとも1匹の動物の楕円記述を生成すること、楕円記述はあらかじめ決められた楕円パラメータにより規定される、および少なくとも1匹の動物について、あらかじめ決められた楕円パラメータを特徴付ける値を含むデータを提供すること、を行うように構成され得る。
[0011]この方法の別の実施形態において、楕円パラメータは、平面内の動物の位置、動物の長軸の長さおよび短軸の長さ、ならびに動物の頭部が向いている角度であって、長軸の方向に対して規定される角度、を表す座標であり得る。
[0012]この方法の別の実施形態において、ニューラルネットワーク・アーキテクチャとしては、エンコーダ-デコーダ・セグメンテーション・ネットワークが可能である。エンコーダ-デコーダ・セグメンテーション・ネットワークは、入力ビデオフレームから、前景-背景セグメント化画像を予測すること、画素の観点で、セグメント化画像に基づいて、動物が入力ビデオフレーム中に存在するかを予測すること、画素の観点での予測に基づいて、セグメンテーションマスクを出力すること、および動物が存在すると予測されたセグメンテーションマスクの部分を楕円に適合させて、あらかじめ決められた楕円パラメータを特徴付ける値を決定すること、を行うように構成され得る。
[0013]この方法の別の実施形態において、エンコーダ-デコーダ・セグメンテーション・ネットワークは、特徴エンコーダ、特徴デコーダ、および角度予測器を備え得る。特徴エンコーダは、入力ビデオフレームを一組の小さな空間解像度の特徴へと抽象化するように構成され得る。特徴デコーダは、一組の特徴を入力ビデオフレームと同じ形状へと変換し、前景-背景セグメント化画像を出力するように構成され得る。角度予測器は、動物の頭部が向いている角度を予測するように構成され得る。
[0014]この方法の別の実施形態において、ニューラルネットワーク・アーキテクチャは、楕円記述の各楕円パラメータの最確値のヒートマップを予測するように構成されたビニング分類ネットワークを備え得る。
[0015]この方法の別の実施形態において、ビニング分類ネットワークは、入力ビデオフレームを小さな空間解像度へと抽象化するように構成された特徴エンコーダを備え、抽象化が、ヒートマップを生成するように採用され得る。
[0016]この方法の別の実施形態において、ニューラルネットワーク・アーキテクチャは、入力ビデオフレームから特徴を抽出し、楕円パラメータそれぞれを特徴付ける値を直接予測するように構成された回帰ネットワークを備え得る。
[0017]この方法の別の実施形態において、動物としては、齧歯動物が可能である。
[0018]一実施形態においては、動物追跡のシステムが提供される。このシステムは、動物の観察を表すビデオデータを維持するデータ記憶装置を備え得る。また、このシステムは、データ記憶装置からビデオデータを受信すること、およびニューラルネットワーク・アーキテクチャを実装することを行うように構成されたプロセッサを備え得る。ニューラルネットワーク・アーキテクチャは、ビデオデータから抽出された入力ビデオフレームを受信すること、ビデオフレームに基づいて、少なくとも1匹の動物の楕円記述を生成すること、楕円記述はあらかじめ決められた楕円パラメータにより規定される、および少なくとも1匹の動物について、あらかじめ決められた楕円パラメータを特徴付ける値を含むデータを提供すること、を行うように構成され得る。
[0019]このシステムの別の実施形態において、楕円パラメータは、平面内の動物の位置、動物の長軸の長さおよび短軸の長さ、ならびに動物の頭部が向いている角度であって、長軸の方向に対して規定される角度、を表す座標であり得る。
[0020]このシステムの別の実施形態において、ニューラルネットワーク・アーキテクチャとしては、エンコーダ-デコーダ・セグメンテーション・ネットワークが可能である。エンコーダ-デコーダ・セグメンテーション・ネットワークは、入力ビデオフレームから、前景-背景セグメント化画像を予測すること、画素の観点で、セグメント化画像に基づいて、動物が入力ビデオフレーム中に存在するかを予測すること、画素の観点での予測に基づいて、セグメンテーションマスクを出力すること、動物が存在すると予測されたセグメンテーションマスクの部分を楕円に適合させて、あらかじめ決められた楕円パラメータを特徴付ける値を決定すること、を行うように構成され得る。
[0021]このシステムの別の実施形態において、エンコーダ-デコーダ・セグメンテーション・ネットワークは、特徴エンコーダ、特徴デコーダ、および角度予測器を備え得る。特徴エンコーダは、入力ビデオフレームを一組の小さな空間解像度の特徴へと抽象化するように構成され得る。特徴デコーダは、一組の特徴を入力ビデオフレームと同じ形状へと変換し、前景-背景セグメント化画像を出力するように構成され得る。角度予測器は、動物の頭部が向いている角度を予測するように構成され得る。
[0022]このシステムの別の実施形態において、ニューラルネットワーク・アーキテクチャは、ビニング分類ネットワークを備え得る。ビニング分類ネットワークは、楕円記述の各楕円パラメータの最確値のヒートマップを予測するように構成され得る。
[0023]このシステムの別の実施形態において、ビニング分類ネットワークは、入力ビデオフレームを小さな空間解像度へと抽象化するように構成された特徴エンコーダを備え、抽象化が、ヒートマップを生成するように採用され得る。
[0024]このシステムの別の実施形態において、ニューラルネットワーク・アーキテクチャは、入力ビデオフレームから特徴を抽出し、楕円パラメータそれぞれを特徴付ける値を直接予測するように構成された回帰ネットワークを備え得る。
[0025]このシステムの別の実施形態において、動物としては、齧歯動物が可能である。
[0026]一実施形態においては、命令を格納した非一時的コンピュータプログラム製品が提供される。命令は、少なくとも1つのコンピューティングシステムの少なくとも1つのデータプロセッサにより実行されたときに、動物の観察を表すビデオデータを受信するステップと、ニューラルネットワーク・アーキテクチャを実行するステップと、を含む方法を実行し得る。ニューラルネットワーク・アーキテクチャは、ビデオデータから抽出された入力ビデオフレームを受信すること、入力ビデオフレームに基づいて、少なくとも1匹の動物の楕円記述を生成すること、楕円記述はあらかじめ決められた楕円パラメータにより規定される、および少なくとも1匹の動物について、あらかじめ決められた楕円パラメータを特徴付ける値を含むデータを提供すること、を行うように構成され得る。
[0027]別の実施形態において、楕円パラメータは、平面内の動物の位置、動物の長軸の長さおよび短軸の長さ、ならびに動物の頭部が向いている角度であって、長軸の方向に対して規定される角度、を表す座標であり得る。
[0028]別の実施形態において、ニューラルネットワーク・アーキテクチャとしては、エンコーダ-デコーダ・セグメンテーション・ネットワークが可能である。エンコーダ-デコーダ・セグメンテーション・ネットワークは、入力ビデオフレームから、前景-背景セグメント化画像を予測すること、画素の観点で、セグメント化画像に基づいて、動物が入力ビデオフレーム中に存在するかを予測すること、画素の観点での予測に基づいて、セグメンテーションマスクを出力すること、および動物が存在すると予測されたセグメンテーションマスクの部分を楕円に適合させて、あらかじめ決められた楕円パラメータを特徴付ける値を決定すること、を行うように構成され得る。
[0029]別の実施形態において、エンコーダ-デコーダ・セグメンテーション・ネットワークは、特徴エンコーダ、特徴デコーダ、および角度予測器を備え得る。特徴エンコーダは、入力ビデオフレームを一組の小さな空間解像度の特徴へと抽象化するように構成され得る。特徴デコーダは、一組の特徴を入力ビデオフレームと同じ形状へと変換し、前景-背景セグメント化画像を出力するように構成され得る。角度予測器は、動物の頭部が向いている角度を予測するように構成され得る。
[0030]別の実施形態において、ニューラルネットワーク・アーキテクチャは、楕円記述の各楕円パラメータの最確値のヒートマップを予測するように構成されたビニング分類ネットワークを備え得る。
[0031]別の実施形態において、ビニング分類ネットワークは、入力ビデオフレームを小さな空間解像度へと抽象化するように構成された特徴エンコーダを備え、抽象化が、ヒートマップを生成するように採用され得る。
[0032]別の実施形態において、ニューラルネットワーク・アーキテクチャは、入力ビデオフレームから特徴を抽出し、楕円パラメータそれぞれを特徴付ける値を直接予測するように構成された回帰ネットワークを備え得る。
[0033]別の実施形態において、動物としては、齧歯動物が可能である。
[0034]一実施形態においては、システムが提供され、このシステムは、アリーナおよび取得システムを備え得る。アリーナは、フレームと、フレームに取り付けられ筐体と、を含み得る。筐体は、動物を収容するように寸法規定され、内部へのアクセスを許容するように構成されたドアを含み得る。取得システムは、カメラ、少なくとも二組の光源、コントローラ、およびデータ記憶装置を含み得る。各組の光源は、互いに異なる波長で、筐体に入射する光を放射するように構成され得る。カメラは、複数組の光源のうちの少なくとも1つにより照射されたときに、筐体の少なくとも一部のビデオデータを取得するように構成され得る。コントローラは、カメラおよび複数組の光源と電気的に連通し得る。コントローラは、カメラによるビデオデータの取得および複数組の光源による光の放射を制御するように動作する制御信号を生成すること、およびカメラにより取得されたビデオデータを受信すること、を行うように構成され得る。データ記憶装置は、コントローラと電気的に連通し、コントローラから受信されたビデオデータを格納するように構成され得る。
[0035]このシステムの別の実施形態においては、筐体の少なくとも一部が可視光に対して略不透明であり得る。
[0036]このシステムの別の実施形態においては、筐体の少なくとも一部が可視光波長に対して略不透明な材料で形成され得る。
[0037]このシステムの別の実施形態においては、筐体の少なくとも一部が赤外光波長に対して略無反射の材料で形成され得る。
[0038]このシステムの別の実施形態においては、筐体の少なくとも一部がポリ塩化ビニル(PVC)またはポリオキシメチレン(POM)のシートで形成され得る。
[0039]このシステムの別の実施形態においては、第1の組の光源が、1つまたは複数の可視光波長で光を放射するように構成された1つまたは複数の第1の照明を含み、第2の組の光源が、1つまたは複数の赤外(IR)光波長で光を放射するように構成された1つまたは複数の第2の照明を含み得る。
[0040]このシステムの別の実施形態において、赤外光の波長は、約940nmであり得る。
[0041]このシステムの別の実施形態において、カメラは、少なくとも480×480画素の解像度でビデオデータを取得するように構成され得る。
[0042]このシステムの別の実施形態において、カメラは、マウスの動きの頻度よりも高いフレームレートでビデオデータを取得するように構成され得る。
[0043]このシステムの別の実施形態において、カメラは、少なくとも29フレーム/秒(fps)のフレームレートでビデオデータを取得するように構成され得る。
[0044]このシステムの別の実施形態において、カメラは、少なくとも8ビット深度を有するビデオデータを取得するように構成され得る。
[0045]このシステムの別の実施形態において、カメラは、赤外波長でビデオデータを取得するように構成され得る。
[0046]このシステムの別の実施形態において、コントローラは、カメラから受信されたビデオデータを圧縮するように構成され得る。
[0047]このシステムの別の実施形態において、コントローラは、分散ベースの背景減算を採用したフィルタを含むMPEG4コーデック用いて、カメラから受信されたビデオデータを圧縮するように構成され得る。
[0048]このシステムの別の実施形態において、MPEGコーデックのフィルタとしては、Q0 HQDN3Dが可能である。
[0049]このシステムの別の実施形態において、コントローラは、明暗サイクルを模擬するスケジュールに従って筐体を照射するよう第1の光源に要求するように構成され得る。
[0050]このシステムの別の実施形態において、コントローラは、明暗サイクルの明部において、およそ50lux~およそ800luxの強度を有する可視光で筐体を照射するよう第1の光源に要求するように構成され得る。
[0051]このシステムの別の実施形態において、コントローラは、赤外照射による筐体の温度上昇が5℃未満となるように、赤外光で筐体を照射するよう第2の光源に要求するように構成され得る。
[0052]このシステムの別の実施形態において、コントローラは、対数的にスケーリングされた1024レベルの照明に従って筐体を照射するよう第1の光源に要求するように構成され得る。
[0053]一実施形態においては、方法が提供され、この方法は、少なくとも一組の光源により、動物を収容するように構成された筐体を照射するステップを含み得る。各組の光源は、互いに異なる波長の光を放射するように構成され得る。また、この方法は、カメラにより、複数組の光源のうちの少なくとも1つにより照射された筐体の少なくとも一部のビデオデータを取得するステップを含み得る。また、この方法は、カメラおよび複数組の光源と電気的に連通したコントローラにより、カメラによるビデオデータの取得および複数組の光源による光の放射を制御するように動作する制御信号を生成するステップを含み得る。さらに、この方法は、コントローラにより、カメラにより取得されたビデオデータを受信するステップを含み得る。
[0054]この方法の別の実施形態においては、筐体の少なくとも一部が可視光に対して略不透明であり得る。
[0055]この方法の別の実施形態においては、筐体の少なくとも一部が可視光波長に対して略不透明な材料で形成され得る。
[0056]この方法の別の実施形態においては、筐体の少なくとも一部が赤外光波長に対して略無反射の材料で形成され得る。
[0057]この方法の別の実施形態においては、筐体の少なくとも一部がポリ塩化ビニル(PVC)またはポリオキシメチレン(POM)のシートで形成され得る。
[0058]この方法の別の実施形態においては、第1の組の光源が、1つまたは複数の可視光波長で光を放射するように構成された1つまたは複数の第1の照明を含み、第2の組の光源が、1つまたは複数の赤外(IR)光波長で光を放射するように構成された1つまたは複数の第2の照明を含み得る。
[0059]この方法の別の実施形態において、赤外光の波長は、約940nmであり得る。
[0060]この方法の別の実施形態において、カメラは、少なくとも480×480画素の解像度でビデオデータを取得するように構成され得る。
[0061]この方法の別の実施形態において、カメラは、マウスの動きの頻度よりも高いフレームレートでビデオデータを取得するように構成され得る。
[0062]この方法の別の実施形態において、カメラは、少なくとも29フレーム/秒(fps)のフレームレートでビデオデータを取得するように構成され得る。
[0063]この方法の別の実施形態において、カメラは、少なくとも8ビット深度を有するビデオデータを取得するように構成され得る。
[0064]この方法の別の実施形態において、カメラは、赤外波長でビデオデータを取得するように構成され得る。
[0065]この方法の別の実施形態において、コントローラは、カメラから受信されたビデオデータを圧縮するように構成され得る。
[0066]この方法の別の実施形態において、コントローラは、分散ベースの背景減算を採用したフィルタを含むMPEG4コーデック用いて、カメラから受信されたビデオデータを圧縮するように構成され得る。
[0067]この方法の別の実施形態において、MPEGコーデックのフィルタとしては、Q0 HQDN3Dが可能である。
[0068]この方法の別の実施形態において、コントローラは、明暗サイクルを模擬するスケジュールに従って筐体を照射するよう第1の光源に要求するように構成され得る。
[0069]この方法の別の実施形態において、コントローラは、明暗サイクルの明部において、およそ50lux~およそ800luxの強度を有する可視光で筐体を照射するよう第1の光源に要求するように構成され得る。
[0070]この方法の別の実施形態において、コントローラは、赤外照射による筐体の温度上昇が5℃未満となるように、赤外光で筐体を照射するよう第2の光源に要求するように構成され得る。
[0071]この方法の別の実施形態において、コントローラは、対数的にスケーリングされた1024レベルの照明に従って筐体を照射するよう第1の光源に要求するように構成され得る。
[0072]上記および他の特徴については、添付の図面と併せた以下の詳細な説明によって容易に理解されよう。
[0073]図1は、動物追跡の動作環境の例示的な一実施形態を示したフロー図である。 [0074]図2は、動物行動モニタリングのシステムの一実施形態の模式図である。 [0075]図3A~3Fは、図2のシステムにより取得されたサンプルフレームを示した画像である;(A~C)可視光;(D~F)赤外(IR)光。 [0076]図4A~4Bは、2つのカメラモデルについての波長の関数としての量子効率のプロットである;(A)Sentech STC-MC33USBについての相対応答;(B)Basler acA1300-60gm-NIRの量子効率。 [0077]IRロングパスフィルタの透明性-波長プロファイルのプロットを示した図である。 [0078]図6A~6Dは、異なる圧縮技術が適用されたビデオフレームの例示的な実施形態を示す画像である;(A)無圧縮;(B)MPEG4 Q0、(C)MPEG4 Q5;(D)MPEG4 Q0 HQDN3D; [0079]図7は、図2のシステムとの使用に適した取得システムの構成要素の実施形態を示した図である。 [0080]図8Aは、黒色のマウス、灰色のマウス、アルビノのマウス、およびまだら模様のマウスを含む、本開示に従って解析された観察環境の例示的な実施形態の模式図である。 [0081]図8Bは、動物追跡が不十分となる状態の模式図である。 [0082]図8Cは、楕円の形態の物体追跡を含むマウス追跡の例示的な一実施形態の模式図である。 [0083]図9は、セグメンテーション・ネットワーク・アーキテクチャの例示的な一実施形態の模式図である。 [0084]図10は、ビニング分類ネットワーク・アーキテクチャの例示的な一実施形態の模式図である。 [0085]図11は、回帰分類ネットワーク・アーキテクチャの例示的な一実施形態の模式図である。 [0086]図12Aは、前景(F)および背景(B)の2つのマークの配置を示すグラフィカルユーザインターフェースの例示的な一実施形態を示した図である。 [0087]図12Bは、図12Aのマーキングの結果としてのセグメンテーションを示すグラフィカルユーザインターフェースの例示的な一実施形態を示した図である。 [0088]図13Aは、図9~図11のセグメンテーション、回帰、およびビニング分類ネットワークの実施形態のトレーニングカーブのプロットを示した図である。 [0089]図13Bは、図9~図11のセグメンテーション、回帰、およびビニング分類ネットワークの実施形態の検証カーブのプロットを示した図である。 [0090]図13Cは、図9のセグメンテーション・ネットワーク・アーキテクチャのトレーニングおよび検証性能のプロットを示した図である。 [0091]図13Dは、図11の回帰ネットワーク・アーキテクチャのトレーニングおよび検証性能のプロットを示した図である。 [0092]図13Eは、図10のビニング分類ネットワーク・アーキテクチャのトレーニングおよび検証性能のプロットを示した図である。 [0093]図14Aは、本開示の実施形態に係る、複数組の異なるサイズをトレーニングするステップの関数としてのトレーニングエラーのプロットを示した図である。 [0094]図14Bは、本開示の実施形態に係る、複数組の異なるサイズをトレーニングするステップの関数としての検証エラーのプロットを示した図である。 [0095]図14Cは、トレーニングサンプルのフルトレーニングセットのステップの関数としてのトレーニングおよび検証エラーのプロットを示した図である。 [0096]図14Dは、10,000(10k)個のトレーニングサンプルを含むトレーニングセットのステップの関数としてのトレーニングおよび検証エラーのプロットを示した図である。 [0097]図14Eは、5,000(5k)個のトレーニングサンプルを含むトレーニングセットのステップの関数としてのトレーニングおよび検証エラーのプロットを示した図である。 [0098]図14Fは、2,500(2.5k)個のトレーニングサンプルを含むトレーニングセットのステップの関数としてのトレーニングおよび検証エラーのプロットを示した図である。 [0099]図14Gは、1,000(1k)個のトレーニングサンプルを含むトレーニングセットのステップの関数としてのトレーニングおよび検証エラーのプロットを示した図である。 [00100]図14Hは、500個のトレーニングサンプルを含むトレーニングセットのステップの関数としてのトレーニングおよび検証エラーのプロットを示した図である。 [00101]図15A~15Dは、各マウスを互いに区別するカラー指標が重ね合わされた捕捉ビデオデータのフレームである;(A~B)可視光照射;(C~D)赤外光照射。 [00102]図16は、図9のセグメンテーション・ネットワーク・アーキテクチャの性能をビームブレークシステムと比較するプロットである。 [00103]図17Aは、本開示の一実施形態およびCtraxによる予測のプロットである。
[00104]図17Bは、図9のセグメンテーション・ネットワーク・アーキテクチャにより決定された短軸予測の相対標準偏差のプロットである。
[00105]図18Aは、図9のセグメンテーション・ネットワーク・アーキテクチャにより決定された遺伝子学的に異なる動物の大規模ひずみ調査用に追跡された合計距離のプロットである。 [00106]図18Bは、図9のセグメンテーション・ネットワーク・アーキテクチャにより決定された動的環境で4日間にわたり継続的に追跡された6匹の動物において観察された概日運動パターンのプロットである。
[00107]図面は、必ずしも原寸に比例しないことに留意する。図面は、本明細書に開示の主題の代表的な態様のみを示すことが意図されるため、本開示の範囲を制限するものと考えられるべきではない。
[00108]明瞭化のため、本明細書においては、マウス等の小型齧歯動物に関して、1匹または複数匹の動物のビデオ捕捉および1匹または複数匹の動物の追跡によって行動モニタリングを容易化するシステムおよび対応する方法の例示的な実施形態が論じられる。ただし、開示の実施形態は、制限なく他の動物もモニタリングするように採用および/または構成され得る。
[00109]図1は、アリーナ200、取得システム700、およびニューラルネットワーク追跡器を実装するように構成された追跡システムを具備する動作環境100の例示的な一実施形態を示した模式図である。以下により詳しく論じられる通り、1匹または複数匹のマウスがアリーナ200に収容され得る。少なくとも1匹の動物(マウス等)のビデオデータが取得される。ビデオデータは、単独でも取得され得るし、オーディオおよび環境パラメータ(たとえば、温度、湿度、光強度)等、動物モニタリングに関する他のデータとの組み合わせでも取得され得る。カメラ、マイク、照明、他の環境センサー、データストレージ、およびデータ圧縮の制御等、このデータを取得するプロセスは、取得システム700により実行され得る。取得されたビデオデータは、このビデオデータに基づいて1匹または複数匹の動物を追跡する畳み込みニューラルネットワーク(CNN)を実行可能な追跡システムに入力され得る。
I.ビデオデータ取得
[00110]一実施形態においては、動物の動きを含むビデオデータを捕捉するシステムおよび方法が提供される。以下に論じられる通り、ビデオデータは、あらかじめ決められた期間(たとえば、1分または複数分、1時間または複数時間、1日または複数日、1週間または複数週間、1カ月または複数カ月、1年または複数年等)にわたって継続的に取得され得る。ビデオデータの特性としては、行動パターンの抽出のための後続の解析を容易化するのに十分なものが可能であり、解像度、フレームレート、およびビット深度のうちの1つまたは複数が挙げられるが、これらに限定されない。実用的なソリューションが提供されており、既存のビデオ捕捉システムよりも堅牢かつ高品質と見られる。本開示の実施形態は、マウスを視覚的にマーキングする複数の方法でテストされる。また、ビデオおよび超音波発声データの同期取得の実用例も提示される。
[00111]一実施形態においては、およそ4~6週間の期間において、動物モニタリングのためのビデオモニタリングシステムが展開され得る。展開としては、画像捕捉およびアリーナ設計、チャンバ設計の微調整、ビデオ取得ソフトウェアの開発、オーディオデータの取得、カメラ、チャンバ、およびソフトウェアの負荷テスト、ならびに展開段階のチャンバの生産の決定のうちの1つまたは複数が挙げられる。これらそれぞれについて、以下に詳しく説明される。先述の4~6週間の観察期間は、例示的な目的で与えられており、本開示の実施形態は、必要に応じてより長期間またはより短期間にも採用され得ることが了解され得る。
a.アリーナ設計
[00112]高品質な行動データの取得には、適正なアリーナ設計が重要となり得る。このアリーナは、動物の「住居」であり、環境外乱からの分離、適正な概日照明、餌、水、寝床のうちの1つまたは複数を提供するように構成され得る。また、一般的にはストレスのない環境である。
[00113]行動の観点から、アリーナは、ストレスおよび環境外乱を最小限に抑えるとともに、自然な行動を表せるのが望ましいはずである。
[00114]飼育の観点から、アリーナは、清掃、追加または削除、マウスの取り出し、餌および水の追加および除去を容易化するのが望ましいはずである。
[00115]獣医学の観点から、アリーナは、実質的に関心行動を阻害することなく、健康診断および治療の提供のほか、環境条件(たとえば、温度、湿度、光等)のモニタリングを容易化するのが望ましいはずである。
[00116]コンピュータビジョンの観点から、アリーナは、実質的なオクルージョン、歪み、反射、および/または騒音公害なく、また、実質的に関心行動の表現を妨げることなく、高品質なビデオおよびオーディオの取得を容易化するのが望ましいはずである。
[00117]設備の観点から、アリーナは、実質的に床面積を最小限に抑えるとともに、分解または再組み立ての必要のない相対的に容易な保管を提供するのが望ましいはずである。
[00118]したがって、アリーナは、行動、飼育、演算、および設備のバランスをもたらすように構成され得る。アリーナ200の例示的な一実施形態が図2に示される。アリーナ200は、筐体204が搭載されるフレーム202を具備し得る。筐体204は、内部へのアクセスを許容するように構成されたドア206を具備し得る。1つまたは複数のカメラ210および/または照明212が(たとえば、筐体204の上方で)フレーム202に隣接して取り付けられることも可能であるし、フレーム202に直接取り付けられることも可能である。
[00119]以下に詳しく論じられる通り、特定の実施形態において、照明212は、少なくとも二組の光源を含み得る。各組の光源は、他方の組と異なる波長で、筐体204に入射する光を放射するように構成された1つまたは複数の照明を含み得る。一例としては、第1の組の光源が、1つまたは複数の可視波長(たとえば、およそ390nm~およそ700nm)で光を放射するように構成され、第2の組の光源が、1つまたは複数の赤外(IR)波長(たとえば、およそ700nm超~およそ1mm)で光を放射するように構成され得る。
[00120]カメラ210および/または照明212は、ユーザインターフェース214と電気的に連通し得る。ユーザインターフェース214としては、カメラ210により取得されたビデオデータを表示するように構成されたディスプレイが可能である。特定の実施形態において、ユーザインターフェース214としては、カメラ210および/または照明212の制御のための1つまたは複数のユーザインターフェースを表示するように構成されたタッチスクリーンディスプレイが可能である。
[00121]上記の代替または追加として、カメラ110、照明212、およびユーザインターフェース214は、コントローラ216と電気的に連通し得る。コントローラ216は、カメラ210によるビデオデータの取得、照明212による光の放射、および/またはユーザインターフェース214による取得ビデオデータの表示を制御するように動作する制御信号を生成するように構成され得る。特定の実施形態において、ユーザインターフェースは、任意選択として省略され得る。
[00122]また、コントローラ216は、データ記憶装置220と連通し得る。コントローラ216は、カメラ210により取得されたビデオデータを受信し、当該取得ビデオデータをデータ記憶装置220に送信して格納するように構成され得る。カメラ210、照明212、ユーザインターフェース214、コントローラ216、およびデータ記憶装置220のうちの1つまたは複数の間の通信は、有線通信リンク、無線通信リンク、およびこれらの組み合わせを用いて実行され得る。
[00123]以下に論じられる通り、アリーナ200は、行動、飼育、演算、および設備の所望のバランスを実現する一方、所定期間(たとえば、およそ5カ月間)での完了を可能にするように構成されたオープンフィールド設計を有し得る。
材料
[00124]特定の実施形態においては、筐体204(たとえば、筐体204の下部)を構成する材料の少なくとも一部が可視光波長に対して実質的に不透明となり得る。このように、照明212以外の光源により放射される可視光のほか、筐体204内の動物が観察可能な視覚的刺激(たとえば、物体および/またはユーザの動き)が抑制および/または実質的に除去され得る。付加的な実施形態において、筐体204を構成する材料は、ビデオデータの取得を容易化するため、赤外波長に対して略無反射となり得る。筐体204の壁の厚さは、機械的支持を与えるのに適した範囲内(たとえば、およそ0.3175cm(1/8インチ)~およそ0.635cm(1/4インチ))で選択され得る。
[00125]一実施形態において、筐体204は、ポリ塩化ビニル(PVC)またはポリオキシメチレン(POM)で形成された発泡シートを用いて構築され得る。POMの一例は、Delrin(登録商標)(DuPont、Wilmington、DE、USA)である。このような発泡シートは、アリーナ200の長期間動物モニタリングに対して十分な多用途性および耐久性を与え得るため有益である。
[00126]一実施形態において、フレーム202は、複数の脚部202aと、これらの間で(たとえば、水平に)延びた1つまたは複数の棚部202bと、を含み得る。一例として、フレーム202としては、保管エリアへの移動用の固定車輪を備えた所定サイズの市販の棚システムが可能である。一実施形態において、所定サイズとしては、およそ61cm(2フィート)×61cm(2フィート)×183cm(6フィート)(たとえば、Super Erecta Metroseal 3(商標)、InterMetro Industries Corporation、Wilkes-Barre、PA、USA)が可能である。ただし、他の実施形態においては、異なるサイズのアリーナが制限なく採用され得る。
b.データ取得
[00127]ビデオ取得システムは、カメラ210、照明212、ユーザインターフェース214、コントローラ216、およびデータ記憶装置220を具備し得る。ビデオ取得システムは、性能特性のあらかじめ決められたバランスを有するように採用され得る。性能特性としては、ビデオ取得のフレームレート、ビット深度、各フレームの解像度、および赤外領域内のスペクトル感度のほか、ビデオ圧縮および格納のうちの1つまたは複数が挙げられるが、これらに限定されない。以下に論じられる通り、これらのパラメータは、データの品質を最大化するとともに量を最小化するように最適化され得る。
[00128]一実施形態において、カメラ210は、およそ640×480画素の解像度、およそ29fps、およびおよそ8ビット深度のうちの少なくとも1つを有するビデオデータを取得し得る。これらのビデオ取得パラメータを用いることにより、およそ33GB/時の無圧縮ビデオデータが生成され得る。一例として、カメラ210としては、Sentech USB2(Sensor Technologies America, Inc.、Carrollton、TX、USA)が可能である。図3A~図3Fは、可視光(図3A~図3C)および赤外(IR)光(図3D~図3F)を用いてビデオ取得システムの一実施形態から取得されたサンプルフレームを示している。
[00129]以下に論じられる通り、収集されたビデオデータは、カメラ210および/またはコントローラ216により圧縮され得る。
[00130]別の実施形態において、ビデオ取得システムは、取得ビデオデータの解像度を約2倍(たとえば、およそ960×960画素)にするように構成され得る。以下に示されるように、Sentech USBよりも高い解像度を有する4つの別のカメラが調査された。
Figure 0007303793000001
[00131]これらのカメラは、コスト、解像度、最大フレームレート、ビット深度、および量子効率の点で異なり得る。
[00132]ビデオ取得システムの実施形態は、モノクロ、およそ30fps、およびおよそ8ビット深度のビデオデータを収集するように構成され得る。シャノン-ナイキストの定理によれば、フレームレートは、関心イベントの頻度の少なくとも2倍とすべきである(たとえば、Shannon(1994)参照)。マウスの行動は、毛繕いの場合の数ヘルツから素早い動きの場合の20ヘルツまで変動し得る(たとえば、Deschenes et al.(2012)、Kalueff et al.(2010)、Wiltschko et al.(2015)参照)。毛繕いは、最大およそ7Hzでの発生が観察されているため、ほとんどのマウスの行動を観察するには、マウスの動きの頻度よりも高いフレームレート(たとえば、およそ29fps)でビデオを記録するのが適切と考えられる。ただし、カメラは、IR領域では急速に感度を失い得る。このコントラストの損失は、IR光のレベルの増大により克服され得るが、IR光の強度を高くすると、環境温度が上昇する可能性がある。
照明
[00133]上述の通り、照明212は、可視白色光および赤外光等、1つまたは複数の種類の光を放射するように構成され得る。可視光が照射に採用され、明暗サイクルおよび調整可能な強度を提供するように(たとえば、コントローラ216によって)プログラムされ得る。照明サイクルを調節できることは、動物が野生で浴びる太陽からの光の模擬を可能にする。明暗期間の長さは、季節を模擬するように調整され、時差ぼけ(概日相前進および後退)実験を模擬するように照明シフトが実行され得る。また、特定の動物の不安を引き起こすのに高輝度照明が採用され、異なる探索行動を引き出すのに低輝度照明が採用され得る。このように、明暗の長さおよび光強度を時間的に制御できることは、適正な行動実験に不可欠である。
[00134]特定の実施形態において、コントローラ216は、明暗サイクルの明部において、およそ50lux~およそ800luxの強度を有する可視光での筐体204の照射を可視光源に要求するように構成され得る。選択される光強度は、観察対象の運動の種類に応じて変化し得る。一態様においては、マウスによる探索運動を促して観察するため、比較的に低い強度(たとえば、およそ200lux~およそ300lux)が採用され得る。
[00135]特定の実施形態においては、IRロングパスフィルタを用いることにより、IR領域において、カメラ210により略すべてのビデオデータが取得され得る。IRロングパスフィルタは、カメラ210に対する略すべての可視光入力を除去し得る。IR光は、昼夜を問わず筐体104の均一な照明を可能にするため有益である。
[00136]IR光の2つの波長(850nmおよび940nmのLED)が評価された。850nm光は、肉眼で見られる鮮明な赤の色相を示し、動物に対しては低輝度露光となり得る。ただし、このような薄明かりは、マウスに情緒の変動をもたらし得る。したがって、記録には940nm光が選択される。
[00137]940nmの波長での記録は、カメラでの量子収率が非常に低くなり得るため、高利得のため粗く見える画像となって現れ得る。したがって、赤外照射のために筐体204の温度を実質的に上げることなく得られる最大光レベルを識別するため、異なるカメラを用いたさまざまな赤外照明レベルが評価された。特定の実施形態において、筐体204の温度は、およそ5℃以下(たとえば、およそ3℃以下)だけ上昇可能である。
[00138]また、Basler acA1300-60gm-NIRカメラが評価された。このカメラは、図4Aおよび図4Bに示されるように、表1に掲載の他のカメラと比較して、940nmで約3~4倍のスペクトル感度を有する。図4Aは、相対応答の観点での代表例としてSentechカメラのスペクトル感度を示しており、図4Bは、量子効率の観点でBaslerカメラのスペクトル感度を示している。量子効率は、センサーに衝突する光子に対して放射された電子の測度である。相対応答は、0~1のスケール上で表された量子効率である。図4Aおよび図4Bにおいては参考として、940nmの波長が垂直線としてさらに示される。
[00139]照明212によりもたらされる可視光サイクルは、コントローラ216または照明212と連通した別のデバイスにより制御され得る。特定の実施形態において、コントローラ216は、照明制御盤(Phenome Technologies、Skokie、IL)を具備し得る。制御盤は、対数的にスケーリングされ、RS485インターフェースを介して制御可能であり、夜明け/日暮れ事象を実行可能な1024レベルの照明を有する。以下により詳しく論じられる通り、可視光の制御は、コントローラ216により実行される制御ソフトウェアに組み込まれ得る。
フィルタ
[00140]上述の通り、任意選択として、ビデオデータ取得中に略すべての可視光がカメラ210に達しないようにするため、IRロングパスフィルタが採用され得る。一例としては、物理的なIRロングパスフィルタがカメラ110とともに採用され得る。この構成は、アリーナ200の明暗相に関わらず、実質的に均一な照明を提供し得る。
[00141]開示のシステムおよび方法の実施形態における使用に潜在的に適したフィルタプロファイルが図5に示される(たとえば、IRパスフィルタ092および093)。IR光を遮断するIRカットフィルタ486が比較として示される。RG-850(ガラス、Edmunds Optics)および43-949(プラスチック、レーザ硬化性、Edmunds Optics)用の付加的なプロファイルも好適と考えられる。
レンズ
[00142]一実施形態において、カメラレンズとしては、0.847cm(1/3”)、3.5-8mm、f1.4(CSマウント)が可能である。このレンズは、図3Aおよび図3Bに見られる画像を生成し得る。Cマウントレンズの類似レンズも採用され得る。
ビデオ圧縮
[00143]圧縮を無視すれば、カメラ210によって、およそ1MB/フレーム、およそ30MB/秒、およそ108GB/時、およそ2.6TB/日というレートで生のビデオデータが生成され得る。格納方法を選択する場合は、多様な目的が考えられる。ビデオの状況に応じて、長期格納の前にビデオの特定要素を除去するのが有益な選択肢となり得る。また、長期格納を考える場合は、フィルタまたは(たとえば、コントローラ216による)他の形態の処理の適用が望ましいはずである。ただし、処理方法が後で変更される場合は、元のビデオデータすなわち生のビデオデータを保存するのが有益なソリューションとなり得る。ビデオ圧縮テストの一例が以下で説明される。
[00144]画素解像度およそ480×480、およそ29fps、およびおよそ8ビット/画素でおよそ100分間に収集されたビデオデータに関して、複数の圧縮規格が評価された。生のビデオからテストされた2つの無損失フォーマットは、DiracおよびH264である。H264は、ファイルサイズがわずかに小さいものの、コード変換に要する時間がわずかに長い。Diracは、別のフォーマットへの後続のコード変換により広く支持され得る。
[00145]MPEG4損失性フォーマットも評価された。H264と密接に関連するためであり、ビットレートを良好に制御可能であることが知られている。ビットレートの設定には、2つの方法がある。第1は、符号化ビデオ全体を通して一定の固定ビットレートを設定する方法であり、第2は、元のビデオからの逸脱に基づいて可変ビットレートを設定する方法である。MPEG4符号化器を用いたffmpegにおいて、可変ビットレートの設定は、品質値(0~31(0は略無損失))の選択により容易に実現され得る。
[00146]図6A~図6Dにおいては、元(生)の捕捉ビデオフレームに対して、3つの異なる画像圧縮方法が比較される。元の画像は、図4Aに示される。その他3つの方法は、図4B~図4Dにおいて、元画像からの画素の差により示され、圧縮の影響のみを示している。すなわち、圧縮画像は、元画像とこれほども異なる。したがって、少差がより優れており、また、高圧縮比がより優れている。図4Bに示されるように、Q0フィルタを備えたMPEG4コーデックに従って実行される圧縮は、1/17の圧縮比を示す。図4Cに示されるように、Q5フィルタを備えたMPEG4コーデックに従って実行される圧縮は、1/237の圧縮比を示す。図4Dに示されるように、HQDN3Dフィルタを備えたMPEG4コーデックに従って実行される圧縮は、1/97の圧縮比を示す。
[00147]開示の実施形態に従って収集されたビデオデータは、品質0パラメータ(Q0フィルタ(図4B)、Q0 HQDN3Dフィルタ(図4D))を使用する場合、画素の約0.01%が元画像から変化している(強度が最大4%増大または低下している)。これは、1フレーム当たりおよそ25画素を占める。これらの画素の大部分は、陰影の境界に位置付けられる。当然のことながら、この小さな画像の変化は、カメラ210自体に干渉するノイズの規模に従う。より高い品質値(たとえば、Q5(図4C))では、ビデオデータをより良好に圧縮するため、アーチファクトが導入され得る。これらは、圧縮中に注意が払われない場合に出現するブロックノイズを伴うアーチファクトに通じることが多い。
[00148]これらのフォーマットのほか、個々のユーザのデータセットに対応するため、他の好適な無損失フォーマットが生成され得る。これらのうちの2つとして、FMFコーデック(フライムービー(fly movie)フォーマット)およびUFMFコーデック(マイクロフライムービー(micro fly movie)フォーマット)が挙げられる。これらのフォーマットの目的は、無関係な情報を最小限に抑えるとともに、追跡のための可読性を最適化することにある。これらのフォーマットは、無損失であり、固定された背景モデル上で機能するため、フィルタリングされていないセンサーノイズにより、実質的なデータ圧縮は一切不可能であった。この圧縮評価の結果が表2に示される。
Figure 0007303793000002
[00149]データ圧縮用のコーデックの選択のほか、画像の背景ノイズの低減も望ましいはずである。背景ノイズは、すべてのカメラに内在しており、ダークノイズと言われることが多く、画像内の基準ノイズを表す。
[00150]このノイズを除去するには、露光時間の延長、絞りの拡大、および利得の低減等、多くの方法がある。ただし、これらの方法が実験に直接影響する場合は、実行可能な選択肢ではない。したがって、時空間情報を取り込んで小変動を除去するffmpegのHQDN3Dフィルタが採用され得る。
[00151]図6B~図6Dに示されるように、HQDN3Dフィルタは、取得ビデオデータのファイルサイズを大幅に低減させることが観察される(たとえば、元のビデオデータのファイルサイズと比較して約100倍小さい)。HQDN3Dフィルタを備えたMPEG4コーデックによる圧縮の後、結果としての平均ビットレートとしては、圧縮ビデオにおいて、およそ0.34GB/時が可能である。さらに、実質的にすべての情報の損失は、センサーノイズからの生成物(マウスのいない状態で取得されたビデオ)の数桁未満であることが実験的に検証された。この種のノイズ除去は、圧縮性を大幅に向上させる。
[00152]予想外にも、HQDN3Dフィルタは、以下に詳しく論じられる畳み込みニューラルネットワーク(CNN)による追跡の性能を大幅に向上させることが発見されている。理論上の制約を受けることなく、この性能向上は、HQDN3Dフィルタが分散ベースの背景減算法であるために実現されると考えられる。低分散では、前景の識別が容易であり、高品質の追跡をもたらされる。
超音波オーディオ取得
[00153]マウスは、超音波領域での発声によって、社会的コミュニケーション、交配、攻撃、および飼育を行い得る(たとえば、Grimsley et al.(2011)参照)。嗅覚および触覚の刺激と併せて、この発声は、マウスのコミュニケーションの最も顕著な形態のうちの1つとなり得る。マウスではテストされていないものの、人間の場合、声および発声の変化(加齢)は、思春期および老化等の遷移を規定し得る(たとえば、Decoster and Debruyne(1997)、Martins et al.(2014)、Mueller(1997)参照)。
[00154]したがって、以下に詳しく論じられる通り、アリーナ200の実施形態は、1つまたは複数のマイク222をさらに具備し得る。マイク222は、フレーム202に取り付けられ、筐体204に入れられた動物からオーディオデータを取得するように構成され得る。マイクアレイの形態でマイク222を使用することにより、同期データ収集が導かれ得る。このマイク222の構成は、発声しているマウスの特定を可能にする。一群のマウスの中で発声しているマウスをさらに決定できることは、近年、マイクアレイを用いて実証されている(たとえば、Heckman et al.(2017)、Neunuebel et al.(2015)参照)。
[00155]Neunuebel et al.と同様にデータ収集セットアップが提供され得る。音声を捕捉可能なアリーナの側面に4つのマイクが位置決めされ得る。ビデオデータと統合された場合に、最尤法を用いて、発声しているマウスが識別され得る(たとえば、Zhang et al.(2008)参照)。
環境センサー
[00156]一実施形態において、アリーナ200は、温度、湿度、および/または光強度(たとえば、可視および/またはIR)等の1つまたは複数の環境パラメータを測定するように構成された1つまたは複数の環境センサー224をさらに具備し得る。特定の実施形態において、環境センサー224は、統合されて、2つ以上の環境パラメータを測定するように構成され得る(たとえば、Phenome Technologies、Skokie、IL参照)。環境センサー224は、コントローラ216と電気的に連通して、光レベルとともに日々の温度および湿度データを収集可能である。収集された環境データは、最低および最高温度のほか、照明状態を示すユーザインターフェースにおける表示のため、出力され得る(以下の制御ソフトウェアに関する記述参照)。
ソフトウェア制御システム
[00157]データ取得および光制御のため、コントローラ216によりソフトウェア制御システムが実行され得る。ソフトウェア制御システムは、対応するタイムスタンプとともに、ビデオ、オーディオ/超音波、および環境データを独立して収集できるように構成され得る。このように、あらかじめ決められた任意の期間(たとえば、1秒または複数秒、1分または複数分、1時間または複数時間、1日または複数日、1年または複数年等)にわたって中断なく、データが収集され得る。これは、取得ビデオ、オーディオ/超音波、および/または環境データの後々の編集または同期による解析または提示を可能とし得る。
オペレーティングシステム
[00158]オペレーティングシステムの選定は、さまざまなセンサーのドライバの可用性により推進され得る。たとえば、Avisoft UltrasonicマイクドライバのみがWindowsオペレーティングシステムと互換性を有する。ただし、この選定は、以下に影響を及ぼす可能性がある。
プロセス間通信:プロセス間通信の選択肢は、基本OSの影響を受ける。同様に、OSは、スレッド間の通信の選定に影響を及ぼす。ただし、QTのようなプラットフォーム横断型フレームワーク上の開発が橋渡しとなり得る。
システムクロックへのアクセス:高分解能システムクロックへのアクセス方法は、以下により詳しく論じられる通り、OSごとに異なる。
ハードウェアの選択肢
[00159]特定の実施形態において、制御システムは、シングルボードコンピュータの形態でコントローラ216により実装され得る。継続運用に対して高堅牢な軍用規格/産業用コンピュータ等、複数の選択肢が利用可能である。
外部クロック対システムクロック
[00160]外部クロックをシステムに導入することなく、システムクロックから、適切な実時間クロック値を利用可能である。ポジックスシステムにおいては、clock_gettime(CLOCK_MONOTONIC、・・・)関数が秒およびナノ秒を返し得る。クロックの分解能は、clock_getres()関数で問い合わせ可能である。制御システムの実施形態のクロック分解能は、およそ33ミリ秒のフレーム期間よりも小さいことが望ましいはずである。一実施形態において、システムクロックは、Unixシステムである。
[00161]システムが開始されて以降のミリ秒数の取得に用いられるGetTickCount64()システム関数が開発されている。このタイマーの予想分解能は、およそ10~およそ16ミリ秒である。これは、clock_gettime()システムコールと同じ目的を果たし得るものの、値のラッピングを確認して考慮するのが有益となり得る。
[00162]Macintoshコンピュータ上では、システムクロックに同じようにアクセス可能である。以下のコードスニペットが評価され、サブミクロン秒の分解能が観察されている。
clock_serv_t cclock;
mach_timespec_t mts;
host_get_clock_service(mach_host_self(),SYSTEM_CLOCK,&cclock);
clock_get_time(cclock,&mts);
[00163]如何なるOSにおいても、時刻を返すシステムコールは、調整が周期的になされると、後ろに移動する場合があり得る。一実施形態においては、単調増加するシステムクロックが採用され得る。GetTickCount64()、clock_gettime()、およびclock_get_time()はすべて、この基準を満たし得る。
ビデオファイルサイズ
[00164]カメラ供給業者のソフトウェアは、妥当なサイズへと自動的に分割された適切なタイムスタンプの出力ファイルを保存するとは考えにくい。コントローラ116の実施形態では、中断なくビデオデータを収集し、カメラ110から各フレームを読み出して、単純な形態で収集ビデオデータを提供するのが望ましい。たとえば、コントローラ116は、タイムスタンプヘッダまたはフレーム間のタイムスタンプとともに、生のフォーマットで、1ファイル当たりおよそ10分間のビデオフレームをデータ記憶装置120に与えるように構成され得る。そして、各ファイルは、2GBを下回ることになる。
制御システムアーキテクチャ
[00165]図7は、取得システム700の構成要素を示したブロック図である。特定の実施形態において、取得システム700は、コントローラ216により実行され得る。各ブロックは、実行の別個のプロセスまたはスレッドを表す。
コントローラプロセス
[00166]制御プロセスは、他のプロセスまたはスレッドを開始および停止するように構成され得る。また、制御プロセスは、取得システム700のユーザインターフェースを提供するように構成され得る。制御プロセスは、活動のログを保存するように構成され、また、取得中に発生するエラーを(たとえば、ログに)記録し得る。また、制御プロセスは、休止となったプロセスまたはスレッドを再開させるように構成され得る。
[00167]構成要素間の通信の方法は、システムOSの選定後に決定され得る。制御プロセスに対するユーザインターフェースとしては、コマンドラインインターフェースまたはグラフィカルインターフェースが可能である。グラフィカルインターフェースは、OSからの独立をもたらすQT等の移植可能なフレームワーク上に構築され得る。
ビデオ取得プロセス
[00168]ビデオ取得プロセスは、カメラ210と直接通信して、タイムスタンプされたフレームをデータ記憶装置220に保存するように構成され得る。ビデオ取得プロセスは、高優先度で動作することにより、フレーム落ちの可能性を最小限に抑え得る。ビデオ取得プロセスは、フレーム間の処理を最小限に抑えることで、比較的単純に保たれ得る。また、ビデオ取得プロセスは、照明212により放射されるIR照射を制御することによって、最小限の有効シャッター速度で適正な露光を保証するように構成され得る。
オーディオ取得プロセス
[00169]別個のオーディオ取得プロセスは、適当なタイムスタンとともに超音波オーディオデータを取得するように構成され得る。一実施形態において、オーディオシステムは、筐体204とオーディオ連通して配置されたマイク222のアレイを具備し得る。特定の実施形態においては、マイク222のうちの1つまたは複数が筐体204内に位置決めされ得る。マイクアレイの各マイクは、およそ500kHzのサンプリング周波数、およそ16ビットのADC分解能、およそ10kHz~およそ20kHzの周波数範囲、および8次で210kHzのアンチエイリアシングフィルタといった性能のうちの1つまたは複数を有し得る。一例として、マイクアレイの各マイクは、Pettersson M500マイク(Pettersson Elektronik AB、Uppsala、Sweden)またはその機能的同等物を含み得る。上述の通り、マイク222により捕捉されたオーディオデータは、タイムスタンプされ、解析のためのコントローラ216への提供および/または格納のためのデータ記憶装置220への提供がなされ得る。
環境データ取得プロセス
[00170]別個の環境データ取得プロセスは、温度、湿度、および光レベル等の環境データを収集するように構成され得る。環境データは、低周波数(たとえば、およそ0.01Hz~0.1Hz)で収集され得る。環境データは、データ記憶装置220により、レコードごとにタイムスタンプを伴って(たとえば、1つまたは複数のCSVファイルとして)格納され得る。
照明制御プロセス
[00171]照明制御プロセスは、マウスに昼夜サイクルを与えるため、照明212により放射された可視光を制御するように構成され得る。一実施形態においては、上述の通り、カメラ210が実質的にすべての可視光を取り除いてIRのみに応答するように構成され、IRが生じないように可視光がフィルタリングされ得るため、このプロセスは、ビデオ捕捉に対する影響を回避可能である。
ビデオ編集プロセス
[00172]ビデオ編集プロセスは、取得ビデオデータをあらかじめ決められた圧縮であらかじめ決められたフォーマットへと再パッケージングするように構成され得る。このプロセスは、フレーム落ちの機会を最小限に抑えるため、ビデオ取得から分離させておくことができる。ビデオ編集プロセスは、低優先度の背景タスクとしての動作あるいはデータ取得完了後の動作が可能である。
ウォッチドッグプロセス
[00173]ウォッチドッグプロセスは、データ取得プロセスの健全性をモニタリングするように構成され得る。一例として、問題を(たとえば、ログに)記録し、必要に応じて再開をもたらし得る。また、ウォッチドッグプロセスは、監視している構成要素からの「鼓動」を聴くことができる。一般的に、鼓動としては、コントローラ216に送信され、システム700の構成要素が正常に動作していることを確認する信号が可能である。一例として、システム700の構成要素が機能を停止した場合は、コントローラ216によって、この構成要素から鼓動が送信されないことが検出され得る。この検出の後、コントローラ216は、イベントを記録し、警報を発することができる。このような警報としては、オーディオアラームおよび視覚的アラーム(たとえば、光、英数字表示等)が挙げられるが、これらに限定されない。このようなアラームの代替または追加として、コントローラ216は、再初期設定信号の送信または電源の切り替え等、構成要素の動作を再開しようとし得る。システム700の構成要素とコントローラ216との間の通信の方法は、OSの選定に応じて変化し得る。
マウスのマーキング
[00174]特定の実施形態においては、追跡を容易化するため、マウスがマーキングされ得る。ただし、以下により詳しく論じられる通り、マーキングが省略され、他の技術により追跡が容易化され得る。
[00175]視覚的識別のためのマウスのマーキングには、自明ではない複数のパラメータが存在する。一実施形態においては、マウス自身に見えないようにすることで、マウスのコミュニケーションおよび行動への影響を最小限の抑える長期間(数週間)のマーキングがマウスに対して実行され得る。一例として、通常のマウスの視界範囲には見えない長期IR感応マーカが採用され得る。
[00176]代替実施形態においては、人間のヘアカラーおよびヘアブリーチを用いて、マウスの毛にマーキングが施され得る。この手法では、マウスを数週間にわたって明確に識別可能であり、行動実験において成功裏に使用され得る(たとえば、Ohayon et al.(2013)参照)。ただし、毛にマーキングを施すプロセスには、マウスへの麻酔を要するが、これは、本マウスモニタリングシステムには受け入れられないプロセスである。麻酔が生理機能を変化させ、また、染毛剤自体が、マウスの行動を変化させることが多い刺激物となり得る。各DOマウスが一意であることから、これが色素/麻酔×遺伝子型効果となって、未知の変数を導入し得る。
[00177]また、IR色素ベースのマーカおよびタトゥーを用いるさらに別の方法が採用され、最適化され得る。
[00178]別の実施形態においては、マーキングの一形態としてマウスの背中にパターンを生成するため、剃毛が採用され得る。
データストレージ
[00179]開発段階においては、合計で2TB未満のデータが必要とされ得る。これらのデータには、さまざまなカメラおよび圧縮方法によるサンプルの生のビデオおよび圧縮ビデオを含み得る。したがって、統合USV・ビデオデータのほか、負荷テスト中の長期7~10日間ものビデオデータのデータ転送が実現され得る。ビデオのサイズは、選定された圧縮規格に従って低減され得る。サンプルのデータストレージ推定値が以下に与えられる。
テスト:
1つのアリーナ
最大5つのカメラ
ビデオの継続時間:それぞれ約1~2時間
合計約10GB(上限)
負荷テスト:
1つのアリーナ
1つのカメラ
ビデオの継続時間:14日
解像度:現行の2倍(960×960)
合計約2TB
生産:
120回の合計実行(12~16個のアリーナ、グループ実行当たり80匹の動物、交互の実験)
継続時間(各):7日
解像度:現行の2倍(960×960)
32.25TB
II.動物追跡
[00180]マウス等の動物のビデオ追跡は、高レベルのユーザ関与がなければ、複雑かつ動的な環境においても、既存の動物モニタリングシステムにおける遺伝子学的に異種の動物に対しても実行し得ず、大規模な実験が実現不可能となる。後述の通り、既存のシステムおよび方法を用いることにより複数の環境において多数の異なるマウス系統を追跡しようとすれば、これらのシステムおよび方法が大規模な実験のデータセットに対して不適切であることが明らかとなる。
[00181]黒色、アグーチ、アルビノ、灰色、茶色、ヌード、およびまだら模様等、異なる毛色のマウスを含む例示的なデータセットが解析に用いられた。以下に概説されるJAX-IACUCの手順に従って、すべての動物がテストされた。マウスは、生後8~14週間にテストされた。データセットは、59系統の1857個のビデオを含み、合計1702時間であった。
[00182]すべての動物がジャクソン研究所の生産コロニーから調達された。ジャクソン研究所のInstitutional Animal Care and Use Committeeガイドラインによる認証手順に従って、8~14週間の成体マウスの行動がテストされた。Kumar(2011)に記載の通り、オープンフィールド行動アッセイが実行された。要するに、集団飼育のマウスの重さが計量され、ビデオ記録の開始前30~45分間にわたって、テストルームに慣らされた。本明細書においては、最初の55分間の運動のデータが提示される。入手可能な場合は、各近交系統およびF1同質遺伝子系統から、8匹の雄および8匹の雌がテストされた。
[00183]一態様においては、白色背景にて、同じオープンフィールド装置(たとえば、アリーナ200)で複数の動物を追跡するのが望ましいはずである。ビデオ取得システムにより取得されたフルフレームおよびクロッピングされたビデオ画像の例が図8Aの1列目(フルフレーム)および2列目(クロップ)に示される。さまざまな遺伝子学的背景の各環境において、理想的な追跡フレームおよび実際の追跡フレームの例が示される(図8Aの3列目(理想的な追跡)および4列目(実際の追跡))。
[00184]別の態様においては、餌および水入れを含むアリーナ200の一実施形態およびジャクソン研究所におけるKnockout Mouse Project(KOMP2)等、過酷な環境における行動のビデオ解析の実行が望ましかった(それぞれ、図8Aの5列目および6列目)。
[00185]24時間装置において、マウスは、白紙の寝床および餌/水入れとともにアリーナ200に収容された。マウスはアリーナ200に拘束され、照明212により放射された赤外光を用いることにより、昼夜条件において継続的な記録が実行された。寝床および餌入れはマウスにより移動され、昼夜サイクルを模擬するため、照明212により放射される可視光が各日の経過にわたって変更された。
[00186]KOMP2プロジェクトでは、5年間にわたるデータが収集されたが、ビームブレークシステムでは識別され得ない歩行の影響を検出する追加の解析様式として、ビデオベースの記録を実行するのが望ましかった。歩行解析においては、動物の動きが解析される。動物の歩行が異常な場合は、骨格、筋肉、および/または神経等の異常が導出され得る。KOMP2プロジェクトでは、赤外線が全面に照射された透明なポリカーボネートのボックスにマウスが入れられるビームブレークシステムを使用する。マトリクスの床もポリカーボネートであって、基礎となるベンチ面は暗灰色である。2つのテーブルの接続部に配置されたいくつかのボックスが接合を可能とし、天井の照明(たとえば、LED照明)がすべてのボックスに対して一意の高輝度をもたらし得る。
[00187]一態様においては、背景減算および斑点検出ヒューリスティクスを使用する現代のオープンソースな追跡ツールであるCtraxを用いて、このデータセットのビデオの追跡が試行された。Ctraxは、長軸および短軸、マウスの中心のxおよびy位置、および動物の方向という5つの測定基準に対して、フレームごとにマウスを抽象化する(Branson(2009))。また、MOG2背景減算モデルを利用するが、この場合、ソフトウェアは、背景減算に使用するビデオの背景の平均および分散の両者を推定する。Ctraxでは、予測前景の形状を用いて楕円に適合させる。
[00188]別の態様においては、独自の追跡アルゴリズムを使用する市販の追跡ソフトウェアであるLimeLightを用いて、このデータセットのビデオの追跡が試行された。LimeLightは、単一のキーフレーム背景モデルを使用して、セグメンテーションおよび検出を行う。マウスが検出されたら、LimeLightは、独自のアルゴリズムを用いることにより、重心に対してマウスを抽象化する。
[00189]このデータセットには、これら既存の解析システムに対して重大な課題がある。一例として、CtraxおよびLimeLightでは、マウスの毛色および環境の組み合わせを扱うのが困難であった。一般的に、白色背景上の暗色マウス(たとえば、黒色、アグーチ)等、高コントラストを示す環境は、良好な追跡結果を生じている。ただし、白色背景上の明色マウス(たとえば、アルビノ、灰色、またはまだら模様のマウス)等、低コントラストの環境は、不十分な結果を生じている。白色オープンフィールドにおける黒色マウスは、高い前景-背景コントラストを実現するため、実際の追跡が理想と緊密に一致する。灰色マウスは、視覚的にアリーナの壁に類似するため、壁を背にすると鼻が取り除かれてしまう場合が多い。アルビノのマウスは、アリーナ自体の背景に類似するため、追跡中は見つからないことが多い。まだら模様のマウスは、毛色がパターン化されているため、真っ二つに割れる。ビデオごとにCtraxを最適化および微調節する試みがなされたものの、図8Aの3列目(理想的な追跡)と比較して4列目(実際の追跡)の実際の追跡結果に示されるように、かなりの数の不良追跡フレームが依然として観察された。不良追跡フレームを破棄すると、サンプリングが偏って生物学的解釈が歪められ得るため、望ましくない。
[00190]これらのエラーは、24時間環境およびKMOP2環境等、環境が追跡に理想的ではなくなると大きくなることが観察された。さらに、エラーの分布は、ランダムではなかった。たとえば、図8の4列目(実際の追跡)に示されるように、マウスが隅部、壁近く、または餌入れの上にいる場合は追跡が極めて不正確である一方、中央にいる場合は追跡があまり不正確にならないことが分かった。24時間環境において餌入れをアリーナに配置すると、マウスがその上に登った場合に追跡の問題が生じる。また、KOMP2等の反射面を有するアリーナでも、追跡アルゴリズムにエラーが生じる。
[00191]不良追跡の原因をさらに探求して、ほとんどの場合、不適正な追跡は、マウスの背景からの不十分なセグメンテーションに起因することが分かった。これには、マウスが前景から取り除かれる事例または不十分なコントラストのために背景が前景に含まれる事例を含んでいた。従来は、最適化されたビデオデータ収集に対して環境を変化させることにより、これらハードルの一部に対処がなされていた。たとえば、アルビノのマウスを追跡するため、オープンフィールドの背景色を黒色に変えて、コントラストを高くすることができる。ただし、このような環境変化は、本文脈において適さない。環境の色はマウスおよび人間の行動に影響を及ぼすため、このような操作は潜在的に、実験結果を混同させ得るからである(Valdez(1994)、Kulesskaya(2014))。また、24時間データ収集システムまたはKOMP2アリーナにおいては、このようなソリューションがまだら模様のマウスに対して機能しない可能性がある。
[00192]Ctraxでは単一背景モデルのアルゴリズムを使用するため、他の背景モデルが追跡結果を改善し得るかを判定するテストが実行された。26個の異なるセグメンテーションアルゴリズム(Sobral(2013))がテストされ、図8Bに示されるように、これら従来のアルゴリズムがそれぞれ、特定の状況下では十分に機能し、他の場所では機能しなくなることが発見された。動物追跡のための他の利用可能なシステムおよび方法は、追跡のための背景減算手法に依拠する。26個の背景減算方法がすべて機能しなくなったことから、CtraxおよびLimeLightの結果がこれら他の技術を表すと考えられる。これらのセグメンテーションアルゴリズムは、不適正なセグメンテーションのために機能しなくなると考えられる。
[00193]このように、ビデオデータの解析について多くの追跡ソリューションが存在するものの、既存ソリューションの代表例により、適正なマウスのセグメンテーションに関する基本的な問題を克服して高品質のマウス追跡を実現する試みは、成功に至っていない。マウスのセグメンテーションに関する基本的な問題への適当な対処を行い、環境の最適化に大略依拠して適正なセグメンテーションを実現するものはないため、潜在的な混同が生じる。
[00194]さらに、背景減算アルゴリズムのパラメータを微調節する時間コストは、法外となり得る。たとえば、24時間設定によるデータの追跡において、マウスは、同じ姿勢で長時間にわたって眠っている場合、背景モデルの一部となって、追跡不可能となる。通常の監視では、経験豊富なユーザがビデオの1時間ごとに5分間の相互作用を行って、高品質の追跡結果を保証することになる。このレベルのユーザ相互作用は、小さくて制限された実験の場合は扱いやすいが、大規模かつ長期間の実験では、追跡性能を監視するのに長時間の関与が必要となる。
[00195]本開示の実施形態は、これらの困難を克服し、マウス等の動物を含むビデオデータの解析に適した堅牢な次世代追跡器を構築する。以下に詳しく論じられる通り、複雑かつ動的な環境条件下で高い性能を実現し、毛色の遺伝的特徴を問わず、ユーザによる持続的な微調節を要しない人工ニューラルネットワークが採用される。
[00196]畳み込みニューラルネットワークは、複数レベルの抽象化でデータの表現を学習する複数の処理レイヤを含む演算モデルである。これらの方法は、最先端の音声認識、視覚的物体認識、物体検出、ならびに創薬およびゲノミクス等のその他多くの領域を劇的に向上させてきた(LeCun(2015))。1つの利点において、好適なハイパーパラメータを伴う効率的なネットワークが開発されたら、適当なトレーニングデータを追加するだけで、ニューラルネットワークが容易に他のタスクへと拡張され得る。したがって、開示の実施形態は、マウス追跡のための高度に一般化可能なソリューションを提供する。
ニューラルネットワーク・アーキテクチャ
[00197]視覚的追跡の問題を解決する3つの主要なネットワーク・アーキテクチャが開発された。一実施形態においては、図8Cに示されるように、セグメンテーションマスクに基づいて、物体追跡がマウスの楕円記述の形態を取り得る(Branson(2005)参照)。代替実施形態においては、楕円以外の形状が採用され得る。
[00198]楕円表現は、本明細書においてパラメータとも称される6つの変数によって、動物の位置を記述し得る。一態様において、変数のうちの1つとしては、取得ビデオフレーム中のマウスの画素位置(たとえば、平均中心位置)を表すあらかじめ決められた座標系(たとえば、直交座標系のxおよびy)における位置を規定する座標が可能である。すなわち、平面内の一意の画素位置である。任意選択的に、必要に応じて、座標の決定を補助するため、ビデオフレーム中のランドマーク(たとえば、筐体204の隅部)が検出され得る。別の態様において、変数には、マウスの長軸の長さおよび短軸の長さ、ならびに長軸のベクトル角の正弦および余弦をさらに含み得る。この角度は、長軸の方向に対して規定され得る。長軸は、ビデオフレームの座標系において、動物の頭部の先端(たとえば、鼻)辺りから動物の身体の端部(たとえば、動物の尾部が身体から延びる点辺り)まで延伸し得る。本明細書においては明瞭化のため、ニューラルネットワークの入力としてクロッピングされたフレームが示される一方、実際の入力は、マーキングされていないフルフレームである。
[00199]ニューラルネットワーク・アーキテクチャを利用して楕円パラメータを決定する例示的なシステムおよび方法が以下に詳しく論じられる。必要に応じて、開示の実施形態により他のパラメータが利用および決定され得ることが了解され得る。
[00200]一実施形態において、第1のアーキテクチャは、エンコーダ-デコーダ・セグメンテーション・ネットワークである。図9に示されるように、このネットワークは、所与の入力フレームから前景-背景セグメント化画像を予測するとともに、出力をセグメンテーションマスクとして、マウスが存在するか否かを画素の観点で予測可能である。
[00201]この第1のアーキテクチャは、入力を一組の小さな空間解像度の特徴(たとえば、480×480に対して5×5)へと抽象化するように構成された特徴エンコーダを具備する。多くのパラメータが学習のため、ニューラルネットワークに割り当てられる。学習は、教師ありトレーニングにより実行され得るが、この場合、ニューラルネットワークには例が提示され、パラメータの調節によって正しい予測を生じる。最終モデルの定義およびトレーニングハイパーパラメータがすべて、以下の表3に記載される。
Figure 0007303793000003
[00202]特徴エンコーダには、一組の小さな空間解像度の特徴を元の入力画像と同じ形状へと戻すように構成された特徴デコーダが後続する。すなわち、ニューラルネットワークにおいて学習されたパラメータは、特徴符号化演算を逆転する。
[00203]3つの完全接続レイヤが符号化特徴に追加されて、楕円が向く基本方向を予測する。完全接続レイヤは、所与のレイヤの各数字に異なるパラメータ(たとえば、学習可能なパラメータ)が乗じられ、その合計によって新たなレイヤに単一の値を生じるニューラルネットワークレイヤを表し得る。この特徴デコーダは、前景-背景セグメント化画像を生成するようにトレーニングされ得る。
[00204]ネットワークの最初の半分(エンコーダ)は、バッチ正規化、ReLu活性化が続く2D畳み込みレイヤおよび2D最大プーリングレイヤを利用する。別途詳細については、Goodfellow(2016)に見られる。
[00205]各プーリングレイヤ後に2倍になる開始フィルタサイズとして8が採用された。使用されるカーネルは、2D畳み込みレイヤの場合は5×5、最大プーリングレイヤの場合は2×2の形状である。入力ビデオは、480×480×1(たとえば、モノクロ)の形状であり、これらのレイヤを6回繰り返した後、結果としての形状は、15×15×128(たとえば、128色)である。
[00206]代替実施形態においては、3×3等、他の形状のプーリングレイヤが採用され得る。繰り返しレイヤは、繰り返し構造のレイヤを表す。ニューラルネットワークは、レイヤごとに異なるパラメータを学習し、各レイヤがスタックされる。6個の繰り返しレイヤを上述したが、繰り返しレイヤの採用数は、これより多くすることも少なくすることも可能である。
[00207]別の2D畳み込みレイヤ(カーネル5×5、2倍フィルタ)が適用された後、異なるカーネル3×3およびストライド3の2D最大プールが適用される。15×15の空間形状は、係数3の使用によって、さらに縮小され得る。通常の最大プールはカーネル2×2、ストライド2であるが、各2×2グリッドは、最大値を選択するとともに1つの値を生成する。これらの設定は、3×3グリッドにおいて最大値を選択する。
[00208]最終的な2D畳み込みレイヤが適用され、5×5×512の形状の特徴ボトルネックが生成される。特徴ボトルネックは符号化特徴セットを表し、実際の行列値は、これらすべての行列演算により出力される。学習アルゴリズムは、符号化特徴セットが十分に作用するようにトレーニングされるタスクに対して最も有意となるように符号化特徴セットを最適化する。この特徴ボトルネックはその後、セグメンテーションデコーダおよび角度予測器の両者に受け渡される。
[00209]セグメンテーションデコーダは、ストライド転置2D畳み込みレイヤを用いてエンコーダを逆転するとともに、合計ジャンクション(summation junction)によって、プレダウンサンプリング活性化を繰り越す。このデコーダは、ReLu活性化を利用しないことに留意するものとする。プレダウンサンプリング活性化および合計ジャンクションは、スキップ接続(skip connection)とも称され得る。エンコーダレイヤと同じ形状に対して復号化が整合するレイヤにおける特徴以降、ネットワークは、より良くなる符号化とエンコーダ状態時の状態保持とのいずれかを選定可能である。
[00210]レイヤが480×480×8の形状に戻った後は、カーネルサイズ1×1の別途畳み込みの適用によって、深度が2つのモノクロ画像(背景予測および前景予測)になる。最終的な出力は、480×480×2(2色)である。第1の色は、背景を表すように指定される。第2の色は、前景を表すように指定される。各画素に応じて、2つのうちの大きい方を、ネットワークは入力画素と考える。以下に論じられる通り、softmax演算は、合計が1になる累積確率となるように、これらの色を再スケーリングする。
[00211]その後、この深度全体にsoftmaxが適用される。softmaxは、あるグループへの分類またはbinminの形態である。softmaxに関する別途情報については、Goodfellow(2016)に見られる。
[00212]特徴ボトルネックからは、角度予測も生成される。これは、2つの2D畳み込みレイヤにバッチ正規化およびReLu活性化を適用することによって実現される(カーネルサイズ5×5、特徴深度128および64)。ここから、1つの完全接続レイヤが平坦化され、マウスの頭部が向く四分円を予測するように作用する4ニューロンの形状を生成するために用いられる。バッチ正規化、ReLu活性化、および平坦化の別途詳細については、Goodfellow(2016)に見られる。
[00213]角度がセグメンテーションマスクにより予測されることから、正しい方向(±180°)の選択のみが必要となる。すなわち、楕円が予測されているため、長軸は1つしか存在しない。長軸の一端は、マウスの頭部の方向である。マウスは、頭部-尾部軸に沿ってより長いと仮定される。このため、一方向が+180°(頭部)であり、他方向が-180°(尾部)である。エンコーダ-デコーダ・ニューラルネットワーク・アーキテクチャが選択可能な4つの考え得る方向は、極座標グリッド上で45~135°、135~225°、225~315°、および315~45°である。
[00214]これらの境界は、角度予測の不連続を回避するために選択されたものである。とりわけ、上述の通り、角度予測は、長軸のベクトル角の正弦および余弦の予測であり、atan2関数を採用する。atan2関数は(180°で)不連続であり、選択された境界がこれらの不連続を回避する。
[00215]ネットワークがセグメンテーションマスクを生成した後は、Branson(2009)に記載の通り、追跡のために楕円フィッティングアルゴリズムが適用され得る。Bransonは、これらの計算に加重サンプル平均および分散を使用するが、セグメンテーション・ニューラルネットワークは、改善を表す状況に対して不変を維持する。背景減算アルゴリズムにより生成されたセグメンテーションマスクに対しては、投射される陰影がエラーを付加する場合がある。ニューラルネットワークは、これらの問題を一切含まないように学習する。また、加重および非加重サンプル平均および分散の使用間には、大きな差が観察されない。加重および非加重手法により予測される楕円フィッティングパラメータは、開示のニューラルネットワークの実施形態によって予測されるマスクを用いることにより、大きくは異ならない。
[00216]セグメンテーションマスクを所与として、画素位置のサンプル平均が中心位置を表すように計算される。
Figure 0007303793000004
同様に、長軸の長さ(a)、短軸の長さ(b)、および角度(θ)を表すように、画素位置のサンプル分散が計算される。
Figure 0007303793000005
軸長および角度を求めるには、固有値分解方程式を解く必要がある。
Figure 0007303793000006
Figure 0007303793000007
[00217]第2のネットワーク・アーキテクチャは、ビニング分類ネットワークである。図10に示されるように、ビニング分類ネットワーク・アーキテクチャの構造は、各楕円フィッティングパラメータの最確値のヒートマップを予測可能である。
[00218]このネットワーク・アーキテクチャは、入力画像を小さな空間解像度へと抽象化する特徴エンコーダで開始となる。回帰予測器の大部分が境界ボックス(たとえば、正方形または長方形)によってソリューションを実現するのに対して、楕円では、1つの付加的なパラメータである角度を追加するのみである。角度が360°および0°で等値になる繰り返し数であることから、角度パラメータは、その正弦および余弦成分に変換される。これにより、ネットワークから回帰した合計6つのパラメータが生じる。このネットワークの最初の半分は、問題を解くことと関連する一組の特徴を符号化する。
[00219]符号化された特徴は、特徴を表す行列(アレイ)を単一ベクトルへと変換することによって平坦化される。そして、平坦化された符号化特徴は、(たとえば、特徴のベクトルを完全接続レイヤに入力することにより)出力形状が所望の出力解像度によって決定される付加的な完全接続レイヤに接続される。たとえば、マウスのX座標位置の場合は、480×480画素の画像の各x列に1ビンずつ、480個のビンが存在する。
[00220]ネットワークが動作すると、各ヒートマップ中の最大値が最確値として選択される。所望の各出力パラメータは、符号化特徴に接続された一組の独立したトレーニング可能な完全接続レイヤとして実現され得る。
[00221]Resnet V2 50、Resnet V2 101、Resnet V2 200、Inception V3、Inception V4、VGG、およびAlexnet等の多種多様な予備構築特徴検出器がテストされた。特徴検出器は、入力画像に対して動作する畳み込みを表す。これらの予備構築特徴検出器のほか、多様なカスタムネットワークも調査された。この調査により、Resnet V2 200が最も良く機能することが観察された。
[00222]最後のアーキテクチャは、図11に示される回帰ネットワークである。一例として、回帰ネットワークは、入力ビデオフレームを取得し、Resnet200 CNNによって特徴を抽出し、楕円フィッティング用の6つのパラメータを直接予測する。各値(楕円フィッティング用の6つ)は連続しており、無限の範囲を有し得る。ネットワークは、適当な値の範囲を学習する必要がある。このように、入力画像から直接、追跡楕円を記述する楕円の数値が予測される。すなわち、パラメータを直接予測する代わりに、回帰ネットワークはそうではなく、考え得るビニング値の選択肢から最確値を選択する。
[00223]その他のニューラルネットワーク・アーキテクチャは、異なる動作をする。エンコーダ-デコーダ・ニューラルネットワーク・アーキテクチャは、各画素がマウスであるか否かの確率を出力する。ビニング分類ニューラルネットワーク・アーキテクチャは、マウスの位置を表すビンを出力する。各パラメータのクラスは予め決定されており、ネットワーク(エンコーダ-デコーダまたはビニング)は、各クラスの確率を出力しさえすればよい。
[00224]回帰ネットワーク・アーキテクチャは、入力を小さな空間解像度へと抽象化する特徴エンコーダで開始となる。上記アーキテクチャとは対照的に、回帰ニューラルネットワーク・トレーニングは、平均平方エラー損失関数とは異なり、交差エントロピー損失関数に依拠する。
[00225]メモリの制約から、特徴次元を減らして、カスタムVGG様ネットワークのみがテストされた。最も良く機能するネットワークは、2つの2D畳み込みレイヤの後、2D最大プーリングレイヤで構造化されたものであった。使用されるカーネルは、2D畳み込みレイヤの場合は3×3、2D最大プーリングレイヤの場合は2×2の形状である。最初に用いられるフィルタ深度は16であって、2D最大プールレイヤごとに2倍される。この2つの畳み込み+最大プールシーケンスは、5回繰り返されて、15×15×256の形状を生じる。
[00226]このレイヤは平坦化され、出力ごとに完全接続レイヤに接続される。各出力の形状は、予測の所望の分解能および範囲によって決定される。一例として、これらの符号化特徴はその後、平坦化され、完全接続レイヤに接続されて、出力形状6を生じたが、これは、楕円への適合を予測するようにネットワークが要求された値の数である。テストを目的として、中心位置のみが観察され、広範な全体画像(0~480)でトレーニングされた。角度予測等の付加的な出力は、付加的な出力ベクトルとして容易に追加され得る。多様な現代の特徴エンコーダがテストされたが、このネットワークに対して本明細書に論じられるデータは、このアーキテクチャに対して最も良く機能する結果を実現した200レイヤのResnet V2に由来する(He(2016))。
トレーニングデータセット
[00227]ネットワーク・アーキテクチャをテストするため、後述の通り、OpenCVベースのラベリングインターフェースを用いて、複数の系統および環境にまたがる16,234個のトレーニング画像および568個の別個の検証画像から成るトレーニングデータセットが生成された。このラベリングインターフェースは、前景および背景の高速ラベリングのほか、楕円フィッティングを可能にするものであり、トレーニングデータを直ちに生成して、転移学習により任意のネットワークを新たな実験条件に適応させるのに用いられ得る。
[00228]インタラクティブな分水嶺(watershed)ベースのセグメンテーションおよび輪郭(contour)ベースの楕円フィッティングを生成するため、OpenCVライブラリが採用された。このソフトウェアを用いることによって、ユーザは、図12Aに示されるように、左クリックにより前景(たとえば、マウス(F))として点をマークし、右クリックにより背景(B)として他の点をラベリングする。キーストロークにより分水嶺アルゴリズムが実行され、図12Bに示されるように、セグメンテーションおよび楕円を予測する。ユーザは、予測されたセグメンテーションおよび楕円を編集する必要がある場合、さらにエリアをラベリングして、分水嶺を再び動作させるだけでよい。
[00229]ニューラルネットワークのユーザ(たとえば、研究者)により選択されたあらかじめ決められたエラー許容範囲内に予測が含まれる場合、ユーザは、楕円の方向を選択する。ユーザは、4つの基本方向(上、下、左、右)のうちの1つを選択することによって、選択を行う。楕円フィッティングアルゴリズムによって正確な角度が選択されることから、ユーザは、方向の±90°を識別しさえすればよい。方向が選択されたら、すべての関連するデータが保存され、ユーザには、ラベリングする新たなフレームが提示される。
[00230]ラベル付きデータセットの目的は、マウス用の良好な楕円フィッティング追跡データを識別することである。データをラベリングする間に、長軸の端部がマウスの鼻に略接触した状態で、楕円の中心がマウスの胴体となるように楕円フィッティングが最適化された。尾部は、より優れた楕円フィッティングを提供するため、セグメンテーションマスクから除去されることが多かった。
[00231]推論用のネットワークをトレーニングするため、3つのラベル付きトレーニングセットが生成された。各データセットには、基準フレーム(入力)、セグメンテーションマスク、および楕円フィッティングを含む。トレーニングセットはそれぞれ、異なる環境でマウスを追跡するように生成されたものである。
[00232]第1の環境は、16,802個の注釈付きフレームを含む一定白色背景のオープンフィールドであった。最初の16,000フレームは、24個の同一セットアップのうちの1つから取得された65個の別個のビデオによりラベリングされた。ネットワークの第1のトレーニングの後、ネットワークは、ラベル付きデータに含まれていない特殊状況下において、十分に機能していないことが観察された。アリーナにおける中間跳躍、変則的な姿勢、および排尿の事例は通常、不成功として観察された。これらの不成功は、性能をさらに一般化して向上させるため、識別され、正しくラベリングされ、ラベル付きトレーニングセットに組み込まれた。
[00233]第2の環境は、αドライ(ALPHA-dri)寝床および餌入れが2つの異なる照明条件(日中の可視照射および夜間の赤外照射)の下にある標準的なオープンフィールドであった。このデータセットにおいては、4日間で6つのセットアップにまたがって、合計2,192フレームがラベル付けされた。注釈付きフレームのうちの916個が夜間照射から取得され、注釈付きフレームのうちの1,276個が日中照射から取得されたものである。
[00234]最後のラベル付きデータセットは、KOMPデータセットに対してOpto-M4オープンフィールドケージを用いることにより生成された。このデータセットは、1083個のラベル付きフレームを含んでいた。これらのラベルはすべて、異なるビデオ(ビデオごとに1フレームをラベリング)および8つの異なるセットアップにまたがってサンプリングされたものである。
ニューラルネットワーク・トレーニング
a)トレーニングデータセットの拡張
[00235]このトレーニングデータセットは、反射を適用することによって、トレーニング中に8倍に拡張され、コントラスト、輝度、回転の小さなランダム変化の適用により、入力データのわずかな変動に対してネットワークを堅牢化させた。この拡張は、ニューラルネットワークによるトレーニングデータセットの記憶を阻止するために実行される。データセットが記憶されると、データセットに含まれない例(検証)に対して十分に機能しなくなる。別途詳細については、Krizhevsky(2012)に見られる。
[00236]トレーニングセットの拡張は、Alexnet以来、ニューラルネットワークのトレーニングの重要な一側面となっている(Krizhevsky(2012))。良好な正則化性能を実現するため、一握りのトレーニングセット拡張が利用される。データが鳥瞰図に由来することから、同等のトレーニングセットサイズにおいて即座に8倍増やすには、水平、垂直、および斜め反射を適用するのが容易である。また、実行時には、フレーム全体にわずかな回転および平行移動が適用される。回転拡張値は、均一な分布からサンプリングされる。最後に、ノイズ、輝度、およびコントラスト拡張についても、フレームに適用され得る。これらの拡張に用いられるランダム値は、通常の分布から選択される。
b)トレーニングの学習レートおよびバッチサイズ
[00237]トレーニングの学習レートおよびバッチサイズは、ネットワークトレーニングごとに独立して選択された。Resnet V2 200等の大規模ネットワークは、480×480の入力サイズにおいてバッチサイズのメモリ制約に陥り得るが、グリッド探索手法を用いて、良好な学習レートおよびバッチサイズが実験的に識別された。これらのネットワークのトレーニング用に選択されたハイパーパラメータは、上の表3に示される。
モデル
[00238]Tensorflow v1.0において、モデルの構築、トレーニング、およびテストが行われた。提示されたトレーニングベンチマークは、NVIDIA(登録商標)Tesla(登録商標)P100 GPUアーキテクチャ上で実行された。
[00239]ハイパーパラメータは、複数回のトレーニング反復を通じてトレーニングされた。ネットワークの第1のトレーニングの後、ネットワークは、トレーニングデータにおいて過小評価された特殊状況下において、十分に機能していないことが観察された。アリーナにおける中間跳躍、変則的な姿勢、および排尿の事例は通常、不成功として観察された。これらの困難なフレームは、性能をさらに向上させるため、識別され、トレーニングデータセットに組み込まれた。最終モデルの定義の完全記述およびトレーニングハイパーパラメータがすべて、上の表3に記載される。
[00240]3つの全ネットワークにより示されるトレーニングおよび検証の損失曲線プロットがそれぞれ、図13A~図13Eに示される。全体として、トレーニングおよび検証損失曲線は、3つの全ネットワークが1~2画素の平均エラーの性能となるようにトレーニングされていることを示す。予想外にも、ビニング分類ネットワークは、不安定な損失曲線を表しており、検証時のオーバフィッティングおよび不十分な一般化を示している(図13B、図13E)。回帰アーキテクチャは、1.2画素の検証エラーへと収束したが、これは、検証よりも優れたトレーニング性能を示している(図13A、図13B、図13D)。ただし、最良の結果を与える特徴抽出器であるResnet V2 200は、200レイヤおよび6270万パラメータを超える大規模な深層ネットワークであり、1フレーム当たりの処理時間が実質的に長くなる(33.6ms)。他の予備構築汎用ネットワーク(Zoph(2017))は、短い演算時間と引き換えに、同様以下の性能しか実現できない。このように、回帰ネットワークは、正確ながら演算コストの高いソリューションである。
[00241]図13A、図13B、図13Cにさらに示されるように、エンコーダ-デコーダ・セグメンテーション・アーキテクチャは、0.9画素の検証エラーへと収束した。セグメンテーション・アーキテクチャが十分に機能するのみならず、5~6ms/フレームの平均処理時間でGPU演算の演算効率が良い。ビデオデータは、サーバレベルのGPUであるNvidia(登録商標)Tesla(登録商標)P100上において最大200fps(実時間の6倍)で処理可能であり、民生レベルのGPUであるNvidia(登録商標)Titan Xp上において125fps(実時間の4.2倍)で処理可能であった。この高い処理速度は、構造の深度が18レイヤに過ぎず、パラメータが1060万個に過ぎないためと考えられる。
[00242]エンコーダ-デコーダ・セグメンテーション・ネットワーク・アーキテクチャの良好なネットワーク性能に対して必要なラベル付きトレーニングデータの相対スケールを識別するため、トレーニングセットサイズのベンチマークも行われた。このベンチマークは、トレーニングセットの部分集合(たとえば、10,000、5,000、2,500、1,000、および500)のシャッフルおよびランダムサンプリングによってテストされた。サブサンプリングされた各トレーニングセットは、トレーニングされるとともに同一の検証セットと比較された。このベンチマークの結果が図14A~図14Hに示される。
[00243]一般的に、トレーニング曲線は、区別不可能に見える(図14A)。すなわち、トレーニングセットサイズは、トレーニングセットのエラー率に関して性能変化を何ら示さない(図14A)。驚くべきことに、検証性能が2,500個超のトレーニングサンプルで同じ値に収束する一方、エラーは、1,000個未満のトレーニングサンプルで増加している(図14B)。さらに図示されるように、2,500個超のトレーニングサンプルでは、検証精度がトレーニング精度より優れる(図14C~図14F)一方、1,000個でトレーニング精度と一致してからは、弱い一般化の兆候を示し始めている(図14G)。発散および増大する検証エラー率により示されるように、トレーニングサンプルを500個しか使わないのは明らかに過学習である(図14H)。これは、トレーニングセットがもはや、ネットワークが十分に一般化し得るのに十分な大きさではないことを示唆する。このため、良好な結果が得られるのは、2,500個のラベル付き画像のみでトレーニングされたネットワークからであり、当該ラベリングインターフェースでの生成には約3時間を要する。したがって、トレーニングサンプルの厳密な数が結局は視覚的問題の困難さに依拠することになる一方、推奨開始点のトレーニングサンプル数は、2,500個前後となる。
[00244]開示の実施形態に従って追跡されるマウスを示した例示的なビデオフレームは、可視光下の場合は図15Aおよび図15Bに示され、赤外光下の場合は図15Cおよび図15Dに示される。図示のように、個々のマウスの空間的範囲は、画素単位で色分けされている。
[00245]演算効率、精度、トレーニングの安定性、および少数の所要トレーニングデータを所与として、エンコーダ-デコーダ・セグメンテーション・アーキテクチャは、他の手法との比較のため、ビデオ全体のマウスの位置の予測用に選択されたものである。
[00246]異なる毛色およびデータ収集環境(図8A)でマウスからビデオ全体を推論するとともに、追跡の品質を視覚的に評価することによって、ニューラルネットワークベースの追跡の品質が評価された。また、ニューラルネットワークベースの追跡は、独立した追跡様式であるKOMP2ビームブレークシステムとも比較された(図8A、6列目)。
実験アリーナ
a)オープンフィールドアリーナ
[00247]アリーナ200の一実施形態がオープンフィールドアリーナとして採用された。オープンフィールドアリーナは、52cm×52cmである。床は白色のPVCプラスチックであり、壁は灰色のPVCプラスチックである。清掃保守に役立つように、白色2.54cmの面がすべての内側縁部に追加された。LED照明リング(モデルF&V R300)によって照射が与えられる。照明リングは、各アリーナに600luxの光を生じるように校正された。
b)24時間モニタリングのオープンフィールドアリーナ
[00248]オープンフィールドアリーナは、数日間のテスト用に拡張された。照明212は、標準的な12:12LDサイクルに設定された天井LED照明の形態である。αドライが寝床としてアリーナに配置された。餌および水を提供するため、単一のDiet Gel 76A餌入れがアリーナに配置された。この栄養源はモニタリングされ、無くなった場合に交換された。各マトリクスは、日中は250luxで照射され、夜間はおよそ500lux未満で照射された。夜間のビデオ記録のため、照明212は、IR LED(940nm)照明を含むものとした。
c)KOMPオープンフィールドアリーナ
[00249]カスタムアリーナのほか、開示のシステムおよび方法の実施形態は、市販のシステムに対してもベンチマークが行われた。透明なプラスチック壁を用いることにより、Opto-M4オープンフィールドケージが構成される。このため、結果としての反射により、視覚的追跡は非常に困難である。ケージは、42cm×42cmである。このアリーナの照明は、100~200luxのLED照射によって行われるものとした。
ビデオ取得
[00250]すべてのビデオデータは、図2および図7に関して論じられたビデオ取得システムの一実施形態により取得された。ビデオデータは、Sentechカメラ(モデルSTC-MB33USB)およびコンピュータレンズ(モデルT3Z2910CS-IR)の形態のカメラ210を用いて、640×480画素の解像度、8ビットのモノクロ深度、およびおよそ29fps(たとえば、およそ29.9fps)で取得された。露光時間および利得は、190/255の目標輝度を用いてデジタル的に制御された。絞りは、目標輝度の実現のために低いアナログ利得が用いられるように、最も広くなるように調整された。これにより、基準ノイズの増幅が抑えられる。ファイルは、「生ビデオ」コーデックおよび「pal8」画素フォーマットを用いてローカルのハードドライブに仮保存された。アッセイは、約2時間にわたって動作し、約50GBの生ビデオファイルを生成した。480×480画素クロップのノイズ除去フィルタを適用するとともに、約600MBの圧縮ビデオサイズを生成するMPEG4コーデック(品質は最大に設定)を用いて圧縮を行うため、ffmpegソフトウェアが夜通し使用された。
[00251]射影歪みを緩和するため、棚部202bの約100cm上方でフレーム202にカメラ210が取り付けられた。ズームおよびフォーカスは、8画素/cmのズームを実現するように手動で設定された。この解像度は、アリーナ境界上の未使用画素を最小限に抑えるとともに、1匹のマウス当たり約800画素のエリアを生成する。KOMPアリーナはわずかに小さいものの、同じ8画素/cmの目標ズームが利用された。
[00252]エンコーダ-デコーダ・セグメンテーション・ニューラルネットワークを用いることにより、KOMP2データセットから2002個のビデオ(合計700時間)が追跡され、その結果が図8に示される。これらのデータは、20分のオープンフィールドアッセイでテストされた232本のノックアウトラインをC57BL/6NJ背景に含んでいた。透明マトリクスのために各KOMP2アリーナがわずかに異なる背景を有することから、追跡性能は、8つのテストチャンバそれぞれ(平均してn=250(図16))およびすべての組み合わせボックスに対して比較された。KOMP2が使用した8つの全テストチャンバにわたって、2つの手法間では、オープンフィールド内の総移動距離間に非常に高い相関が観察された(R=96.9%)。この傾向(赤色矢印)から、2匹の動物が高い不一致で観察された。ビデオの観察結果は、両方の動物に存在する変則的な姿勢を示しており、一歩がよたよた歩行、他方が猫背の姿勢であった。よたよた歩行および猫背の歩行は、異常なビームブレークとなって、ビームブレークシステムからの異常に高い総移動距離測度を生じると考えられる。本例は、動物の姿勢の影響を受けないニューラルネットワークの利点のうちの1つを強調している。
[00253]トレーニングされたセグメンテーション・ニューラルネットワークの性能についても、さまざまなテスト環境からの広範なビデオおよび図8Aに関して上述した毛色全体にわたって、Ctraxと比較された。Ctraxとの比較は、多くの理由が動機となっている。一側面において、Ctraxは、多くの追跡設定の微調節を可能にする従来最良の追跡器のうちの1つと考えられる。また、Ctraxはオープンソースであり、ユーザサポートを提供する。BGSライブラリによる結果(図8B)を所与として、他の追跡器には、同様以下の性能が予想される。トレーニングされたセグメンテーション・ニューラルネットワークおよびCtraxの両者にて、1グループ当たり12匹の動物が追跡された。Ctraxの設定は、後述の通り、72個のビデオごとに微調節された。
[00254]Ctraxは、追跡能力を最適化するための多様な設定を含む(Branson(2009))。このソフトウェアの作者は、良好な追跡を保証するためアリーナが特定の基準下でセットアップされるように強く推奨している。本明細書において論じられるテストのほとんど(たとえば、白色背景上のアルビノマウス)で、Ctraxが十分に機能するように設計されていない環境が採用される。それにも関わらず、パラメータが十分に調節されることで、良好な性能が依然として実現可能である。操作のための多くの設定により、Ctraxは、良好な追跡性能を実現するために時間コストが容易に高くなり得る。開示の環境においてマウスを追跡するためのCtraxのセットアップ手順は、以下の通りである。
[00255]第1の動作においては、背景モデルが生成される。Ctraxの核心は、背景減算に基づくため、堅牢な背景モデルを有することが機能上必須である。マウスが移動する場合はモデルが最適に機能する。背景モデルを生成するため、マウスが明らかに移動しているビデオの部分が探索され、当該部分からフレームがサンプリングされる。これにより、背景モデルにマウスが含まれなくなる。この手法は、24時間データに対するCtraxの追跡性能をかなり改善する。マウスはあまり移動しないため、通常は、背景モデルに組み込まれるためである。
[00256]第2の動作は、背景減算の設定を行うことである。ここで、標準範囲が254.9~255.0の背景輝度正規化法が用いられる。マウスを分離するために適用される閾値は、予備ビデオに基づいて調節される。露光および毛色のわずかな変化が性能に影響を及ぼすためである。これらの閾値を調節するため、一組の良好な開始値が適用されるとともに、大略良好な性能を保証するためにビデオが精査される。特定の実施形態においては、壁を背にするマウスの事例に対して、すべてのビデオが確認され得る。これらが通常、陰影のために追跡が最も難しいフレームだからである。また、環境の希薄な変化を除去するほか、楕円フィッティング用にマウスの尾部を除去するため、形態学的フィルタリングが適用され得る。開口半径として4、閉塞半径として5が採用された。
[00257]別の動作においては、観察結果が事実上マウスとなるように、Ctraxで可能な種々追跡パラメータが手動で調整される。時間を考慮して、これらのパラメータは、他のすべての追跡マウスに使用される際およびその後に十分調節された。ビデオの機能が目に見えて不十分な場合は、性能を向上させるため、一般設定が微調整された。形状パラメータについては、個々の黒色マウスのビデオから、2つの標準偏差に基づく範囲が決定された。特定のマウスがセグメンテーションステップで十分に機能しなくなることが予想されたため、最小値がさらに下げられた。これにより、Ctraxは依然として、マウス全体のセグメント化が不可能であるにも関わらず、マウスの良好な位置を見出すことができる。この手法は、すべてのセットアップが同じズーム8を有し、テストされるマウスが大略同じ形状であることから、十分に機能する。実験セットアップでは、アリーナのマウスを1匹しか追跡しないため、動き設定は非常に緩やかである。観察パラメータの下、大規模な検出を取り除く「最小面積無視(Min Area Ignore)」が主として利用される。ここでは、2,500より大きな検出が取り除かれる。後知恵タブの下では、500フレーム長よりも短い検出を除去するため、「固定不要検出(Fix Spurious Detections)」設定が用いられる。
[00258]Ctraxが有効な背景モデルを生成できないことから、動物が長時間連続して眠る24時間装置からのビデオは、手動で比較から省略された。Ctraxとニューラルネットワークとの間の総移動距離の累積相対エラーが計算され、(図17A)に示される。ビデオの毎分に、ニューラルネットワークおよびCtraxの両者からの移動距離予測が比較される。この測定基準は、各マウスの重心追跡の精度を測定する。黒色、灰色、およびまだら模様のマウスの追跡は、4%未満のエラーを示していた。ただし、有意に高レベルのエラーがアルビノ(14%)、24時間アリーナ(27%(橙色))、およびKOMP2(10%(青色))には見られた(図17A)。このため、ニューラルネットワーク追跡器がなければ、アルビノ追跡、KOMP2、または24時間のデータは適切に追跡され得なかった。
[00259]また、陰影が予測に含まれる場合等、前景セグメンテーション予測が正しくない場合は、楕円フィッティングがマウスの姿勢を正しく表さないことも観察された。これらの場合は、重心追跡が可能であったとしても、楕円フィッティング自体が高変動であった。
[00260]JAABA(Kabra(2013))等、行動認識のための現代の機械学習ソフトウェアは、行動の分類にこれらの特徴を利用する。楕円追跡における分散は、短軸の相対標準偏差によって量子化され、図17Bに示される。この測定基準は、すべての実験用マウスにわたって最小分散を示す。個々のマウスの幅は、追跡が正確な場合の行動アッセイにおいて表される広範な姿勢を通じて変わらず類似するためである。総移動距離のエラー累積相対エラーが小さくても(図17B)、灰色およびまだら模様のマウスでは、高い追跡分散が観察された(図17A)。予想通り、アルビノおよびKOMP2の追跡の場合は、短軸に関して、高い相対標準偏差が観察される。このため、重心追跡および楕円フィッティングの分散の両者について、ニューラルネットワーク追跡器が従来の追跡器よりも優れていることが分かる。
[00261]エンコーダ-デコーダ・セグメンテーション・ニューラルネットワークを高精度追跡器として構築したため、その性能が2つの大きな行動データセットによってさらにテストされた。種々すべての色、まだら模様、ヌード、および肥満のマウスを含む58系統のマウスにわたって、1845匹のマウスでオープンフィールドのビデオデータが生成された(1691時間)。このデータセットには、47の近交マウス系統および11のF1同質遺伝子マウス系統を含んでおり、Bogue(2018)のMouse Phenome Databaseに従って生成された最も大きなオープンフィールドデータセットである。
[00262]総移動距離に関する追跡結果が図18Aに示される。各点は系統中の個体を示し、ボックスは平均±標準偏差を示す。ユーザ調節を行っていない単一のトレーニング済みネットワークを用いて、すべてのマウスが高精度に追跡された。過半数の系統のマウスは、追跡の忠実度が視覚的に確認され、優れた性能が観察された。観察された運動表現型は、マウスのオープンフィールド行動の公開済みデータセットと一致する。
[00263]4匹のC57BL/6Jマウスおよび2匹のBTBR T ltpr3tf/Jマウスについて収集された24時間ビデオデータを追跡するため、同じニューラルネットワークが採用された(図8Aの5列目)。これらのマウスは、数日間にわたって寝床、餌および水入れとともに収容され、その間、餌の位置を変え、照明は12:12の明暗条件とした。可視光源および赤外光源を用いてビデオデータが記録された。これらの条件下で同じネットワークを用いて、すべての動物の運動が追跡され、明暗条件下で非常に優れた性能が観察された。
[00264]結果が図18Bに示されるが、8つの明点および暗点がそれぞれ、明条件および暗条件を表す。予想通り、暗期に高レベルの自発運動を伴う運動リズム(曲線)が観察された。
[00265]要約すれば、複雑な環境における動物のビデオベースの追跡は、動物行動の分野における積年の課題であった(Egnor(2016))。現在最先端のシステムでは、動物セグメンテーションの基本的な問題に対処しておらず、正確な追跡のため、前景と背景との視覚的コントラストに多くを依拠している。その結果、ユーザは、最適な結果を実現するために環境を制限する必要がある。
[00266]本明細書においては、複雑かつ動的な環境において機能し得る現代のニューラルネットワークベースの追跡器および対応する使用方法が記載される。トレーニング可能なニューラルネットワークの使用によって、追跡における基本的な問題(前景および背景のセグメンテーション)は対処される。3つの異なるアーキテクチャのテストから、エンコーダ-デコーダ・セグメンテーション・ネットワークが高レベルの精度を実現し、高速(実時間の6倍超)で機能することが分かった。
[00267]ユーザがわずか2,500個の画像にラベリングすることにより(約3時間を要する)、特定の環境について新たなネットワークをトレーニング可能なラベリングインターフェースがさらに提供される。
[00268]開示のトレーニング済みニューラルネットワークは、2つの既存のソリューションと比較され、複雑な環境においてこれらよりも非常に優れていることが分かった。背景減算手法を利用する任意の市販システムについても、同様の結果が予想される。実際、26個の異なる背景減算方法をテストした場合は、それぞれが特定の状況下で不成功になることが観察された。ただし、1つのニューラルネットワーク・アーキテクチャだけ、微調節の必要性もユーザ入力の必要性もなく、複数の環境下ですべての毛色のマウスに対して機能し得る。この機械学習手法は、最小限のユーザ入力によって、動的な環境条件下での長期追跡を可能とするため、行動研究のための次世代の追跡アーキテクチャの基礎を構成する。
[00269]本明細書に記載の制御システムの1つまたは複数の態様または特徴は、デジタル電子回路、集積回路、特殊設計の特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはこれらの組み合わせにて実現され得る。これらの種々態様または特徴には、専用または汎用で、ストレージシステム、少なくとも1つの入力装置、および少なくとも1つの出力装置に対するデータおよび命令の受信ならびにデータおよび命令の送信を行うように結合され得る少なくとも1つのプログラム可能なプロセッサを含むプログラム可能なシステム上で実行および/または解釈可能な1つまたは複数のコンピュータプログラムにおける実装を含み得る。プログラム可能なシステムまたはコンピュータシステムとしては、クライアントおよびサーバが挙げられる。クライアントおよびサーバは一般的に、互いに遠隔であって、通常は、通信ネットワークを通じて相互作用する。クライアントおよびサーバの関係は、各コンピュータ上で動作し、クライアント-サーバ関係を互いに有するコンピュータプログラムによって生じる。
[00270]プログラム、ソフトウェア、ソフトウェアアプリケーション、アプリケーション、コンポーネント、またはコードとも称され得るコンピュータプログラムには、プログラム可能なプロセッサの機械命令を含み、高水準手続き型言語、オブジェクト指向プログラミング言語、関数型プログラミング言語、論理型プログラミング言語、および/またはアセンブリ/機械語にて実装され得る。本明細書において、用語「機械可読媒体(machine-readable medium)」は、たとえばプログラム可能なプロセッサに機械命令および/またはデータを提供するのに用いられる磁気ディスク、光ディスク、メモリ、およびプログラム可能論理素子(PLD)等(機械命令を機械可読信号として受信する機械可読媒体を含む)、任意のコンピュータプログラム製品、装置、および/またはデバイスを表す。用語「機械可読信号(machine-readable signal)」は、プログラム可能なプロセッサに機械命令および/またはデータを提供するのに用いられる任意の信号を表す。機械可読媒体は、たとえば非過渡的固体メモリ、磁気ハードドライブ、または任意同等の記憶媒体等のように、上記のような機械命令を持続的に格納し得る。この代替または追加として、機械可読媒体は、たとえばプロセッサキャッシュまたは1つもしくは複数の物理的プロセッサコアと関連付けられた他のランダムアクセスメモリ等のように、上記のような機械命令を持続的に格納し得る。
[00271]ユーザとの相互作用を可能にするため、たとえば情報をユーザに表示する陰極線管(CRT)、液晶ディスプレイ(LCD)、もしくは発光ダイオード(LED)モニタ等の表示装置ならびにユーザが入力をコンピュータに与え得るキーボードおよびポインティングデバイス(たとえば、マウス、トラックボール等)を有するコンピュータ上において、本明細書に記載の主題の1つまたは複数の態様または特徴が実装され得る。ユーザとの相互作用を可能にする他の種類のデバイスも同様に使用され得る。たとえば、視覚的フィードバック、聴覚的フィードバック、または触覚的フィードバック等、ユーザに与えられるフィードバックとしては、任意の形態の感覚的フィードバックが可能であり、また、ユーザからの入力は、任意の形態で受け付けられ、音響、発話、または触覚入力が挙げられるが、これらに限定されない。他の考え得る入力装置としては、タッチスクリーンまたは単点もしくは多点抵抗性もしくは容量性トラックパッド等の他のタッチセンサー式デバイス、音声認識ハードウェアおよびソフトウェア、光学スキャナ、光学ポインタ、デジタル画像捕捉装置および関連する解釈ソフトウェア等が挙げられるが、これらに限定されない。
[00272]本願の全体を通して引用されるすべての参考文献(たとえば、発行もしくは登録特許または同等物、特許出願公開、および非特許文献または他の原資料)は、各参考文献が本願の開示内容と少なくとも部分的に矛盾しない範囲において、参照により個々に組み込まれているかのように、そのすべての内容が参照により本明細書に組み込まれる。たとえば、一部が矛盾する参考文献は、その一部矛盾する部分を除いて、参照により組み込まれる。
[00273]本明細書において、マーカッシュ群または他の群が用いられる場合は、当該群のすべての個別要素ならびに当該群に可能なすべての組み合わせおよび副組み合わせが開示内容に個々に含まれることが意図される。
[00274]本明細書において、単数形「1つの(a)」、「1つの(an)」、および「その(the)」は、文脈上の別段の明確な指示のない限り、複数の意味を含む。このため、たとえば「細胞(a cell)」という表現には、当業者が既知の複数の当該細胞およびその同等物を含み、その他の場合も同様である。また、用語「1つの(a)」(または、「1つの(an)」)、「1つまたは複数(one or more)」、および「少なくとも1つ(at least one)」は、本明細書において区別なく使用され得る。
[00275]本明細書において、用語「備える(comprising)」は、「具備する(including)」、「有する(having)」、「含む(containing)」、および「~を特徴とする(characterized by)」と同義であり、それぞれ区別なく使用され得る。これらの用語はそれぞれ、さらに包括的またはオープンエンドであり、列挙されていない付加的な要素も方法ステップも除外しない。
[00276]本明細書において、用語「~から成る(consisting of)」は、特許請求の要素において指定されない如何なる要素、ステップ、または成分をも除外する。
[00277]本明細書において、用語「本質的に~から成る(consisting essentially of)」は、特許請求の範囲の基本的かつ新規な特性に実質的な影響を及ぼさない要素もステップも除外しない。本明細書において如何なる場合にも、用語「備える(comprising)」、「本質的に~から成る(consisting essentially of)」、および「~から成る(consisting of)」はいずれも、その他2つの用語のいずれかにより置き換え得る。
[00278]本明細書において例示的に記載された実施形態は、本明細書に具体的に開示されていない1つまたは複数の要素、1つまたは複数の限定が一切ない状態で好適に実現され得る。
[00279]表現「請求項XX~YYのいずれか一項に記載の(of any of claims XX-YY)」(XXおよびYYは、請求項番号を表す)は、代替形態の多項従属請求項を提供するように意図され、いくつかの実施形態においては、表現「as in any one of claims XX-YY」と区別なく使用され得る。
[00280]別段の定めのない限り、本明細書において使用されるすべての技術用語および科学用語は、開示の実施形態が属する技術分野の当業者が通常理解するのと同じ意味を有する。
[00281]本明細書において、たとえば温度範囲、時間範囲、組成範囲、または濃度範囲等の範囲が与えられている場合はいつでも、すべての中間範囲および副範囲のほか、与えられた範囲に含まれるすべての個別値が本開示に含まれることが意図される。本明細書において、範囲は具体的に、当該範囲の終点値として提供される値を含む。たとえば、1~100という範囲は具体的に、1および100という終点値を含む。本明細書の記述に含まれる如何なる副範囲も、範囲または副範囲内の個々の値も、特許請求の範囲からは除外され得ることが了解される。
[00282]上述および特許請求の範囲において、「~のうちの少なくとも1つ(at least one of)」または「~のうちの1つまたは複数(one or more of)」等の表現は、要素または特徴の接続リストを後ろに伴って現れ得る。また、用語「および/または(and/or)」は、2つ以上の要素または特徴のリストとして現れ得る。使用文脈上の別段の暗示的または明示的な矛盾のない限り、このような表現は、リストの要素もしくは特徴のいずれかを個々に意味すること、または、列挙要素もしくは特徴のいずれかとその他の列挙要素もしくは特徴のいずれかとの組み合わせを意味することが意図される。たとえば、表現「AおよびBのうちの少なくとも1つ(at least one of A and B)」、「AおよびBのうちの1つまたは複数(one or more of A and B)」、および「Aおよび/またはB(A and/or B)」はそれぞれ、「A単独、B単独、またはAおよびBの組み合わせ」を意味することが意図される。3つ以上の項目を含むリストに対しても、同様の解釈が意図される。たとえば、表現「A、B、およびCのうちの少なくとも1つ(at least one of A,B,and C)」、「A、B、およびCのうちの1つまたは複数(one or more of A,B,and C)」、および「A、B、および/またはC(A,B,and/or C)」はそれぞれ、「A単独、B単独、C単独、AおよびBの組み合わせ、AおよびCの組み合わせ、BおよびCの組み合わせ、またはA、B、およびCの組み合わせ」を意味することが意図される。また、上記および特許請求の範囲において、用語「~に基づく(based on)」の使用は、列挙されていな特徴または要素も許容され得るように、「少なくとも部分的に~に基づく(based at least in part on)」を意味することが意図される。
[00283]本明細書において採用された用語および表現は、説明の用語として使用され、何ら限定的なものではなく、また、このような用語および表現の使用には、図示および記載の特徴またはその一部の如何なる同等物の除外の意図もなく、一方、特許請求の実施形態の範囲内で種々改良が可能であるものと認識される。このため、本願には、好適な実施形態、例示的な実施形態、および任意選択的な特徴の記述を含み得るものの、本明細書に開示の概念の改良および変形が当業者により講じられ得ることが了解されるものとする。このような改良および変形は、添付の特許請求の範囲により規定される通り、開示の実施形態の範囲内と考えられる。本明細書に記載の具体的な実施形態は、本開示の有用な実施形態の例であり、当業者には当然のことながら、本明細書に記載のデバイス、デバイス構成要素、および方法ステップの多くの変形を用いて実行され得る。当業者には明らかなこととして、方法および本方法に有用なデバイスには、多くの任意選択的な構成、処理要素、およびステップを含み得る。
[00284]本開示の実施形態は、その主旨からも本質的特性からも逸脱することなく、他の具体的形態にて具現化され得る。したがって、上記実施形態は、あらゆる点において、本明細書に記載の主題を制限するものではなく、例示と考えられるべきである。
参考文献
[00285]以下に掲載される参考文献はそれぞれ、そのすべての内容が参照により本明細書に組み込まれる。
Figure 0007303793000008
Figure 0007303793000009
Figure 0007303793000010

Claims (14)

  1. 動物追跡のシステムであって、
    動物の観察を表すビデオデータを維持するデータ記憶装置と、
    前記データ記憶装置からビデオデータを受信すること、およびニューラルネットワーク・アーキテクチャを実装することを行うように構成されたプロセッサとを備え、前記ニューラルネットワーク・アーキテクチャが、
    前記ビデオデータから抽出された入力ビデオフレームを受信すること、
    前記ビデオフレームに基づいて、少なくとも1匹の動物の楕円記述を生成すること、前記楕円記述はあらかじめ決められた楕円パラメータにより規定される、および
    前記少なくとも1匹の動物について、前記あらかじめ決められた楕円パラメータを特徴付ける値を含むデータを提供すること、
    を行うように構成されており、
    前記ニューラルネットワーク・アーキテクチャが、前記楕円記述の各楕円パラメータの最確値のヒートマップを予測するように構成されたビニング分類ネットワークを備えた、システム。
  2. 前記楕円パラメータが、平面内の前記動物の位置、前記動物の長軸の長さおよび短軸の長さ、ならびに前記動物の頭部が向いている角度であって、前記長軸の方向に対して規定される角度、を表す座標である、請求項1に記載のシステム。
  3. 前記ニューラルネットワーク・アーキテクチャが、
    入力ビデオフレームから、前景-背景セグメント化画像を予測すること、
    画素の観点で、前記セグメント化画像に基づいて、動物が前記入力ビデオフレーム中に存在するかを予測すること、
    前記画素の観点での予測に基づいて、セグメンテーションマスクを出力すること、および
    前記動物が存在すると予測された前記セグメンテーションマスクの部分を楕円に適合させて、前記あらかじめ決められた楕円パラメータを特徴付ける値を決定すること、
    を行うように構成されたエンコーダ-デコーダ・セグメンテーション・ネットワークである、請求項1に記載のシステム。
  4. 前記エンコーダ-デコーダ・セグメンテーション・ネットワークが、
    前記入力ビデオフレームを一組の小さな空間解像度の特徴へと抽象化するように構成された特徴エンコーダと、
    前記一組の特徴を前記入力ビデオフレームと同じ形状へと変換し、前記前景-背景セグメント化画像を出力するように構成された特徴デコーダと、
    前記動物の頭部が向いている角度を予測するように構成された角度予測器と、
    を備えた、請求項3に記載のシステム。
  5. 前記ビニング分類ネットワークが、前記入力ビデオフレームを小さな空間解像度へと抽象化するように構成された特徴エンコーダを備え、前記抽象化が、前記ヒートマップを生成させるために利用される、請求項に記載のシステム。
  6. 前記ニューラルネットワーク・アーキテクチャが、入力ビデオフレームから特徴を抽出し、前記楕円パラメータそれぞれを特徴付ける値を直接予測するように構成された回帰ネットワークを備えた、請求項1に記載のシステム。
  7. 前記動物が、齧歯動物である、請求項1に記載のシステム。
  8. 動物の観察を表すビデオデータを受信すること、および
    ニューラルネットワーク・アーキテクチャを実行すること
    をコンピュータになさせるためのプログラムであって、
    前記ニューラルネットワーク・アーキテクチャは、
    前記ビデオデータから抽出された入力ビデオフレームを受信すること、および
    前記入力ビデオフレームに基づいて、少なくとも1匹の動物の楕円記述を生成すること、前記楕円記述はあらかじめ決められた楕円パラメータにより規定される、および前記少なくとも1匹の動物について、前記あらかじめ決められた楕円パラメータを特徴付ける値を含むデータを提供すること、
    を行うように構成されており、
    前記ニューラルネットワーク・アーキテクチャが、前記楕円記述の各楕円パラメータの最確値のヒートマップを予測するように構成されたビニング分類ネットワークを備えた、プログラム。
  9. 前記楕円パラメータが、平面内の前記動物の位置、前記動物の長軸の長さおよび短軸の長さ、ならびに前記動物の頭部が向いている角度であって、前記長軸の方向に対して規定される角度、を表す座標である、請求項に記載のプログラム。
  10. 前記ニューラルネットワーク・アーキテクチャが、
    入力ビデオフレームから、前景-背景セグメント化画像を予測すること、
    画素の観点で、前記セグメント化画像に基づいて、動物が前記入力ビデオフレーム中に存在するかを予測すること、
    前記画素の観点での予測に基づいて、セグメンテーションマスクを出力すること、および
    前記動物が存在すると予測された前記セグメンテーションマスクの部分を楕円に適合させて、前記あらかじめ決められた楕円パラメータを特徴付ける値を決定すること、
    を行うように構成されたエンコーダ-デコーダ・セグメンテーション・ネットワークである、請求項に記載のプログラム。
  11. 前記エンコーダ-デコーダ・セグメンテーション・ネットワークが、
    前記入力ビデオフレームを一組の小さな空間解像度の特徴へと抽象化するように構成された特徴エンコーダと、
    前記一組の特徴を前記入力ビデオフレームと同じ形状へと変換し、前記前景-背景セグメント化画像を出力するように構成された特徴デコーダと、
    前記動物の頭部が向いている角度を予測するように構成された角度予測器と、
    を備えた、請求項10に記載のプログラム。
  12. 前記ビニング分類ネットワークが、前記入力ビデオフレームを小さな空間解像度へと抽象化するように構成された特徴エンコーダを備え、前記抽象化が、前記ヒートマップを生成させるために利用される、請求項に記載のプログラム。
  13. 前記ニューラルネットワーク・アーキテクチャが、入力ビデオフレームから特徴を抽出し、前記楕円パラメータそれぞれを特徴付ける値を直接予測するように構成された回帰ネットワークを備えた、請求項に記載のプログラム。
  14. 前記動物が、齧歯動物である、請求項に記載のプログラム。
JP2020507071A 2017-08-07 2018-08-07 長期間の継続的な動物行動モニタリング Active JP7303793B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023102972A JP2023120383A (ja) 2017-08-07 2023-06-23 長期間の継続的な動物行動モニタリング

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762542180P 2017-08-07 2017-08-07
US62/542,180 2017-08-07
US201862661610P 2018-04-23 2018-04-23
US62/661,610 2018-04-23
PCT/US2018/045676 WO2019032622A1 (en) 2017-08-07 2018-08-07 BEHAVIORAL ANIMAL BEHAVIORAL SURVEILLANCE CONTINUES

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023102972A Division JP2023120383A (ja) 2017-08-07 2023-06-23 長期間の継続的な動物行動モニタリング

Publications (3)

Publication Number Publication Date
JP2020530626A JP2020530626A (ja) 2020-10-22
JP2020530626A5 JP2020530626A5 (ja) 2021-09-16
JP7303793B2 true JP7303793B2 (ja) 2023-07-05

Family

ID=65271742

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020507071A Active JP7303793B2 (ja) 2017-08-07 2018-08-07 長期間の継続的な動物行動モニタリング
JP2023102972A Pending JP2023120383A (ja) 2017-08-07 2023-06-23 長期間の継続的な動物行動モニタリング

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023102972A Pending JP2023120383A (ja) 2017-08-07 2023-06-23 長期間の継続的な動物行動モニタリング

Country Status (7)

Country Link
US (3) US11330804B2 (ja)
EP (1) EP3664601A4 (ja)
JP (2) JP7303793B2 (ja)
KR (1) KR20200038509A (ja)
CN (2) CN111225558B (ja)
CA (1) CA3071850A1 (ja)
WO (1) WO2019032622A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11373452B2 (en) * 2018-08-07 2022-06-28 Georgetown University Multidimensional analysis of gait in rodent
WO2020072918A1 (en) * 2018-10-05 2020-04-09 The Trustees Of Princeton University Automated system to measure multi-animal body part dynamics
CN109993076A (zh) * 2019-03-18 2019-07-09 华南理工大学 一种基于深度学习的白鼠行为分类方法
WO2020191312A1 (en) 2019-03-20 2020-09-24 The Uab Research Foundation Sensing and integrating data of environmental conditions in animal research
US20200383299A1 (en) * 2019-06-06 2020-12-10 Edgar Josue Bermudez Contreras Systems and methods of homecage monitoring
US20220343621A1 (en) * 2019-09-09 2022-10-27 The Johns Hopkins University Tracking system for identification of subjects
US11321927B1 (en) * 2019-09-23 2022-05-03 Apple Inc. Temporal segmentation
US11222198B2 (en) * 2019-11-21 2022-01-11 International Business Machines Corporation Video analysis system for optimizing an activity protocol
CN111539365B (zh) * 2020-04-29 2022-08-23 兰州大学 一种动物行为分析方法、装置及电子设备
CN111727905A (zh) * 2020-06-22 2020-10-02 安徽正华生物仪器设备有限公司 基于深度学习的大小鼠旷场实验自动化分析***和方法
CN112237156B (zh) * 2020-10-23 2022-07-22 宁波大学 一种小动物自主社交行为测试装置及实验方法
US11803988B2 (en) 2021-03-15 2023-10-31 Tencent America LLC Method and apparatus for adaptive image compression with flexible hyperprior model by meta learning
CN113095268B (zh) * 2021-04-22 2023-11-21 中德(珠海)人工智能研究院有限公司 一种基于视频流的机器人步态学习方法、***及存储介质
US20220365200A1 (en) * 2021-05-12 2022-11-17 California State University Fresno Foundation System and method for human and animal detection in low visibility
US11941080B2 (en) 2021-05-20 2024-03-26 Retrocausal, Inc. System and method for learning human activities from video demonstrations using video augmentation
CN113255514B (zh) * 2021-05-24 2023-04-07 西安理工大学 基于局部场景感知图卷积网络的行为识别方法
US11582464B2 (en) * 2021-06-23 2023-02-14 Microsoft Technology Licensing, Llc Using morphological operations to process frame masks in video content
CN113744352B (zh) * 2021-09-14 2022-07-29 北京观海科技发展有限责任公司 视觉空间标定方法、设备及存储介质
CN114532242B (zh) * 2022-02-16 2023-02-28 深圳市元疆科技有限公司 一种小型动物行为研究实验箱
CN114586689A (zh) * 2022-03-17 2022-06-07 贵州医科大学 智能裸鼠培养笼
CN114916452A (zh) * 2022-05-26 2022-08-19 浙江理工大学 Ivc环境参数对spf级实验动物热舒适影响测试装置
CN115024244B (zh) * 2022-06-17 2023-02-24 曲阜师范大学 一种基于红外旷场和Python分析的黑线仓鼠睡眠-觉醒检测***、方法与应用
KR102603396B1 (ko) 2022-08-12 2023-11-20 주식회사 아이트 인공지능을 이용한 영상 감시 기반 개체 인식 및 행동패턴 분석 방법 및 시스템
CN115238873B (zh) * 2022-09-22 2023-04-07 深圳市友杰智新科技有限公司 神经网络模型部署方法、装置、计算机设备
CN116091963B (zh) * 2022-12-22 2024-05-17 广州奥咨达医疗器械技术股份有限公司 临床试验机构质量评估方法、装置、电子设备及存储介质
KR102646871B1 (ko) * 2023-01-31 2024-03-13 한국축산데이터 주식회사 축사 감시 카메라를 이용한 환경 변화 탐지 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013170129A1 (en) 2012-05-10 2013-11-14 President And Fellows Of Harvard College A system and method for automatically discovering, characterizing, classifying and semi-automatically labeling animal behavior and quantitative phenotyping of behaviors in animals
US20160050888A1 (en) 2013-03-28 2016-02-25 Katholieke Universiteit Leuven Automated Monitoring of Animal Nutriment Ingestion
US20160150758A1 (en) 2013-06-28 2016-06-02 The United States Of America, As Represented By The Secretary, Dept. Of Health And Human Services Systems and methods of video monitoring for vivarium cages
US20170206426A1 (en) 2016-01-15 2017-07-20 Ford Global Technologies, Llc Pedestrian Detection With Saliency Maps

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5792597A (en) * 1991-02-28 1998-08-11 Fuji Photo Film Co., Ltd. Image forming method
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
JP3270005B2 (ja) * 1998-03-20 2002-04-02 勝義 川崎 実験動物の行動観察の自動化方法
US6644244B2 (en) * 2001-12-05 2003-11-11 University Of Florida Apparatus and methods for testing pain sensitivity
US8100552B2 (en) * 2002-07-12 2012-01-24 Yechezkal Evan Spero Multiple light-source illuminating system
SE530339C2 (sv) * 2006-07-13 2008-05-06 Delaval Holding Ab En apparat och förfarande för att igenkänna och bestämma en position
AU2008222933A1 (en) * 2007-03-02 2008-09-12 Organic Motion System and method for tracking three dimensional objects
US8411935B2 (en) 2007-07-11 2013-04-02 Behavioral Recognition Systems, Inc. Semantic representation module of a machine-learning engine in a video analysis system
CN201097536Y (zh) 2007-12-10 2008-08-13 东北农业大学 小鼠行为不间断观察监控***
KR101555891B1 (ko) * 2008-01-17 2015-09-30 코닌클리케 필립스 엔.브이. 조명 장치
EP2235602A4 (en) 2008-01-23 2018-03-28 The Regents of The University of California Systems and methods for behavioral monitoring and calibration
CN100583128C (zh) 2008-06-12 2010-01-20 浙江大学 基于自然视频的实时智能监控方法
GB2475432B (en) 2008-09-08 2013-01-23 Ned M Ahdoot Digital video filter and image processing
US9215467B2 (en) 2008-11-17 2015-12-15 Checkvideo Llc Analytics-modulated coding of surveillance video
FR2948738A1 (fr) * 2009-07-31 2011-02-04 Guerletub Systeme d'accrochage entre un premier element tubulaire s'etendant verticalement et au moins un deuxieme element tubulaire ou structurel s'etendant perpendiculairement au premier
KR101683291B1 (ko) * 2010-05-14 2016-12-06 엘지전자 주식회사 디스플레이 장치 및 그의 제어 방법
WO2012143854A1 (en) * 2011-04-18 2012-10-26 Université De Genève In vivo bioluminescence monitoring apparatus
US9235990B2 (en) 2011-11-25 2016-01-12 Honda Motor Co., Ltd. Vehicle periphery monitoring device
US9055733B2 (en) * 2012-04-25 2015-06-16 II Johnny Jones Animal tracking system
US9195903B2 (en) 2014-04-29 2015-11-24 International Business Machines Corporation Extracting salient features from video using a neurosynaptic system
EP2957861A1 (en) * 2014-06-17 2015-12-23 Expert Ymaging, SL Device and method for automated parameters calculation of an object
US9870617B2 (en) 2014-09-19 2018-01-16 Brain Corporation Apparatus and methods for saliency detection based on color occurrence analysis
US20160178228A1 (en) * 2014-12-19 2016-06-23 Zan Compute Inc. Smart air duct cover
US11080587B2 (en) 2015-02-06 2021-08-03 Deepmind Technologies Limited Recurrent neural networks for data item generation
US10176435B1 (en) * 2015-08-01 2019-01-08 Shyam Sundar Sarkar Method and apparatus for combining techniques of calculus, statistics and data normalization in machine learning for analyzing large volumes of data
US10152649B2 (en) * 2015-12-01 2018-12-11 Mobileye Vision Technologies Ltd. Detecting visual information corresponding to an animal
WO2017147442A1 (en) * 2016-02-25 2017-08-31 VitalMetric, LLC Environmental control for enclosures based on touch-less monitoring of animals
US10810491B1 (en) * 2016-03-18 2020-10-20 Amazon Technologies, Inc. Real-time visualization of machine learning models
US10398316B1 (en) * 2016-09-30 2019-09-03 Vium, Inc. Method and apparatus for determining physiological characteristics of experimental animals based upon infrared and visible light images
CN108065938A (zh) * 2016-11-17 2018-05-25 南京国雅信息科技有限公司 动物活动监测***以及基于神经网络的活动状态识别方法
CN108064745A (zh) * 2016-11-17 2018-05-25 南京国雅信息科技有限公司 动物嚎叫监测***以及基于机器学习的嚎叫状态识别方法
CN106845411B (zh) 2017-01-19 2020-06-30 清华大学 一种基于深度学习和概率图模型的视频描述生成方法
US11553687B2 (en) * 2017-05-12 2023-01-17 Children's Medical Center Corporation Devices for analyzing animal behavior
CN109871911A (zh) * 2017-12-04 2019-06-11 昊翔电能运动科技(昆山)有限公司 无人机监测动物健康的方法和监测动物健康的无人机

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013170129A1 (en) 2012-05-10 2013-11-14 President And Fellows Of Harvard College A system and method for automatically discovering, characterizing, classifying and semi-automatically labeling animal behavior and quantitative phenotyping of behaviors in animals
US20160050888A1 (en) 2013-03-28 2016-02-25 Katholieke Universiteit Leuven Automated Monitoring of Animal Nutriment Ingestion
US20160150758A1 (en) 2013-06-28 2016-06-02 The United States Of America, As Represented By The Secretary, Dept. Of Health And Human Services Systems and methods of video monitoring for vivarium cages
US20170206426A1 (en) 2016-01-15 2017-07-20 Ford Global Technologies, Llc Pedestrian Detection With Saliency Maps

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Zirong Wang, et al.,Behavior classification and image processing for biorobot-rat interaction,2017 7th IEEE International Conference on Electronics Information and Emergency Communication (ICEIEC),2017年07月23日,https://ieeexplore.ieee.org/document/8076631

Also Published As

Publication number Publication date
JP2023120383A (ja) 2023-08-29
KR20200038509A (ko) 2020-04-13
EP3664601A1 (en) 2020-06-17
US11330804B2 (en) 2022-05-17
CN111225558A (zh) 2020-06-02
CN111225558B (zh) 2023-08-11
CN116918718A (zh) 2023-10-24
WO2019032622A9 (en) 2019-04-04
WO2019032622A1 (en) 2019-02-14
CA3071850A1 (en) 2019-02-14
US11798167B2 (en) 2023-10-24
US20220248642A1 (en) 2022-08-11
US20230419498A1 (en) 2023-12-28
EP3664601A4 (en) 2021-04-28
JP2020530626A (ja) 2020-10-22
US20200337272A1 (en) 2020-10-29

Similar Documents

Publication Publication Date Title
JP7303793B2 (ja) 長期間の継続的な動物行動モニタリング
Segalin et al. The Mouse Action Recognition System (MARS) software pipeline for automated analysis of social behaviors in mice
Pereira et al. SLEAP: A deep learning system for multi-animal pose tracking
Zhang et al. Automatic individual pig detection and tracking in pig farms
Singh et al. Low-cost solution for rodent home-cage behaviour monitoring
Geuther et al. Robust mouse tracking in complex environments using neural networks
Swierczek et al. High-throughput behavioral analysis in C. elegans
Weissbrod et al. Automated long-term tracking and social behavioural phenotyping of animal colonies within a semi-natural environment
Jhuang et al. Automated home-cage behavioural phenotyping of mice
De Chaumont et al. Computerized video analysis of social interactions in mice
Wario et al. Automatic detection and decoding of honey bee waggle dances
US20140167958A1 (en) Method for automatic behavioral phenotyping
Aguzzi et al. A novel morphometry-based protocol of automated video-image analysis for species recognition and activity rhythms monitoring in deep-sea fauna
Luxem et al. Open-source tools for behavioral video analysis: Setup, methods, and best practices
Grover et al. O fly, where art thou?
Ha et al. TensorMoG: A tensor-driven gaussian mixture model with dynamic scene adaptation for background modelling
Chen et al. A review of posture detection methods for pigs using deep learning
Sehara et al. Fast, flexible closed-loop feedback: tracking movement in “real-millisecond-time”
Perivolioti et al. Optimising the workflow for fish detection in DIDSON (dual-frequency identification sonar) data with the use of optical flow and a genetic algorithm
Kim et al. AVATAR: ai vision analysis for three-dimensional action in real-time
Han et al. Social Behavior Atlas: A computational framework for tracking and mapping 3D close interactions of free-moving animals
Sun et al. Real-Time Recognition and Detection of Bactrocera minax (Diptera: Trypetidae) Grooming Behavior Using Body Region Localization and Improved C3D Network
Bhavani Automated Attendance System and Voice Assistance using Face Recognition
Li et al. Research on Tracking and Identification of Typical Protective Behavior of Cows Based on DeepLabCut
Wei et al. Social Behavior Atlas: A few-shot learning framework for multi-animal 3D social pose estimation, identification, and behavior embedding

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210804

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220909

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230623

R150 Certificate of patent or registration of utility model

Ref document number: 7303793

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150