JP7303793B2 - 長期間の継続的な動物行動モニタリング - Google Patents
長期間の継続的な動物行動モニタリング Download PDFInfo
- Publication number
- JP7303793B2 JP7303793B2 JP2020507071A JP2020507071A JP7303793B2 JP 7303793 B2 JP7303793 B2 JP 7303793B2 JP 2020507071 A JP2020507071 A JP 2020507071A JP 2020507071 A JP2020507071 A JP 2020507071A JP 7303793 B2 JP7303793 B2 JP 7303793B2
- Authority
- JP
- Japan
- Prior art keywords
- animal
- ellipse
- neural network
- input video
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 241001465754 Metazoa Species 0.000 title claims description 139
- 238000012544 monitoring process Methods 0.000 title description 20
- 230000007774 longterm Effects 0.000 title description 13
- 238000000034 method Methods 0.000 claims description 110
- 230000011218 segmentation Effects 0.000 claims description 68
- 238000013528 artificial neural network Methods 0.000 claims description 67
- 238000013500 data storage Methods 0.000 claims description 14
- 241000283984 Rodentia Species 0.000 claims description 6
- 241000699666 Mus <mouse, genus> Species 0.000 description 79
- 238000012549 training Methods 0.000 description 78
- 241000699670 Mus sp. Species 0.000 description 51
- 230000008569 process Effects 0.000 description 33
- 238000005286 illumination Methods 0.000 description 32
- 230000007613 environmental effect Effects 0.000 description 26
- 238000010200 validation analysis Methods 0.000 description 23
- 230000006399 behavior Effects 0.000 description 22
- 238000007906 compression Methods 0.000 description 22
- 230000006835 compression Effects 0.000 description 22
- 238000004891 communication Methods 0.000 description 21
- 230000006854 communication Effects 0.000 description 21
- 230000003542 behavioural effect Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 18
- 238000012360 testing method Methods 0.000 description 17
- 230000033001 locomotion Effects 0.000 description 15
- 238000004422 calculation algorithm Methods 0.000 description 13
- 238000002474 experimental method Methods 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 10
- 235000013305 food Nutrition 0.000 description 10
- 210000003128 head Anatomy 0.000 description 10
- 238000003860 storage Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000002372 labelling Methods 0.000 description 9
- 239000000523 sample Substances 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 9
- 239000003086 colorant Substances 0.000 description 8
- 238000001514 detection method Methods 0.000 description 8
- 239000000243 solution Substances 0.000 description 8
- 229930040373 Paraformaldehyde Natural products 0.000 description 7
- 238000013459 approach Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 7
- 239000000463 material Substances 0.000 description 7
- 229920006324 polyoxymethylene Polymers 0.000 description 7
- 230000036544 posture Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 238000001994 activation Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 239000004800 polyvinyl chloride Substances 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 238000002604 ultrasonography Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000003556 assay Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000013480 data collection Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000005021 gait Effects 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 229920003023 plastic Polymers 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 206010002091 Anaesthesia Diseases 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000032683 aging Effects 0.000 description 3
- 230000037005 anaesthesia Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000002060 circadian Effects 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 3
- 238000013144 data compression Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 210000001331 nose Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004033 plastic Substances 0.000 description 3
- -1 polyoxymethylene Polymers 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000011410 subtraction method Methods 0.000 description 3
- 108010072151 Agouti Signaling Protein Proteins 0.000 description 2
- 102000006822 Agouti Signaling Protein Human genes 0.000 description 2
- 241000484025 Cuniculus Species 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000000975 dye Substances 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000021824 exploration behavior Effects 0.000 description 2
- 239000006260 foam Substances 0.000 description 2
- 230000003370 grooming effect Effects 0.000 description 2
- 230000037308 hair color Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 230000027939 micturition Effects 0.000 description 2
- 230000003278 mimic effect Effects 0.000 description 2
- 239000004417 polycarbonate Substances 0.000 description 2
- 229920000515 polycarbonate Polymers 0.000 description 2
- 229920000915 polyvinyl chloride Polymers 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000007958 sleep Effects 0.000 description 2
- 230000035882 stress Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 241001596209 Apiocera arena Species 0.000 description 1
- 241001504564 Boops boops Species 0.000 description 1
- 101100476202 Caenorhabditis elegans mog-2 gene Proteins 0.000 description 1
- 208000019888 Circadian rhythm sleep disease Diseases 0.000 description 1
- 229920004943 Delrin® Polymers 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241000581650 Ivesia Species 0.000 description 1
- 208000001456 Jet Lag Syndrome Diseases 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000016571 aggressive behavior Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000004323 axial length Effects 0.000 description 1
- 239000007844 bleaching agent Substances 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000009395 breeding Methods 0.000 description 1
- 230000001488 breeding effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012669 compression test Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 235000005911 diet Nutrition 0.000 description 1
- 230000037213 diet Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 208000016097 disease of metabolism Diseases 0.000 description 1
- 238000007876 drug discovery Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000000118 hair dye Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 208000033915 jet lag type circadian rhythm sleep disease Diseases 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 238000011813 knockout mouse model Methods 0.000 description 1
- 238000011173 large scale experimental method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006742 locomotor activity Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 208000030159 metabolic disease Diseases 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 108700039855 mouse a Proteins 0.000 description 1
- 230000003387 muscular Effects 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 230000000926 neurological effect Effects 0.000 description 1
- 239000002547 new drug Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000011580 nude mouse model Methods 0.000 description 1
- 235000015097 nutrients Nutrition 0.000 description 1
- 238000013116 obese mouse model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000135 prohibitive effect Effects 0.000 description 1
- 208000020016 psychiatric disease Diseases 0.000 description 1
- 238000006862 quantum yield reaction Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000014616 translation Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 238000012559 user support system Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 239000012224 working solution Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K1/00—Housing animals; Equipment therefor
- A01K1/02—Pigsties; Dog-kennels; Rabbit-hutches or the like
- A01K1/03—Housing for domestic or laboratory animals
- A01K1/031—Cages for laboratory animals; Cages for measuring metabolism of animals
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K29/00—Other apparatus for animal husbandry
- A01K29/005—Monitoring or measuring activity, e.g. detecting heat or mating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Environmental Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Biodiversity & Conservation Biology (AREA)
- Animal Husbandry (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Zoology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Clinical Laboratory Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
- Housing For Livestock And Birds (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
[0018]一実施形態においては、動物追跡のシステムが提供される。このシステムは、動物の観察を表すビデオデータを維持するデータ記憶装置を備え得る。また、このシステムは、データ記憶装置からビデオデータを受信すること、およびニューラルネットワーク・アーキテクチャを実装することを行うように構成されたプロセッサを備え得る。ニューラルネットワーク・アーキテクチャは、ビデオデータから抽出された入力ビデオフレームを受信すること、ビデオフレームに基づいて、少なくとも1匹の動物の楕円記述を生成すること、楕円記述はあらかじめ決められた楕円パラメータにより規定される、および少なくとも1匹の動物について、あらかじめ決められた楕円パラメータを特徴付ける値を含むデータを提供すること、を行うように構成され得る。
[0026]一実施形態においては、命令を格納した非一時的コンピュータプログラム製品が提供される。命令は、少なくとも1つのコンピューティングシステムの少なくとも1つのデータプロセッサにより実行されたときに、動物の観察を表すビデオデータを受信するステップと、ニューラルネットワーク・アーキテクチャを実行するステップと、を含む方法を実行し得る。ニューラルネットワーク・アーキテクチャは、ビデオデータから抽出された入力ビデオフレームを受信すること、入力ビデオフレームに基づいて、少なくとも1匹の動物の楕円記述を生成すること、楕円記述はあらかじめ決められた楕円パラメータにより規定される、および少なくとも1匹の動物について、あらかじめ決められた楕円パラメータを特徴付ける値を含むデータを提供すること、を行うように構成され得る。
[0034]一実施形態においては、システムが提供され、このシステムは、アリーナおよび取得システムを備え得る。アリーナは、フレームと、フレームに取り付けられ筐体と、を含み得る。筐体は、動物を収容するように寸法規定され、内部へのアクセスを許容するように構成されたドアを含み得る。取得システムは、カメラ、少なくとも二組の光源、コントローラ、およびデータ記憶装置を含み得る。各組の光源は、互いに異なる波長で、筐体に入射する光を放射するように構成され得る。カメラは、複数組の光源のうちの少なくとも1つにより照射されたときに、筐体の少なくとも一部のビデオデータを取得するように構成され得る。コントローラは、カメラおよび複数組の光源と電気的に連通し得る。コントローラは、カメラによるビデオデータの取得および複数組の光源による光の放射を制御するように動作する制御信号を生成すること、およびカメラにより取得されたビデオデータを受信すること、を行うように構成され得る。データ記憶装置は、コントローラと電気的に連通し、コントローラから受信されたビデオデータを格納するように構成され得る。
[0036]このシステムの別の実施形態においては、筐体の少なくとも一部が可視光波長に対して略不透明な材料で形成され得る。
[0038]このシステムの別の実施形態においては、筐体の少なくとも一部がポリ塩化ビニル(PVC)またはポリオキシメチレン(POM)のシートで形成され得る。
[0041]このシステムの別の実施形態において、カメラは、少なくとも480×480画素の解像度でビデオデータを取得するように構成され得る。
[0043]このシステムの別の実施形態において、カメラは、少なくとも29フレーム/秒(fps)のフレームレートでビデオデータを取得するように構成され得る。
[0045]このシステムの別の実施形態において、カメラは、赤外波長でビデオデータを取得するように構成され得る。
[0047]このシステムの別の実施形態において、コントローラは、分散ベースの背景減算を採用したフィルタを含むMPEG4コーデック用いて、カメラから受信されたビデオデータを圧縮するように構成され得る。
[0049]このシステムの別の実施形態において、コントローラは、明暗サイクルを模擬するスケジュールに従って筐体を照射するよう第1の光源に要求するように構成され得る。
[0055]この方法の別の実施形態においては、筐体の少なくとも一部が可視光波長に対して略不透明な材料で形成され得る。
[0057]この方法の別の実施形態においては、筐体の少なくとも一部がポリ塩化ビニル(PVC)またはポリオキシメチレン(POM)のシートで形成され得る。
[0060]この方法の別の実施形態において、カメラは、少なくとも480×480画素の解像度でビデオデータを取得するように構成され得る。
[0062]この方法の別の実施形態において、カメラは、少なくとも29フレーム/秒(fps)のフレームレートでビデオデータを取得するように構成され得る。
[0064]この方法の別の実施形態において、カメラは、赤外波長でビデオデータを取得するように構成され得る。
[0066]この方法の別の実施形態において、コントローラは、分散ベースの背景減算を採用したフィルタを含むMPEG4コーデック用いて、カメラから受信されたビデオデータを圧縮するように構成され得る。
[0068]この方法の別の実施形態において、コントローラは、明暗サイクルを模擬するスケジュールに従って筐体を照射するよう第1の光源に要求するように構成され得る。
[00110]一実施形態においては、動物の動きを含むビデオデータを捕捉するシステムおよび方法が提供される。以下に論じられる通り、ビデオデータは、あらかじめ決められた期間(たとえば、1分または複数分、1時間または複数時間、1日または複数日、1週間または複数週間、1カ月または複数カ月、1年または複数年等)にわたって継続的に取得され得る。ビデオデータの特性としては、行動パターンの抽出のための後続の解析を容易化するのに十分なものが可能であり、解像度、フレームレート、およびビット深度のうちの1つまたは複数が挙げられるが、これらに限定されない。実用的なソリューションが提供されており、既存のビデオ捕捉システムよりも堅牢かつ高品質と見られる。本開示の実施形態は、マウスを視覚的にマーキングする複数の方法でテストされる。また、ビデオおよび超音波発声データの同期取得の実用例も提示される。
[00112]高品質な行動データの取得には、適正なアリーナ設計が重要となり得る。このアリーナは、動物の「住居」であり、環境外乱からの分離、適正な概日照明、餌、水、寝床のうちの1つまたは複数を提供するように構成され得る。また、一般的にはストレスのない環境である。
[00114]飼育の観点から、アリーナは、清掃、追加または削除、マウスの取り出し、餌および水の追加および除去を容易化するのが望ましいはずである。
[00124]特定の実施形態においては、筐体204(たとえば、筐体204の下部)を構成する材料の少なくとも一部が可視光波長に対して実質的に不透明となり得る。このように、照明212以外の光源により放射される可視光のほか、筐体204内の動物が観察可能な視覚的刺激(たとえば、物体および/またはユーザの動き)が抑制および/または実質的に除去され得る。付加的な実施形態において、筐体204を構成する材料は、ビデオデータの取得を容易化するため、赤外波長に対して略無反射となり得る。筐体204の壁の厚さは、機械的支持を与えるのに適した範囲内(たとえば、およそ0.3175cm(1/8インチ)~およそ0.635cm(1/4インチ))で選択され得る。
[00127]ビデオ取得システムは、カメラ210、照明212、ユーザインターフェース214、コントローラ216、およびデータ記憶装置220を具備し得る。ビデオ取得システムは、性能特性のあらかじめ決められたバランスを有するように採用され得る。性能特性としては、ビデオ取得のフレームレート、ビット深度、各フレームの解像度、および赤外領域内のスペクトル感度のほか、ビデオ圧縮および格納のうちの1つまたは複数が挙げられるが、これらに限定されない。以下に論じられる通り、これらのパラメータは、データの品質を最大化するとともに量を最小化するように最適化され得る。
[00130]別の実施形態において、ビデオ取得システムは、取得ビデオデータの解像度を約2倍(たとえば、およそ960×960画素)にするように構成され得る。以下に示されるように、Sentech USBよりも高い解像度を有する4つの別のカメラが調査された。
[00132]ビデオ取得システムの実施形態は、モノクロ、およそ30fps、およびおよそ8ビット深度のビデオデータを収集するように構成され得る。シャノン-ナイキストの定理によれば、フレームレートは、関心イベントの頻度の少なくとも2倍とすべきである(たとえば、Shannon(1994)参照)。マウスの行動は、毛繕いの場合の数ヘルツから素早い動きの場合の20ヘルツまで変動し得る(たとえば、Deschenes et al.(2012)、Kalueff et al.(2010)、Wiltschko et al.(2015)参照)。毛繕いは、最大およそ7Hzでの発生が観察されているため、ほとんどのマウスの行動を観察するには、マウスの動きの頻度よりも高いフレームレート(たとえば、およそ29fps)でビデオを記録するのが適切と考えられる。ただし、カメラは、IR領域では急速に感度を失い得る。このコントラストの損失は、IR光のレベルの増大により克服され得るが、IR光の強度を高くすると、環境温度が上昇する可能性がある。
[00133]上述の通り、照明212は、可視白色光および赤外光等、1つまたは複数の種類の光を放射するように構成され得る。可視光が照射に採用され、明暗サイクルおよび調整可能な強度を提供するように(たとえば、コントローラ216によって)プログラムされ得る。照明サイクルを調節できることは、動物が野生で浴びる太陽からの光の模擬を可能にする。明暗期間の長さは、季節を模擬するように調整され、時差ぼけ(概日相前進および後退)実験を模擬するように照明シフトが実行され得る。また、特定の動物の不安を引き起こすのに高輝度照明が採用され、異なる探索行動を引き出すのに低輝度照明が採用され得る。このように、明暗の長さおよび光強度を時間的に制御できることは、適正な行動実験に不可欠である。
[00140]上述の通り、任意選択として、ビデオデータ取得中に略すべての可視光がカメラ210に達しないようにするため、IRロングパスフィルタが採用され得る。一例としては、物理的なIRロングパスフィルタがカメラ110とともに採用され得る。この構成は、アリーナ200の明暗相に関わらず、実質的に均一な照明を提供し得る。
[00142]一実施形態において、カメラレンズとしては、0.847cm(1/3”)、3.5-8mm、f1.4(CSマウント)が可能である。このレンズは、図3Aおよび図3Bに見られる画像を生成し得る。Cマウントレンズの類似レンズも採用され得る。
[00143]圧縮を無視すれば、カメラ210によって、およそ1MB/フレーム、およそ30MB/秒、およそ108GB/時、およそ2.6TB/日というレートで生のビデオデータが生成され得る。格納方法を選択する場合は、多様な目的が考えられる。ビデオの状況に応じて、長期格納の前にビデオの特定要素を除去するのが有益な選択肢となり得る。また、長期格納を考える場合は、フィルタまたは(たとえば、コントローラ216による)他の形態の処理の適用が望ましいはずである。ただし、処理方法が後で変更される場合は、元のビデオデータすなわち生のビデオデータを保存するのが有益なソリューションとなり得る。ビデオ圧縮テストの一例が以下で説明される。
[00153]マウスは、超音波領域での発声によって、社会的コミュニケーション、交配、攻撃、および飼育を行い得る(たとえば、Grimsley et al.(2011)参照)。嗅覚および触覚の刺激と併せて、この発声は、マウスのコミュニケーションの最も顕著な形態のうちの1つとなり得る。マウスではテストされていないものの、人間の場合、声および発声の変化(加齢)は、思春期および老化等の遷移を規定し得る(たとえば、Decoster and Debruyne(1997)、Martins et al.(2014)、Mueller(1997)参照)。
[00156]一実施形態において、アリーナ200は、温度、湿度、および/または光強度(たとえば、可視および/またはIR)等の1つまたは複数の環境パラメータを測定するように構成された1つまたは複数の環境センサー224をさらに具備し得る。特定の実施形態において、環境センサー224は、統合されて、2つ以上の環境パラメータを測定するように構成され得る(たとえば、Phenome Technologies、Skokie、IL参照)。環境センサー224は、コントローラ216と電気的に連通して、光レベルとともに日々の温度および湿度データを収集可能である。収集された環境データは、最低および最高温度のほか、照明状態を示すユーザインターフェースにおける表示のため、出力され得る(以下の制御ソフトウェアに関する記述参照)。
[00157]データ取得および光制御のため、コントローラ216によりソフトウェア制御システムが実行され得る。ソフトウェア制御システムは、対応するタイムスタンプとともに、ビデオ、オーディオ/超音波、および環境データを独立して収集できるように構成され得る。このように、あらかじめ決められた任意の期間(たとえば、1秒または複数秒、1分または複数分、1時間または複数時間、1日または複数日、1年または複数年等)にわたって中断なく、データが収集され得る。これは、取得ビデオ、オーディオ/超音波、および/または環境データの後々の編集または同期による解析または提示を可能とし得る。
[00158]オペレーティングシステムの選定は、さまざまなセンサーのドライバの可用性により推進され得る。たとえば、Avisoft UltrasonicマイクドライバのみがWindowsオペレーティングシステムと互換性を有する。ただし、この選定は、以下に影響を及ぼす可能性がある。
ハードウェアの選択肢
[00159]特定の実施形態において、制御システムは、シングルボードコンピュータの形態でコントローラ216により実装され得る。継続運用に対して高堅牢な軍用規格/産業用コンピュータ等、複数の選択肢が利用可能である。
[00160]外部クロックをシステムに導入することなく、システムクロックから、適切な実時間クロック値を利用可能である。ポジックスシステムにおいては、clock_gettime(CLOCK_MONOTONIC、・・・)関数が秒およびナノ秒を返し得る。クロックの分解能は、clock_getres()関数で問い合わせ可能である。制御システムの実施形態のクロック分解能は、およそ33ミリ秒のフレーム期間よりも小さいことが望ましいはずである。一実施形態において、システムクロックは、Unixシステムである。
mach_timespec_t mts;
host_get_clock_service(mach_host_self(),SYSTEM_CLOCK,&cclock);
clock_get_time(cclock,&mts);
[00163]如何なるOSにおいても、時刻を返すシステムコールは、調整が周期的になされると、後ろに移動する場合があり得る。一実施形態においては、単調増加するシステムクロックが採用され得る。GetTickCount64()、clock_gettime()、およびclock_get_time()はすべて、この基準を満たし得る。
[00164]カメラ供給業者のソフトウェアは、妥当なサイズへと自動的に分割された適切なタイムスタンプの出力ファイルを保存するとは考えにくい。コントローラ116の実施形態では、中断なくビデオデータを収集し、カメラ110から各フレームを読み出して、単純な形態で収集ビデオデータを提供するのが望ましい。たとえば、コントローラ116は、タイムスタンプヘッダまたはフレーム間のタイムスタンプとともに、生のフォーマットで、1ファイル当たりおよそ10分間のビデオフレームをデータ記憶装置120に与えるように構成され得る。そして、各ファイルは、2GBを下回ることになる。
[00165]図7は、取得システム700の構成要素を示したブロック図である。特定の実施形態において、取得システム700は、コントローラ216により実行され得る。各ブロックは、実行の別個のプロセスまたはスレッドを表す。
コントローラプロセス
[00166]制御プロセスは、他のプロセスまたはスレッドを開始および停止するように構成され得る。また、制御プロセスは、取得システム700のユーザインターフェースを提供するように構成され得る。制御プロセスは、活動のログを保存するように構成され、また、取得中に発生するエラーを(たとえば、ログに)記録し得る。また、制御プロセスは、休止となったプロセスまたはスレッドを再開させるように構成され得る。
[00168]ビデオ取得プロセスは、カメラ210と直接通信して、タイムスタンプされたフレームをデータ記憶装置220に保存するように構成され得る。ビデオ取得プロセスは、高優先度で動作することにより、フレーム落ちの可能性を最小限に抑え得る。ビデオ取得プロセスは、フレーム間の処理を最小限に抑えることで、比較的単純に保たれ得る。また、ビデオ取得プロセスは、照明212により放射されるIR照射を制御することによって、最小限の有効シャッター速度で適正な露光を保証するように構成され得る。
[00169]別個のオーディオ取得プロセスは、適当なタイムスタンとともに超音波オーディオデータを取得するように構成され得る。一実施形態において、オーディオシステムは、筐体204とオーディオ連通して配置されたマイク222のアレイを具備し得る。特定の実施形態においては、マイク222のうちの1つまたは複数が筐体204内に位置決めされ得る。マイクアレイの各マイクは、およそ500kHzのサンプリング周波数、およそ16ビットのADC分解能、およそ10kHz~およそ20kHzの周波数範囲、および8次で210kHzのアンチエイリアシングフィルタといった性能のうちの1つまたは複数を有し得る。一例として、マイクアレイの各マイクは、Pettersson M500マイク(Pettersson Elektronik AB、Uppsala、Sweden)またはその機能的同等物を含み得る。上述の通り、マイク222により捕捉されたオーディオデータは、タイムスタンプされ、解析のためのコントローラ216への提供および/または格納のためのデータ記憶装置220への提供がなされ得る。
[00170]別個の環境データ取得プロセスは、温度、湿度、および光レベル等の環境データを収集するように構成され得る。環境データは、低周波数(たとえば、およそ0.01Hz~0.1Hz)で収集され得る。環境データは、データ記憶装置220により、レコードごとにタイムスタンプを伴って(たとえば、1つまたは複数のCSVファイルとして)格納され得る。
[00171]照明制御プロセスは、マウスに昼夜サイクルを与えるため、照明212により放射された可視光を制御するように構成され得る。一実施形態においては、上述の通り、カメラ210が実質的にすべての可視光を取り除いてIRのみに応答するように構成され、IRが生じないように可視光がフィルタリングされ得るため、このプロセスは、ビデオ捕捉に対する影響を回避可能である。
[00172]ビデオ編集プロセスは、取得ビデオデータをあらかじめ決められた圧縮であらかじめ決められたフォーマットへと再パッケージングするように構成され得る。このプロセスは、フレーム落ちの機会を最小限に抑えるため、ビデオ取得から分離させておくことができる。ビデオ編集プロセスは、低優先度の背景タスクとしての動作あるいはデータ取得完了後の動作が可能である。
[00173]ウォッチドッグプロセスは、データ取得プロセスの健全性をモニタリングするように構成され得る。一例として、問題を(たとえば、ログに)記録し、必要に応じて再開をもたらし得る。また、ウォッチドッグプロセスは、監視している構成要素からの「鼓動」を聴くことができる。一般的に、鼓動としては、コントローラ216に送信され、システム700の構成要素が正常に動作していることを確認する信号が可能である。一例として、システム700の構成要素が機能を停止した場合は、コントローラ216によって、この構成要素から鼓動が送信されないことが検出され得る。この検出の後、コントローラ216は、イベントを記録し、警報を発することができる。このような警報としては、オーディオアラームおよび視覚的アラーム(たとえば、光、英数字表示等)が挙げられるが、これらに限定されない。このようなアラームの代替または追加として、コントローラ216は、再初期設定信号の送信または電源の切り替え等、構成要素の動作を再開しようとし得る。システム700の構成要素とコントローラ216との間の通信の方法は、OSの選定に応じて変化し得る。
[00174]特定の実施形態においては、追跡を容易化するため、マウスがマーキングされ得る。ただし、以下により詳しく論じられる通り、マーキングが省略され、他の技術により追跡が容易化され得る。
[00178]別の実施形態においては、マーキングの一形態としてマウスの背中にパターンを生成するため、剃毛が採用され得る。
[00179]開発段階においては、合計で2TB未満のデータが必要とされ得る。これらのデータには、さまざまなカメラおよび圧縮方法によるサンプルの生のビデオおよび圧縮ビデオを含み得る。したがって、統合USV・ビデオデータのほか、負荷テスト中の長期7~10日間ものビデオデータのデータ転送が実現され得る。ビデオのサイズは、選定された圧縮規格に従って低減され得る。サンプルのデータストレージ推定値が以下に与えられる。
テスト:
1つのアリーナ
最大5つのカメラ
ビデオの継続時間:それぞれ約1~2時間
合計約10GB(上限)
負荷テスト:
1つのアリーナ
1つのカメラ
ビデオの継続時間:14日
解像度:現行の2倍(960×960)
合計約2TB
生産:
120回の合計実行(12~16個のアリーナ、グループ実行当たり80匹の動物、交互の実験)
継続時間(各):7日
解像度:現行の2倍(960×960)
32.25TB
II.動物追跡
[00180]マウス等の動物のビデオ追跡は、高レベルのユーザ関与がなければ、複雑かつ動的な環境においても、既存の動物モニタリングシステムにおける遺伝子学的に異種の動物に対しても実行し得ず、大規模な実験が実現不可能となる。後述の通り、既存のシステムおよび方法を用いることにより複数の環境において多数の異なるマウス系統を追跡しようとすれば、これらのシステムおよび方法が大規模な実験のデータセットに対して不適切であることが明らかとなる。
ニューラルネットワーク・アーキテクチャ
[00197]視覚的追跡の問題を解決する3つの主要なネットワーク・アーキテクチャが開発された。一実施形態においては、図8Cに示されるように、セグメンテーションマスクに基づいて、物体追跡がマウスの楕円記述の形態を取り得る(Branson(2005)参照)。代替実施形態においては、楕円以外の形状が採用され得る。
[00227]ネットワーク・アーキテクチャをテストするため、後述の通り、OpenCVベースのラベリングインターフェースを用いて、複数の系統および環境にまたがる16,234個のトレーニング画像および568個の別個の検証画像から成るトレーニングデータセットが生成された。このラベリングインターフェースは、前景および背景の高速ラベリングのほか、楕円フィッティングを可能にするものであり、トレーニングデータを直ちに生成して、転移学習により任意のネットワークを新たな実験条件に適応させるのに用いられ得る。
a)トレーニングデータセットの拡張
[00235]このトレーニングデータセットは、反射を適用することによって、トレーニング中に8倍に拡張され、コントラスト、輝度、回転の小さなランダム変化の適用により、入力データのわずかな変動に対してネットワークを堅牢化させた。この拡張は、ニューラルネットワークによるトレーニングデータセットの記憶を阻止するために実行される。データセットが記憶されると、データセットに含まれない例(検証)に対して十分に機能しなくなる。別途詳細については、Krizhevsky(2012)に見られる。
[00237]トレーニングの学習レートおよびバッチサイズは、ネットワークトレーニングごとに独立して選択された。Resnet V2 200等の大規模ネットワークは、480×480の入力サイズにおいてバッチサイズのメモリ制約に陥り得るが、グリッド探索手法を用いて、良好な学習レートおよびバッチサイズが実験的に識別された。これらのネットワークのトレーニング用に選択されたハイパーパラメータは、上の表3に示される。
[00238]Tensorflow v1.0において、モデルの構築、トレーニング、およびテストが行われた。提示されたトレーニングベンチマークは、NVIDIA(登録商標)Tesla(登録商標)P100 GPUアーキテクチャ上で実行された。
a)オープンフィールドアリーナ
[00247]アリーナ200の一実施形態がオープンフィールドアリーナとして採用された。オープンフィールドアリーナは、52cm×52cmである。床は白色のPVCプラスチックであり、壁は灰色のPVCプラスチックである。清掃保守に役立つように、白色2.54cmの面がすべての内側縁部に追加された。LED照明リング(モデルF&V R300)によって照射が与えられる。照明リングは、各アリーナに600luxの光を生じるように校正された。
[00248]オープンフィールドアリーナは、数日間のテスト用に拡張された。照明212は、標準的な12:12LDサイクルに設定された天井LED照明の形態である。αドライが寝床としてアリーナに配置された。餌および水を提供するため、単一のDiet Gel 76A餌入れがアリーナに配置された。この栄養源はモニタリングされ、無くなった場合に交換された。各マトリクスは、日中は250luxで照射され、夜間はおよそ500lux未満で照射された。夜間のビデオ記録のため、照明212は、IR LED(940nm)照明を含むものとした。
[00249]カスタムアリーナのほか、開示のシステムおよび方法の実施形態は、市販のシステムに対してもベンチマークが行われた。透明なプラスチック壁を用いることにより、Opto-M4オープンフィールドケージが構成される。このため、結果としての反射により、視覚的追跡は非常に困難である。ケージは、42cm×42cmである。このアリーナの照明は、100~200luxのLED照射によって行われるものとした。
[00250]すべてのビデオデータは、図2および図7に関して論じられたビデオ取得システムの一実施形態により取得された。ビデオデータは、Sentechカメラ(モデルSTC-MB33USB)およびコンピュータレンズ(モデルT3Z2910CS-IR)の形態のカメラ210を用いて、640×480画素の解像度、8ビットのモノクロ深度、およびおよそ29fps(たとえば、およそ29.9fps)で取得された。露光時間および利得は、190/255の目標輝度を用いてデジタル的に制御された。絞りは、目標輝度の実現のために低いアナログ利得が用いられるように、最も広くなるように調整された。これにより、基準ノイズの増幅が抑えられる。ファイルは、「生ビデオ」コーデックおよび「pal8」画素フォーマットを用いてローカルのハードドライブに仮保存された。アッセイは、約2時間にわたって動作し、約50GBの生ビデオファイルを生成した。480×480画素クロップのノイズ除去フィルタを適用するとともに、約600MBの圧縮ビデオサイズを生成するMPEG4コーデック(品質は最大に設定)を用いて圧縮を行うため、ffmpegソフトウェアが夜通し使用された。
[00285]以下に掲載される参考文献はそれぞれ、そのすべての内容が参照により本明細書に組み込まれる。
Claims (14)
- 動物追跡のシステムであって、
動物の観察を表すビデオデータを維持するデータ記憶装置と、
前記データ記憶装置からビデオデータを受信すること、およびニューラルネットワーク・アーキテクチャを実装することを行うように構成されたプロセッサとを備え、前記ニューラルネットワーク・アーキテクチャが、
前記ビデオデータから抽出された入力ビデオフレームを受信すること、
前記ビデオフレームに基づいて、少なくとも1匹の動物の楕円記述を生成すること、前記楕円記述はあらかじめ決められた楕円パラメータにより規定される、および
前記少なくとも1匹の動物について、前記あらかじめ決められた楕円パラメータを特徴付ける値を含むデータを提供すること、
を行うように構成されており、
前記ニューラルネットワーク・アーキテクチャが、前記楕円記述の各楕円パラメータの最確値のヒートマップを予測するように構成されたビニング分類ネットワークを備えた、システム。 - 前記楕円パラメータが、平面内の前記動物の位置、前記動物の長軸の長さおよび短軸の長さ、ならびに前記動物の頭部が向いている角度であって、前記長軸の方向に対して規定される角度、を表す座標である、請求項1に記載のシステム。
- 前記ニューラルネットワーク・アーキテクチャが、
入力ビデオフレームから、前景-背景セグメント化画像を予測すること、
画素の観点で、前記セグメント化画像に基づいて、動物が前記入力ビデオフレーム中に存在するかを予測すること、
前記画素の観点での予測に基づいて、セグメンテーションマスクを出力すること、および
前記動物が存在すると予測された前記セグメンテーションマスクの部分を楕円に適合させて、前記あらかじめ決められた楕円パラメータを特徴付ける値を決定すること、
を行うように構成されたエンコーダ-デコーダ・セグメンテーション・ネットワークである、請求項1に記載のシステム。 - 前記エンコーダ-デコーダ・セグメンテーション・ネットワークが、
前記入力ビデオフレームを一組の小さな空間解像度の特徴へと抽象化するように構成された特徴エンコーダと、
前記一組の特徴を前記入力ビデオフレームと同じ形状へと変換し、前記前景-背景セグメント化画像を出力するように構成された特徴デコーダと、
前記動物の頭部が向いている角度を予測するように構成された角度予測器と、
を備えた、請求項3に記載のシステム。 - 前記ビニング分類ネットワークが、前記入力ビデオフレームを小さな空間解像度へと抽象化するように構成された特徴エンコーダを備え、前記抽象化が、前記ヒートマップを生成させるために利用される、請求項1に記載のシステム。
- 前記ニューラルネットワーク・アーキテクチャが、入力ビデオフレームから特徴を抽出し、前記楕円パラメータそれぞれを特徴付ける値を直接予測するように構成された回帰ネットワークを備えた、請求項1に記載のシステム。
- 前記動物が、齧歯動物である、請求項1に記載のシステム。
- 動物の観察を表すビデオデータを受信すること、および
ニューラルネットワーク・アーキテクチャを実行すること
をコンピュータになさせるためのプログラムであって、
前記ニューラルネットワーク・アーキテクチャは、
前記ビデオデータから抽出された入力ビデオフレームを受信すること、および
前記入力ビデオフレームに基づいて、少なくとも1匹の動物の楕円記述を生成すること、前記楕円記述はあらかじめ決められた楕円パラメータにより規定される、および前記少なくとも1匹の動物について、前記あらかじめ決められた楕円パラメータを特徴付ける値を含むデータを提供すること、
を行うように構成されており、
前記ニューラルネットワーク・アーキテクチャが、前記楕円記述の各楕円パラメータの最確値のヒートマップを予測するように構成されたビニング分類ネットワークを備えた、プログラム。 - 前記楕円パラメータが、平面内の前記動物の位置、前記動物の長軸の長さおよび短軸の長さ、ならびに前記動物の頭部が向いている角度であって、前記長軸の方向に対して規定される角度、を表す座標である、請求項8に記載のプログラム。
- 前記ニューラルネットワーク・アーキテクチャが、
入力ビデオフレームから、前景-背景セグメント化画像を予測すること、
画素の観点で、前記セグメント化画像に基づいて、動物が前記入力ビデオフレーム中に存在するかを予測すること、
前記画素の観点での予測に基づいて、セグメンテーションマスクを出力すること、および
前記動物が存在すると予測された前記セグメンテーションマスクの部分を楕円に適合させて、前記あらかじめ決められた楕円パラメータを特徴付ける値を決定すること、
を行うように構成されたエンコーダ-デコーダ・セグメンテーション・ネットワークである、請求項8に記載のプログラム。 - 前記エンコーダ-デコーダ・セグメンテーション・ネットワークが、
前記入力ビデオフレームを一組の小さな空間解像度の特徴へと抽象化するように構成された特徴エンコーダと、
前記一組の特徴を前記入力ビデオフレームと同じ形状へと変換し、前記前景-背景セグメント化画像を出力するように構成された特徴デコーダと、
前記動物の頭部が向いている角度を予測するように構成された角度予測器と、
を備えた、請求項10に記載のプログラム。 - 前記ビニング分類ネットワークが、前記入力ビデオフレームを小さな空間解像度へと抽象化するように構成された特徴エンコーダを備え、前記抽象化が、前記ヒートマップを生成させるために利用される、請求項8に記載のプログラム。
- 前記ニューラルネットワーク・アーキテクチャが、入力ビデオフレームから特徴を抽出し、前記楕円パラメータそれぞれを特徴付ける値を直接予測するように構成された回帰ネットワークを備えた、請求項8に記載のプログラム。
- 前記動物が、齧歯動物である、請求項8に記載のプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023102972A JP2023120383A (ja) | 2017-08-07 | 2023-06-23 | 長期間の継続的な動物行動モニタリング |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762542180P | 2017-08-07 | 2017-08-07 | |
US62/542,180 | 2017-08-07 | ||
US201862661610P | 2018-04-23 | 2018-04-23 | |
US62/661,610 | 2018-04-23 | ||
PCT/US2018/045676 WO2019032622A1 (en) | 2017-08-07 | 2018-08-07 | BEHAVIORAL ANIMAL BEHAVIORAL SURVEILLANCE CONTINUES |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023102972A Division JP2023120383A (ja) | 2017-08-07 | 2023-06-23 | 長期間の継続的な動物行動モニタリング |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020530626A JP2020530626A (ja) | 2020-10-22 |
JP2020530626A5 JP2020530626A5 (ja) | 2021-09-16 |
JP7303793B2 true JP7303793B2 (ja) | 2023-07-05 |
Family
ID=65271742
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020507071A Active JP7303793B2 (ja) | 2017-08-07 | 2018-08-07 | 長期間の継続的な動物行動モニタリング |
JP2023102972A Pending JP2023120383A (ja) | 2017-08-07 | 2023-06-23 | 長期間の継続的な動物行動モニタリング |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023102972A Pending JP2023120383A (ja) | 2017-08-07 | 2023-06-23 | 長期間の継続的な動物行動モニタリング |
Country Status (7)
Country | Link |
---|---|
US (3) | US11330804B2 (ja) |
EP (1) | EP3664601A4 (ja) |
JP (2) | JP7303793B2 (ja) |
KR (1) | KR20200038509A (ja) |
CN (2) | CN111225558B (ja) |
CA (1) | CA3071850A1 (ja) |
WO (1) | WO2019032622A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11373452B2 (en) * | 2018-08-07 | 2022-06-28 | Georgetown University | Multidimensional analysis of gait in rodent |
WO2020072918A1 (en) * | 2018-10-05 | 2020-04-09 | The Trustees Of Princeton University | Automated system to measure multi-animal body part dynamics |
CN109993076A (zh) * | 2019-03-18 | 2019-07-09 | 华南理工大学 | 一种基于深度学习的白鼠行为分类方法 |
WO2020191312A1 (en) | 2019-03-20 | 2020-09-24 | The Uab Research Foundation | Sensing and integrating data of environmental conditions in animal research |
US20200383299A1 (en) * | 2019-06-06 | 2020-12-10 | Edgar Josue Bermudez Contreras | Systems and methods of homecage monitoring |
US20220343621A1 (en) * | 2019-09-09 | 2022-10-27 | The Johns Hopkins University | Tracking system for identification of subjects |
US11321927B1 (en) * | 2019-09-23 | 2022-05-03 | Apple Inc. | Temporal segmentation |
US11222198B2 (en) * | 2019-11-21 | 2022-01-11 | International Business Machines Corporation | Video analysis system for optimizing an activity protocol |
CN111539365B (zh) * | 2020-04-29 | 2022-08-23 | 兰州大学 | 一种动物行为分析方法、装置及电子设备 |
CN111727905A (zh) * | 2020-06-22 | 2020-10-02 | 安徽正华生物仪器设备有限公司 | 基于深度学习的大小鼠旷场实验自动化分析***和方法 |
CN112237156B (zh) * | 2020-10-23 | 2022-07-22 | 宁波大学 | 一种小动物自主社交行为测试装置及实验方法 |
US11803988B2 (en) | 2021-03-15 | 2023-10-31 | Tencent America LLC | Method and apparatus for adaptive image compression with flexible hyperprior model by meta learning |
CN113095268B (zh) * | 2021-04-22 | 2023-11-21 | 中德(珠海)人工智能研究院有限公司 | 一种基于视频流的机器人步态学习方法、***及存储介质 |
US20220365200A1 (en) * | 2021-05-12 | 2022-11-17 | California State University Fresno Foundation | System and method for human and animal detection in low visibility |
US11941080B2 (en) | 2021-05-20 | 2024-03-26 | Retrocausal, Inc. | System and method for learning human activities from video demonstrations using video augmentation |
CN113255514B (zh) * | 2021-05-24 | 2023-04-07 | 西安理工大学 | 基于局部场景感知图卷积网络的行为识别方法 |
US11582464B2 (en) * | 2021-06-23 | 2023-02-14 | Microsoft Technology Licensing, Llc | Using morphological operations to process frame masks in video content |
CN113744352B (zh) * | 2021-09-14 | 2022-07-29 | 北京观海科技发展有限责任公司 | 视觉空间标定方法、设备及存储介质 |
CN114532242B (zh) * | 2022-02-16 | 2023-02-28 | 深圳市元疆科技有限公司 | 一种小型动物行为研究实验箱 |
CN114586689A (zh) * | 2022-03-17 | 2022-06-07 | 贵州医科大学 | 智能裸鼠培养笼 |
CN114916452A (zh) * | 2022-05-26 | 2022-08-19 | 浙江理工大学 | Ivc环境参数对spf级实验动物热舒适影响测试装置 |
CN115024244B (zh) * | 2022-06-17 | 2023-02-24 | 曲阜师范大学 | 一种基于红外旷场和Python分析的黑线仓鼠睡眠-觉醒检测***、方法与应用 |
KR102603396B1 (ko) | 2022-08-12 | 2023-11-20 | 주식회사 아이트 | 인공지능을 이용한 영상 감시 기반 개체 인식 및 행동패턴 분석 방법 및 시스템 |
CN115238873B (zh) * | 2022-09-22 | 2023-04-07 | 深圳市友杰智新科技有限公司 | 神经网络模型部署方法、装置、计算机设备 |
CN116091963B (zh) * | 2022-12-22 | 2024-05-17 | 广州奥咨达医疗器械技术股份有限公司 | 临床试验机构质量评估方法、装置、电子设备及存储介质 |
KR102646871B1 (ko) * | 2023-01-31 | 2024-03-13 | 한국축산데이터 주식회사 | 축사 감시 카메라를 이용한 환경 변화 탐지 장치 및 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013170129A1 (en) | 2012-05-10 | 2013-11-14 | President And Fellows Of Harvard College | A system and method for automatically discovering, characterizing, classifying and semi-automatically labeling animal behavior and quantitative phenotyping of behaviors in animals |
US20160050888A1 (en) | 2013-03-28 | 2016-02-25 | Katholieke Universiteit Leuven | Automated Monitoring of Animal Nutriment Ingestion |
US20160150758A1 (en) | 2013-06-28 | 2016-06-02 | The United States Of America, As Represented By The Secretary, Dept. Of Health And Human Services | Systems and methods of video monitoring for vivarium cages |
US20170206426A1 (en) | 2016-01-15 | 2017-07-20 | Ford Global Technologies, Llc | Pedestrian Detection With Saliency Maps |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5792597A (en) * | 1991-02-28 | 1998-08-11 | Fuji Photo Film Co., Ltd. | Image forming method |
US5903454A (en) | 1991-12-23 | 1999-05-11 | Hoffberg; Linda Irene | Human-factored interface corporating adaptive pattern recognition based controller apparatus |
JP3270005B2 (ja) * | 1998-03-20 | 2002-04-02 | 勝義 川崎 | 実験動物の行動観察の自動化方法 |
US6644244B2 (en) * | 2001-12-05 | 2003-11-11 | University Of Florida | Apparatus and methods for testing pain sensitivity |
US8100552B2 (en) * | 2002-07-12 | 2012-01-24 | Yechezkal Evan Spero | Multiple light-source illuminating system |
SE530339C2 (sv) * | 2006-07-13 | 2008-05-06 | Delaval Holding Ab | En apparat och förfarande för att igenkänna och bestämma en position |
AU2008222933A1 (en) * | 2007-03-02 | 2008-09-12 | Organic Motion | System and method for tracking three dimensional objects |
US8411935B2 (en) | 2007-07-11 | 2013-04-02 | Behavioral Recognition Systems, Inc. | Semantic representation module of a machine-learning engine in a video analysis system |
CN201097536Y (zh) | 2007-12-10 | 2008-08-13 | 东北农业大学 | 小鼠行为不间断观察监控*** |
KR101555891B1 (ko) * | 2008-01-17 | 2015-09-30 | 코닌클리케 필립스 엔.브이. | 조명 장치 |
EP2235602A4 (en) | 2008-01-23 | 2018-03-28 | The Regents of The University of California | Systems and methods for behavioral monitoring and calibration |
CN100583128C (zh) | 2008-06-12 | 2010-01-20 | 浙江大学 | 基于自然视频的实时智能监控方法 |
GB2475432B (en) | 2008-09-08 | 2013-01-23 | Ned M Ahdoot | Digital video filter and image processing |
US9215467B2 (en) | 2008-11-17 | 2015-12-15 | Checkvideo Llc | Analytics-modulated coding of surveillance video |
FR2948738A1 (fr) * | 2009-07-31 | 2011-02-04 | Guerletub | Systeme d'accrochage entre un premier element tubulaire s'etendant verticalement et au moins un deuxieme element tubulaire ou structurel s'etendant perpendiculairement au premier |
KR101683291B1 (ko) * | 2010-05-14 | 2016-12-06 | 엘지전자 주식회사 | 디스플레이 장치 및 그의 제어 방법 |
WO2012143854A1 (en) * | 2011-04-18 | 2012-10-26 | Université De Genève | In vivo bioluminescence monitoring apparatus |
US9235990B2 (en) | 2011-11-25 | 2016-01-12 | Honda Motor Co., Ltd. | Vehicle periphery monitoring device |
US9055733B2 (en) * | 2012-04-25 | 2015-06-16 | II Johnny Jones | Animal tracking system |
US9195903B2 (en) | 2014-04-29 | 2015-11-24 | International Business Machines Corporation | Extracting salient features from video using a neurosynaptic system |
EP2957861A1 (en) * | 2014-06-17 | 2015-12-23 | Expert Ymaging, SL | Device and method for automated parameters calculation of an object |
US9870617B2 (en) | 2014-09-19 | 2018-01-16 | Brain Corporation | Apparatus and methods for saliency detection based on color occurrence analysis |
US20160178228A1 (en) * | 2014-12-19 | 2016-06-23 | Zan Compute Inc. | Smart air duct cover |
US11080587B2 (en) | 2015-02-06 | 2021-08-03 | Deepmind Technologies Limited | Recurrent neural networks for data item generation |
US10176435B1 (en) * | 2015-08-01 | 2019-01-08 | Shyam Sundar Sarkar | Method and apparatus for combining techniques of calculus, statistics and data normalization in machine learning for analyzing large volumes of data |
US10152649B2 (en) * | 2015-12-01 | 2018-12-11 | Mobileye Vision Technologies Ltd. | Detecting visual information corresponding to an animal |
WO2017147442A1 (en) * | 2016-02-25 | 2017-08-31 | VitalMetric, LLC | Environmental control for enclosures based on touch-less monitoring of animals |
US10810491B1 (en) * | 2016-03-18 | 2020-10-20 | Amazon Technologies, Inc. | Real-time visualization of machine learning models |
US10398316B1 (en) * | 2016-09-30 | 2019-09-03 | Vium, Inc. | Method and apparatus for determining physiological characteristics of experimental animals based upon infrared and visible light images |
CN108065938A (zh) * | 2016-11-17 | 2018-05-25 | 南京国雅信息科技有限公司 | 动物活动监测***以及基于神经网络的活动状态识别方法 |
CN108064745A (zh) * | 2016-11-17 | 2018-05-25 | 南京国雅信息科技有限公司 | 动物嚎叫监测***以及基于机器学习的嚎叫状态识别方法 |
CN106845411B (zh) | 2017-01-19 | 2020-06-30 | 清华大学 | 一种基于深度学习和概率图模型的视频描述生成方法 |
US11553687B2 (en) * | 2017-05-12 | 2023-01-17 | Children's Medical Center Corporation | Devices for analyzing animal behavior |
CN109871911A (zh) * | 2017-12-04 | 2019-06-11 | 昊翔电能运动科技(昆山)有限公司 | 无人机监测动物健康的方法和监测动物健康的无人机 |
-
2018
- 2018-08-07 CN CN201880064637.3A patent/CN111225558B/zh active Active
- 2018-08-07 WO PCT/US2018/045676 patent/WO2019032622A1/en unknown
- 2018-08-07 US US16/636,392 patent/US11330804B2/en active Active
- 2018-08-07 CN CN202311060612.5A patent/CN116918718A/zh active Pending
- 2018-08-07 JP JP2020507071A patent/JP7303793B2/ja active Active
- 2018-08-07 EP EP18843419.5A patent/EP3664601A4/en active Pending
- 2018-08-07 CA CA3071850A patent/CA3071850A1/en active Pending
- 2018-08-07 KR KR1020207006943A patent/KR20200038509A/ko active IP Right Grant
-
2022
- 2022-04-07 US US17/715,832 patent/US11798167B2/en active Active
-
2023
- 2023-06-23 JP JP2023102972A patent/JP2023120383A/ja active Pending
- 2023-09-07 US US18/463,277 patent/US20230419498A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013170129A1 (en) | 2012-05-10 | 2013-11-14 | President And Fellows Of Harvard College | A system and method for automatically discovering, characterizing, classifying and semi-automatically labeling animal behavior and quantitative phenotyping of behaviors in animals |
US20160050888A1 (en) | 2013-03-28 | 2016-02-25 | Katholieke Universiteit Leuven | Automated Monitoring of Animal Nutriment Ingestion |
US20160150758A1 (en) | 2013-06-28 | 2016-06-02 | The United States Of America, As Represented By The Secretary, Dept. Of Health And Human Services | Systems and methods of video monitoring for vivarium cages |
US20170206426A1 (en) | 2016-01-15 | 2017-07-20 | Ford Global Technologies, Llc | Pedestrian Detection With Saliency Maps |
Non-Patent Citations (1)
Title |
---|
Zirong Wang, et al.,Behavior classification and image processing for biorobot-rat interaction,2017 7th IEEE International Conference on Electronics Information and Emergency Communication (ICEIEC),2017年07月23日,https://ieeexplore.ieee.org/document/8076631 |
Also Published As
Publication number | Publication date |
---|---|
JP2023120383A (ja) | 2023-08-29 |
KR20200038509A (ko) | 2020-04-13 |
EP3664601A1 (en) | 2020-06-17 |
US11330804B2 (en) | 2022-05-17 |
CN111225558A (zh) | 2020-06-02 |
CN111225558B (zh) | 2023-08-11 |
CN116918718A (zh) | 2023-10-24 |
WO2019032622A9 (en) | 2019-04-04 |
WO2019032622A1 (en) | 2019-02-14 |
CA3071850A1 (en) | 2019-02-14 |
US11798167B2 (en) | 2023-10-24 |
US20220248642A1 (en) | 2022-08-11 |
US20230419498A1 (en) | 2023-12-28 |
EP3664601A4 (en) | 2021-04-28 |
JP2020530626A (ja) | 2020-10-22 |
US20200337272A1 (en) | 2020-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7303793B2 (ja) | 長期間の継続的な動物行動モニタリング | |
Segalin et al. | The Mouse Action Recognition System (MARS) software pipeline for automated analysis of social behaviors in mice | |
Pereira et al. | SLEAP: A deep learning system for multi-animal pose tracking | |
Zhang et al. | Automatic individual pig detection and tracking in pig farms | |
Singh et al. | Low-cost solution for rodent home-cage behaviour monitoring | |
Geuther et al. | Robust mouse tracking in complex environments using neural networks | |
Swierczek et al. | High-throughput behavioral analysis in C. elegans | |
Weissbrod et al. | Automated long-term tracking and social behavioural phenotyping of animal colonies within a semi-natural environment | |
Jhuang et al. | Automated home-cage behavioural phenotyping of mice | |
De Chaumont et al. | Computerized video analysis of social interactions in mice | |
Wario et al. | Automatic detection and decoding of honey bee waggle dances | |
US20140167958A1 (en) | Method for automatic behavioral phenotyping | |
Aguzzi et al. | A novel morphometry-based protocol of automated video-image analysis for species recognition and activity rhythms monitoring in deep-sea fauna | |
Luxem et al. | Open-source tools for behavioral video analysis: Setup, methods, and best practices | |
Grover et al. | O fly, where art thou? | |
Ha et al. | TensorMoG: A tensor-driven gaussian mixture model with dynamic scene adaptation for background modelling | |
Chen et al. | A review of posture detection methods for pigs using deep learning | |
Sehara et al. | Fast, flexible closed-loop feedback: tracking movement in “real-millisecond-time” | |
Perivolioti et al. | Optimising the workflow for fish detection in DIDSON (dual-frequency identification sonar) data with the use of optical flow and a genetic algorithm | |
Kim et al. | AVATAR: ai vision analysis for three-dimensional action in real-time | |
Han et al. | Social Behavior Atlas: A computational framework for tracking and mapping 3D close interactions of free-moving animals | |
Sun et al. | Real-Time Recognition and Detection of Bactrocera minax (Diptera: Trypetidae) Grooming Behavior Using Body Region Localization and Improved C3D Network | |
Bhavani | Automated Attendance System and Voice Assistance using Face Recognition | |
Li et al. | Research on Tracking and Identification of Typical Protective Behavior of Cows Based on DeepLabCut | |
Wei et al. | Social Behavior Atlas: A few-shot learning framework for multi-animal 3D social pose estimation, identification, and behavior embedding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210804 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210804 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220815 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220909 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230623 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7303793 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |