JP7260922B2 - 学習用データ生成装置、学習装置、行動分析装置、行動型分析装置、プログラム、及び記録媒体 - Google Patents

学習用データ生成装置、学習装置、行動分析装置、行動型分析装置、プログラム、及び記録媒体 Download PDF

Info

Publication number
JP7260922B2
JP7260922B2 JP2021110070A JP2021110070A JP7260922B2 JP 7260922 B2 JP7260922 B2 JP 7260922B2 JP 2021110070 A JP2021110070 A JP 2021110070A JP 2021110070 A JP2021110070 A JP 2021110070A JP 7260922 B2 JP7260922 B2 JP 7260922B2
Authority
JP
Japan
Prior art keywords
individual
image
learning
unit
learning data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021110070A
Other languages
English (en)
Other versions
JP2022013910A (ja
Inventor
慎吾 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Agriculture and Food Research Organization
Original Assignee
National Agriculture and Food Research Organization
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Agriculture and Food Research Organization filed Critical National Agriculture and Food Research Organization
Publication of JP2022013910A publication Critical patent/JP2022013910A/ja
Priority to JP2023059075A priority Critical patent/JP2023073478A/ja
Application granted granted Critical
Publication of JP7260922B2 publication Critical patent/JP7260922B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/70Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in livestock or poultry

Landscapes

  • Image Analysis (AREA)

Description

本発明は、学習用データ生成装置、学習装置、行動分析装置、行動型分析装置、プログラム、及び記録媒体に関する。
酪農経営の大規模化に対応した省力的な牛群管理技術の開発に向けて、牛群内の各個体の行動を自動でモニタリングできる手法が求められている。牛群内を個体毎にモニタリングする技術として、各個体に加速度計等のウェアラブルセンサを装着してモニタリングする技術が実用化されている。このような技術の一例として、牛の活動量を把握するための首輪型センサを牛に装着し、活動、反芻及び休息の時間を計算して、その情報から発情、疾病の疑い等の注意すべきウシを検出する技術が知られている。
しかしながら、このような技術では、牛群が大規模であるほど導入コストが増大すると共に、機器の管理に係る労力が大きくなる。このような技術の導入、運用にかかる費用は、例えば、ウシの活動量を把握するための首輪型センサが1台数万円、利用料が1頭数千円/年とされている。
これに対して、映像解析に基づいて牛をモニタリングする技術では、牛にセンサを取り付ける必要がないのでコストを削減でき、また、管理が容易であるという利点がある。映像解析に基づいて牛をモニタリングする技術として、非特許文献1及び2に記載された技術が例として挙げられる。非特許文献1には、牛の深度カメラ映像から牛の歩様を解析し、蹄病を検出できることが示されている。また、非特許文献2には、分娩予兆としての姿勢の変化等を牛の撮影画像から検知することが記載されている。
また、人を対象とした個体の識別及び追跡する技術として、特許文献1及び2に記載された技術が例として挙げられる。特許文献1には、特定地域内を移動するヒトを検知すると共に当該人の静止画を取得して住人か非住人かを判断し、時系列で行動を追う構成が記載されている。また、特許文献2には、映像中の動体を検出し、人物の判別のための特徴量を抽出する構成が記載されている。
特開2017-224249 特開2019-169843
砂川 翔ら、情報処理学会研究報告、Vol. 2017-CVIM-206, No.2(2017) 沖本祐典ら、人工知能学会全国大会論文集、第32回全国大会(2018)
しかしながら、非特許文献1及び2に記載された技術は、単独の個体をモニタリングすることを想定したものであるため、複数の牛個体の行動を個体毎に解析する態様に適したものではない。
一方、特許文献1及び2に記載された技術は、複数の個体をモニタリングするものであり、個体識別に機械学習済みモデルを利用することが記載されているが、機械学習のための学習用データの収集についてなんら記載されていない。個体構成や撮影条件が異なる様々な牛群に対して汎用利用可能な個体識別技術とするためには、牛群毎に簡便に構築可能な学習済みモデルを利用した個体識別システムであることが求められる。
本発明の一態様は、上述した問題点を解決するためになされたものであり、その目的は、様々な個体群に適用できる汎用性の高い、映像からの行動解析システムを実現することである。
上記の課題を解決するために、本発明は、以下の態様を含む。
1) 個体を含む画像を取得する画像取得部と、取得した前記画像中の動体を検知する動体検知部と、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲み部と、枠囲みが付与された前記体領域の体領域画像を抽出する抽出部と、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成部とを備えている。
2) 前記枠囲み部は、個体を含む画像から当該個体の体全体を含む体領域を抽出するように機械学習した判別モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される体領域に枠囲みを付与する、1)に記載の学習用データ生成装置。
3) 前記枠囲み部は、個体の体の一部を表す画像から当該個体の体全体を表す画像を生成するように機械学習した生成モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される個体の体全体を表す画像を体領域とし、当該体領域に枠囲みを付与する、1)又は2)に記載の学習用データ生成装置。
4) 前記個体は、多頭飼育されている家畜個体である、1)から3)のいずれかに記載の学習用データ生成装置。
5) 前記生成部は、前記体領域画像を個体毎に分類して蓄積し、前記学習用データを生成する、1)から4)のいずれか1項に記載の学習用データ生成装置。
6) 1)から5)のいずれかに記載の学習用データ生成装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、取得した前記画像中の動体を検知する動体検知ステップと、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成ステップとを実行することを特徴とする、プログラム。
7) 個体を含む画像を取得する画像取得部と、1)から5)のいずれかに記載の学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部と、識別した個体の時系列の画像を取得する識別画像取得部と、取得した前記画像を参照して、前記個体の行動を分析する分析部とを備えている、行動分析装置。
8) 7)に記載の行動分析装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、1)から5)のいずれかに記載の学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、識別した個体の時系列の画像を取得する識別画像取得ステップと、取得した前記画像を参照して、前記個体の行動を分析する分析ステップとを実行することを特徴とする、プログラム。
9) 1)から5)のいずれかに記載の学習用データ生成装置が生成した学習用データを取得する学習用データ取得部と、取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、個体を識別する識別モデルを構築する学習部とを備えている、学習装置。
10) 9)に記載の学習装置としてコンピュータを機能させるためのプログラムであって、1)から5)の何れかに記載の学習用データ生成装置が生成した学習用データを取得する学習用データ取得ステップと、取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、個体を識別する識別モデルを構築する学習ステップとを実行することを特徴とする、プログラム。
11) 個体を含む画像を取得する画像取得部と、9)に記載の学習装置によって構築された前記識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部とを備えている、個体識別装置。
12) 11)に記載の個体識別装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、9)に記載の学習装置によって構築された前記識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップとを実行することを特徴とする、プログラム。
前記個体識別装置が備える各部としてコンピュータを機能させるためのプログラム。
13) 6)、8)、10)又は12)に記載のプログラムを記録した記録媒体。
14) 個体を含む画像を取得する画像取得ステップと、取得した前記画像中の動体を検知する動体検知ステップと、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成ステップとを含む、学習用データ生成方法。
15) 個体を含む画像を取得する画像取得ステップと、14)に記載の学習用データ生成方法により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、識別した個体の時系列の画像を取得する識別画像取得ステップと、取得した前記画像を参照して、前記個体の行動を分析する分析ステップとを含む、行動分析方法。
16) 学習用データ生成装置は、個体を含む画像を取得する画像取得部と、取得した前記画像中の前記個体を検出する検出部と、検出した前記個体の体全体を含む体領域を特定する体領域特定部と、特定した前記体領域の体領域画像を抽出する抽出部と、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成部とを備えている。
17) 16)に記載の学習用データ生成装置において、前記検出部は、個体を含む画像を入力データとして、当該画像中の当該個体を検出するように機械学習した検出モデルに、前記画像取得部が取得した前記画像を入力データとして入力することにより出力される前記個体を検出する。
18) 16)又は17)に記載の学習用データ生成装置において、前記体領域特定部は、前記検出部が検出した前記個体の体全体を含む体領域を画像セグメンテーションにより特定する。
19) 16)~18)のいずれかに記載の学習用データ生成装置において、前記体領域特定部は、個体の体の一部を表す画像から当該個体の骨格を検知して姿勢を推定するように機械学習した姿勢推定モデルに、検出した前記個体の画像データを入力データとして入力することにより出力される個体の姿勢を参照して、個体の体全体を表す体領域を特定する。
20) 16)~19)のいずれかに記載の学習用データ生成装置において、前記生成部は、体領域画像を同一個体毎に分類して蓄積し、前記学習用データを生成する。
21) 行動型分析装置は、個体を含む画像を取得する画像取得部と、取得した前記画像中の前記個体を検出する検出部と、検出した前記個体を識別する識別部と、識別した個体の体の部位の位置を特定する位置特定部と、特定した前記位置の所定時間内の変化を表す時系列情報を取得する情報取得部と、取得した前記時系列情報を参照して、前記個体の行動型を分析する行動型分析部とを備えている。
22) 21)に記載の行動型分析装置において、前記位置特定部は、個体を含む画像を入力データとして、当該画像中の当該個体の体の部位の位置を特定するように機械学習した位置特定モデルに、前記画像取得部が取得した前記画像を入力データとして入力することにより出力される前記位置を特定する。
23) 21)又は22)に記載の行動型分析装置において、位置特定部は、前記個体の体の部位の位置の座標を取得する。
24) 21)から23)のいずれかに記載の行動型分析装置において、前記行動型分析部は、時系列情報を入力データとして、当該時系列情報に対応した行動型を推定するように機械学習した分析モデルに、前記情報取得部が取得した前記時系列情報を入力データとして入力することにより出力される行動型を分析結果として取得する。
25) 21)から24)のいずれかに記載の行動型分析装置において、前記位置特定部は、個体の体の一部を表す画像から当該個体の骨格を検知して姿勢を推定するように機械学習した姿勢推定モデルに、検出した前記個体の画像データを入力データとして入力することにより出力される個体の姿勢を参照して、前記位置を特定する。
本発明の一態様によれば、様々な個体群に適用できる汎用性の高い、映像からの行動解析システムを実現することができる。
本発明の一態様に係る学習用データ生成装置の要部構成を示すブロック図である。 本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。 本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。 本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。 本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。 本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。 本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。 本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。 学習用データ生成装置による学習用データ生成処理を示すフローチャートである。 本発明の一態様に係る学習装置の要部構成を示すブロック図である。 学習装置による学習処理を示すフローチャートである。 本発明の一態様に係る個体識別装置の要部構成を示すブロック図である。 個体識別装置による個体識別処理を示すフローチャートである。 本発明の一態様に係る行動分析装置の要部構成を示すブロック図である。 行動分析装置による行動分析処理を示すフローチャートである。 本発明の一態様に係る学習用データ生成装置で利用する個体識別の一例を説明する図である。 本発明の一態様に係る学習用データ生成装置において画像中の個体を検出するために用いられる物体検出機械学習モデルの一例を説明する図である。 本発明の一態様に係る学習用データ生成装置において画像中の個体を検出するために用いられる骨格検知機械学習モデルの一例を説明する図である。 本発明の一態様に係る学習用データ生成装置において体領域を特定する形態の一例を説明する図である。 本発明の一態様に係る学習用データ生成装置において体の一部を表す画像から体全体の画像を特定するために用いられる姿勢推定モデルの一例を説明する図である。 本発明の一態様に係る行動型分析システムの要部構成を示すブロック図である。 行動型分析装置において特定される個体の体の部位を例示する図である。 行動型分析装置において分析される個体の行動型を例示する図である。 行動型分析装置による行動型分析処理を示すフローチャートである。
〔学習用データ生成装置〕
本発明の一態様に係る学習用データ生成装置は、個体を含む画像を取得する画像取得部と、取得した前記画像中の動体を検知する動体検知部と、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲み部と、枠囲みが付与された前記体領域の体領域画像を抽出する抽出部と、抽出した前記体領域画像から、個体を識別する個体識別モデルの学習用データを生成する生成部とを備えている。
図1は、本発明の一態様に係る学習用データ生成装置の要部構成を示すブロック図である。学習用データ生成装置10は、画像取得部11、動体検知部12、枠囲み部13、抽出部14、学習用データ生成部(生成部)15、及び学習用データ記憶部16を備えている。学習用データ生成装置10は、機械学習により個体識別モデルを構築するために用いられる学習用データを生成する。
(個体)
学習用データ生成装置10により生成する学習用データを機械学習させた個体識別モデルは、複数の個体が撮影された画像において個体を識別する機械学習済モデルである。個体識別モデルにより識別する個体は、ヒト、動物、他の移動体等であり得るが、閉鎖された空間内で群毎に管理される個体であることが好ましい。個体識別モデルにより識別する個体は、多頭飼育されている家畜個体であることがより好ましく、ウシ個体であることがさらに好ましく、乳牛個体であることがさらにより好ましく、最も好ましくはホルスタイン種の乳牛個体である。なお、以下では、識別する個体の例としてホルスタイン種の乳牛個体について説明するが、本発明はこれに限定されず、他の乳牛個体又は他の動物個体であっても、紋様や体型の違い、あるいは簡易なマーカー等を利用することにより、ホルスタイン種の乳牛個体と同様に適用することができる。例えば、錦鯉、豚、猫や犬等にも、本発明を適用することができる。簡易なマーカーを利用する構成の例として、図16に示すように、首輪に数値などの標識を装着する構成が挙げられる。図16は、本発明の一態様に係る学習用データ生成装置で利用する個体識別の一例を説明する図である。このような簡易なマーカーを利用することによって、紋様による識別が難しい種であっても容易に個体識別することが可能であり、様々な種の個体に本発明を適用することができる。
なお、多頭飼育されている個体は、図2に示すように、屋内で放し飼いにされている個体であってもよいし、鎖等に繋がれてつなぎ飼いにされている個体であってもよい。図2は、本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。また、多頭飼育されている個体は、屋外の管理区域内で飼育されている個体であってもよい。本実施形態においては、個体がウシ個体である場合を例として説明する。
(画像取得部11)
画像取得部11は、ウシ個体を含む画像を取得する。画像取得部11は、入出力部(図示せず)を介して、ウシ個体を撮像したカメラ20から個体を含む画像を取得する。画像取得部11は、無線通信又は有線通信によりカメラ20からウシ個体を含む画像を取得する。画像取得部11は、カメラ20によりウシ個体を撮像する度毎に画像を取得してもよいし、所定時間毎に画像を取得してもよい。
カメラ20は、ウシ個体を上から撮影するものであってもよいし、斜め上方から撮影するものであってもよい。学習用データ生成装置10においては、ウシ個体を上から撮影した画像のみならず、斜め上方から撮影した画像であっても好適に使用可能である。一例として、ウシ個体が屋内において飼育されている場合には、カメラ20を天井に設置していてもよいし、壁面に設置していてもよい。また、ウシ個体が屋外において飼育されている場合には、カメラ20をポールや柵等に固定して設置していてもよい。
ウシ個体を含む画像は、ウシ個体が撮像された画像であり、可視光画像であってもよいし、サーモカメラ等で撮影した赤外線画像であってもよいし、3次元レーザーセンサー等により得られた3次元画像であってもよい。赤外線画像やレーザーセンサーによる3次元画像を用いることにより、照明を用いずに夜間の画像を取得することができる。また、ウシ個体を含む画像は、静止画であっても、動画であってもよい。画像取得部11は、複数のカメラ20からウシ個体を含む画像を取得することが好ましく、複数のカメラ20がそれぞれ異なる方向からウシ個体を撮像した画像を取得することがより好ましい。画像取得部11は、取得したウシ個体を含む画像を動体検知部12に送る。
(動体検知部12)
動体検知部12は、取得したウシ個体を含む画像中の動体を検知する。動体検知部12は、ウシ個体を含む画像において物体の動きを検知し、動いた物体を動体として検知する。動体検知部12は、例えば、撮像された時間が異なる複数の画像フレーム間で比較を行うフレーム間差分処理、撮像された画像と事前に取得した背景画像とで比較を行う背景差分処理等により、画像中の動体を検知する。動体検知部12は、検知した動体の、画像中の位置情報を取得し、枠囲み部13に送る。
(枠囲み部13)
枠囲み部13は、検知した動体のうちのウシ個体の体全体を含む体領域に枠囲みを付与する。枠囲み部13は、検知した動体がウシ個体である場合に、当該ウシ個体の体領域に枠囲みを付与する。枠囲み部13は、取得した動体の位置情報に対応する部分領域の画像において、ウシ個体の体領域を特定し、枠囲みを付与する。
ウシ個体の体領域を特定せずに、動体の位置情報に対応する部分領域の画像に枠囲みを付与すると、図3に示すように、ウシ個体の頭部や尾部のみのような体の一部にのみ枠囲みが付与される場合がある。また、ウシ個体以外の動体に枠囲みが付与される場合もある。
一方、枠囲み部13は、動体の位置情報に対応する部分領域の画像において、ウシ個体の体領域を特定して枠囲みを付与するので、図4に示すように、ウシ個体の体全体が枠の内側に存在するように枠囲みが付与される。図4は、本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。
枠囲み部13におけるウシ個体の体領域の特定は、例えば、ウシ個体の体領域を特定するように機械学習した学習済みモデルを用いる方法や、特徴点マッチング、パターンマッチング等の方法により行うことができる。すなわち、枠囲み部13は、ウシ個体を含む画像から当該ウシ個体の体全体を含む体領域を抽出するように機械学習した判別モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される体領域に枠囲みを付与する。このような機械学習済みの判別モデルは、例えば、数千~数万頭のウシ個体の体全体を撮像した画像を蓄積した、図5に示すような学習用データを用いて、サポートベクターマシン、ランダムフォレスト、k-means法、畳み込みニューラルネットワークのような公知の学習アルゴリズムを適用することで得られる。図5は、本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。
また、枠囲み部13は、撮像された画像にウシ個体の一部しか含まれていない、ウシ個体同士が重なっている、柱や壁のような障害物にウシ個体の一部が隠れている等の場合には、ウシ個体の一部を表す画像から体領域画像を生成し、生成した体領域画像に枠囲みを付与する。すなわち、枠囲み部13は、個体の体の一部を表す画像から当該個体の体全体を表す画像を生成するように機械学習した生成モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される個体の体全体を表す画像を体領域とし、当該体領域に枠囲みを付与する。
このような生成モデルとして、変分オートエンコーダ(VAE)、敵対的生成ネットワーク(GAN)等の公知の生成モデルを用いることができる。例えば、変分オートエンコーダを用いる場合、図6に示すように、ウシ個体の体の一部の画像データから、エンコーダの畳み込みにより画像データの特徴を表す数値が得られる。そして、特徴を表す数値を逆畳み込みすることにより、ウシ個体の体全体の画像が復元される。図6は、本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。例えば、図6に示すような、数千~数万頭のウシ個体の体全体を撮像した画像を蓄積した学習用データを用いて、公知の生成モデルを適用することで、機械学習済みの生成モデルが得られる。このように、ウシ個体の体の一部の画像から体全体の体領域画像を復元するように学習した生成モデルを用いることで、入力画像データとしてウシ個体の体の一部の画像を用いて、ウシ個体の体全体の画像を復元することができる。なお、図6に示す例において生成モデルから出力されるデータは、体全体を囲む枠のみであってもよく、模様や色等は出力されなくてもよい。
図7及び8は、本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。機械学習済みの生成モデルに、図7に示すように、ウシ個体の体の一部を表す画像データを入力すると、デコーダの畳み込みにより画像データの特徴を表す数値Zが得られる。数値Zは、入力された画像の特徴を表す数値であり、例えば、画像の縮尺や、画像に含まれる領域が体全体のどの範囲に該当するか等に関する情報を表す数値である。そして、得られた数値Zを逆畳み込みにより復元することで、ウシ個体の体領域を表す体領域画像が生成され、出力される。また、この機械学習済みの生成モデルに、図7に示すように、学習データに含まれていないような特徴を含むウシ個体の体の一部を表す画像データを入力すると、ウシ個体の体領域画像が生成され、出力される。このように、未知のウシ画像データを生成モデルに入力した場合でも、ウシ個体の体全体を枠囲みしたデータが出力される。このように、学習データに含まれていないような特徴を含むウシ個体の体の一部を表す画像データを生成モデルに入力した場合でも、ウシ個体の体全体を枠囲みしたデータが出力される。また、図8に示す入力データのように、ウシ個体の体の一部を表す画像の縮尺が図7と比較して大きい場合でも、入力画像の縮尺に応じた大きさで枠囲みされたウシ個体の体領域画像が出力される。
このように、動体の画像がウシ個体の一部のみである場合、枠囲み部13は、個体の体の一部を表す画像から当該個体の体全体を表す画像を生成するように機械学習した生成モデルを用いることで、ウシ個体の体領域を生成し、枠囲みを付与する。
(抽出部14)
抽出部14は、枠囲みが付与された体領域画像を抽出する。抽出部14は、カメラ20が撮像した画像から、枠囲みの外側の画像を取り除き、枠囲みの内側の体領域画像を切り出す。抽出部14は、抽出した体領域画像を学習用データ生成部15に送る。
(学習用データ生成部15)
学習用データ生成部15は、抽出した前記体領域画像から、個体を識別する個体識別モデルの学習用データを生成する。学習用データは、ラベル付されていない教師なしデータであり得、例えば、数百~数万の体領域画像データを含む。学習用データ生成部15は、体領域画像を同一個体毎に分類して蓄積し、学習用データを生成し得る。学習用データ生成部15は、予め定められた数の体領域画像が蓄積された時点、又は、ユーザからの学習用データ生成指示を受け付けた時点において、蓄積されている体領域画像により学習用データを生成してもよい。
なお、学習用データ生成部15による体領域画像の同一個体毎の分類は、一例として、体領域画像の類似度、時系列における前後の画像との位置関係等の情報を参照することによって行うことができる。このような体領域画像の同一個体毎の分類は、体領域画像から当該体領域画像の類似度による推定や時系列における前後の画像との位置関係による推定をするように機械学習した分類推定モデルを用いて実行してもよい。
学習用データ生成部15は、個体識別モデルが識別する個体群に対応した学習用データを生成する。例えば、学習用データにより機械学習する個体識別モデルが、ウシ個体No.1~ウシ個体No.10までの10頭のウシ個体が含まれる個体群Xを識別する場合、個体群Xに含まれる10頭のウシ個体の体領域画像データを含む学習用データを生成する。学習用データ生成部15は、生成した学習用データを、対応する個体群の情報と関連付けて学習用データ記憶部16に格納する。
(学習用データ記憶部16)
学習用データ記憶部16には、生成された学習用データが格納される。また、学習用データ記憶部16には、画像取得部11が取得した画像や、動体検知部12が検知した動体の、画像における位置情報等のデータが格納されてもよい。また、学習用データ記憶部16には、学習用データ生成装置10が行う動作に必要な一連の処理を示すプログラムが格納されていてもよい。
(学習用データ生成処理)
図9を参照して、学習用データ生成装置10による学習用データ生成処理の一例について説明する。図9は、図1の学習用データ生成装置10による学習用データ生成処理を示すフローチャートである。
まず、ステップS91において、画像取得部11は、ウシ個体を含む画像を取得する。なお、学習用データ生成装置10による学習用データ生成処理は、カメラ20から撮像画像データの入力を受け付けることにより開始してもよい。
次に、動体検知部12は、取得したウシ個体を含む画像中の動体を検知する(ステップS92)。続いて、ステップS93において、枠囲み部13は、検知した動体のうちのウシ個体の体領域に枠囲みを付与する。次に、ステップS94において、抽出部14は、枠囲みが付与された体領域画像を抽出する。そして、学習用データ生成部15は、体領域画像から学習用データを生成する(ステップS94)。学習用データ生成部15は、生成した学習用データを学習用データ記憶部16に格納し、学習用データ生成処理を終了する。
このように、学習用データ生成装置10は、動体検知したウシ個体の体領域画像を抽出して蓄積することで、機械学習により個体識別モデルを構築するために用いられる学習用データを自動生成する。これにより、個体識別モデルを構築するための学習用データの生成が容易である。そのため、個体構成や撮影条件が異なる様々な個体群に対して、個体群毎に簡便に学習用データを生成することができる。また、学習用データ生成装置10により生成した学習用データには、様々な向きのウシ個体の体領域画像が含まれる。そのため、このような学習用データを用いて学習した個体識別モデルを用いて個体識別することによって、識別する画像におけるウシ個体の向きに関わらず個体識別が可能となる。
画像認識の機械学習においては、従来、学習用データの準備に時間及び労力がかかる点が問題となっている。学習用データ生成装置10によれば、個体識別モデルの機械学習に用いられる学習用データを自動的に蓄積できる。これにより、例えば、ウシ個体群の個体構成や撮影条件が異なる酪農現場毎に対応した個体識別モデルを簡便に構築することが可能であり、個体識別モデルの汎用利用を実現できる。
〔学習装置〕
本発明の一実施形態に係る学習装置は、本発明の一実施形態に係る学習用データ生成装置が生成した学習用データを取得する学習用データ取得部と、取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、個体を識別する個体識別モデルを構築する学習部とを備えている。
図10は、本発明の一態様に係る学習装置の要部構成を示すブロック図である。学習装置100は、学習用データ取得部101、学習部102、及び学習モデル記憶部103を備えている。学習装置100は、個体を識別する個体識別モデルを構築する。
(学習用データ取得部101)
学習用データ取得部101は、学習用データ生成装置10の学習用データ記憶部16に格納された学習用データを、入出力部(図示せず)を介して取得する。学習用データ取得部101は、学習部102において機械学習する個体識別モデルが識別する個体群に対応した学習用データを取得する。例えば、個体識別モデルが、ウシ個体No.1~ウシ個体No.10までの10頭のウシ個体が含まれる個体群Xのウシ個体を識別する学習済みモデルである場合、学習用データ取得部101は、個体群Xに対応した学習用データを取得する。学習用データ取得部101は、取得した学習用データを学習部102に送る。
(学習部102)
学習部102は、取得した学習用データを用いて、個体を識別する個体識別モデルを構築する。学習部102は、取得した学習用データを用いて、サポートベクタ―マシン、ランダムフォレスト、k-means法、畳み込みニューラルネットワークのような公知の学習アルゴリズムを適用して個体識別モデルを機械学習する。
学習部102において構築した機械学習済みの個体識別モデルは、個体を含む画像データを入力データとして入力することにより、当該個体を識別する識別情報を出力する学習済みモデルである。例えば、個体識別モデルが個体群Xのウシ個体を識別する場合、個体識別モデルは、入力された画像データ中のウシ個体が、個体群X中の何れのウシ個体(ウシ個体No.1、ウシ個体No.2、・・・又はウシ個体No.10)であるかを出力する。学習部102は、機械学習済みの個体識別モデルを、学習モデル記憶部103に格納する。
(学習モデル記憶部103)
学習モデル記憶部103には、機械学習済みの個体識別モデルが格納される。また、学習モデル記憶部103には、学習用データ取得部101が取得した学習用データ等が格納されてもよい。また、学習モデル記憶部103には、学習装置100が行う動作に必要な一連の処理を示すプログラムが格納されていてもよい。
(学習処理)
図11を参照して、学習装置100による学習処理の一例について説明する。図11は、図10の学習装置100による学習処理を示すフローチャートである。
まず、ステップS111において、学習用データ取得部101は、学習用データ生成装置10から学習用データを取得する。次に、学習部102は、取得した学習用データを用いて、個体を識別する個体識別モデルを機械学習させる(ステップS112)。そして、学習部102は、機械学習済みの個体識別モデルを学習モデル記憶部103に格納し(ステップS113)、学習処理を終了する。
このように、学習装置100は、個体群毎に対応して生成された学習用データを用いて機械学習により個体識別モデルを構築するので、例えば、ウシ個体群の個体構成や撮影条件が異なる酪農現場毎に対応した個体識別モデルを簡便に構築することが可能である。その結果、個体識別モデルの汎用利用を実現できる。
〔個体識別装置〕
本発明の一実施形態に係る個体識別装置は、個体を含む画像を取得する画像取得部と、本発明の一実施形態に係る学習装置によって構築された前記個体識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部とを備えている。
図12は、本発明の一態様に係る個体識別装置の要部構成を示すブロック図である。個体識別装置120は、画像取得部121、識別部122、及び識別画像蓄積部123を備えている。個体識別装置は、個体識別モデルを用いて個体群中の個体を識別する。
(個体)
個体識別装置120により識別する個体は、ヒト、動物、他の移動体等であり得るが、閉鎖された空間内で群毎に管理される個体であることが好ましい。個体識別モデルにより識別する個体は、多頭飼育されている家畜個体であることがより好ましく、ウシ個体であることがさらに好ましく、乳牛個体であることがさらにより好ましく、最も好ましくはホルスタイン種の乳牛個体である。なお、多頭飼育されている個体は、図2に示すように、屋内で放し飼いにされている個体であってもよいし、鎖等に繋がれてつなぎ飼いにされている個体であってもよい。また、多頭飼育されている個体は、屋外の管理区域内で飼育されている個体であってもよい。本実施形態においては、個体がウシ個体である場合を例として説明する。
(画像取得部121)
画像取得部121は、ウシ個体を含む画像を取得する。画像取得部121は、入出力部(図示せず)を介して、ウシ個体を撮像したカメラ20から個体を含む画像を取得する。画像取得部121は、無線通信又は有線通信によりカメラ20からウシ個体を含む画像を取得する。画像取得部121は、カメラ20によりウシ個体を撮像する度毎に画像を取得してもよいし、所定時間毎に画像を取得してもよい。
カメラ20は、ウシ個体を上から撮影するものであってもよいし、斜め上方から撮影するものであってもよい。個体識別装置120においては、ウシ個体を上から撮影した画像のみならず、斜め上方から撮影した画像であっても好適に使用可能である。一例として、ウシ個体が屋内において飼育されている場合には、カメラ20を天井に設置していてもよいし、壁面に設置していてもよい。また、ウシ個体が屋外において飼育されている場合には、カメラ20をポールや柵等に固定して設置していてもよい。
ウシ個体を含む画像は、ウシ個体が撮像された画像であり、可視光画像であってもよいし、サーモカメラ等で撮影した赤外線画像であってもよいし、3次元レーザーセンサー等により得られた3次元画像であってもよい。赤外線画像やレーザーセンサーによる3次元画像を用いることにより、照明を用いずに夜間の画像を取得することができる。また、ウシ個体を含む画像は、静止画であっても、動画であってもよい。画像取得部121は、取得したウシ個体を含む画像を識別部122に送る。
(識別部122)
識別部122は、学習装置100によって構築された個体識別モデルに、取得した画像のデータを入力データとして入力することにより、当該画像中のウシ個体の個体識別情報を出力する。識別部122は、学習装置100の学習モデル記憶部103に格納された個体識別モデルを、入出力部(図示せず)を介して取得する。個体識別モデルは、個体識別装置120により識別する個体群に対応した機械学習済みモデルである。例えば、個体識別装置120により識別する個体群が、ウシ個体No.1~ウシ個体No.10までの10頭のウシ個体が含まれる個体群Xである場合、個体識別モデルは、個体群Xに対応した機械学習済みモデルである。
識別部122は、取得した画像に含まれるウシ個体が何れのウシ個体であるかを表す個体識別情報と、当該画像データとを関連付けて識別画像蓄積部123に格納する。また、識別部122は、図4に示すように、個体識別情報を画像データに付して表示部(図示せず)に表示してもよい。例えば、識別部122は、図4に示すように、画像中のウシ個体にそのウシ個体を識別するウシ個体No.を付して表示する。
識別部122が識別する画像は、画像取得部121からウシ個体の体全体を含む体領域画像を抽出した画像であり得る。すなわち、個体識別装置120は、画像取得部121が取得した画像中のウシ個体の体領域に枠囲みを付与する枠囲み部と、枠囲みが付与された体領域画像を抽出する抽出部とをさらに備えていてもよい。また、画像取得部121が取得した画像中の動体を検知する動体検知部をさらに備えていてもよい。そして、識別部122は、抽出部が抽出した体領域画像を入力データとして個体識別モデルに入力することにより、当該画像中のウシ個体の個体識別情報を出力する。なお、識別部122が識別する画像は、例えば画像中のウシ個体が単独である場合には、画像取得部121がカメラ20から取得した画像そのものであってもよい。
このように、個体識別装置120は、個体識別の対象となる画像を、カメラ20から取得した画像そのものではなく、学習用データ生成装置10による学習用データ生成処理と同様の処理が施された体領域画像としてもよい。これにより、個体識別の対象となる画像に個体識別に不要な部分が含まれず、より正確な個体識別が可能である。
(識別画像蓄積部123)
識別画像蓄積部123には、個体識別された画像が格納される。また、識別画像蓄積部123には、個体識別装置120が行う動作に必要な一連の処理を示すプログラムが格納されていてもよい。
(個体識別処理)
図13を参照して、個体識別装置120による個体識別処理の一例について説明する。図13は、図12の個体識別装置120による個体識別処理を示すフローチャートである。
まず、ステップS131において、画像取得部121は、ウシ個体を含む画像を取得する。なお、個体識別装置120による個体識別処理は、カメラ20から撮像画像データの入力を受け付けることにより開始してもよい。
次に、識別部122は、学習装置100から学習済みの個体識別モデルを読み出す(ステップS132)。続いて、ステップS133において、識別部122は、読み出した個体識別モデルに画像データを入力する。そして、ステップS134において、識別部122は、個体識別モデルが出力したウシ個体の個体識別情報と画像とを関連付けて識別画像蓄積部123に格納し、個体識別処理を終了する。
このように、個体識別装置120は、個体群毎に対応した個体識別モデルを用いて個体を識別するので、例えば、ウシ個体群の個体構成や撮影条件が異なる酪農現場毎に対応した個体識別が可能である。また、学習装置100により学習済みの個体識別モデルを用いることによって、識別する画像中のウシ個体の向きに関わらず個体識別可能である。個体識別装置120によれば、個体識別モデルの汎用利用が可能である。
〔行動分析装置〕
本発明の一実施形態に係る行動分析装置は、個体を含む画像を取得する画像取得部と、上記学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部と、識別した個体の時系列の画像を取得する識別画像取得部と、取得した前記画像を参照して、前記個体の行動を分析する分析部とを備えている。すなわち、行動分析装置は、本発明の一実施形態に係る個体識別装置により識別した個体の時系列の画像を取得する識別画像取得部と、取得した前記画像を参照して、前記個体の行動を分析する分析部とを備えている。
図14は、本発明の一態様に係る行動分析装置の要部構成を示すブロック図である。行動分析装置140は、識別画像取得部141、分析部142、及び分析結果記憶部143を備えている。行動分析装置は、識別した個体の行動を追跡して分析する。
(識別画像取得部141)
識別画像取得部141は、個体識別装置120の識別画像蓄積部123に蓄積されたウシ個体の画像を、入出力部(図示せず)を介して取得する。識別画像取得部141は、個体識別装置120において識別したウシ個体の時系列の画像を取得する。識別画像取得部141は、取得したウシ個体の時系列の画像を分析部142に送る。
(分析部142)
分析部142は、ウシ個体の時系列の画像を参照して、ウシ個体の行動を分析する。ウシ個体の時系列の画像により、ウシ個体の行動を追跡することができる。分析部142は、ウシ個体の時系列の画像に基づいてウシ個体の行動を追跡することによって、所定時間内のウシの行動を分析する。分析部142は、ウシ個体の時系列の画像に基づいてウシ個体の行動を追跡することで、例えば、所定時間内のウシ個体の行動量、行動範囲、行動パターンを分析する。分析部142は、ウシ個体の分析結果を分析結果記憶部143に格納する。
分析部142は、ウシ個体が座っている時間や立っている時間、動き回っている時間等の行動パターンを分析することによって、ウシ個体の身体状態、発情状態、疾患等を予測してもよい。また、分析部142は、ウシ個体が水を飲む回数や時間、餌を食べる回数や時間等の行動パターンを分析することによって、ウシ個体の飼養管理をしてもよい。
分析部142は、ウシ個体の画像から、ウシ個体の画像における位置座標を取得し、当該位置座標をウシ個体が存在する空間の空間座標に変換することで、空間内におけるウシ個体の行動範囲、行動パターン等を追跡及び分析してもよい。位置座標から空間座標への変換は、例えば、画像上の空間座標が既知である基準点の情報を用いて、取得した位置座標をウシ個体が存在する空間の空間座標に変換することにより行うことができる。分析部142が参照するウシ個体の画像が、ウシ個体の体全体を含む体領域画像であれば、ウシ個体の足の位置座標を取得することができるので、空間内におけるウシ個体の行動を正確に追跡することができる。ウシ個体の足の位置座標又は空間座標は、図4に示すようにウシ個体の体領域画像と共に表示部(図示せず)に表示させてもよい。
(行動分析処理)
図15を参照して、行動分析装置140による行動分析処理の一例について説明する。図15は、図14の行動分析装置140による行動分析処理を示すフローチャートである。
まず、ステップS151において、識別画像取得部141は、ウシ個体の時系列の画像データを取得する。次に、分析部142は、ウシ個体の時系列の画像によりウシ個体の行動を追跡して、ウシ個体の行動を分析する(ステップS152)。分析部142は、分析結果を分析結果記憶部143に格納し、行動分析処理を終了する。
このように、行動分析装置140は、個体群毎に対応した個体識別モデルを用いて識別した個体の画像を追跡することで個体の行動を分析するので、例えば、ウシ個体群の個体構成や撮影条件が異なる酪農現場毎に対応した正確かつ容易な個体の行動分析が可能である。なお、図1に示す学習用データ生成装置10、図10に示す学習装置100、図12に示す個体識別装置120、及び、図14に示す行動分析装置140を備えた行動分析システムについても本発明の範疇に含まれる。
〔学習用データ生成方法及び行動分析方法〕
本発明の一態様に係る学習用データ生成方法は、個体を含む画像を取得する画像取得ステップと、取得した前記画像中の動体を検知する動体検知ステップと、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成ステップとを含む。一例として、本発明の一態様に係る学習用データ生成方法は、上述した本発明の一態様に係る学習用データ生成装置により実現されるものである。したがって、本発明の一態様に係る学習用データ生成方法の説明は、上述した本発明の一態様に係る学習用データ生成装置の説明に準じる。
本発明の一態様に係る行動分析方法は、個体を含む画像を取得する画像取得ステップと、上記学習用データ生成方法により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、識別した個体の時系列の画像を取得する識別画像取得ステップと、取得した前記画像を参照して、前記個体の行動を分析する分析ステップとを含む。一例として、本発明の一態様に係る行動分析方法は、上述した本発明の一態様に係る行動分析装置により実現されるものである。したがって、本発明の一態様に係る行動分析方法の説明は、上述した本発明の一態様に係る行動分析装置の説明に準じる。
〔ソフトウェアによる実現例〕
学習用データ生成装置10、学習装置100、個体識別装置120、及び行動分析装置140の制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、上述した各装置は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
すなわち、本発明の各態様に係る学習用データ生成装置、学習装置、個体識別装置、行動分析装置140は、コンピュータによって実現してもよく、この場合には、コンピュータを前記各装置が備える各部(ソフトウェア要素)として動作させることにより前記各装置をコンピュータにて実現させるプログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
具体的には、下記のプログラムについても、本発明の範疇に入る:
本発明の各態様に係る学習用データ生成装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、取得した前記画像中の動体を検知する動体検知ステップと、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成ステップとを実行することを特徴とする、プログラム:
本発明の各態様に係る行動分析装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、本発明の各態様に係る学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、識別した個体の時系列の画像を取得する識別画像取得ステップと、取得した前記画像を参照して、前記個体の行動を分析する分析ステップとを実行することを特徴とする、プログラム:
本発明の各態様に係る学習装置としてコンピュータを機能させるためのプログラムであって、本発明の各態様に係る学習用データ生成装置が生成した学習用データを取得する学習用データ取得ステップと、取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、個体を識別する識別モデルを構築する学習ステップとを実行することを特徴とする、プログラム:
本発明の各態様に係る個体識別装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、本発明の各態様に係る学習装置によって構築された前記識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップとを実行することを特徴とする、プログラム。
〔変形例〕
本発明の他の態様に係る学習用データ生成装置は、個体を含む画像を取得する画像取得部と、取得した前記画像中の前記個体を検出する検出部と、検出した前記個体の体全体を含む体領域を特定する体領域特定部と、特定した前記体領域の体領域画像を抽出する抽出部と、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成部とを備えている。
すなわち、学習用データ生成装置において、画像中の個体を検出する方法は、動体検知方法に限定されず、個体を検出する他の方法により実現してもよい。画像中の個体を検出する他の例として、機械学習を利用した方法が挙げられる。よって、学習用データ生成装置において、動体検知部に替えて機械学習を利用して画像中の個体を検出する検出部を用いる構成についても、本発明の範疇に含まれる。
機械学習を利用して画像中の個体を検出する場合、画像の撮影方向に応じて、個体の検出に適した機械学習モデルを作成することが好ましい。例えば、個体を斜め上方から撮影した画像を用いる場合、斜め上方から撮影した画像中の個体の検出に適するように生成した機械学習モデルを用いる。機械学習を利用して画像中の個体を検出する方法には、機械学習を利用して物体を検出する方法及び個体の骨格を検出する方法が含まれる。そして、このような検出部は、本発明の一態様に係る個体識別装置において使用することもできる。
画像から物体を検出するように作成した機械学習モデルを用いる場合、図17に示すように、ウシ個体の画像データを入力データとして物体検出機械学習モデルに入力することにより、画像中におけるウシ個体部分の検出結果が出力される。また、画像から骨格を検出するように作成した機械学習モデルを用いる場合、図18に示すように、ウシ個体の画像データを入力データとして骨格検知機械学習モデルに入力する。これにより、画像中のウシ個体の骨格位置が検出されて個体毎にまとめられ、画像中におけるウシ個体部分の検出結果が出力される。
また、学習用データ生成装置において、検出した個体の体全体を含む体領域を特定する方法は、枠囲みを付与する方法に限定されず、個体の体領域を特定する他の方法により実現してもよい。個体の体領域を特定する他の例として、図19に示すように、画像セグメンテーションを利用した方法が挙げられる。図19は、本発明の一態様に係る学習用データ生成装置において体領域を特定する形態の一例を説明する図である。図19に示すように、ウシ個体を含む画像において画像セグメンテーションにより体領域を特定し、例えば、特定した体領域範囲のみを示す位置座標を取得する。このように、学習用データ生成装置において、枠囲み部に替えて画像セグメンテーションにより個体の体領域を特定する体領域特定部を用いる構成についても、本発明の範疇に含まれる。また、このような体領域特定部は、本発明の一態様に係る個体識別装置において使用することもできる。
さらに、学習用データ生成装置において、個体の体の一部を表す画像から体全体の画像を特定する方法は、体の他の部分を表す画像を復元する方法に限定されず、体の一部を表す画像から体全体の画像を特定する他の方法により実現してもよい。体の一部を表す画像から体全体の画像を特定する他の例として、機械学習を利用した骨格検知に基づいて推定された姿勢を参照する方法が挙げられる。
骨格検知に基づいて推定された姿勢を参照して、体の一部を表す画像から体全体の画像を特定する例を、図20に示す。図20は、本発明の一態様に係る学習用データ生成装置において体の一部を表す画像から体全体の画像を特定するために用いられる姿勢推定モデルの一例を説明する図である。図20に示すように、ウシ個体の一部のみが含まれる画像データを取得した場合に、画像に含まれる部位(見えている部位)から推定した姿勢を参照して、画像に含まれない部位(見えない部位)の位置を特定する。
例えば、図20の画像データにおいて見えているのは鼻、左目、右目、左耳、右耳、左肩、及び左腰の7箇所のみである。この画像データを姿勢推定モデルに入力すると、機械学習により、見えている部位の骨格を検知する。そして、見えていない10箇所の部位の位置(右肩、右腰、左前足首、左前蹄、左後足首、左後蹄、右前足首、右前蹄、右後足首、右後蹄)を含む骨格フレーム情報が姿勢の推定結果として出力される。なお、ここに示したウシ個体の部位は例示であり、画像に含まれる部位及び画像に含まれない部位の種類や数はこれらに限定されず、適宜設定可能である。
これにより、画像中に遮蔽物があり、個体の一部しか含まれないような場合であっても、体領域の全体を特定し、個体の行動解析に利用することができる。このように、画像に含まれない部位を推定するための情報として、画像中に含まれる部位の情報を用いている。また、入力データとして、例えば、対象となる画像の時系列の前後の画像において検出した各部位の位置を利用してもよい。
このように、学習用データ生成装置において、体領域特定部が、個体の体の一部を表す画像から当該個体の骨格を検知して姿勢を推定するように機械学習した姿勢推定モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される個体の姿勢を参照して、個体の体全体を表す体領域を特定する構成についても、本発明の範疇に含まれる。また、このような体領域特定部は、本発明の一態様に係る個体識別装置において使用することもできる。
〔行動型分析システム〕
動物各個体の行動種別(行動型)は動物を管理する上で重要な情報である。例えば、採食行動や休息行動は維持行動が確保されていることの指標となる。また、反芻家畜において、行動型の中でも特に反芻行動は、飼料摂取量をはじめ各種疾病の徴候や回復状態、あるいはストレス状態を反映するバロメーターとなる有用な情報とされている。従来、ウェアラブルセンサ等を利用して行動型を把握するシステムが実用化しているがコストや管理に係る労力の点で問題がある。一方、従来の画像解析では、特に反芻のような動作の把握が必要な行動の検出が困難であった。本発明の一形態によれば、画像解析を利用して動物の行動型を把握することで、省力的かつ容易に行動型データを取得することができる。また、本発明の一形態によれば、動作の把握が必要な行動型であっても検出することができる。
図21を参照して、本発明の一態様に係る行動型分析システムについて説明する。図21は、本発明の一態様に係る行動型分析システム200の要部構成を示すブロック図である。行動型分析システム200は、行動型分析装置220を備えている。また、行動型分析システム200は、カメラ20、学習用データ生成装置210及び学習装置100を備えている。
(行動型分析装置220)
行動型分析装置220は、画像取得部221、検出部222、識別部223、位置特定部224、情報取得部225、及び、行動型分析部226を備えている。行動型分析装置220は、さらに、分析結果記憶部227を備えている。行動型分析装置220は、個体の行動型を検出して分析する。
<個体>
行動型分析装置220により行動型を分析する個体は、ヒト、動物、他の移動体等であり得るが、閉鎖された空間内で群毎に管理される個体であってもよいし、個体毎に管理されている個体であってもよい。このような個体には、多頭飼育されている家畜個体及び単頭飼育されている家畜個体が含まれる。家畜個体は、ウシ個体のような反芻動物個体であってもよく、例えば、乳牛個体、より具体的には、ホルスタイン種の乳牛個体であってもよい。多頭飼育されている個体は、屋内で放し飼いにされている個体であってもよいし、鎖等に繋がれてつなぎ飼いにされている個体であってもよい。また、多頭飼育されている個体は、屋外の管理区域内で飼育されている個体であってもよい。本実施形態においては、個体がウシ個体である場合を例として説明する。
<画像取得部221>
画像取得部221は、カメラ20により撮影されたウシ個体を含む画像を取得する。画像取得部221は、上述した個体識別装置120の画像取得部121と同様に構成される。そのため、画像取得部221の説明として、個体識別装置120の画像取得部121の説明を援用し、その詳細な説明は省略する。カメラ20についても、個体識別装置120に関して説明したカメラ20と同一であるため、その詳細な説明は省略する。
<検出部222>
検出部222は、画像取得部221が取得した画像中のウシ個体を検出する。画像中のウシ個体を検出する方法としては、動体検知方法、機械学習を利用した方法等が挙げられる。動体検知方法を利用する場合、検出部222は、学習用データ生成装置10の動体検知部12と同様に構成することができる。機械学習を利用する場合、図17に示す物体検出機械学習モデル、及び、図18に示す骨格検知機械学習モデルのような、機械学習モデルを用いることができる。なお、画像中にウシ個体が単体で含まれる場合には、ウシ個体の検出は不要であり、取得した画像において後述する位置特定が行なわれてもよい。
<識別部223>
識別部223は、検出部222が検出したウシ個体を識別する。識別部223は、上述した個体識別装置120の識別部122と同様に構成される。そのため、識別部223の説明として、個体識別装置120の識別部122の説明を援用し、その詳細な説明は省略する。なお、画像中にウシ個体が単体で含まれる場合には、ウシ個体の識別は不要であり、取得した画像において後述する位置特定が行なわれてもよい。
<位置特定部224>
位置特定部224は、識別した個体の体の部位の位置を特定する。位置特定部224が特定する個体の体の部位の位置は、例えば、鼻先、口元、前肢踵、前肢蹄、等の個体の体の部位である。図22に、位置特定部224がウシ個体の体の部位を特定する例を示す。図22の左側には、座位のウシ個体の鼻先、口元、前肢踵、及び前肢蹄を特定した例を、右側に立位のウシ個体の鼻先、口元、前肢踵、及び前肢蹄を特定した例を示す。なお、特定する個体の体の部位の数はこれに限定されず、より少なくても、より多くてもよい。
位置特定部224は、機械学習を利用して個体の体の部位の位置を特定してもよい。例えば、個体を含む画像を入力データとして、当該画像中の当該個体の体の部位の位置を特定するように機械学習した位置特定モデルに、画像取得部が取得した画像を入力データとして入力することにより出力される位置を特定する。位置特定モデルに個体を含む画像を入力することにより、図22のように個体の体の部位が特定された画像が出力され得る。
位置特定部224は、個体の体の部位の位置の座標を取得することで、当該位置を特定してもよい。位置特定部224は、画像中における個体の体の部位の位置座標を取得する。位置特定部224は、取得した位置座標をウシ個体が存在する空間の空間座標に変換してもよい。位置特定部224は、撮像された時間が異なる複数のフレーム分の画像において位置座標を取得する。
位置特定部224は、個体の体の一部を表す画像から当該個体の骨格を検知して姿勢を推定するように機械学習した姿勢推定モデルに、検出した前記個体の画像データを入力データとして入力することにより出力される個体の姿勢を参照して、前記位置を特定してもよい。位置特定部224において用いる姿勢推定モデルは、図20に示す姿勢推定モデルと同一である。また、位置特定部224は、学習用データ生成装置10の枠囲み部13において用いられる個体の体の一部を表す画像から当該個体の体全体を表す画像を生成するように機械学習した生成モデルを用いてもよい。これにより、画像中に遮蔽物があり、個体の体の一部しか含まれないような場合であっても、個体の体の部位を特定することが可能であり、また、位置座標を取得することも可能である。
なお、位置特定部224は、画像データに個体の体の一部しか含まれていない場合、個体の体全体を表す画像を生成することなく、個体の体の一部の画像において個体の体の部位を特定し、位置座標を取得してもよい。この場合、例えば、個体の体の一部の画像から個体の体の部位を特定することが可能なように学習させた位置特定モデルを用いて、個体の体の部位を特定してもよい。個体の体の一部の画像から体全体の画像を復元することなく、個体の体の一部の画像をそのまま利用しても、行動型分析を行うことができる。
<情報取得部225>
情報取得部225は、特定した位置の所定時間内の変化を表す時系列情報を取得する。情報取得部225が取得する時系列情報は、所定時間内の連続する画像から得られるウシ個体の部位の変化を表す情報であり、位置特定部224が取得した位置座標に基づいて得られる各部位間の平均距離及び各部位の画像フレーム間の平均変位であり得る。
<行動型分析部226>
行動型分析部226は、取得した時系列情報を参照して、個体の行動型を分析する。行動型分析部226は、時系列情報を参照することで、ウシ個体の動作を検出することが可能であり、また、ウシ個体の行動を追跡することもできる。これにより、所定のタイミングや所定の時間内における、ウシ個体の動作や行動から行動型を分析することができる。行動型分析部226は、ウシ個体の行動型の分析結果を分析結果記憶部217に格納する。
行動型分析部226により分析されるウシ個体の行動型は、例えば、横臥休息、横臥反芻、立位休息、立位反芻、採食、等のような行動の種別である。図23に示すように、所定時間内の連続する画像から得られる時系列情報と、その時系列情報に対応するウシ個体の行動型とを対応付けた情報を予め取得しておくことで、時系列情報に基づいてウシ個体の行動型を分析することができる。
行動型分析部226は、時系列情報とウシ個体の行動型とが対応付けられた教師データを用いて構築された分析モデルを用いて、ウシ個体の行動型を分析してもよい。このような分析モデルに、時系列情報を入力データとして入力することにより、ウシ個体の行動型が出力される。行動型分析部226は、図23に示すように、分析したウシ個体の行動型をウシ個体の画像と共に表示部(図示せず)に表示させてもよい。また、行動型分析部226は、画像データに個体の体の一部しか含まれていない場合、特定した体の一部の部位の位置座標の情報のみを用いて、個体の行動型を分析してもよい。この場合、体の部位の位置座標に欠損データがあっても行動型を分析することが可能なように学習させた分析モデルを用いて、個体の行動型を分析してもよい。
<学習用データ生成装置210>
行動型分析システム200が備える学習用データ生成装置210は、個体を含む画像を取得する画像取得部11と、取得した画像中の前記個体を検出する検出部212と、検出した個体の体領域を特定する特定部213と、特定した体領域の体領域画像を抽出する抽出部14と、抽出した体領域画像から、個体を識別する識別モデルの学習用データを生成する学習用データ生成部15とを備えている。学習用データ生成装置210は、生成した学習用データを記憶する学習用データ記憶部16をさらに備えている。
検出部212は、動体検知法、機械学習を利用した方法等を用いて、画像中の個体を検出する。機械学習を利用して画像中の個体を検出する方法には、機械学習を利用して物体を検出する方法及び個体の骨格を検出する方法が含まれる。特定部213は、検出した個体の体全体を含む体領域に枠囲みを付与する方法、画像セグメンテーションを利用する方法等を用いて、検出した個体の体領域を特定する。
画像取得部11、抽出部14、及び、学習用データ生成部15は、図1に示す学習用データ生成装置10におけるこれらの部材と同一である。すなわち、学習用データ生成装置210は、学習用データ生成装置10と同様に構成されている。そのため、学習用データ生成装置210の説明として、学習用データ生成装置10の説明を援用し、その詳細な説明は省略する。
学習用データ生成装置210は、識別モデルを構築するための学習用データのみならず、行動型分析部226が行動型を分析するために用いる分析モデルを構築するための学習用データを生成するために用いることもできる。
<学習装置100>
学習装置100は、学習用データ生成装置210が生成した学習用データを用いて、識別モデル、分析モデル等を構築する。行動型分析システム200が備える学習装置100は、図10に示す学習装置100と同一である。したがって、行動型分析システム200が備える学習装置100の説明として、図10に示す学習装置100の説明を援用し、その詳細な説明は省略する。
<行動型分析処理>
図24を参照して、行動型分析装置220による行動型分析処理の一例について説明する。図24は、図23の行動型分析装置220による行動型分析処理を示すフローチャートである。
まず、ステップS241において、画像取得部221は、ウシ個体を含む画像を取得する。なお、行動型分析装置220による行動型分析処理は、カメラ20から撮像画像データの入力を受け付けることにより開始してもよいし、ユーザからの行動型分析処理を開始する操作入力を受け付けることにより開始してもよい。
次に、検出部222は、骨格検知機械学習モデルに画像データを入力し、画像データ中のウシ個体を検出する(ステップS242)。そして、識別部223は、検出されたウシ個体の画像データを識別モデルに入力し、ウシ個体の個体識別情報を取得し、ウシ個体を識別する(ステップS243)。
位置特定部224は、識別されたウシ個体の画像データを位置特定モデルに入力し、ウシ個体の体の部位を特定する位置座標を取得する(ステップS244)。そして、情報取得部225は、特定された位置座標を連続する数フレーム分取得し、各部位間の平均距離及び各部位のフレーム間の平均変位を時系列情報として算出する(ステップS245)。
行動型分析部226は、時系列情報を分析モデルに入力し、ウシ個体の行動型を分析する(ステップS246)。行動型分析部226は、分析結果を分析結果記憶部227に格納し、行動型分析処理を終了する。
このように、行動型分析装置220は、画像データから個体の体の部位の位置を特定し、当該位置の変化を追跡することで、個体の行動型を分析することができる。これにより、省力的かつ容易に行動型分析することが可能であり、また、反芻行動のような動作の把握が必要な行動型であっても検出することができる。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
10 学習用データ生成装置、11 画像取得部、12 動体検知部、13 枠囲み部、14 抽出部、15 学習用データ生成部(生成部)、100 学習装置、101 学習用データ取得部、102 学習部、120 個体識別装置、121 画像取得部、122 識別部、140 行動分析装置、141 識別画像取得部、142 分析部、200 行動型分析システム、220 行動型分析装置、221 画像取得部、222 検出部、223 識別部、224 位置特定部、225 情報取得部、226 行動型分析部

Claims (25)

  1. 個体を含む画像を取得する画像取得部と、
    取得した前記画像中の動体を検知する動体検知部と、
    検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲み部と、
    枠囲みが付与された前記体領域の体領域画像を抽出する抽出部と、
    抽出した前記体領域画像から、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルの学習用データを生成する生成部と
    を備えている、学習用データ生成装置。
  2. 前記枠囲み部は、個体を含む画像から当該個体の体全体を含む体領域を抽出するように機械学習した判別モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される体領域に枠囲みを付与する、請求項1に記載の学習用データ生成装置。
  3. 前記枠囲み部は、個体の体の一部を表す画像から当該個体の体全体を表す画像を生成するように機械学習した生成モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される個体の体全体を表す画像を体領域とし、当該体領域に枠囲みを付与する、請求項1又は2に記載の学習用データ生成装置。
  4. 前記個体は、多頭飼育されている家畜個体である、請求項1から3のいずれか1項に記載の学習用データ生成装置。
  5. 前記生成部は、前記体領域画像を個体毎に分類して蓄積し、前記学習用データを生成する、請求項1から4のいずれか1項に記載の学習用データ生成装置。
  6. 請求項1から5のいずれか1項に記載の学習用データ生成装置としてコンピュータを機能させるためのプログラムであって、
    個体を含む画像を取得する画像取得ステップと、
    取得した前記画像中の動体を検知する動体検知ステップと、
    検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、
    枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、
    抽出した前記体領域画像から、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルの学習用データを生成する生成ステップと
    を実行することを特徴とする、プログラム。
  7. 個体を含む画像を取得する画像取得部と、
    請求項1から5のいずれか1項に記載の学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部と、
    識別した個体の時系列の画像を取得する識別画像取得部と、
    取得した前記画像を参照して、前記個体の行動を分析する分析部と
    を備えている、行動分析装置。
  8. 請求項7に記載の行動分析装置としてコンピュータを機能させるためのプログラムであって、
    個体を含む画像を取得する画像取得ステップと、
    請求項1から5のいずれか1項に記載の学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、
    識別した個体の時系列の画像を取得する識別画像取得ステップと、
    取得した前記画像を参照して、前記個体の行動を分析する分析ステップと
    を実行することを特徴とする、プログラム。
  9. 請求項1から5のいずれか1項に記載の学習用データ生成装置が生成した学習用データを取得する学習用データ取得部と、
    取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルを構築する学習部と
    を備えている、学習装置。
  10. 請求項9に記載の学習装置としてコンピュータを機能させるためのプログラムであって、
    請求項1から5のいずれか1項に記載の学習用データ生成装置が生成した学習用データを取得する学習用データ取得ステップと、
    取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルを構築する学習ステップと
    を実行することを特徴とする、プログラム。
  11. 個体を含む画像を取得する画像取得部と、
    請求項9に記載の学習装置によって構築された前記識別モデルに、取得した前記画像の
    データを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部と
    を備えている、個体識別装置。
  12. 請求項11に記載の個体識別装置としてコンピュータを機能させるためのプログラムであって、
    個体を含む画像を取得する画像取得ステップと、
    請求項9に記載の学習装置によって構築された前記識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと
    を実行することを特徴とする、プログラム。
  13. 請求項6、8、10又は12に記載のプログラムを記録した記録媒体。
  14. 個体を含む画像を取得する画像取得ステップと、
    取得した前記画像中の動体を検知する動体検知ステップと、
    検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、
    枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、
    抽出した前記体領域画像から、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルの学習用データを生成する生成ステップと
    を含む、学習用データ生成方法。
  15. 個体を含む画像を取得する画像取得ステップと、
    請求項14に記載の学習用データ生成方法により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、
    識別した個体の時系列の画像を取得する識別画像取得ステップと、
    取得した前記画像を参照して、前記個体の行動を分析する分析ステップと
    を含む、行動分析方法。
  16. 個体を含む画像を取得する画像取得部と、
    取得した前記画像中の前記個体を検出する検出部と、
    検出した前記個体の体全体を含む体領域を特定する体領域特定部と、
    特定した前記体領域の体領域画像を抽出する抽出部と、
    抽出した前記体領域画像から、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルの学習用データを生成する生成部と
    を備えている、学習用データ生成装置。
  17. 前記検出部は、個体を含む画像を入力データとして、当該画像中の当該個体を検出するように機械学習した検出モデルに、前記画像取得部が取得した前記画像を入力データとして入力することにより出力される前記個体を検出する、請求項16に記載の学習用データ生成装置。
  18. 前記体領域特定部は、前記検出部が検出した前記個体の体全体を含む体領域を画像セグメンテーションにより特定する、請求項16又は17に記載の学習用データ生成装置。
  19. 前記体領域特定部は、個体の体の一部を表す画像から当該個体の骨格を検知して姿勢を推定するように機械学習した姿勢推定モデルに、検出した前記個体の画像データを入力データとして入力することにより出力される個体の姿勢を参照して、個体の体全体を表す体域を特定する、請求項16~18のいずれか1項に記載の学習用データ生成装置。
  20. 前記生成部は、体領域画像を同一個体毎に分類して蓄積し、前記学習用データを生成する、請求項16~19のいずれか1項に記載の学習用データ生成装置。
  21. 個体を含む画像を取得する画像取得部と、
    取得した前記画像中の前記個体を検出する検出部と、
    請求項1~5および16~20のいずれか1項に記載の学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体を他の個体と識別する識別部と、
    識別した個体の体の部位の位置を特定する位置特定部と、
    特定した前記位置の所定時間内の変化を表す時系列情報を取得する情報取得部と、
    取得した前記時系列情報を参照して、前記個体の行動型を分析する行動型分析部と
    を備えている、行動型分析装置。
  22. 前記位置特定部は、個体を含む画像を入力データとして、当該画像中の当該個体の体の部位の位置を特定するように機械学習した位置特定モデルに、前記画像取得部が取得した前記画像を入力データとして入力することにより出力される前記位置を特定する、請求項21に記載の行動型分析装置。
  23. 前記位置特定部は、前記個体の体の部位の位置の座標を取得する、請求項21又は22に記載の行動型分析装置。
  24. 前記行動型分析部は、時系列情報を入力データとして、当該時系列情報に対応した行動型を推定するように機械学習した分析モデルに、前記情報取得部が取得した前記時系列情報を入力データとして入力することにより出力される行動型を分析結果として取得する、請求項21から23のいずれか1項に記載の行動型分析装置。
  25. 前記位置特定部は、個体の体の一部を表す画像から当該個体の骨格を検知して姿勢を推定するように機械学習した姿勢推定モデルに、検出した前記個体の画像データを入力データとして入力することにより出力される個体の姿勢を参照して、前記位置を特定する、請求項21から24のいずれか1項に記載の行動型分析装置。
JP2021110070A 2020-07-01 2021-07-01 学習用データ生成装置、学習装置、行動分析装置、行動型分析装置、プログラム、及び記録媒体 Active JP7260922B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023059075A JP2023073478A (ja) 2020-07-01 2023-03-31 行動型分析装置、行動型分析方法、行動型分析プログラム、及び記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020114316 2020-07-01
JP2020114316 2020-07-01

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023059075A Division JP2023073478A (ja) 2020-07-01 2023-03-31 行動型分析装置、行動型分析方法、行動型分析プログラム、及び記録媒体

Publications (2)

Publication Number Publication Date
JP2022013910A JP2022013910A (ja) 2022-01-18
JP7260922B2 true JP7260922B2 (ja) 2023-04-19

Family

ID=80169776

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021110070A Active JP7260922B2 (ja) 2020-07-01 2021-07-01 学習用データ生成装置、学習装置、行動分析装置、行動型分析装置、プログラム、及び記録媒体
JP2023059075A Pending JP2023073478A (ja) 2020-07-01 2023-03-31 行動型分析装置、行動型分析方法、行動型分析プログラム、及び記録媒体

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023059075A Pending JP2023073478A (ja) 2020-07-01 2023-03-31 行動型分析装置、行動型分析方法、行動型分析プログラム、及び記録媒体

Country Status (1)

Country Link
JP (2) JP7260922B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012046392A1 (ja) 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
JP2019024482A (ja) 2017-07-31 2019-02-21 株式会社コンピューター総合研究所 情報処理システム、情報処理装置、およびプログラム
JP2020038572A (ja) 2018-09-05 2020-03-12 京セラ株式会社 画像学習プログラム、画像学習方法、画像認識プログラム、画像認識方法、学習データセットの生成プログラム、学習データセットの生成方法、学習データセット、及び画像認識装置
JP2021144631A (ja) 2020-03-13 2021-09-24 エヌ・ティ・ティ・ビズリンク株式会社 動物行動推定システム、動物行動推定支援装置、動物行動推定方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012046392A1 (ja) 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
JP2019024482A (ja) 2017-07-31 2019-02-21 株式会社コンピューター総合研究所 情報処理システム、情報処理装置、およびプログラム
JP2020038572A (ja) 2018-09-05 2020-03-12 京セラ株式会社 画像学習プログラム、画像学習方法、画像認識プログラム、画像認識方法、学習データセットの生成プログラム、学習データセットの生成方法、学習データセット、及び画像認識装置
JP2021144631A (ja) 2020-03-13 2021-09-24 エヌ・ティ・ティ・ビズリンク株式会社 動物行動推定システム、動物行動推定支援装置、動物行動推定方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Niki Parmar, et al.,Image Transformer,Proceedings of the 35 th International Conference on Machine, Stockholm, Sweden, PMLR 80, 2018,2018年06月15日,https://arxiv.org/pdf/1802.05751.pdf

Also Published As

Publication number Publication date
JP2022013910A (ja) 2022-01-18
JP2023073478A (ja) 2023-05-25

Similar Documents

Publication Publication Date Title
Wurtz et al. Recording behaviour of indoor-housed farm animals automatically using machine vision technology: A systematic review
Nasirahmadi et al. Implementation of machine vision for detecting behaviour of cattle and pigs
Bao et al. Artificial intelligence in animal farming: A systematic literature review
Zhao et al. Automatic lameness detection in dairy cattle based on leg swing analysis with an image processing technique
Lao et al. Automatic recognition of lactating sow behaviors through depth image processing
US9521829B2 (en) Livestock identification and monitoring
JP2021101668A (ja) 発情診断システム、発情診断方法、及びプログラム、並びに個体識別システム
Roland et al. Evaluation of a triaxial accelerometer for monitoring selected behaviors in dairy calves
KR102341715B1 (ko) 가축 모니터링 장치 및 방법
CA3174258A1 (en) Animal visual identification, tracking, monitoring and assessment systems and methods thereof
Jia et al. Segmentation of body parts of cows in RGB-depth images based on template matching
CA3230401A1 (en) Systems and methods for the automated monitoring of animal physiological conditions and for the prediction of animal phenotypes and health outcomes
Oczak et al. Comparison of the automated monitoring of the sow activity in farrowing pens using video and accelerometer data
EP3933766B1 (en) A system and a method for livestock monitoring
KR20200071597A (ko) 영상분석을 활용한 어미돼지의 분만시점 예측 방법 및 장치
Mittek et al. Health monitoring of group-housed pigs using depth-enabled multi-object tracking
Azarpajouh et al. Farm 4.0: innovative smart dairy technologies and their applications as tools for welfare assessment in dairy cattle
Yaseer et al. A review of sensors and Machine Learning in animal farming
JP7260922B2 (ja) 学習用データ生成装置、学習装置、行動分析装置、行動型分析装置、プログラム、及び記録媒体
CN111814698A (zh) 基于人工智能及航拍图像的牧区母牛护犊行为检测方法
Shu et al. Non-contact respiration rate measurement of multiple cows in a free-stall barn using computer vision methods
CN113221776A (zh) 一种基于人工智能对反刍动物一般行为识别的方法
Yuan et al. Stress-free detection technologies for pig growth based on welfare farming: A review
JP2024046596A (ja) 状態予測装置、状態予測方法、プログラム、及び記録媒体
Siegford et al. Practical considerations for the use of precision livestock farming to improve animal welfare

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220614

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230331

R150 Certificate of patent or registration of utility model

Ref document number: 7260922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150