JP2023125869A - Individual identification system and individual identification method - Google Patents

Individual identification system and individual identification method Download PDF

Info

Publication number
JP2023125869A
JP2023125869A JP2022030217A JP2022030217A JP2023125869A JP 2023125869 A JP2023125869 A JP 2023125869A JP 2022030217 A JP2022030217 A JP 2022030217A JP 2022030217 A JP2022030217 A JP 2022030217A JP 2023125869 A JP2023125869 A JP 2023125869A
Authority
JP
Japan
Prior art keywords
feature
animal
database
individual
individual identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022030217A
Other languages
Japanese (ja)
Other versions
JP7360489B2 (en
Inventor
聡 中沢
Satoshi Nakazawa
諒 真島
Ryo Mashima
亮人 小泉
Akihito KOIZUMI
ティン カオ
Ting Gao
亜奈 稲垣
Tsuguna Inagaki
美江 大越
Mie Okoshi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anicom Holdings Inc
Original Assignee
Anicom Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anicom Holdings Inc filed Critical Anicom Holdings Inc
Priority to JP2022030217A priority Critical patent/JP7360489B2/en
Publication of JP2023125869A publication Critical patent/JP2023125869A/en
Application granted granted Critical
Publication of JP7360489B2 publication Critical patent/JP7360489B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/70Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in livestock or poultry

Landscapes

  • Image Analysis (AREA)

Abstract

To provide an individual identification system or an individual identification method for animals, equipped with means for identifying an individual using an image of an animal in a simple method.SOLUTION: An individual identification system includes: a database which stores feature quantities and individual identification information of animals extracted using a trained model from face images of the animals; receiving means for receiving input of a face image of an animal; feature extraction means which extracts feature quantities from the face image input to the receiving means, including the trained model; and determination means which compares the feature quantities stored in the database with the feature quantities extracted by the feature extraction unit while applying small weight to the feature quantities that are apt to be affected by age, to determine whether the face image of the animal input to the receiving means is an image of a same individual as an animal related to the individual identification information stored in the database.SELECTED DRAWING: Figure 1

Description

本発明は、個体識別システム及び個体識別方法に関し、詳しくは、動物の顔の画像から、動物の個体を識別するシステム及び方法に関する。 The present invention relates to an individual identification system and an individual identification method, and more particularly to a system and method for identifying an individual animal from an image of an animal's face.

犬や猫、ウサギを始めとする愛玩動物、牛や豚を始めとする家畜は、人間にとってかけがえのない存在である。近年、愛玩動物いわゆるペットが人間と同じように扱われることが増えており、ペットの個体識別へのニーズが高まっている。 Pet animals such as dogs, cats, and rabbits, and livestock such as cows and pigs are irreplaceable to humans. In recent years, pet animals, so-called pets, are increasingly being treated in the same way as humans, and the need for individual identification of pets is increasing.

例えば、ペット用のトリミングサロン、ペットが同伴できるペットカフェ、ドッグラン、ペットとともに宿泊できる宿泊施設など、ペットが利用できる店舗やサービスが身近になってきている。このようなペットが利用できる店舗やサービスを運営しようとする場合、ペットの個体ごとに料金を徴収したり、ペットの個体を登録し、過去のサービス提供履歴を参照しながらサービスを提供するというように、ペットの個体を識別し、判別することに対するニーズがある。 For example, stores and services that allow pets are becoming more common, such as pet grooming salons, pet cafes where pets can be brought along, dog runs, and lodging facilities where pets can stay overnight. When trying to operate a store or service where pets can be used, it is necessary to collect fees for each individual pet, register individual pets, and provide services while referring to past service provision history. There is a need for identifying and distinguishing individual pets.

また、ペットが行方不明になった場合、ペット捜索サービスに依頼することがあるが、行方不明になったペットを探す場合、飼い主から提供されたペットの写真を元に、ペットの捜索が行われるのが一般的であり、当該写真に映った個体と、捜索対象の動物であると疑われている個体との同一性判断が問題となることから、ペットの写真からの個体識別が求められる。 In addition, if a pet goes missing, a request may be made to a pet search service, but when searching for a missing pet, the search for the pet is conducted based on the pet's photo provided by the owner. Since it is common for pets to be identified from photographs, it is necessary to determine the identity of the individual in the photograph and the animal suspected of being the search target.

また、ペット保険を提供する場合、保険がかけられているペットとそうではないペットとを識別する必要がある。例えば、ペット保険の保険証を契約者に提供し、契約者が当該保険証を動物病院の窓口で提示することで保険金の支払いを受けられるようにするためには、当該保険証に記載されているペットの個体が、実際に診療を受けたペットの個体と同一でなくてはならない。現状では、このようなペット保険を提供しようとする場合、ペット保険運営会社がペットの顔写真付きの保険証を契約者に発行し、契約者が、動物病院の受付において、当該保険証を提示し、動物病院が、保険証に掲載されているペットの写真と診察を受けたペットとを目視で比較し、個体の同一性を判断せざるを得ない。 Additionally, when providing pet insurance, it is necessary to distinguish between insured pets and non-insured pets. For example, if you want to provide a pet insurance card to a policyholder and allow the policyholder to receive an insurance payment by presenting the card at a veterinary clinic, you need to The pet being treated must be the same as the pet actually receiving treatment. Currently, when attempting to provide such pet insurance, the pet insurance management company issues an insurance card with a photo of the pet to the policyholder, and the policyholder must present the insurance card at the reception desk of the veterinary hospital. However, veterinary hospitals have no choice but to visually compare the photo of the pet listed on the insurance card with the pet that was examined to determine the identity of the pet.

そこで、簡易な方法で、ペットの個体を識別できる手段が求められている。 Therefore, there is a need for a means for identifying individual pets using a simple method.

特許文献1には、ネットワークカメラと、そのカメラにより撮影した野生動物が、未だ捕獲設備の内部に現存するか否かを検知する現存検知センサーと、上記ネットワークカメラから受信した電子メールを閲覧できるスマートフォンやタブレット端末、パソコンなどのユーザー情報端末とを備え、捕獲設備の据付け現場から遠く離れた遠隔地に居る監視者が、上記ネットワークカメラから1回だけ又は1枚だけ受信した電子メールの静止画を閲覧しつつ、ネットワークカメラや捕獲設備を遠隔操作できる個体識別式の野生動物捕獲システムが開示されている。 Patent Document 1 discloses a network camera, an existence detection sensor that detects whether a wild animal photographed by the camera still exists inside a capture facility, and a smartphone that can view e-mails received from the network camera. A monitor located in a remote location far away from the installation site of the capture equipment, equipped with a user information terminal such as a camera, a tablet terminal, or a personal computer, can view still images of e-mails received only once or only once from the network camera. An individual identification type wild animal capture system has been disclosed that allows you to remotely control network cameras and capture equipment while viewing the animals.

また、特許文献2には、ユーザ端末が撮影の際に撮影対象が振り向く周波数の音を出す撮影手段を有し、動物識別情報登録手段が、撮影手段により撮影された写真の写真データをユーザ端末から受信して、受信した写真データを動物識別情報として管理DBに登録し、通知手段が、写真の画像を比較して類似度を算出するマッチングにより特定された前記動物関連情報を前記ユーザ端末に通知する動物探索システムが開示されている。 Further, in Patent Document 2, the user terminal has a photographing means that emits a sound at a frequency at which the photographic subject turns around when photographing, and the animal identification information registration means stores photograph data of the photograph taken by the photographing means on the user terminal. , the received photo data is registered in the management DB as animal identification information, and the notification means sends the animal-related information identified by matching that compares the images of the photos and calculates the degree of similarity to the user terminal. An animal search system that provides notification is disclosed.

また、特許文献3には、複数のペットの個体識別を行うペットの個体識別システムであって、ペット画像から特徴量を抽出して、ペットの識別子と対応付けて保存し、個体識別を行う為にペットの別の画像を取得し、当該別の画像から特徴量を抽出して、保存されている特徴量と比較して、識別結果が正しくないと判断される場合にはユーザに訂正を促し、ユーザの訂正を取得した場合は前記識別結果を更新し、前記別の画像および別の画像から抽出された特徴量の少なくとも一方をペットの識別子に関連付けて登録するペットの個体識別システムが開示されている。 Further, Patent Document 3 discloses a pet individual identification system for identifying multiple pets, which extracts feature amounts from pet images, stores them in association with pet identifiers, and performs individual identification. The system acquires another image of the pet, extracts features from the other image, compares them with the stored features, and prompts the user to make corrections if the identification result is determined to be incorrect. Disclosed is a pet individual identification system that updates the identification result when a user's correction is obtained, and registers at least one of the another image and the feature amount extracted from the other image in association with the pet identifier. ing.

しかしながら、特許文献1や2には、学習済みモデルを用いて、動物の画像から個体を識別する手段は開示されていない。また、特許文献3に記載された個体識別システムは、識別結果が正しくないと判断される場合にはユーザに訂正を促し、ユーザの訂正を取得した場合は前記識別結果を更新し、前記別の画像および別の画像から抽出された特徴量の少なくとも一方をペットの識別子に関連付けて登録するというものであり、ユーザからの識別結果の訂正を前提とするものである。 However, Patent Documents 1 and 2 do not disclose means for identifying individuals from images of animals using trained models. Further, the individual identification system described in Patent Document 3 prompts the user to correct the identification result when it is determined that the identification result is incorrect, updates the identification result when the user's correction is obtained, and At least one of an image and a feature extracted from another image is registered in association with a pet identifier, and is based on the premise that the identification result is corrected by the user.

特開2019-4703号公報JP 2019-4703 Publication 特開2016-224640号公報JP2016-224640A 特開2019-71895号公報JP2019-71895A

そこで、本発明は、簡易な方法で、動物の画像を用いて個体を識別する手段を備える動物の個体識別システムや個体識別方法を提供することを目的とする。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide an animal identification system and an individual identification method that include a means for identifying an individual animal using an image of the animal in a simple manner.

動物を対象とする健康保険、いわゆるペット保険を運営する保険会社には、膨大な数の動物の画像と、その動物の個体に関する情報が蓄積されており、本発明者らは、これらを用いて上記課題が解決できないかを検討してきた。その結果、動物の画像から学習済みモデルを用いて抽出した特徴量を比較することで、簡易に個体識別が可能となることを見出し、さらに、年齢の影響を受けやすい特徴量の重み付けを小さくすることで、より正確に個体識別が可能となり得ることを見出し、本発明を完成するに至った。 Insurance companies that operate health insurance for animals, so-called pet insurance, have accumulated a huge number of images of animals and information about individual animals. We have been considering whether the above issues can be resolved. As a result, they discovered that individual identification is possible easily by comparing features extracted from animal images using a trained model, and furthermore, it is possible to reduce the weighting of features that are easily affected by age. The inventors have discovered that this can enable more accurate individual identification, and have completed the present invention.

すなわち、本発明は以下の[1]~[17]である。
[1]動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースと、動物の顔画像の入力を受け付ける受付手段と、学習済みモデルを含み、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出手段と、前記データベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定手段と、を備える個体識別システム。
[2]前記年齢の影響を受けやすい特徴量に対して、それ以外の特徴量の重みを増すようにして重みを調整することによって、年齢の影響を受けやすい特徴量の重み付けを小さくする[1]の個体識別システム。
[3]前記年齢の影響を受けやすい特徴量が、画像から抽出される各特徴量の中で年齢の影響の受けやすさ順で上位10%以内に含まれる特徴量である[1]又は[2]の個体識別システム。
[4]前記年齢の影響を受けやすい特徴量が、画像から抽出される各特徴量の中で年齢の影響の受けやすさ順で上位5%以内に含まれる特徴量である[1]~[3]のいずれかの個体識別システム。
[5]前記年齢の影響の受けやすさが、動物の年齢を分類するために重要な特徴量を出力することのできる重要度判定用学習済みモデルによって出力されたものである[3]又は[4]の個体識別システム。
[6]前記学習済みモデルが、ニューラルネットワークである[1]~[5]のいずれかの個体識別システム。
[7]前記学習済みモデルが、畳み込みニューラルネットワークである[6]の個体識別システム。
[8]前記特徴量抽出手段に含まれる学習済みモデルが、前記データベースに記憶される特徴量を抽出するのに用いられる学習済みモデルと同一の学習済みモデルである[1]~[7]のいずれかの個体識別システム。
[9]前記データベースが記憶する特徴量が、同一個体を撮影した複数の画像から抽出された特徴量を平均化して得られる特徴量である[1]~[8]のいずれかの個体識別システム。
[10]前記特徴量抽出手段が、同一個体を撮影した複数の画像から特徴量を抽出し、前記判定手段においてデータベースに記憶されている特徴量との比較に用いられる特徴量が、同一個体を撮影した複数の画像から抽出した特徴量を平均化して得られる特徴量である[1]~[9]のいずれかの個体識別システム。
[11]動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースと、入場又は退場しようとする動物の顔画像の入力を受け付ける受付手段と、学習済みモデルを含み、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出手段と、前記データベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定手段と、を備える入退場管理システム。
[12]前記データベースは、個体識別情報として、吠え傾向、攻撃性、活発性及び社交性からなる群から選ばれる一つ以上の性向を記憶する[11]の入退場管理システム。
[13]入場又は退場しようとする動物が、所定の性向を有することがデータベースに記憶されている個体と同一の個体であると判定手段が判定した場合、アラートをするアラート手段をさらに有する[12]の入退場管理システム。
[14]動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースと、動物病院において診察を受けようとする動物の顔画像の入力を受け付ける受付手段と、学習済みモデルを含み、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出手段と、前記データベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定手段と、を備える診察管理システム。
[15]動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースと、ペットサロンにおいてトリミング又はシャンプーを受けようとする動物の顔画像の入力を受け付ける受付手段と、学習済みモデルを含み、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出手段と、前記データベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定手段と、を備える受付管理システム。
[16]動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースと、捜索対象となっている動物の候補となる動物の顔画像の入力を受け付ける受付手段と、学習済みモデルを含み、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出手段と、前記データベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定手段と、を備える捜索管理システム。
[17]動物の顔画像の入力を受け付けるステップと、学習済みモデルを用いて、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出ステップと、動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定ステップと、を備える個体識別方法。
That is, the present invention includes the following [1] to [17].
[1] A database that stores feature quantities and individual identification information of animals extracted from animal face images using a trained model, a reception means for accepting input of animal face images, and a trained model, A feature quantity extraction means extracts a feature quantity from the face image inputted to the reception means, a feature quantity stored in the database, and a feature quantity extracted by the feature quantity extraction means, which is a feature that is easily influenced by age. By comparing after reducing the weighting of the amount, it is possible to determine whether the facial image of the animal inputted to the receiving means is an image of the same animal as the individual animal associated with the individual identification information stored in the database. An individual identification system comprising: determination means for determining.
[2] By adjusting the weight of the feature quantity that is easily affected by age by increasing the weight of other feature quantities, the weighting of the feature quantity that is easily affected by age is reduced [1 ] Individual identification system.
[3] The feature quantity that is susceptible to the influence of age is a feature quantity that is included in the top 10% of the feature quantities extracted from the image in order of susceptibility to the influence of age [1] or [ 2] individual identification system.
[4] The feature quantity that is easily affected by age is a feature quantity that is included in the top 5% of the feature quantities extracted from the image in order of susceptibility to the influence of age [1] - [ 3] any one of the individual identification systems.
[5] The susceptibility to the influence of age is output by a trained model for importance determination that can output feature values important for classifying the age of animals [3] or [ 4] individual identification system.
[6] The individual identification system according to any one of [1] to [5], wherein the trained model is a neural network.
[7] The individual identification system according to [6], wherein the trained model is a convolutional neural network.
[8] The trained model included in the feature extracting means is the same trained model as the trained model used to extract the feature stored in the database [1] to [7]. Any individual identification system.
[9] The individual identification system according to any one of [1] to [8], wherein the feature amount stored in the database is a feature amount obtained by averaging feature amounts extracted from multiple images taken of the same individual. .
[10] The feature amount extracting means extracts feature amounts from a plurality of images taken of the same individual, and the feature amounts used for comparison with the feature amounts stored in the database in the determining means are those of the same individual. The individual identification system according to any one of [1] to [9], which uses feature quantities obtained by averaging feature quantities extracted from a plurality of captured images.
[11] A database storing feature quantities extracted from animal face images using a trained model and animal individual identification information, a reception means for receiving input of a face image of an animal about to enter or exit, and a learning device. a feature quantity extracting means for extracting a feature quantity from the face image inputted to the receiving means, a feature quantity stored in the database, and a feature quantity extracted by the feature quantity extracting means; By reducing the weighting of the feature quantities that are susceptible to the effects of An entrance/exit management system comprising: determination means for determining whether or not the
[12] The entrance/exit management system according to [11], wherein the database stores one or more tendencies selected from the group consisting of barking tendency, aggression, activeness, and sociability as individual identification information.
[13] If the determining means determines that the animal attempting to enter or exit is the same individual as the individual whose predetermined propensity is stored in the database, the animal further comprises an alert means for issuing an alert [12 ] entrance/exit control system.
[14] A database that stores feature quantities extracted from animal facial images using a trained model and individual identification information of animals, and a reception means that accepts input of facial images of animals to be examined at a veterinary hospital. a feature extracting means that includes a trained model and extracts a feature from the face image input to the receiving means; a feature stored in the database; and a feature extracted by the feature extracting means. By reducing the weighting of the feature quantities that are easily affected by age and then comparing them, it is possible to determine whether the facial image of the animal input to the receiving means is the same as the individual animal associated with the individual identification information stored in the database. A medical examination management system comprising: determination means for determining whether an image is of an individual.
[15] Accepts input of a database that stores feature values extracted from animal face images using a trained model and animal identification information, and facial images of animals that are about to be trimmed or shampooed at a pet salon. a reception means, a feature extraction means that includes a trained model and extracts a feature from the face image input to the reception means, a feature stored in the database, and a feature extracted by the feature extraction means; By comparing the feature quantities after reducing the weighting of the feature quantities that are likely to be affected by age, the facial image of the animal input into the receiving means is compared with the individual animal associated with the individual identification information stored in the database. A reception management system comprising: determination means for determining whether images are of the same individual.
[16] Accepts input of a database that stores feature quantities extracted from animal face images using a trained model and animal identification information, and face images of animals that are candidates for the animal being searched for. a reception means, a feature extraction means that includes a trained model and extracts a feature from the face image input to the reception means, a feature stored in the database, and a feature extracted by the feature extraction means; By comparing the feature quantities after reducing the weighting of the feature quantities that are likely to be affected by age, the facial image of the animal input into the receiving means is compared with the individual animal associated with the individual identification information stored in the database. A search management system comprising: determination means for determining whether images are of the same individual.
[17] A step of receiving an input of an animal's face image; a feature extracting step of extracting a feature from the face image input to the receiving means using a learned model; and a learned model from the animal's face image. The feature quantities extracted using the feature quantity stored in the database storing the individual identification information of the animal and the feature quantity extracted by the feature quantity extracting means are weighted with respect to the feature quantity that is easily influenced by age. a determination step of determining whether or not the animal face image input to the reception means is the same image of the animal individual according to the individual identification information stored in the database by reducing the size and comparing the image; An individual identification method comprising:

本発明により、簡易な方法で、動物の画像を用いて個体を識別する手段を備える動物の個体識別システムや個体識別方法を提供することが可能となる。本発明の個体識別システム及び個体識別方法は、ドッグランやブリーダーの犬舎、運動場の出入りの際の個体識別、ホテル、病院、ペットサロンの受付時の個体識別、迷子の捜索の際の個体識別など様々な応用が可能である。 According to the present invention, it is possible to provide an animal identification system and an individual identification method that include a means for identifying an individual using an image of the animal in a simple manner. The individual identification system and method of the present invention can be used for individual identification when entering and exiting dog runs, breeder kennels, and playgrounds, individual identification at receptions at hotels, hospitals, and pet salons, individual identification when searching for lost children, etc. Various applications are possible.

好適な動物の顔画像の一例を表す図である。It is a figure showing an example of a suitable animal's face image. 好適な動物の顔画像の一例を表す図である。It is a figure showing an example of a suitable animal's face image. 本発明の個体識別システムの一実施態様を表す構成概略図である。1 is a schematic configuration diagram showing one embodiment of the individual identification system of the present invention. 本発明の入退場管理システムの一実施態様を表す構成概略図である。1 is a schematic configuration diagram showing one embodiment of the entrance/exit management system of the present invention. 本発明の入退場管理システムによる入退場管理の流れの一例を表すフローチャート図である。FIG. 2 is a flowchart showing an example of the flow of entrance/exit management by the entrance/exit management system of the present invention. 参考例で用いた動物の顔画像の一例である。This is an example of an animal face image used in the reference example. 参考例で用いた動物の顔画像の一例である。This is an example of an animal face image used in the reference example.

<個体識別システム>
本発明の個体識別システムは、動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースと、動物の顔画像の入力を受け付ける受付手段と、学習済みモデルを含み、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出手段と、前記データベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定手段と、を備える。
<Individual identification system>
The individual identification system of the present invention includes a database storing feature quantities extracted from animal face images using a trained model and animal individual identification information, a reception means for accepting input of animal face images, and a trained model. A feature extraction means that includes a model and extracts a feature from the face image input to the receiving means, a feature stored in the database, and a feature extracted by the feature extraction means based on age. By reducing the weighting of features that are likely to be affected and then comparing the results, it is possible to determine whether the facial image of the animal input to the reception means is the same image as the animal individual associated with the individual identification information stored in the database. and determining means for determining whether or not there is.

[データベース]
本発明のデータベースは、動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶するものである。好ましくは、動物の顔画像から抽出された特徴量と当該顔画像に係る動物の個体の個体識別情報を紐付けて記憶、格納する。個体識別情報としては、例えば、当該動物の種、品種、性別、年齢、体重、体長が挙げられる。その他、各動物ごとにIDナンバーを付してもよい。さらに、当該動物の通院歴、手術歴、薬の投与歴といった健康に関する情報や、トリミング履歴、シャンプー履歴、爪切り履歴といったペットサロンの利用履歴に関する情報などを個体識別情報に付してもよい。また、個体識別情報として、吠え傾向、攻撃性、活発性及び社交性からなる群から選ばれる一つ以上の性向を記憶することもできる。データベースは、データベースサーバーの形で管理してもよく、クラウドサーバー上で管理してもよく、分散データベースとしてもよい。
[Database]
The database of the present invention stores feature amounts and individual identification information of animals extracted from facial images of animals using a trained model. Preferably, the feature amount extracted from the animal's face image and the individual identification information of the animal associated with the face image are stored in association with each other. Examples of the individual identification information include the species, breed, sex, age, weight, and body length of the animal. In addition, an ID number may be attached to each animal. Further, health-related information such as the animal's hospital visit history, surgery history, and drug administration history, and information regarding pet salon usage history such as trimming history, shampoo history, and nail clipping history may be added to the individual identification information. Moreover, one or more tendencies selected from the group consisting of barking tendency, aggressiveness, activeness, and sociability can also be stored as individual identification information. The database may be managed in the form of a database server, may be managed on a cloud server, or may be a distributed database.

データベースが記憶する特徴量を抽出する学習済みモデルとしては、人工知能(AI)が好ましい。人工知能(AI)とは、人間の脳が行っている知的な作業をコンピュータで模倣したソフトウェアやシステムであり、具体的には、人間の使う自然言語を理解したり、論理的な推論を行ったり、経験から学習したりするコンピュータプログラムなどのことをいう。人工知能としては、汎用型、特化型のいずれであってもよく、ディープニューラルネットワーク、畳み込みニューラルネットワーク等のいずれであってもよく、公開されているソフトウェアを使用することができる。データベースに記憶される特徴量を抽出する学習済みモデルと、後述する特徴量抽出手段が含む学習済みモデルは、同一の学習済みモデルであることが好ましい。 Artificial intelligence (AI) is preferable as a trained model for extracting feature quantities stored in a database. Artificial intelligence (AI) is software or systems that use computers to imitate the intellectual tasks performed by the human brain. A computer program that learns from experience. The artificial intelligence may be either a general-purpose type or a specialized type, and may be a deep neural network, a convolutional neural network, etc., and publicly available software can be used. It is preferable that the trained model for extracting feature quantities stored in the database and the trained model included in the feature quantity extracting means described later are the same trained model.

また、学習済みモデルを更新した場合に、データベースが記憶する特徴量が自動的に更新されることが好ましい。具体的には、学習済みモデルが更新された際に、データベースが記憶する特徴量の抽出に利用された画像を探索し、更新された学習済みモデルを用いて、当該画像から改めて特徴量の抽出を行うプログラムを有することが好ましい。なお、このプログラムをシステム稼働率の低い時間帯、例えば夜間に実行させることで、システムの負荷を抑制することができる。 Further, when the trained model is updated, it is preferable that the feature amounts stored in the database are automatically updated. Specifically, when the trained model is updated, the images stored in the database that were used to extract the features are searched, and the updated trained model is used to extract the features from the images again. It is preferable to have a program that performs the following. Note that the load on the system can be reduced by executing this program during a time period when the system operation rate is low, for example at night.

データベースに記憶される特徴量は、同一の個体を撮影した複数の画像からそれぞれ抽出された特徴量を平均化して得られたものであることが好ましい。特徴量を平均化することで、データベースに記憶される特徴量のブレを抑えることができる。ここでいうブレとは、画像撮影時点での瞬きや表情変化といった被写体の動きおよび光や焦点位置といった環境に依る動きをいう。このように特徴量を平均化することで、その個体の持つ固有の特徴をデータベースに記憶することが可能となり、判定精度を向上させることができる。また、データベースには平均化された特徴量のみを記憶させておけばよく、すべての画像の特徴量を記憶させておく必要はない。したがって、本発明によれば、データベースの負荷を軽減することもできる。 The feature amounts stored in the database are preferably obtained by averaging the feature amounts extracted from a plurality of images taken of the same individual. By averaging the feature amounts, it is possible to suppress fluctuations in the feature amounts stored in the database. Here, blur refers to movement of the subject such as blinking or changes in facial expressions at the time of image capture, and movement due to the environment such as light and focal position. By averaging the feature amounts in this way, it becomes possible to store the unique features of the individual in the database, and it is possible to improve the determination accuracy. Furthermore, it is sufficient to store only the averaged feature amounts in the database, and there is no need to store the feature amounts of all images. Therefore, according to the present invention, it is also possible to reduce the load on the database.

本発明における平均化とは、複数の画像からそれぞれ抽出した特徴量から、代表的な特徴量を導き出す手法を指す。したがって、一般的な平均値である相加平均や相乗平均を計算する手法に加えて、中央値や最頻値を求める手法も本発明における平均化として扱う。 Averaging in the present invention refers to a method of deriving representative feature amounts from feature amounts each extracted from a plurality of images. Therefore, in addition to the method of calculating the arithmetic mean or geometric mean, which are general average values, the method of calculating the median value or the mode is also treated as averaging in the present invention.

また、それぞれの特徴量を平均化する際に外れ値を除外してから平均化してもよい。外れ値を除外することで判定精度を向上させることができる。なお、既知の方法で外れ値かどうかを検定できる。例えば、偏差を不偏標準偏差で割った検定統計量を求め、この値が有意点より大きいかどうかで検定する。 Furthermore, when averaging each feature amount, outliers may be removed before averaging. Judgment accuracy can be improved by excluding outliers. Note that it is possible to test whether the value is an outlier using a known method. For example, a test statistic is obtained by dividing the deviation by the unbiased standard deviation, and the test is performed to see if this value is greater than the significance point.

また、それぞれの特徴量を平均化する際に画像の重要度に応じた重さを特徴量に乗じた加重平均をしてもよい。画像の重みづけを施すことで判定精度を向上させることができる。例えば、自然な表情かつ正面を向いた画像については重さを大きくし、瞬きをしている横を向いた画像については重さを小さくするといった操作を行う。 Furthermore, when averaging each feature amount, a weighted average may be performed by multiplying the feature amount by a weight corresponding to the importance of the image. Judgment accuracy can be improved by weighting images. For example, an operation is performed such as increasing the weight for an image with a natural facial expression and facing forward, and decreasing the weight for an image showing a person blinking and looking to the side.

なお、平均値として中央値や最頻値を用いる場合には、加重平均をすることはできないが、画像の重要性に応じて、カウント数を変更することによって判定精度を向上させることができる。例えば、新しくアップロードされた画像については、異なる2枚の画像として扱い、古い画像については1枚の画像として扱うといった操作を行う。 Note that when using the median value or mode value as the average value, weighted averaging cannot be performed, but the determination accuracy can be improved by changing the number of counts depending on the importance of the image. For example, a newly uploaded image is treated as two different images, and an old image is treated as one image.

[受付手段]
本発明の受付手段は、ヒトを除く動物の顔画像の入力を受け付ける手段である。画像としては静止画であっても、動画であってもよい。本明細書において「画像」といった場合、静止画と動画の双方を含む。動画の場合、顔画像とは、顔が写っている動画である。動画の中に顔が写っている場面が含まれていればよい。動画は連続した静止画の集合であり、静止画と同様の処理が可能である。動物としては、犬、猫、ウサギ、フェレット等の哺乳類、鳥類、爬虫類、愛玩動物が挙げられ、哺乳類が好ましく、犬及び猫がより好ましい。画像の受付方法は、スキャン、画像データの入力、送信、その場で撮影しての画像取り込み、リアルタイムで撮影された動画のアップロードなどいずれの方法であってもよい。顔画像のフォーマットは特に限定されないが、顔画像は、動物の顔を正面から撮影した写真であることが好ましく、図1に表すような動物の顔が大きく写っている写真がより好ましい。そのような写真として、ヒトの運転免許証の写真のような写真が挙げられる。図2のように、動物の健康保険証に用いられる画像も好ましい。また、入退場を管理したい区画の入り口に設置したカメラが、動物を撮影し、得られた静止画又は動画をサーバーにアップロードすることによりサーバの受付手段が画像を受け付けるという構成であれば、動物の入退場の際の個体識別が可能となる。
[Reception means]
The accepting means of the present invention is means for accepting input of facial images of animals other than humans. The image may be a still image or a moving image. In this specification, the term "image" includes both still images and moving images. In the case of a video, a face image is a video that includes a face. The video only needs to include a scene where a face is visible. A moving image is a collection of continuous still images, and can be processed in the same way as still images. Examples of animals include mammals such as dogs, cats, rabbits, and ferrets, birds, reptiles, and pets, with mammals being preferred, and dogs and cats being more preferred. The image may be received by any method such as scanning, inputting and transmitting image data, capturing an image taken on the spot, or uploading a video taken in real time. Although the format of the face image is not particularly limited, it is preferable that the face image be a photograph taken from the front of the animal's face, and more preferably a photograph in which the animal's face is shown in a large size as shown in FIG. An example of such a photo is a photo such as a person's driver's license photo. An image used for an animal health insurance card, as shown in FIG. 2, is also preferable. In addition, if a camera installed at the entrance of the area where you want to control entry and exit takes pictures of animals and uploads the obtained still images or videos to the server, the reception means of the server accepts the images. Individual identification will be possible when entering and leaving the venue.

画像は、白黒、グレースケール、カラーのいずれであってもよい。動物の顔全体が写っていない画像、画像編集ソフトウェアで形状が編集された画像、複数の動物が写っている画像、目や耳が判別出来ないほど顔が小さく写っている画像あるいは不鮮明な画像は好ましくない。画像については、ノーマライゼーションが施され、解像度等が統一されたものが好ましい。 The image may be black and white, grayscale, or color. Images that do not show the entire animal's face, images whose shape has been edited using image editing software, images that contain multiple animals, images where the face is so small that the eyes and ears cannot be distinguished, or images that are unclear are Undesirable. It is preferable that the images be normalized and have a unified resolution, etc.

[特徴量抽出手段]
本発明の特徴量抽出手段は、学習済みモデルを含み、前記受付手段に入力された顔画像から特徴量を抽出する手段である。学習済みモデルとしては、人工知能(AI)が好ましい。人工知能(AI)とは、人間の脳が行っている知的な作業をコンピュータで模倣したソフトウェアやシステムであり、具体的には、人間の使う自然言語を理解したり、論理的な推論を行ったり、経験から学習したりするコンピュータプログラムなどのことをいう。人工知能としては、汎用型、特化型のいずれであってもよく、ディープニューラルネットワーク、畳み込みニューラルネットワーク等のいずれであってもよく、公開されているソフトウェアを使用することができる。
[Feature amount extraction means]
The feature extracting means of the present invention includes a learned model and is a means for extracting feature amounts from the face image input to the receiving means. Artificial intelligence (AI) is preferable as the trained model. Artificial intelligence (AI) is software or systems that use computers to imitate the intellectual tasks performed by the human brain. A computer program that learns from experience. The artificial intelligence may be either a general-purpose type or a specialized type, and may be a deep neural network, a convolutional neural network, etc., and publicly available software can be used.

学習済みモデルを生成するために、人工知能を教師データを用いて学習させる。学習としては、機械学習とディープラーニング(深層学習)のいずれであってもよいが、ディープラーニングが好ましい。ディープラーニングは、機械学習を発展させたものであり、特徴量を自動的に見つけ出す点に特徴がある。 In order to generate a trained model, artificial intelligence is trained using training data. The learning may be either machine learning or deep learning, but deep learning is preferable. Deep learning is a development of machine learning, and is characterized by automatically finding feature values.

学習済みモデルを生成するための学習方法としては、特に制限されず、公開されているソフトウェアを用いることができる。例えば、NVIDIAが公開しているDIGITS (the Deep Learning GPU Training System)を用いることができる。その他、例えば、「サポートベクターマシン入門」(共立出版)等において公開されている公知のサポートベクターマシン法(Support Vector Machine法)等によって学習させてもよい。学習用のデータセットとしては、ImageNetなど公開されているデータセットを用いることができる。 The learning method for generating the trained model is not particularly limited, and publicly available software can be used. For example, DIGITS (the Deep Learning GPU Training System) published by NVIDIA can be used. In addition, for example, the learning may be performed using a known support vector machine method published in "Introduction to Support Vector Machines" (Kyoritsu Shuppan) and the like. As a training dataset, a publicly available dataset such as ImageNet can be used.

学習のための教師データは、動物の顔画像とその動物の品種である。教師データとしての動物の顔画像は、上記受付方法で説明した顔画像と同様であっても異なっていてもよい。教師データとして用いる動物の顔画像としては、動物の眼、鼻、口、耳及び顔の輪郭を含む顔全体の画像を用いることが好ましい。 The training data for learning is an animal's face image and the animal's breed. The animal's face image as the teacher data may be the same as or different from the face image described in the above reception method. As the animal's face image used as training data, it is preferable to use an image of the animal's entire face including its eyes, nose, mouth, ears, and facial outline.

学習済みモデルとしては、ニューラルネットワークが好ましく、畳み込みニューラルネットワークがさらに好ましい。学習済みモデルは、個体識別の対象となる動物種の画像を特に学習したものであることが好ましい。また、データベースに記憶される特徴量を抽出する学習済みモデルと、特徴量抽出手段が含む学習済みモデルは、同一の学習済みモデルであることが好ましい。同一の学習済みモデルを用いることで、学習済みモデルを通じて抽出される特徴量の数が同じになり、一致率(例えばコサイン類似度)の計算が容易になる。学習済みモデルの例としては、ImageNetを使って学習を行ったEfficientNetが挙げられる。また、公開されているニューラルネットワークを用いて、犬の顔画像から品種、年齢、個体識別といった分類や推定ができるように学習させ、犬の顔画像から特徴量を抽出できるような学習済みモデルが好ましい。 As the trained model, a neural network is preferable, and a convolutional neural network is more preferable. Preferably, the trained model is one that has been specifically trained on images of animal species that are targets for individual identification. Further, it is preferable that the trained model from which the feature quantities stored in the database are extracted and the trained model included in the feature quantity extraction means are the same trained model. By using the same trained model, the number of features extracted through the trained models becomes the same, making it easier to calculate the matching rate (for example, cosine similarity). An example of a trained model is EfficientNet, which was trained using ImageNet. In addition, using a publicly available neural network, we have created a trained model that can be trained to classify and infer breed, age, individual identification, etc. from dog face images, and extract features from dog face images. preferable.

[判定手段]
本発明の判定手段は、データベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定するものである。そして、比較の際に、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較を行う。判定手段は、例えば、特徴量同士のコサイン類似度を計算し、その値が所定値以上になった場合に、同一の個体であるとの判定を行うソフトウェアを含む。コサイン類似度を計算する際には、データベースに登録されている特徴量の重心である重心特徴量を求め、各特徴量から重心特徴量を除したものを用いることもできる。また、正規化した特徴量をコサイン類似度の計算に用いることもできる。さらに、特徴量抽出手段が抽出した特徴量とのコサイン類似度が高い個体をデータベースの中から検索し、同一個体の候補を選択するというソフトウェアを含むものであってもよい。加えて、同一個体の判定手法として、コサイン類似度の代わりにユークリッド距離を用いることもできる。
[Determination means]
The determining means of the present invention compares the feature quantities stored in the database with the feature quantities extracted by the feature extracting means, so that the facial image of the animal input to the receiving means is stored in the database. It is determined whether the image is of the same animal as the individual animal associated with the individual identification information. Then, when making a comparison, the weighting of features that are likely to be affected by age is reduced, and then the comparison is made. The determining means includes, for example, software that calculates the cosine similarity between the feature amounts and determines that they are the same individual when the value is equal to or greater than a predetermined value. When calculating the cosine similarity, it is also possible to obtain a centroid feature quantity that is the centroid of the feature quantities registered in the database, and to use the result obtained by dividing the centroid feature quantity from each feature quantity. Further, the normalized feature amount can also be used to calculate cosine similarity. Furthermore, it may include software that searches the database for individuals that have a high degree of cosine similarity to the feature extracted by the feature extraction means, and selects candidates for the same individual. In addition, Euclidean distance can be used instead of cosine similarity as a method for determining whether the same individuals are the same.

年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較をする方法は特に限定されない。例えば、年齢の影響を受けやすい特徴量の重みを小さくしたり、あるいは、年齢の影響を受けやすい特徴量以外の特徴量の重みを大きくすることで、年齢の影響を受けやすい特徴量の重みを相対的に小さくすることでもよい。また、年齢からの影響を最も受けやすい特徴量の重みを最も小さくし、以降順々に段々と重みを大きくしていくという方法であってもよい。重み付けとは、例えば、特徴量の一致度を計算する際に、ある特徴量が計算結果に与える影響を大きくする或いは小さくするように、計算式に所定の係数を掛け合わせることが挙げられる。例えば、特徴Aについてデータベース中の特徴量と画像から抽出された特徴量の一致度を計算する際には、係数として1をかけ、特徴Aよりも重みを大きくしたい別の特徴Bを計算する際には、係数として1よりも大きな数、例えば2をかけるということを行う。 There is no particular limitation on the method of reducing the weighting of feature quantities that are easily affected by age and then making comparisons. For example, by reducing the weight of features that are easily affected by age, or by increasing the weights of features other than features that are likely to be affected by age, the weight of features that are likely to be affected by age can be reduced. It may also be made relatively small. Alternatively, a method may be used in which the weight of the feature quantity that is most susceptible to the influence of age is set to be the smallest, and the weight is gradually increased thereafter. Weighting includes, for example, multiplying a calculation formula by a predetermined coefficient so as to increase or decrease the influence of a certain feature amount on the calculation result when calculating the degree of coincidence of feature amounts. For example, when calculating the match between the feature amount in the database and the feature amount extracted from the image for feature A, multiply by 1 as a coefficient, and when calculating another feature B that you want to have a higher weight than feature A. is multiplied by a number larger than 1, for example 2, as a coefficient.

年齢の影響を受けやすい特徴量としては、特に限定されず、皺、毛色、肌つやなど、年齢の影響が現れやすい特徴に関する特徴量としてもよい。あるいは、年齢ごとに画像を複数用意し、画像から抽出された特徴量と、年齢との関連付けを行い、年齢との相関が強い特徴量としてもよい。また、年齢又は年齢クラス(例えば、0歳、3~5歳、8歳以上のクラス分け)ごとに画像を用意し、画像から抽出した特徴量(特徴量ベクトル)を用意し、ディープラーニングモデルを用いて、学習を行い、年齢又は年齢クラスを分けるために重要な特徴量やその重要度を出力することで、年齢の影響を受けやすい特徴量をピックアップすることもできる。ディープラーニングモデルとしては、好ましくは、特徴重要度(interpretability)を視覚化することのできるディープラーニングモデル、各特徴の学習モデルへの貢献度を定量的に示すことのできるディープラーニングモデルが挙げられる。ディープラーニングモデルに特に制限はないが、表データのディープラーニングモデルとして知られるTabNet、FT-Transformer、NODE等が挙げられる。どの特徴量が年齢の影響を受けやすい特徴量であるのかは、予め決定されていることが好ましく、必ずしも本発明のシステムの中にどの特徴量が年齢の影響を受けやすいのかを決定する手段を備えている必要はない。 The feature quantity that is likely to be affected by age is not particularly limited, and may be a feature quantity related to a feature that is likely to be affected by age, such as wrinkles, hair color, and skin luster. Alternatively, a plurality of images may be prepared for each age, and the feature amounts extracted from the images may be associated with the age, so that the feature amounts have a strong correlation with the age. In addition, images are prepared for each age or age class (for example, 0 years old, 3 to 5 years old, 8 years old or older), features extracted from the images (feature vectors) are prepared, and a deep learning model is created. It is also possible to pick up feature quantities that are easily influenced by age by performing learning using this method and outputting the feature quantities and their importance levels that are important for dividing the age or age class. Preferably, the deep learning model is a deep learning model that can visualize feature importance (interpretability) or a deep learning model that can quantitatively show the contribution of each feature to the learning model. There are no particular restrictions on deep learning models, but examples include TabNet, FT-Transformer, NODE, etc., which are known as deep learning models for table data. It is preferable that which feature quantities are easily affected by age are determined in advance, and the system of the present invention does not necessarily include means for determining which feature quantities are easily affected by age. You don't need to be prepared.

比較に際しては、画像から抽出される各特徴量の中で年齢の影響の受けやすさ順で並べた場合に上位10%以内に含まれる特徴量を、年齢の影響を受けやすい特徴量として比較を行うことが好ましく、上位5%以内のものを、年齢の影響を受けやすい特徴量とすることが好ましい。 When comparing, among the features extracted from images, the features that are in the top 10% when arranged in order of susceptibility to age are considered as features that are easily affected by age. It is preferable to do this, and it is preferable to set features within the top 5% as features that are easily affected by age.

[品種判定手段]
本発明のシステムは、さらに、品種判定手段を備えることが好ましい。品種判定手段は、品種判定用の学習済みモデルを用いて、前記受付手段に入力された動物の画像からその動物の品種を判定する手段である。品種を判定し、その品種に応じた学習済みモデルを使用することで、個体識別の精度を上げることが可能となる。なお、品種判定手段を備えない場合は、別途利用者の端末等から品種情報を入力する構成とすることもできる。
[Type determination means]
Preferably, the system of the present invention further includes product type determination means. The breed determining means is a means for determining the breed of an animal from the image of the animal input to the reception means using a trained model for breed determination. By determining the breed and using a trained model according to that breed, it is possible to improve the accuracy of individual identification. In addition, when the product type determination means is not provided, a configuration may be adopted in which product information is input separately from a user's terminal or the like.

品種判定手段に関する画像の詳細については上記と同様である。 The details of the image related to the product type determination means are the same as above.

品種判定用の学習済みモデルは、動物の画像と前記動物の品種との関係を学習した学習済みモデルである。好ましくは、動物の画像とその動物の品種とを教師データとして用いて学習を行い、入力を動物の画像とし、出力をその動物の品種の判定とする学習済みモデルを含む。教師データ用の動物の画像については、上記と同様である。また、品種判定用の学習済みモデルは、上記の学習済みモデルと異なるアルゴリズム、ソフトウェア、ライブラリ、学習方法を用いてもよいし、同一のアルゴリズム、ソフトウェア、ライブラリ、学習方法を用いてもよい。 The trained model for breed determination is a trained model that has learned the relationship between an image of an animal and the breed of the animal. Preferably, the model includes a trained model that performs learning using an image of an animal and the breed of the animal as training data, uses the image of the animal as an input, and determines the breed of the animal as an output. The animal images for training data are the same as above. Further, the trained model for type determination may use a different algorithm, software, library, or learning method as the above-mentioned trained model, or may use the same algorithm, software, library, or learning method.

品種とは、生物の種以下の生物集団の単位である。例えば、犬でいうと、犬の品種は犬種とも呼ばれ、具体的には、トイプードル、チワワ、ミニチュア・ダックスフント、柴犬、ポメラニアン、ヨークシャー・テリア、ミニチュア・シュナウザー、シー・ズー、フレンチ・ブルドッグ、パピヨン、マルチーズ、ラブラドール、ダルメシアン、チャウチャウ等が挙げられる。猫でいうと、猫の品種は猫種とも呼ばれ、スコティッシュ・フォールド、アメリカン・ショートヘア、ノルウェージャン・フォレストキャット、ロシアンブルー、ブリティッシュ・ショートヘア、ラグドール、メイン・クーン、ペルシャ等が挙げられる。ウサギでいうと、ネザーランドドワーフ、ホーランドロップ、ロップイヤー、ミニレッキス、ドワーフロップ、アメリカンファジーロップ等が挙げられる。 A variety is a unit of a biological population below a species. For example, in the case of dogs, dog breeds are also called dog breeds, and specifically, toy poodles, Chihuahuas, miniature dachshunds, Shiba Inu, Pomeranians, Yorkshire terriers, miniature schnauzers, Shih Tzus, French dogs, etc. Examples include bulldogs, papillons, maltese, labradors, dalmatians, and chow chows. In terms of cats, cat breeds are also called cat breeds, and examples include the Scottish Fold, American Shorthair, Norwegian Forest Cat, Russian Blue, British Shorthair, Ragdoll, Maine Coon, and Persian. In terms of rabbits, examples include the Netherland Dwarf, Holland Lop, Lop Ear, Mini Rex, Dwarf Lop, and American Fuzzy Lop.

[出力]
本発明の判定手段は、入力情報として、動物の顔画像を受け付けると、上記学習済みモデルによって、当該動物の個体識別の判定を行う。
出力の形式は特に限定されず、例えば、パソコンの画面上において、入力手段に入力された画像にかかる個体と同一の個体を、画像と個体識別情報とを表示をすることで個体識別結果を出力することができる。特徴量の一致率が近い個体がデータベース内に複数存在する場合は、同一個体の候補を複数提示してもよい。また、付随的な情報として、個体識別結果の確実性を同時に出力してもよい。例えば、「この子は○○ちゃん(信頼度:80%)」といった具合である。
本発明の個体識別システムは、判定手段から判定結果を受信し、判定結果を出力する出力手段を別途有していてもよい。
[output]
When the determining means of the present invention receives a face image of an animal as input information, it determines the individual identification of the animal using the learned model.
The format of the output is not particularly limited, and for example, the individual identification result can be output by displaying the image and individual identification information of the same individual as the image input to the input means on the screen of a personal computer. can do. If there are multiple individuals in the database with similar matching rates of feature amounts, multiple candidates for the same individual may be presented. Additionally, the reliability of the individual identification result may be output simultaneously as additional information. For example, "This child is XX-chan (reliability: 80%)".
The individual identification system of the present invention may additionally include output means for receiving the determination result from the determination means and outputting the determination result.

本発明の個体識別システムの実施形態の一例を図3によって説明する。
データベース12には、予め、複数の個体の動物について、顔画像、学習済みモデルを用いて顔画像から抽出された特徴量、及び、個体識別情報が記憶されている。
動物の入退場を管理したい区域の入り口などに設置されているカメラ等の撮影手段16によって、動物の顔を含む画像が撮影される。そうすると、撮影された画像がネットワークを通じて受付手段15に入力される。
処理演算部17は、特徴量抽出手段(学習済みモデル)18を用いて、受付手段15に入力された画像から特徴量を抽出する。その後、処理演算部17は、データベース12を参照し、データベース12に記憶されている動物の顔画像に係る特徴量と当該受け付けられた画像から得られた特徴量について、判定手段11を用いて一致率を計算し、同一の個体であるか否かを判定する。一致率を計算する際に、年齢の影響を受けやすい特徴量については重み付けを小さくして計算を行う。データベース12に記憶されている動物の顔画像それぞれについて、判定を繰り返し、同一の個体であると判定された場合には、当該動物の顔画像とともに、当該動物の個体識別情報を出力手段14により、端末13の画面上に出力する。
An example of an embodiment of the individual identification system of the present invention will be described with reference to FIG.
The database 12 stores in advance face images, feature amounts extracted from the face images using the trained model, and individual identification information for a plurality of individual animals.
An image including the animal's face is photographed by a photographing means 16 such as a camera installed at the entrance of an area where entry and exit of animals is desired to be controlled. Then, the photographed image is input to the receiving means 15 through the network.
The processing calculation section 17 uses the feature extraction means (trained model) 18 to extract the feature amount from the image input to the reception means 15 . Thereafter, the processing calculation unit 17 refers to the database 12 and uses the determining means 11 to determine whether the feature amounts related to the animal's face image stored in the database 12 match the feature amounts obtained from the accepted image. Calculate the ratio and determine whether they are the same individual. When calculating the match rate, weighting is reduced for features that are easily affected by age. The determination is repeated for each animal face image stored in the database 12, and when it is determined that they are the same individual, the output means 14 outputs the animal's individual identification information together with the animal's face image. Output on the screen of the terminal 13.

図3中、端末13は、例えば、動物の入退場を管理したい区域の入り口などに設置された端末である。端末13は、例えばパーソナルコンピュータやタブレット端末などが挙げられる。端末13は、CPUなどの処理部、ハードディスク、ROMあるいはRAMなどの記憶部、液晶パネルなどの表示部、マウス、キーボード、タッチパネルなどの入力部、ネットワークアダプタなどの通信部などを含んで構成される。 In FIG. 3, the terminal 13 is, for example, a terminal installed at the entrance of an area where entry and exit of animals is desired to be controlled. Examples of the terminal 13 include a personal computer and a tablet terminal. The terminal 13 includes a processing unit such as a CPU, a storage unit such as a hard disk, ROM or RAM, a display unit such as a liquid crystal panel, an input unit such as a mouse, keyboard, and touch panel, a communication unit such as a network adapter, etc. .

本実施形態では、カメラなどの撮影手段によって動物の画像を撮影し、個体識別を行う態様を説明したが、利用者が、ドッグラン、ペットサロン、ペット保険などの利用申込み時に、その場でスマートフォンのカメラを使って対象となる動物の顔写真を撮影し、それを入力、送信するという態様であってもよい。例えば、ユーザは、端末13の画面上に表示される指示に従って保険対象となる動物の顔写真を撮影し、適切な写真が撮れたらそれを受付手段15に送信する。このとき、サーバが、別途、画像判定プログラムからなる写真撮影補助手段を備え、写真撮影補助手段が、動物の顔全体が撮像されていること、動物の顔の正面からの写真であるといった、個体の同一性判定に好適な写真であるかどうかを判定し、その判定結果をインターフェースや端末を通じてユーザに伝達するという構成を備えていてもよい。 In this embodiment, we have described a mode in which images of animals are taken using a camera or other photographing means and individual identification is performed. However, when a user applies for use of a dog park, pet salon, pet insurance, etc. It may also be possible to take a photograph of the face of the target animal using a camera, input it, and send it. For example, the user takes a photograph of the face of the animal to be insured according to the instructions displayed on the screen of the terminal 13, and when an appropriate photograph is taken, transmits it to the reception means 15. At this time, the server is separately equipped with a photo-taking auxiliary means consisting of an image determination program, and the photo-taking auxiliary means determines whether the entire face of the animal is imaged or whether the photograph is taken from the front of the animal's face. The photograph may be configured to determine whether the photograph is suitable for identity determination, and to transmit the determination result to the user through an interface or a terminal.

本実施形態においては、サーバはコンピュータによって構成されるが、本発明にかかる機能を有する限りにおいて、どのような装置であってもよい。サーバは、クラウド上にあるサーバであってもよい。また、本実施形態では、判定手段や受付手段がサーバに格納され、端末とインターネットやLAN等の接続手段で接続される態様を説明したが、本発明はこれに限定されず、判定手段、受付手段、インターフェース部が一つのサーバや装置内に格納される態様や、端末を別途必要としない態様等であってもよい。 In this embodiment, the server is configured by a computer, but it may be any device as long as it has the functions according to the present invention. The server may be a server located on the cloud. Furthermore, in the present embodiment, a mode has been described in which the determination means and reception means are stored in a server and connected to a terminal via a connection means such as the Internet or LAN, but the present invention is not limited to this, and the determination means and reception means are The means and interface unit may be stored in one server or device, or a separate terminal may not be required.

記憶部10は、例えばROM、RAMあるいはハードディスクなどから構成される。記憶部10には、サーバの各部を動作させるための情報処理プログラムが記憶され、特に、判定手段11が記憶される。 The storage unit 10 is composed of, for example, a ROM, a RAM, or a hard disk. The storage unit 10 stores an information processing program for operating each part of the server, and in particular, the determination means 11 is stored.

判定手段11は、上記のように、各画像に係る特徴量の一致率を計算し、一致率の値から同一個体であるか否かを判定するソフトウェアである。 As described above, the determining means 11 is software that calculates the matching rate of the feature amounts related to each image and determines whether or not they are the same individual based on the matching rate value.

処理演算部17は、記憶部に記憶された判定手段11を用いて、同一性判定を実行する。 The processing calculation unit 17 executes the identity determination using the determination means 11 stored in the storage unit.

インターフェース部(通信部)は、受付手段15と出力手段14を備え、例えば撮影手段から、動物の顔画像を受け付け、端末に対して、同一性の判定結果や、撮影された個体と同一の個体に関する個体識別情報を出力する。 The interface section (communication section) includes a reception means 15 and an output means 14, and receives a face image of an animal from, for example, a photographing means, and sends a result of identity determination to a terminal or an animal that is the same as the photographed animal. Outputs individual identification information regarding.

<入退場管理システム>
本発明の入退場管理システムは、動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースと、入場又は退場しようとする動物の顔画像の入力を受け付ける受付手段と、学習済みモデルを含み、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出手段と、前記データベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定手段と、を備えるものである。
<Entrance/exit management system>
The entrance/exit management system of the present invention includes a database that stores feature quantities extracted from animal facial images using a trained model and animal individual identification information, and input of facial images of animals about to enter or exit. a reception means for receiving, a feature extraction means including a trained model and extracting a feature from the face image input to the reception means, a feature stored in the database, and a feature extraction means extracted by the feature extraction means; By comparing the feature quantities obtained by reducing the weighting of the feature quantities that are likely to be affected by age, the facial image of the animal inputted into the reception means is determined to be the individual animal associated with the individual identification information stored in the database. and determining means for determining whether the images are of the same individual.

本発明の入退場管理システムは、例えば、ペットホテル、ドッグラン、ペットカフェなど、特定の領域や部屋への動物の入退場を把握、管理したい場合に使用することができる。 The entrance/exit management system of the present invention can be used, for example, when it is desired to understand and manage the entrance/exit of animals to a specific area or room, such as a pet hotel, dog run, or pet cafe.

受付手段は、限定されず、例えば、室内に固定された監視カメラ、ネットワークカメラ、スマートフォンに備え付けのカメラ等の撮影手段によって撮影された画像をネットワークを通じて受け付けることができる。 The reception means is not limited, and can receive images taken by a photographing means such as a surveillance camera fixed indoors, a network camera, a camera installed in a smartphone, etc., through the network, for example.

データベース、特徴量抽出手段、判定手段、出力手段については上記と同様である。 The database, feature extraction means, determination means, and output means are the same as above.

本発明の入退場管理システムの実施形態の一例を図4によってペットホテルの事例で説明する。
まず、ペットホテルの利用者は、端末13を通じてペットホテルのウェブサイト上で会員登録を行い、ペットホテルに宿泊させたいペットの種、品種、名前、生年月日、体重、性別、予防接種の有無等の個体識別情報とともに、ペットの顔画像を登録する。登録されたペットの個体識別情報は、ペットホテルが管理するデータベース12に格納される。また、学習済みモデルを用いて登録された顔画像から特徴量が抽出され、個体識別情報と紐付けられてデータベースに記憶される。
次に、利用者は、端末13を通じてウェブサイト上でペットホテルの予約を行い、予約された日時にペットを連れてペットホテルを訪れる。
ペットホテルの従業員が、ペットホテルに備え付けられたカメラ等の撮影手段16によって、ペットを撮影する。そうすると、撮影された画像がネットワークを通じて受付手段15に入力される。
処理演算部17は、特徴量抽出手段(学習済みモデル)18を用いて、受付手段15に入力された画像から特徴量を抽出する。その後、処理演算部17は、データベース12を参照し、データベース12に記憶されているペットの顔画像に係る特徴量と当該受け付けられた画像から得られた特徴量について、判定手段11を用いて一致率を計算し、同一の個体であるか否かを判定する。一致率を計算する際に、年齢の影響を受けやすい特徴量については重み付けを小さくして計算を行う。データベース12に記憶されているペットの顔画像それぞれについて、判定を繰り返し、同一の個体であると判定された場合には、当該ペットの顔画像とともに、当該ペットの個体識別情報を出力手段14により、ホテルの端末の画面上に出力する。ペットホテルの利用者の所有する端末13にも判定結果を出力してもよい。
このとき、ペットホテルの従業員は、出力された判定結果とペットの個体識別情報を利用して、ペットホテルを利用しようとするペットが、会員登録されたペットと同一の個体であることを判断し、当該ペットを入場させることができる。
An example of an embodiment of the entrance/exit management system of the present invention will be explained using the example of a pet hotel with reference to FIG.
First, the pet hotel user registers as a member on the pet hotel's website through the terminal 13, and then registers the species, breed, name, date of birth, weight, gender, and vaccination status of the pet they wish to stay at the pet hotel. Register your pet's face image along with individual identification information such as. The individual identification information of the registered pet is stored in a database 12 managed by the pet hotel. Additionally, feature amounts are extracted from the facial images registered using the trained model, and are stored in the database in association with individual identification information.
Next, the user makes a reservation for a pet hotel on the website through the terminal 13, and visits the pet hotel with his or her pet on the reserved date and time.
An employee of the pet hotel photographs the pet using a photographing means 16 such as a camera installed in the pet hotel. Then, the photographed image is input to the receiving means 15 through the network.
The processing calculation section 17 uses the feature extraction means (trained model) 18 to extract the feature amount from the image input to the reception means 15 . Thereafter, the processing calculation unit 17 refers to the database 12 and uses the determining means 11 to determine whether the feature amounts related to the pet's face image stored in the database 12 match the feature amounts obtained from the accepted image. Calculate the ratio and determine whether they are the same individual. When calculating the match rate, weighting is reduced for features that are easily affected by age. The determination is repeated for each pet face image stored in the database 12, and if it is determined that they are the same individual, the output means 14 outputs the pet's individual identification information together with the pet's face image. Output on the hotel terminal screen. The determination result may also be output to the terminal 13 owned by the pet hotel user.
At this time, the pet hotel employee uses the output judgment results and the pet's individual identification information to determine that the pet that is attempting to use the pet hotel is the same pet that is registered as a member. The pet may be allowed to enter the venue.

図4中、端末13は、利用者(ユーザ)が利用する端末である。端末13は、例えばパーソナルコンピュータやタブレット端末などが挙げられる。端末13は、CPUなどの処理部、ハードディスク、ROMあるいはRAMなどの記憶部、液晶パネルなどの表示部、マウス、キーボード、タッチパネルなどの入力部、ネットワークアダプタなどの通信部などを含んで構成される。 In FIG. 4, the terminal 13 is a terminal used by a user. Examples of the terminal 13 include a personal computer and a tablet terminal. The terminal 13 includes a processing unit such as a CPU, a storage unit such as a hard disk, ROM or RAM, a display unit such as a liquid crystal panel, an input unit such as a mouse, keyboard, and touch panel, a communication unit such as a network adapter, etc. .

利用者は、申込み時や会員登録時に、その場でスマートフォンのカメラを使って対象となる動物の顔写真を撮影し、それを入力、送信するという態様であってもよい。例えば、ユーザは、端末13の画面上に表示される指示に従って保険対象となる動物の顔写真を撮影し、適切な写真が撮れたらそれをデータベース12に送信する。このとき、サーバが、別途、画像判定プログラムからなる写真撮影補助手段を備え、写真撮影補助手段が、動物の顔全体が撮像されていること、動物の顔の正面からの写真であるといった、個体の同一性判定に好適な写真であるかどうかを判定し、その判定結果をインターフェースや端末を通じてユーザに伝達するという構成を備えていてもよい。 When applying or registering as a member, the user may use a smartphone camera to take a photograph of the face of the target animal on the spot, input it, and send it. For example, the user follows instructions displayed on the screen of the terminal 13 to take a photograph of the face of the animal to be insured, and when an appropriate photograph is taken, sends it to the database 12. At this time, the server is separately equipped with a photo-taking auxiliary means consisting of an image determination program, and the photo-taking auxiliary means determines whether the entire face of the animal is imaged or whether the photograph is taken from the front of the animal's face. The photograph may be configured to determine whether the photograph is suitable for identity determination, and to transmit the determination result to the user through an interface or a terminal.

本実施形態においては、サーバはコンピュータによって構成されるが、本発明にかかる機能を有する限りにおいて、どのような装置であってもよい。サーバは、クラウド上にあるサーバであってもよい。 In this embodiment, the server is configured by a computer, but it may be any device as long as it has the functions according to the present invention. The server may be a server located on the cloud.

記憶部10は、例えばROM、RAMあるいはハードディスクなどから構成される。記憶部10には、サーバの各部を動作させるための情報処理プログラムが記憶され、特に、判定手段11が記憶される。 The storage unit 10 is composed of, for example, a ROM, a RAM, or a hard disk. The storage unit 10 stores an information processing program for operating each part of the server, and in particular, the determination means 11 is stored.

判定手段11は、上記のように、各画像に係る特徴量の一致率を計算し、一致率の値から同一個体であるか否かを判定するソフトウェアである。 As described above, the determining means 11 is software that calculates the matching rate of the feature amounts related to each image and determines whether or not they are the same individual based on the matching rate value.

処理演算部17は、記憶部に記憶された判定手段11を用いて、同一性判定を実行する。 The processing calculation unit 17 executes the identity determination using the determination means 11 stored in the storage unit.

インターフェース部(通信部)は、受付手段15と出力手段14を備え、例えば撮影手段から、動物の顔画像を受け付け、端末に対して、同一性の判定結果や、撮影された個体と同一の個体に関する個体識別情報を出力する。 The interface section (communication section) includes a reception means 15 and an output means 14, and receives a face image of an animal from, for example, a photographing means, and sends a result of identity determination to a terminal or an animal that is the same as the photographed animal. Outputs individual identification information regarding.

本実施形態の入退場管理システムにより、ペットホテルは、簡易な方法で、利用者が連れてきたペットが会員登録されたペットと同一の個体であることを判断することができ、ペットホテルの受付をスムーズに行うことができる。 With the entrance/exit management system of this embodiment, the pet hotel can determine in a simple way that the pet brought by the user is the same pet as the pet registered as a member, and the pet hotel reception can be done smoothly.

本発明の入退場管理システムの実施態様に基づく個体識別のフローチャートを図5に示す。利用者がペットの顔写真を撮影し、それを端末を用いて、サーバの受付手段に入力すると、特徴量抽出手段が、入力された顔画像から特徴量を抽出する(ステップS1)。サーバの処理演算部は、判定手段を用いて、アップロードされた顔画像と、予めデータベースに登録された動物の顔画像について、年齢の影響を受けやすい特徴量の重み付けを小さくなるように調整する(ステップS2)。サーバの処理演算部は、判定手段を用いて、アップロードされた顔画像と、予めデータベースに登録された動物の顔画像について、特徴量の比較を行い、同一の個体であるか否かを判定する(ステップS3)。出力手段は、判定結果を端末画面に表示するなどして出力し、ペットホテルの従業員に提示する(ステップS4)。 FIG. 5 shows a flowchart of individual identification based on an embodiment of the entrance/exit management system of the present invention. When the user takes a photograph of the pet's face and inputs it into the reception means of the server using a terminal, the feature amount extraction means extracts the feature amount from the inputted face image (step S1). The processing calculation unit of the server uses the determination means to adjust the weighting of the feature quantities that are easily affected by age for the uploaded face images and the animal face images registered in the database in advance so as to reduce the weighting ( Step S2). The processing calculation unit of the server uses a determination means to compare the feature amounts of the uploaded face image and the animal face image registered in advance in the database, and determines whether or not they are the same individual. (Step S3). The output means outputs the determination result by displaying it on a terminal screen, etc., and presents it to the employee of the pet hotel (step S4).

<診察管理システム>
本発明の診察管理システムは、動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースと、動物病院において診察を受けようとする動物の顔画像の入力を受け付ける受付手段と、学習済みモデルを含み、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出手段と、前記データベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定手段と、を備えるものである。
<Examination management system>
The medical examination management system of the present invention includes a database that stores feature values extracted from animal facial images using a trained model and animal individual identification information, and a database that stores facial images of animals that are to be examined at a veterinary hospital. a receiving means for accepting input; a feature extracting means including a trained model and extracting a feature from a face image input to the receiving means; a feature stored in the database; and a feature extracting means By comparing the feature quantities extracted by reducing the weighting of the feature quantities that are easily affected by age, it is possible to determine whether the facial image of the animal input to the receiving means is related to the individual identification information stored in the database. The image processing apparatus includes a determining means for determining whether the image is of the same individual as the animal.

本発明の診察管理システムは、例えば、ペット保険の提供者が、ペット保険の対象となっているペットが診察を受けたかどうかを把握したい場合に使用することができる。 The medical examination management system of the present invention can be used, for example, when a pet insurance provider wants to know whether a pet covered by pet insurance has received a medical examination.

<受付管理システム>
本発明の受付管理システムは、動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースと、ペットサロンにおいてトリミング又はシャンプーを受けようとする動物の顔画像の入力を受け付ける受付手段と、学習済みモデルを含み、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出手段と、前記データベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定手段と、を備える受付管理システム。
<Reception management system>
The reception management system of the present invention includes a database that stores feature values extracted from animal face images using a trained model and animal individual identification information, and the face of an animal that is about to be trimmed or shampooed at a pet salon. a receiving means for accepting input of an image; a feature extracting means including a learned model and extracting a feature from the face image input to the receiving means; a feature stored in the database; and the feature. By comparing the feature quantities extracted by the extraction means after reducing the weighting of the feature quantities that are easily affected by age, the facial image of the animal input to the reception means is converted into individual identification information stored in the database. A reception management system comprising: determination means for determining whether or not the image is of the same animal as the animal concerned.

本発明の受付管理システムは、例えば、ペットサロンが、サービスの対象となるペットが会員登録されているペットかどうかや、過去のサービス提供履歴を把握したい場合に使用することができる。 The reception management system of the present invention can be used, for example, when a pet salon wants to know whether a pet to be serviced is a pet registered as a member and the history of past service provision.

<捜索管理システム>
本発明の管理システムは、動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースと、捜索対象となっている動物の候補となる動物の顔画像の入力を受け付ける受付手段と、学習済みモデルを含み、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出手段と、前記データベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定手段と、を備えるものである。
<Search management system>
The management system of the present invention includes a database that stores feature quantities extracted from animal face images using a trained model and animal individual identification information, and a face image of an animal that is a candidate for an animal to be searched. a receiving means for receiving an input, a feature extracting means including a trained model and extracting a feature from a face image input to the receiving means, a feature stored in the database, and a feature extracting means for extracting a feature from the face image input to the receiving means; By comparing the feature quantities extracted by the means after reducing the weighting of the feature quantities that are easily affected by age, the facial image of the animal inputted to the receiving means is matched with the individual identification information stored in the database. The apparatus further includes a determining means for determining whether or not the image is of the same individual animal.

本発明の動物の管理システムは、例えば、迷子になったペットを捜索する際に、見つかった動物が捜索対象となっているペットかどうかを確認したい場合に使用することができる。 The animal management system of the present invention can be used, for example, when searching for a lost pet and wanting to check whether the found animal is the pet being searched for.

<個体識別方法>
本発明の個体識別方法は、動物の顔画像の入力を受け付けるステップと、学習済みモデルを用いて、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出ステップと、動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定ステップと、を備えるものである。
<Individual identification method>
The individual identification method of the present invention includes a step of receiving an input of an animal's face image, a feature amount extraction step of extracting a feature amount from the face image input to the receiving means using a trained model, and Features extracted from images using a trained model and features stored in a database that stores individual identification information of animals, and features extracted by the feature extraction means that are susceptible to the influence of age. By reducing the weighting of the feature amounts and comparing them, it is determined whether the facial image of the animal input to the reception means is an image of the same animal as the individual animal associated with the individual identification information stored in the database. and a determination step of determining.

動物の顔画像の入力を受け付けるステップは、例えば、上記の受付手段を用いて動物の顔画像の入力を受け付けるステップである。
特徴量抽出ステップは、学習済みモデルを用いて、前記受付手段に入力された顔画像から特徴量を抽出するステップである。学習済みモデルは、上記の個体識別システムにおいて説明した学習済みモデルと同様である。
判定ステップは、動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定するステップである。例えば、上記の判定手段を用いて、特徴量の一致率を計算し、同一個体であるかどうか判定するステップである。
The step of accepting the input of the animal's face image is, for example, a step of accepting the input of the animal's face image using the above-described accepting means.
The feature amount extraction step is a step of extracting feature amounts from the facial image input to the reception means using the trained model. The trained model is the same as the trained model described in the above individual identification system.
In the determination step, the feature quantities extracted from the animal's face image using the trained model and the feature quantities stored in a database storing the individual identification information of the animal and the feature quantities extracted by the feature quantity extracting means are used. This step is a step of determining whether or not the facial image of the animal inputted to the receiving means is an image of the same animal as the individual animal associated with the individual identification information stored in the database by comparing the facial image. For example, this is a step of calculating the matching rate of the feature amounts using the above-mentioned determining means and determining whether or not they are the same individual.

[参考例1]
9頭のミニチュア・ダックスフントそれぞれの顔画像(眼とその周囲のみが映った画像。一例として、図6(A)~(C)のカラー写真。500×500ピクセルに統一した。)を用意した。
各画像を、学習済みモデルに入力し、特徴量を抽出した。

EfficientNetB7にImageNetのウェイトを持つモデルを学習済みモデルとして用いた。

次に、個体識別を行いたいミニチュア・ダックスフントの顔画像A(識別対象個体。図7)を用意し、上記学習済みモデルを用いて特徴量を抽出した。上記9頭の中には、識別対象個体と同一の個体が含まれている。
[Reference example 1]
We prepared facial images of each of the nine miniature dachshunds (an image that only shows the eyes and their surroundings. As an example, the color photographs in Figures 6 (A) to (C) are unified to 500 x 500 pixels). .
Each image was input to the trained model and features were extracted.

A model with ImageNet weights was used as a trained model for EfficientNetB7.

Next, a facial image A of a miniature dachshund (individual to be identified; FIG. 7) for which individual identification was to be performed was prepared, and feature amounts were extracted using the trained model described above. The nine animals mentioned above include the same individual as the identification target individual.

9頭の画像それぞれの特徴量について、顔画像Aの特徴量とのコサイン類似度を計算し、スケーリングされたコサイン類似度のソフトマックス関数を用いて、9頭での合計が100%になるように調整した。
その結果、9頭のうち、顔画像一致率が93%と一番高かった個体が、識別対象個体と同一の個体の画像であることが分かった。
For the features of each of the nine images, calculate the cosine similarity with the features of face image A, and use a softmax function of the scaled cosine similarity so that the sum of the nine animals becomes 100%. Adjusted to.
As a result, it was found that among the nine animals, the individual with the highest facial image matching rate of 93% was the image of the same individual as the individual to be identified.

[参考例2]
参考例1と同じような顔画像を9個体(ミニチュア・ダックスフントA~I)のそれぞれについて、複数枚用意した。これらの画像を「データベース画像」とする。
参考例1と同じ学習済みモデルを用いて、各顔画像から特徴量を抽出した。9個体それぞれについて、複数枚の顔画像の特徴量について平均化(相加平均)を行った。平均化に用いた顔画像の枚数を表1に記載されているように、2枚、4枚、8枚、16枚、32枚、64枚、128枚というように変更して平均化を行った。表1中、平均化に用いた枚数が「1」となっているのは、1枚の画像を用いており、平均化を行っていない例である。9個体それぞれについて得られた特徴量を、「平均化特徴量」とする。

次に、識別対象用のミニチュア・ダックスフントの顔画像をミニチュア・ダックスフントA~Iのそれぞれについて10枚ずつ用意し、上記参考例1と同じ学習済みモデルを用いて特徴量を抽出した。これらの特徴量を「識別対象特徴量」とする。

9個体それぞれについて、識別対象特徴量と、平均化特徴量との間で、コサイン類似度を計算し、コサイン類似度が高いものを同一の個体と判定した。

判定結果として、実際に同一の個体を同一と判定できた場合を「正解」と定義した。例えば、ミニチュア・ダックスフントAの識別対象用の画像を、データベース画像の中からミニチュア・ダックスフントAの画像と同じ個体の画像であると判定できた場合が「正解」である。9個体×10枚の画像の合計90枚のうち、正解できた割合を「正解率」とした。
平均化に用いた枚数と正解率との関係を表1に示す。
表1から明らかなように、特徴量の平均化を行うことで正解率を上げることが可能となった。
[Reference example 2]
A plurality of face images similar to those in Reference Example 1 were prepared for each of nine individuals (miniature dachshunds A to I). These images are referred to as "database images."
Using the same trained model as in Reference Example 1, feature amounts were extracted from each facial image. For each of the nine individuals, the feature values of multiple facial images were averaged (arithmetic mean). As shown in Table 1, the number of face images used for averaging was changed to 2, 4, 8, 16, 32, 64, and 128. Ta. In Table 1, the number of images used for averaging is "1" in an example where one image is used and no averaging is performed. The feature amounts obtained for each of the nine individuals are referred to as "averaged feature amounts."

Next, 10 face images of miniature dachshunds to be identified were prepared for each of miniature dachshunds A to I, and feature amounts were extracted using the same trained model as in Reference Example 1 above. These feature amounts are referred to as "identification target feature amounts."

For each of the nine individuals, the cosine similarity was calculated between the feature to be identified and the averaged feature, and those with a high cosine similarity were determined to be the same individual.

As a determination result, the case where the same individuals were actually determined to be the same was defined as "correct". For example, if the image for identification of miniature dachshund A can be determined to be an image of the same individual as the image of miniature dachshund A from among the database images, the answer is "correct." The percentage of correct answers out of a total of 90 images (9 individuals x 10 images) was defined as the "correct answer rate".
Table 1 shows the relationship between the number of sheets used for averaging and the accuracy rate.
As is clear from Table 1, it became possible to increase the accuracy rate by averaging the feature values.

Figure 2023125869000002
Figure 2023125869000002

[実施例1]
チワワについて、年齢を0歳、3~5歳、8歳以上の3つのクラスに分けて、それぞれのクラスについて530枚の画像(静止画。顔が写っているもの)を用意した。
EfficientNetB7をファインチューニングしたモデルを学習済みモデルとして、各画像から特徴量(ベクトル)を抽出した。
次に、TabNetを用いて、各画像について、特徴量と年齢のクラスに関する情報からなる学習データセットを用いて学習を行い、年齢クラスを分けるために重要な特徴量とその重要度を出力した。学習データセットの一例を下記表に示す。ファイル名が、各動物の画像のファイル名であり、画像に写っている犬の年齢クラスが、0歳以下、3~5歳、又は8歳以上であることを示すものである。「vector1」、「vector2」等が、各特徴であり、その下の数値が、各特徴に係る特徴量(ベクトル)である。
[Example 1]
Chihuahuas were divided into three age classes: 0 years old, 3 to 5 years old, and 8 years old and older, and 530 images (still images with faces) were prepared for each class.
A feature amount (vector) was extracted from each image using a model obtained by fine-tuning EfficientNetB7 as a trained model.
Next, using TabNet, learning was performed for each image using a learning data set consisting of information on feature quantities and age classes, and the important feature quantities and their importance levels for separating the age classes were output. An example of the learning data set is shown in the table below. The file name is the file name of each animal image, and indicates that the age class of the dog in the image is 0 years old or younger, 3 to 5 years old, or 8 years old or older. "vector1", "vector2", etc. are each feature, and the numerical value below is the feature amount (vector) related to each feature.

Figure 2023125869000003
Figure 2023125869000003

特徴量は1792個あった。上記で導き出した重要度(年齢の影響を受けやすい度合い)が上位1%に含まれる特徴量の重み(比率)を1とし、それ以外の特徴量の重みを2とした。重みを1とした特徴量は合計18個であった。
個体識別用に、データベースに0歳、又は3~5歳のチワワの画像22頭分から抽出した特徴量を登録しておき、検証データとして、データベースに含まれる個体と同一個体8頭分の画像を合計で51枚用意し、特徴量を抽出した。
下記計算式に従い、コサイン類似度によって、データベースに登録された各個体の特徴量と検証データに係る画像の特徴量の一致率を計算した。重み(weights 本実施例では1又は2)は下記計算式の分子にかけた。
There were 1792 features. The weight (ratio) of features whose importance (degree of susceptibility to age) derived above is in the top 1% was set to 1, and the weight of other features was set to 2. There were a total of 18 feature quantities with a weight of 1.
For individual identification, features extracted from 22 images of Chihuahuas aged 0 or 3 to 5 years are registered in the database, and images of 8 individuals identical to those included in the database are used as verification data. A total of 51 images were prepared and feature values were extracted.
According to the following calculation formula, the matching rate between the feature amount of each individual registered in the database and the feature amount of the image related to the verification data was calculated using cosine similarity. The weights (1 or 2 in this example) were multiplied by the numerator of the following calculation formula.

その結果、検証データ51枚のうち、正答したもの(検証データに写っている個体と同一の個体を登録データから正確にピックアップできたもの)は、23枚であった。登録データと検証データの一致率が、重み付けを行わないで計算した場合よりも上がったか、下がったかについて、下記表に示す。下記表から明らかなように、正答したものは一致率が上がり、誤答したものは一致率が下がっている。つまり、正答した場合は、重み付けを行わない場合よりも、より正確に判定ができていることが分かる(より自信を持って判定ができている)。重み付けの値や同一個体と判断するための一致率の閾値などを調整することで正答率を上げることが可能と考えられる。 As a result, out of 51 pieces of verification data, 23 were correctly answered (the same individual as the one shown in the verification data could be accurately picked up from the registered data). The table below shows whether the match rate between registered data and verification data was higher or lower than when calculated without weighting. As is clear from the table below, the match rate increases for correct answers, and decreases for incorrect answers. In other words, when the answer is correct, it can be seen that the judgment is made more accurately (the judgment is made with more confidence) than when weighting is not performed. It is thought that it is possible to increase the correct answer rate by adjusting the weighting value and the matching rate threshold for determining that the individuals are the same.

Figure 2023125869000005



Figure 2023125869000005



Claims (17)

動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースと、
動物の顔画像の入力を受け付ける受付手段と、
学習済みモデルを含み、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出手段と、
前記データベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定手段と、を備える個体識別システム。
a database storing feature quantities extracted from animal face images using a trained model and animal individual identification information;
a reception means for accepting input of an animal's face image;
a feature extracting means that includes a trained model and extracts a feature from the face image input to the receiving means;
By comparing the feature quantities stored in the database with the feature quantities extracted by the feature quantity extracting means, after reducing the weighting of the feature quantities that are likely to be affected by age, An individual identification system comprising: determination means for determining whether a face image of an animal is an image of the same animal individual as the animal individual related to individual identification information stored in a database.
前記年齢の影響を受けやすい特徴量に対して、それ以外の特徴量の重みを増すようにして重みを調整することによって、年齢の影響を受けやすい特徴量の重み付けを小さくする請求項1記載の個体識別システム。 2. The method according to claim 1, wherein the weighting of the feature quantity that is easily affected by age is reduced by adjusting the weight so that the weight of other feature quantities is increased relative to the feature quantity that is easily affected by age. Individual identification system. 前記年齢の影響を受けやすい特徴量が、画像から抽出される各特徴量の中で年齢の影響の受けやすさ順で上位10%以内に含まれる特徴量である請求項1又は2記載の個体識別システム。 The individual according to claim 1 or 2, wherein the feature quantity that is susceptible to the influence of age is a feature quantity that is included in the top 10% of the feature quantities extracted from the image in order of susceptibility to the influence of age. identification system. 前記年齢の影響を受けやすい特徴量が、画像から抽出される各特徴量の中で年齢の影響の受けやすさ順で上位5%以内に含まれる特徴量である請求項1~3のいずれか一項記載の個体識別システム。 Any one of claims 1 to 3, wherein the feature quantity that is susceptible to the influence of age is a feature quantity that is included within the top 5% in the order of susceptibility to the influence of age among each feature quantity extracted from the image. The individual identification system described in item 1. 前記年齢の影響の受けやすさが、動物の年齢を分類するために重要な特徴量を出力することのできる重要度判定用学習済みモデルによって出力されたものである請求項3又は4記載の個体識別システム。 The individual according to claim 3 or 4, wherein the susceptibility to age is output by a trained model for importance determination that can output feature values important for classifying the age of the animal. identification system. 前記学習済みモデルが、ニューラルネットワークである請求項1~5のいずれか一項記載の個体識別システム。 The individual identification system according to any one of claims 1 to 5, wherein the trained model is a neural network. 前記学習済みモデルが、畳み込みニューラルネットワークである請求項6記載の個体識別システム。 The individual identification system according to claim 6, wherein the trained model is a convolutional neural network. 前記特徴量抽出手段に含まれる学習済みモデルが、前記データベースに記憶される特徴量を抽出するのに用いられる学習済みモデルと同一の学習済みモデルである請求項1~7のいずれか一項記載の個体識別システム。 The learned model included in the feature extracting means is the same trained model as the trained model used to extract the feature stored in the database. individual identification system. 前記データベースが記憶する特徴量が、同一個体を撮影した複数の画像から抽出された特徴量を平均化して得られる特徴量である請求項1~8のいずれか一項記載の個体識別システム。 9. The individual identification system according to claim 1, wherein the feature amount stored in the database is a feature amount obtained by averaging feature amounts extracted from a plurality of images taken of the same individual. 前記特徴量抽出手段が、同一個体を撮影した複数の画像から特徴量を抽出し、前記判定手段においてデータベースに記憶されている特徴量との比較に用いられる特徴量が、同一個体を撮影した複数の画像から抽出した特徴量を平均化して得られる特徴量である請求項1~9のいずれか一項記載の個体識別システム。 The feature amount extraction means extracts feature amounts from a plurality of images taken of the same individual, and the feature amounts used for comparison with the feature amounts stored in the database in the determination means are based on the plurality of images taken of the same individual. 10. The individual identification system according to claim 1, wherein the feature amount is obtained by averaging feature amounts extracted from images of . 動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースと、
入場又は退場しようとする動物の顔画像の入力を受け付ける受付手段と、
学習済みモデルを含み、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出手段と、
前記データベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定手段と、を備える入退場管理システム。
a database storing feature quantities extracted from animal face images using a trained model and animal individual identification information;
a reception means for receiving an input of a facial image of an animal attempting to enter or exit;
a feature extracting means that includes a trained model and extracts a feature from the face image input to the receiving means;
By comparing the feature quantities stored in the database with the feature quantities extracted by the feature quantity extracting means, after reducing the weighting of the feature quantities that are likely to be affected by age, An entry/exit management system comprising: determination means for determining whether or not a facial image of an animal is an image of the same animal as the individual animal associated with individual identification information stored in a database.
前記データベースは、個体識別情報として、吠え傾向、攻撃性、活発性及び社交性からなる群から選ばれる一つ以上の性向を記憶する請求項11記載の入退場管理システム。 12. The entrance/exit management system according to claim 11, wherein the database stores one or more tendencies selected from the group consisting of barking tendency, aggression, activeness, and sociability as individual identification information. 入場又は退場しようとする動物が、所定の性向を有することがデータベースに記憶されている個体と同一の個体であると判定手段が判定した場合、アラートをするアラート手段をさらに有する請求項12記載の入退場管理システム。 13. The apparatus according to claim 12, further comprising an alert means for issuing an alert when the determination means determines that the animal entering or exiting is the same as an individual whose predetermined propensity is stored in the database. Entrance/exit management system. 動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースと、
動物病院において診察を受けようとする動物の顔画像の入力を受け付ける受付手段と、
学習済みモデルを含み、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出手段と、
前記データベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定手段と、を備える診察管理システム。
a database storing feature quantities extracted from animal face images using a trained model and animal individual identification information;
a reception means for receiving an input of a facial image of an animal to be examined at a veterinary hospital;
a feature extracting means that includes a trained model and extracts a feature from the face image input to the receiving means;
By comparing the feature quantities stored in the database with the feature quantities extracted by the feature quantity extracting means, after reducing the weighting of the feature quantities that are likely to be affected by age, A medical examination management system comprising: determination means for determining whether a face image of an animal is an image of the same animal individual as the animal individual associated with individual identification information stored in a database.
動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースと、
ペットサロンにおいてトリミング又はシャンプーを受けようとする動物の顔画像の入力を受け付ける受付手段と、
学習済みモデルを含み、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出手段と、
前記データベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定手段と、を備える受付管理システム。
a database storing feature quantities extracted from animal face images using a trained model and animal individual identification information;
a reception means for receiving an input of a facial image of an animal that is about to be trimmed or shampooed at a pet salon;
a feature extracting means that includes a trained model and extracts a feature from the face image input to the receiving means;
By comparing the feature quantities stored in the database with the feature quantities extracted by the feature quantity extracting means, after reducing the weighting of the feature quantities that are likely to be affected by age, A reception management system comprising: determination means for determining whether or not a facial image of an animal is an image of the same individual as the animal individual associated with individual identification information stored in a database.
動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースと、
捜索対象となっている動物の候補となる動物の顔画像の入力を受け付ける受付手段と、
学習済みモデルを含み、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出手段と、
前記データベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定手段と、を備える捜索管理システム。
a database storing feature quantities extracted from animal face images using a trained model and animal individual identification information;
a reception means for receiving an input of a facial image of an animal that is a candidate for the animal to be searched;
a feature extracting means that includes a trained model and extracts a feature from the face image input to the receiving means;
By comparing the feature quantities stored in the database with the feature quantities extracted by the feature quantity extracting means, after reducing the weighting of the feature quantities that are likely to be affected by age, A search management system comprising: determination means for determining whether or not a face image of an animal is an image of the same animal individual as the animal individual associated with individual identification information stored in a database.
動物の顔画像の入力を受け付けるステップと、
学習済みモデルを用いて、前記受付手段に入力された顔画像から特徴量を抽出する特徴量抽出ステップと、
動物の顔画像から学習済みモデルを用いて抽出された特徴量及び動物の個体識別情報を記憶したデータベースに記憶されている特徴量と、前記特徴量抽出手段が抽出した特徴量を、年齢の影響を受けやすい特徴量の重み付けを小さくしたうえで比較することにより、前記受付手段に入力された動物の顔画像が、データベースに記憶された個体識別情報に係る動物個体と同一の個体の画像であるか否かを判定する判定ステップと、を備える個体識別方法。
a step of accepting input of an animal face image;
a feature quantity extraction step of extracting a feature quantity from the face image input to the reception means using the trained model;
The feature values extracted from the animal's face image using a trained model and the feature values stored in a database that stores the animal's individual identification information and the feature values extracted by the feature extracting means are By reducing the weighting of the feature quantities that are susceptible to such a change and then comparing the results, it is determined that the facial image of the animal input to the receiving means is an image of the same animal as the individual animal associated with the individual identification information stored in the database. An individual identification method, comprising: a determination step of determining whether or not.
JP2022030217A 2022-02-28 2022-02-28 Individual identification system and individual identification method Active JP7360489B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022030217A JP7360489B2 (en) 2022-02-28 2022-02-28 Individual identification system and individual identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022030217A JP7360489B2 (en) 2022-02-28 2022-02-28 Individual identification system and individual identification method

Publications (2)

Publication Number Publication Date
JP2023125869A true JP2023125869A (en) 2023-09-07
JP7360489B2 JP7360489B2 (en) 2023-10-12

Family

ID=87887516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022030217A Active JP7360489B2 (en) 2022-02-28 2022-02-28 Individual identification system and individual identification method

Country Status (1)

Country Link
JP (1) JP7360489B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019010004A (en) * 2017-06-29 2019-01-24 株式会社Peco Information processing system and program
JP2019071895A (en) * 2017-08-29 2019-05-16 株式会社ハチたま Pet individual identification system
JP2021036871A (en) * 2020-10-21 2021-03-11 シャープ株式会社 Biological information processing device and program
KR20210074017A (en) * 2019-12-11 2021-06-21 대한민국(농촌진흥청장) System for authenticating the biological information of dog
JP2022164098A (en) * 2021-04-15 2022-10-27 アニコム ホールディングス株式会社 Determination system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019010004A (en) * 2017-06-29 2019-01-24 株式会社Peco Information processing system and program
JP2019071895A (en) * 2017-08-29 2019-05-16 株式会社ハチたま Pet individual identification system
KR20210074017A (en) * 2019-12-11 2021-06-21 대한민국(농촌진흥청장) System for authenticating the biological information of dog
JP2021036871A (en) * 2020-10-21 2021-03-11 シャープ株式会社 Biological information processing device and program
JP2022164098A (en) * 2021-04-15 2022-10-27 アニコム ホールディングス株式会社 Determination system

Also Published As

Publication number Publication date
JP7360489B2 (en) 2023-10-12

Similar Documents

Publication Publication Date Title
Achour et al. Image analysis for individual identification and feeding behaviour monitoring of dairy cows based on Convolutional Neural Networks (CNN)
US11900647B2 (en) Image classification method, apparatus, and device, storage medium, and medical electronic device
US20220036055A1 (en) Person identification systems and methods
EP4053762A1 (en) Disease prediction system, insurance fee calculation system, and disease prediction method
US10600179B2 (en) Image analysis for determining characteristics of groups of individuals
US20200065706A1 (en) Method for verifying training data, training system, and computer program product
US20240196867A1 (en) Animal visual identification, tracking, monitoring and assessment systems and methods thereof
CN111753697B (en) Intelligent pet management system and management method thereof
US11295113B2 (en) 3D biometric identification system for identifying animals
JP7360496B2 (en) Judgment system
JP7360489B2 (en) Individual identification system and individual identification method
Himel et al. Vision intelligence for smart sheep farming: applying ensemble learning to detect sheep breeds
WO2023008571A1 (en) Individual identification system and individual identification method
KR102303862B1 (en) Online livestock auction device and method using artificial intelligence
JP7204859B1 (en) Personality determination system and method for determining personality
JP7466972B1 (en) Method for measuring pig activity, non-transitory computer-readable storage medium storing a pig activity measurement program, and pig activity measurement system
KR102452932B1 (en) System for providing map based stray animal management platform service
CN114998575B (en) Method and device for training and using target detection model
JP7082647B2 (en) Insurance premium calculation system and insurance premium calculation method
US20230394078A1 (en) Search device, search method, and recording medium
JP2024062859A (en) System and method for determining compatibility with pet animals
GB2618780A (en) Health tracking method and system
CN117672501A (en) Pet health preliminary screening system based on artificial intelligence
JP2022184223A (en) Pet sales price determination system and pet sales determination method
JP2022184224A (en) Image determination system and image determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221207

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230929

R150 Certificate of patent or registration of utility model

Ref document number: 7360489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150