JP2022104061A - Flight type robot, control program for flight type robot and control method for flight type robot - Google Patents

Flight type robot, control program for flight type robot and control method for flight type robot Download PDF

Info

Publication number
JP2022104061A
JP2022104061A JP2020219048A JP2020219048A JP2022104061A JP 2022104061 A JP2022104061 A JP 2022104061A JP 2020219048 A JP2020219048 A JP 2020219048A JP 2020219048 A JP2020219048 A JP 2020219048A JP 2022104061 A JP2022104061 A JP 2022104061A
Authority
JP
Japan
Prior art keywords
flight
robot according
predetermined
flying
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020219048A
Other languages
Japanese (ja)
Other versions
JP2022104061A5 (en
Inventor
郁子 岸田
Ikuko Kishida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sakai Sogo Kenkyusho LLC
Original Assignee
Sakai Sogo Kenkyusho LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sakai Sogo Kenkyusho LLC filed Critical Sakai Sogo Kenkyusho LLC
Priority to JP2020219048A priority Critical patent/JP2022104061A/en
Publication of JP2022104061A publication Critical patent/JP2022104061A/en
Publication of JP2022104061A5 publication Critical patent/JP2022104061A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Catching Or Destruction (AREA)
  • Burglar Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide a flight type robot which reliably monitors an object to be monitored with a simple configuration.SOLUTION: In a case where an object to be monitored such as a wildlife entering a farm or a criminal trying to thief agricultural products is recognized on the basis of an image captured by a camera mounted on an unmanned aircraft which flies by automatic steering, a flight type robot 1001 flies to approach the object to be monitored. Thus, the object to be monitored is recognized on the basis of the image captured by the camera, so that the object to be monitored (such as a criminal 1203) can be accurately recognized in comparison with a case where the object to be monitored is detected using only an infrared sensor. Thus, the object to be monitored can be reliably monitored with a simple configuration.SELECTED DRAWING: Figure 12

Description

この発明は、農場などを監視する飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法に関する。 The present invention relates to a flying robot for monitoring a farm or the like, a control program for the flying robot, and a control method for the flying robot.

近年、作物栽培農場や畜産農場などの農場における農産物(農畜産物)の盗難が問題となっている。盗難は、大抵の人間が就寝している深夜や未明におこなわれることが多く、監視カメラなどを用いて盗難の様子を録画することができても、盗難の現場を押さえるなどのリアルタイムでの対応をとることが難しい。 In recent years, theft of agricultural products (agricultural and livestock products) on farms such as crop cultivation farms and livestock farms has become a problem. Theft is often done at midnight or early dawn when most humans are sleeping, and even if the state of the theft can be recorded using a surveillance camera etc., real-time response such as holding down the scene of the theft It is difficult to take.

関連する技術として、具体的には、従来、たとえば、圃場に設置された複数の通信装置が、人・動物・物体などが圃場に侵入したことを検出すると、当該検出を通知する信号を受信した通信端末装置(派遣部)から当該圃場の周辺に待機している管理機に派遣信号を出力し、この派遣信号を受信した管理機(マルチコプター)を、侵入を検出した通信装置の周辺に派遣するようにした圃場管理システムに関する技術があった(たとえば、下記特許文献1を参照。)。各通信装置の位置は、GPSを利用して自機の位置を特定する管理機が、通信装置から送信される自装置の識別情報と、当該識別情報を受信した位置とを関連付けることによって特定する。 As a related technique, specifically, conventionally, for example, when a plurality of communication devices installed in a field detect that a person, an animal, an object, or the like has invaded the field, a signal notifying the detection is received. The communication terminal device (dispatch unit) outputs a dispatch signal to the management device waiting in the vicinity of the field, and the management device (multicopter) that receives this dispatch signal is dispatched to the vicinity of the communication device that detected the intrusion. There was a technique related to a field management system (see, for example, Patent Document 1 below). The position of each communication device is specified by the management device that identifies the position of the own device using GPS by associating the identification information of the own device transmitted from the communication device with the position where the identification information is received. ..

特開2019-16147号公報Japanese Unexamined Patent Publication No. 2019-16147

しかしながら、上述した特許文献1のような従来の技術は、複数の通信装置を圃場に設置したり、通信装置が圃場への侵入を検出した、通信端末装置(派遣部)を介して管理機を派遣したりするため、設備構成が複雑であるという問題があった。 However, in the conventional technique as described in Patent Document 1 described above, a management device is installed via a communication terminal device (dispatch unit) in which a plurality of communication devices are installed in a field or the communication device detects an intrusion into the field. There was a problem that the equipment configuration was complicated because it was dispatched.

また、上述した特許文献1のような従来の技術は、圃場の広さにかかわらず一定の検出精度を確保するためには、圃場が広くなるほど、多くの通信装置を設置する必要があり、設備の維持にかかる管理者の負担が大きくなるという問題があった。 Further, in the conventional technique such as the above-mentioned Patent Document 1, in order to secure a certain detection accuracy regardless of the size of the field, it is necessary to install more communication devices as the field becomes wider. There was a problem that the burden on the administrator for maintaining the system would increase.

また、上述した特許文献1のような従来の技術は、GPSを利用して自機の位置を特定する管理機が、通信装置から送信される自装置の識別情報と、当該識別情報を受信した位置とを関連付けることによって各通信装置の位置を特定するため、悪意のある第三者によって通信装置が取り外されて別の場所へ移動された場合、通信端末装置(派遣部)が、通信装置から圃場への侵入を検出した信号を受信しても、実際に侵入者がいる位置に管理機を派遣することができないという問題があった。 Further, in the conventional technique as described in Patent Document 1, the management device for specifying the position of the own device using GPS receives the identification information of the own device transmitted from the communication device and the identification information. In order to identify the position of each communication device by associating it with the position, if the communication device is removed and moved to another location by a malicious third party, the communication terminal device (dispatch unit) will be removed from the communication device. Even if the signal for detecting the intrusion into the field is received, there is a problem that the management machine cannot be dispatched to the position where the intruder is actually present.

この発明は、上述した従来技術による問題点を解消するため、簡易な構成によって、確実に監視対象を監視することができる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法を提供することを目的とする。 The present invention provides a flight-type robot, a control program for the flight-type robot, and a control method for the flight-type robot, which can reliably monitor a monitoring target with a simple configuration in order to solve the problems caused by the above-mentioned prior art. The purpose is to do.

特に、この発明は、上述した従来技術による問題点を解消するため、簡易な構成によって、農場における農産物への被害を防止することができる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法を提供することを目的とする。 In particular, the present invention relates to a flying robot, a control program for a flying robot, and a flying robot that can prevent damage to agricultural products on a farm by a simple configuration in order to solve the problems caused by the above-mentioned prior art. The purpose is to provide a control method.

上述した課題を解決し、目的を達成するため、この発明にかかる飛行型ロボットは、自動操縦により飛行する無人航空機と、前記無人航空機に搭載されたカメラと、を備え、前記カメラによって撮影された画像に基づいて、監視対象を認識した場合、当該監視対象に接近するように飛行することを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the flight-type robot according to the present invention includes an unmanned aerial vehicle flying by autopilot and a camera mounted on the unmanned aerial vehicle, and is photographed by the camera. When a monitored object is recognized based on an image, it is characterized by flying so as to approach the monitored object.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該監視対象の全方位からの画像を撮影するように飛行することを特徴とする。 Further, in the above invention, when the flight type robot according to the present invention recognizes the monitoring target based on the image taken by the camera, the flight type robot flies so as to capture an image from all directions of the monitoring target. It is characterized by that.

また、この発明にかかる飛行型ロボットは、上記の発明において、あらかじめ設定された所定の範囲内において前記カメラによって撮影された画像に基づいて、監視対象を認識することを特徴とする。 Further, the flight-type robot according to the present invention is characterized in that, in the above invention, it recognizes a monitoring target based on an image taken by the camera within a predetermined range set in advance.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の範囲が、農場であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the predetermined range is a farm.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記監視対象が、前記農場における農産物または当該農産物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the monitored object is a bird or a beast or a human who possesses or carries an agricultural product on the farm or an article presumed to be the agricultural product.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の範囲が、作物栽培農場であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the predetermined range is a crop cultivation farm.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記監視対象が、前記作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする。 Further, in the above invention, the flying robot according to the present invention indicates that the monitoring target is a bird or beast or a human who possesses or carries a cultivated crop on the crop cultivation farm or an article presumed to be the cultivated crop. It is a feature.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の範囲が、畜産農場であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the predetermined range is a livestock farm.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記監視対象が、前記畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする。 Further, the flying robot according to the present invention is a bird or beast or a human whose monitoring target possesses or carries livestock or poultry on the livestock farm, or articles presumed to be livestock or poultry in the above invention. It is characterized by being.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の範囲が、養蜂場であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the predetermined range is an apiary.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記監視対象が、養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the monitoring target is a bird or beast or a human who possesses or carries a hive used for beekeeping or an article presumed to be the hive.

また、この発明にかかる飛行型ロボットは、上記の発明において、あらかじめ設定された時間帯に前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行することを特徴とする。 Further, in the above invention, when the flying robot according to the present invention recognizes the monitoring target based on the image taken by the camera in the preset time zone, the flying robot approaches the monitoring target. It is characterized by flying.

また、この発明にかかる飛行型ロボットは、上記の発明において、所定の入力操作または所定の信号を受け付けてから、当該所定の入力操作を無効とする操作または所定の信号を無効とする信号を受け付けるまでの間に、前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行することを特徴とする。 Further, in the above invention, the flight-type robot according to the present invention receives a predetermined input operation or a predetermined signal, and then receives an operation for invalidating the predetermined input operation or a signal for invalidating the predetermined signal. In the meantime, when the monitored object is recognized based on the image taken by the camera, it is characterized by flying so as to approach the monitored object.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記監視対象を認識した場合、当該監視対象に接近するように飛行するとともに、当該監視対象に向けて所定の音声を出力することを特徴とする。 Further, in the above invention, when the flying robot according to the present invention recognizes the monitored object, it flies so as to approach the monitored object and outputs a predetermined voice to the monitored object. It is a feature.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声が、盗難を注意または警告する発話を録音した音声、または、盗難を注意または警告する発話を模した合成音声であることを特徴とする。 Further, in the above-mentioned invention, the flying robot according to the present invention is a voice recording a utterance that warns or warns of theft, or a synthetic voice that imitates a utterance that warns or warns of theft. It is characterized by that.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声が、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声であることを特徴とする。 Further, in the flying robot according to the present invention, in the above invention, the predetermined voice is a voice of a siren, a horn, a whistle or a whistle, or a synthetic voice imitating at least one of these voices. It is characterized by being.

また、この発明にかかる飛行型ロボットは、上記の発明において、認識した前記監視対象が、あらかじめ設定された監視範囲内に存在する間、前記所定の音声を出力することを特徴とする。 Further, the flight-type robot according to the present invention is characterized in that, in the above invention, the recognized monitoring target outputs the predetermined voice while it is within the preset monitoring range.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声が、音圧レベルが80dB以上であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the predetermined voice has a sound pressure level of 80 dB or more.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声が、ラウドネスレベルが90フォン以上であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the predetermined voice has a loudness level of 90 phones or more.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記無人航空機に搭載された光源を備え、前記光源を発光させながら飛行することを特徴とする。 Further, in the above-mentioned invention, the flight-type robot according to the present invention is provided with a light source mounted on the unmanned aerial vehicle, and is characterized in that it flies while emitting light from the light source.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記光源を点滅させながら飛行することを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the flying robot flies while blinking the light source.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記光源を所定の閾値以上の光束の光を点滅させながら飛行することを特徴とする。 Further, the flight-type robot according to the present invention is characterized in that, in the above invention, the light source flies while blinking a light having a luminous flux equal to or higher than a predetermined threshold value.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記無人航空機に搭載された無線通信インターフェースを備え、前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、前記無線通信インターフェースを介して、当該画像を所定の宛先に送信することを特徴とする。 Further, in the above invention, the flight type robot according to the present invention is provided with a wireless communication interface mounted on the unmanned aircraft, and when the monitoring target is recognized based on an image taken by the camera, the wireless communication is performed. It is characterized in that the image is transmitted to a predetermined destination via an interface.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の宛先が、特定のスマートフォンに設定された電子メールアドレスであることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the predetermined destination is an e-mail address set in a specific smartphone.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の宛先が、クラウドネットワーク上に設定された特定のURLであることを特徴とする。 Further, the flight-type robot according to the present invention is characterized in that, in the above invention, the predetermined destination is a specific URL set on the cloud network.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該画像を所定の記憶領域に記憶することを特徴とする。 Further, the flight type robot according to the present invention is characterized in that, in the above invention, when the monitoring target is recognized based on the image taken by the camera, the image is stored in a predetermined storage area.

また、この発明にかかる飛行型ロボットの制御プログラムは、カメラが搭載され、自動操縦により飛行させる無人航空機を備える飛行型ロボットのコンピュータに、前記カメラによる撮影をおこなわせ、前記カメラによって撮影された画像に基づいて、監視対象を認識した場合、当該対象物に接近するように飛行させる、処理を実行させることを特徴とする。 Further, in the control program for a flying robot according to the present invention, a computer of a flying robot equipped with an unmanned aircraft equipped with a camera and operated by automatic control is made to take a picture with the camera, and an image taken by the camera is taken. Based on the above, when a monitored object is recognized, it is characterized in that it flies so as to approach the object and executes a process.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該監視対象の全方位からの画像を撮影するように飛行させることを特徴とする。 Further, in the above invention, when the control program of the flight robot according to the present invention recognizes the monitoring target based on the image taken by the camera, the control program of the flight type robot captures an image from all directions of the monitoring target. It is characterized by flying to.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、あらかじめ設定された所定の範囲内において前記カメラによって撮影された画像に基づいて、監視対象を認識することを特徴とする。 Further, the control program for a flying robot according to the present invention is characterized in that, in the above invention, a monitoring target is recognized based on an image taken by the camera within a predetermined range set in advance.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の範囲が、農場であることを特徴とする。 Further, the control program for a flying robot according to the present invention is characterized in that, in the above invention, the predetermined range is a farm.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記監視対象が、前記農場における農産物または当該農産物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする。 Further, the control program of the flying robot according to the present invention is characterized in that, in the above invention, the monitored object is a bird or a beast or a human who possesses or carries an agricultural product on the farm or an article presumed to be the agricultural product. And.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の範囲が、作物栽培農場であることを特徴とする。 Further, the control program for a flying robot according to the present invention is characterized in that, in the above invention, the predetermined range is a crop cultivation farm.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記監視対象が、前記作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする。 Further, in the above invention, the control program of the flying robot according to the present invention is a bird or beast or a human whose monitoring target possesses or carries a cultivated crop on the crop cultivating farm or an article presumed to be the cultivated crop. It is characterized by being.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の範囲が、畜産農場であることを特徴とする。 Further, the control program for a flying robot according to the present invention is characterized in that, in the above invention, the predetermined range is a livestock farm.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記監視対象が、前記畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする。 Further, in the control program of the flying robot according to the present invention, in the above invention, the monitoring target possesses or carries livestock or poultry on the livestock farm, or articles presumed to be livestock or poultry. Or it is characterized by being human.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の範囲が、養蜂場であることを特徴とする。 Further, the control program for a flying robot according to the present invention is characterized in that, in the above invention, the predetermined range is an apiary.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記監視対象が、養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする。 Further, the control program of the flying robot according to the present invention is characterized in that, in the above invention, the monitored object is a bird or beast or a human who possesses or carries a hive used for beekeeping or an article presumed to be the hive. And.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、あらかじめ設定された時間帯に前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行させることを特徴とする。 Further, in the above invention, when the control program of the flight robot according to the present invention recognizes the monitoring target based on the image taken by the camera in the preset time zone, the control program approaches the monitoring target. It is characterized by flying as if it were.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、所定の入力操作または所定の信号を受け付けてから、当該所定の入力操作を無効とする操作または所定の信号を無効とする信号を受け付けるまでの間に、前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行させることを特徴とする。 Further, in the above invention, the control program for a flying robot according to the present invention receives a predetermined input operation or a predetermined signal, and then invalidates the predetermined input operation or invalidates the predetermined signal. When the monitored object is recognized based on the image taken by the camera until the signal is received, the object is made to fly so as to approach the monitored object.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記監視対象を認識した場合、当該監視対象に接近するように飛行させるとともに、当該監視対象に向けて所定の音声を出力することを特徴とする。 Further, in the above invention, when the control program of the flying robot according to the present invention recognizes the monitored object, it flies so as to approach the monitored object and outputs a predetermined voice toward the monitored object. It is characterized by doing.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の音声は、盗難を注意または警告する発話を録音した音声、または、盗難を注意または警告する発話を模した合成音声であることを特徴とする。 Further, in the control program of the flying robot according to the present invention, in the above invention, the predetermined voice is a voice recording a utterance to warn or warn of theft, or a synthesis imitating a utterance to warn or warn of theft. It is characterized by being a voice.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の音声が、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声であることを特徴とする。 Further, in the control program of the flying robot according to the present invention, in the above invention, the predetermined voice imitates the voice of a siren, a horn, a whistle or a whistle, or at least one of these voices. It is characterized by being a synthetic voice.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、認識した前記監視対象が、あらかじめ設定された監視範囲内に存在する間、前記所定の音声を出力することを特徴とする。 Further, the control program for a flying robot according to the present invention is characterized in that, in the above invention, the recognized monitoring target outputs the predetermined voice while it is within the preset monitoring range. ..

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の音声が、音圧レベルが80dB以上であることを特徴とする。 Further, the control program for a flying robot according to the present invention is characterized in that, in the above invention, the predetermined voice has a sound pressure level of 80 dB or more.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の音声が、ラウドネスレベルが90フォン以上であることを特徴とする。 Further, the control program for a flying robot according to the present invention is characterized in that, in the above invention, the predetermined voice has a loudness level of 90 phon or more.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記無人航空機に搭載された光源を備え、前記光源を発光させながら飛行させることを特徴とする。 Further, the control program for a flying robot according to the present invention is characterized in that, in the above invention, the light source mounted on the unmanned aerial vehicle is provided and the light source is made to emit light while flying.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記光源を点滅させながら飛行させることを特徴とする。 Further, the control program for a flying robot according to the present invention is characterized in that, in the above invention, the light source is made to fly while blinking.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記光源を所定の閾値以上の光束の光を点滅させながら飛行させることを特徴とする。 Further, the control program for a flying robot according to the present invention is characterized in that, in the above invention, the light source is made to fly while blinking a light having a luminous flux equal to or higher than a predetermined threshold value.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記無人航空機に搭載された無線通信インターフェースを備え、前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、前記無線通信インターフェースを介して、当該画像を所定の宛先に送信することを特徴とする。 Further, in the above invention, the control program of the flying robot according to the present invention is provided with a wireless communication interface mounted on the unmanned aerial vehicle, and when the monitoring target is recognized based on the image taken by the camera. It is characterized in that the image is transmitted to a predetermined destination via the wireless communication interface.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の宛先が、特定のスマートフォンに設定された電子メールアドレスであることを特徴とする。 Further, the control program for a flying robot according to the present invention is characterized in that, in the above invention, the predetermined destination is an e-mail address set in a specific smartphone.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の宛先が、クラウドネットワーク上に設定された特定のURLであることを特徴とする。 Further, the control program for a flying robot according to the present invention is characterized in that, in the above invention, the predetermined destination is a specific URL set on the cloud network.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該画像を所定の記憶領域に記憶することを特徴とする。 Further, the control program for a flying robot according to the present invention is characterized in that, in the above invention, when the monitoring target is recognized based on the image taken by the camera, the image is stored in a predetermined storage area. And.

また、この発明にかかる飛行型ロボットの制御方法は、カメラが搭載され、自動操縦により飛行させる無人航空機を備える飛行型ロボットのコンピュータに、前記カメラによる撮影をおこなわせ、前記カメラによって撮影された画像に基づいて、監視対象を認識した場合、当該対象物に接近するように飛行させる、処理を実行させることを特徴とする。 Further, in the control method of the flying robot according to the present invention, a computer of a flying robot equipped with an unmanned aircraft equipped with a camera and flying by automatic control is made to take a picture by the camera, and an image taken by the camera is taken. Based on the above, when a monitored object is recognized, it is characterized in that it flies so as to approach the object and executes a process.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該監視対象の全方位からの画像を撮影するように飛行させることを特徴とする。 Further, the control method of the flight robot according to the present invention is such that when the monitoring target is recognized based on the image taken by the camera in the above invention, an image from all directions of the monitoring target is taken. It is characterized by flying to.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、あらかじめ設定された所定の範囲内において前記カメラによって撮影された画像に基づいて、監視対象を認識することを特徴とする。 Further, the control method for a flying robot according to the present invention is characterized in that, in the above invention, a monitoring target is recognized based on an image taken by the camera within a predetermined range set in advance.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の範囲が、農場であることを特徴とする。 Further, the method for controlling a flying robot according to the present invention is characterized in that, in the above invention, the predetermined range is a farm.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記監視対象が、前記農場における農産物または当該農産物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする。 Further, the method for controlling a flying robot according to the present invention is characterized in that, in the above invention, the monitored object is a bird or beast or a human who possesses or carries an agricultural product on the farm or an article presumed to be the agricultural product. And.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の範囲が、作物栽培農場であることを特徴とする。 Further, the method for controlling a flying robot according to the present invention is characterized in that, in the above invention, the predetermined range is a crop cultivation farm.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記監視対象が、前記作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする。 Further, in the above invention, the control method of the flying robot according to the present invention is a bird or beast or a human whose monitoring target possesses or carries a cultivated crop on the crop cultivating farm or an article presumed to be the cultivated crop. It is characterized by being.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の範囲が、畜産農場であることを特徴とする。 Further, the method for controlling a flying robot according to the present invention is characterized in that, in the above invention, the predetermined range is a livestock farm.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記監視対象が、前記畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする。 Further, in the method for controlling a flying robot according to the present invention, in the above invention, the monitoring target possesses or carries livestock or poultry on the livestock farm, or articles presumed to be livestock or poultry. Or it is characterized by being human.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の範囲が、養蜂場であることを特徴とする。 Further, the control method for a flying robot according to the present invention is characterized in that, in the above invention, the predetermined range is an apiary.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記監視対象が、養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする。 Further, the method for controlling a flying robot according to the present invention is characterized in that, in the above invention, the monitored object is a bird or beast or a human who possesses or carries a hive used for beekeeping or an article presumed to be the hive. And.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、あらかじめ設定された時間帯に前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行させることを特徴とする。 Further, the control method of the flight robot according to the present invention approaches the monitoring target when the monitoring target is recognized based on the image taken by the camera in the preset time zone in the above invention. It is characterized by flying as if it were.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、所定の入力操作または所定の信号を受け付けてから、当該所定の入力操作を無効とする操作または所定の信号を無効とする信号を受け付けるまでの間に、前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行させることを特徴とする。 Further, in the above-mentioned invention, the control method for a flight-type robot according to the present invention is an operation for invalidating a predetermined input operation or a predetermined signal after receiving a predetermined input operation or a predetermined signal. When the monitored object is recognized based on the image taken by the camera until the signal is received, the aircraft is made to fly so as to approach the monitored object.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記監視対象を認識した場合、当該監視対象に接近するように飛行させるとともに、当該監視対象に向けて所定の音声を出力することを特徴とする。 Further, in the method for controlling a flying robot according to the present invention, in the above invention, when the monitored object is recognized, the robot is made to fly close to the monitored object and a predetermined voice is output to the monitored object. It is characterized by doing.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の音声が、盗難を注意または警告する発話を録音した音声、または、盗難を注意または警告する発話を模した合成音声であることを特徴とする。 Further, the control method of the flying robot according to the present invention is the above-mentioned invention, in which the predetermined voice is a voice recording a utterance to warn or warn of theft, or a synthesis imitating a utterance to warn or warn of theft. It is characterized by being a voice.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の音声が、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声であることを特徴とする。 Further, in the method for controlling a flying robot according to the present invention, in the above invention, the predetermined voice imitates the voice of a siren, a horn, a whistle or a whistle, or at least one of these voices. It is characterized by being a synthetic voice.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、認識した前記監視対象が、あらかじめ設定された監視範囲内に存在する間、前記所定の音声を出力することを特徴とする。 Further, the control method for a flying robot according to the present invention is characterized in that, in the above invention, the recognized voice is output while the recognized monitoring target is within a preset monitoring range. ..

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の音声が、音圧レベルが80dB以上であることを特徴とする。 Further, the control method for a flying robot according to the present invention is characterized in that, in the above invention, the predetermined voice has a sound pressure level of 80 dB or more.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の音声が、ラウドネスレベルが90フォン以上であることを特徴とする。 Further, the control method for a flying robot according to the present invention is characterized in that, in the above invention, the predetermined voice has a loudness level of 90 phon or more.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記無人航空機に搭載された光源を備え、前記光源を発光させながら飛行させることを特徴とする。 Further, the method for controlling a flying robot according to the present invention is characterized in that, in the above invention, the light source mounted on the unmanned aerial vehicle is provided and the light source is made to emit light while flying.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記光源を点滅させながら飛行させることを特徴とする。 Further, the control method for a flying robot according to the present invention is characterized in that, in the above invention, the light source is made to fly while blinking.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記光源を所定の閾値以上の光束の光を点滅させながら飛行させることを特徴とする。 Further, the control method for a flying robot according to the present invention is characterized in that, in the above invention, the light source is made to fly while blinking a light having a luminous flux equal to or higher than a predetermined threshold value.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記無人航空機に搭載された無線通信インターフェースを備え、前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、前記無線通信インターフェースを介して、当該画像を所定の宛先に送信することを特徴とする。 Further, in the above invention, the control method of the flying robot according to the present invention is provided with a wireless communication interface mounted on the unmanned aerial vehicle, and when the monitoring target is recognized based on an image taken by the camera. It is characterized in that the image is transmitted to a predetermined destination via the wireless communication interface.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の宛先が、特定のスマートフォンに設定された電子メールアドレスであることを特徴とする。 Further, the method for controlling a flying robot according to the present invention is characterized in that, in the above invention, the predetermined destination is an e-mail address set in a specific smartphone.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の宛先が、クラウドネットワーク上に設定された特定のURLであることを特徴とする。 Further, the method for controlling a flying robot according to the present invention is characterized in that, in the above invention, the predetermined destination is a specific URL set on the cloud network.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該画像を所定の記憶領域に記憶することを特徴とする。 Further, the control method for a flying robot according to the present invention is characterized in that, in the above invention, when the monitoring target is recognized based on the image taken by the camera, the image is stored in a predetermined storage area. And.

この発明にかかる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法によれば、簡易な構成によって、確実に監視対象を監視することができるという効果を奏する。 According to the flight-type robot, the control program for the flight-type robot, and the control method for the flight-type robot according to the present invention, there is an effect that the monitoring target can be reliably monitored by a simple configuration.

また、この発明にかかる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法によれば、簡易な構成によって、農場における農産物への被害を防止することができるという効果を奏する。 Further, according to the flight robot, the control program of the flight robot, and the control method of the flight robot according to the present invention, it is possible to prevent damage to agricultural products on the farm by a simple configuration.

この発明にかかる実施の形態1の飛行型ロボットの外観の一例を示す説明図である。It is explanatory drawing which shows an example of the appearance of the flight type robot of Embodiment 1 which concerns on this invention. この発明にかかる実施の形態1の飛行型ロボットのハードウエアの一例を示す説明図である。It is explanatory drawing which shows an example of the hardware of the flight type robot of Embodiment 1 which concerns on this invention. ステーションの構成を示す説明図(その1)である。It is explanatory drawing (the 1) which shows the structure of a station. ステーションの構成を示す説明図(その2)である。It is explanatory drawing (the 2) which shows the structure of a station. この発明にかかる実施の形態1の飛行型ロボットの機能的成を示す説明図である。It is explanatory drawing which shows the functional formation of the flight type robot of Embodiment 1 which concerns on this invention. この発明にかかる実施の形態1の飛行型ロボットの処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the flight type robot of Embodiment 1 which concerns on this invention. この発明にかかる実施の形態1の飛行型ロボットの利用態様の一例を示す説明図(その1)である。It is explanatory drawing (the 1) which shows an example of the use mode of the flight type robot of Embodiment 1 which concerns on this invention. この発明にかかる実施の形態1の飛行型ロボットの利用態様の一例を示す説明図(その2)である。It is explanatory drawing (the 2) which shows an example of the use mode of the flight type robot of Embodiment 1 which concerns on this invention. この発明にかかる実施の形態1の飛行型ロボットの利用態様の一例を示す説明図(その3)である。It is explanatory drawing (the 3) which shows an example of the use mode of the flight type robot of Embodiment 1 which concerns on this invention. この発明にかかる実施の形態1の飛行型ロボットの利用態様の一例を示す説明図(その4)である。It is explanatory drawing (the 4) which shows an example of the use mode of the flight type robot of Embodiment 1 which concerns on this invention. この発明にかかる実施の形態2の飛行型ロボットの外観の一例を示す説明図である。It is explanatory drawing which shows an example of the appearance of the flight type robot of Embodiment 2 which concerns on this invention. この発明にかかる実施の形態2の飛行型ロボット101の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the flight type robot 101 of Embodiment 2 which concerns on this invention. この発明にかかる実施の形態2の飛行型ロボットの利用態様の一例を示す説明図(その1)である。It is explanatory drawing (the 1) which shows an example of the use mode of the flight type robot of Embodiment 2 which concerns on this invention. この発明にかかる実施の形態2の飛行型ロボットの利用態様の一例を示す説明図(その2)である。It is explanatory drawing (the 2) which shows an example of the use mode of the flight type robot of Embodiment 2 which concerns on this invention.

以下に添付図面を参照して、この発明にかかる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法の好適な実施の形態を詳細に説明する。 Hereinafter, preferred embodiments of the flight robot, the control program for the flight robot, and the control method for the flight robot according to the present invention will be described in detail with reference to the accompanying drawings.

<実施の形態1>
(飛行型ロボットの外観の一例)
まず、この発明にかかる実施の形態1の飛行型ロボットの外観の一例について説明する。図1は、この発明にかかる実施の形態1の飛行型ロボットの外観の一例を示す説明図である。図1に示すように、飛行型ロボット101は、ドローン(無人航空機)の態様をなす。
<Embodiment 1>
(An example of the appearance of a flying robot)
First, an example of the appearance of the flying robot according to the first embodiment of the present invention will be described. FIG. 1 is an explanatory diagram showing an example of the appearance of the flight-type robot according to the first embodiment of the present invention. As shown in FIG. 1, the flying robot 101 is in the form of a drone (unmanned aerial vehicle).

ドローンは、具体的には、たとえば、4つのプロペラ102を備えたクアッドコプターを採用することができる。ドローンは、クアッドコプターに限るものではなく、6つのプロペラを備えたヘキサコプター、8つのプロペラを備えたオクトコプターなど、各種のマルチコプターを採用することができる。 Specifically, the drone can employ, for example, a quadcopter equipped with four propellers 102. The drone is not limited to the quadcopter, and various multicopters such as a hexacopter equipped with six propellers and an octocopter equipped with eight propellers can be adopted.

この発明にかかる実施の形態1の飛行型ロボット101は、たとえば、ゴミ集積場に飛来し、ゴミを散乱させるカラスを対象物として認識し、当該カラスをゴミ集積場から追い払う。飛行型ロボット101は、たとえば、図1に示すように、鳥類、特に、カラスが苦手とする鷹などの猛禽を模した形状とすることができる。具体的に、飛行型ロボット101は、嘴を備えた頭部、鳥類の翼や尾を模した部材105などを備えている。嘴を備えた頭部、鳥類の翼や尾を模した部材105は、それぞれ可動式であってもよい。 The flight-type robot 101 according to the first embodiment of the present invention recognizes, for example, a crow that flies to a garbage collection site and scatters garbage as an object, and drives the crow away from the garbage collection site. As shown in FIG. 1, the flying robot 101 can have a shape that imitates birds, especially birds of prey such as hawks, which crows are not good at. Specifically, the flying robot 101 includes a head having a beak, a member 105 imitating a bird's wings and a tail, and the like. The head with a beak and the member 105 imitating the wings and tail of a bird may be movable.

具体的には、たとえば、モーターやギア列あるいはリンク機構によって嘴、頭部、翼、尾などの部材105をそれぞれ独立して動かすことができるようにしてもよい。これにより、飛行型ロボット101は、尾を振ったり、翼を動かしたりする動作を模すことができる。 Specifically, for example, the members 105 such as the beak, the head, the wings, and the tail may be independently moved by a motor, a gear train, or a link mechanism. As a result, the flying robot 101 can imitate the movement of swinging its tail and moving its wings.

なお、飛行型ロボット101は、鷹などの鳥類を模した形状に限るものではない。飛行型ロボット101は、現代において実在している鳥獣類に限らず、恐竜などのように絶滅した動物や、竜やユニコーンのような幻獣、あるいは、昆虫を模した形状とし、嘴・頭部・翼・尾に限らず、尻尾、耳、足(脚、肢)、角、牙、髭などの部材を備えていてもよい。 The flying robot 101 is not limited to a shape that imitates a bird such as a hawk. The flying robot 101 is not limited to the birds and beasts that actually exist in modern times, but has a shape that imitates an extinct animal such as a dinosaur, a phantom beast such as a dragon or a unicorn, or an insect, and has a beak and a head. -Not limited to wings and tails, members such as tails, ears, legs (legs, limbs), horns, fangs, and whiskers may be provided.

また、飛行型ロボット101は、カメラ103を備えている。カメラ103は、たとえば、汎用的なデジタルカメラによって実現することができる。図1に示すように、鷹などの鳥類を模した形状の飛行型ロボット101においては、たとえば、目に相当する部分に、カメラ103のレンズを設けることができる。あるいは、カメラ103は、ドローンの筐体の下側(腹側)に設けてもよい。カメラ103のレンズは、標準レンズであってもよく、広角レンズや魚眼レンズであってもよい。魚眼レンズを用いることにより、広い範囲を撮影することができる。 Further, the flight type robot 101 includes a camera 103. The camera 103 can be realized by, for example, a general-purpose digital camera. As shown in FIG. 1, in a flying robot 101 having a shape imitating a bird such as a hawk, for example, a lens of a camera 103 can be provided in a portion corresponding to an eye. Alternatively, the camera 103 may be provided on the lower side (ventral side) of the drone housing. The lens of the camera 103 may be a standard lens, a wide-angle lens, or a fisheye lens. By using a fisheye lens, it is possible to shoot a wide range.

飛行型ロボット101は、カメラ103により、飛行型ロボット101の周囲の画像を撮影する。飛行型ロボット101は、たとえば、あらかじめ設定された所定の範囲内を撮影する。所定の範囲は、たとえば、あらかじめ設定されたゴミ集積場とすることができる。所定の範囲の設定は、たとえば、所定のアプリケーションをインストールしたスマートフォンなどの端末装置から該当する範囲を指定する信号を受信することによっておこなうことができる。 The flight-type robot 101 captures an image of the surroundings of the flight-type robot 101 by the camera 103. The flight-type robot 101, for example, takes a picture within a predetermined range set in advance. The predetermined range can be, for example, a preset garbage collection site. The predetermined range can be set, for example, by receiving a signal specifying the corresponding range from a terminal device such as a smartphone in which a predetermined application is installed.

所定の範囲は、具体的には、たとえば、標準地域メッシュによって特定することができる。より具体的には、画像投影装置100の移動範囲は、たとえば、第1次メッシュ、第2次メッシュ、第3次メッシュなどによって特定することができる。また、画像投影装置100の移動範囲は、たとえば、第3次メッシュをさらに細分化した、2分の1地域メッシュ、4分の1地域メッシュ、8分の1地域メッシュなどの分割地域メッシュなどによって特定してもよい。所定の範囲を標準地域メッシュによって特定することにより、GPSセンサー(図2を参照)を用いた位置情報に基づき、飛行型ロボット101が飛行する所定の範囲を精密に制限することができる。 The predetermined range can be specifically specified, for example, by a standard region mesh. More specifically, the moving range of the image projection device 100 can be specified by, for example, a primary mesh, a secondary mesh, a tertiary mesh, and the like. Further, the moving range of the image projection device 100 is determined by, for example, a divided area mesh such as a half area mesh, a quarter area mesh, or a one-eighth area mesh, which is a further subdivision of the tertiary mesh. It may be specified. By specifying the predetermined range by the standard area mesh, it is possible to precisely limit the predetermined range in which the flight robot 101 flies based on the position information using the GPS sensor (see FIG. 2).

飛行型ロボット101は、カメラ103によって撮影された画像に基づいて、カラスを認識する。カラスの認識は、たとえば、画像認識によりおこなうことができる。画像認識においては、ノイズ除去や背景除去などの画像前処理や、特徴の抽出をおこなって、カメラ103によって撮影された画像におけるカラスの有無を判断する。飛行型ロボット101は、撮影された画像に関する情報を、飛行型ロボット101が備えるメモリ(図2を参照)に記憶してもよい。 The flying robot 101 recognizes a crow based on an image taken by the camera 103. Crow recognition can be done, for example, by image recognition. In image recognition, image preprocessing such as noise reduction and background removal and feature extraction are performed to determine the presence or absence of crows in the image captured by the camera 103. The flight-type robot 101 may store information about the captured image in a memory (see FIG. 2) included in the flight-type robot 101.

この実施の形態1の飛行型ロボット101は、ゴミ集積場などの所定の範囲内に入り込んだカラスを、所定の範囲外へ追い払うように飛行する(図6~図9を参照)。具体的には、たとえば、飛行型ロボット101への充電機能を備えたステーション(図3Aおよび図3Bを参照)において、所定の範囲内を撮影し、撮影された画像にカラスが含まれる場合に、飛行を開始してステーションから飛び立ち、カラスに接近するように飛行する。ステーションは、たとえば、所定の範囲内、あるいは、当該所定の範囲の近傍に設置することができる。 The flight-type robot 101 of the first embodiment flies so as to drive away crows that have entered a predetermined range such as a garbage collection site to the outside of the predetermined range (see FIGS. 6 to 9). Specifically, for example, at a station having a charging function for the flying robot 101 (see FIGS. 3A and 3B), when a predetermined range is photographed and the captured image contains a crow, the photographed image contains a crow. Start the flight, take off from the station, and fly closer to the crow. The station can be installed, for example, within a predetermined range or in the vicinity of the predetermined range.

カメラ103は、汎用的なデジタルカメラに代えて、光に対して感度を増幅させることによって暗い場所を撮影する暗視カメラ、赤外線に感度を有する赤外線カメラ、赤外線カメラによって撮影された画像における白黒の濃淡を解析してカラー画像を撮影する赤外線カラー暗視カメラなどによって実現してもよい。暗視カメラ、赤外線カメラ、赤外線カラー暗視カメラなどを用いて画像を撮影することにより、夜間や照度の低い室内などにおいても、ユーザーを精度よく認識することができる。 Instead of a general-purpose digital camera, the camera 103 is a dark-vision camera that shoots a dark place by amplifying the sensitivity to light, an infrared camera that has sensitivity to infrared rays, and a black-and-white image taken by an infrared camera. It may be realized by an infrared color dark vision camera or the like that analyzes shades and captures a color image. By taking an image using a night-vision camera, an infrared camera, an infrared color night-vision camera, or the like, the user can be recognized accurately even at night or in a room with low illumination.

飛行型ロボット101が備えるカメラ103は、1台であってもよく、複数台であってもよい。複数台のカメラ103を備える飛行型ロボット101においては、1種類のカメラ103に限るものではなく、異なる複数種類のカメラ103を備えていてもよい。図1に示すように、動物のような形状の飛行型ロボット101においては、たとえば、目に相当する部分にカメラ103のレンズを設けてもよい。 The flying robot 101 may have one camera 103 or a plurality of cameras 103. The flight-type robot 101 having a plurality of cameras 103 is not limited to one type of camera 103, and may be provided with a plurality of different types of cameras 103. As shown in FIG. 1, in the flying robot 101 having an animal-like shape, for example, the lens of the camera 103 may be provided in a portion corresponding to the eyes.

カメラ103は、ドローンに対して、姿勢の調整が可能な状態で連結されていてもよい。カメラ103は、具体的には、たとえば、ドローンの底面部にボールジョイントなどの自在継手を介して連結することができる。カメラ103を、ボールジョイントなどの自在継手を介してドローンに連結することにより、カメラ103の姿勢の調整にかかる高い自由度を確保することができる。 The camera 103 may be connected to the drone in a state in which the posture can be adjusted. Specifically, the camera 103 can be connected to the bottom surface of the drone via a universal joint such as a ball joint. By connecting the camera 103 to the drone via a universal joint such as a ball joint, it is possible to secure a high degree of freedom in adjusting the posture of the camera 103.

さらに、飛行型ロボット101は、ドローンに対するカメラ103の姿勢を変化させる駆動機構を備えていてもよい。これにより、人手を介さずに、ドローンに対するカメラ103の姿勢を調整することができる。駆動機構は、たとえば、モーターやギア列などによって構成することができる。ドローンに対するカメラ103の姿勢を人手を介さずに調整可能とすることにより、ドローンの姿勢にかかわらず、飛行型ロボット101の飛行中に、撮影方向を任意に調整することができる。カメラ103は、ズーム機能を備えていてもよい。 Further, the flight robot 101 may be provided with a drive mechanism that changes the posture of the camera 103 with respect to the drone. As a result, the posture of the camera 103 with respect to the drone can be adjusted without human intervention. The drive mechanism can be configured by, for example, a motor, a gear train, or the like. By making it possible to adjust the posture of the camera 103 with respect to the drone without human intervention, the shooting direction can be arbitrarily adjusted during the flight of the flying robot 101 regardless of the posture of the drone. The camera 103 may have a zoom function.

飛行型ロボット101は、ワイヤレス電力伝送(Wireless Power Transfer、Contactless Power Transmission)における受電コイルを備えていてもよい。ワイヤレス電力伝送(ワイヤレス給電)は、バッテリー(図2を参照)に対して、充電用接点を介することなく電力を受電する技術であって、非接触給電あるいは無線給電などとも称される。 The flight-type robot 101 may include a power receiving coil for wireless power transmission (Wireless Power Transfer, Contactless Power Transfer). Wireless power transfer (wireless power transfer) is a technique for receiving power to a battery (see FIG. 2) without going through a charging contact, and is also referred to as non-contact power supply or wireless power supply.

受電コイルは、飛行型ロボット101の筐体の外装面よりも内側に設けられる。これにより、雨露などの水滴や手油などによる受電コイルの劣化や故障を回避することができる。飛行型ロボット101は、受電コイルに代えて、あるいは、加えて、バッテリーの充電のための充電用接点を備えていてもよい。 The power receiving coil is provided inside the outer surface of the housing of the flight robot 101. This makes it possible to avoid deterioration and failure of the power receiving coil due to water droplets such as rain dew and hand oil. The flying robot 101 may include, or in addition to, a charging contact for charging the battery in place of or in addition to the power receiving coil.

また、図1に示すように、動物のような形状の飛行型ロボット101においては、たとえば、目に相当する部分にLEDランプ(光源)104を設けてもよい。LEDランプ104は、1つであってもよく、複数設けられていてもよい。目玉に相当する部分にカメラ103のレンズがある場合、LEDランプ104は、当該レンズを縁取るように設けてもよい。 Further, as shown in FIG. 1, in the flying robot 101 having an animal-like shape, for example, an LED lamp (light source) 104 may be provided in a portion corresponding to the eyes. The number of LED lamps 104 may be one, or a plurality of LED lamps 104 may be provided. When the lens of the camera 103 is located in the portion corresponding to the eyeball, the LED lamp 104 may be provided so as to border the lens.

LEDランプ104を複数設ける場合、それぞれのLEDランプ104が単体で、複数の発光色を切り替え可能に発光するものであってもよい。これにより、複数色の光を混ぜ合わせることによって、鳥獣の嫌がる色に調光した光を発することができる。また、それぞれが異なる色の光を発光する複数のLEDランプ104を、並べて配置するようにしてもよい。具体的には、たとえば、赤色の光を発するLEDランプ104の隣に、緑色の光を発するLEDランプ104を配置してもよい。 When a plurality of LED lamps 104 are provided, each LED lamp 104 may be a single unit and may emit light by switching a plurality of emission colors. As a result, by mixing light of a plurality of colors, it is possible to emit light that is dimmed to a color that birds and beasts dislike. Further, a plurality of LED lamps 104, each of which emits light of a different color, may be arranged side by side. Specifically, for example, the LED lamp 104 that emits green light may be arranged next to the LED lamp 104 that emits red light.

飛行型ロボット101は、さらに、太陽光などの外光によって発電するソーラーセル(太陽電池、図3Aおよび図3Bを参照)を備えていてもよい。ソーラーセルは、たとえば、飛行型ロボット101の筐体における上側の面に設ける。これにより、飛行中に確実に外光を取り入れて効率よく発電することができる。また、ソーラーセルを備えることにより、飛行中も充電することができるため、1回当たりの飛行時間を長く確保することができる。 The flying robot 101 may further include a solar cell (solar cell, see FIGS. 3A and 3B) that generates electricity by external light such as sunlight. The solar cell is provided, for example, on the upper surface of the housing of the flying robot 101. As a result, it is possible to reliably take in outside light during flight and generate electricity efficiently. Further, by providing a solar cell, it is possible to charge the battery even during flight, so that it is possible to secure a long flight time per flight.

(飛行型ロボット101のハードウエア構成)
つぎに、飛行型ロボット101のハードウエア構成について説明する。図2は、この発明にかかる実施の形態1の飛行型ロボット101のハードウエアの一例を示す説明図である。図2に示すように、飛行型ロボット101のハードウエアは、バッテリー201、モーター202、カメラ103、マイク203、スピーカー204、GPSセンサー205、対物センサー206、制御回路207、加速度センサー208、通信I/F209、LEDランプ104、ソーラーセル210などによって構成される。飛行型ロボット101が備える各部103、104、201~210は、バス200によって接続されている。
(Hardware configuration of flying robot 101)
Next, the hardware configuration of the flight robot 101 will be described. FIG. 2 is an explanatory diagram showing an example of the hardware of the flight-type robot 101 according to the first embodiment of the present invention. As shown in FIG. 2, the hardware of the flying robot 101 includes a battery 201, a motor 202, a camera 103, a microphone 203, a speaker 204, a GPS sensor 205, an objective sensor 206, a control circuit 207, an acceleration sensor 208, and a communication I /. It is composed of F209, LED lamp 104, solar cell 210 and the like. Each part 103, 104, 201 to 210 included in the flight type robot 101 is connected by a bus 200.

バッテリー201は、飛行型ロボット101が備える各部の動作に要する電源を供給する。バッテリー201は、たとえば、リチウム電池などの二次電池(充電式電池、蓄電池)によって実現することができる。二次電池によって実現されるバッテリー201は、ドローンに対して着脱可能であってもよい。 The battery 201 supplies the power required for the operation of each part of the flight robot 101. The battery 201 can be realized by, for example, a secondary battery (rechargeable battery, storage battery) such as a lithium battery. The battery 201 realized by the secondary battery may be detachable from the drone.

モーター202は、制御回路207によって制御され、回転することによってプロペラ102を回転させる。モーター202は、具体的には、たとえば、回転子が永久磁石であって、固定子がコイルによって構成されるブラシレスモータを使用することができる。モーター202は、プロペラ102の数と同数設けることにより、各プロペラ102をそれぞれ独立して回転させ、飛行型ロボット101を前進させたり、後進させたり左右方向に旋回させたりすることができる。 The motor 202 is controlled by the control circuit 207 and rotates to rotate the propeller 102. Specifically, as the motor 202, a brushless motor in which the rotor is a permanent magnet and the stator is composed of a coil can be used. By providing the same number of motors 202 as the number of propellers 102, each propeller 102 can be rotated independently, and the flight-type robot 101 can be moved forward, backward, or swiveled in the left-right direction.

飛行型ロボット101が、カメラ103の姿勢を調整する駆動機構を備えている場合、制御回路207は、当該駆動機構を構成するモーターの動作も制御する。これにより、飛行型ロボット101は移動しながら、人手を介することなく、カメラ103の姿勢を調整し、任意の範囲や広範囲を撮影することができる。 When the flight robot 101 includes a drive mechanism for adjusting the attitude of the camera 103, the control circuit 207 also controls the operation of the motors constituting the drive mechanism. As a result, the flying robot 101 can adjust the posture of the camera 103 while moving and shoot an arbitrary range or a wide range without human intervention.

カメラ103は、撮像素子を備え、撮影レンズを通過したレンズを撮像素子に受光させることにより画像を撮影する。また、カメラ103は、撮影された画像、すなわち撮像素子に受光した光信号を電気信号に変換した画像情報(撮影データ)を、制御回路207に出力する。 The camera 103 includes an image pickup element, and captures an image by causing the image pickup element to receive light from a lens that has passed through the photographing lens. Further, the camera 103 outputs the captured image, that is, the image information (photographed data) obtained by converting the optical signal received by the image sensor into an electric signal to the control circuit 207.

カメラ103は、静止画を撮影するものであってもよく、動画を撮影するものであってもよい。動画は、所定時間間隔で撮影された静止画を連続して撮影したものを含む。画像情報は、所定の動画・音声データの圧縮方式の標準規格(たとえば、MPEG(Moving Picture Experts Group)など)によって圧縮されたものであってもよい。 The camera 103 may capture a still image or may capture a moving image. The moving image includes continuously shot still images taken at predetermined time intervals. The image information may be compressed by a standard of a predetermined video / audio data compression method (for example, MPEG (Moving Picture Experts Group) or the like).

マイク203は、飛行型ロボット101の周囲の音声を集音する。マイク203は、アナログデータとして入力された音声を電気信号に変換する。具体的に、マイク203は、アナログデータとして入力されたアナログの音声信号を、アナログ/デジタル変換し、デジタル形式の音声データを生成する。 The microphone 203 collects sounds around the flying robot 101. The microphone 203 converts the voice input as analog data into an electric signal. Specifically, the microphone 203 performs analog / digital conversion of an analog audio signal input as analog data, and generates audio data in a digital format.

スピーカー204は、音声信号である電気信号によって振動板を振動させて音声を発生させる。また、スピーカー204は、音声信号を出力する出力端子であってもよく、当該出力端子に外部スピーカー204を接続して、音声を発生させるようにしてもよい。スピーカー204は、一方向にだけ音声を発生させる、いわゆる、指向性スピーカーであってもよい。 The speaker 204 vibrates the diaphragm by an electric signal which is an audio signal to generate a voice. Further, the speaker 204 may be an output terminal that outputs an audio signal, and an external speaker 204 may be connected to the output terminal to generate audio. The speaker 204 may be a so-called directional speaker that generates sound in only one direction.

GPSセンサー205は、飛行型ロボット101の現在位置を特定する。GPSセンサー205は、具体的には、たとえば、GPSアンテナ、RF(Radio Frequency)部、ベースバンド部などを備えている。GPSアンテナは、GPS衛星が放送する電波を受信する。RF部は、GPSアンテナが受信した変調前の信号をベースバンド信号に復調する。ベースバンド部は、RF部が復調したベースバンド信号に基づいて飛行型ロボット101の現在位置を算出する。GPSセンサー205は、さらに、不要成分を除去するフィルタや、LNA(Low Noise Amplifier)やパワーアンプPA(Power Amplifier)などの増幅器を備えていてもよい。 The GPS sensor 205 identifies the current position of the flying robot 101. Specifically, the GPS sensor 205 includes, for example, a GPS antenna, an RF (Radio Frequency) unit, a baseband unit, and the like. The GPS antenna receives radio waves broadcast by GPS satellites. The RF unit demodulates the unmodulated signal received by the GPS antenna into a baseband signal. The baseband unit calculates the current position of the flight robot 101 based on the baseband signal demodulated by the RF unit. The GPS sensor 205 may further include a filter for removing unnecessary components and an amplifier such as an LNA (Low Noise Amplifier) or a power amplifier PA (Power Amplifier).

飛行型ロボット101の現在位置は、複数のGPS衛星から送信される電波に基づく測位によって特定することができる。ベースバンド部は、4機のGPS衛星との距離をそれぞれ算出し、それぞれの距離が一つに交わる位置を算出することによって測位をおこなう。GPS衛星から受信した電波に基づいて、GPS衛星と飛行型ロボット101との幾何学的位置を求めるGPSに代えて、みちびき、グローナス(GLONASS)、ガリレオ(Galileo)などの衛星測位システムを用いて飛行型ロボット101の現在位置を特定してもよい。 The current position of the flight robot 101 can be specified by positioning based on radio waves transmitted from a plurality of GPS satellites. The baseband unit calculates the distances to each of the four GPS satellites, and performs positioning by calculating the position where each distance intersects with one. Fly using satellite positioning systems such as Michibiki, GLONASS, and Galileo instead of GPS, which determines the geometrical position of the GPS satellite and the flying robot 101 based on the radio waves received from the GPS satellites. The current position of the type robot 101 may be specified.

対物センサー206は、飛行型ロボット101から所定範囲内に存在する障害物の有無を検出する。障害物は、飛行型ロボット101の飛行の支障になる物体であって、具体的には、たとえば、壁、天井、家具、人物などが該当する。飛行型ロボット101を屋外で飛行させる場合、たとえば、車両、自装置以外の飛行型ロボット101、樹木、建物など、飛行型ロボット101の飛行の支障になるすべての物体が障害物に該当する。 The objective sensor 206 detects the presence or absence of an obstacle existing within a predetermined range from the flight robot 101. The obstacle is an object that hinders the flight of the flying robot 101, and specifically, for example, a wall, a ceiling, furniture, a person, or the like. When the flying robot 101 is made to fly outdoors, for example, all objects that hinder the flight of the flying robot 101, such as a vehicle, a flying robot 101 other than its own device, a tree, and a building, correspond to obstacles.

対物センサー206は、具体的には、たとえば、赤外線センサー、静電容量センサー、超音波センサーなどの非接触センサーによって実現することができる。対物センサー206は、赤外線センサー、静電容量センサー、超音波センサーなどの非接触センサーのうち少なくともいずれかによって実現することができる。飛行型ロボット101は、複数種類の非接触センサーを対物センサー206として搭載していてもよい。また、飛行型ロボット101は、カメラ103によって撮影された画像に基づいて、飛行型ロボット101から所定範囲内に存在する障害物の有無を検出してもよい。 Specifically, the objective sensor 206 can be realized by a non-contact sensor such as an infrared sensor, a capacitance sensor, or an ultrasonic sensor. The objective sensor 206 can be realized by at least one of non-contact sensors such as an infrared sensor, a capacitance sensor, and an ultrasonic sensor. The flying robot 101 may be equipped with a plurality of types of non-contact sensors as the objective sensor 206. Further, the flying robot 101 may detect the presence or absence of an obstacle existing within a predetermined range from the flying robot 101 based on the image taken by the camera 103.

加速度センサー208は、飛行型ロボット101にかかる重力、振動などの動き、衝撃などを検出する。加速度センサー208は、たとえば、低ノイズで安定性の高い水晶加速度センサーなどの周波数変化式加速度センサーを用いることができる。また、加速度センサーは、圧電式の加速度センサー、静電容量式の加速度センサー、ピエゾ抵抗式の加速度センサーなどを用いてもよい。 The acceleration sensor 208 detects gravity, movement such as vibration, impact, etc. applied to the flying robot 101. As the accelerometer 208, for example, a frequency-changing accelerometer such as a crystal accelerometer with low noise and high stability can be used. Further, as the acceleration sensor, a piezoelectric type acceleration sensor, a capacitance type acceleration sensor, a piezo resistance type acceleration sensor, or the like may be used.

ソーラーセル210は、プラスを帯びやすいP型シリコン半導体とマイナスを帯びやすいN型シリコン半導体とを、PN接合面を介して張り合わせることによって構成されている。ソーラーセル210においては、太陽光などの外光による光エネルギーがPN接合面に加わると、P型シリコン半導体はプラスを帯び、N型シリコン半導体はマイナスを帯びる。ソーラーセル210において、P型シリコン半導体およびN型シリコン半導体にはそれぞれ電極が接続されており、当該電極にそれぞれ接続された電線を介して発電した電力を取り出すことができる。 The solar cell 210 is configured by bonding a P-type silicon semiconductor, which tends to be positive, and an N-type silicon semiconductor, which tends to be negative, via a PN junction surface. In the solar cell 210, when light energy due to external light such as sunlight is applied to the PN junction surface, the P-type silicon semiconductor becomes positive and the N-type silicon semiconductor becomes negative. In the solar cell 210, electrodes are connected to the P-type silicon semiconductor and the N-type silicon semiconductor, respectively, and the power generated can be taken out through the electric wires connected to the electrodes.

制御回路207は、飛行型ロボット101が備える各部を駆動制御する。制御回路207は、CPUやメモリなどによって構成されるマイコンによって実現することができる。メモリは、この発明にかかる実施の形態1の飛行型ロボットの制御プログラムや、特定の人物に関する情報、飛行型ロボット101のユーザーなどによってあらかじめ入力された情報などの各種の情報を記憶する。制御回路207は、具体的には、たとえば、LSI(Large Scale Integration)やFPGA(Field-Programmable Gate Array)などによって実現することができる。 The control circuit 207 drives and controls each part of the flight robot 101. The control circuit 207 can be realized by a microcomputer configured by a CPU, a memory, or the like. The memory stores various information such as the control program of the flight robot according to the first embodiment of the present invention, information about a specific person, and information input in advance by a user of the flight robot 101 and the like. Specifically, the control circuit 207 can be realized by, for example, LSI (Large Scale Integration), FPGA (Field-Programmable Gate Array), or the like.

CPUは、メモリに記憶されたプログラムを実行することによって、飛行型ロボット101の全体の制御をつかさどる。メモリは、たとえば、CPUが実行するプログラムや、飛行型ロボット101の動作に関する各種条件に関する情報、カメラ103によって撮影された画像に関する情報などの各種の情報を記憶する。 The CPU controls the entire flight-type robot 101 by executing a program stored in the memory. The memory stores various information such as a program executed by the CPU, information on various conditions related to the operation of the flying robot 101, and information on an image taken by the camera 103.

メモリは、具体的には、たとえば、ICメモリやSSD(Solid State Drive)などによって実現することができる。また、メモリは、飛行型ロボット101に対して、飛行型ロボット101に設けられたカードスロットを介して着脱可能なメモリカードであってもよい。メモリカードは、たとえば、SD(Secure Digital)メモリカードなどのICカードによってその機能を実現することができる。メモリは、外付けのUSBメモリなどによって、その機能を実現するようにしてもよい。 Specifically, the memory can be realized by, for example, an IC memory or an SSD (Solid State Drive). Further, the memory may be a memory card that can be attached to and detached from the flight robot 101 via a card slot provided in the flight robot 101. The function of the memory card can be realized by an IC card such as an SD (Secure Digital) memory card. The memory may realize its function by an external USB memory or the like.

また、制御回路207は、ソーラーセル210によって発電された電力をバッテリー201に充電する充電回路や、バッテリー201の残量を計測する残量計測回路などを含んでいる。充電回路は、ソーラーセル210が発電した電力における電圧を調整するDC/DCコンバータなどを含む。残量計測回路は、たとえば、インピーダンス・トラック方式、電圧測定方式、クーロン・カウンタ方式、あるいは、電池セル・モデリング方式など、公知の各種の方式を用いてバッテリー201の残量を計測する。 Further, the control circuit 207 includes a charging circuit for charging the battery 201 with the electric power generated by the solar cell 210, a remaining amount measuring circuit for measuring the remaining amount of the battery 201, and the like. The charging circuit includes a DC / DC converter or the like that adjusts the voltage in the electric power generated by the solar cell 210. The remaining amount measuring circuit measures the remaining amount of the battery 201 by using various known methods such as an impedance track method, a voltage measuring method, a Coulomb counter method, and a battery cell modeling method.

また、制御回路207は、IMU(Inertial Measurement Unit:慣性センサー)、ESC(Electronic Speed Controller)や、BEC(Battery Elimination Circuit)あるいはUBEC(Universal BEC)などの回路を含んでいる。 Further, the control circuit 207 includes a circuit such as an IMU (Inertial Measurement Unit), an ESC (Electronic Speed Controller), a BEC (Battery Elimination Circuit) or a UBEC (Universal BEC).

IMUは、ドローンが外部の情報を取得するために必要なセンサー類であって、たとえば、加速度センサー208、ジャイロセンサー、気圧センサー、超音波センサー、磁気方位センサー(コンパス)などによって構成される。また、上記のGPSセンサー205も、IMUに含まれる。 The IMU is sensors necessary for the drone to acquire external information, and is composed of, for example, an acceleration sensor 208, a gyro sensor, a pressure sensor, an ultrasonic sensor, a magnetic orientation sensor (compass), and the like. The GPS sensor 205 is also included in the IMU.

加速度センサー208は、ドローンの速度の変化量を検出する。ジャイロセンサーおよび加速度センサー208により、ドローンの傾き具合とドローンの速度との両方の変化量を計算することができるので、ドローンが傾いたままであっても、飛行し続けることができる。 The accelerometer 208 detects the amount of change in the speed of the drone. The gyro sensor and the accelerometer 208 can calculate the amount of change in both the tilt of the drone and the speed of the drone, so that the drone can continue to fly even if it remains tilted.

ジャイロセンサーは、ドローンの角度の変化量を検出する。ジャイロセンサーは、たとえば、コリオリ力を利用して角速度を計測することによって、ドローンの角度の変化量を検出する。ジャイロセンサーにより、ドローンを安定して飛行させることができる。 The gyro sensor detects the amount of change in the angle of the drone. The gyro sensor detects the amount of change in the angle of the drone by measuring the angular velocity using, for example, the Coriolis force. The gyro sensor allows the drone to fly stably.

気圧センサーは、ドローンの高度を検出する。気圧センサーは、たとえば、気圧の変化を検出することによって、ドローンの高度を検出する。気圧センサーによってドローンの高度を測定することにより、ドローンの高度を維持することができる。 The barometric pressure sensor detects the altitude of the drone. The barometric pressure sensor detects the altitude of the drone, for example, by detecting changes in barometric pressure. By measuring the altitude of the drone with a barometric pressure sensor, the altitude of the drone can be maintained.

超音波センサーは、ドローンの下方に位置する物体(床面、障害物など)からの距離を検出する。超音波センサーは、たとえば、ドローンの下面に設けられ、ドローンの下方に発した超音波の跳ね返りを利用して、ドローンの下方に位置する物体からの距離を検出する。 The ultrasonic sensor detects the distance from an object (floor surface, obstacle, etc.) located below the drone. The ultrasonic sensor, for example, is provided on the underside of the drone and utilizes the bounce of ultrasonic waves emitted below the drone to detect the distance from an object located below the drone.

これにより、ドローンの地上(床面、地面など)追跡や、ステーション(図3Aおよび図3Bを参照)への帰還などを安定しておこなうことができる。対物センサー206として超音波センサーを用いる場合、ドローンの全方位に超音波を発し、当該超音波センサーによって、対物センサー206としての機能と、IMUの一部としての機能と、を両立させてもよい。 This makes it possible to stably track the drone on the ground (floor surface, ground, etc.) and return to the station (see FIGS. 3A and 3B). When an ultrasonic sensor is used as the objective sensor 206, ultrasonic waves may be emitted in all directions of the drone, and the ultrasonic sensor may have both the function as the objective sensor 206 and the function as a part of the IMU. ..

磁気方位センサーは、ドローンが東西南北のいずれの方角に向いているかを検出する。飛行型ロボット101は、飛行させる場所によって磁気の影響を受けるため、運用上、飛行させる場所の変更に際しては、コンパスキャリブレーションをおこない、磁気方位センサーの調整をおこなうことが好ましい。 The magnetic orientation sensor detects in which direction the drone is facing north, south, east or west. Since the flying robot 101 is affected by magnetism depending on the place to fly, it is preferable to perform compass calibration and adjust the magnetic direction sensor when changing the place to fly in terms of operation.

IMUは、上記のマイコンとともにフライトコントローラを構成する。フライトコントローラは、モーター202の回転制御にかかる演算をおこない、ESCに対して、プロペラ(プロペラのモーター202)の回転方向や回転数を制御する制御信号を出力する。ESCは、フライトコントローラから出力された制御信号に基づきモーター202を回転制御する。フライトコントローラは、飛行型ロボット101の飛行中、飛行型ロボット101の傾きなどを検知して演算を繰り返しおこない、モーター202に対する制御信号を再帰的に出力する。 The IMU constitutes a flight controller together with the above-mentioned microcomputer. The flight controller performs calculations related to rotation control of the motor 202, and outputs a control signal for controlling the rotation direction and rotation speed of the propeller (propeller motor 202) to the ESC. The ESC rotates and controls the motor 202 based on the control signal output from the flight controller. The flight controller detects the tilt of the flight robot 101 during flight of the flight robot 101, repeats the calculation, and recursively outputs a control signal to the motor 202.

フライトコントローラは、具体的には、たとえば、隣り合うプロペラ102どうしを逆回転させるように制御する制御信号を出力することによって飛行型ロボット101の回転を防止する。また、たとえば、進行方向前方のプロペラ102を進行方向後方のプロペラ102よりも遅く回転させるように制御することによって飛行型ロボット101を前進させる。また、たとえば、進行方向右側のプロペラ102を進行方向左側のプロペラ102よりも遅く回転させるように制御することによって飛行型ロボット101を右方向に旋回させる。 Specifically, the flight controller prevents the flight robot 101 from rotating by outputting a control signal for controlling the adjacent propellers 102 to rotate in the reverse direction, for example. Further, for example, the flight robot 101 is advanced by controlling the propeller 102 in the front of the traveling direction to rotate slower than the propeller 102 in the rear of the traveling direction. Further, for example, the flight robot 101 is turned to the right by controlling the propeller 102 on the right side in the traveling direction to rotate slower than the propeller 102 on the left side in the traveling direction.

通信I/F209は、通信回線を通じて飛行型ロボット101とネットワークNとを接続する無線通信インターフェースであって、ネットワークNと飛行型ロボット101の内部とのインターフェースをつかさどり、ネットワークNを介して接続されている外部装置からのデータの入力および外部装置へのデータの出力を制御する。ネットワークNは、たとえば、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)などによって実現される。 The communication I / F 209 is a wireless communication interface that connects the flying robot 101 and the network N through a communication line, controls the interface between the network N and the inside of the flying robot 101, and is connected via the network N. Controls the input of data from an external device and the output of data to an external device. The network N is realized by, for example, the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), and the like.

通信I/F209は、たとえば、Wi-Fi(登録商標)による無線インターフェースによって実現することができる。また、通信I/F209は、携帯電話回線(たとえばLTE(Long Term Evolution)、PHS(Personal Handy-phone System)などの無線通信のインターフェースであってもよい。通信I/F209を介した通信は、所定の時刻、所定時間ごとなど定期的におこなってもよく、通信回線の状況などに応じて任意のタイミングでおこなってもよい。上記のメモリは、通信I/F209を介した通信によって取得した情報を記憶してもよい。 Communication I / F 209 can be realized, for example, by a wireless interface using Wi-Fi®. Further, the communication I / F 209 may be an interface for wireless communication such as a mobile phone line (for example, LTE (Long Term Evolution), PHS (Personal Handy-phone System)). Communication via the communication I / F 209 may be used. It may be performed periodically at a predetermined time, at a predetermined time, or at any time depending on the condition of the communication line, etc. The above memory is information acquired by communication via communication I / F 209. May be memorized.

目に相当する部分に設けられたLEDランプ104は、制御回路207によって制御され、飛行型ロボット101の飛行動作と連動して点灯したり消灯したり点滅したりする。また、LEDランプ104は、飛行型ロボット101の状態を案内してもよい。具体的には、たとえば、充電残量が所定の閾値を下回った場合に、所定のパターンで点滅する。LEDランプ104の発光色は1色に限るものではなく、複数色であってもよい。 The LED lamp 104 provided in the portion corresponding to the eyes is controlled by the control circuit 207, and turns on, off, and blinks in conjunction with the flight operation of the flight type robot 101. Further, the LED lamp 104 may guide the state of the flight type robot 101. Specifically, for example, when the remaining charge falls below a predetermined threshold value, the battery blinks in a predetermined pattern. The emission color of the LED lamp 104 is not limited to one color, and may be a plurality of colors.

飛行型ロボット101は、その他、図示は省略するが、飛行型ロボット101に対する入力指示をおこなうキーまたはボタンなどの入力デバイスや、飛行型ロボット101の電源のON/OFFを切り替える電源スイッチ、および、目に相当する部分以外の位置に設けられたLEDランプなどを備えていてもよい。 Although not shown, the flying robot 101 includes an input device such as a key or a button for giving an input instruction to the flying robot 101, a power switch for switching the power of the flying robot 101 on and off, and an eye. An LED lamp or the like provided at a position other than the portion corresponding to the above may be provided.

入力デバイスは、上述した所定の範囲の設定に用いてもよい。具体的には、たとえば、入力デバイスを介して、飛行型ロボット101に対する所定の入力指示を受け付けた場合に、GPSセンサー205などを用いて当該入力指示を受け付けた場所(位置情報)を特定し、特定した場所から所定範囲内を、所定の範囲として設定することができる。入力デバイスは、他の情報処理装置を接続可能な接続端子などによって実現されるものであってもよい。 The input device may be used for setting the predetermined range described above. Specifically, for example, when a predetermined input instruction to the flight robot 101 is received via an input device, the place (position information) where the input instruction is received is specified by using a GPS sensor 205 or the like. A predetermined range can be set as a predetermined range from the specified location. The input device may be realized by a connection terminal or the like to which another information processing device can be connected.

(ステーションの構成)
つぎに、ステーションの構成について説明する。図3Aおよび図3Bは、ステーションの構成を示す説明図である。図3Aにおいては、ステーションの外観の一例を示している。図3Bにおいては、図3AにおけるA-A断面を示している。
(Station configuration)
Next, the configuration of the station will be described. 3A and 3B are explanatory views showing the configuration of the station. FIG. 3A shows an example of the appearance of the station. FIG. 3B shows a cross section taken along the line AA in FIG. 3A.

図3Aおよび図3Bに示すように、ステーション301は、一面が開放された略箱型をなす外装部302を備えている。ステーション301は、外装部302において開放された部分を、所定の範囲、すなわち、ゴミ集積場の側に向けた状態で設置されている。ステーション301は、人間の手が届きにくい高さに設置されていることが好ましい。これにより、ステーション301や飛行型ロボット101への悪戯を防止することができる。 As shown in FIGS. 3A and 3B, the station 301 includes a substantially box-shaped exterior portion 302 having an open side. The station 301 is installed with the open portion of the exterior portion 302 facing a predetermined range, that is, toward the garbage collection site. The station 301 is preferably installed at a height that is difficult for humans to reach. This makes it possible to prevent mischief on the station 301 and the flying robot 101.

ステーション301は、バッテリー303と、ワイヤレス給電における送電コイル304を備えている。バッテリー303は、たとえば、電気自動車などに搭載される大容量バッテリーが好ましい。具体的には、バッテリー303は、たとえば、リチウム電池、鉛蓄電池、ニッケル水素電池などの二次電池(充電式電池、蓄電池)によって実現することができる。バッテリー303は、一次電池であってもよい。バッテリー303は、外装部302に対して着脱可能であってもよく、外装部302とは別体であってもよい。 The station 301 includes a battery 303 and a power transmission coil 304 for wireless power transfer. The battery 303 is preferably a large-capacity battery mounted on, for example, an electric vehicle. Specifically, the battery 303 can be realized by, for example, a secondary battery (rechargeable battery, storage battery) such as a lithium battery, a lead storage battery, or a nickel hydrogen battery. The battery 303 may be a primary battery. The battery 303 may be detachable from the exterior portion 302, or may be separate from the exterior portion 302.

送電コイル304は、バッテリー303に接続され、ABS樹脂やシリコンゴムなどを用いて形成されたカバーに内包され、防水加工が施されている。これにより、ステーション301は、ワイヤレス電力伝送により、バッテリー201に給電をおこなうことができる。 The power transmission coil 304 is connected to the battery 303, is included in a cover formed of ABS resin, silicon rubber, or the like, and is waterproofed. As a result, the station 301 can supply power to the battery 201 by wireless power transmission.

また、ステーション301は、太陽光などの外光によって発電するソーラーセル305や、ソーラーセル305によって発電された電力をバッテリー303に充電する充電回路などを備えていてもよい。ソーラーセル305は、ステーション301の外装部302の天面に設けられている。充電回路は、ソーラーセル305が発電した電力における電圧を調整するDC/DCコンバータなどを含む。ステーション301は、ソーラーセル305やバッテリー303を備えず、商用電源あるいは発電機などに接続されていてもよい。 Further, the station 301 may include a solar cell 305 that generates electricity by external light such as sunlight, a charging circuit that charges the battery 303 with the power generated by the solar cell 305, and the like. The solar cell 305 is provided on the top surface of the exterior portion 302 of the station 301. The charging circuit includes a DC / DC converter that adjusts the voltage in the electric power generated by the solar cell 305. The station 301 does not include the solar cell 305 or the battery 303, and may be connected to a commercial power source, a generator, or the like.

ステーション301は、外装部302の一部に透明アクリル板などを用いた窓を設け、かつ、外装部302の開放された一面に暖簾状の仕切りを設けて構成してもよい。このような構成のステーション301においては、窓を所定の範囲、すなわち、ゴミ集積場の側に向けた状態で設置することで、窓を介して所定の範囲を撮影しながら、ステーション301の内側への埃の侵入などを軽減し、飛行型ロボット101の劣化を抑制することができる。 The station 301 may be configured by providing a window using a transparent acrylic plate or the like on a part of the exterior portion 302 and providing a curtain-shaped partition on an open surface of the exterior portion 302. In the station 301 having such a configuration, by installing the window in a predetermined range, that is, in a state of facing the garbage collection site side, the inside of the station 301 is photographed through the window while taking a picture of the predetermined range. It is possible to reduce the intrusion of dust and the like and suppress the deterioration of the flying robot 101.

このようなステーション301を、上記のように、所定の範囲内、あるいは、当該所定の範囲の近傍に設置することにより、所定の範囲内にカラスが入り込んだ際に、迅速に、カラスに近づき、追い払うことができる。また、飛行による電力の消耗を抑えることができる。上述した所定の範囲は、ステーション301の設置位置に基づいて設定されるものであってもよい。具体的には、たとえば、ステーション301に無線通信機能を設け、ステーション301と飛行型ロボット101との通信距離を設定し、ステーション301との通信が可能な範囲を、所定の範囲として設定してもよい。 By installing such a station 301 within a predetermined range or in the vicinity of the predetermined range as described above, when the crow enters the predetermined range, the crow quickly approaches the crow. You can get rid of it. In addition, power consumption due to flight can be suppressed. The predetermined range described above may be set based on the installation position of the station 301. Specifically, for example, even if the station 301 is provided with a wireless communication function, the communication distance between the station 301 and the flight robot 101 is set, and the range in which communication with the station 301 is possible is set as a predetermined range. good.

より具体的には、ステーション301と飛行型ロボット101との通信は、たとえば、Bluetooth(登録商標)を用いる。1対1での通信を想定してつくられたBluetoothを用いることにより、通信速度や通信距離の点において、ともにWi-Fiなどの無線通信と比べて通信にかかる電力の消耗を抑えることができる。 More specifically, the communication between the station 301 and the flight robot 101 uses, for example, Bluetooth®. By using Bluetooth, which is designed for one-to-one communication, it is possible to reduce the consumption of power required for communication compared to wireless communication such as Wi-Fi in terms of communication speed and communication distance. ..

ステーション301と飛行型ロボット101との通信を可能とすることにより、飛行型ロボット101がステーション301に帰還しているかどうかを判断することができる。そして、飛行型ロボット101がステーション301に帰還している状態でのみ、送電コイル304に通電して送電コイル304に磁界を発生させ、バッテリー201への給電をおこなうようにすることができる。これにより、バッテリー303の消耗を抑えることができる。 By enabling communication between the station 301 and the flight robot 101, it is possible to determine whether or not the flight robot 101 is returning to the station 301. Then, only when the flight-type robot 101 is returning to the station 301, the power transmission coil 304 can be energized to generate a magnetic field in the power transmission coil 304 to supply power to the battery 201. As a result, the consumption of the battery 303 can be suppressed.

ステーション301は、モバイルWi-Fiルーターなどの無線通信ルーターを備えていてもよい。これにより、ステーション301を通信スポットとして機能させることができ、飛行型ロボット101は、ステーション301を介して通信をおこなうことができる。また、1台のステーション301を設置して、複数台の飛行型ロボット101を利用することができる。 The station 301 may include a wireless communication router such as a mobile Wi-Fi router. As a result, the station 301 can be made to function as a communication spot, and the flight robot 101 can communicate via the station 301. Further, one station 301 can be installed and a plurality of flying robots 101 can be used.

また、ステーション301が無線通信ルーターを備えている場合、バッテリー303の残量が、バッテリー303に対してあらかじめ設定された所定の閾値以下になった場合、管理者などの特定の人物が所有する携帯型電話機などに、バッテリー303のバッテリー303の充電ないしバッテリー303の交換が必要である旨を通知してもよい。これにより、ステーション301の管理にかかる管理者の負担を抑えつつ、ステーション301の機能を確実に維持することができる。 Further, when the station 301 is equipped with a wireless communication router, when the remaining amount of the battery 303 becomes equal to or less than a predetermined threshold set in advance for the battery 303, a mobile phone owned by a specific person such as an administrator. The telephone may be notified that the battery 303 of the battery 303 needs to be charged or the battery 303 needs to be replaced. As a result, the function of the station 301 can be reliably maintained while suppressing the burden on the administrator for managing the station 301.

(飛行型ロボット101の機能的構成)
つぎに、飛行型ロボット101の機能的構成について説明する。図4は、この発明にかかる飛行型ロボット101の機能的構成を示す説明図である。図4に示すように、飛行型ロボット101の機能は、記憶部401と、検出部402と、撮影部403と、取得部404と、駆動部405と、出力部406と、制御部407と、によって実現される。
(Functional configuration of flying robot 101)
Next, the functional configuration of the flight robot 101 will be described. FIG. 4 is an explanatory diagram showing a functional configuration of the flight-type robot 101 according to the present invention. As shown in FIG. 4, the functions of the flight robot 101 include a storage unit 401, a detection unit 402, a photographing unit 403, an acquisition unit 404, a drive unit 405, an output unit 406, and a control unit 407. Realized by.

記憶部401は、制御部407による制御にかかる各種プログラムや、プログラムの実行に用いる閾値などを含む各種情報を記憶する。具体的には、記憶部401は、たとえば、カラスの認識に用いるパターン認識(画像認識)にかかる、カラスの特徴量に関する情報を記憶する。 The storage unit 401 stores various information including various programs controlled by the control unit 407 and threshold values used for executing the programs. Specifically, the storage unit 401 stores, for example, information on the feature amount of the crow, which is related to pattern recognition (image recognition) used for crow recognition.

また、記憶部401は、撮影部403によって撮影された画像情報や、取得部404が取得した情報などを記憶する。記憶部401は、バッテリーの充電スポットに関する情報などを記憶してもよい。記憶部401は、具体的には、たとえば、図2に示した制御回路207におけるメモリなどによって、その機能を実現することができる。 Further, the storage unit 401 stores image information captured by the photographing unit 403, information acquired by the acquisition unit 404, and the like. The storage unit 401 may store information about the charging spot of the battery and the like. Specifically, the storage unit 401 can realize its function by, for example, the memory in the control circuit 207 shown in FIG. 2.

検出部402は、たとえば、所定のアプリケーションをインストールしたスマートフォンなどの端末装置から出力される信号を検出する。また、検出部402は、たとえば、飛行型ロボット101の利用者などによっておこなわれる、キーまたはボタンなどの入力デバイスを介した、飛行型ロボット101に対する所定の入力指示を受け付けたことを検出してもよい。検出部402は、具体的には、たとえば、図2に示した通信I/F209などによって、その機能を実現することができる。 The detection unit 402 detects a signal output from a terminal device such as a smartphone in which a predetermined application is installed. Further, even if the detection unit 402 detects that it has received a predetermined input instruction to the flight robot 101 via an input device such as a key or a button, which is performed by, for example, a user of the flight robot 101. good. Specifically, the detection unit 402 can realize its function by, for example, the communication I / F 209 shown in FIG.

また、検出部402は、飛行型ロボット101から所定範囲内に存在する障害物の有無を検出する。この場合、検出部402は、具体的には、たとえば、図2に示した対物センサー206などによって、その機能を実現することができる。また、この場合の検出部402は、具体的には、たとえば、対物センサー206に代えて、あるいは、対物センサー206に加えて、図1や図2に示したカメラ103などによって、その機能を実現してもよい。 Further, the detection unit 402 detects the presence / absence of an obstacle existing within a predetermined range from the flight robot 101. In this case, the detection unit 402 can specifically realize its function by, for example, the objective sensor 206 shown in FIG. 2. Further, specifically, the detection unit 402 in this case realizes its function by, for example, in place of the objective sensor 206, or by the camera 103 shown in FIGS. 1 and 2 in addition to the objective sensor 206. You may.

カメラ103による障害物の有無の検出は、たとえば、飛行型ロボット101が移動することにより得られる、異なる複数の位置において撮影された各画像における視差(各画像どうしの差分)に基づき、障害物までの距離を求める移動ステレオ方法を用いることによって実現することができる。移動ステレオ方法を用いることにより、単眼のカメラを用いて、飛行型ロボット101から所定範囲内に存在する障害物の有無を検出することができる。 The detection of the presence or absence of an obstacle by the camera 103 is performed, for example, based on the parallax (difference between the images) of each image taken at a plurality of different positions obtained by moving the flying robot 101 up to the obstacle. This can be achieved by using a moving stereo method for determining the distance between. By using the mobile stereo method, it is possible to detect the presence or absence of an obstacle existing within a predetermined range from the flying robot 101 by using a monocular camera.

撮影部403は、所定の範囲内の画像を撮影する。撮影部403は、たとえば、所定の範囲の外側から、当該所定の範囲内の画像を撮影する。また、撮影部403は、たとえば、所定の範囲内において、当該所定の範囲内の画像を撮影してもよい。撮影部403は、具体的には、たとえば、図1や図2に示したカメラ103などによって、その機能を実現することができる。 The photographing unit 403 photographs an image within a predetermined range. The photographing unit 403, for example, photographs an image within the predetermined range from the outside of the predetermined range. Further, the photographing unit 403 may acquire an image within the predetermined range, for example, within the predetermined range. Specifically, the photographing unit 403 can realize its function by, for example, the camera 103 shown in FIGS. 1 and 2.

上記の記憶部401は、撮影部403によって撮影された画像にかかる画像情報を記憶してもよい。また、記憶部401は、画像情報に加えて、当該画像情報にかかる画像を撮影した場所や時刻に関する情報を、当該画像情報に関連付けて記憶してもよい。画像を撮影した場所や時刻に関する情報は、たとえば、図2に示したGPSセンサー205を用いて特定することができる。 The storage unit 401 may store image information related to the image captured by the photographing unit 403. Further, in addition to the image information, the storage unit 401 may store information about the place and time when the image related to the image information is taken in association with the image information. Information about the place and time when the image was taken can be specified by using, for example, the GPS sensor 205 shown in FIG.

取得部404は、飛行型ロボット101の外部の情報を取得する。具体的には、取得部404は、たとえば、ネットワークNを介して、外部装置から所定の情報を取得する。取得部404は、具体的には、たとえば、図2に示した通信I/F209などによって、その機能を実現することができる。 The acquisition unit 404 acquires information outside the flight robot 101. Specifically, the acquisition unit 404 acquires predetermined information from an external device, for example, via the network N. Specifically, the acquisition unit 404 can realize its function by, for example, the communication I / F 209 shown in FIG.

取得部404は、具体的には、たとえば、現時点以降の所定時間内に、災害などのような周囲の人間に影響を与える可能性がある事象が発生する可能性があることを示す情報を取得する。具体的には、取得部404は、たとえば、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得する。 Specifically, the acquisition unit 404 acquires information indicating that an event that may affect surrounding humans, such as a disaster, may occur within a predetermined time after the present time. do. Specifically, the acquisition unit 404 acquires information indicating that a disaster, an earthquake, a tsunami, a lightning strike, a rainfall, a strong wind, or a sudden change in the weather may occur within a predetermined time after the present time. do.

また、取得部404は、たとえば、別の飛行型ロボット101が学習した情報を取得してもよい。これにより、単機の飛行型ロボット101の学習により得られた情報を、別の複数の飛行型ロボット101が共有することができ、飛行型ロボット101に、カラスの認識およびカラスの追い払いに一層適した行動をさせることができる。 Further, the acquisition unit 404 may acquire information learned by another flight-type robot 101, for example. As a result, the information obtained by learning the single flying robot 101 can be shared by a plurality of other flying robots 101, which is more suitable for the flying robot 101 to recognize crows and drive away crows. You can make them act.

駆動部405は、飛行型ロボット101の飛行を制御する。駆動部405は、具体的には、たとえば、図1に示したプロペラ102や、図2に示した制御回路207におけるフライトコントローラ、ESC、BEC(UBEC)、モーター202、および、対物センサー206などによって、その機能を実現することができる。 The drive unit 405 controls the flight of the flight-type robot 101. Specifically, the drive unit 405 is driven by, for example, the propeller 102 shown in FIG. 1, the flight controller in the control circuit 207 shown in FIG. 2, the ESC, the BEC (UBEC), the motor 202, the objective sensor 206, and the like. , The function can be realized.

出力部406は、たとえば、スピーカー204から所定の音声を出させる。所定の音声は、たとえば、録音された猛禽の鳴き声、または、猛禽の鳴き声を模した合成音声とすることができる。また、所定の音声は、たとえば、録音された銃声、または、銃声を模した合成音声であってもよい。 The output unit 406 outputs a predetermined sound from the speaker 204, for example. The predetermined voice can be, for example, a recorded raptor bark or a synthetic voice imitating a raptor bark. Further, the predetermined voice may be, for example, a recorded gunshot or a synthetic voice imitating the gunshot.

さらに、所定の音声は、たとえば、録音された犬の吠え声、または、犬の吠え声を模した合成音声であってもよく、攻撃を受けたカラス、警戒しているカラス、または、怯えたカラスが発する声を録音した音声、または、これらの声を模した合成音声であってもよい。この場合、出力部406は、具体的には、たとえば、図2に示したスピーカー204などによって、その機能を実現することができる。 Further, the predetermined voice may be, for example, a recorded dog barking or a synthetic voice imitating a dog barking, and may be an attacked crow, a vigilant crow, or a frightened crow. It may be a voice recorded from a voice emitted by a crow, or a synthetic voice imitating these voices. In this case, the output unit 406 can specifically realize its function by, for example, the speaker 204 shown in FIG.

また、出力部406は、たとえば、LEDランプ104を点灯させる。また、出力部406は、たとえば、LEDランプ104を点滅させる。この場合、出力部406は、具体的には、たとえば、図1や図2に示したLEDランプ104などによって、その機能を実現することができる。 Further, the output unit 406 turns on, for example, the LED lamp 104. Further, the output unit 406 blinks the LED lamp 104, for example. In this case, the output unit 406 can specifically realize its function by, for example, the LED lamp 104 shown in FIGS. 1 and 2.

また、出力部406は、たとえば、災害、地震、津波、発雷、降雨、強風、急激な天候の変化など、周辺の人間に何らかの影響を与える可能性がある事象が発生する可能性があることを示す情報が取得されたことに応じて、当該事象が発生する可能性があることを案内する音声を出力したり、特定のパターンや発光色でLEDランプ104を発光させたり点滅させたりしてもよい。 In addition, the output unit 406 may experience events that may affect people in the vicinity, such as disasters, earthquakes, tsunamis, lightning strikes, rainfall, strong winds, and sudden changes in weather. Depending on the information obtained, the LED lamp 104 may be made to emit light or blink with a specific pattern or emission color, or output a voice indicating that the event may occur. May be good.

制御部407は、飛行型ロボット101の全体を制御する。制御部407は、具体的には、たとえば、図2に示した制御回路207によって、その機能を実現することができる。制御部407は、より具体的には、たとえば、図2に示した制御回路207におけるCPUによって、メモリなどに記憶されたプログラムを実行することによって、その機能を実現することができる。 The control unit 407 controls the entire flight-type robot 101. Specifically, the control unit 407 can realize its function by, for example, the control circuit 207 shown in FIG. More specifically, the control unit 407 can realize its function by executing a program stored in a memory or the like by the CPU in the control circuit 207 shown in FIG. 2, for example.

制御部407は、たとえば、駆動部405を制御することによって、飛行型ロボット101を飛行させる。また、制御部407は、たとえば、撮影部403を駆動制御することによって撮影をおこなう。さらに、制御部407は、撮影部403によって撮影された画像に基づいて、対象物を認識する。対象物は、たとえば、カラスとすることができる。対象物(カラス)の認識は、たとえば、撮影部403によって撮影された画像に、対象物が含まれているか否かを判断することによっておこなう。 The control unit 407 flies the flight-type robot 101 by controlling, for example, the drive unit 405. Further, the control unit 407 takes a picture by, for example, driving and controlling the shooting unit 403. Further, the control unit 407 recognizes the object based on the image captured by the photographing unit 403. The object can be, for example, a crow. The object (crow) is recognized, for example, by determining whether or not the image captured by the photographing unit 403 contains the object.

制御部407は、AI(Artificial Intelligence:人工知能)機能を備え、ハシブトガラスやハシボソガラスのように複数種類の対象物(カラス)を学習してもよい。制御部407は、カラスを認識することに特化した特化型人工知能を備えていてもよい。近年は、人工知能を搭載したコンピュータの小型化が進んでおり、人工知能を搭載した制御回路207(コンピューター)であっても、飛行型ロボット101を円滑に飛行させることができる。制御部407は、さらに、ゴミ集積場に集積されたゴミを散乱させるネコなどの動物や、資源ゴミの持ち去りをする人間などを学習してもよい。 The control unit 407 has an AI (Artificial Intelligence) function, and may learn a plurality of types of objects (crows) such as a Jungle Crow and a Carrion Crow. The control unit 407 may be provided with specialized artificial intelligence specialized in recognizing crows. In recent years, the miniaturization of computers equipped with artificial intelligence has progressed, and even a control circuit 207 (computer) equipped with artificial intelligence can smoothly fly a flying robot 101. The control unit 407 may further learn animals such as cats that scatter the garbage collected in the garbage collection site, humans who take away the recyclable garbage, and the like.

対象物の認識に際し、制御部407は、たとえば、撮影部403によって撮影された画像のノイズや歪みなどを取り除き、当該画像に含まれるオブジェクトの輪郭を強調したり、当該画像の明るさや色合いを調整したりすることによって、当該画像に含まれる対象物(カラス)を抽出しやすくする。また、カメラ103のレンズが広角レンズである場合、画像の歪み補正を補正してもよい。 When recognizing an object, the control unit 407 removes noise and distortion of an image captured by the imaging unit 403, for example, emphasizes the outline of an object included in the image, and adjusts the brightness and hue of the image. By doing so, it becomes easier to extract the object (crow) contained in the image. Further, when the lens of the camera 103 is a wide-angle lens, the distortion correction of the image may be corrected.

また、対象物の認識に際し、制御部407は、たとえば、ピクセル単位で、羽根の位置や嘴の形状などの特徴を抽出し、ピクセルに付与されている色や明るさなどの各種の情報に基づいて、撮影部403によって撮影された画像に、対象物が含まれているか否かを判断する。 Further, when recognizing an object, the control unit 407 extracts features such as the position of a blade and the shape of a beak in pixel units, and is based on various information such as color and brightness given to the pixel. Then, it is determined whether or not the image captured by the photographing unit 403 contains an object.

対象物の認識に際し、制御部407は、広角レンズなどを使用することにより歪んだ画像に基づいて対象物を認識してもよく、標準レンズと同様の画像になるように歪み修正をおこなった画像に基づいて対象物を認識してもよい。 When recognizing an object, the control unit 407 may recognize the object based on a distorted image by using a wide-angle lens or the like, and the distortion is corrected so that the image becomes the same as that of a standard lens. The object may be recognized based on.

対象物は、ゴミを漁っている、あるいは、ゴミを漁る直前のカラスであってもよい。すなわち、単にカラスが撮影された場合は、対象物として認識せず、カラスがゴミに触れた場合や、カラスとゴミとの間隔が所定の数値以下になった場合に、カラスを対象物として認識してもよい。 The object may be a crow that is catching garbage or just before catching garbage. That is, when a crow is simply photographed, it is not recognized as an object, but when the crow touches dust or when the distance between the crow and the dust becomes less than a predetermined value, the crow is recognized as an object. You may.

対象物の認識に際し、制御部407は、たとえば、認識したカラスの特徴を学習(機械学習)し、学習結果を記憶部401に記憶してもよい。カラスの特徴は、たとえば、飛来してくるカラスの大きさや、飛来してくることが多い曜日、飛来してくることが多い時刻、どのような方向から飛来してきたか、などとすることができる。 When recognizing an object, the control unit 407 may, for example, learn (machine learning) the characteristics of the recognized crow and store the learning result in the storage unit 401. The characteristics of crows can be, for example, the size of the crows that come in, the days of the week that they often come in, the times that they often come in, and the direction in which they came from.

そして、この場合、制御部407は、カラスが飛来する可能性が高い条件下においてのみ、撮影部403を駆動制御することによって撮影をおこなうようにしてもよい。あるいは、この場合、制御部407は、カラスが飛来する可能性が高い条件下においては、連続して撮影をおこない、カラスが飛来する可能性が低い条件下においては、5分や10分などの時間間隔を空けて断続的に撮影をおこなうようにしてもよい。 Then, in this case, the control unit 407 may perform imaging by driving and controlling the imaging unit 403 only under the condition that the crow is likely to fly. Alternatively, in this case, the control unit 407 continuously shoots under the condition that the crow is likely to fly, and 5 minutes or 10 minutes under the condition that the crow is unlikely to fly. Shooting may be performed intermittently at intervals of time.

断続的な撮影は、たとえば、1分間の撮影をおこなった後、5分間撮影を停止し、その後また1分間の撮影をおこなう、のような撮影をおこなう。カラスが飛来する可能性の高い条件であるか否かは、たとえば、現在の曜日や時刻などの要素が、あらかじめ設定された条件に該当するか否かによって判断することができる。また、カラスが飛来する可能性の高い条件であるか否かは、たとえば、あらかじめ設定された条件に該当する要素の数が、所定の閾値を超えるか否かによって判断してもよい。 For intermittent shooting, for example, shooting is performed for 1 minute, then shooting is stopped for 5 minutes, and then another 1 minute is shot. Whether or not a crow is likely to fly can be determined by, for example, whether or not an element such as the current day of the week or time corresponds to a preset condition. Further, whether or not the condition is such that the crow is likely to fly may be determined by, for example, whether or not the number of elements corresponding to the preset condition exceeds a predetermined threshold value.

また、制御部407は、対象物(カラス)を認識した場合に、駆動部405を制御することによって、飛行型ロボット101を飛行させる。制御部407は、たとえば、撮影部403によって撮影された画像に基づいて、対象物を認識した場合、駆動部405を制御して当該対象物に接近するように飛行型ロボット101を飛行させる。 Further, when the control unit 407 recognizes an object (crow), the control unit 407 controls the drive unit 405 to fly the flight type robot 101. When the control unit 407 recognizes an object based on, for example, an image captured by the photographing unit 403, the control unit 407 controls the driving unit 405 to fly the flying robot 101 so as to approach the object.

制御部407は、具体的には、たとえば、対象物を所定の範囲から押し出すように、カラスよりも所定の範囲の内側から外側へ向かって飛行させる。これにより、カラスにプレッシャーをかけ、カラスを傷つけることなくゴミ集積場からカラスを追い払うことができる。 Specifically, the control unit 407 flies from the inside to the outside of a predetermined range of the crow so as to push the object out of the predetermined range. This puts pressure on the crows and drives them out of the garbage dump without damaging them.

制御部407は、対象物(カラス)を認識した場合に、たとえば、所定の範囲内を設定速度以下の速度で飛行する。また、制御部407は、対象物(カラス)を認識した場合に、所定の範囲内の任意の位置において、ホバリング飛行したり、上下飛行したりしてもよい。所定の範囲内の任意の位置は、たとえば、カラスの周辺とすることができる。これによっても、カラスにプレッシャーをかけ、カラスを傷つけることなくゴミ集積場からカラスを追い払うことができる。 When the control unit 407 recognizes an object (crow), for example, it flies within a predetermined range at a speed equal to or lower than a set speed. Further, when the control unit 407 recognizes an object (crow), it may hover or fly up and down at an arbitrary position within a predetermined range. Any position within a given range can be, for example, around a crow. This also puts pressure on the crows and drives them out of the garbage dump without damaging them.

カメラ103を一体に備える飛行型ロボット101は、ゴミ集積場内を撮影しやすい位置に自律飛行することができる。これにより、たとえば、カメラの位置や、ゴミ集積場周辺の樹木や家屋の位置、ゴミの出し方、出されたゴミの形状や大きさなどの環境的な要因に左右されることなく、死角なくカラスを撮影することができる。これにより、設置型のカメラによって撮影された画像に基づいて、ドローンを飛行させることによって、ゴミ集積場などからカラスを追い払うようにした従来の技術と比較して、カラスを確実に撮影し、ゴミ集積場から効果的にカラスを追い払うことができる。 The flight-type robot 101 integrally equipped with the camera 103 can autonomously fly in a position where it is easy to take a picture in the garbage collection area. As a result, there is no blind spot, regardless of environmental factors such as the position of the camera, the position of trees and houses around the garbage collection site, how to dispose of garbage, and the shape and size of the garbage. You can shoot crows. This makes it possible to shoot crows more reliably and trash compared to the conventional technology that drives the crows away from the garbage collection site by flying the drone based on the image taken by the stationary camera. You can effectively drive crows out of the dump.

また、カメラ103を一体に備える飛行型ロボット101は、カラスを確実に撮影する位置まで自律飛行することができる。これにより、設置型のカメラによって撮影された画像に基づいて、ドローンを飛行させることによって、ゴミ集積場などからカラスを追い払うようにした従来の技術と比較して、カラスを見失うことを回避し、カラスを確実に撮影し、ゴミ集積場から効果的にカラスを追い払うことができる。 In addition, the flight-type robot 101 integrally equipped with the camera 103 can autonomously fly to a position where the crow is reliably photographed. This avoids losing sight of crows compared to conventional techniques that try to drive crows away from garbage dumps, etc. by flying a drone based on images taken by a stationary camera. You can reliably shoot crows and effectively drive them away from the garbage collection area.

発明者は、ゴミ集積場などの所定の範囲に存在するカラスを追い払う、すなわち、ゴミ集積場に飛来してゴミを散乱させるカラスを撃退するように動作する飛行型ロボット101を『ドロクロウ』と名付けた。また、発明者は、ゴミ集積場などの所定の範囲に存在するカラスを追い払う、すなわち、ゴミ集積場に飛来してゴミを散乱させるカラスを撃退するように動作する飛行型ロボット101を『ドロアタッカー』と名付けた。 The inventor named the flying robot 101 "Dorokuro", which operates to drive away crows existing in a predetermined range such as a garbage collection site, that is, to repel crows that fly to the garbage collection site and scatter garbage. rice field. In addition, the inventor described a flying robot 101 that operates to drive away crows existing in a predetermined range such as a garbage collection site, that is, to repel crows that fly to the garbage collection site and scatter garbage. I named it.

制御部407は、駆動部405を制御して当該対象物に接近するように飛行型ロボット101を飛行させながら、所定のプロセスを実行してもよい。たとえば、図2に示したスピーカー204によって出力部406を実現する場合、制御部407は、出力部406を制御することによって、猛禽の鳴き声を模した音声を出力したり、怯えたカラスが発する声を出力したりする動作によって、所定のプロセスを実現することができる。 The control unit 407 may execute a predetermined process while controlling the drive unit 405 to fly the flight-type robot 101 so as to approach the object. For example, when the output unit 406 is realized by the speaker 204 shown in FIG. 2, the control unit 407 outputs a sound imitating the bark of a bird of prey or a voice emitted by a frightened crow by controlling the output unit 406. A predetermined process can be realized by an operation such as outputting a speaker.

スピーカー204が指向性スピーカーである場合、騒々しい環境であっても、カメラ103によりカラスの位置を確認しながら飛行することで、スピーカー204が発する音声が、周囲の音声と混ざったり消えてしまったりさせることなく、確実に対象とするカラスに届けることができる。 When the speaker 204 is a directional speaker, even in a noisy environment, by flying while checking the position of the crow with the camera 103, the sound emitted by the speaker 204 mixes with or disappears from the surrounding sound. It can be reliably delivered to the target crow without being laid back.

また、スピーカー204が指向性スピーカーである場合、必要な方向のみに音声を発することにより、カラスのいない方向にまで四方八方に音声が発せられることを回避することができる。これにより、ゴミ集積場が住宅地であっても、周辺の住民の迷惑となることを抑制することができる。 Further, when the speaker 204 is a directional speaker, it is possible to prevent the sound from being emitted in all directions even in the direction where there is no crow by emitting the sound only in the necessary direction. As a result, even if the garbage collection site is a residential area, it is possible to prevent the inconvenience of the surrounding residents.

また、たとえば、図1や図2に示したLEDランプ104によって出力部406を実現する場合、制御部407は、出力部406を制御することによって、光源(LEDランプ104)を点灯させたり点滅させたりする動作によって、所定のプロセスを実現することができる。特に、目に相当する部分に設けられたLEDランプ104を点滅させることにより、飛行型ロボット101の視認性を高め、飛行型ロボット101の存在を、遠くからカラスに意識させることができる。 Further, for example, when the output unit 406 is realized by the LED lamp 104 shown in FIGS. 1 and 2, the control unit 407 turns on or blinks the light source (LED lamp 104) by controlling the output unit 406. A predetermined process can be realized by such an operation. In particular, by blinking the LED lamp 104 provided in the portion corresponding to the eyes, the visibility of the flying robot 101 can be enhanced, and the existence of the flying robot 101 can be made conscious of the crow from a distance.

知能が高いカラスは、ロボットであっても、飛行型ロボット101が、カラスの苦手な猛禽の形状であり、「目」があることを理解する。その猛禽の「目」であるLEDランプ104を点滅させ、自然界にはありえない状況を作り出すことで、カラスの不安をあおり、ゴミ集積場での居心地を悪くして、ゴミ集積場から離れるように誘導することができる。これにより、カラスを傷つけることなく、効果的に、ゴミ集積場などの所定の範囲からカラスを追い払うとともに、飛行型ロボット101が配備されたゴミ集積場からカラスを遠ざけることができる。 Highly intelligent crows understand that even if it is a robot, the flying robot 101 has "eyes" in the shape of a bird of prey that crows are not good at. By blinking the LED lamp 104, which is the "eye" of the bird of prey, and creating a situation that is impossible in the natural world, it arouses the anxiety of crows, makes them uncomfortable at the garbage collection site, and guides them away from the garbage collection site. can do. As a result, the crows can be effectively driven away from a predetermined range such as a garbage collection site without damaging the crows, and the crows can be kept away from the garbage collection site where the flying robot 101 is deployed.

ゴミを漁っている、あるいは、ゴミを漁る直前のカラスを対象物として認識する場合、制御部407は、画像にカラスを認識するとステーション301からの飛行を開始し、カラスには近づかずに、カラスからある程度の距離以上離れたところを飛行するようにしてもよい。これにより、ゴミを散乱させるなどの、人間にとっての迷惑行為をしていないカラスまで飛行型ロボット101で追い払うことをなくし、カラスに過剰なプレッシャーを与えることを防止できる。 When catching crows or recognizing a crow just before catching trash as an object, the control unit 407 starts flying from the station 301 when the crow is recognized in the image, and the crow does not approach the crow. You may try to fly at a distance of a certain distance or more from. As a result, it is possible to prevent the flying robot 101 from driving away crows that are not annoying to humans, such as scattering dust, and to prevent crows from being given excessive pressure.

また、知能が高いカラスに、「あの場所(ゴミ集積場)で食事をしなければ(飛行型ロボットが)追いかけてこない」と学習させることで、ゴミを漁らないように誘導し、長期的に見て、ゴミの散乱問題の解決が期待できる。また、日頃から、ゴミを食する利便性を確保するためゴミ集積場の周辺で生活しているカラスを、ゴミ集積場の周辺から遠ざけることが期待できる。これにより、カラスの活動場所と人間の生活範囲とが重なっているために繁殖期に人間がカラスに襲われる危険を少なくすることが期待できる。 In addition, by having highly intelligent crows learn that "if you do not eat at that place (garbage collection site), (flying robots) will not chase you", you will be guided not to catch garbage, and in the long term. Looking at it, we can expect to solve the problem of dust scattering. In addition, it can be expected that crows living around the garbage collection site will be kept away from the area around the garbage collection site in order to ensure the convenience of eating garbage on a daily basis. This can be expected to reduce the risk of humans being attacked by crows during the breeding season because the place of activity of crows and the range of human life overlap.

制御部407は、所定の範囲内(ゴミ集積場およびその周辺)にカラスがいなくなった場合、駆動部405を制御して、ステーション301に帰還するように飛行型ロボット101を飛行させる。また、制御部407は、バッテリー201の残量が所定量以下となった場合に、駆動部405を制御して、ステーション301に帰還するように飛行型ロボット101を飛行させてもよい。 When the crow disappears within a predetermined range (garbage collection site and its surroundings), the control unit 407 controls the drive unit 405 to fly the flying robot 101 so as to return to the station 301. Further, the control unit 407 may control the drive unit 405 to fly the flight-type robot 101 so as to return to the station 301 when the remaining amount of the battery 201 becomes equal to or less than a predetermined amount.

(飛行型ロボット101の処理手順)
つぎに、飛行型ロボット101の処理手順について説明する。図5は、この発明にかかる実施の形態1の飛行型ロボット101の処理手順を示すフローチャートである。図5のフローチャートにおいて、まず、カメラ103により画像を撮影する(ステップS501)。そして、ステップS501において撮影された画像に基づいて、カラスを認識したか否かを判断する(ステップS502)。
(Processing procedure of flying robot 101)
Next, the processing procedure of the flight type robot 101 will be described. FIG. 5 is a flowchart showing a processing procedure of the flight-type robot 101 according to the first embodiment of the present invention. In the flowchart of FIG. 5, first, an image is taken by the camera 103 (step S501). Then, based on the image taken in step S501, it is determined whether or not the crow is recognized (step S502).

ステップS502においては、上記のように、撮影された画像のノイズや歪みなどを取り除き、当該画像に含まれるオブジェクトの輪郭を強調したり、当該画像の明るさや色合いを調整したりすることによって、当該画像に含まれる対象物(カラス)を抽出しやすくする。また、対象物の認識に際し、制御部407は、たとえば、ピクセル単位で、羽根の位置や嘴の形状などの特徴を抽出し、ピクセルに付与されている色や明るさなどの各種の情報に基づいて、カメラ103によって撮影された画像に、対象物が含まれているか否かを判断する。 In step S502, as described above, noise and distortion of the captured image are removed, the outline of the object included in the image is emphasized, and the brightness and color tone of the image are adjusted. Makes it easier to extract objects (crows) contained in images. Further, when recognizing an object, the control unit 407 extracts features such as the position of a blade and the shape of a beak in pixel units, and is based on various information such as color and brightness given to the pixel. Then, it is determined whether or not the image taken by the camera 103 contains an object.

また、ステップS502においては、認識したカラスの特徴に関する情報を、図2に示した制御回路207におけるメモリに記憶してもよい。カラスの特徴に関する情報は、たとえば、飛来してくるカラスの大きさや、飛来してくることが多い曜日、飛来してくることが多い時刻、どのような方向から飛来してきたか、などとすることができる。 Further, in step S502, the information regarding the recognized characteristics of the crow may be stored in the memory in the control circuit 207 shown in FIG. Information on the characteristics of crows can be, for example, the size of the crows that come in, the days of the week that they often come in, the times that they often come in, and the direction in which they came from. can.

ステップS502においては、撮影された画像に基づいて、カラスを認識するまで待機し(ステップS502:No)、認識した場合(ステップS502:Yes)、ステーション301からの飛行を開始する(ステップS503)。ステップS503においては、たとえば、ステップS502:Yesにおいて認識したカラスに接近するように飛行を開始する。 In step S502, based on the captured image, the crow is waited until it is recognized (step S502: No), and when it is recognized (step S502: Yes), the flight from the station 301 is started (step S503). In step S503, for example, the flight is started so as to approach the crow recognized in step S502: Yes.

また、所定のプロセスを実行する(ステップS504)。ステップS504においては、たとえば、ゴミ集積場内を設定速度以下の速度で飛行したり、ゴミ集積場内におけるカラスの周辺などの任意の位置において、ホバリング飛行したり、上下飛行する。 In addition, a predetermined process is executed (step S504). In step S504, for example, the player flies in the garbage collection area at a speed equal to or lower than the set speed, or hovering or flying up and down at an arbitrary position such as around a crow in the garbage collection area.

また、ステップS504においては、たとえば、スピーカー204から、猛禽の鳴き声を模した音声を出力したり、怯えたカラスが発する声を出力したり、録音された犬の吠え声、または、犬の吠え声を模した合成音声を出力したり、攻撃を受けたカラス、警戒しているカラス、または、怯えたカラスが発する声を録音した音声、または、これらの声を模した合成音声を出力したりしてもよい。 Further, in step S504, for example, a voice imitating the barking of a roaring bird is output from the speaker 204, a voice emitted by a frightened crow is output, a recorded barking of a dog, or a barking of a dog. It outputs synthetic voices that imitate the voices of, attacked crows, alert crows, or recorded voices of frightened crows, or synthetic voices that imitate these voices. You may.

また、ステップS504においては、たとえば、LEDランプ104を点灯させたり点滅させたりしてもよい。また、ステップS504においては、たとえば、フラッシュのように強い光を瞬間的に発光してもよい。また、ステップS504においては、たとえば、LEDランプ104の発光色を変化させてもよい。LEDランプ104がカメラ103のレンズを縁取るように設けられている場合は、当該レンズの周囲(目の周り)で回転するように点灯あるいは点滅させてもよい。 Further, in step S504, for example, the LED lamp 104 may be turned on or blinked. Further, in step S504, strong light such as a flash may be emitted instantaneously. Further, in step S504, for example, the emission color of the LED lamp 104 may be changed. When the LED lamp 104 is provided so as to border the lens of the camera 103, it may be lit or blinked so as to rotate around the lens (around the eyes).

これらの所定のプロセスは、常に同じものに限らない。たとえば、カメラ103が撮影された画像に基づいて、カラスの反応の大きさを認識し、実行中のプロセスでは効果が低いと判断した場合は、別のプロセスに切り替えておこなってもよい。また、プロセスは、1つに限るものではなく、2つ以上のプロセスを並行しておこなってもよい。 These predetermined processes are not always the same. For example, if the camera 103 recognizes the magnitude of the reaction of the crow based on the captured image and determines that the effect is low in the running process, the process may be switched to another process. Further, the process is not limited to one, and two or more processes may be performed in parallel.

そして、ゴミ集積場内からカラスを追い払ったか否かを判断する(ステップS505)。ステップS505においては、たとえば、カメラ103によって撮影された画像、GPSセンサー205を用いて特定される飛行型ロボット101の現在位置、その他飛行型ロボット101が備えるセンサー類を用いて特定される飛行型ロボット101の向きなどに基づいて、ゴミ集積場内からカラスを追い払ったか否かを判断する。 Then, it is determined whether or not the crow has been driven away from the garbage collection site (step S505). In step S505, for example, an image taken by the camera 103, the current position of the flight robot 101 specified by using the GPS sensor 205, and other flight robots specified by using the sensors included in the flight robot 101. Based on the orientation of 101 and the like, it is determined whether or not the crow has been driven away from the garbage collection site.

ステップS505において、ゴミ集積場内からカラスを追い払っていない場合(ステップS505:No)、ステップS504へ移行して、所定のプロセスを実行する。ステップS505:Noを経由した場合のステップS504においては、先におこなっていたプロセスと異なるプロセスを実行してもよく、同じプロセスを継続して実行してもよい。 If the crow has not been driven away from the garbage collection site in step S505 (step S505: No), the process proceeds to step S504 and a predetermined process is executed. Step S505: In step S504 when passing through No, a process different from the previously performed process may be executed, or the same process may be continuously executed.

また、ステップS505:Noを経由した場合のステップS504においては、たとえば、ホバリング飛行しながら猛禽の鳴き声の音声を出力する、などのように、先におこなっていたプロセスの数より多くのプロセスを実行するようにしてもよい。 Further, in step S505: step S504 when passing through No, more processes are executed than the number of previously performed processes, such as outputting the sound of a bird of prey barking while hovering. You may try to do it.

ステップS505において、ゴミ集積場内からカラスを追い払った場合(ステップS505:Yes)、ステーション301へ帰還し(ステップS506)、ステップS501へ移行して画像の撮影をおこなう。ステップS506においては、ステーション301において、ゴミ集積場内が撮影でき、かつ、送電コイル304からの給電が受けられる姿勢となるように、ステーション301へ帰還する。なお、ステーション301への帰還中にもゴミ集積場内の撮影を継続し、カラスを認識した場合は、ステーション301への帰還を中断して、カラスを追い払うように飛行する。 In step S505, when the crow is driven away from the garbage collection site (step S505: Yes), the crow returns to the station 301 (step S506), and the process proceeds to step S501 to take an image. In step S506, the station 301 returns to the station 301 so that the inside of the garbage collection site can be photographed and the power supply from the power transmission coil 304 can be received. In addition, even during the return to the station 301, the shooting in the garbage collection area is continued, and if the crow is recognized, the return to the station 301 is interrupted and the flight is carried out so as to drive away the crow.

また、上記の処理中に、バッテリー201の残量が、バッテリー201に対してあらかじめ設定された所定の閾値以下になった場合、ゴミ集積場におけるカラスの有無にかかわらず、ステーション301へ帰還するように飛行してもよい。バッテリー201に対してあらかじめ設定された所定の閾値バッテリー201に対してあらかじめ設定された所定の閾値は、たとえば、飛行型ロボット101の現在位置と、ステーション301との位置関係に基づき、飛行型ロボット101が確実にステーション301に帰還できるバッテリー201の残量とすることができる。これにより、バッテリー201残量の不足により、飛行型ロボット101が落下して破損するなどの不測の事態を確実に抑制することができる。 Further, if the remaining amount of the battery 201 becomes equal to or less than a predetermined threshold value set in advance for the battery 201 during the above processing, the battery 201 is returned to the station 301 regardless of the presence or absence of crows in the garbage collection site. You may fly to. Predetermined threshold value preset for the battery 201 The predetermined threshold value preset for the battery 201 is, for example, based on the positional relationship between the current position of the flight robot 101 and the station 301, and the flight robot 101. Can be the remaining amount of the battery 201 that can be reliably returned to the station 301. As a result, it is possible to reliably suppress an unexpected situation such as the flying robot 101 falling and being damaged due to the insufficient remaining amount of the battery 201.

(飛行型ロボット101の利用態様の一例)
つぎに、飛行型ロボット101の利用態様の一例について説明する。図6~図9は、この発明にかかる実施の形態1の飛行型ロボット101の利用態様の一例を示す説明図である。
(Example of usage of the flight robot 101)
Next, an example of how to use the flight robot 101 will be described. 6 to 9 are explanatory views showing an example of a usage mode of the flight-type robot 101 according to the first embodiment of the present invention.

図6において、ステーション301は、支柱601の上部に固定されている。これにより、ステーション301および待機中の飛行型ロボット101を、人間の手が届きにくい高さに位置づけることができるので、ステーション301や飛行型ロボット101への悪戯を防止することができる。 In FIG. 6, the station 301 is fixed to the upper part of the support column 601. As a result, the station 301 and the standby flying robot 101 can be positioned at a height that is difficult for humans to reach, so that mischief to the station 301 and the flying robot 101 can be prevented.

飛行型ロボット101は、図6に示すように、ステーション301の中において、送電コイル304からの給電を受けながら、ゴミ集積場602内を撮影する。飛行型ロボット101は、ゴミ集積場602の上空を飛行しながら、ゴミ集積場602内を撮影してもよい。この場合、カラスに過剰なプレッシャーを与えないように、ゴミ集積場602からある程度離れた上空を飛行するようにしてもよい。 As shown in FIG. 6, the flight-type robot 101 photographs the inside of the garbage collection site 602 while receiving power from the power transmission coil 304 in the station 301. The flying robot 101 may take a picture of the inside of the garbage collection site 602 while flying over the garbage collection site 602. In this case, the crow may fly over a certain distance from the garbage collection site 602 so as not to put excessive pressure on the crow.

図6においては、1箇所のゴミ集積場602に1台の飛行型ロボット101が配備されている例を示しているが、飛行型ロボット101の設置台数は、1台に限るものではない。たとえば、ゴミ集積場602など、撮影対象とする所定の範囲の広さや、カメラ103の画角などに応じて、1箇所のゴミ集積場602に、複数台の飛行型ロボット101を設置してもよい。 FIG. 6 shows an example in which one flying robot 101 is deployed in one garbage collection site 602, but the number of flying robots 101 installed is not limited to one. For example, even if a plurality of flying robots 101 are installed in one garbage collection site 602 depending on the size of a predetermined range to be photographed, such as the garbage collection site 602, and the angle of view of the camera 103. good.

飛行型ロボット101は、カメラ103によって撮影された画像に基づいて、当該画像の中にカラスが認識できるかを判断する。図7に示すように、カラス701がゴミ集積場602に近づいたことにより、撮影された画像にカラス701を認識した場合は、図8に示すようにステーション301から飛び立つ。そして、図9に示すように、カラス701に接近するように飛行する。 The flying robot 101 determines whether or not a crow can be recognized in the image based on the image taken by the camera 103. As shown in FIG. 7, when the crow 701 approaches the garbage collection site 602 and recognizes the crow 701 in the captured image, it takes off from the station 301 as shown in FIG. Then, as shown in FIG. 9, it flies so as to approach the crow 701.

このとき、カラス701に接触するまで近づかず、カラス701から一定距離以上離れた位置まで飛行する。これにより、プロペラ102などによってカラス701を傷つけてしまうことを回避し、また、飛行型ロボット101の破損を防止することができる。 At this time, the aircraft does not approach the crow 701 until it comes into contact with it, and flies to a position separated from the crow 701 by a certain distance or more. As a result, it is possible to prevent the crow 701 from being damaged by the propeller 102 or the like, and to prevent the flying robot 101 from being damaged.

飛行型ロボット101は、たとえば、カラス701に対して設定速度以下の速度で接近するように飛行する。これにより、高速でカラス701を追い回すのではなく、カラス701の視界に確実に入るように飛行することができ、カラス701を追い払うことに加えて、知能の高いカラス701に飛行型ロボット101に近づくことを敬遠させるようにすることができる。これにより、カラス701を傷つけることなく、人間の快適な生活環境を確保することができる。 The flying robot 101, for example, flies so as to approach the crow 701 at a speed equal to or lower than the set speed. As a result, instead of chasing the crow 701 at high speed, it is possible to fly so as to be surely in the line of sight of the crow 701. You can try to avoid things. This makes it possible to secure a comfortable living environment for humans without damaging the crow 701.

また、飛行型ロボット101は、たとえば、カラス701に接近するように飛行した後、ゴミ集積場602内にいるカラス701の周辺でホバリング飛行したり、上下飛行したりしてもよい。これによっても、カラス701にプレッシャーをかけ、カラス701を傷つけることなくゴミ集積場602からカラス701を追い払うことができる。 Further, the flying robot 101 may, for example, fly close to the crow 701 and then hover or fly up and down around the crow 701 in the garbage collection site 602. This also puts pressure on the crows 701 and allows the crows 701 to be driven away from the garbage collection site 602 without damaging the crows 701.

また、飛行型ロボット101は、カラス701に接近するように飛行する際に、所定の音声を出力してもよい。具体的には、たとえば、カラス701に接近するように飛行する際に、録音された猛禽の鳴き声、または、猛禽の鳴き声を模した合成音声、録音された銃声、または、銃声を模した合成音声などを出力する。 Further, the flight type robot 101 may output a predetermined voice when flying so as to approach the crow 701. Specifically, for example, when flying close to the crow 701, a recorded raptor bark, or a synthetic voice imitating a raptor bark, a recorded gunshot, or a synthetic voice imitating a gunshot. And so on.

あるいは、カラス701に接近するように飛行する際に、たとえば、録音された犬の吠え声、または、犬の吠え声を模した合成音声などを出力してもよい。また、カラス701に接近するように飛行する際に、たとえば、攻撃を受けたカラス701、警戒しているカラス701、または、怯えたカラス701が発する声を録音した音声、または、これらの声を模した合成音声を出力してもよい。 Alternatively, when flying close to the crow 701, for example, a recorded dog bark or a synthetic voice imitating a dog bark may be output. Also, when flying close to the crow 701, for example, the attacked crow 701, the alert crow 701, or the recorded voice of the frightened crow 701, or these voices. You may output a simulated synthetic voice.

以上説明したように、この発明にかかる実施の形態1の飛行型ロボット101は、自動操縦により飛行する無人航空機(ドローン)と、無人航空機に搭載されたカメラ103と、を備え、カメラ103によって撮影された画像に基づいて、対象物を認識した場合、当該対象物に接近するように飛行することを特徴としている。 As described above, the flight-type robot 101 of the first embodiment according to the present invention includes an unmanned aerial vehicle (drone) flying by autopilot and a camera 103 mounted on the unmanned aerial vehicle, and is photographed by the camera 103. When an object is recognized based on the image, it is characterized by flying so as to approach the object.

この発明にかかる実施の形態1の飛行型ロボット101によれば、カメラ103によって撮影された画像に基づいて認識したカラス701などの対象物に接近するように飛行型ロボット101を飛行させることができる。これにより、カラスに対して、自らに向かって飛行してくる飛行型ロボット101に違和感を覚えさせ、カラス701をゴミ集積場602から敬遠させることができる。そして、これによって、人間に害を与えることなく、カラス701を効果的に追い払うことができ、カラス701によるゴミの散乱被害を確実に防止することができる。 According to the flight-type robot 101 of the first embodiment according to the present invention, the flight-type robot 101 can be made to fly so as to approach an object such as a crow 701 recognized based on an image taken by a camera 103. .. As a result, the crow can be made to feel uncomfortable with the flying robot 101 flying toward itself, and the crow 701 can be kept away from the garbage collection site 602. As a result, the crow 701 can be effectively driven away without harming humans, and the dust scattering damage caused by the crow 701 can be reliably prevented.

また、この発明にかかる実施の形態1の飛行型ロボット101は、カメラ103によって、所定の範囲内を撮影することを特徴としている。 Further, the flight-type robot 101 according to the first embodiment of the present invention is characterized in that a camera 103 captures a predetermined range.

この発明にかかる実施の形態1の飛行型ロボット101によれば、カメラ103によって所定の範囲内のみを撮影することにより、過剰に広範囲においてカラス701を追い払うことなく、所望する範囲内のカラス701を追い払うことができる。これにより、カラス701を傷つけることなく、人間の快適な生活環境を確保することができる。 According to the flight-type robot 101 of the first embodiment according to the present invention, by photographing only a predetermined range with the camera 103, the crow 701 within a desired range can be obtained without driving away the crow 701 over an excessively wide range. You can get rid of it. This makes it possible to secure a comfortable living environment for humans without damaging the crow 701.

また、この発明にかかる実施の形態1の飛行型ロボット101は、所定の範囲が、あらかじめ設定されたゴミ集積場602であることを特徴としている。 Further, the flight-type robot 101 according to the first embodiment of the present invention is characterized in that a predetermined range is a preset garbage collection site 602.

この発明にかかる実施の形態1の飛行型ロボット101によれば、カメラ103によってあらかじめ設定されたゴミ集積場602内のみを撮影することにより、過剰に広範囲においてカラス701を追い払うことなく、ゴミ集積場602に近づいたカラス701を追い払うことができる。これにより、カラス701を傷つけることなく、人間の快適な生活環境を確保することができる。 According to the flight-type robot 101 of the first embodiment according to the present invention, by photographing only the inside of the garbage collection site 602 preset by the camera 103, the garbage collection site does not drive away the crow 701 over an excessively wide range. The crow 701 approaching 602 can be driven away. This makes it possible to secure a comfortable living environment for humans without damaging the crow 701.

また、この発明にかかる実施の形態1の飛行型ロボット101は、対象物に接近するように飛行した後、所定の範囲内あるいは当該所定の範囲の近傍に設置されたステーション301に戻ることを特徴としている。 Further, the flight-type robot 101 according to the first embodiment of the present invention is characterized in that after flying so as to approach an object, it returns to a station 301 installed within a predetermined range or in the vicinity of the predetermined range. It is supposed to be.

この発明にかかる実施の形態1の飛行型ロボット101によれば、カラス701を認識した場合にのみ飛行することで、電力の消耗を抑えることができる。これにより、不要に飛行することにより、人間の邪魔になったり、過剰にカラス701にプレッシャーをかけることを回避できる。 According to the flight-type robot 101 of the first embodiment according to the present invention, power consumption can be suppressed by flying only when the crow 701 is recognized. As a result, it is possible to avoid disturbing humans and putting excessive pressure on the crow 701 by flying unnecessarily.

また、この発明にかかる実施の形態1の飛行型ロボット101は、所定の範囲内を、設定速度以下の速度で飛行することを特徴としている。 Further, the flight-type robot 101 according to the first embodiment of the present invention is characterized in that it flies within a predetermined range at a speed equal to or lower than a set speed.

この発明にかかる実施の形態1の飛行型ロボット101によれば、高速でカラス701を追い回すのではなく、カラス701の視界に確実に入るように飛行することで、飛行型ロボット101に近づくことを敬遠させ、カラス701を追い払うことができる。これにより、カラス701を傷つけることなく、人間の快適な生活環境を確保することができる。 According to the flight-type robot 101 of the first embodiment according to the present invention, the robot approaches the flight-type robot 101 by flying so as to surely enter the view of the crow 701 instead of chasing the crow 701 at high speed. You can avoid it and drive away the crow 701. This makes it possible to secure a comfortable living environment for humans without damaging the crow 701.

また、この発明にかかる実施の形態1の飛行型ロボット101は、所定の範囲内の任意の位置において、ホバリング飛行することを特徴としている。 Further, the flight-type robot 101 according to the first embodiment of the present invention is characterized in that it makes a hovering flight at an arbitrary position within a predetermined range.

この発明にかかる実施の形態1の飛行型ロボット101によれば、高速でカラス701を追い回すのではなく、カラス701の注意を惹くようにホバリング飛行することで、飛行型ロボット101に近づくことを敬遠させ、カラス701を追い払うことができる。これにより、カラス701を傷つけることなく、人間の快適な生活環境を確保することができる。 According to the flight-type robot 101 of the first embodiment according to the present invention, instead of chasing the crow 701 at high speed, the hovering flight is performed so as to attract the attention of the crow 701, thereby avoiding approaching the flight-type robot 101. It can be made to drive away the crow 701. This makes it possible to secure a comfortable living environment for humans without damaging the crow 701.

また、この発明にかかる実施の形態1の飛行型ロボット101は、所定の範囲内の任意の位置において、上下飛行することを特徴としている。 Further, the flight-type robot 101 according to the first embodiment of the present invention is characterized in that it flies up and down at an arbitrary position within a predetermined range.

この発明にかかる実施の形態1の飛行型ロボット101によれば、高速でカラス701を追い回すのではなく、カラス701にはできない上下飛行をすることにより、飛行型ロボット101に近づくことを敬遠させ、カラス701を追い払うことができる。これにより、カラス701を傷つけることなく、人間の快適な生活環境を確保することができる。 According to the flight-type robot 101 of the first embodiment according to the present invention, instead of chasing the crow 701 at high speed, the crow 701 avoids approaching the flight-type robot 101 by flying up and down, which is impossible for the crow 701. You can get rid of the crow 701. This makes it possible to secure a comfortable living environment for humans without damaging the crow 701.

また、この発明にかかる実施の形態1の飛行型ロボット101は、無人航空機に搭載されたスピーカー204を備え、カメラ103によって撮影された画像に基づいて、対象物を認識した場合、スピーカー204から所定の音声を出力するとともに、当該対象物に接近するように飛行することを特徴としている。 Further, the flight-type robot 101 according to the first embodiment of the present invention includes a speaker 204 mounted on an unmanned aerial vehicle, and when an object is recognized based on an image taken by the camera 103, the speaker 204 determines a predetermined value. It is characterized by outputting the voice of the above and flying so as to approach the object.

この発明にかかる実施の形態1の飛行型ロボット101によれば、スピーカー204から、カラス701が嫌がるような所定の音声を出力しながら、カラス701などの対象物に接近するように飛行型ロボット101を飛行させることができる。これにより、人間に害を与えることなく、カラス701を一層効果的に追い払うことができ、カラス701によるゴミの散乱被害を確実に防止することができる。 According to the flight-type robot 101 of the first embodiment according to the present invention, the flight-type robot 101 approaches an object such as the crow 701 while outputting a predetermined sound that the crow 701 dislikes from the speaker 204. Can be flown. As a result, the crow 701 can be more effectively driven away without causing any harm to humans, and the dust scattering damage caused by the crow 701 can be reliably prevented.

また、この発明にかかる実施の形態1の飛行型ロボット101は、対象物に対してスピーカー204から所定の音声を出力することを特徴としている。 Further, the flight-type robot 101 according to the first embodiment of the present invention is characterized in that a predetermined sound is output from the speaker 204 to the object.

この発明にかかる実施の形態1の飛行型ロボット101によれば、特に、指向性スピーカーなどを利用して、カラス701がいる方向に対してのみ所定の音声を出力することにより、周囲の人間など対象物以外に与える影響を極力抑えて、カラス701を効果的に追い払うことができる。これにより、カラス701によるゴミの散乱被害を確実に防止することができる。 According to the flight-type robot 101 of the first embodiment according to the present invention, in particular, by using a directional speaker or the like to output a predetermined voice only in the direction in which the crow 701 is located, a surrounding human being or the like can be used. It is possible to effectively drive away the crow 701 by suppressing the influence on other than the object as much as possible. As a result, it is possible to reliably prevent the dust scattering damage caused by the crow 701.

この発明にかかる実施の形態1の飛行型ロボット101において所定の音声は、録音された猛禽の鳴き声、または、猛禽の鳴き声を模した合成音声であってもよい。 In the flying robot 101 according to the first embodiment of the present invention, the predetermined voice may be a recorded voice of a bird of prey or a synthetic voice imitating the voice of a bird of prey.

この発明にかかる実施の形態1の飛行型ロボット101によれば、カラス701が嫌がるとされる、鷹などの猛禽の鳴き声や猛禽の鳴き声を模した合成音声を出力しながら、カラス701などの対象物に接近するように飛行型ロボット101を飛行させることができる。これにより、人間に害を与えることなく、カラス701を一層効果的に追い払うことができ、カラス701によるゴミの散乱被害を確実に防止することができる。 According to the flight-type robot 101 of the first embodiment according to the present invention, the object such as the crow 701 is output while outputting the bark of a bird of prey such as a hawk or the synthetic sound imitating the bark of a bird of prey, which is said to be disliked by the crow 701. The flying robot 101 can be flown so as to approach an object. As a result, the crow 701 can be more effectively driven away without causing any harm to humans, and the dust scattering damage caused by the crow 701 can be reliably prevented.

また、この発明にかかる実施の形態1の飛行型ロボット101において所定の音声は、録音された銃声、または、銃声を模した合成音声であってもよい。 Further, in the flight-type robot 101 of the first embodiment according to the present invention, the predetermined voice may be a recorded gunshot or a synthetic voice imitating the gunshot.

この発明にかかる実施の形態1の飛行型ロボット101によれば、カラス701を含む動物全般が嫌がるとされる銃声や銃声を模した合成音声を出力しながら、カラス701などの対象物に接近するように飛行型ロボット101を飛行させることができる。これにより、人間に害を与えることなく、カラス701を一層効果的に追い払うことができ、カラス701によるゴミの散乱被害を確実に防止することができる。 According to the flight-type robot 101 according to the first embodiment of the present invention, the robot approaches an object such as a crow 701 while outputting a gun voice or a synthetic voice imitating the gun voice, which is said to be disliked by all animals including the crow 701. The flight type robot 101 can be flown as described above. As a result, the crow 701 can be more effectively driven away without causing any harm to humans, and the dust scattering damage caused by the crow 701 can be reliably prevented.

また、この発明にかかる実施の形態1の飛行型ロボット101において所定の音声は、録音された犬の吠え声、または、犬の吠え声を模した合成音声であってもよい。 Further, in the flying robot 101 of the first embodiment according to the present invention, the predetermined voice may be a recorded bark of a dog or a synthetic voice imitating the bark of a dog.

この発明にかかる実施の形態1の飛行型ロボット101によれば、カラス701が嫌がるとされる犬の吠え声や犬の吠え声を模した合成音声を出力しながら、カラス701などの対象物に接近するように飛行型ロボット101を飛行させることができる。これにより、人間に害を与えることなく、カラス701を一層効果的に追い払うことができ、カラス701によるゴミの散乱被害を確実に防止することができる。 According to the flight-type robot 101 of the first embodiment according to the present invention, the object such as the crow 701 can output a synthetic voice imitating the bark of a dog or the bark of a dog, which is said to be disliked by the crow 701. The flying robot 101 can be flown so as to approach. As a result, the crow 701 can be more effectively driven away without causing any harm to humans, and the dust scattering damage caused by the crow 701 can be reliably prevented.

また、この発明にかかる実施の形態1の飛行型ロボット101において所定の音声は、攻撃を受けたカラス701、警戒しているカラス701、または、怯えたカラス701が発する声を録音した音声、または、これらの声を模した合成音声であってもよい。 Further, in the flying robot 101 of the first embodiment according to the present invention, the predetermined voice is a voice recorded from an attacked crow 701, a vigilant crow 701, or a frightened crow 701. , It may be a synthetic voice imitating these voices.

この発明にかかる実施の形態1の飛行型ロボット101によれば、攻撃を受けたカラス701、警戒しているカラス701、または、怯えたカラス701が発する声やこれらの声を模した合成音声を出力しながら、カラス701などの対象物に接近するように飛行型ロボット101を飛行させることができる。これにより、ゴミ集積場602などの所定の範囲にカラス701が入り込む都度、当該カラス701の不安を煽り、学習能力の高いカラス701にゴミ集積場602に近づくことが危険なことであると学習させ、カラス701を効果的に追い払うとともに、以降カラス701の接近を抑制することができ。そして、これによって、人間に害を与えることなく、カラス701によるゴミの散乱被害を確実に防止することができる。 According to the flight-type robot 101 of the first embodiment according to the present invention, a voice emitted by an attacked crow 701, a vigilant crow 701, or a frightened crow 701, or a synthetic voice imitating these voices is produced. While outputting, the flying robot 101 can be made to fly so as to approach an object such as a crow 701. As a result, every time the crow 701 enters a predetermined range such as the garbage collection site 602, the anxiety of the crow 701 is aroused, and the crow 701 with high learning ability learns that it is dangerous to approach the garbage collection site 602. , The crow 701 can be effectively driven away, and the approach of the crow 701 can be suppressed thereafter. As a result, it is possible to reliably prevent the dust scattering damage caused by the crow 701 without causing any harm to humans.

また、この発明にかかる実施の形態1の飛行型ロボット101は、無人航空機に搭載されたLEDランプ104などの光源を備え、カメラ103によって撮影された画像に基づいて、対象物を認識した場合、光源を発光するとともに、当該対象物に接近するように飛行することを特徴としている。 Further, when the flight-type robot 101 according to the first embodiment of the present invention is provided with a light source such as an LED lamp 104 mounted on an unmanned aircraft and recognizes an object based on an image taken by the camera 103, It is characterized by emitting a light source and flying so as to approach the object.

この発明にかかる実施の形態1の飛行型ロボット101によれば、光源から発光しながら、カラス701などの対象物に接近するように飛行型ロボット101を飛行させることができる。これにより、人間に害を与えることなく、カラス701を一層効果的に追い払うことができ、カラス701によるゴミの散乱被害を確実に防止することができる。 According to the flight-type robot 101 of the first embodiment according to the present invention, the flight-type robot 101 can be made to fly so as to approach an object such as a crow 701 while emitting light from a light source. As a result, the crow 701 can be more effectively driven away without causing any harm to humans, and the dust scattering damage caused by the crow 701 can be reliably prevented.

また、この発明にかかる実施の形態1の飛行型ロボット101は、猛禽を模した外観をなすことを特徴としている。飛行型ロボット101は、外装に、本物の猛禽の羽を施して構成されていてもよい。 Further, the flying robot 101 according to the first embodiment of the present invention is characterized in that it has an appearance imitating a bird of prey. The flying robot 101 may be configured by applying the wings of a real bird of prey to the exterior.

この発明にかかる実施の形態1の飛行型ロボット101によれば、多くのカラス701が忌避する鷹などの猛禽を模した外観をなすことにより、人間に害を与えることなく、カラス701を一層効果的に追い払うことができ、カラス701によるゴミの散乱被害を確実に防止することができる。 According to the flying robot 101 of the first embodiment according to the present invention, the crow 701 is more effective without harming human beings by making an appearance imitating a bird of prey such as a hawk that many crows 701 repel. It is possible to drive away the dust, and it is possible to surely prevent the damage caused by the scattering of dust by the crow 701.

<実施の形態2>
つぎに、この発明にかかる実施の形態2の飛行型ロボットについて説明する。実施の形態2においては、上述した実施の形態1と同一部分は、同一符号で示し、説明を省略する。
<Embodiment 2>
Next, the flight-type robot according to the second embodiment of the present invention will be described. In the second embodiment, the same parts as those in the first embodiment described above are designated by the same reference numerals, and the description thereof will be omitted.

(飛行型ロボットの外観の一例)
図10は、この発明にかかる実施の形態2の飛行型ロボットの外観の一例を示す説明図である。図10に示すように、飛行型ロボット1001は、ドローン(無人航空機)の態様をなす。ドローンは、図10に示すように、4つのプロペラ102を備えたクアッドコプターを採用してもよく、ヘキサコプターやオクトコプターなどを採用してもよい。
(An example of the appearance of a flying robot)
FIG. 10 is an explanatory diagram showing an example of the appearance of the flight-type robot according to the second embodiment of the present invention. As shown in FIG. 10, the flying robot 1001 is in the form of a drone (unmanned aerial vehicle). As shown in FIG. 10, the drone may adopt a quadcopter equipped with four propellers 102, or may adopt a hexacopter, an octocopter, or the like.

この発明にかかる実施の形態2の飛行型ロボット1001は、たとえば、作物栽培農場や畜産農場などの農場における農産物(農畜産物)を食べ荒らしに来る鳥獣や、農場における農産物(農畜産物)を盗難する泥棒を監視対象として認識し、当該監視対象に警告を発したり、当該監視対象の画像を撮影する。 The flying robot 1001 according to the second embodiment according to the present invention is, for example, a bird or beast that comes to eat agricultural products (agricultural and livestock products) on a farm such as a crop cultivation farm or a livestock farm, or agricultural products (agricultural and livestock products) on the farm. Recognize the thief to be stolen as a monitoring target, issue a warning to the monitoring target, or take an image of the monitoring target.

飛行型ロボット1001は、監視対象への警告や、当該監視対象の画像の撮影に際し、監視対象を追跡してもよい。飛行型ロボット1001は、監視対象の追跡時にプロペラ102が周囲や監視対象に引っかかったりして破損しないようにフレーム1001a内に収められている。 The flight-type robot 1001 may track the monitoring target when warning the monitoring target or taking an image of the monitoring target. The flight-type robot 1001 is housed in the frame 1001a so that the propeller 102 will not be damaged by being caught in the surroundings or the monitored object during tracking of the monitored object.

飛行型ロボット1001は、複数のカメラ103を備えている。具体的に、飛行型ロボット1001において、カメラ103は、同時に複数方向を撮影できるように配置されている。1台の飛行型ロボット1001が同時に複数方向を撮影することにより、短時間でより多くの情報を得ることができ、監視対象を迅速に認識することができる。 The flying robot 1001 includes a plurality of cameras 103. Specifically, in the flight robot 1001, the camera 103 is arranged so as to be able to shoot in a plurality of directions at the same time. By simultaneously photographing a plurality of directions by one flying robot 1001, more information can be obtained in a short time, and the monitored object can be quickly recognized.

また、1台の飛行型ロボット1001が同時に複数方向を撮影することにより、飛行型ロボット1001が1台当たりに認識できる監視対象の数が多くなる。これにより、監視対象が複数存在したり異なる方向に移動したりしている場合にも、少ない台数の飛行型ロボット1001で、監視対象を確実に認識することができる。 Further, since one flying robot 1001 simultaneously photographs a plurality of directions, the number of monitoring targets that can be recognized by the flying robot 1001 increases. As a result, even when a plurality of monitoring targets exist or move in different directions, the monitoring targets can be reliably recognized by a small number of flight-type robots 1001.

複数のカメラ103は、常時、それぞれが撮影をおこなってもよく、いずれかのカメラ103を動作するように切り替えてもよい。また、選択的に、1または複数のカメラを用いて撮影をおこなってもよい。また、たとえば、1つのカメラ103の撮影範囲に収まる複数の監視対象が、画像の撮影中に、それぞれ異なる方向への移動を開始した場合に、複数のカメラ103を用いた撮影を開始するようにしてもよい。 Each of the plurality of cameras 103 may always take a picture, or one of the cameras 103 may be switched to operate. In addition, shooting may be selectively performed using one or a plurality of cameras. Further, for example, when a plurality of monitoring targets within the shooting range of one camera 103 start moving in different directions during image shooting, shooting using the plurality of cameras 103 is started. You may.

飛行型ロボット1001において、LEDランプ104は、フレーム1001aに設けられている。LEDランプ104は、複数並べて配置されている。LEDランプ104は、たとえば、白色光を発する。白色光を発するLEDランプ104を複数並べて配置することにより、監視対象や監視対象の周囲を極めて明るく照らすことができる。これにより、監視対象を鮮明に撮影することができる。 In the flight robot 1001, the LED lamp 104 is provided on the frame 1001a. A plurality of LED lamps 104 are arranged side by side. The LED lamp 104 emits white light, for example. By arranging a plurality of LED lamps 104 that emit white light side by side, it is possible to illuminate the monitored object and the surroundings of the monitored object extremely brightly. As a result, the monitored object can be clearly photographed.

LEDランプ104は、それぞれが、複数の発光色を切り替え可能に発光するものであってもよい。これにより、複数色の光を混ぜ合わせることによって、鳥獣の嫌がる色に調光した光を発することができる。また、それぞれが異なる色の光を発光する複数のLEDランプ104を、並べて配置するようにしてもよい。具体的には、たとえば、赤色の光を発するLEDランプ104の隣に、緑色の光を発するLEDランプ104を配置してもよい。 Each of the LED lamps 104 may emit light so that a plurality of emission colors can be switched. As a result, by mixing light of a plurality of colors, it is possible to emit light that is dimmed to a color that birds and beasts dislike. Further, a plurality of LED lamps 104, each of which emits light of a different color, may be arranged side by side. Specifically, for example, the LED lamp 104 that emits green light may be arranged next to the LED lamp 104 that emits red light.

また、飛行型ロボット1001において、LEDランプ104は、複数箇所に、それぞれ複数並べて配置されている。これにより、夜間などであっても、飛行型ロボット1001を目立たせ、監視対象の位置を周囲に報知することができる。また、監視対象が複数存在したり異なる方向に移動したりしている場合にも、各監視対象をそれぞれ鮮明に撮影することができる。 Further, in the flight type robot 1001, a plurality of LED lamps 104 are arranged side by side at a plurality of locations. As a result, the flight robot 1001 can be made to stand out even at night, and the position of the monitoring target can be notified to the surroundings. Further, even when a plurality of monitoring targets exist or move in different directions, each monitoring target can be clearly photographed.

(飛行型ロボット1001の機能的構成)
つぎに、飛行型ロボット1001の機能的構成について説明する。飛行型ロボット1001の機能は、記憶部401と、検出部402と、撮影部403と、取得部404と、駆動部405と、出力部406と、制御部407と、によって実現される。
(Functional configuration of flying robot 1001)
Next, the functional configuration of the flight robot 1001 will be described. The functions of the flight robot 1001 are realized by the storage unit 401, the detection unit 402, the photographing unit 403, the acquisition unit 404, the drive unit 405, the output unit 406, and the control unit 407.

記憶部401は、制御部407による制御にかかる各種プログラムや、プログラムの実行に用いる閾値などを含む各種情報を記憶する。具体的には、記憶部401は、たとえば、監視対象の認識に用いるパターン認識(画像認識)にかかる、監視対象の特徴量に関する情報を記憶する。記憶部401は、さらに、監視対象の認識に用いる音声情報や、監視をおこなう期間に関する情報などを記憶していてもよい。 The storage unit 401 stores various information including various programs controlled by the control unit 407 and threshold values used for executing the programs. Specifically, the storage unit 401 stores, for example, information regarding the feature amount of the monitoring target, which is related to pattern recognition (image recognition) used for recognizing the monitoring target. The storage unit 401 may further store voice information used for recognizing the monitoring target, information regarding the monitoring period, and the like.

監視対象は、所定の範囲内に存在する鳥獣や人間などの動物とすることができる。所定の範囲は、たとえば、作物栽培農場、畜産農場、養蜂場などの農場とすることができる。農場は、あらかじめ設定された特定の農場であってもよく、撮影部403によって撮影された画像などに基づいて農場と判断される場所であってもよい。すなわち、監視対象は、たとえば、農場における農産物または当該農産物と推定される物品を所持または運搬する鳥獣、または、農場における農産物または当該農産物と推定される物品を所持または運搬する人間とすることができる。 The monitoring target can be animals such as birds and beasts and humans that exist within a predetermined range. The predetermined range can be, for example, a farm such as a crop cultivation farm, a livestock farm, or an apiary. The farm may be a specific farm set in advance, or may be a place determined to be a farm based on an image taken by the photographing unit 403 or the like. That is, the monitoring target can be, for example, a bird or beast that possesses or carries an agricultural product on a farm or an article that is presumed to be the agricultural product, or a person who possesses or carries an agricultural product or an article that is presumed to be the agricultural product on the farm. ..

具体的に、監視対象は、たとえば、作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する鳥獣、または、作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する人間とすることができる。より具体的には、たとえば、果樹園における監視をおこなう場合、果物を食べている鳥獣や、果物が入っていると推定される袋や箱を運搬している人間などが、監視対象となる。また、より具体的には、たとえば、ある程度以上の重量があると推察される袋や箱を運搬している人間などを、監視対象としてもよい。 Specifically, the monitoring target is, for example, a bird or beast that possesses or carries a cultivated crop on a crop cultivation farm or an article presumed to be the cultivated crop, or a cultivated crop on a crop cultivation farm or an article presumed to be the cultivated crop. It can be a person who possesses or carries it. More specifically, for example, when monitoring in an orchard, birds and beasts eating fruits and humans carrying bags and boxes presumed to contain fruits are targeted for monitoring. More specifically, for example, a person carrying a bag or a box that is presumed to have a certain weight or more may be monitored.

また、具体的に、監視対象は、たとえば、畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する鳥獣または人間とすることができる。さらに、監視対象は、たとえば、畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する人間とすることができる。より具体的には、たとえば、養豚場における監視をおこなう場合、豚、あるいは、豚が入っていると推定される袋や箱を運搬している人間などが、監視対象となる。また、より具体的には、たとえば、ある程度以上の重量があると推察される袋や箱を運搬している人間や、内容物が動いている袋や箱を所持または運搬している人間などを、監視対象としてもよい。 Specifically, the monitoring target may be, for example, livestock or poultry on a livestock farm, or birds or beasts or humans who possess or carry articles presumed to be livestock or poultry. Further, the monitoring target may be, for example, livestock or poultry on a livestock farm, or a person who possesses or carries an article presumed to be the livestock or poultry. More specifically, for example, when monitoring in a pig farm, a pig or a person carrying a bag or box presumed to contain a pig is the target of monitoring. More specifically, for example, a person carrying a bag or box that is presumed to have a certain weight or more, or a person possessing or carrying a bag or box with moving contents. , May be monitored.

また、具体的に、監視対象は、たとえば、養蜂場における養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する鳥獣、または、養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する人間とすることができる。より具体的には、たとえば、養蜂場における監視をおこなう場合、巣箱を抱えている熊や、箱型または板状の物体を運搬している人間などが、監視対象となる。 Specifically, the monitoring target possesses, for example, a hive used for beekeeping in an apiary or a bird or beast carrying or carrying an article presumed to be the hive, or a hive used for beekeeping or an article presumed to be the hive. Or it can be a person who carries it. More specifically, for example, when monitoring in an apiary, a bear holding a hive or a person carrying a box-shaped or plate-shaped object is the target of monitoring.

また、記憶部401は、撮影部403によって撮影された画像情報や、取得部404が取得した情報などを記憶する。記憶部401は、バッテリーの充電スポットとなるステーション301の位置に関する情報などを記憶してもよい。記憶部401は、具体的には、たとえば、図2に示した制御回路207におけるメモリなどによって、その機能を実現することができる。 Further, the storage unit 401 stores image information captured by the photographing unit 403, information acquired by the acquisition unit 404, and the like. The storage unit 401 may store information regarding the position of the station 301, which is the charging spot of the battery. Specifically, the storage unit 401 can realize its function by, for example, the memory in the control circuit 207 shown in FIG. 2.

検出部402は、たとえば、所定のアプリケーションをインストールしたスマートフォンなどの端末装置から出力される信号を検出する。また、検出部402は、たとえば、飛行型ロボット1001の利用者などによっておこなわれる、キーまたはボタンなどの入力デバイスを介した、飛行型ロボット1001に対する所定の入力指示を受け付けたことを検出してもよい。検出部402は、具体的には、たとえば、図2に示した通信I/F209などによって、その機能を実現することができる。 The detection unit 402 detects a signal output from a terminal device such as a smartphone in which a predetermined application is installed. Further, even if the detection unit 402 detects that it has received a predetermined input instruction to the flight robot 1001 via an input device such as a key or a button, which is performed by, for example, a user of the flight robot 1001. good. Specifically, the detection unit 402 can realize its function by, for example, the communication I / F 209 shown in FIG.

また、検出部402は、飛行型ロボット1001から所定範囲内に存在する障害物の有無を検出する。この場合、検出部402は、具体的には、たとえば、図2に示した対物センサー206などによって、その機能を実現することができる。また、この場合の検出部402は、具体的には、たとえば、対物センサー206に代えて、あるいは、対物センサー206に加えて、図1や図2に示したカメラ103などによって、その機能を実現してもよい。 Further, the detection unit 402 detects the presence / absence of an obstacle existing within a predetermined range from the flight robot 1001. In this case, the detection unit 402 can specifically realize its function by, for example, the objective sensor 206 shown in FIG. 2. Further, specifically, the detection unit 402 in this case realizes its function by, for example, in place of the objective sensor 206, or by the camera 103 shown in FIGS. 1 and 2 in addition to the objective sensor 206. You may.

カメラ103による障害物の有無の検出は、たとえば、飛行型ロボット1001が移動することにより得られる、異なる複数の位置において撮影された各画像における視差(各画像どうしの差分)に基づき、障害物までの距離を求める移動ステレオ方法を用いることによって実現することができる。移動ステレオ方法を用いることにより、単眼のカメラを用いて、飛行型ロボット1001から所定範囲内に存在する障害物の有無を検出することができる。 The detection of the presence or absence of an obstacle by the camera 103 is performed, for example, based on the parallax (difference between the images) of each image taken at a plurality of different positions obtained by the movement of the flight robot 1001 up to the obstacle. This can be achieved by using a moving stereo method for determining the distance between. By using the mobile stereo method, it is possible to detect the presence or absence of an obstacle existing within a predetermined range from the flying robot 1001 by using a monocular camera.

撮影部403は、農場内および当該農場の周囲を含む範囲などの所定の範囲内の画像を撮影する。撮影部403は、たとえば、所定の範囲の外側から、当該所定の範囲内の画像を撮影する。また、撮影部403は、たとえば、所定の範囲内において、当該所定の範囲内の画像を撮影してもよい。撮影部403は、具体的には、たとえば、図3に示したカメラ103などによって、その機能を実現することができる。 The photographing unit 403 photographs an image within a predetermined range such as a range including the inside of the farm and the surroundings of the farm. The photographing unit 403, for example, photographs an image within the predetermined range from the outside of the predetermined range. Further, the photographing unit 403 may acquire an image within the predetermined range, for example, within the predetermined range. Specifically, the photographing unit 403 can realize its function by, for example, the camera 103 shown in FIG.

上記の記憶部401は、撮影部403によって撮影された画像にかかる画像情報を記憶する。撮影部403によって撮影された画像にかかる画像情報は、記憶部401に記憶することに代えて、あるいは、記憶部401に記憶することに加えて、外部装置へ装置してもよい。また、記憶部401は、画像情報に加えて、当該画像情報にかかる画像を撮影した場所や時刻に関する情報を、当該画像情報に関連付けて記憶してもよい。画像を撮影した場所や時刻に関する情報は、たとえば、図2に示したGPSセンサー205を用いて特定することができる。 The storage unit 401 stores image information related to the image captured by the photographing unit 403. The image information related to the image captured by the photographing unit 403 may be stored in the storage unit 401 instead of being stored in the storage unit 401, or may be stored in the storage unit 401 and may be stored in an external device. Further, in addition to the image information, the storage unit 401 may store information about the place and time when the image related to the image information is taken in association with the image information. Information about the place and time when the image was taken can be specified by using, for example, the GPS sensor 205 shown in FIG.

取得部404は、飛行型ロボット1001の外部の情報を取得する。取得部404は、たとえば、マイク203を用いて、飛行型ロボット1001の周囲の音声を取得する。取得部404は、具体的には、たとえば、図2に示したマイク203などによって、その機能を実現することができる。 The acquisition unit 404 acquires external information of the flight robot 1001. The acquisition unit 404 acquires the voice around the flying robot 1001 by using, for example, the microphone 203. Specifically, the acquisition unit 404 can realize its function by, for example, the microphone 203 shown in FIG.

また、取得部404は、たとえば、ネットワークNを介して、外部装置から所定の情報を取得してもよい。この場合の取得部404は、具体的には、たとえば、図2に示した通信I/F209などによって、その機能を実現することができる。通信I/F209などによって実現される取得部404は、たとえば、別の飛行型ロボット1001が学習した情報を取得する。これにより、単機の飛行型ロボット1001の学習により得られた情報を、別の複数の飛行型ロボット1001が共有することができ、飛行型ロボット1001に、カラスの認識およびカラスの追い払いに一層適した行動をさせることができる。 Further, the acquisition unit 404 may acquire predetermined information from an external device, for example, via the network N. Specifically, the acquisition unit 404 in this case can realize its function by, for example, the communication I / F 209 shown in FIG. The acquisition unit 404 realized by the communication I / F 209 or the like acquires, for example, the information learned by another flight robot 1001. As a result, the information obtained by learning the single flying robot 1001 can be shared by another plurality of flying robots 1001, and the flying robot 1001 is more suitable for recognizing crows and warding off crows. You can make them act.

通信I/F209などによって実現される取得部404は、たとえば、現時点以降の所定時間内に、災害などのような周囲の人間に影響を与える可能性がある事象が発生する可能性があることを示す情報を取得してもよい。具体的には、取得部404は、たとえば、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得してもよい。 The acquisition unit 404 realized by the communication I / F 209 or the like indicates that an event that may affect surrounding humans such as a disaster may occur within a predetermined time after the present time. You may get the information shown. Specifically, the acquisition unit 404 acquires information indicating that a disaster, an earthquake, a tsunami, a lightning strike, a rainfall, a strong wind, or a sudden change in the weather may occur within a predetermined time after the present time. You may.

駆動部405は、飛行型ロボット1001の飛行を制御する。駆動部405は、具体的には、たとえば、図1に示したプロペラ102や、図2に示した制御回路207におけるフライトコントローラ、ESC、BEC(UBEC)、モーター202、および、対物センサー206などによって、その機能を実現することができる。 The drive unit 405 controls the flight of the flight-type robot 1001. Specifically, the drive unit 405 is driven by, for example, the propeller 102 shown in FIG. 1, the flight controller in the control circuit 207 shown in FIG. 2, the ESC, the BEC (UBEC), the motor 202, the objective sensor 206, and the like. , The function can be realized.

出力部406は、制御部407によって制御されて、たとえば、スピーカー204から所定の音声を出させる。この場合、出力部406は、具体的には、たとえば、図2に示したスピーカー204などによって、その機能を実現することができる。所定の音声は、たとえば、盗難を注意または警告する発話を録音した音声、または、盗難を注意または警告する発話を模した合成音声とすることができる。また、所定の音声は、たとえば、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声であってもよい。 The output unit 406 is controlled by the control unit 407 to output a predetermined sound from the speaker 204, for example. In this case, the output unit 406 can specifically realize its function by, for example, the speaker 204 shown in FIG. The predetermined voice may be, for example, a recorded voice of an utterance that warns or warns of theft, or a synthetic voice that imitates a voice that warns or warns of theft. Further, the predetermined voice may be, for example, a voice of a siren, a horn, a whistle or a whistle, or a synthetic voice imitating at least one of these voices.

また、出力部406は、制御部407によって制御されて、たとえば、LEDランプ104を点灯させる。また、出力部406は、たとえば、LEDランプ104を点滅させる。この場合、出力部406は、具体的には、たとえば、図1や図2に示したLEDランプ104などによって、その機能を実現することができる。 Further, the output unit 406 is controlled by the control unit 407 to light, for example, the LED lamp 104. Further, the output unit 406 blinks the LED lamp 104, for example. In this case, the output unit 406 can specifically realize its function by, for example, the LED lamp 104 shown in FIGS. 1 and 2.

また、出力部406は、制御部407によって制御されて、撮影部403によって撮影された画像にかかる画像情報を、所定の宛先に送信してもよい。この場合の出力部406は、具体的には、たとえば、図2に示した通信I/F209などによって、その機能を実現することができる。所定の宛先は、たとえば、特定のスマートフォンに設定された電子メールアドレスや、クラウドネットワーク上に設定された特定のURLとすることができる。 Further, the output unit 406 may be controlled by the control unit 407 and transmit the image information related to the image captured by the photographing unit 403 to a predetermined destination. Specifically, the output unit 406 in this case can realize its function by, for example, the communication I / F 209 shown in FIG. The predetermined destination can be, for example, an e-mail address set on a specific smartphone or a specific URL set on a cloud network.

また、出力部406は、制御部407によって制御されて、たとえば、バッテリー201の残量が所定量以下となった場合に、他の飛行型ロボット1001に対して、応援要請を出力してもよい。この場合の出力部406も、具体的には、たとえば、図2に示した通信I/F209などによって、その機能を実現することができる。 Further, the output unit 406 may be controlled by the control unit 407 to output a support request to the other flight-type robot 1001 when the remaining amount of the battery 201 becomes a predetermined amount or less, for example. .. Specifically, the output unit 406 in this case can also realize its function by, for example, the communication I / F 209 shown in FIG.

また、出力部406は、取得部404によって、たとえば、災害、地震、津波、発雷、降雨、強風、急激な天候の変化など、周辺の人間に何らかの影響を与える可能性がある事象が発生する可能性があることを示す情報が取得されたことに応じて、当該事象が発生する可能性があることを案内する音声を出力したり、特定のパターンや発光色でLEDランプ104を発光させたり点滅させたりしてもよい。 In addition, the output unit 406 causes an event that may affect people in the vicinity, such as a disaster, an earthquake, a tsunami, a lightning strike, a rainfall, a strong wind, or a sudden change in the weather, due to the acquisition unit 404. Depending on the acquisition of information indicating the possibility, an audio indicating that the event may occur is output, or the LED lamp 104 is made to emit light with a specific pattern or emission color. It may blink.

制御部407は、飛行型ロボット1001の全体を制御する。制御部407は、具体的には、たとえば、図2に示した制御回路207によって、その機能を実現することができる。制御部407は、より具体的には、たとえば、図2に示した制御回路207におけるCPUによって、メモリなどに記憶されたプログラムを実行することによって、その機能を実現することができる。 The control unit 407 controls the entire flight-type robot 1001. Specifically, the control unit 407 can realize its function by, for example, the control circuit 207 shown in FIG. More specifically, the control unit 407 can realize its function by executing a program stored in a memory or the like by the CPU in the control circuit 207 shown in FIG. 2, for example.

制御部407は、たとえば、駆動部405を制御することによって、飛行型ロボット1001を飛行させる。制御部407は、取得部404によって取得された音声に基づいて、特定の音声が取得された場合に、駆動部405を制御することによって、飛行型ロボット1001を飛行させるようにしてもよい。 The control unit 407 flies the flight-type robot 1001 by controlling the drive unit 405, for example. The control unit 407 may fly the flight robot 1001 by controlling the drive unit 405 when a specific voice is acquired based on the voice acquired by the acquisition unit 404.

具体的には、たとえば、取得部404によって、鳥獣や人間の足音、ハサミやカッターなどを使用していると推定される音声、袋や箱に物品を詰めていると推定される音声、車両が発するエンジン音やタイヤ音などの音声が取得された場合に、駆動部405を制御することによって飛行を開始させる。これにより、電池の消耗を抑えながら、監視対象の存在を確実に捉えることができる。 Specifically, for example, by the acquisition unit 404, the sound of birds and beasts and human footsteps, the sound of presumed use of scissors and cutters, the sound of presumed packing of goods in bags and boxes, and the vehicle When a sound such as an engine sound or a tire sound to be emitted is acquired, the flight is started by controlling the drive unit 405. As a result, the existence of the monitored object can be reliably detected while suppressing battery consumption.

また、制御部407は、たとえば、撮影部403を駆動制御することによって撮影をおこなう。さらに、制御部407は、撮影部403によって撮影された画像に基づいて、監視対象を認識する。監視対象の認識は、たとえば、撮影部403によって撮影された画像に、監視対象が含まれているか否かを判断することによっておこなう。 Further, the control unit 407 takes a picture by, for example, driving and controlling the shooting unit 403. Further, the control unit 407 recognizes the monitoring target based on the image captured by the imaging unit 403. The recognition of the monitoring target is performed, for example, by determining whether or not the image captured by the photographing unit 403 includes the monitoring target.

具体的には、制御部407は、たとえば、果樹園における監視をおこなう場合、撮影部403によって撮影された画像に、果物を食べている鳥獣や、果物が入っていると推定される袋や箱を運搬している人間などが含まれるか否かを判断する。果物は、画像認識によって特定することができる。果物が入っていると推定される袋や箱は、袋や箱自体を画像認識によって推定してもよく、あるいは、2人以上で運搬していることをもって推定してもよい。 Specifically, when the control unit 407 monitors, for example, in an orchard, the image taken by the photographing unit 403 includes birds and beasts eating fruits, and a bag or box presumed to contain fruits. Judge whether or not the person carrying the car is included. Fruits can be identified by image recognition. The bag or box presumed to contain fruits may be estimated by image recognition of the bag or box itself, or may be estimated by carrying it by two or more people.

また、具体的には、制御部407は、たとえば、養豚場における監視をおこなう場合、撮影部403によって撮影された画像に、豚、あるいは、豚が入っていると推定される袋や箱を運搬している人間などが含まれるか否かを判断する。豚は、画像認識によって特定することができる。豚が入っていると推定される袋や箱は、袋や箱自体を画像認識によって推定してもよく、あるいは、2人以上で運搬していることをもって推定してもよい。 Specifically, when monitoring in a pig farm, for example, the control unit 407 carries a pig or a bag or box presumed to contain a pig in the image taken by the photographing unit 403. Judge whether or not the person who is doing it is included. Pigs can be identified by image recognition. The bag or box presumed to contain a pig may be estimated by image recognition of the bag or box itself, or may be estimated by carrying it by two or more people.

また、具体的には、制御部407は、たとえば、養蜂場における監視をおこなう場合、撮影部403によって撮影された画像に、養蜂場における監視をおこなう場合、巣箱を抱えている熊や、箱型または板状の物体を運搬している人間などが含まれるか否かを判断する。 Specifically, the control unit 407 is, for example, a bear holding a hive or a box type when monitoring an image taken by the photographing unit 403 in the apiary when monitoring in the apiary. Or, it is determined whether or not a person carrying a plate-shaped object is included.

あるいは、制御部407は、撮影部403によって撮影された画像、および、取得部404によって取得された音声に基づいて、監視対象を認識してもよい。具体的には、制御部407は、たとえば、養豚場における監視において、熊が撮影され、かつ、豚の叫び声が集音された場合に、当該熊を監視対象として認識してもよい。 Alternatively, the control unit 407 may recognize the monitoring target based on the image captured by the imaging unit 403 and the sound acquired by the acquisition unit 404. Specifically, the control unit 407 may recognize the bear as a monitoring target when the bear is photographed and the cry of the pig is collected, for example, in the monitoring in the pig farm.

制御部407は、AI機能を備えることで、監視対象を学習することができる。近年は、人工知能を搭載したコンピュータの小型化が進んでおり、人工知能を搭載した制御回路207(コンピューター)であっても、飛行型ロボット1001を円滑に飛行させることができる。制御部407は、さらに、別の飛行型ロボット1001と通信をおこなうことによって、農場などへの被害をおよぼした鳥獣や人間の特徴や画像を共有してもよく、共有した情報に基づいて学習してもよい。 The control unit 407 can learn the monitoring target by providing the AI function. In recent years, the miniaturization of computers equipped with artificial intelligence has progressed, and even a control circuit 207 (computer) equipped with artificial intelligence can smoothly fly the flying robot 1001. The control unit 407 may further share the characteristics and images of birds and beasts and humans that have caused damage to farms and the like by communicating with another flight-type robot 1001, and learn based on the shared information. You may.

監視対象は、農産物に接触したものに限らず、農場に侵入した鳥獣や人間、あるいは、農場から所定範囲内に立ち入った鳥獣や人間であってもよい。これにより、農産物が実際に被害にあうまえに、監視対象を認識し、音声や発光による警告をおこなうなどの対策をとることができる。 The monitoring target is not limited to those that come into contact with agricultural products, and may be birds and beasts and humans that have invaded the farm, or birds and beasts and humans that have entered within a predetermined range from the farm. As a result, it is possible to take measures such as recognizing the monitoring target and giving a warning by voice or light emission before the agricultural product is actually damaged.

画像の撮影および監視対象の認識は、あらかじめ設定された時間帯にのみおこなうようにしてもよい。具体的には、たとえば、「18:00から07:00の間」、「日の出から日没までの間」のように設定することができる。日の出時刻や日没時刻は、取得部404によりネットワークNを介した通信をおこなうことによって取得することができる。 The image may be taken and the monitoring target may be recognized only in a preset time zone. Specifically, for example, it can be set as "between 18:00 and 07:00" and "between sunrise and sunset". The sunrise time and the sunset time can be acquired by performing communication via the network N by the acquisition unit 404.

画像の撮影および監視対象の認識は、飛行型ロボット1001に対する所定の入力操作を受け付けてから、当該所定の入力操作を無効とする操作を受け付けるまでの間にのみおこなうようにしてもよい。あるいは、画像の撮影および監視対象の認識は、たとえば、スマートフォンなどから飛行型ロボット1001に対して送信された所定の信号を受け付けてから、当該所定の信号による動作を無効とする信号を受け付けるまでの間にのみおこなうようにしてもよい。 The image capture and the recognition of the monitoring target may be performed only between the time when the predetermined input operation for the flight robot 1001 is received and the time when the operation for invalidating the predetermined input operation is received. Alternatively, the image capture and the recognition of the monitoring target are performed from receiving a predetermined signal transmitted from a smartphone or the like to the flight robot 1001 to receiving a signal invalidating the operation by the predetermined signal. It may be done only in the meantime.

具体的には、たとえば、毎日、農場などでの業務が終了したタイミングで、当該農場の労働者が飛行型ロボット1001に対して所定の入力操作をおこない、画像の撮影および監視対象の認識を有効にし、翌日に農場での作業を開始するタイミングで、当該労働者が当該所定の入力操作を無効とする操作をおこなうような運用をとることができる。これにより、季節などの条件に応じて日々労働時間が変動するような場合にも、労働の態様に応じて、農場などの監視を適切におこなうことができる。 Specifically, for example, every day, at the timing when the work on the farm is completed, the worker of the farm performs a predetermined input operation on the flight robot 1001, and it is effective to take an image and recognize the monitoring target. Then, at the timing when the work on the farm is started the next day, the worker can perform an operation for invalidating the predetermined input operation. As a result, even when working hours fluctuate daily depending on conditions such as seasons, it is possible to appropriately monitor farms and the like according to the mode of work.

あるいは、画像の撮影および監視対象の認識は、終日おこない、監視対象の認識にともなう音声や発光による警告をおこなうなどの対策の動作は、あらかじめ設定された時間帯にのみおこなうようにしてもよい。これにより、たとえば、日中は、農場において日中に作業している労働者などを学習し、夜間にのみ、農産物を食い荒らす鳥獣や農産物を盗む泥棒などへの警告をおこなうことができる。 Alternatively, the image capture and the recognition of the monitoring target may be performed all day, and the action of measures such as giving a warning by voice or light emission accompanying the recognition of the monitoring target may be performed only in a preset time zone. As a result, for example, during the daytime, it is possible to learn the workers working on the farm during the daytime and warn the birds and beasts that devour the agricultural products and the thieves who steal the agricultural products only at night.

また、日中も画像の撮影をおこなうことにより、たとえば、日中に、窃盗のための下見に訪れた泥棒を、明るい状態で鮮明な画像で撮影することができるので、下見の後に窃盗があった場合は、鮮明な画像を用いて犯人の特定をおこなうことができる。このように、飛行型ロボット1001を監視カメラのように利用することにより、近隣の防犯体制を強化することができる。また、労働者などを学習することにより、当該労働者が何らかの用事のために夜間に農場を訪れた場合に、不要な警告をおこなわないようにすることもできる。 Also, by taking an image during the day, for example, a thief who visited for a preview for theft during the day can be taken with a clear image in a bright state, so there is a theft after the preview. In that case, the criminal can be identified by using a clear image. In this way, by using the flying robot 1001 like a surveillance camera, it is possible to strengthen the crime prevention system in the neighborhood. In addition, by learning a worker or the like, it is possible to prevent an unnecessary warning from being given when the worker visits the farm at night for some errand.

制御部407は、撮影部403によって撮影された画像に基づいて、当該画像中に監視対象を認識した場合、駆動部405を制御して当該対象物に接近するように飛行型ロボット101を飛行させる。また、制御部407は、撮影部403によって撮影された画像に基づいて、当該画像中に監視対象を認識した場合、撮影された監視対象の画像を記憶部401に記憶してもよい。 When the control unit 407 recognizes a monitoring target in the image based on the image captured by the imaging unit 403, the control unit 407 controls the drive unit 405 to fly the flying robot 101 so as to approach the object. .. Further, when the control unit 407 recognizes the monitoring target in the image based on the image captured by the photographing unit 403, the captured image of the monitoring target may be stored in the storage unit 401.

制御部407は、撮影部403によって撮影された画像に基づいて、当該画像中に監視対象を認識した場合、当該監視対象の全方位からの画像を撮影するように、飛行型ロボット101を飛行させてもよい。そして、監視対象を全方位から撮影した画像を、記憶部401に記憶してもよい。 When the control unit 407 recognizes the monitoring target in the image based on the image captured by the photographing unit 403, the control unit 407 flies the flight robot 101 so as to acquire an image from all directions of the monitoring target. You may. Then, an image of the monitored object taken from all directions may be stored in the storage unit 401.

制御部407は、駆動部405を制御することによって、監視対象から一定の間隔を空けた位置まで接近するように飛行してもよい。具体的には、監視対象が飛行型ロボット1001に触れることができない間隔を空けた位置まで接近するように、駆動部405を制御する。これにより、監視対象から飛行型ロボット1001に対して衝撃が加えられるなどして、飛行型ロボット1001が破損することを回避できる。 By controlling the drive unit 405, the control unit 407 may fly so as to approach a position at a certain interval from the monitored object. Specifically, the drive unit 405 is controlled so that the monitored object approaches to a position at a distance where the flight robot 1001 cannot be touched. As a result, it is possible to prevent the flying robot 1001 from being damaged due to an impact being applied to the flying robot 1001 from the monitoring target.

カメラ103を一体に備える飛行型ロボット101は、監視対象を撮影しやすい位置に自律飛行することができる。これにより、たとえば、カメラの位置や、周辺の樹木や家屋などの位置などの環境的な要因に左右されることなく、死角なく監視対象を撮影することができる。これにより、設置型のカメラによって撮影された画像に基づいて、ドローンを飛行させるような従来の技術と比較して、監視対象を確実に撮影することができる。 The flight-type robot 101 integrally equipped with the camera 103 can autonomously fly to a position where it is easy to photograph the monitored object. As a result, it is possible to shoot the monitored object without blind spots without being influenced by environmental factors such as the position of the camera and the positions of surrounding trees and houses. This makes it possible to reliably capture the monitored object based on the image captured by the stationary camera, as compared with the conventional technique of flying a drone.

また、カメラ103を一体に備える飛行型ロボット101は、カラスを確実に撮影する位置まで自律飛行することができる。これにより、設置型のカメラによって撮影された画像に基づいて、ドローンを飛行させることによって、ゴミ集積場などからカラスを追い払うようにした従来の技術と比較して、カラスを見失うことを回避し、カラスを確実に撮影し、ゴミ集積場から効果的にカラスを追い払うことができる。 In addition, the flight-type robot 101 integrally equipped with the camera 103 can autonomously fly to a position where the crow is reliably photographed. This avoids losing sight of crows compared to conventional techniques that try to drive crows away from garbage dumps, etc. by flying a drone based on images taken by a stationary camera. You can reliably shoot crows and effectively drive them away from the garbage collection area.

発明者は、農場などの所定の範囲における監視対象の有無を監視し、当該監視対象に所定の範囲からの退散を促すように動作する飛行型ロボット101を『ドロガード』と名付けた。また、発明者は、農場などの所定の範囲における監視対象の有無を監視し、当該監視対象が所定の範囲内に存在したことの証拠を残すように動作する飛行型ロボット101を『ドロ・ボー』ないし『ドロウォッチャー』と名付けた。 The inventor has named the flying robot 101 "Droguard", which monitors the presence or absence of a monitoring target in a predetermined range such as a farm and operates to encourage the monitoring target to leave the predetermined range. In addition, the inventor has described a flying robot 101 that operates to monitor the presence or absence of a monitoring target in a predetermined range such as a farm and leave evidence that the monitoring target exists within the predetermined range. I named it "Doro Watcher".

制御部407は、駆動部405を制御して当該対象物に接近するように飛行型ロボット101を飛行させながら、所定のプロセスを実行してもよい。たとえば、図2に示したスピーカー204によって出力部406を実現する場合、制御部407は、出力部406を制御することによって、盗難を注意または警告する発話を録音した音声を出力したり、盗難を注意または警告する発話を模した合成音声を出力したりする動作によって、所定のプロセスを実現することができる。盗難を注意または警告する発話は、複数パターン設定されていてもよい。 The control unit 407 may execute a predetermined process while controlling the drive unit 405 to fly the flight-type robot 101 so as to approach the object. For example, when the output unit 406 is realized by the speaker 204 shown in FIG. 2, the control unit 407 controls the output unit 406 to output a voice recording an utterance to warn or warn of the theft, or to prevent the theft. A predetermined process can be realized by an operation such as outputting a synthetic voice imitating a caution or warning utterance. Multiple patterns may be set for utterances that warn or warn of theft.

また、制御部407は、出力部406を制御することによって、たとえば、サイレン、警笛、号笛またはホイッスルの音声(録音された音声)、または、これらのうちの少なくともいずれかの音声を模した合成音声を出力したりする動作によって、所定のプロセスを実現してもよい。 Further, the control unit 407 controls the output unit 406, for example, a voice of a siren, a horn, a whistle or a whistle (recorded voice), or a synthesis imitating at least one of these voices. A predetermined process may be realized by an operation such as outputting voice.

制御部407は、音圧レベルが80dB以上の音声を出力することが好ましい。または、制御部407は、ラウドネスレベルが90フォン以上の音声を出力することが好ましい。たとえば、救急車などの緊急車両に対しては、緊急車両の前方20メートルの位置で音量を測定して、90フォン以上の音を出力できるサイレンを搭載することが法定されている。このような大きさの音声を出力することにより、監視対象の存在を広く周知することができ、農産物などの被害を未然に防止する、または、被害の一層の拡大を抑制する効果を期待することができる。 The control unit 407 preferably outputs sound having a sound pressure level of 80 dB or more. Alternatively, the control unit 407 preferably outputs voice having a loudness level of 90 phones or higher. For example, it is stipulated that an emergency vehicle such as an ambulance should be equipped with a siren capable of measuring the volume at a position 20 meters in front of the emergency vehicle and outputting a sound of 90 phones or more. By outputting audio of such a magnitude, the existence of the monitoring target can be widely known, and it is expected to have the effect of preventing damage to agricultural products, etc., or suppressing the further spread of damage. Can be done.

スピーカー204が指向性スピーカーである場合、騒々しい環境であっても、カメラ103により監視対象の位置を確認しながら飛行することで、必要な方向のみに音声を発することができる。これにより、夜間であっても、スピーカー204が発する音声によって周辺の住民などに迷惑をかけることなく、確実に監視対象に音声を届けることができる。 When the speaker 204 is a directional speaker, even in a noisy environment, by flying while confirming the position of the monitoring target by the camera 103, it is possible to emit sound only in a necessary direction. As a result, even at night, the sound emitted from the speaker 204 can be reliably delivered to the monitored target without causing any inconvenience to the surrounding residents.

特に、農産物などを盗難している人間は、犯行が露呈しないように非常に緊張した心理状況であるため、突然の大音量の音声を出力することで、監視対象である犯罪者に「犯行が露呈してしまった」、「自分の存在が明らかになってしまった」と思わせることができる。これにより、犯罪者による窃盗の犯行を継続しにくくして、農産物などの被害を未然に防止する、または、被害の一層の拡大を抑制することができる。 In particular, humans who have stolen agricultural products are in a very tense psychological situation so that the crime is not exposed. It can make you think that "it has been exposed" and "your existence has been revealed". As a result, it is possible to make it difficult for a criminal to continue the crime of theft, prevent damage to agricultural products, or prevent further spread of damage.

また、たとえば、図1や図2に示したLEDランプ104によって出力部406を実現する場合、制御部407は、出力部406を制御することによって、光源(LEDランプ104)を点灯させたり点滅させたりする動作によって、所定のプロセスを実現することができる。 Further, for example, when the output unit 406 is realized by the LED lamp 104 shown in FIGS. 1 and 2, the control unit 407 turns on or blinks the light source (LED lamp 104) by controlling the output unit 406. A predetermined process can be realized by such an operation.

監視対象が鳥獣である場合は、制御部407は、たとえば、複数箇所に設けられたLEDランプ104群を、光が回転しているかのように順次点灯させたり、炎の色に近づけた色で発光させるように、出力部406を制御する。このように、自然界にはないような人工的な動作をすることにより、農場などの所定の範囲から鳥獣を敬遠させることができる。 When the monitoring target is a bird or beast, the control unit 407, for example, turns on the LED lamps 104 group provided at a plurality of places in sequence as if the light is rotating, or uses a color close to the color of the flame. The output unit 406 is controlled so as to emit light. In this way, it is possible to keep birds and beasts away from a predetermined range such as a farm by performing an artificial movement that does not exist in the natural world.

監視対象が窃盗を目的とする人間である場合は、制御部407は、たとえば、LEDランプ104を白色で発光させるように、出力部406を制御する。これにより、監視対象や監視対象の周囲を極めて明るく照らすことができ、監視対象を鮮明に撮影することができる。 When the monitored object is a human being for the purpose of theft, the control unit 407 controls the output unit 406 so that the LED lamp 104 emits white light, for example. As a result, the monitored object and the surroundings of the monitored object can be illuminated extremely brightly, and the monitored object can be clearly photographed.

制御部407は、LEDランプ104などの光源を、所定の閾値以上の光束の光で発光させることが好ましい。光束は、LEDランプ104自体の明るさであり、単位時間あたりの光の量を示すルーメン(単位:lm)であらわすことができる。また、LEDランプ104自体の明るさは、カンデラ(単位cd)であらわされる、特定の方向への光の強さ(光度)に基づいて特定してもよい。 The control unit 407 preferably causes a light source such as an LED lamp 104 to emit light having a luminous flux equal to or higher than a predetermined threshold value. The luminous flux is the brightness of the LED lamp 104 itself, and can be expressed in lumens (unit: lm) indicating the amount of light per unit time. Further, the brightness of the LED lamp 104 itself may be specified based on the intensity (luminous intensity) of light in a specific direction, which is represented by a candela (unit: cd).

また、制御部407は、LEDランプ104自体の明るさではなく、照らされた場所の明るさ、すなわち、照度(単位:lx)で特定してもよい。この場合、制御部407は、LEDランプ104を点灯させることによって明るくなった場所の照度が、所定の閾値に満たなければ、対象に近づいたり、LEDランプ104をより明るく発光させたりする。 Further, the control unit 407 may specify not the brightness of the LED lamp 104 itself but the brightness of the illuminated place, that is, the illuminance (unit: lux). In this case, if the illuminance of the place brightened by turning on the LED lamp 104 does not meet a predetermined threshold value, the control unit 407 approaches the target or causes the LED lamp 104 to emit light brighter.

窃盗を目的としてその行為におよぶ人間(すなわち、犯罪者)は、一般的に、明るい環境を好まず、暗い場所で行為をおこなう傾向にある。その理由の一つとして、暗い場所は、見通しが悪いために他者の目が届きにくく、仮に存在を察知されたとしても視認性自体が低く人物や窃盗の行為を特定されにくいということがある。また、別の理由として、暗い場所には、常識的に、一般の人間は存在していないということがある。 Humans (ie, criminals) who engage in the act for the purpose of theft generally do not like a bright environment and tend to act in a dark place. One of the reasons is that in a dark place, it is difficult for others to see because of poor visibility, and even if the existence is detected, the visibility itself is low and it is difficult to identify the person or the act of theft. .. Another reason is that, in common sense, there are no ordinary human beings in dark places.

飛行型ロボット1001においては、LEDランプ104を白色で発光させることにより、監視対象を鮮明に撮影することができることに加えて、監視対象に「犯行が露呈してしまった」、「自分の存在が明らかになってしまった」と思わせることができる。これにより、犯罪者による窃盗の犯行を継続しにくくして、農産物などの被害を未然に防止する、または、被害の一層の拡大を抑制することができる。 In the flight-type robot 1001, by making the LED lamp 104 emit white light, in addition to being able to clearly photograph the monitored object, "the crime has been revealed" and "my existence is present" to the monitored object. It has become clear. " As a result, it is possible to make it difficult for a criminal to continue the crime of theft, prevent damage to agricultural products, or prevent further spread of damage.

また、LEDランプ104を白色で発光させることにより、犯罪者および犯罪者の周囲のみを明るくして、犯罪者の足下など、犯罪者の周辺の状況を視認しにくくすることができる。これにより、犯罪者の逃げ足を鈍くすることができ、犯罪者が現場から逃走する前に、現場において犯罪者を取り押さえることが期待できる。 Further, by making the LED lamp 104 emit white light, it is possible to brighten only the criminal and the surroundings of the criminal, and make it difficult to visually recognize the situation around the criminal such as the feet of the criminal. As a result, the criminal's escape can be slowed down, and it can be expected that the criminal will be arrested at the scene before the criminal escapes from the scene.

制御部407は、農場およびその周辺などの所定の範囲内に監視対象がいなくなった場合、駆動部405を制御して、ステーション301に帰還するように飛行型ロボット101を飛行させる。また、制御部407は、バッテリー201の残量が所定量以下となった場合に、駆動部405を制御して、ステーション301に帰還するように飛行型ロボット101を飛行させてもよい。 When the monitoring target disappears within a predetermined range such as the farm and its surroundings, the control unit 407 controls the drive unit 405 to fly the flight robot 101 so as to return to the station 301. Further, the control unit 407 may control the drive unit 405 to fly the flight-type robot 101 so as to return to the station 301 when the remaining amount of the battery 201 becomes equal to or less than a predetermined amount.

同一の農場などを複数の飛行型ロボット1001によって監視する場合、バッテリー201の残量が所定量以下となった場合に、他の飛行型ロボット1001に対して、応援要請を出力してもよい。応援要請は、応援要請の出力元の飛行型ロボット1001の現在位置に関する情報を含む。 When monitoring the same farm or the like with a plurality of flying robots 1001, when the remaining amount of the battery 201 becomes a predetermined amount or less, a support request may be output to the other flying robot 1001. The support request includes information regarding the current position of the flight-type robot 1001 from which the support request is output.

応援要請は、応援要請の出力日時に関する情報を含んでいてもよい。応援要請は、応援要請の出力元の飛行型ロボット1001の識別情報を含んでいてもよい。応援要請は、応援要請の出力元の飛行型ロボット1001が撮影した画像に関する情報を含んでいてもよい。画像に関する情報は、画像自体であってもよく、当該画像が記憶されているクラウドネットワーク上の記憶場所を示すURLなどであってもよい。 The support request may include information regarding the output date and time of the support request. The support request may include identification information of the flight-type robot 1001 from which the support request is output. The support request may include information about an image taken by the flight-type robot 1001 that is the output source of the support request. The information about the image may be the image itself, or may be a URL indicating a storage location on the cloud network in which the image is stored.

飛行型ロボット1001は、他の飛行型ロボット1001からの応援要請を受信した場合、当該応援要請に含まれる現在位置に関する情報に基づいて、応援要請の出力元の飛行型ロボット1001の位置まで飛行する。応援要請の出力元の飛行型ロボット1001は、応援要請を受信した飛行型ロボット1001が飛来するまで、応援要請の出力元の飛行型ロボット1001の現在位置に関する情報を出力しつづけてもよい。 When the flight robot 1001 receives a support request from another flight robot 1001, the flight robot 1001 flies to the position of the flight robot 1001 from which the support request is output, based on the information regarding the current position included in the support request. .. The flight robot 1001 from which the support request is output may continue to output information regarding the current position of the flight robot 1001 from which the support request is output until the flight robot 1001 that has received the support request arrives.

これにより、先に監視対象を認識した飛行型ロボット1001のバッテリー201の残量が低下した場合にも、他の飛行型ロボット1001に応援要請することで、引き続いて監視対象を監視し、画像を撮影することができる。このように、複数の飛行型ロボット1001を用いて、同一の農場などを監視することにより、より確実に監視対象を監視することができる。 As a result, even if the remaining battery level of the flight robot 1001 that has previously recognized the monitoring target is low, by requesting support from another flight robot 1001, the monitoring target is continuously monitored and an image is displayed. You can shoot. In this way, by monitoring the same farm or the like using a plurality of flight-type robots 1001, it is possible to more reliably monitor the monitoring target.

(飛行型ロボット101の処理手順)
つぎに、飛行型ロボット101の処理手順について説明する。図11は、この発明にかかる実施の形態2の飛行型ロボット101の処理手順を示すフローチャートである。図11のフローチャートにおいて、まず、生体を検出するまで待機する(ステップS1101:No)。ステップS1101においては、たとえば、ステーション301などに停止した状態で待機する。
(Processing procedure of flying robot 101)
Next, the processing procedure of the flight type robot 101 will be described. FIG. 11 is a flowchart showing a processing procedure of the flight-type robot 101 according to the second embodiment of the present invention. In the flowchart of FIG. 11, first, it waits until a living body is detected (step S1101: No). In step S1101, for example, the station waits in a state of being stopped at a station 301 or the like.

ステップS1101においては、たとえば、図2に示した対物センサー206(赤外線センサー)を用いて、生体を検出する。また、ステップS1101においては、たとえば、図2に示したマイク203を用いて集音した音に基づいて生体を検出してもよい。また、ステップS1101においては、たとえば、図1や図2に示したカメラ103を用いて撮影した画像に基づいて生体を検出してもよい。生体の検出は、1種類の方法でおこなうものに限らず、複数種類の方法を用いておこなってもよい。これにより、高い精度で、生体を検出することができる。 In step S1101, for example, the objective sensor 206 (infrared sensor) shown in FIG. 2 is used to detect a living body. Further, in step S1101, for example, the living body may be detected based on the sound collected by using the microphone 203 shown in FIG. Further, in step S1101, for example, the living body may be detected based on the image taken by the camera 103 shown in FIGS. 1 and 2. The detection of a living body is not limited to one method, and may be performed by a plurality of methods. This makes it possible to detect a living body with high accuracy.

ステップS1101において、生体を検出した場合(ステップS1101:Yes)、飛行を開始し(ステップS1102)、画像の撮影を開始する(ステップS1103)。なお、生体の検出や、生体の検出のための画像の撮影は、ステーション301に待機しながらおこなうものに限らず、常時、農場などの所定の範囲内を巡回飛行しながらおこなってもよい。この場合、ステップS1102やステップS1103の処理はなく、生体を検出する前から飛行を開始し、画像を撮影している。 When a living body is detected in step S1101 (step S1101: Yes), flight is started (step S1102), and image shooting is started (step S1103). The detection of a living body and the acquisition of an image for detecting a living body are not limited to those performed while waiting at the station 301, and may be performed while constantly patrolling within a predetermined range such as a farm. In this case, there is no processing in step S1102 or step S1103, and the flight is started before the living body is detected and the image is taken.

つぎに、撮影された画像に基づいて、監視対象を認識したか否かを判断する(ステップS1104)。ステップS1104において、監視対象を認識していない場合(ステップS1104:No)、監視対象を認識するまで、移動しながら画像の撮影を継続し、撮影された画像の解析をおこなう。 Next, it is determined whether or not the monitoring target is recognized based on the captured image (step S1104). When the monitoring target is not recognized in step S1104 (step S1104: No), the image is continuously captured while moving until the monitoring target is recognized, and the captured image is analyzed.

ステップS1104において、監視対象を認識していない場合は、LEDランプ104を発光させ、周囲を明るく照らしてもよい。これにより、たとえば、監視対象が鳥獣であれば、鳥獣を驚かせて、農場などから退散させることが期待できる。また、監視対象が農産物の窃盗を目的とした犯罪者であれば、明るく照らすことにより、反射的に顔を隠す、身を隠すなどの動作をすることが十分に想定されるため、撮影された画像における監視対象を見つけやすくすることができる。 If the monitoring target is not recognized in step S1104, the LED lamp 104 may be made to emit light to illuminate the surroundings brightly. As a result, for example, if the monitoring target is a bird or beast, it can be expected that the bird or beast will be surprised and dismissed from the farm or the like. Also, if the subject of surveillance is a criminal whose purpose is to steal agricultural products, it is fully assumed that by illuminating it brightly, it will reflexively hide its face, hide itself, etc., so it was photographed. It is possible to make it easier to find the monitoring target in the image.

一方、ステップS1104において、監視対象を認識した場合(ステップS1104:Yes)、撮影された画像の記録を開始する(ステップS1105)。ステップS1105においては、撮影された画像は、たとえば、図2に示した制御回路207におけるメモリに記憶する。 On the other hand, when the monitoring target is recognized in step S1104 (step S1104: Yes), recording of the captured image is started (step S1105). In step S1105, the captured image is stored in, for example, the memory in the control circuit 207 shown in FIG.

カメラ103によって撮影された画像は、監視対象を認識した場合のみならず、全て記録するようにしてもよい。この場合、撮影された画像を、たとえば、図2に示した制御回路207におけるメモリに記憶し、メモリの容量が満杯になった場合は、古い日時の画像から、新しい日時の画像に上書きする。 The images taken by the camera 103 may be recorded not only when the monitoring target is recognized but also all. In this case, the captured image is stored in, for example, the memory in the control circuit 207 shown in FIG. 2, and when the memory capacity is full, the image of the old date and time is overwritten with the image of the new date and time.

あるいは、撮影された画像を、たとえば、図2に示した制御回路207におけるメモリに一旦記憶し、適宜、通信I/F209を介して、クラウドネットワーク上に記憶してもよい。図2に示した制御回路207におけるメモリに一旦記憶した画像は、クラウドネットワーク上に記憶された後、メモリから消去してもよく、メモリの容量が満杯になるまで記憶し続け、メモリの容量が満杯になったら、古い日時の画像から、新しい日時の画像に上書きするようにしてもよい。 Alternatively, the captured image may be temporarily stored in the memory of the control circuit 207 shown in FIG. 2, for example, and stored on the cloud network via the communication I / F 209 as appropriate. The image once stored in the memory in the control circuit 207 shown in FIG. 2 may be erased from the memory after being stored in the cloud network, and the image is continuously stored until the memory capacity is full, and the memory capacity is increased. When it is full, you may want to overwrite the image of the old date and time with the image of the new date and time.

つぎに、所定のプロセスを実行する(ステップS1106)。ステップS1106においては、たとえば、図2に示したスピーカー204から、盗難を注意または警告する発話を録音した音声を出力したり、盗難を注意または警告する発話を模した合成音声を出力したりする。 Next, a predetermined process is executed (step S1106). In step S1106, for example, the speaker 204 shown in FIG. 2 outputs a voice recording of an utterance that warns or warns of theft, or outputs a synthetic voice that imitates a utterance that warns or warns of theft.

盗難を注意または警告する発話が、複数パターン設定されている場合、ステップS1106においては、同じパターンの発話の音声を連続して出力するのではなく、複数パターンの発話の音声を組み合わせて出力してもよい。これにより、監視対象に対して、録音された音声ではなく、遠隔地で人間が監視し、リアルタイムで警告を発しているように思わせることができる。 When a plurality of patterns of utterances to warn or warn of theft are set, in step S1106, the voices of the same pattern of utterances are not output continuously, but the voices of the utterances of a plurality of patterns are combined and output. May be good. As a result, it is possible to make the monitored object appear to be monitored by a human at a remote location and issue a warning in real time instead of the recorded voice.

特に、監視対象が、農産物などの窃盗を目的とする犯罪者である場合、「すぐにでも、農場の関係者などの人間が自分を捕まえに来るのではないか」と思わせて、農産物などの被害を未然に防止する、または、被害の一層の拡大を抑制する効果を期待することができる。 In particular, if the object to be monitored is a criminal whose purpose is to steal agricultural products, etc. It can be expected to have the effect of preventing the damage caused by the disease or suppressing the further spread of the damage.

また、ステップS1106においては、たとえば、図2に示したスピーカー204から、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声を出力してもよい。また、ステップS1106においては、たとえば、図1や図2に示したLEDランプ104を、点灯させたり点滅させたりしてもよい。 Further, in step S1106, for example, the voice of a siren, a horn, a whistle or a whistle, or a synthetic voice imitating at least one of these voices may be output from the speaker 204 shown in FIG. good. Further, in step S1106, for example, the LED lamp 104 shown in FIGS. 1 and 2 may be turned on or blinked.

ステップS1106においては、図2に示したスピーカー204から音声を出力するプロセスと、図1や図2に示したLEDランプ104を発光させるプロセスとのいずれか一方のプロセスをおこなってもよく、両方のプロセスを並行しておこなってもよく、複数のプロセスを順番におこなってもよい。 In step S1106, either the process of outputting sound from the speaker 204 shown in FIG. 2 or the process of causing the LED lamp 104 shown in FIGS. 1 or 2 to emit light may be performed, or both processes may be performed. The processes may be performed in parallel, or a plurality of processes may be performed in sequence.

ステップS1106においておこなう所定のプロセスが、すべて、図2に示したスピーカー204から音声を出力するプロセスであっても、出力する音声を複数種類としてもよい。具体的には、たとえば、サイレンの音声を出力した後に、盗難を注意または警告する発話を録音した音声を出力してもよい。 The predetermined process performed in step S1106 may be a process of outputting sound from the speaker 204 shown in FIG. 2, or may have a plurality of types of sound to be output. Specifically, for example, after outputting the voice of the siren, the voice of recording the utterance to warn or warn of theft may be output.

ステップS1106においては、カメラ103によって撮影された画像を、たとえば、図2に示した通信I/F209を介して、特定のスマートフォンに設定された電子メールアドレスや、クラウドネットワーク上に設定された特定のURLなどの所定の宛先に宛てて送信するプロセスをおこなってもよい。 In step S1106, the image taken by the camera 103 is, for example, via the communication I / F 209 shown in FIG. 2, an e-mail address set on a specific smartphone, or a specific image set on the cloud network. A process of sending to a predetermined destination such as a URL may be performed.

そして、ステップS1104において認識した監視対象が、農場などの所定の範囲外へ移動したか否かを判断する(ステップS1107)。ステップS1107において、監視対象が所定の範囲外へ移動していない場合(ステップS1107:No)、ステップS1106へ移行して、所定のプロセスの実行を継続する。 Then, it is determined whether or not the monitoring target recognized in step S1104 has moved out of a predetermined range such as a farm (step S1107). If the monitoring target has not moved out of the predetermined range in step S1107 (step S1107: No), the process proceeds to step S1106 and the execution of the predetermined process is continued.

一方、監視対象が所定の範囲外へ移動した場合(ステップS1107:Yes)、ステーション301に帰還するように飛行して(ステップS1108)、一連の処理を終了する。なお、ステップS1108において、帰還中も画像の撮影をおこない、監視対象を認識した場合は、ステップS1105以降の処理をおこなうようにしてもよい。 On the other hand, when the monitoring target moves out of the predetermined range (step S1107: Yes), the flight returns to the station 301 (step S1108), and the series of processes is completed. In step S1108, if the image is taken during the return and the monitoring target is recognized, the processing after step S1105 may be performed.

あるいは、ステップS1108において、帰還中は対物センサー206やマイク203を用いて生体の検出をおこない、実際に生体を検出した場合に、ステップS1103以降の処理をおこなうようにしてもよい。 Alternatively, in step S1108, the living body may be detected by using the objective sensor 206 or the microphone 203 during the return, and when the living body is actually detected, the processing after step S1103 may be performed.

(飛行型ロボット101の利用態様の一例)
つぎに、飛行型ロボット1001の利用態様の一例について説明する。図12および図13は、この発明にかかる実施の形態2の飛行型ロボット1001の利用態様の一例を示す説明図である。
(Example of usage of the flight robot 101)
Next, an example of the usage mode of the flight robot 1001 will be described. 12 and 13 are explanatory views showing an example of a usage mode of the flight robot 1001 according to the second embodiment of the present invention.

飛行型ロボット1001およびステーション301は、監視する対象となる農場などの面積や、地形などに応じて、1台~複数台の任意の台数を配置する。具体的には、たとえば、監視する対象となる農場が広大であるほど、数多くの飛行型ロボット1001を配置する。 Arbitrary one to a plurality of flying robots 1001 and stations 301 are arranged according to the area of the farm or the like to be monitored, the terrain, and the like. Specifically, for example, the larger the farm to be monitored, the larger the number of flying robots 1001 will be placed.

飛行型ロボット1001の配置台数と、ステーション301の配置台数とは、同数でなくてもよい。具体的には、たとえば、飛行型ロボット1001の配置台数よりも、ステーション301の配置台数を多くしてもよい。これにより、飛行型ロボット1001は、最寄りのステーション301にすぐに移動することができるので、バッテリー201切れにより落下したり、犯罪者などを撮影し損なったりすることを回避できる。 The number of flying robots 1001 and the number of stations 301 may not be the same. Specifically, for example, the number of stations 301 may be larger than the number of flight robots 1001. As a result, the flying robot 1001 can immediately move to the nearest station 301, so that it is possible to avoid falling due to the battery 201 running out or failing to photograph a criminal or the like.

あるいは、具体的には、たとえば、飛行型ロボット1001の配置台数を、ステーション301の配置台数より少なくしてもよい。これにより、複数の飛行型ロボット1001が、交互に充電するように飛行させ、農場などの全体においてステーション301が待機中に消費する電力を少なく抑えることができる。 Alternatively, specifically, for example, the number of flight-type robots 1001 placed may be smaller than the number of stations 301 placed. As a result, the plurality of flight-type robots 1001 can be flown so as to be charged alternately, and the power consumed by the station 301 during standby can be suppressed to a low level in the entire farm or the like.

また、たとえば、図12に示すような果樹園などのように、枝葉1201aを張り巡らせた樹木1201が多数あり、見通しが利きにくい場所を監視する場合、面積がさほど大きくなくても、複数台の飛行型ロボット1001およびステーション301を配置することが好ましい。 Further, for example, when monitoring a place where there are many trees 1201 with branches and leaves 1201a and it is difficult to see, such as an orchard as shown in FIG. 12, even if the area is not so large, a plurality of trees are used. It is preferable to arrange the flying robot 1001 and the station 301.

また、果樹園においては、果物1201bが入っていると推定される箱1202を持っている人間(犯罪者)1203を、監視対象として認識する。図12においては、箱から果物1201bが見えている状態を示しているが、果物1201bなどの内容物が見えていない状態であっても、形状や運搬の姿勢から想定できる荷物の重さなどに基づいて推定してもよい。 Further, in the orchard, a human (criminal) 1203 having a box 1202 presumed to contain a fruit 1201b is recognized as a monitoring target. FIG. 12 shows a state in which the fruit 1201b is visible from the box, but even if the contents such as the fruit 1201b are not visible, the weight of the luggage that can be assumed from the shape and the posture of transportation and the like can be determined. It may be estimated based on.

これにより、犯罪者1203が樹木1201の陰になって監視が行き届かない、いわゆる死角をなくし、監視の信頼性を確保することができる。また、樹木1201の存在によって、犯罪者1203の周囲をうまく飛行できないような場合にも、複数台の飛行型ロボット1001により多方向から犯罪者1203を撮影することができるので、これによっても監視の信頼性を確保することができる。 As a result, it is possible to eliminate the so-called blind spot where the criminal 1203 is behind the tree 1201 and the monitoring is not perfect, and the reliability of the monitoring can be ensured. In addition, even if the presence of the tree 1201 makes it difficult to fly around the criminal 1203, the multiple flying robots 1001 can shoot the criminal 1203 from multiple directions. Reliability can be ensured.

また、たとえば、図13に示すような養豚場や鶏舎などのように、監視する対象物(豚1301や鶏など)が方々に点在し、かつ、それぞれがばらばらに移動するような場所を監視する場合、複数台の飛行型ロボット1001およびステーション301を配置することが好ましい。 In addition, for example, such as pig farms and poultry houses as shown in FIG. 13, monitoring places where objects to be monitored (such as pigs 1301 and chickens) are scattered around and each of them moves apart. If so, it is preferable to arrange a plurality of flying robots 1001 and stations 301.

これにより、たとえば、豚1301などの家畜や家禽の窃盗を目的とする犯罪者1203が侵入した養豚場や鶏舎などにおいて、家畜や家禽を追い回すことによって家畜や家禽がそれぞれ方々に逃げ回った場合にも、複数の飛行型ロボット1001がそれぞれ異なる方向を撮影するように飛行することで、犯罪者1203を見失うことなく画像を撮影することができる。 As a result, for example, in a pig farm or poultry house where a criminal 1203 for the purpose of stealing livestock or poultry such as pig 1301 has invaded, even if the livestock or poultry escapes to each person by chasing the livestock or poultry. By flying the plurality of flying robots 1001 so as to shoot in different directions, it is possible to shoot an image without losing sight of the criminal 1203.

複数の飛行型ロボット1001は、たとえば、通信I/F209を介して相互に通信をおこなうことによって連携することができる。あるいは、複数の飛行型ロボット1001のうちのいずれか1台が、残余の飛行型ロボット1001の飛行ルートや撮影方向を決定し、当該いずれか1台の飛行型ロボット1001から残余の飛行型ロボット1001へ飛行指示を送信するようにしてもよい。 The plurality of flight-type robots 1001 can cooperate with each other by, for example, communicating with each other via the communication I / F 209. Alternatively, any one of the plurality of flight-type robots 1001 determines the flight route and shooting direction of the remaining flight-type robot 1001, and the remaining flight-type robot 1001 is selected from the one of the flight-type robots 1001. You may send a flight instruction to.

以上説明したように、この発明にかかる実施の形態2の飛行型ロボット1001は、自自動操縦により飛行する無人航空機(ドローン)と、無人航空機に搭載されたカメラ103と、を備え、カメラ103によって撮影された画像に基づいて、犯罪者1203などの対象物を認識した場合、当該対象物に接近するように飛行することを特徴としている。 As described above, the flight-type robot 1001 according to the second embodiment according to the present invention includes an unmanned aerial vehicle (drone) flying by self-autopilot and a camera 103 mounted on the unmanned aerial vehicle, and is provided by the camera 103. When an object such as a criminal 1203 is recognized based on the captured image, it is characterized by flying so as to approach the object.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、カメラ103によって撮影された画像に基づいて認識した監視対象に接近するように飛行型ロボット1001を飛行させることができる。カメラ103によって撮影された画像に基づいて監視対象を認識することにより、赤外線センサーのみを用いて監視対象を検出する場合と比較して、精度よく監視対象を認識することができる。これにより、たとえば、別途、囮目的で設置された熱源など、監視対象以外の原因に惑わされることなく、確実に監視対象を監視することができる。 According to the flight-type robot 1001 of the second embodiment according to the present invention, the flight-type robot 1001 can be made to fly so as to approach the monitored object recognized based on the image taken by the camera 103. By recognizing the monitoring target based on the image taken by the camera 103, the monitoring target can be recognized more accurately than in the case where the monitoring target is detected only by using the infrared sensor. As a result, the monitored object can be reliably monitored without being confused by a cause other than the monitored object, such as a heat source separately installed for the purpose of decoy.

また、この発明にかかる実施の形態2の飛行型ロボット1001によれば、飛行型ロボット1001が一体にカメラ103を備えているため、監視対象を撮影しやすい位置に自律飛行することができる。これにより、たとえば、飛行型ロボット1001の周辺の樹木1201や建物などの構造などの環境的な要因に左右されることなく、死角なく監視対象を撮影することができる。そして、これにより、設置型のセンサーを用いて監視対象を検出し、検出結果に基づいてドローンを派遣するような従来の技術と比較して、簡易な構成によって、監視対象を確実に撮影し、監視することができる。 Further, according to the flight-type robot 1001 according to the second embodiment of the present invention, since the flight-type robot 1001 is integrally equipped with the camera 103, it is possible to autonomously fly to a position where it is easy to photograph the monitored object. Thereby, for example, the monitored object can be photographed without blind spots without being influenced by environmental factors such as the structure of trees 1201 and buildings around the flight robot 1001. As a result, the monitored object is detected using a stationary sensor, and the monitored object is reliably photographed with a simple configuration compared to the conventional technique of dispatching a drone based on the detection result. Can be monitored.

このように、この発明にかかる実施の形態2の飛行型ロボット1001によれば、簡易な構成によって、確実に監視対象を監視することができる。また、この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象に対して監視されていることを認識させ、監視対象の注意を喚起することができる。 As described above, according to the flight-type robot 1001 according to the second embodiment of the present invention, it is possible to reliably monitor the monitoring target with a simple configuration. Further, according to the flight-type robot 1001 of the second embodiment according to the present invention, it is possible to make the monitored object recognize that the monitored object is being monitored and to call the attention of the monitored object.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、カメラによって撮影された画像に基づいて監視対象を認識した場合、当該監視対象の全方位からの画像を撮影するように飛行することを特徴としている。 Further, when the flight-type robot 1001 according to the second embodiment of the present invention recognizes a monitoring target based on an image taken by a camera, the flying robot 1001 flies so as to capture an image from all directions of the monitoring target. It is characterized by.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象の全方位からの画像を撮影することにより、撮影された画像に基づいて、監視対象を確実に特定することができる。また、監視対象の全方位からの画像を撮影するために、監視対象の周囲を飛行するため、監視対象に対して監視されていることを確実に認識させ、監視対象の注意を喚起することができる。これにより、簡易な構成によって、確実に監視対象を監視することができる。 According to the flight-type robot 1001 according to the second embodiment of the present invention, by capturing an image from all directions of the monitored target, the monitored target can be reliably specified based on the captured image. In addition, in order to take images from all directions of the monitored object, it flies around the monitored object, so it is possible to make sure that the monitored object is aware that it is being monitored and to call the attention of the monitored object. can. As a result, it is possible to reliably monitor the monitoring target with a simple configuration.

特に、農産物などの盗難を目的として行動する犯罪者1203が監視対象である場合、当該監視対象に対して、監視および録画されていることを知らしめ、自らの犯行が気付かれており、証拠が取られていることを印象づけることで、盗難しようとした農産物などを置いて逃げるように誘導することができる。これにより、簡易な構成によって、農場における農産物への被害を防止することができる。 In particular, when a criminal 1203 who acts for the purpose of stealing agricultural products is the subject of surveillance, he / she is informed that the subject is being monitored and recorded, and his / her own crime is noticed, and the evidence is By impressing that it has been taken, it is possible to induce the stolen agricultural products to be placed and escaped. This makes it possible to prevent damage to agricultural products on the farm with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、あらかじめ設定された所定の範囲内においてカメラ103によって撮影された画像に基づいて、監視対象を認識することを特徴としている。 Further, the flight-type robot 1001 according to the second embodiment of the present invention is characterized in that it recognizes a monitoring target based on an image taken by a camera 103 within a predetermined range set in advance.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、無限に広大な範囲を監視対象とするのではなく、あらかじめ設定された所定の範囲内における監視対象を認識することにより、所望する範囲を確実に監視することができる。これにより、所定の範囲内における監視対象の監視精度を確保することができ、簡易な構成によって、確実に監視対象を監視することができる。 According to the flight-type robot 1001 of the second embodiment according to the present invention, it is desired by recognizing a monitoring target within a predetermined range set in advance, instead of targeting an infinitely wide range as a monitoring target. The range can be reliably monitored. As a result, it is possible to secure the monitoring accuracy of the monitoring target within a predetermined range, and it is possible to reliably monitor the monitoring target with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の範囲が、農場であることを特徴としている。 Further, the flight-type robot 1001 according to the second embodiment of the present invention is characterized in that a predetermined range is a farm.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、夜間などに無人となる農場への監視対象の侵入を、簡易な構成によって、確実に監視することができる。 According to the flight-type robot 1001 of the second embodiment according to the present invention, the intrusion of the monitored object into the farm, which becomes unmanned at night or the like, can be reliably monitored by a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、監視対象が、農場における農産物または当該農産物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴としている。 Further, the flying robot 1001 according to the second embodiment of the present invention is characterized in that the monitored object is a bird or a beast or a human who possesses or carries an agricultural product on a farm or an article presumed to be the agricultural product.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象を、農場における農産物または当該農産物と推定される物品を所持または運搬する、鳥獣または人間に限定して、夜間などに無人となる農場に侵入した監視対象を監視することにより、簡易な構成によって、確実に監視対象を監視することができる。 According to the flying robot 1001 of the second embodiment according to the present invention, the monitoring target is limited to birds and beasts or humans who possess or carry agricultural products or articles presumed to be the agricultural products on the farm, and are unmanned at night or the like. By monitoring the monitoring target that has invaded the farm, it is possible to reliably monitor the monitoring target with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の範囲が、作物栽培農場であることを特徴としている。 Further, the flying robot 1001 according to the second embodiment of the present invention is characterized in that a predetermined range is a crop cultivation farm.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、夜間など陽光がないためにほぼ確実に無人となることが多く、無人となることにより視認性の低下や治安の低下が懸念される作物栽培農場において、監視対象の侵入を、簡易な構成によって、確実に監視することができる。これにより、簡易な構成によって、安全かつ確実に、作物栽培農場における監視対象を監視することができる。 According to the flight-type robot 1001 of the second embodiment according to the present invention, it is almost certainly unmanned because there is no sunlight such as at night, and there is a concern that the unmanned operation may reduce visibility and security. Invasion of the monitored object can be reliably monitored by a simple configuration in a crop cultivation farm. As a result, it is possible to safely and reliably monitor the monitoring target in the crop cultivation farm with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、監視対象が、作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴としている。 Further, the flying robot 1001 according to the second embodiment of the present invention is characterized in that the monitored object is a bird or beast or a human who possesses or carries a cultivated crop on a crop cultivation farm or an article presumed to be the cultivated crop. It is supposed to be.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象を、作物栽培農場における作物栽培または当該作物栽培と推定される物品を所持または運搬する、鳥獣または人間に限定して、夜間などにはほぼ確実に無人となる作物栽培農場に侵入した監視対象を監視することにより、簡易な構成によって、確実に監視対象を監視することができる。すなわち、監視対象を限定することにより、監視対象の認識にかかる処理負担の軽減を図り、監視対象を迅速に認識することができるので、簡易な構成によって、確実に監視対象を監視することができる。 According to the flying robot 1001 of the second embodiment according to the present invention, the monitoring target is limited to the birds and beasts or human beings who carry or carry the crop cultivation on the crop cultivation farm or the article presumed to be the crop cultivation. By monitoring the monitoring target that has invaded the crop cultivation farm, which is almost certainly unmanned at night, it is possible to reliably monitor the monitoring target with a simple configuration. That is, by limiting the monitoring target, the processing load on the recognition of the monitoring target can be reduced and the monitoring target can be recognized quickly. Therefore, the monitoring target can be reliably monitored by a simple configuration. ..

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の範囲が、畜産農場であることを特徴としている。 Further, the flight-type robot 1001 according to the second embodiment of the present invention is characterized in that a predetermined range is a livestock farm.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視範囲を畜産農場に限定し、当該畜産農場内を監視することにより、監視対象の侵入を、簡易な構成によって、確実に監視することができる。これにより、夜間などに無人となることが多く、また家畜や家禽の立てる音により気づきづらい畜産農場への監視対象の侵入を、簡易な構成によって、確実に監視することができる。 According to the flight-type robot 1001 of the second embodiment according to the present invention, the monitoring range is limited to the livestock farm, and the intrusion of the monitored target is reliably monitored by a simple configuration by monitoring the inside of the livestock farm. can do. As a result, it is possible to reliably monitor the invasion of the monitored object into the livestock farm, which is often unmanned at night and is difficult to notice due to the noise of livestock and poultry, with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、監視対象が、畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する、鳥獣または人間であることを特徴としている。 Further, in the flying robot 1001 of the second embodiment according to the present invention, the monitoring target is a livestock or poultry on a livestock farm, or a bird or beast or a human who possesses or carries an article presumed to be the livestock or poultry. It is characterized by that.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象を、畜産農場における家畜や家禽または当該家畜や家禽と推定される物品を所持または運搬する、鳥獣または人間に限定して、夜間などに無人となる畜産農場に侵入した監視対象を監視することにより、簡易な構成によって、確実に監視対象を監視することができる。すなわち、監視対象を限定することにより、監視対象の認識にかかる処理負担の軽減を図り、監視対象を迅速に認識することができるので、簡易な構成によって、確実に監視対象を監視することができる。 According to the flying robot 1001 of the second embodiment according to the present invention, the monitoring target is limited to livestock and poultry on a livestock farm or birds and beasts or humans who possess or carry articles presumed to be livestock or poultry. By monitoring the monitoring target that has invaded an unmanned livestock farm at night, etc., it is possible to reliably monitor the monitoring target with a simple configuration. That is, by limiting the monitoring target, the processing load on the recognition of the monitoring target can be reduced and the monitoring target can be recognized quickly. Therefore, the monitoring target can be reliably monitored by a simple configuration. ..

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の範囲が、養蜂場であることを特徴としている。 Further, the flight-type robot 1001 according to the second embodiment of the present invention is characterized in that a predetermined range is an apiary.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視範囲を養蜂場に限定し、当該養蜂場内を監視することにより、監視対象の侵入を、簡易な構成によって、確実に監視することができる。これにより、夜間などに無人となることが多い養蜂場への監視対象の侵入を、簡易な構成によって、確実に監視することができる。 According to the flight-type robot 1001 according to the second embodiment of the present invention, the monitoring range is limited to the apiary, and the inside of the apiary is monitored to reliably monitor the intrusion of the monitored object with a simple configuration. be able to. This makes it possible to reliably monitor the intrusion of the monitored object into the apiary, which is often unmanned at night, with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、監視対象が、養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する、鳥獣または人間であることを特徴としている。 Further, the flying robot 1001 according to the second embodiment of the present invention is characterized in that the monitored object is a bird or beast or a human who possesses or carries a hive used for beekeeping or an article presumed to be the hive.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象を、養蜂場に用いる巣箱または当該巣箱と推定される物品を所持または運搬する、鳥獣または人間に限定して、夜間などに無人となる養蜂場に侵入した監視対象を監視することにより、簡易な構成によって、確実に監視対象を監視することができる。すなわち、監視対象を限定することにより、監視対象の認識にかかる処理負担の軽減を図り、監視対象を迅速に認識することができるので、簡易な構成によって、確実に監視対象を監視することができる。 According to the flying robot 1001 of the second embodiment according to the present invention, the monitoring target is limited to birds and beasts or humans who possess or carry a hive used for an apiary or an article presumed to be the hive, such as at night. By monitoring the monitoring target that has invaded the unmanned apiary, it is possible to reliably monitor the monitoring target with a simple configuration. That is, by limiting the monitoring target, the processing load on the recognition of the monitoring target can be reduced and the monitoring target can be recognized quickly. Therefore, the monitoring target can be reliably monitored by a simple configuration. ..

また、この発明にかかる実施の形態2の飛行型ロボット1001は、あらかじめ設定された時間帯にカメラ103によって撮影された画像に基づいて、監視対象を認識した場合、当該監視対象に接近するように飛行することを特徴としている。 Further, when the flight-type robot 1001 according to the second embodiment of the present invention recognizes a monitoring target based on an image taken by the camera 103 in a preset time zone, the flight-type robot 1001 approaches the monitoring target. It is characterized by flying.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、あらかじめ設定された時間帯にカメラ103によって撮影された画像に基づいて監視対象を認識することにより、たとえば、業務の都合など正当性や必要性がある人物などを監視対象から除外し、夜間などの無人となる時間帯において監視をおこなうことができる。このように、監視期間を限定することで、正当性や必要性がある人物などを監視対象から除外することができるので、不要な監視をおこなうことによる監視対象の認識にかかる処理負担の軽減を図り、簡易な構成によって、確実に監視対象を監視することができる。 According to the flight-type robot 1001 of the second embodiment according to the present invention, by recognizing the monitoring target based on the image taken by the camera 103 in the preset time zone, for example, the legitimacy such as the convenience of business. It is possible to exclude people who have a need or need from the monitoring target, and to monitor during unmanned hours such as at night. In this way, by limiting the monitoring period, it is possible to exclude people who have legitimacy or need from the monitoring target, so it is possible to reduce the processing load on recognizing the monitoring target by performing unnecessary monitoring. With a simple configuration, it is possible to reliably monitor the monitoring target.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の入力操作または所定の信号を受け付けてから、当該所定の入力操作を無効とする操作または所定の信号を無効とする信号を受け付けるまでの間に、カメラ103によって撮影された画像に基づいて、監視対象を認識した場合、当該監視対象に接近するように飛行することを特徴としている。 Further, the flight-type robot 1001 according to the second embodiment of the present invention receives a predetermined input operation or a predetermined signal, and then performs an operation for invalidating the predetermined input operation or a signal for invalidating the predetermined signal. When the monitoring target is recognized based on the image taken by the camera 103 until the reception, the flight is characterized in that the flight approaches the monitoring target.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、指定された状況においてのみ監視をおこなうことで、たとえば、業務の都合など正当性や必要性がある人物がいる間は監視をおこなわず、夜間などの無人となる時間帯において監視をおこなうことができる。このように、監視期間を限定することで、正当性や必要性がある人物などを監視対象から除外することができるので、不要な監視をおこなうことによる監視対象の認識にかかる処理負担の軽減を図り、簡易な構成によって、確実に監視対象を監視することができる。 According to the flight-type robot 1001 of the second embodiment according to the present invention, by monitoring only in a designated situation, for example, monitoring is performed while there is a person who has legitimacy or necessity such as business convenience. Instead, it can be monitored during unattended hours such as at night. In this way, by limiting the monitoring period, it is possible to exclude people who have legitimacy or need from the monitoring target, so it is possible to reduce the processing load on recognizing the monitoring target by performing unnecessary monitoring. With a simple configuration, it is possible to reliably monitor the monitoring target.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、監視対象を認識した場合、当該監視対象に接近するように飛行するとともに、当該監視対象に向けて所定の音声を出力することを特徴としている。 Further, when the flying robot 1001 according to the second embodiment of the present invention recognizes a monitored object, it flies so as to approach the monitored object and outputs a predetermined voice to the monitored object. It is a feature.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象に接近するように飛行するとともに、当該監視対象に向けて所定の音声を出力することで、監視対象の注意を惹き、監視対象に対して監視されていることを確実に認識させるとともに、監視対象の侵入を周囲に報知することができ、農産物などの盗難被害を確実に防止することができる。 According to the flight-type robot 1001 according to the second embodiment of the present invention, the robot flies close to the monitored object and outputs a predetermined voice toward the monitored object to attract the attention of the monitored object. It is possible to make the monitored target surely recognize that it is being monitored, and to notify the surroundings of the intrusion of the monitored target, so that theft damage of agricultural products can be surely prevented.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の音声が、盗難を注意または警告する発話を録音した音声、または、盗難を注意または警告する発話を模した合成音声であることを特徴としている。 Further, in the flight-type robot 1001 according to the second embodiment of the present invention, the predetermined voice is a voice recording a utterance that warns or warns of theft, or a synthetic voice that imitates a utterance that warns or warns of the theft. It is characterized by that.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、盗難を注意または警告する発話を模した合成音声を出力することにより、監視対象に対して、人間が近くにいるように思わせたり、人間の接近を予期させたりすることができる。また、この発明にかかる実施の形態2の飛行型ロボット1001によれば、飛行型ロボット1001が一体に備えるスピーカー204から所定の音声を出力することにより、監視対象が逃げるなどして移動した場合にも、監視対象の移動にあわせて常に監視対象の近くで音声を出力することができる。これにより、監視対象に対する警告をおこなうとともに、監視対象の位置を周囲に確実に報知することができる。そして、これによって、農産物などにさらなる被害が加わることを確実に防止することができる。 According to the flight-type robot 1001 of the second embodiment according to the present invention, by outputting a synthetic voice imitating an utterance that warns or warns of theft, the monitored object is made to think that a human is nearby. Or you can anticipate the approach of humans. Further, according to the flight-type robot 1001 of the second embodiment according to the present invention, when a predetermined voice is output from the speaker 204 integrally provided in the flight-type robot 1001, the monitored object escapes or moves. However, it is possible to always output sound near the monitored object as the monitored object moves. As a result, it is possible to give a warning to the monitored target and to reliably notify the surroundings of the position of the monitored target. As a result, it is possible to reliably prevent further damage to agricultural products and the like.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の音声が、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声であることを特徴としている。 Further, in the flight type robot 1001 according to the second embodiment of the present invention, the predetermined voice is a voice of a siren, a horn, a whistle or a whistle, or a synthetic voice imitating at least one of these voices. It is characterized by being.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声を出力することにより、監視対象に対して、人間が近くにいるように思わせたり、人間の接近を予期させたりすることができる。 According to the flying robot 1001 according to the second embodiment of the present invention, by outputting the voice of a siren, a horn, a whistle or a whistle, or a synthetic voice imitating at least one of these voices. It is possible to make the monitored object appear to be near by a human being or to anticipate the approach of a human being.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、認識した監視対象が、あらかじめ設定された監視範囲内に存在する間、所定の音声を出力することを特徴としている。 Further, the flight-type robot 1001 according to the second embodiment of the present invention is characterized in that a predetermined voice is output while the recognized monitoring target exists within a preset monitoring range.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象が監視範囲内に存在する間中、所定の音声を出力し続けることにより、監視対象に対する警告をおこなうとともに、監視対象の位置を周囲に確実に報知することができる。これにより、早期に、監視対象を監視範囲の外へ追い払うことができ、農産物などにさらなる被害が加わることを確実に防止することができる。 According to the flight-type robot 1001 according to the second embodiment of the present invention, a predetermined voice is continuously output while the monitored object is within the monitored range, thereby giving a warning to the monitored object and warning the monitored object. The position can be reliably notified to the surroundings. As a result, it is possible to drive the monitored object out of the monitoring range at an early stage, and it is possible to surely prevent further damage to agricultural products and the like.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の音声が、音圧レベルが80dB以上であることを特徴としている。 Further, the flight-type robot 1001 according to the second embodiment of the present invention is characterized in that a predetermined voice has a sound pressure level of 80 dB or more.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、広範囲に聞こえる大きさの音声を出力することができる。これにより、監視対象に対して明確な警告をおこなうとともに、広範囲にわたって監視対象の位置を確実に報知することができ、農産物などにさらなる被害が加わることを確実に防止することができる。 According to the flight-type robot 1001 according to the second embodiment of the present invention, it is possible to output a sound having a size that can be heard in a wide range. As a result, a clear warning can be given to the monitored target, the position of the monitored target can be reliably notified over a wide range, and further damage to agricultural products can be reliably prevented.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の音声が、ラウドネスレベルが90フォン以上であることを特徴としている。 Further, the flight-type robot 1001 according to the second embodiment of the present invention is characterized in that a predetermined voice has a loudness level of 90 phon or more.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、防災のサイレンの音量として規定されている、ラウドネスレベルが90フォン以上の音声を出力することにより監視対象に対して明確な警告をおこなうとともに、広範囲にわたって監視対象の位置を確実に報知することができ、農産物などにさらなる被害が加わることを確実に防止することができる。 According to the flight-type robot 1001 of the second embodiment according to the present invention, a clear warning is given to the monitored object by outputting a voice having a loudness level of 90 phon or more, which is defined as the volume of the siren for disaster prevention. At the same time, it is possible to reliably notify the position of the monitoring target over a wide range, and it is possible to reliably prevent further damage to agricultural products and the like.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、無人航空機に搭載された光源であるLEDランプ104を備え、LEDランプ104を発光させながら飛行することを特徴としている。 Further, the flight type robot 1001 according to the second embodiment according to the present invention is provided with an LED lamp 104 which is a light source mounted on an unmanned aerial vehicle, and is characterized in that it flies while emitting light from the LED lamp 104.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象に接近するように飛行するとともに、光源であるLEDランプ104を発光させることで、監視対象の注意を惹き、監視対象に対して監視されていることを確実に認識させるとともに、監視対象の侵入を周囲に報知することができ、農産物などの盗難被害を確実に防止することができる。 According to the flight-type robot 1001 according to the second embodiment of the present invention, the LED lamp 104, which is a light source, is made to emit light while flying so as to approach the monitored object, thereby attracting the attention of the monitored object and making it the monitored object. On the other hand, it is possible to surely recognize that the monitoring target is being monitored, and to notify the surroundings of the intrusion of the monitored target, and it is possible to surely prevent the theft damage of agricultural products and the like.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、光源であるLEDランプ104を点滅させながら飛行することを特徴としている。 Further, the flight-type robot 1001 according to the second embodiment of the present invention is characterized in that it flies while blinking an LED lamp 104 which is a light source.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、光源であるLEDランプ104を点滅させることで、監視対象の注意を惹き、監視対象に対して監視されていることを確実に認識させるとともに、監視対象の侵入を周囲に確実に報知することができ、農産物などの盗難被害を確実に防止することができる。 According to the flight-type robot 1001 according to the second embodiment of the present invention, the LED lamp 104, which is a light source, is blinked to attract the attention of the monitored object and reliably recognize that the monitored object is being monitored. At the same time, it is possible to reliably notify the surroundings of the intrusion of the monitored object, and it is possible to reliably prevent theft damage of agricultural products and the like.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、光源であるLEDランプ104を所定の閾値以上の光束の光を点滅させながら飛行することを特徴としている。 Further, the flight-type robot 1001 according to the second embodiment of the present invention is characterized in that the LED lamp 104, which is a light source, flies while blinking a light having a luminous flux equal to or higher than a predetermined threshold.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、所定の閾値以上の光束の光を点滅させながら飛行することで、監視対象の注意を惹き、監視対象に対して監視されていることを確実に認識させるとともに、監視対象の侵入を周囲に一層確実に報知することができ、農産物などの盗難被害を確実に防止することができる。 According to the flight-type robot 1001 according to the second embodiment of the present invention, by flying while blinking a light having a luminous flux equal to or higher than a predetermined threshold value, the attention of the monitored object is attracted and the monitored object is monitored. In addition to being able to reliably recognize this, it is possible to more reliably notify the surroundings of the intrusion of the monitored object, and it is possible to reliably prevent theft damage of agricultural products and the like.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、無人航空機に搭載された無線通信インターフェースである通信I/F209を備え、カメラ103によって撮影された画像に基づいて監視対象を認識した場合、通信I/F209を介して、当該画像を所定の宛先に送信することを特徴としている。 Further, the flight-type robot 1001 according to the second embodiment of the present invention includes a communication I / F 209 which is a wireless communication interface mounted on an unmanned aerial vehicle, and recognizes a monitoring target based on an image taken by a camera 103. In this case, the image is transmitted to a predetermined destination via the communication I / F 209.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、カメラ103によって撮影された画像に基づいて認識された監視対象の画像を所定の宛先に送信することにより、農産物などの被害を、当該農産物の管理者などに迅速かつ確実に報知することができる。 According to the flight-type robot 1001 of the second embodiment according to the present invention, damage to agricultural products and the like is caused by transmitting the image of the monitoring target recognized based on the image taken by the camera 103 to a predetermined destination. It is possible to promptly and surely notify the manager of the agricultural product.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の宛先が、特定のスマートフォンに設定された電子メールアドレスであることを特徴としている。 Further, the flight-type robot 1001 according to the second embodiment of the present invention is characterized in that a predetermined destination is an e-mail address set in a specific smartphone.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、カメラ103によって撮影された画像に基づいて認識された監視対象の画像を、たとえば、農場の管理者などの利害関係者のスマートフォンに設定された電子メールアドレスに宛てて送信することにより、当該管理者などに迅速かつ確実に報知することができる。これにより、管理者は、動物による農産物の食い荒らしや、人間による農産物の盗難などの被害を早期に把握し、被害の拡大を食い止める対応を促すことができる。 According to the flight-type robot 1001 of the second embodiment according to the present invention, the image of the monitoring target recognized based on the image taken by the camera 103 is transferred to the smartphone of an interested party such as a farm manager. By sending to the set e-mail address, it is possible to promptly and surely notify the administrator or the like. As a result, the manager can promptly grasp the damage such as the devastation of agricultural products by animals and the theft of agricultural products by humans, and can promote the measures to stop the spread of the damage.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の宛先が、クラウドネットワーク上に設定された特定のURLであることを特徴としている。 Further, the flight-type robot 1001 according to the second embodiment of the present invention is characterized in that a predetermined destination is a specific URL set on a cloud network.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、カメラ103によって撮影された画像に基づいて認識された監視対象の画像を、クラウドネットワーク上に設定された特定のURLに宛てて送信することにより、送信する画像の容量にかかわらず、確実にクラウドネットワーク上に記憶することができる。これにより、監視対象の記録を確実に保存し、監視対象を認識した後日に、当該監視対象の特定をおこなうことができる。 According to the flight-type robot 1001 according to the second embodiment of the present invention, the image to be monitored recognized based on the image taken by the camera 103 is transmitted to a specific URL set on the cloud network. By doing so, it is possible to reliably store the image on the cloud network regardless of the capacity of the image to be transmitted. As a result, the record of the monitoring target can be reliably saved, and the monitoring target can be specified at a later date after the monitoring target is recognized.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、カメラ103によって撮影された画像に基づいて監視対象を認識した場合、当該画像を所定の記憶領域に記憶することを特徴としている。 Further, the flight-type robot 1001 according to the second embodiment of the present invention is characterized in that when a monitoring target is recognized based on an image taken by the camera 103, the image is stored in a predetermined storage area.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、たとえば、図2に示した制御回路207におけるメモリなどの所定の記憶領域に、認識した監視対象の画像を記憶することにより、農産物などの窃盗被害が生じた場合に、記録された画像を用いて犯人の特定をおこなうことができる。 According to the flight-type robot 1001 of the second embodiment according to the present invention, for example, by storing the recognized image of the monitoring target in a predetermined storage area such as a memory in the control circuit 207 shown in FIG. 2, the agricultural product In the event of theft damage such as, the criminal can be identified using the recorded image.

なお、この実施の形態で説明した飛行型ロボットの制御方法は、あらかじめ用意されたプログラムを飛行型ロボットが備えるコンピュータで実行することにより実現することができる。このプログラムは、飛行型ロボットが備えるメモリなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、ハードディスク、CD-ROM、MO、DVD、USBメモリ、SSDなどに記憶されて配布することが可能であってもよく、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。 The control method of the flight-type robot described in this embodiment can be realized by executing a program prepared in advance on a computer included in the flight-type robot. This program is recorded on a computer-readable recording medium such as a memory included in the flight robot, and is executed by being read from the recording medium by the computer. Further, this program may be stored in a hard disk, CD-ROM, MO, DVD, USB memory, SSD or the like and distributed, and may be distributed via a network such as the Internet. May be.

以下、実施の形態1の内容について付記として記載する。 Hereinafter, the contents of the first embodiment will be described as an appendix.

(付記1)
自動操縦により飛行する無人航空機と、
前記無人航空機に搭載されたカメラと、
を備え、
前記カメラによって撮影された画像に基づいて、対象物を認識した場合、当該対象物に接近するように飛行することを特徴とする飛行型ロボット。
(Appendix 1)
Unmanned aerial vehicles flying by autopilot and
The camera mounted on the unmanned aerial vehicle and
Equipped with
A flight-type robot characterized in that when an object is recognized based on an image taken by the camera, the robot flies so as to approach the object.

(付記2)
前記カメラによって、所定の範囲内を撮影することを特徴とする付記1に記載の飛行型ロボット。
(Appendix 2)
The flight-type robot according to Appendix 1, wherein the camera captures a predetermined range.

(付記3)
前記所定の範囲は、あらかじめ設定されたゴミ集積場であることを特徴とする付記2に記載の飛行型ロボット。
(Appendix 3)
The flight-type robot according to Appendix 2, wherein the predetermined range is a preset garbage collection site.

(付記4)
前記対象物に接近するように飛行した後、前記所定の範囲内あるいは当該所定の範囲の近傍に設置されたステーションに戻ることを特徴とする付記2または3に記載の飛行型ロボット。
(Appendix 4)
The flight-type robot according to Appendix 2 or 3, wherein after flying close to the object, the robot returns to a station installed within or near the predetermined range.

(付記5)
前記所定の範囲内を、設定速度以下の速度で飛行することを特徴とする付記2~4のいずれか一つに記載の飛行型ロボット。
(Appendix 5)
The flight-type robot according to any one of Supplementary note 2 to 4, wherein the robot flies within the predetermined range at a speed equal to or lower than a set speed.

(付記6)
前記所定の範囲内の任意の位置において、ホバリング飛行することを特徴とする付記2~4のいずれか一つに記載の飛行型ロボット。
(Appendix 6)
The flight-type robot according to any one of Supplementary note 2 to 4, wherein the robot makes a hovering flight at an arbitrary position within the predetermined range.

(付記7)
前記所定の範囲内の任意の位置において、上下飛行することを特徴とする付記2~4のいずれか一つに記載の飛行型ロボット。
(Appendix 7)
The flight-type robot according to any one of Supplementary note 2 to 4, wherein the robot flies up and down at an arbitrary position within the predetermined range.

(付記8)
前記無人航空機に搭載されたスピーカーを備え、
前記カメラによって撮影された画像に基づいて、前記対象物を認識した場合、前記スピーカーから所定の音声を出力するとともに、当該対象物に接近するように飛行することを特徴とする付記1~7のいずれか一つに記載の飛行型ロボット。
(Appendix 8)
Equipped with a speaker mounted on the unmanned aerial vehicle
When the object is recognized based on the image taken by the camera, the speaker outputs a predetermined sound and flies so as to approach the object. The flight type robot described in any one.

(付記9)
前記対象物に対して前記スピーカーから前記所定の音声を出力することを特徴とする付記8に記載の飛行型ロボット。
(Appendix 9)
The flight-type robot according to Appendix 8, wherein the predetermined sound is output from the speaker to the object.

(付記10)
前記所定の音声は、録音された猛禽の鳴き声、または、猛禽の鳴き声を模した合成音声であることを特徴とする付記8または9に記載の飛行型ロボット。
(Appendix 10)
The flying robot according to Appendix 8 or 9, wherein the predetermined voice is a recorded raptor's bark or a synthetic voice imitating a raptor's bark.

(付記11)
前記所定の音声は、録音された銃声、または、銃声を模した合成音声であることを特徴とする付記8または9に記載の飛行型ロボット。
(Appendix 11)
The flight-type robot according to Appendix 8 or 9, wherein the predetermined voice is a recorded gunshot or a synthetic voice imitating a gunshot.

(付記12)
前記所定の音声は、録音された犬の吠え声、または、犬の吠え声を模した合成音声であることを特徴とする付記8または9に記載の飛行型ロボット。
(Appendix 12)
The flying robot according to Appendix 8 or 9, wherein the predetermined voice is a recorded bark of a dog or a synthetic voice imitating a bark of a dog.

(付記13)
前記所定の音声は、攻撃を受けたカラス、警戒しているカラス、または、怯えたカラスが発する声を録音した音声、または、これらの声を模した合成音声であることを特徴とする付記8または9に記載の飛行型ロボット。
(Appendix 13)
The predetermined voice is a voice recorded from an attacked crow, a vigilant crow, or a voice emitted by a frightened crow, or a synthetic voice imitating these voices. Or the flying robot according to 9.

(付記14)
前記無人航空機に搭載された光源を備え、
前記カメラによって撮影された画像に基づいて、対象物を認識した場合、前記光源を発光するとともに、当該対象物に接近するように飛行することを特徴とする付記1~13のいずれか一つに記載の飛行型ロボット。
(Appendix 14)
Equipped with a light source mounted on the unmanned aerial vehicle
When an object is recognized based on an image taken by the camera, it emits light from the light source and flies so as to approach the object. The described flying robot.

(付記15)
猛禽を模した外観をなすことを特徴とする付記1~14のいずれか一つに記載の飛行型ロボット。
(Appendix 15)
The flying robot according to any one of Supplementary note 1 to 14, which is characterized in that it has an appearance imitating a bird of prey.

(付記16)
カメラが搭載され、自動操縦により飛行させる無人航空機を備える飛行型ロボットのコンピュータに、
前記カメラによる撮影をおこなわせ、
前記カメラによって撮影された画像に基づいて、対象物を認識した場合、当該対象物に接近するように飛行させる、
処理を実行させることを特徴とする飛行型ロボットの制御プログラム。
(Appendix 16)
A computer for a flying robot equipped with an unmanned aerial vehicle equipped with a camera and operated by autopilot.
Take a picture with the camera
When an object is recognized based on the image taken by the camera, the object is made to fly close to the object.
A control program for a flying robot characterized by executing processing.

(付記17)
前記カメラによって、所定の範囲内を撮影させることを特徴とする付記16に記載の飛行型ロボットの制御プログラム。
(Appendix 17)
The control program for a flight-type robot according to Appendix 16, wherein the camera captures a predetermined range.

(付記18)
前記カメラによって、あらかじめ設定されたゴミ集積場を撮影させることを特徴とする付記17に記載の飛行型ロボットの制御プログラム。
(Appendix 18)
The control program for a flight-type robot according to Appendix 17, wherein the camera captures a preset garbage collection site.

(付記19)
前記対象物に接近するように飛行させた後、前記所定の範囲内あるいは当該所定の範囲の近傍に設置されたステーションに戻るように飛行させることを特徴とする付記16または18に記載の飛行型ロボットの制御プログラム。
(Appendix 19)
The flight type according to Appendix 16 or 18, wherein the flight is made to approach the object and then returns to a station installed within or near the predetermined range. Robot control program.

(付記20)
前記所定の範囲内を、設定速度以下の速度で飛行させることを特徴とする付記17~19のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 20)
The control program for a flight-type robot according to any one of Supplementary note 17 to 19, wherein the robot flies within a predetermined range at a speed equal to or lower than a set speed.

(付記21)
前記所定の範囲内の任意の位置において、ホバリング飛行させることを特徴とする付記17~19のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 21)
The control program for a flight-type robot according to any one of Supplementary note 17 to 19, wherein the hovering flight is performed at an arbitrary position within the predetermined range.

(付記22)
前記所定の範囲内の任意の位置において、上下飛行させることを特徴とする付記17~19のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 22)
The control program for a flying robot according to any one of Supplementary note 17 to 19, wherein the robot is made to fly up and down at an arbitrary position within the predetermined range.

(付記23)
前記無人航空機に搭載されたスピーカーを備えた前記飛行型ロボットのコンピュータに、
前記カメラによって撮影された画像に基づいて、前記対象物を認識した場合、前記スピーカーから所定の音声を出力させるとともに、当該対象物に接近するように飛行させることを特徴とする付記16~22のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 23)
To the computer of the flying robot equipped with the speaker mounted on the unmanned aerial vehicle,
The appendix 16 to 22, wherein when the object is recognized based on the image taken by the camera, a predetermined sound is output from the speaker and the object is made to fly close to the object. The control program for the flying robot described in any one of them.

(付記24)
前記対象物に対して前記スピーカーから前記所定の音声を出力させることを特徴とする付記23に記載の飛行型ロボットの制御プログラム
(Appendix 24)
The control program for a flight-type robot according to Appendix 23, which comprises outputting the predetermined voice from the speaker to the object.

(付記25)
前記所定の音声は、録音された猛禽の鳴き声、または、猛禽の鳴き声を模した合成音声であることを特徴とする付記23または24に記載の飛行型ロボットの制御プログラム。
(Appendix 25)
The control program for a flying robot according to Appendix 23 or 24, wherein the predetermined voice is a recorded raptor bark or a synthetic voice imitating a raptor bark.

(付記26)
前記所定の音声は、録音された銃声、または、銃声を模した合成音声であることを特徴とする付記23または24に記載の飛行型ロボットの制御プログラム。
(Appendix 26)
The control program for a flight-type robot according to Appendix 23 or 24, wherein the predetermined voice is a recorded gunshot or a synthetic voice imitating a gunshot.

(付記27)
前記所定の音声は、録音された犬の吠え声、または、犬の吠え声を模した合成音声であることを特徴とする付記23または24に記載の飛行型ロボットの制御プログラム。
(Appendix 27)
The control program for a flying robot according to Appendix 23 or 24, wherein the predetermined voice is a recorded dog bark or a synthetic voice imitating a dog bark.

(付記28)
前記所定の音声は、攻撃を受けたカラス、警戒しているカラス、または、怯えたカラスが発する声を録音した音声、または、これらの声を模した合成音声であることを特徴とする付記23または24に記載の飛行型ロボットの制御プログラム。
(Appendix 28)
The predetermined voice is a voice recorded from an attacked crow, a vigilant crow, or a voice emitted by a frightened crow, or a synthetic voice imitating these voices. Or the control program for a flying robot according to 24.

(付記29)
前記無人航空機に搭載された光源を備えた前記飛行型ロボットのコンピュータに、
前記カメラによって撮影された画像に基づいて、対象物を認識した場合、前記光源を発光させるとともに、当該対象物に接近するように飛行させることを特徴とする付記16~28のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 29)
To the computer of the flying robot equipped with the light source mounted on the unmanned aerial vehicle,
When an object is recognized based on an image taken by the camera, the light source is made to emit light and the object is made to fly so as to approach the object. The control program for the described flying robot.

(付記30)
カメラが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットのコンピュータに、
前記カメラによる撮影をおこなわせ、
前記カメラによって撮影された画像に基づいて、対象物を認識した場合、当該対象物に接近するように飛行させる、
処理を実行させることを特徴とする飛行型ロボットの制御方法。
(Appendix 30)
A computer for a flying robot equipped with an unmanned aerial vehicle equipped with a camera and flying by autopilot.
Take a picture with the camera
When an object is recognized based on the image taken by the camera, the object is made to fly close to the object.
A control method for a flying robot characterized by executing a process.

(付記31)
前記カメラによって、所定の範囲内を撮影させることを特徴とする付記30に記載の飛行型ロボットの制御方法。
(Appendix 31)
The control method for a flight-type robot according to Appendix 30, wherein the camera captures a predetermined range.

(付記32)
前記カメラによって、あらかじめ設定されたゴミ集積場を撮影させることを特徴とする付記31に記載の飛行型ロボットの制御方法。
(Appendix 32)
The control method for a flight-type robot according to Appendix 31, wherein the camera captures a preset garbage collection site.

(付記33)
前記対象物に接近するように飛行させた後、前記所定の範囲内あるいは当該所定の範囲の近傍に設置されたステーションに戻るように飛行させることを特徴とする付記31または32に記載の飛行型ロボットの制御方法。
(Appendix 33)
The flight type according to Appendix 31 or 32, wherein the flight is made to approach the object and then returns to a station installed within or near the predetermined range. Robot control method.

(付記34)
前記所定の範囲内を、設定速度以下の速度で飛行させることを特徴とする付記31~33のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 34)
The control method for a flight-type robot according to any one of Supplementary note 31 to 33, wherein the robot flies within a predetermined range at a speed equal to or lower than a set speed.

(付記35)
前記所定の範囲内の任意の位置において、ホバリング飛行させることを特徴とする付記31~33のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 35)
The method for controlling a flight-type robot according to any one of Supplementary Provisions 31 to 33, wherein the robot makes a hovering flight at an arbitrary position within the predetermined range.

(付記36)
前記所定の範囲内の任意の位置において、上下飛行させることを特徴とする付記31~33のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 36)
The control method for a flight-type robot according to any one of Supplementary note 31 to 33, wherein the robot is made to fly up and down at an arbitrary position within the predetermined range.

(付記37)
前記無人航空機に搭載されたスピーカーを備えた前記飛行型ロボットのコンピュータに、
前記カメラによって撮影された画像に基づいて、前記対象物を認識した場合、前記スピーカーから所定の音声を出力させるとともに、当該対象物に接近するように飛行させることを特徴とする付記30~36のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 37)
To the computer of the flying robot equipped with the speaker mounted on the unmanned aerial vehicle,
When the object is recognized based on the image taken by the camera, a predetermined sound is output from the speaker and the object is made to fly so as to approach the object. The control method for a flying robot according to any one of them.

(付記38)
前記対象物に対して前記スピーカーから前記所定の音声を出力させることを特徴とする付記37に記載の飛行型ロボットの制御方法。
(Appendix 38)
The control method for a flight-type robot according to Appendix 37, wherein the speaker outputs the predetermined sound to the object.

(付記39)
前記所定の音声は、録音された猛禽の鳴き声、または、猛禽の鳴き声を模した合成音声であることを特徴とする付記37または38に記載の飛行型ロボットの制御方法。
(Appendix 39)
The control method for a flying robot according to Appendix 37 or 38, wherein the predetermined voice is a recorded raptor bark or a synthetic voice imitating a raptor bark.

(付記40)
前記所定の音声は、録音された銃声、または、銃声を模した合成音声であることを特徴とする付記37または38に記載の飛行型ロボットの制御方法。
(Appendix 40)
The control method for a flying robot according to Appendix 37 or 38, wherein the predetermined voice is a recorded gunshot or a synthetic voice imitating a gunshot.

(付記41)
前記所定の音声は、録音された犬の吠え声、または、犬の吠え声を模した合成音声であることを特徴とする付記37または38に記載の飛行型ロボットの制御方法。
(Appendix 41)
The control method for a flying robot according to Appendix 37 or 38, wherein the predetermined voice is a recorded bark of a dog or a synthetic voice imitating a bark of a dog.

(付記42)
前記所定の音声は、攻撃を受けたカラス、警戒しているカラス、または、怯えたカラスが発する声を録音した音声、または、これらの声を模した合成音声であることを特徴とする付記37または38に記載の飛行型ロボットの制御方法。
(Appendix 42)
The predetermined voice is a voice recorded from an attacked crow, a vigilant crow, or a voice emitted by a frightened crow, or a synthetic voice imitating these voices. Alternatively, the method for controlling a flying robot according to 38.

(付記43)
前記無人航空機に搭載された光源を備えた前記飛行型ロボットのコンピュータに、
前記カメラによって撮影された画像に基づいて、対象物を認識した場合、前記光源を発光させるとともに、当該対象物に接近するように飛行させることを特徴とする付記30~42のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 43)
To the computer of the flying robot equipped with the light source mounted on the unmanned aerial vehicle,
When an object is recognized based on an image taken by the camera, the light source is made to emit light and the object is made to fly so as to approach the object, according to any one of the appendices 30 to 42. The control method of the flying robot described.

以下、実施の形態2の内容について付記として記載する。 Hereinafter, the contents of the second embodiment will be described as an additional note.

(付記1)
自動操縦により飛行する無人航空機と、
前記無人航空機に搭載されたカメラと、
を備え、
前記カメラによって撮影された画像に基づいて、監視対象を認識した場合、当該監視対象に接近するように飛行することを特徴とする飛行型ロボット。
(Appendix 1)
Unmanned aerial vehicles flying by autopilot and
The camera mounted on the unmanned aerial vehicle and
Equipped with
A flight-type robot characterized in that when a monitored object is recognized based on an image taken by the camera, the robot flies so as to approach the monitored object.

(付記2)
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該監視対象の全方位からの画像を撮影するように飛行することを特徴とする付記1に記載の飛行型ロボット。
(Appendix 2)
The flight-type robot according to Appendix 1, wherein when the monitored object is recognized based on an image captured by the camera, the robot flies so as to capture an image from all directions of the monitored object.

(付記3)
あらかじめ設定された所定の範囲内において前記カメラによって撮影された画像に基づいて、監視対象を認識することを特徴とする付記1または2に記載の飛行型ロボット。
(Appendix 3)
The flight-type robot according to Appendix 1 or 2, wherein the monitoring target is recognized based on an image taken by the camera within a predetermined range set in advance.

(付記4)
前記所定の範囲は、農場であることを特徴とする付記3に記載の飛行型ロボット。
(Appendix 4)
The flying robot according to Appendix 3, wherein the predetermined range is a farm.

(付記5)
前記監視対象は、前記農場における農産物または当該農産物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記4に記載の飛行型ロボット。
(Appendix 5)
The flying robot according to Appendix 4, wherein the monitoring target is a bird or beast or a human who possesses or carries an agricultural product on the farm or an article presumed to be the agricultural product.

(付記6)
前記所定の範囲は、作物栽培農場であることを特徴とする付記3または4に記載の飛行型ロボット。
(Appendix 6)
The flying robot according to Appendix 3 or 4, wherein the predetermined range is a crop cultivation farm.

(付記7)
前記監視対象は、前記作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記6に記載の飛行型ロボット。
(Appendix 7)
The flying robot according to Appendix 6, wherein the monitoring target is a bird or a beast or a human who possesses or carries a cultivated crop on the crop cultivating farm or an article presumed to be the cultivated crop.

(付記8)
前記所定の範囲は、畜産農場であることを特徴とする付記3または4に記載の飛行型ロボット。
(Appendix 8)
The flying robot according to Appendix 3 or 4, wherein the predetermined range is a livestock farm.

(付記9)
前記監視対象は、前記畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記8に記載の飛行型ロボット。
(Appendix 9)
The flying robot according to Appendix 8, wherein the monitoring target is a livestock or poultry on the livestock farm, or a bird or beast or a human who possesses or carries an article presumed to be the livestock or poultry.

(付記10)
前記所定の範囲は、養蜂場であることを特徴とする付記3または4に記載の飛行型ロボット。
(Appendix 10)
The flying robot according to Appendix 3 or 4, wherein the predetermined range is an apiary.

(付記11)
前記監視対象は、養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記10に記載の飛行型ロボット。
(Appendix 11)
The flying robot according to Appendix 10, wherein the monitoring target is a bird or beast or a human who possesses or carries a hive used for beekeeping or an article presumed to be the hive.

(付記12)
あらかじめ設定された時間帯に前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行することを特徴とする付記1~11のいずれか一つに記載の飛行型ロボット。
(Appendix 12)
One of Appendix 1 to 11, characterized in that when the monitored object is recognized based on the image taken by the camera in a preset time zone, the aircraft flies so as to approach the monitored object. The flying robot described in.

(付記13)
所定の入力操作または所定の信号を受け付けてから、当該所定の入力操作を無効とする操作または所定の信号を無効とする信号を受け付けるまでの間に、前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行することを特徴とする付記1~12のいずれか一つに記載の飛行型ロボット。
(Appendix 13)
Based on the image taken by the camera between the reception of a predetermined input operation or a predetermined signal and the reception of an operation for invalidating the predetermined input operation or a signal for disabling the predetermined signal, based on the image taken by the camera. The flight-type robot according to any one of Supplementary note 1 to 12, wherein when the monitored object is recognized, the robot flies so as to approach the monitored object.

(付記14)
前記監視対象を認識した場合、当該監視対象に接近するように飛行するとともに、当該監視対象に向けて所定の音声を出力することを特徴とする付記1~13のいずれか一つに記載の飛行型ロボット。
(Appendix 14)
The flight according to any one of Supplementary note 1 to 13, wherein when the monitored object is recognized, the flight approaches the monitored object and a predetermined voice is output to the monitored object. Type robot.

(付記15)
前記所定の音声は、盗難を注意または警告する発話を録音した音声、または、盗難を注意または警告する発話を模した合成音声であることを特徴とする付記14に記載の飛行型ロボット。
(Appendix 15)
The flight-type robot according to Appendix 14, wherein the predetermined voice is a recorded voice of an utterance that warns or warns of theft, or a synthetic voice that imitates a voice that warns or warns of theft.

(付記16)
前記所定の音声は、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声であることを特徴とする付記14に記載の飛行型ロボット。
(Appendix 16)
The flying robot according to Appendix 14, wherein the predetermined voice is a voice of a siren, a horn, a whistle or a whistle, or a synthetic voice imitating at least one of these voices.

(付記17)
認識した前記監視対象が、あらかじめ設定された監視範囲内に存在する間、前記所定の音声を出力することを特徴とする付記14~16のいずれか一つに記載の飛行型ロボット。
(Appendix 17)
The flight-type robot according to any one of Supplementary note 14 to 16, wherein the recognized monitoring target outputs a predetermined voice while the monitored object is within a preset monitoring range.

(付記18)
前記所定の音声は、音圧レベルが80dB以上であることを特徴とする付記14~17のいずれか一つに記載の飛行型ロボット。
(Appendix 18)
The flight-type robot according to any one of Supplementary note 14 to 17, wherein the predetermined voice has a sound pressure level of 80 dB or more.

(付記19)
前記所定の音声は、ラウドネスレベルが90フォン以上であることを特徴とする付記14~17のいずれか一つに記載の飛行型ロボット。
(Appendix 19)
The flight-type robot according to any one of Supplementary note 14 to 17, wherein the predetermined voice has a loudness level of 90 phones or more.

(付記20)
前記無人航空機に搭載された光源を備え、
前記光源を発光させながら飛行することを特徴とする付記1~19のいずれか一つに記載の飛行型ロボット。
(Appendix 20)
Equipped with a light source mounted on the unmanned aerial vehicle
The flight-type robot according to any one of Supplementary note 1 to 19, wherein the robot flies while emitting light from the light source.

(付記21)
前記光源を点滅させながら飛行することを特徴とする付記20に記載の飛行型ロボット。
(Appendix 21)
The flight-type robot according to Appendix 20, wherein the robot flies while blinking the light source.

(付記22)
前記光源を所定の閾値以上の光束の光を点滅させながら飛行することを特徴とする付記21に記載の飛行型ロボット。
(Appendix 22)
21. The flight-type robot according to Appendix 21, wherein the light source flies while blinking a light having a luminous flux equal to or higher than a predetermined threshold value.

(付記23)
前記無人航空機に搭載された無線通信インターフェースを備え、
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、前記無線通信インターフェースを介して、当該画像を所定の宛先に送信することを特徴とする付記1~22のいずれか一つに記載の飛行型ロボット。
(Appendix 23)
Equipped with a wireless communication interface mounted on the unmanned aerial vehicle
When the monitoring target is recognized based on the image taken by the camera, the image is transmitted to a predetermined destination via the wireless communication interface. The described flying robot.

(付記24)
前記所定の宛先は、特定のスマートフォンに設定された電子メールアドレスであることを特徴とする付記23に記載の飛行型ロボット。
(Appendix 24)
The flight-type robot according to Appendix 23, wherein the predetermined destination is an e-mail address set in a specific smartphone.

(付記25)
前記所定の宛先は、クラウドネットワーク上に設定された特定のURLであることを特徴とする付記23に記載の飛行型ロボット。
(Appendix 25)
The flight-type robot according to Appendix 23, wherein the predetermined destination is a specific URL set on the cloud network.

(付記26)
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該画像を所定の記憶領域に記憶することを特徴とする付記1~25のいずれか一つに記載の飛行型ロボット。
(Appendix 26)
The flight-type robot according to any one of Supplementary note 1 to 25, wherein when the monitored object is recognized based on an image taken by the camera, the image is stored in a predetermined storage area.

(付記27)
カメラが搭載され、自動操縦により飛行させる無人航空機を備える飛行型ロボットのコンピュータに、
前記カメラによる撮影をおこなわせ、
前記カメラによって撮影された画像に基づいて、監視対象を認識した場合、当該対象物に接近するように飛行させる、
処理を実行させることを特徴とする飛行型ロボットの制御プログラム。
(Appendix 27)
A computer for a flying robot equipped with an unmanned aerial vehicle equipped with a camera and operated by autopilot.
Take a picture with the camera
When a monitored object is recognized based on the image taken by the camera, the object is made to fly closer to the object.
A control program for a flying robot characterized by executing processing.

(付記28)
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該監視対象の全方位からの画像を撮影するように飛行させることを特徴とする付記27に記載の飛行型ロボットの制御プログラム。
(Appendix 28)
The control program for a flying robot according to Appendix 27, wherein when the monitored object is recognized based on an image taken by the camera, the robot is made to fly so as to take an image from all directions of the monitored object. ..

(付記29)
あらかじめ設定された所定の範囲内において前記カメラによって撮影された画像に基づいて、監視対象を認識することを特徴とする付記27または28に記載の飛行型ロボットの制御プログラム。
(Appendix 29)
The control program for a flight-type robot according to Appendix 27 or 28, wherein the monitoring target is recognized based on an image taken by the camera within a predetermined range set in advance.

(付記30)
前記所定の範囲は、農場であることを特徴とする付記29に記載の飛行型ロボットの制御プログラム。
(Appendix 30)
The control program for a flying robot according to Appendix 29, wherein the predetermined range is a farm.

(付記31)
前記監視対象は、前記農場における農産物または当該農産物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記30に記載の飛行型ロボットの制御プログラム。
(Appendix 31)
The control program for a flying robot according to Appendix 30, wherein the monitored object is a bird or beast or a human who possesses or carries an agricultural product or an article presumed to be the agricultural product on the farm.

(付記32)
前記所定の範囲は、作物栽培農場であることを特徴とする付記29または30に記載の飛行型ロボットの制御プログラム。
(Appendix 32)
The control program for a flying robot according to Appendix 29 or 30, wherein the predetermined range is a crop cultivation farm.

(付記33)
前記監視対象は、前記作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記32に記載の飛行型ロボットの制御プログラム。
(Appendix 33)
The control program for a flying robot according to Appendix 32, wherein the monitoring target is a bird or a beast or a human who possesses or carries a cultivated crop or an article presumed to be the cultivated crop on the crop cultivation farm.

(付記34)
前記所定の範囲は、畜産農場であることを特徴とする付記29または30に記載の飛行型ロボットの制御プログラム。
(Appendix 34)
The control program for a flying robot according to Appendix 29 or 30, wherein the predetermined range is a livestock farm.

(付記35)
前記監視対象は、前記畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記34に記載の飛行型ロボットの制御プログラム。
(Appendix 35)
The control of the flying robot according to Appendix 34, wherein the monitored object is a livestock or poultry on the livestock farm, or a bird or beast or a human who possesses or carries an article presumed to be the livestock or poultry. program.

(付記36)
前記所定の範囲は、養蜂場であることを特徴とする付記29または30に記載の飛行型ロボットの制御プログラム。
(Appendix 36)
The control program for a flying robot according to Appendix 29 or 30, wherein the predetermined range is an apiary.

(付記37)
前記監視対象は、養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記36に記載の飛行型ロボットの制御プログラム。
(Appendix 37)
The control program for a flying robot according to Appendix 36, wherein the monitored object is a bird or beast or a human who possesses or carries a hive used for beekeeping or an article presumed to be the hive.

(付記38)
あらかじめ設定された時間帯に前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行させることを特徴とする付記27~37のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 38)
One of the appendices 27 to 37, which is characterized in that when the monitored object is recognized based on the image taken by the camera in a preset time zone, the aircraft is made to fly so as to approach the monitored object. The control program for the flying robot described in.

(付記39)
所定の入力操作または所定の信号を受け付けてから、当該所定の入力操作を無効とする操作または所定の信号を無効とする信号を受け付けるまでの間に、前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行させることを特徴とする付記27~38のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 39)
Based on the image taken by the camera between the reception of a predetermined input operation or a predetermined signal and the reception of an operation for invalidating the predetermined input operation or a signal for disabling the predetermined signal, based on the image taken by the camera. The control program for a flight-type robot according to any one of Supplementary note 27 to 38, wherein when the monitored object is recognized, the aircraft is made to fly so as to approach the monitored object.

(付記40)
前記監視対象を認識した場合、当該監視対象に接近するように飛行させるとともに、当該監視対象に向けて所定の音声を出力することを特徴とする付記27~39のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 40)
The flight according to any one of Supplementary note 27 to 39, which is characterized in that when the monitored object is recognized, the flight is made to approach the monitored object and a predetermined voice is output toward the monitored object. Control program for type robots.

(付記41)
前記所定の音声は、盗難を注意または警告する発話を録音した音声、または、盗難を注意または警告する発話を模した合成音声であることを特徴とする付記40に記載の飛行型ロボットの制御プログラム。
(Appendix 41)
The control program for a flying robot according to Appendix 40, wherein the predetermined voice is a voice recording a utterance that warns or warns of theft, or a synthetic voice that imitates a utterance that warns or warns of theft. ..

(付記42)
前記所定の音声は、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声であることを特徴とする付記40に記載の飛行型ロボットの制御プログラム。
(Appendix 42)
The control of the flying robot according to Appendix 40, wherein the predetermined voice is a voice of a siren, a horn, a whistle or a whistle, or a synthetic voice imitating at least one of these voices. program.

(付記43)
認識した前記監視対象が、あらかじめ設定された監視範囲内に存在する間、前記所定の音声を出力することを特徴とする付記40~42のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 43)
The control program for a flight-type robot according to any one of Supplementary note 40 to 42, wherein the recognized monitoring target outputs a predetermined voice while the monitored object is within a preset monitoring range.

(付記44)
前記所定の音声は、音圧レベルが80dB以上であることを特徴とする付記40~43のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 44)
The control program for a flight-type robot according to any one of Supplementary note 40 to 43, wherein the predetermined voice has a sound pressure level of 80 dB or more.

(付記45)
前記所定の音声は、ラウドネスレベルが90フォン以上であることを特徴とする付記40~43のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 45)
The control program for a flight-type robot according to any one of Supplementary note 40 to 43, wherein the predetermined voice has a loudness level of 90 phones or more.

(付記46)
前記無人航空機に搭載された光源を備え、
前記光源を発光させながら飛行させることを特徴とする付記27~45のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 46)
Equipped with a light source mounted on the unmanned aerial vehicle
The control program for a flight-type robot according to any one of Supplementary note 27 to 45, wherein the light source is made to fly while emitting light.

(付記47)
前記光源を点滅させながら飛行させることを特徴とする付記46に記載の飛行型ロボットの制御プログラム。
(Appendix 47)
The control program for a flight-type robot according to Appendix 46, wherein the light source is made to fly while blinking.

(付記48)
前記光源を所定の閾値以上の光束の光を点滅させながら飛行させることを特徴とする付記47に記載の飛行型ロボットの制御プログラム。
(Appendix 48)
The control program for a flying robot according to Appendix 47, wherein the light source is made to fly while blinking a light having a luminous flux equal to or higher than a predetermined threshold value.

(付記49)
前記無人航空機に搭載された無線通信インターフェースを備え、
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、前記無線通信インターフェースを介して、当該画像を所定の宛先に送信することを特徴とする付記27~48のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 49)
Equipped with a wireless communication interface mounted on the unmanned aerial vehicle
When the monitoring target is recognized based on the image taken by the camera, the image is transmitted to a predetermined destination via the wireless communication interface. The control program for the described flying robot.

(付記50)
前記所定の宛先は、特定のスマートフォンに設定された電子メールアドレスであることを特徴とする付記49に記載の飛行型ロボットの制御プログラム。
(Appendix 50)
The control program for a flying robot according to Appendix 49, wherein the predetermined destination is an e-mail address set in a specific smartphone.

(付記51)
前記所定の宛先は、クラウドネットワーク上に設定された特定のURLであることを特徴とする付記49に記載の飛行型ロボットの制御プログラム。
(Appendix 51)
The control program for a flight-type robot according to Appendix 49, wherein the predetermined destination is a specific URL set on a cloud network.

(付記52)
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該画像を所定の記憶領域に記憶することを特徴とする付記27~51のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 52)
The control of the flight type robot according to any one of Supplementary note 27 to 51, wherein when the monitoring target is recognized based on the image taken by the camera, the image is stored in a predetermined storage area. program.

(付記53)
カメラが搭載され、自動操縦により飛行させる無人航空機を備える飛行型ロボットのコンピュータに、
前記カメラによる撮影をおこなわせ、
前記カメラによって撮影された画像に基づいて、監視対象を認識した場合、当該対象物に接近するように飛行させる、
処理を実行させることを特徴とする飛行型ロボットの制御方法。
(Appendix 53)
A computer for a flying robot equipped with an unmanned aerial vehicle equipped with a camera and operated by autopilot.
Take a picture with the camera
When a monitored object is recognized based on the image taken by the camera, the object is made to fly closer to the object.
A control method for a flying robot characterized by executing a process.

(付記54)
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該監視対象の全方位からの画像を撮影するように飛行させることを特徴とする付記53に記載の飛行型ロボットの制御方法。
(Appendix 54)
The control method for a flying robot according to Appendix 53, wherein when the monitored object is recognized based on an image captured by the camera, the robot is made to fly so as to capture an image from all directions of the monitored object. ..

(付記55)
あらかじめ設定された所定の範囲内において前記カメラによって撮影された画像に基づいて、監視対象を認識することを特徴とする付記53または54に記載の飛行型ロボットの制御方法。
(Appendix 55)
The control method for a flight-type robot according to Appendix 53 or 54, wherein the monitoring target is recognized based on an image taken by the camera within a predetermined range set in advance.

(付記56)
前記所定の範囲は、農場であることを特徴とする付記55に記載の飛行型ロボットの制御方法。
(Appendix 56)
The control method for a flying robot according to Appendix 55, wherein the predetermined range is a farm.

(付記57)
前記監視対象は、前記農場における農産物または当該農産物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記56に記載の飛行型ロボットの制御方法。
(Appendix 57)
The control method for a flying robot according to Appendix 56, wherein the monitored object is a bird or beast or a human being possessing or transporting an agricultural product or an article presumed to be the agricultural product on the farm.

(付記58)
前記所定の範囲は、作物栽培農場であることを特徴とする付記55または56に記載の飛行型ロボットの制御方法。
(Appendix 58)
The control method for a flying robot according to Supplementary Note 55 or 56, wherein the predetermined range is a crop cultivation farm.

(付記59)
前記監視対象は、前記作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記58に記載の飛行型ロボットの制御方法。
(Appendix 59)
The control method for a flying robot according to Appendix 58, wherein the monitoring target is a bird or beast or a human who possesses or carries a cultivated crop or an article presumed to be the cultivated crop on the crop cultivation farm.

(付記60)
前記所定の範囲は、畜産農場であることを特徴とする付記55または56に記載の飛行型ロボットの制御方法。
(Appendix 60)
The control method for a flying robot according to Appendix 55 or 56, wherein the predetermined range is a livestock farm.

(付記61)
前記監視対象は、前記畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記60に記載の飛行型ロボットの制御方法。
(Appendix 61)
The control of the flying robot according to Appendix 60, wherein the monitored object is a livestock or poultry on the livestock farm, or a bird or beast or a human who possesses or carries an article presumed to be the livestock or poultry. Method.

(付記62)
前記所定の範囲は、養蜂場であることを特徴とする付記55または56に記載の飛行型ロボットの制御方法。
(Appendix 62)
The control method for a flying robot according to Appendix 55 or 56, wherein the predetermined range is an apiary.

(付記63)
前記監視対象は、養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記62に記載の飛行型ロボットの制御方法。
(Appendix 63)
The control method for a flying robot according to Appendix 62, wherein the monitoring target is a bird or beast or a human who possesses or carries a hive used for beekeeping or an article presumed to be the hive.

(付記64)
あらかじめ設定された時間帯に前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行させることを特徴とする付記55~63のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 64)
One of the appendices 55 to 63, which is characterized in that when the monitored object is recognized based on the image taken by the camera in a preset time zone, the aircraft is made to fly so as to approach the monitored object. The control method of the flying robot described in.

(付記65)
所定の入力操作または所定の信号を受け付けてから、当該所定の入力操作を無効とする操作または所定の信号を無効とする信号を受け付けるまでの間に、前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行させることを特徴とする付記53~64のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 65)
Based on the image taken by the camera between the reception of a predetermined input operation or a predetermined signal and the reception of an operation for invalidating the predetermined input operation or a signal for disabling the predetermined signal, based on the image taken by the camera. The control method for a flight-type robot according to any one of Supplementary note 53 to 64, wherein when the monitored object is recognized, the flight is made to approach the monitored object.

(付記66)
前記監視対象を認識した場合、当該監視対象に接近するように飛行させるとともに、当該監視対象に向けて所定の音声を出力することを特徴とする付記55~65のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 66)
The flight according to any one of the appendices 55 to 65, which is characterized in that when the monitored object is recognized, the flight is made to approach the monitored object and a predetermined voice is output to the monitored object. How to control a type robot.

(付記67)
前記所定の音声は、盗難を注意または警告する発話を録音した音声、または、盗難を注意または警告する発話を模した合成音声であることを特徴とする付記66に記載の飛行型ロボットの制御方法。
(Appendix 67)
The control method for a flying robot according to Appendix 66, wherein the predetermined voice is a recorded voice of an utterance that warns or warns of theft, or a synthetic voice that imitates a voice that warns or warns of theft. ..

(付記68)
前記所定の音声は、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声であることを特徴とする付記66に記載の飛行型ロボットの制御方法。
(Appendix 68)
The control of the flying robot according to Appendix 66, wherein the predetermined voice is a voice of a siren, a horn, a whistle or a whistle, or a synthetic voice imitating at least one of these voices. Method.

(付記69)
認識した前記監視対象が、あらかじめ設定された監視範囲内に存在する間、前記所定の音声を出力することを特徴とする付記66~68のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 69)
The control method for a flight-type robot according to any one of Supplementary note 66 to 68, wherein the recognized monitoring target outputs a predetermined voice while the monitored object is within a preset monitoring range.

(付記70)
前記所定の音声は、音圧レベルが80dB以上であることを特徴とする付記66~69のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 70)
The control method for a flight-type robot according to any one of Supplementary note 66 to 69, wherein the predetermined voice has a sound pressure level of 80 dB or more.

(付記71)
前記所定の音声は、ラウドネスレベルが90フォン以上であることを特徴とする付記66~69のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 71)
The control method for a flight-type robot according to any one of Supplementary note 66 to 69, wherein the predetermined voice has a loudness level of 90 phones or more.

(付記72)
前記無人航空機に搭載された光源を備え、
前記光源を発光させながら飛行させることを特徴とする付記55~71のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 72)
Equipped with a light source mounted on the unmanned aerial vehicle
The control method for a flight-type robot according to any one of Supplementary note 55 to 71, wherein the light source is made to fly while emitting light.

(付記73)
前記光源を点滅させながら飛行させることを特徴とする付記72に記載の飛行型ロボットの制御方法。
(Appendix 73)
The control method for a flight-type robot according to Appendix 72, wherein the light source is made to fly while blinking.

(付記74)
前記光源を所定の閾値以上の光束の光を点滅させながら飛行させることを特徴とする付記73に記載の飛行型ロボットの制御方法。
(Appendix 74)
The control method for a flight-type robot according to Appendix 73, wherein the light source is made to fly while blinking a light having a luminous flux equal to or higher than a predetermined threshold value.

(付記75)
前記無人航空機に搭載された無線通信インターフェースを備え、
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、前記無線通信インターフェースを介して、当該画像を所定の宛先に送信することを特徴とする付記53~74のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 75)
Equipped with a wireless communication interface mounted on the unmanned aerial vehicle
When the monitoring target is recognized based on the image taken by the camera, the image is transmitted to a predetermined destination via the wireless communication interface. The control method of the flying robot described.

(付記76)
前記所定の宛先は、特定のスマートフォンに設定された電子メールアドレスであることを特徴とする付記75に記載の飛行型ロボットの制御方法。
(Appendix 76)
The control method for a flight-type robot according to Appendix 75, wherein the predetermined destination is an e-mail address set in a specific smartphone.

(付記77)
前記所定の宛先は、クラウドネットワーク上に設定された特定のURLであることを特徴とする付記75に記載の飛行型ロボットの制御方法。
(Appendix 77)
The control method for a flight-type robot according to Appendix 75, wherein the predetermined destination is a specific URL set on a cloud network.

(付記78)
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該画像を所定の記憶領域に記憶することを特徴とする付記53~77のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 78)
The control of the flight-type robot according to any one of the appendices 53 to 77, wherein when the monitoring target is recognized based on the image taken by the camera, the image is stored in a predetermined storage area. Method.

以上のように、この発明にかかる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法は、所望の場所を監視する飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法に有用であり、特に、農産物を生産する農場を監視する飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法に適している。 As described above, the flight robot, the control program for the flight robot, and the control method for the flight robot according to the present invention include the flight robot for monitoring a desired location, the control program for the flight robot, and the control for the flight robot. It is useful for methods, and is particularly suitable for flying robots that monitor farms that produce agricultural products, control programs for flying robots, and control methods for flying robots.

101 飛行型ロボット
102 プロペラ
103 カメラ
104 LEDランプ
201 バッテリー
202 モーター
203 マイク
204 スピーカー
205 GPSセンサー
206 対物センサー
207 制御回路
208 加速度センサー
209 通信I/F
210 ソーラーセル
301 ステーション
302 外装部
303 バッテリー
304 送電コイル
305 ソーラーセル
401 記憶部
402 検出部
403 撮影部
404 取得部
405 駆動部
406 出力部
407 制御部
601 支柱
602 ゴミ集積場
701 カラス
1001 飛行型ロボット
1201 樹木
1201a 枝葉
1201b 果物
1202 箱
1203 犯罪者
1301 豚
101 Flying robot 102 Propeller 103 Camera 104 LED lamp 201 Battery 202 Motor 203 Microphone 204 Speaker 205 GPS sensor 206 Objective sensor 207 Control circuit 208 Accelerometer 209 Communication I / F
210 Solar cell 301 Station 302 Exterior part 303 Battery 304 Power transmission coil 305 Solar cell 401 Storage part 402 Detection part 403 Shooting part 404 Acquisition part 405 Drive part 406 Output part 407 Control part 601 Prop 602 Garbage collection area 701 Karasu 1001 Flying robot 1201 Trees 1201a Branches and leaves 1201b Fruits 1202 Boxes 1203 Criminals 1301 Pigs

Claims (78)

自動操縦により飛行する無人航空機と、
前記無人航空機に搭載されたカメラと、
を備え、
前記カメラによって撮影された画像に基づいて、監視対象を認識した場合、当該監視対象に接近するように飛行することを特徴とする飛行型ロボット。
Unmanned aerial vehicles flying by autopilot and
The camera mounted on the unmanned aerial vehicle and
Equipped with
A flight-type robot characterized in that when a monitored object is recognized based on an image taken by the camera, the robot flies so as to approach the monitored object.
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該監視対象の全方位からの画像を撮影するように飛行することを特徴とする請求項1に記載の飛行型ロボット。 The flight-type robot according to claim 1, wherein when the monitored object is recognized based on an image captured by the camera, the robot flies so as to capture an image from all directions of the monitored object. あらかじめ設定された所定の範囲内において前記カメラによって撮影された画像に基づいて、監視対象を認識することを特徴とする請求項1または2に記載の飛行型ロボット。 The flight-type robot according to claim 1 or 2, wherein the monitoring target is recognized based on an image taken by the camera within a predetermined range set in advance. 前記所定の範囲は、農場であることを特徴とする請求項3に記載の飛行型ロボット。 The flight-type robot according to claim 3, wherein the predetermined range is a farm. 前記監視対象は、前記農場における農産物または当該農産物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする請求項4に記載の飛行型ロボット。 The flying robot according to claim 4, wherein the monitoring target is a bird or a beast or a human who possesses or carries an agricultural product or an article presumed to be the agricultural product on the farm. 前記所定の範囲は、作物栽培農場であることを特徴とする請求項3または4に記載の飛行型ロボット。 The flying robot according to claim 3 or 4, wherein the predetermined range is a crop cultivation farm. 前記監視対象は、前記作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする請求項6に記載の飛行型ロボット。 The flying robot according to claim 6, wherein the monitoring target is a bird or a beast or a human who possesses or carries a cultivated crop on the crop cultivating farm or an article presumed to be the cultivated crop. 前記所定の範囲は、畜産農場であることを特徴とする請求項3または4に記載の飛行型ロボット。 The flight-type robot according to claim 3 or 4, wherein the predetermined range is a livestock farm. 前記監視対象は、前記畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする請求項8に記載の飛行型ロボット。 The flying robot according to claim 8, wherein the monitoring target is a livestock or poultry on the livestock farm, or a bird or beast or a human who possesses or carries an article presumed to be the livestock or poultry. 前記所定の範囲は、養蜂場であることを特徴とする請求項3または4に記載の飛行型ロボット。 The flight-type robot according to claim 3 or 4, wherein the predetermined range is an apiary. 前記監視対象は、養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする請求項10に記載の飛行型ロボット。 The flying robot according to claim 10, wherein the monitoring target is a bird or beast or a human who possesses or carries a hive used for beekeeping or an article presumed to be the hive. あらかじめ設定された時間帯に前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行することを特徴とする請求項1~11のいずれか一つに記載の飛行型ロボット。 One of claims 1 to 11, wherein when the monitored object is recognized based on an image taken by the camera in a preset time zone, the aircraft flies so as to approach the monitored object. The flight type robot described in one. 所定の入力操作または所定の信号を受け付けてから、当該所定の入力操作を無効とする操作または所定の信号を無効とする信号を受け付けるまでの間に、前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行することを特徴とする請求項1~12のいずれか一つに記載の飛行型ロボット。 Based on the image taken by the camera between the reception of a predetermined input operation or a predetermined signal and the reception of an operation for invalidating the predetermined input operation or a signal for disabling the predetermined signal, based on the image taken by the camera. The flight-type robot according to any one of claims 1 to 12, wherein when the monitored object is recognized, the aircraft flies so as to approach the monitored object. 前記監視対象を認識した場合、当該監視対象に接近するように飛行するとともに、当該監視対象に向けて所定の音声を出力することを特徴とする請求項1~13のいずれか一つに記載の飛行型ロボット。 The invention according to any one of claims 1 to 13, wherein when the monitored object is recognized, the aircraft flies closer to the monitored object and outputs a predetermined voice to the monitored object. Flying robot. 前記所定の音声は、盗難を注意または警告する発話を録音した音声、または、盗難を注意または警告する発話を模した合成音声であることを特徴とする請求項14に記載の飛行型ロボット。 The flight-type robot according to claim 14, wherein the predetermined voice is a voice recording a utterance that warns or warns of theft, or a synthetic voice that imitates a utterance that warns or warns of theft. 前記所定の音声は、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声であることを特徴とする請求項14に記載の飛行型ロボット。 The flying robot according to claim 14, wherein the predetermined voice is a voice of a siren, a horn, a whistle or a whistle, or a synthetic voice imitating at least one of these voices. 認識した前記監視対象が、あらかじめ設定された監視範囲内に存在する間、前記所定の音声を出力することを特徴とする請求項14~16のいずれか一つに記載の飛行型ロボット。 The flight-type robot according to any one of claims 14 to 16, wherein the recognized monitoring target outputs a predetermined voice while the monitored object is within a preset monitoring range. 前記所定の音声は、音圧レベルが80dB以上であることを特徴とする請求項14~17のいずれか一つに記載の飛行型ロボット。 The flight-type robot according to any one of claims 14 to 17, wherein the predetermined voice has a sound pressure level of 80 dB or more. 前記所定の音声は、ラウドネスレベルが90フォン以上であることを特徴とする請求項14~17のいずれか一つに記載の飛行型ロボット。 The flight-type robot according to any one of claims 14 to 17, wherein the predetermined voice has a loudness level of 90 phones or more. 前記無人航空機に搭載された光源を備え、
前記光源を発光させながら飛行することを特徴とする請求項1~19のいずれか一つに記載の飛行型ロボット。
Equipped with a light source mounted on the unmanned aerial vehicle
The flight-type robot according to any one of claims 1 to 19, wherein the robot flies while emitting light from the light source.
前記光源を点滅させながら飛行することを特徴とする請求項20に記載の飛行型ロボット。 The flight-type robot according to claim 20, wherein the robot flies while blinking the light source. 前記光源を所定の閾値以上の光束の光を点滅させながら飛行することを特徴とする請求項21に記載の飛行型ロボット。 The flight-type robot according to claim 21, wherein the light source flies while blinking a light having a luminous flux equal to or higher than a predetermined threshold value. 前記無人航空機に搭載された無線通信インターフェースを備え、
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、前記無線通信インターフェースを介して、当該画像を所定の宛先に送信することを特徴とする請求項1~22のいずれか一つに記載の飛行型ロボット。
Equipped with a wireless communication interface mounted on the unmanned aerial vehicle
One of claims 1 to 22, wherein when the monitoring target is recognized based on the image taken by the camera, the image is transmitted to a predetermined destination via the wireless communication interface. The flying robot described in.
前記所定の宛先は、特定のスマートフォンに設定された電子メールアドレスであることを特徴とする請求項23に記載の飛行型ロボット。 The flight-type robot according to claim 23, wherein the predetermined destination is an e-mail address set in a specific smartphone. 前記所定の宛先は、クラウドネットワーク上に設定された特定のURLであることを特徴とする請求項23に記載の飛行型ロボット。 The flight-type robot according to claim 23, wherein the predetermined destination is a specific URL set on the cloud network. 前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該画像を所定の記憶領域に記憶することを特徴とする請求項1~25のいずれか一つに記載の飛行型ロボット。 The flight-type robot according to any one of claims 1 to 25, wherein when the monitored object is recognized based on an image taken by the camera, the image is stored in a predetermined storage area. カメラが搭載され、自動操縦により飛行させる無人航空機を備える飛行型ロボットのコンピュータに、
前記カメラによる撮影をおこなわせ、
前記カメラによって撮影された画像に基づいて、監視対象を認識した場合、当該対象物に接近するように飛行させる、
処理を実行させることを特徴とする飛行型ロボットの制御プログラム。
A computer of a flying robot equipped with an unmanned aerial vehicle equipped with a camera and flying by autopilot,
Take a picture with the camera
When a monitored object is recognized based on the image taken by the camera, the object is made to fly closer to the object.
A control program for a flying robot characterized by executing processing.
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該監視対象の全方位からの画像を撮影するように飛行させることを特徴とする請求項27に記載の飛行型ロボットの制御プログラム。 The control of the flight-type robot according to claim 27, wherein when the monitored object is recognized based on the image captured by the camera, the robot is made to fly so as to capture an image from all directions of the monitored object. program. あらかじめ設定された所定の範囲内において前記カメラによって撮影された画像に基づいて、監視対象を認識することを特徴とする請求項27または28に記載の飛行型ロボットの制御プログラム。 The control program for a flight-type robot according to claim 27 or 28, wherein the monitoring target is recognized based on an image taken by the camera within a predetermined range set in advance. 前記所定の範囲は、農場であることを特徴とする請求項29に記載の飛行型ロボットの制御プログラム。 The control program for a flying robot according to claim 29, wherein the predetermined range is a farm. 前記監視対象は、前記農場における農産物または当該農産物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする請求項30に記載の飛行型ロボットの制御プログラム。 The control program for a flying robot according to claim 30, wherein the monitoring target is a bird or a beast or a human who possesses or carries an agricultural product or an article presumed to be the agricultural product on the farm. 前記所定の範囲は、作物栽培農場であることを特徴とする請求項29または30に記載の飛行型ロボットの制御プログラム。 The control program for a flying robot according to claim 29 or 30, wherein the predetermined range is a crop cultivation farm. 前記監視対象は、前記作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする請求項32に記載の飛行型ロボットの制御プログラム。 The control program for a flying robot according to claim 32, wherein the monitored object is a bird or beast or a human being possessing or transporting a cultivated crop on the crop cultivating farm or an article presumed to be the cultivated crop. 前記所定の範囲は、畜産農場であることを特徴とする請求項29または30に記載の飛行型ロボットの制御プログラム。 The control program for a flying robot according to claim 29 or 30, wherein the predetermined range is a livestock farm. 前記監視対象は、前記畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする請求項34に記載の飛行型ロボットの制御プログラム。 The flying robot according to claim 34, wherein the monitoring target is a livestock or poultry on the livestock farm, or a bird or beast or a human who possesses or carries an article presumed to be the livestock or poultry. Control program. 前記所定の範囲は、養蜂場であることを特徴とする請求項29または30に記載の飛行型ロボットの制御プログラム。 The control program for a flying robot according to claim 29 or 30, wherein the predetermined range is an apiary. 前記監視対象は、養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする請求項36に記載の飛行型ロボットの制御プログラム。 The control program for a flying robot according to claim 36, wherein the monitored object is a bird or beast or a human who possesses or carries a hive used for beekeeping or an article presumed to be the hive. あらかじめ設定された時間帯に前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行させることを特徴とする請求項27~37のいずれか一つに記載の飛行型ロボットの制御プログラム。 One of claims 27 to 37, wherein when the monitored object is recognized based on an image taken by the camera in a preset time zone, the aircraft is made to fly so as to approach the monitored object. The control program for the flying robot described in one. 所定の入力操作または所定の信号を受け付けてから、当該所定の入力操作を無効とする操作または所定の信号を無効とする信号を受け付けるまでの間に、前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行させることを特徴とする請求項27~38のいずれか一つに記載の飛行型ロボットの制御プログラム。 Based on the image taken by the camera between the reception of a predetermined input operation or a predetermined signal and the reception of an operation for invalidating the predetermined input operation or a signal for disabling the predetermined signal, based on the image taken by the camera. The control program for a flight-type robot according to any one of claims 27 to 38, wherein when the monitored object is recognized, the flight is made to approach the monitored object. 前記監視対象を認識した場合、当該監視対象に接近するように飛行させるとともに、当該監視対象に向けて所定の音声を出力することを特徴とする請求項27~39のいずれか一つに記載の飛行型ロボットの制御プログラム。 The invention according to any one of claims 27 to 39, wherein when the monitored object is recognized, the aircraft is made to fly close to the monitored object and a predetermined voice is output to the monitored object. Control program for flying robots. 前記所定の音声は、盗難を注意または警告する発話を録音した音声、または、盗難を注意または警告する発話を模した合成音声であることを特徴とする請求項40に記載の飛行型ロボットの制御プログラム。 The control of the flying robot according to claim 40, wherein the predetermined voice is a recorded voice of an utterance that warns or warns of theft, or a synthetic voice that imitates a voice that warns or warns of theft. program. 前記所定の音声は、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声であることを特徴とする請求項40に記載の飛行型ロボットの制御プログラム。 The flying robot according to claim 40, wherein the predetermined voice is a voice of a siren, a horn, a whistle or a whistle, or a synthetic voice imitating at least one of these voices. Control program. 認識した前記監視対象が、あらかじめ設定された監視範囲内に存在する間、前記所定の音声を出力することを特徴とする請求項40~42のいずれか一つに記載の飛行型ロボットの制御プログラム。 The control program for a flight-type robot according to any one of claims 40 to 42, wherein the recognized monitoring target outputs a predetermined voice while the monitored object is within a preset monitoring range. .. 前記所定の音声は、音圧レベルが80dB以上であることを特徴とする請求項40~43のいずれか一つに記載の飛行型ロボットの制御プログラム。 The control program for a flight-type robot according to any one of claims 40 to 43, wherein the predetermined voice has a sound pressure level of 80 dB or more. 前記所定の音声は、ラウドネスレベルが90フォン以上であることを特徴とする請求項40~43のいずれか一つに記載の飛行型ロボットの制御プログラム。 The control program for a flying robot according to any one of claims 40 to 43, wherein the predetermined voice has a loudness level of 90 phones or more. 前記無人航空機に搭載された光源を備え、
前記光源を発光させながら飛行させることを特徴とする請求項27~45のいずれか一つに記載の飛行型ロボットの制御プログラム。
Equipped with a light source mounted on the unmanned aerial vehicle
The control program for a flight-type robot according to any one of claims 27 to 45, wherein the light source is made to fly while emitting light.
前記光源を点滅させながら飛行させることを特徴とする請求項46に記載の飛行型ロボットの制御プログラム。 The control program for a flying robot according to claim 46, wherein the light source is made to fly while blinking. 前記光源を所定の閾値以上の光束の光を点滅させながら飛行させることを特徴とする請求項47に記載の飛行型ロボットの制御プログラム。 The control program for a flying robot according to claim 47, wherein the light source is made to fly while blinking a light having a luminous flux equal to or higher than a predetermined threshold value. 前記無人航空機に搭載された無線通信インターフェースを備え、
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、前記無線通信インターフェースを介して、当該画像を所定の宛先に送信することを特徴とする請求項27~48のいずれか一つに記載の飛行型ロボットの制御プログラム。
Equipped with a wireless communication interface mounted on the unmanned aerial vehicle
One of claims 27 to 48, wherein when the monitoring target is recognized based on the image taken by the camera, the image is transmitted to a predetermined destination via the wireless communication interface. The control program for the flying robot described in.
前記所定の宛先は、特定のスマートフォンに設定された電子メールアドレスであることを特徴とする請求項49に記載の飛行型ロボットの制御プログラム。 The control program for a flying robot according to claim 49, wherein the predetermined destination is an e-mail address set in a specific smartphone. 前記所定の宛先は、クラウドネットワーク上に設定された特定のURLであることを特徴とする請求項49に記載の飛行型ロボットの制御プログラム。 The control program for a flight-type robot according to claim 49, wherein the predetermined destination is a specific URL set on a cloud network. 前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該画像を所定の記憶領域に記憶することを特徴とする請求項27~51のいずれか一つに記載の飛行型ロボットの制御プログラム。 The flight-type robot according to any one of claims 27 to 51, wherein when the monitored object is recognized based on an image taken by the camera, the image is stored in a predetermined storage area. Control program. カメラが搭載され、自動操縦により飛行させる無人航空機を備える飛行型ロボットのコンピュータに、
前記カメラによる撮影をおこなわせ、
前記カメラによって撮影された画像に基づいて、監視対象を認識した場合、当該対象物に接近するように飛行させる、
処理を実行させることを特徴とする飛行型ロボットの制御方法。
A computer of a flying robot equipped with an unmanned aerial vehicle equipped with a camera and flying by autopilot,
Take a picture with the camera
When a monitored object is recognized based on the image taken by the camera, the object is made to fly closer to the object.
A control method for a flying robot characterized by executing a process.
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該監視対象の全方位からの画像を撮影するように飛行させることを特徴とする請求項53に記載の飛行型ロボットの制御方法。 The control of the flight-type robot according to claim 53, wherein when the monitored object is recognized based on an image captured by the camera, the robot is made to fly so as to capture an image from all directions of the monitored object. Method. あらかじめ設定された所定の範囲内において前記カメラによって撮影された画像に基づいて、監視対象を認識することを特徴とする請求項53または54に記載の飛行型ロボットの制御方法。 The control method for a flight-type robot according to claim 53 or 54, wherein the monitoring target is recognized based on an image taken by the camera within a predetermined range set in advance. 前記所定の範囲は、農場であることを特徴とする請求項55に記載の飛行型ロボットの制御方法。 The control method for a flying robot according to claim 55, wherein the predetermined range is a farm. 前記監視対象は、前記農場における農産物または当該農産物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする請求項56に記載の飛行型ロボットの制御方法。 The control method for a flying robot according to claim 56, wherein the monitored object is a bird or a beast or a human who possesses or carries an agricultural product or an article presumed to be the agricultural product on the farm. 前記所定の範囲は、作物栽培農場であることを特徴とする請求項55または56に記載の飛行型ロボットの制御方法。 The control method for a flying robot according to claim 55 or 56, wherein the predetermined range is a crop cultivation farm. 前記監視対象は、前記作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする請求項58に記載の飛行型ロボットの制御方法。 The control method for a flying robot according to claim 58, wherein the monitoring target is a bird or a beast or a human who possesses or carries a cultivated crop or an article presumed to be the cultivated crop on the crop cultivation farm. 前記所定の範囲は、畜産農場であることを特徴とする請求項55または56に記載の飛行型ロボットの制御方法。 The control method for a flying robot according to claim 55 or 56, wherein the predetermined range is a livestock farm. 前記監視対象は、前記畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする請求項60に記載の飛行型ロボットの制御方法。 The flying robot according to claim 60, wherein the monitoring target is a livestock or poultry on the livestock farm, or a bird or beast or a human who possesses or carries an article presumed to be the livestock or poultry. Control method. 前記所定の範囲は、養蜂場であることを特徴とする請求項55または56に記載の飛行型ロボットの制御方法。 The control method for a flying robot according to claim 55 or 56, wherein the predetermined range is an apiary. 前記監視対象は、養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする請求項62に記載の飛行型ロボットの制御方法。 The control method for a flying robot according to claim 62, wherein the monitored object is a bird or beast or a human who possesses or carries a hive used for beekeeping or an article presumed to be the hive. あらかじめ設定された時間帯に前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行させることを特徴とする請求項55~63のいずれか一つに記載の飛行型ロボットの制御方法。 One of claims 55 to 63, wherein when the monitored object is recognized based on an image taken by the camera in a preset time zone, the object is made to fly so as to approach the monitored object. The control method of the flying robot described in 1. 所定の入力操作または所定の信号を受け付けてから、当該所定の入力操作を無効とする操作または所定の信号を無効とする信号を受け付けるまでの間に、前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行させることを特徴とする請求項53~64のいずれか一つに記載の飛行型ロボットの制御方法。 Based on the image taken by the camera between the reception of a predetermined input operation or a predetermined signal and the reception of an operation for invalidating the predetermined input operation or a signal for disabling the predetermined signal, based on the image taken by the camera. The control method for a flight-type robot according to any one of claims 53 to 64, wherein when the monitoring target is recognized, the flight is made to approach the monitoring target. 前記監視対象を認識した場合、当該監視対象に接近するように飛行させるとともに、当該監視対象に向けて所定の音声を出力することを特徴とする請求項55~65のいずれか一つに記載の飛行型ロボットの制御方法。 The invention according to any one of claims 55 to 65, wherein when the monitored object is recognized, the aircraft is made to fly close to the monitored object and a predetermined voice is output to the monitored object. How to control a flying robot. 前記所定の音声は、盗難を注意または警告する発話を録音した音声、または、盗難を注意または警告する発話を模した合成音声であることを特徴とする請求項66に記載の飛行型ロボットの制御方法。 The control of the flying robot according to claim 66, wherein the predetermined voice is a recorded voice of an utterance to warn or warn of theft, or a synthetic voice imitating a voice to warn or warn of theft. Method. 前記所定の音声は、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声であることを特徴とする請求項66に記載の飛行型ロボットの制御方法。 The flight-type robot according to claim 66, wherein the predetermined voice is a voice of a siren, a horn, a whistle or a whistle, or a synthetic voice imitating at least one of these voices. Control method. 認識した前記監視対象が、あらかじめ設定された監視範囲内に存在する間、前記所定の音声を出力することを特徴とする請求項66~68のいずれか一つに記載の飛行型ロボットの制御方法。 The control method for a flight-type robot according to any one of claims 66 to 68, wherein the recognized monitoring target outputs a predetermined voice while the monitored object is within a preset monitoring range. .. 前記所定の音声は、音圧レベルが80dB以上であることを特徴とする請求項66~69のいずれか一つに記載の飛行型ロボットの制御方法。 The control method for a flight-type robot according to any one of claims 66 to 69, wherein the predetermined voice has a sound pressure level of 80 dB or more. 前記所定の音声は、ラウドネスレベルが90フォン以上であることを特徴とする請求項66~69のいずれか一つに記載の飛行型ロボットの制御方法。 The control method for a flying robot according to any one of claims 66 to 69, wherein the predetermined voice has a loudness level of 90 phones or more. 前記無人航空機に搭載された光源を備え、
前記光源を発光させながら飛行させることを特徴とする請求項55~71のいずれか一つに記載の飛行型ロボットの制御方法。
Equipped with a light source mounted on the unmanned aerial vehicle
The control method for a flight-type robot according to any one of claims 55 to 71, wherein the light source is made to fly while emitting light.
前記光源を点滅させながら飛行させることを特徴とする請求項72に記載の飛行型ロボットの制御方法。 The control method for a flying robot according to claim 72, wherein the light source is made to fly while blinking. 前記光源を所定の閾値以上の光束の光を点滅させながら飛行させることを特徴とする請求項73に記載の飛行型ロボットの制御方法。 The control method for a flying robot according to claim 73, wherein the light source is made to fly while blinking a light having a luminous flux equal to or higher than a predetermined threshold value. 前記無人航空機に搭載された無線通信インターフェースを備え、
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、前記無線通信インターフェースを介して、当該画像を所定の宛先に送信することを特徴とする請求項53~74のいずれか一つに記載の飛行型ロボットの制御方法。
Equipped with a wireless communication interface mounted on the unmanned aerial vehicle
One of claims 53 to 74, wherein when the monitoring target is recognized based on the image taken by the camera, the image is transmitted to a predetermined destination via the wireless communication interface. The control method of the flying robot described in.
前記所定の宛先は、特定のスマートフォンに設定された電子メールアドレスであることを特徴とする請求項75に記載の飛行型ロボットの制御方法。 The control method for a flying robot according to claim 75, wherein the predetermined destination is an e-mail address set in a specific smartphone. 前記所定の宛先は、クラウドネットワーク上に設定された特定のURLであることを特徴とする請求項75に記載の飛行型ロボットの制御方法。 The control method for a flight-type robot according to claim 75, wherein the predetermined destination is a specific URL set on a cloud network. 前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該画像を所定の記憶領域に記憶することを特徴とする請求項53~77のいずれか一つに記載の飛行型ロボットの制御方法。 The flight-type robot according to any one of claims 53 to 77, wherein when the monitored object is recognized based on an image taken by the camera, the image is stored in a predetermined storage area. Control method.
JP2020219048A 2020-12-28 2020-12-28 Flight type robot, control program for flight type robot and control method for flight type robot Pending JP2022104061A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020219048A JP2022104061A (en) 2020-12-28 2020-12-28 Flight type robot, control program for flight type robot and control method for flight type robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020219048A JP2022104061A (en) 2020-12-28 2020-12-28 Flight type robot, control program for flight type robot and control method for flight type robot

Publications (2)

Publication Number Publication Date
JP2022104061A true JP2022104061A (en) 2022-07-08
JP2022104061A5 JP2022104061A5 (en) 2024-01-11

Family

ID=82279374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020219048A Pending JP2022104061A (en) 2020-12-28 2020-12-28 Flight type robot, control program for flight type robot and control method for flight type robot

Country Status (1)

Country Link
JP (1) JP2022104061A (en)

Similar Documents

Publication Publication Date Title
JP6274430B2 (en) Pest capture and storage device and pest insecticide device
US9804596B1 (en) Pet security monitoring
JP6181321B2 (en) Method, system and apparatus for guiding a target object
KR101378071B1 (en) Farms and artificial fish bank anti-thief monitoring system and method
KR101251867B1 (en) Adaptive apparatus extirpating the nocturnal animal for protecting farm products, and control terminal for adaptive apparatus extirpating the nocturnal animal
US10076111B2 (en) Game alert system
KR101565134B1 (en) Wild animals extermination system
US20190152595A1 (en) Apparatus for Sustained Surveillance and Deterrence with Unmanned Aerial Vehicles (UAV)
US20180068164A1 (en) Systems and methods for identifying pests in crop-containing areas via unmanned vehicles
US20160277688A1 (en) Low-light trail camera
US10080360B2 (en) Game alert system
JP6921494B2 (en) Pest control device, its method and program
TW201805906A (en) Security system having unmanned aircrafts
WO2017208354A1 (en) Drone flight control system, method, and program
JP2018061513A (en) Pest insect exterminating device
KR101548591B1 (en) Multifunctional indication device
JP6560305B2 (en) Method for guiding a target object and UAV
JP2022104060A (en) Flight type robot, control program of flight type robot, and control method of flight type robot
JP7182051B2 (en) Bird repellent device
Smith et al. A method for low‐cost, low‐impact insect tracking using retroreflective tags
JP3205752U (en) Pests and pest repellents
JP2022104061A (en) Flight type robot, control program for flight type robot and control method for flight type robot
Salmon et al. Mobile Bot Swarms: They're closer than you might think!
US11557142B1 (en) Home wildlife deterrence
JP2022108193A (en) Flight type robot, control program of flight type robot and control method of flight type robot

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231227