WO2020136703A1 - 無人航空機制御システム、無人航空機制御方法、及びプログラム - Google Patents

無人航空機制御システム、無人航空機制御方法、及びプログラム Download PDF

Info

Publication number
WO2020136703A1
WO2020136703A1 PCT/JP2018/047480 JP2018047480W WO2020136703A1 WO 2020136703 A1 WO2020136703 A1 WO 2020136703A1 JP 2018047480 W JP2018047480 W JP 2018047480W WO 2020136703 A1 WO2020136703 A1 WO 2020136703A1
Authority
WO
WIPO (PCT)
Prior art keywords
unmanned aerial
aerial vehicle
landing
type
takeoff
Prior art date
Application number
PCT/JP2018/047480
Other languages
English (en)
French (fr)
Inventor
敏明 田爪
勇人 水上
清楠 周
Original Assignee
楽天株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 楽天株式会社 filed Critical 楽天株式会社
Priority to US15/734,227 priority Critical patent/US11816999B2/en
Priority to PCT/JP2018/047480 priority patent/WO2020136703A1/ja
Priority to JP2020502248A priority patent/JP6748797B1/ja
Publication of WO2020136703A1 publication Critical patent/WO2020136703A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0004Transmission of traffic-related information to or from an aircraft
    • G08G5/0013Transmission of traffic-related information to or from an aircraft with a ground station
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/18Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F1/00Ground or aircraft-carrier-deck installations
    • B64F1/007Helicopter portable landing pads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F1/00Ground or aircraft-carrier-deck installations
    • B64F1/18Visual or acoustic landing aids
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U70/00Launching, take-off or landing arrangements
    • B64U70/90Launching from or landing on platforms
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/04Control of altitude or depth
    • G05D1/06Rate of change of altitude or depth
    • G05D1/0607Rate of change of altitude or depth specially adapted for aircraft
    • G05D1/0653Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/04Control of altitude or depth
    • G05D1/06Rate of change of altitude or depth
    • G05D1/0607Rate of change of altitude or depth specially adapted for aircraft
    • G05D1/0653Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing
    • G05D1/0676Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing specially adapted for landing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0021Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0065Navigation or guidance aids for a single aircraft for taking-off
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0086Surveillance aids for monitoring terrain
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/02Automatic approach or landing aids, i.e. systems in which flight data of incoming planes are processed to provide landing data
    • G08G5/025Navigation or guidance aids
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/04Anti-collision systems
    • G08G5/045Navigation or guidance aids, e.g. determination of anti-collision manoeuvers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/60UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
    • B64U2101/64UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons for parcel delivery or retrieval
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Definitions

  • the present invention relates to an unmanned aerial vehicle control system, an unmanned aerial vehicle control method, and a program.
  • a laser sensor detects whether or not an object such as a person exists in a port where an unmanned aerial vehicle takes off and land, and restricts the takeoff and landing of an unmanned aerial vehicle when an object exists in the port. Describes a technique for improving safety during takeoff and landing.
  • the present invention has been made in view of the above problems, and an object thereof is to provide an unmanned aerial vehicle control system, an unmanned aerial vehicle control method, and a program capable of improving both safety and flexibility. That is.
  • the unmanned aerial vehicle control system a detection means for detecting an object in a place where at least one of the landing and takeoff of the unmanned aerial vehicle, and the detection result of the detection means Based on the type specified by the type specifying unit, based on the type specified by the type specifying unit, a limiting unit for limiting at least one of landing and takeoff of the unmanned aerial vehicle, And
  • the unmanned aerial vehicle control method includes a detection step for detecting an object in a place where at least one of landing and takeoff of the unmanned aerial vehicle is performed, and based on the detection result of the detecting step, determines the type of the object. It includes a type specifying step of specifying and a limiting step of restricting at least one of landing and takeoff of the unmanned aerial vehicle based on the type specified by the type specifying step.
  • the program according to the present invention based on the detection result of the detection means for detecting an object in the place where at least one of the landing and takeoff of the unmanned aerial vehicle is performed, type specifying means for specifying the type of the object, the type
  • the computer is caused to function as a limiting unit that limits at least one of landing and takeoff of the unmanned aerial vehicle based on the type identified by the identifying unit.
  • the type specifying unit specifies, as the type, whether the object is a stationary object that is stationary, a moving object that is moving, or a moving object that can move. Is based on whether the object is the stationary object or the moving object, and limits at least one of landing and takeoff of the unmanned aerial vehicle.
  • the unmanned aerial vehicle is capable of carrying a cargo
  • the type identifying means identifies, as the type, whether it is a cargo or something other than a cargo
  • the limiting means At least one of landing and takeoff of the unmanned aerial vehicle is restricted based on whether the object is cargo or non-cargo.
  • the location is predetermined an area for causing the unmanned aerial vehicle to perform at least one of landing and takeoff
  • the detection means is an object in the area, and At least one of an object around the area is detected.
  • the unmanned aerial vehicle control system further includes position specifying means for specifying a position of the object, and the limiting means further includes the position specifying means for specifying the position, At least one of landing and takeoff of the unmanned aerial vehicle is restricted.
  • the restriction unit restricts at least one of landing and takeoff of the unmanned aerial vehicle when the type specified by the type specifying unit is a predetermined restriction target type, and the restriction is performed.
  • the target type is set according to the position specified by the position specifying means.
  • the location is predetermined as an area for causing the unmanned aerial vehicle to perform at least one of landing and takeoff, and the position specifying means, as the position, in the area. Whether the object is in the area or around the area, and the restriction means restricts at least one of landing and takeoff of the unmanned aerial vehicle based on whether the object is within the area or around the area. It is characterized by:
  • the restriction means restricts at least one of landing and takeoff of the unmanned aircraft when the type specified by the type specifying means is a predetermined restriction target type, and the unmanned The aircraft flies based on any of a plurality of flight modes, the unmanned aerial vehicle control system further includes flight mode identifying means for identifying a flight mode of the unmanned aerial vehicle, and the restriction target type is the flight. It is characterized in that it is set according to the mode.
  • the restriction unit restricts at least one of landing and takeoff of the unmanned aerial vehicle when the type specified by the type specifying unit is a predetermined restriction target type, and the restriction is performed.
  • the target type is set according to whether the unmanned aerial vehicle performs landing or takeoff.
  • the unmanned aerial vehicle is capable of carrying cargo
  • the restriction target type is freight
  • the limiting means is the type specifying means when the unmanned aerial vehicle takes off. Even if the cargo is specified by, the takeoff of the unmanned aerial vehicle is not restricted, and when the unmanned aerial vehicle lands, the landing of the unmanned aerial vehicle is restricted when the cargo is specified by the type specifying means. , Is characterized.
  • the unmanned aerial vehicle control system provides a positional relationship specifying unit that specifies a positional relationship between the unmanned aerial vehicle in flight and the place, and a positional relationship specified by the positional relationship specifying unit. It is characterized by further including a transmission means for transmitting information according to the positional relationship to a corresponding transmission destination.
  • the positional relationship specifying unit specifies a distance between the unmanned aerial vehicle in flight and the place as the positional relationship, and the transmitting unit is specified by the positional relationship specifying unit.
  • the information according to the distance is transmitted to the destination according to the distance.
  • the transmitting means transmits first information to a first destination when the distance is less than a first threshold value, and the distance is the first threshold value.
  • the second information is transmitted to the second destination when the second threshold is smaller than the second threshold which is smaller than the second threshold.
  • the transmitting unit transmits a predetermined message to the user terminal when the distance is less than the first threshold, and the distance is less than the second threshold.
  • a control signal based on the limiting means is transmitted to the unmanned aerial vehicle.
  • a positional relationship specifying unit that specifies a positional relationship between an unmanned aerial vehicle in flight and a place where at least one of landing and takeoff is performed, and a position specified by the positional relationship specifying unit.
  • a transmission means for transmitting information according to the positional relationship is included in a transmission destination according to the relationship.
  • FIG. 6 is a functional block diagram of Embodiment 2.
  • FIG. FIG. 8 is a diagram showing a process executed in the second embodiment.
  • Embodiment 1 an example of an embodiment of the unmanned aerial vehicle control system according to the present invention (hereinafter, referred to as Embodiment 1) will be described.
  • FIG. 1 is a diagram showing an overall configuration of an unmanned aerial vehicle control system.
  • the unmanned aerial vehicle control system 1 includes a server 10, an unmanned aerial vehicle 20, a user terminal 30, and a detection device 40, which are connected to a network N.
  • the server 10, the unmanned aerial vehicle 20, the user terminal 30, and the detection device 40 is shown in FIG. 1 one by one, a plurality of these may be provided.
  • the server 10 is a server computer.
  • the server 10 includes a control unit 11, a storage unit 12, and a communication unit 13.
  • the control unit 11 includes at least one microprocessor.
  • the control unit 11 executes processing according to the programs and data stored in the storage unit 12.
  • the storage unit 12 includes a main storage unit and an auxiliary storage unit.
  • the main storage unit is a volatile memory such as a RAM
  • the auxiliary storage unit is a non-volatile memory such as a ROM, an EEPROM, a flash memory, or a hard disk.
  • the communication unit 13 is a communication interface for wired communication or wireless communication, and performs data communication via the network N.
  • the unmanned aerial vehicle 20 is an aircraft on which no person is boarding, and is, for example, a battery-driven unmanned aerial vehicle (so-called drone) or an engine-driven unmanned aerial vehicle.
  • the unmanned aerial vehicle 20 includes a control unit 21, a storage unit 22, a communication unit 23, a photographing unit 24, and a sensor unit 25.
  • the unmanned aerial vehicle 20 also includes a propeller, a motor, a battery, an antenna, and the like, but the description thereof is omitted here.
  • the control unit 21, the storage unit 22, and the communication unit 23 may have the same hardware configuration as the control unit 11, the storage unit 12, and the communication unit 13, respectively.
  • the communication unit 23 may include a wireless communication interface for a specific device (for example, a radio-controlled model) such as FASST, FHSS, DMSS, or AFHSS, and wirelessly communicates with a control unit (a so-called radio transmitter) via the communication unit 13.
  • a specific device for example, a radio-controlled model
  • the unmanned aerial vehicle 20 may be steerable by communicating.
  • the image capturing unit 24 includes at least one camera.
  • the image capturing unit 24 includes an image sensor such as a CCD image sensor or a CMOS image sensor, and records an image captured by the image sensor as digital data.
  • the image may be a still image or may be a moving image continuously shot at a predetermined frame rate.
  • the sensor unit 25 includes at least one sensor, for example, a GPS sensor.
  • the GPS sensor includes a receiver that receives a signal from a satellite, and detects the position information based on the signal received by the receiver, for example.
  • the position information is, for example, latitude/longitude information or coordinate information, and may be, for example, a two-dimensional position on the ground or a three-dimensional position including altitude.
  • any sensor may be mounted on the unmanned aerial vehicle 20, and the sensor unit 25 includes an acceleration sensor, a gyro sensor, a wind sensor, a geomagnetic sensor, an altitude sensor, a displacement sensor, a pressure sensor, an infrared sensor, a laser sensor, Any sensor such as an ultrasonic sensor or a temperature sensor may be included.
  • the user terminal 30 is a computer operated by the user.
  • the user terminal 30 is a mobile phone (including a smartphone), a mobile information terminal (including a tablet computer), a personal computer, or the like.
  • the user terminal 30 includes a control unit 31, a storage unit 32, a communication unit 33, an operation unit 34, a display unit 35, and a photographing unit 36.
  • the control unit 31, the storage unit 32, the communication unit 33, and the photographing unit 36 may have the same hardware configuration as the control unit 11, the storage unit 12, the communication unit 13, and the photographing unit 24, respectively.
  • the operation unit 34 is an input device, and is, for example, a touch panel, a pointing device such as a mouse, a keyboard, or a button.
  • the operation unit 34 transmits the operation content of the user to the control unit 31.
  • the display unit 35 is, for example, a liquid crystal display unit, an organic EL display unit, or the like.
  • the display unit 35 displays the image according to the instruction of the control unit 31.
  • the detection device 40 is a device for detecting an object.
  • the detection device 40 is a camera, an infrared sensor, a depth sensor, a laser sensor, a thermal sensor, an ultrasonic sensor, a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) sensor, a human sensor, or a pressure sensor.
  • the detection device 40 may use these plural sensors together.
  • the detection device 40 is a camera, and an object captured by the detection device 40 is analyzed to detect the object.
  • the detection device 40 includes a communication interface for wired communication or wireless communication, and can transmit its own detection result (in the present embodiment, a captured image captured by the camera) to the server 10 or the like. May be connected to the user terminal 30 and the detection result may be transmitted to the server 10 or the like via the user terminal 30.
  • each of the server 10, the unmanned aerial vehicle 20, the user terminal 30, and the detection device 40 may include a reading unit (for example, a memory card slot or an optical disc drive) that reads a computer-readable information storage medium, or an external device. And an input/output unit (for example, a USB port) for communicating with.
  • a reading unit for example, a memory card slot or an optical disc drive
  • an input/output unit for example, a USB port
  • the programs and data described as being stored in each device may be supplied via the reading unit or the input/output unit, or may be supplied via the network N. ..
  • Landing is when the unmanned aerial vehicle 20 reaches the land. Landing can also be referred to as touchdown or landing, which means, for example, that the propeller stops completely without the aircraft collapsing. Landing means both riding directly on the surface of the earth and riding the aircraft on objects such as seats and buildings.
  • Takeoff means that the unmanned aerial vehicle 20 takes off from the land and floats in the air. Takeoff may mean that the unmanned aerial vehicle 20 has left the land, or may mean that the airframe stabilizes or rises to a predetermined altitude after taking off. Note that the unmanned aerial vehicle control system 1 may execute only flight control during either landing or takeoff.
  • FIG. 2 is a diagram showing how the unmanned aerial vehicle 20 lands.
  • the port P is arranged on the ground, and the detection device 40 is arranged in the vicinity thereof.
  • a plurality of detection devices 40 may be arranged so as to surround the port P.
  • a communication device such as a Wi-Fi access point may be arranged near the port P.
  • Port P is a place prepared for at least one of landing and takeoff.
  • the port P may be fixed such as a concrete foundation or a rooftop of a building, or may be portable such as a mat, a sheet, and a plate.
  • the unmanned aerial vehicle 20 that can be used for the port P may be predetermined, and for example, the usage time of each of the plurality of unmanned aerial vehicles 20 may be predetermined.
  • the detection device 40 is arranged at a position where part or all of the port P is within the detection range. In other words, the position and orientation of the detection device 40 are determined so that part or all of the port P can be detected.
  • the detection range is a range that can be detected by the detection device 40. In the present embodiment, since the detection device 40 is a camera, the detection range is the shooting range (within the angle of view) of the camera. If the detection device 40 is an infrared sensor, an ultrasonic sensor, or the like, the detection range is a range where infrared rays, ultrasonic waves, or the like reach.
  • the detection range of the detection device 40 includes the port P and its surroundings
  • the imaging range may be only inside the port P.
  • the periphery is an area around the port P, and is, for example, an area outside the port P that is less than a predetermined distance from the port P.
  • a case will be described in which the area excluding the port P in the detection range of the detection device 40 (that is, the part of the captured image where the port P is not shown) corresponds to the surrounding area. Only a part may correspond to the surroundings.
  • the user waits for the unmanned aerial vehicle 20 to arrive near the port P or at a position separated by a certain distance or more.
  • an application hereinafter referred to as a flight management application
  • the flight management application for notifying the current position of the unmanned aerial vehicle 20 and the like is installed in the user terminal 30, and the user activates the flight management application. Then, the flight status of the unmanned aerial vehicle 20 is grasped.
  • the flight management application may be capable of tracking the current position of the unmanned aerial vehicle 20 in real time, or may notify the estimated arrival time of the unmanned aerial vehicle 20. Further, for example, when the unmanned aerial vehicle 20 flies to a position less than a predetermined distance (for example, 100 meters) from the port P as in the second embodiment described later, a message or the like notifying whether landing is possible or the like is notified. May be.
  • a predetermined distance for example, 100 meters
  • the unmanned aerial vehicle 20 may fly without holding any cargo, but in the present embodiment, the unmanned aerial vehicle 20 flies to port P while holding cargo.
  • Freight is an object to be transported, and is an object that the unmanned aerial vehicle 20 transports from a starting point to a destination. Freight is sometimes called luggage.
  • the freight is a product ordered by the user, a mail item to the user, or materials and tools used by the user for work.
  • the unmanned aerial vehicle 20 has a holding member (for example, a catcher, a cage, a container, or the like) that holds the cargo, and carries the cargo held by the holding member.
  • the unmanned aerial vehicle 20 may be operated by the user, but in the present embodiment, the unmanned aerial vehicle 20 autonomously flies on a predetermined route and also autonomously flies during landing and takeoff.
  • Autonomous here means that it is computer-based, not user-based.
  • the case where the user's operation is not considered at all is included autonomously, and the case where the user's operation is considered auxiliary is also included autonomously.
  • the server 10 sets the route of the unmanned aerial vehicle 20, and the server 10 and the unmanned aerial vehicle 20 communicate with each other, whereby the unmanned aerial vehicle 20 autonomously flies.
  • Various methods can be applied to the autonomous flight itself, and for example, an autonomous flight algorithm using GPS may be used. Further, the autonomous flight algorithm is mounted on the unmanned aerial vehicle 20, and the unmanned aerial vehicle 20 may fly without communicating with the server 10.
  • the port P includes a mark M (a circle including the letter “H” in FIG. 2) that serves as a mark for takeoff and landing.
  • the mark M can be used as a target position when landing, or can be used as a position where the unmanned aerial vehicle 20 is placed when taking off.
  • the mark M may be any information that can be detected by the imaging unit 24 or the sensor unit 25 of the unmanned aerial vehicle 20, and may be an image such as a logo or an illustration in addition to the characters.
  • the cargo collection place is set as the departure point of the unmanned aerial vehicle 20, and the position of the port P is set as the destination.
  • the server 10 calculates a flight route from the collection place to the port P, and the unmanned aerial vehicle 20 flies above the port P in the autonomous flight mode based on the flight route.
  • the unmanned aerial vehicle 20 arrives above the port P, the landing mode for landing at the port P is changed.
  • the unmanned aerial vehicle 20 enters the landing mode, the unmanned aerial vehicle 20 detects the mark M using the imaging unit 24 or the sensor unit 25.
  • a known method can be applied to the method of detecting the mark M.
  • the unmanned aerial vehicle 20 detects the mark M from the image captured by the image capturing unit 24 using pattern matching, a convolutional neural network, or the like. Further, for example, the unmanned aerial vehicle 20 detects the mark M by using an infrared sensor, an ultrasonic sensor or the like of the sensor unit 25.
  • the unmanned aerial vehicle 20 gradually lowers its altitude as it approaches the detected mark M.
  • the unmanned aerial vehicle 20 lands on port P, the propeller stops rotating.
  • the notification that the landing is completed may be transmitted to the flight management application of the user terminal 30.
  • the user moves into the port P and takes out the cargo.
  • the unmanned aerial vehicle 20 may drop the cargo onto the port P and take off by opening the holding member using the actuator.
  • the unmanned aerial vehicle 20 may be swept by the wind when landing, and may not always land exactly on the mark M. For example, if the wind blows during landing, the unmanned aerial vehicle 20 will disengage from the mark M, so if another cargo is placed near it, the unmanned aerial vehicle 20 may come into contact and fall. In addition, for example, if a gust of wind blows during landing, the unmanned aerial vehicle 20 may extend out of the port P and contact the user or the like. The same applies when the unmanned aerial vehicle 20 takes off from the port P, and there is a possibility that the unmanned aerial vehicle 20 will be touched by the wind and come into contact with the user or the like.
  • the unmanned aerial vehicle control system 1 detects the port P and an object in the vicinity thereof based on the captured image captured by the detection device 40, and controls the takeoff and landing. As described in the prior art, if the takeoff and landing is forcibly restricted regardless of the type of the detected object, the takeoff and landing will be restricted more strictly than necessary, resulting in poor flexibility. 1 limits takeoff and landing according to the type of object.
  • the control at the time of landing and the control at the time of takeoff will be described in order.
  • FIG. 3 and 4 are diagrams showing how landing of the unmanned aerial vehicle 20 is restricted. It should be noted that although the cargo is denoted by the symbol C in FIG. 3, this symbol is omitted unless it is necessary to refer to the drawing.
  • the unmanned aerial vehicle 20 when it is detected that another cargo C is present in the port P, the unmanned aerial vehicle 20 has a high probability of contacting the cargo C, so the server 10 does not permit the unmanned aerial vehicle 20 to land. .. In this case, the server 10 hovers the unmanned aerial vehicle 20 in the air and puts it on standby. For example, when the user notices the existence of the cargo C and removes the cargo C from the port P, it is detected that the cargo C has been removed from the port P, and the unmanned aerial vehicle 20 is allowed to land.
  • the user may move the cargo C to a place away from the port P, but the size of the cargo C is smaller than that of a human being or an automobile, so that the unmanned aerial vehicle 20 is greatly swung out of the port P.
  • the probability of contact is low. Even if the unmanned aerial vehicle 20 goes out of the port P and comes into contact with the cargo C, it does not injure humans or animals, and the driver such as a car or a motorcycle is surprised to turn the steering wheel. Nor. Therefore, if the cargo C is moved out of the port P, it is considered that the safety at the time of landing can be sufficiently secured.
  • Port P is a place to receive cargo, and it is possible that many cargoes are stacked around it. For this reason, if landing is limited just because there is a cargo C around the port P, a large number of these cargos must be moved to a long distance, resulting in poor flexibility. Therefore, by allowing landing on the cargo C (even if it is not moved to a place away from the port P) on the condition that the cargo C is moved to the outside of the port P, it is possible to save the trouble of carrying the cargo C to a long distance. It is compatible with safety and flexibility.
  • the landing of the unmanned aerial vehicle 20 is not permitted as in the case where the cargo C is in the port P.
  • the user since the user is larger than the cargo C, even if he/she goes out of the port P, if the user is in the vicinity of the port P and the unmanned aerial vehicle 20 is hit by a gust of wind, the probability of contact is relatively high. .. Further, if the unmanned aerial vehicle 20 contacts the user, the user may be injured and a serious accident may occur. Further, even if the user goes out of the port P, if the user is in the vicinity of the port P, the user may not notice the existence of the unmanned aerial vehicle 20 and enter the port P.
  • FIG. 5 and FIG. 6 are views showing how takeoff of the unmanned aerial vehicle 20 is restricted.
  • the unmanned aerial vehicle 20 may not only carry the cargo to the port P but also carry the cargo in the port P and carry it to another place. That is, the port P may be used as a departure place as well as a destination. Therefore, as shown in FIG. 5, the unmanned aerial vehicle 20 may be on standby for takeoff with the cargo C loaded.
  • the unmanned aerial vehicle 20 may be hit by the wind immediately after takeoff and come into contact with another cargo. Therefore, when a plurality of cargoes are detected in the port P, takeoff may be restricted. However, when it is detected that a plurality of cargoes are in close contact with each other and are stored in the holding member of the unmanned aerial vehicle 20, the unmanned aerial vehicle 20 carries the plurality of cargos at the same time. May be allowed without restrictions on takeoff.
  • the unmanned aerial vehicle 20 may contact the user, so takeoff is not permitted. Further, for the same reason as when landing, even if the user goes out of the port P, if the user is in the vicinity of the port P, the unmanned aerial vehicle 20 is likely to come into contact with the user, which may lead to a serious accident. There is also a nature. For this reason, the user is permitted to take off on the condition that the same conditions as when landing are applied and the user moves to a position away from the port P (for example, outside the imaging range of the detection device 40). For the same reason as when landing, even if a strict restriction is set for the user, the flexibility is not so affected, and both safety and flexibility can be achieved.
  • the cargo and the user are taken as an example, but landing and landing may be restricted according to the type of object, and similar control may be performed for other types.
  • You may For example, when an animal such as a dog or a cat, an automobile, a motorcycle, or the like is detected, the handling may be the same as that of the user. Further, for example, when a cart for carrying the cargo on the ground is detected, the handling may be the same as the cargo.
  • the unmanned aerial vehicle control system 1 of the present embodiment does not restrict takeoff and landing more strictly than necessary, but restricts takeoff and landing based on the types of objects in the port P and its surroundings, thereby ensuring safety.
  • takeoff and landing are not restricted, and both improvement of safety and improvement of flexibility are achieved.
  • FIG. 7 is a functional block diagram showing an example of functions implemented by the unmanned aerial vehicle control system 1.
  • a detection unit 400 in the unmanned aerial vehicle control system 1, a detection unit 400, a data storage unit 100, a type identification unit 101, a position identification unit 102, a flight mode identification unit 103, and a restriction unit 104 are realized.
  • the detection unit 400 is realized by the detection device 40 and each of the other functions is realized by the server 10.
  • the detection unit 400 is realized by the detection device 40.
  • the detection unit 400 detects an object at a place where at least one of landing and takeoff of the unmanned aerial vehicle 20 is performed.
  • the case where the port P and the area around the port P correspond to the location will be described.
  • it may be any location where at least one of landing and takeoff of the unmanned aerial vehicle 20 is performed, for example, a parking lot, It may be a riverbed, a park, a residential garden, or the rooftop of a building. That is, it is not a place prepared only for takeoff and landing like the port P, but it is usually used for another purpose, but it may be a place used for takeoff and landing of the unmanned aerial vehicle 20 only at a specific time. ..
  • an area for causing the unmanned aerial vehicle 20 to perform at least one of landing and takeoff is determined in advance, and the detection unit 400 uses at least an object within the area and an object around the area. Detect one.
  • the port P corresponds to the area
  • it may be a predetermined area, for example, an area on which a mat or sheet is laid, an area separated by a tape, a chalk or a color. It may be any area such as an area drawn with a spray or the like, an area surrounded by a color cone (registered trademark), or an area surrounded by a fence.
  • the detection unit 400 outputs data indicating the detection result of the object at the port P and its periphery based on the detection signal of the detection device 40.
  • the detection unit 400 since the detection device 40 is a camera, the detection unit 400 generates and outputs a captured image showing a state within the imaging range of the detection device 40.
  • the captured image means not only a still image but also a moving image.
  • FIG. 8 is a diagram showing a captured image output by the detection unit 400. Since the detection device 40 is arranged so as to include the port P and its periphery in the imaging range, the captured image I shows the state of the port P and its periphery as shown in FIG. For example, the area around the port P is an area captured in a portion of the captured image I other than the port P. Note that, hereinafter, the reference numeral of the captured image I will be omitted.
  • the data indicating the detection result of the detection unit 400 varies depending on the sensor or the like used as the detection device 40.
  • the detection unit 400 includes the detection device 40 that is an infrared sensor. Generate a measured infrared image.
  • the detection unit 400 when using the depth sensor, the detection unit 400 generates a depth image measured by the detection device 40 that is the depth sensor.
  • the depth image is an image showing the depth of the object (the distance between the depth sensor and the object).
  • the data storage unit 100 is realized mainly by the storage unit 12.
  • the data storage unit 100 stores data for controlling the unmanned aerial vehicle 20.
  • the data storage unit 100 stores the restriction target type data DT1 and the flight management data DT2.
  • FIG. 9 is a diagram showing a data storage example of the restriction target type data DT1.
  • the restriction target type data DT1 is data indicating the restriction target type.
  • the restricted target type is a type of object for which at least one of landing and takeoff is restricted when detected.
  • the restricted target type is the type of object to be noted at least at one of landing and takeoff. For example, if even one object of the restriction target type is detected, at least one of landing and takeoff is restricted.
  • the content of the restriction target type data DT1 may be changed by an administrator or the like.
  • the restricted object type data DT1 includes, for each combination of the flight mode and the position of the object, Restriction target type is defined.
  • the restriction target type data DT1 indicates whether each of the stationary object and the moving object corresponds to the restriction target type.
  • Stationary object is a stationary object, and as a general rule, it does not move unless it receives a certain force from the outside.
  • a stationary object can also be called an object that has no power inside.
  • the stationary object is a cargo, a cart that carries the cargo on the ground, a detection device 40, or the like.
  • the moving object is a moving object or a movable object.
  • a movable object is an object that is stationary at the moment but is movable by its own force without receiving any external force.
  • a moving object can also be called an object that has power inside.
  • the moving object is a human being, an animal, a car, a motorcycle, a bicycle, or the like.
  • the unmanned aerial vehicle 20 if the unmanned aerial vehicle 20 is in the landing mode and the position of the object is within the port P, it will be a restriction target type regardless of whether it is a stationary object or a moving object. Further, for example, if the unmanned aerial vehicle 20 is in the landing mode and the position of the object is around the port P, the stationary object is not the restriction target type, and the moving object is the restriction target type.
  • the stationary object is not the restricted target type
  • the moving object is the restricted target type.
  • the stationary object is not the restriction target type
  • the moving object is the restriction target type.
  • the restriction target type can be set to any type, For example, it may be subdivided in a stationary object, or subdivided in a moving object.
  • the restriction target type may be set not from the viewpoint of whether the object moves or not, but from the viewpoint of whether it is a cargo or an important cargo. Further, for example, the restriction target type may be set from the viewpoint of whether or not it is a living thing.
  • FIG. 10 is a diagram showing a data storage example of the flight management data DT2.
  • the flight management data DT2 is data for managing the unmanned aerial vehicle 20 in flight.
  • the flight management data DT2 includes information such as an unmanned aerial vehicle ID that uniquely identifies the unmanned aerial vehicle 20, a destination, a flight route, a current flight mode, and position information indicating a current position. Is stored.
  • the unmanned aerial vehicle ID is information such as individual identification information and IP address of the unmanned aerial vehicle 20, and is assumed to be stored in the storage unit 22 or the like of the unmanned aerial vehicle 20.
  • the destination is a position where the unmanned aerial vehicle 20 should land, and is, for example, latitude/longitude information or coordinate information of the port P.
  • the flight route is route information from the starting point to the destination. The flight route may be set based on the starting point and the destination by using a predetermined route search algorithm such as the Dijkstra method or the Aster method, or may be a straight line connecting the starting point and the destination. Good.
  • the current flight mode is the flight mode being set for the unmanned aerial vehicle 20, and any one of a plurality of predetermined flight modes is set.
  • any mode can be applied, and in the present embodiment, an autonomous flight mode, a landing mode, and a takeoff mode are prepared, but other flight modes may exist, for example, There may be an evacuation mode of evacuating to a predetermined point, an emergency landing mode in which an attempt is made to land on the spot in an emergency, or a landing completion mode in which landing is completed.
  • the autonomous flight mode is a mode in which the vehicle flies on the flight route of the flight management data DT2, and is a flight mode from the takeoff mode to the landing mode.
  • the autonomous flight mode is a flight mode from when the unmanned aerial vehicle 20 flies above the departure place to when it reaches the destination.
  • the landing mode is a mode for performing a landing operation after the unmanned aerial vehicle 20 reaches the target ground air.
  • the takeoff mode is a mode for performing takeoff operation from the state where the unmanned aerial vehicle 20 has landed at the departure point.
  • the position information is position information detected by the sensor unit 25 of the unmanned aerial vehicle 20.
  • the unmanned aerial vehicle 20 repeatedly detects the position information by the sensor unit 25, and transmits the detected position information to the server 10 together with its own unmanned aerial vehicle ID.
  • the server 10 stores the position information in a record of the flight management data DT2 in which the unmanned aerial vehicle ID is stored. This keeps the position information up to date.
  • the unmanned aerial vehicle 20 transmits its own unmanned aerial vehicle ID, current position information (that is, position information indicating the position of the departure place), and the destination set for itself to the server 10.
  • the destination may be input from a terminal connected to the unmanned aerial vehicle 20. Further, these pieces of information may be transmitted from the terminal to the server 10.
  • the server 10 generates a flight route based on the received departure place and destination and stores the information in the flight management data DT2. In this embodiment, the case where the flight mode is set to the takeoff mode at this time will be described, but the takeoff mode may be set when the takeoff is permitted by the restriction unit 104 described later.
  • the server 10 transmits information such as a moving direction and a moving speed to the unmanned aerial vehicle 20 together with a takeoff instruction.
  • the unmanned aerial vehicle 20 controls the rotation of the propeller and takes off.
  • the server 10 is notified of that fact and the flight mode is changed to the autonomous flight mode.
  • the unmanned aerial vehicle 20 may take off at its own discretion instead of an instruction from the server 10. After that, by transmitting the position information and the like between the server 10 and the unmanned aerial vehicle 20, autonomous flight to the destination ground sky is realized.
  • the flight mode is set to the landing mode.
  • the landing mode may be entered when the landing is permitted by the restriction unit 104 described later.
  • the server 10 transmits information such as the moving direction and the moving speed to the unmanned aerial vehicle 20 together with the landing instruction.
  • the unmanned aerial vehicle 20 may land at its own discretion instead of an instruction from the server 10.
  • the unmanned aerial vehicle 20 detects the landing by the pressure-sensitive sensor of the sensor unit 25, the rotation of the propeller is stopped, and the landing is completed. In this case, the unmanned aerial vehicle 20 may notify the server 10 that the landing is completed, and the fact may be stored in the flight management data DT2.
  • the type identifying unit 101 is realized mainly by the control unit 11.
  • the type identifying unit 101 identifies the type of object based on the detection result of the detecting unit 400. As described above, various methods can be applied to the object detection method itself, and the type identifying unit 101 may identify the type of the object by a method according to the detection method to be used.
  • the type identifying unit 101 identifies the type of object based on the captured image generated by the detecting unit 400. For example, pattern data defining patterns such as shapes and colors of various objects is prepared in the data storage unit 100, and the type identifying unit 101 performs pattern matching on a captured image based on the pattern data. The object is detected by this. Further, for example, machine learning such as a convolutional neural network may be used, and the type identifying unit 101 uses a learning device (a learning device that classifies the types of objects) created based on teacher data indicating the characteristics of various objects. The type of the object photographed in the photographed image may be specified by using it.
  • a learning device a learning device that classifies the types of objects
  • the type identifying unit 101 identifies the type of the object based on the infrared image generated by the detecting unit 400.
  • the type identifying unit 101 uses pattern matching or machine learning to identify the type of the object imaged in the infrared image.
  • the type identifying unit 101 identifies the type of the object based on the depth image generated by the detecting unit 400.
  • the contour of the object can be specified by specifying the edge portion having a large depth difference. Therefore, the type identifying unit 101 extracts the contour line from the depth image and identifies the type of the object from the features of the shape and size of the contour line.
  • the type identifying unit 101 identifies, as the type, whether the object is a stationary object that is stationary, or a moving object that is moving or can move.
  • a type classified as a stationary object and a type classified as a moving object are defined in advance in the data storage unit 100, and the type identification unit 101 identifies the type identified based on the detection result of the detection unit 400.
  • the type identifying unit 101 identifies as a stationary object if the type identified from the captured image or the like is a stationary object, and the type is If it is a person, an animal, or a vehicle, it is specified as a moving object.
  • the type identifying unit 101 may identify whether the object is a stationary object or a moving object based on the change in the detection result of the detection unit 400. For example, when a camera is used, a stationary object does not move in principle, so there is no change in continuously captured images. On the other hand, since the moving object moves, the captured image changes. Therefore, the type identifying unit 101 may identify whether the object is a stationary object or a moving object based on the change in the captured image. Also when using the infrared sensor or the depth sensor, the type identifying unit 101 identifies whether the object is a stationary object or a moving object by using the change in the infrared image or the change in the depth image.
  • the type identifying unit 101 may identify the type as cargo or non-freight. For example, when using a camera, the shape and color of a cargo or a box are defined in the pattern data, and the type identifying unit 101 performs pattern matching on a captured image based on the pattern data. , Specify whether it is a cargo or a non-cargo. That is, the type identifying unit 101 determines that the type of the object is cargo if it matches the pattern data, and determines that the type of object is other than the cargo if it does not match the pattern data. ..
  • a machine learning learning device learns features such as shapes and colors of cargo or boxes, and the type identifying unit learns captured images. You may input into the container and acquire whether the cargo was output as a classification result.
  • the type identifying unit 101 identifies whether the cargo is a cargo or a non-cargo based on the characteristics of the infrared image or the depth image.
  • the position specifying unit 102 is realized mainly by the control unit 11.
  • the position specifying unit 102 specifies the position of the object.
  • the position specifying unit 102 specifies the position of the object based on the detection result of the detecting unit 400.
  • the position of the object may be detected by a method according to the method of detecting the object.
  • the type specifying unit 101 analyzes the captured image to detect an object, and therefore the position specifying unit 102 determines the position where the object is detected in the captured image. (The position of the pixel in which the object is detected in the captured image in FIG. 8) may be acquired.
  • the position identifying unit 102 may acquire the position where the object is detected in the infrared image or the depth image.
  • the position identifying unit 102 determines whether the position is within the port P or the port P. Specify whether it is the surrounding area.
  • the position of the port P (for example, a region in a captured image) is defined in the data storage unit 100 in advance, and the position specifying unit 102 determines whether the specified position is included inside the port P.
  • the position of the port P may not be defined in advance, but the position of the port P may be specified from the detection result of the detection unit 400. In this case, similarly to the method of detecting the type of object, the position of the port P in the captured image may be specified by using pattern matching, convolutional neural network, or the like.
  • the restriction target type is set according to the position specified by the position specifying unit 102.
  • the relationship between the position of the object and the restriction target type is defined, and the restriction target type associated with the position specified by the position specifying unit 102 is set. In the present embodiment, this relationship is defined in the restriction target type data DT1. For example, when the position specifying unit 102 specifies that the position of the object is within the port P, the restriction target type in the port P is set, and the position specifying unit 102 positions the object around the port P. If it is specified, the restriction target type around the port P is set.
  • the flight mode specifying unit 103 is realized mainly by the control unit 11.
  • the unmanned aerial vehicle 20 flies based on any of a plurality of flight modes, and the flight mode identifying unit 103 identifies the flight mode of the unmanned aerial vehicle 20.
  • the flight mode is stored in the flight management data DT2.
  • the flight mode is appropriately updated according to the flight situation such as the current position of the unmanned aerial vehicle 20, so the flight mode identifying unit 103 refers to the flight mode stored in the data storage unit 100.
  • the type of restriction target is set according to the flight mode.
  • the relationship between the flight mode and the restriction target type is defined in the data storage unit 100, and the restriction target type associated with the flight mode specified by the flight mode specifying unit 103 is set. In the present embodiment, this relationship is defined in the restriction target type data DT1. For example, when the flight mode identifying unit 103 identifies the landing mode, the landing mode restriction target type is set, and when the flight mode identifying unit 103 identifies the takeoff mode, The type of restriction target for takeoff mode is set.
  • the type of restriction target is set according to whether the unmanned aerial vehicle 20 will land or take off.
  • whether to land or take off is specified based on the flight mode.
  • it may be specified by another method without being specified by the flight mode. For example, landing may be specified when the unmanned aerial vehicle 20 in flight arrives at a destination (eg, above port P). Further, for example, it may be specified to take off when a destination, a flight route, or the like is set in a state where the propeller of the unmanned aerial vehicle 20 is not rotating. It should be noted that it is not necessary that the restriction target types are completely different at the time of landing and at the time of takeoff, as long as at least a part of them is different.
  • the landing mode is specified by the flight mode specifying unit 103 (that is, when the unmanned aerial vehicle 20 is landing)
  • the object is in the port, all types are It is set as the restriction target type, and if the object is around the port, the moving object is set as the restriction target type.
  • the takeoff mode is specified by the flight mode specifying unit 103 (that is, when the unmanned aerial vehicle 20 takes off)
  • the moving object is set as the restriction target type regardless of the position of the object.
  • the limiting unit 104 is realized mainly by the control unit 11.
  • the restriction unit 104 restricts at least one of landing and takeoff of the unmanned aerial vehicle 20, based on the type identified by the type identifying unit 101. In the present embodiment, both landing and takeoff are targeted for processing by the limiting unit 104, but the limiting unit 104 may target only one of landing and takeoff.
  • -Limiting landing means not landing or not allowing landing. For example, hovering the unmanned aerial vehicle 20 to make it stand by on the spot, do not shift to the landing mode, increase the altitude, do not reduce the rotation speed of the propeller, keep the rotation speed of the propeller above a threshold value. , Or moving away from the port P corresponds to limiting landing.
  • -Limiting take-off means not taking off or permitting take-off. For example, keeping the unmanned aerial vehicle 20 landed, not transitioning to takeoff mode, not increasing altitude, not increasing the speed of rotation of the propeller, keeping the speed of rotation of the propeller below a threshold, or Staying on port P is equivalent to limiting takeoff.
  • the restriction unit 104 restricts at least one of landing and takeoff of the unmanned aerial vehicle when the type specified by the type specifying unit 101 is a predetermined restriction target type. To do. For example, the restriction unit 104 determines whether or not the type specified by the type specifying unit 101 is a restriction target type, and restricts the landing and takeoff of the unmanned aerial vehicle 20. In the present embodiment, when at least one object of the restriction target type is detected, the restriction unit 104 performs landing and takeoff of the unmanned aerial vehicle 20 even if other detected objects do not correspond to the restriction target type. To limit.
  • the restriction unit 104 determines that the type specified by the type specifying unit 101 is at landing. It is determined whether or not it is the restriction target type and the landing of the unmanned aerial vehicle 20 is restricted when it is determined that it is the restriction target type at the time of landing. Further, for example, when the unmanned aerial vehicle 20 is in the takeoff mode, the limiting unit 104 determines whether the type specified by the type specifying unit 101 is the restriction target type at the time of takeoff, and is the restriction target type at the time of takeoff. When it is determined that the takeoff of the unmanned aerial vehicle 20 is restricted.
  • the restriction unit 104 restricts at least one of landing and takeoff of the unmanned aerial vehicle 20, based on whether the object specified by the type specifying unit 101 is a stationary object or a moving object. For example, the limiting unit 104 limits the landing of the unmanned aerial vehicle 20 if the object specified by the type specifying unit 101 is a stationary object and is within the port P, and the object is in the vicinity of the port P. If so, the unmanned aerial vehicle 20 is allowed to land without restriction. Further, for example, when the object specified by the type specifying unit 101 is a moving object, the landing of the unmanned aerial vehicle 20 is restricted regardless of the position of the object.
  • the restriction unit 104 permits takeoff of the unmanned aerial vehicle 20 without restriction, regardless of the position of the object. Further, for example, when the object specified by the type specifying unit 101 is a stationary object, the takeoff of the unmanned aerial vehicle 20 is restricted regardless of the position of the object.
  • the restriction unit 104 may restrict at least one of landing and takeoff of the unmanned aerial vehicle based on whether the object identified by the type identifying unit 101 is cargo or something other than cargo. For example, when the object identified by the type identifying unit 101 is a cargo, and the cargo is in the port P, the restriction unit 104 restricts the landing of the unmanned aerial vehicle 20, and the cargo may be in the vicinity of the port P. For example, the landing of the unmanned aerial vehicle 20 is allowed without restriction. Further, for example, when the object specified by the type specifying unit 101 is other than a cargo, the landing of the unmanned aerial vehicle 20 is restricted regardless of the position of the object.
  • the restriction unit 104 permits the unmanned aircraft 20 to take off without restriction regardless of the position of the cargo. Further, for example, when the object specified by the type specifying unit 101 is other than a cargo, the takeoff of the unmanned aerial vehicle 20 is restricted regardless of the position of the object.
  • the restriction unit 104 restricts at least one of landing and takeoff of the unmanned aerial vehicle 20 based on the position specified by the position specifying unit 102. For example, it is assumed that the data storage unit 100 defines a position where the landing of the unmanned aerial vehicle 20 should be restricted and a position where the takeoff of the unmanned aerial vehicle 20 should be restricted.
  • the restriction unit 104 determines whether or not the position specified by the position specifying unit 102 is a position at which landing should be restricted, and the position specified by the position specifying unit 102 is determined as a position at which landing should be restricted. If so, the landing of the unmanned aerial vehicle 20 is restricted.
  • the limiting unit 104 determines whether the position specified by the position specifying unit 102 is a position where the takeoff should be restricted, and judges that the position specified by the position specifying unit 102 is a position where the takeoff should be restricted. If so, the takeoff of the unmanned aerial vehicle 20 is restricted.
  • the limiting unit 104 determines whether the object identified by the type identifying unit 101 is inside the port P or around the port P. Restrict at least one of unmanned aerial vehicle landing and takeoff. For example, the limiting unit 104 determines whether or not the position specified by the position specifying unit 102 is within the port P. For example, when the position is within the port P, the restriction unit 104 restricts landing regardless of the type of object. Further, for example, when the position is in the vicinity of the port P, the restriction unit 104 permits landing without restriction if it is a stationary object, and restricts landing if it is a moving object.
  • the unmanned aerial vehicle 20 can carry cargo, and the restriction target type may be cargo.
  • the limiting unit 104 does not limit the takeoff of the unmanned aerial vehicle 20 even if the cargo is identified by the type identifying unit 101.
  • the restriction unit 104 restricts the landing of the unmanned aerial vehicle 20 when the type identification unit 101 identifies the cargo.
  • FIG. 11 is a flow chart showing an example of processing at the time of landing.
  • the process of FIG. 11 is executed when the flight mode becomes the landing mode.
  • the control unit 11 acquires a captured image from the detection device 40 (S1).
  • the detection device 40 continuously captures images based on a predetermined frame rate and transmits the captured images to the server 10.
  • the server 10 receives the captured image transmitted by the detection device 40.
  • the control unit 11 identifies the type of object based on the captured image acquired in S1 (S2).
  • the control unit 11 uses pattern matching or a convolutional neural network to detect an object photographed in a photographed image and specify its type.
  • the control unit 11 specifies the position of the object whose type is specified in S2 (S3).
  • the control unit 11 specifies the position where the object is detected in the captured image. For example, when the position in the photographed image is indicated by the two-dimensional coordinate of the screen coordinate system limited to the upper left of the photographed image, the control unit 11 identifies the two-dimensional coordinate indicating the position where the object is detected in S2. To be done.
  • the control unit 11 sets the landing mode restricted target type according to the position of the object identified in S3 based on the restricted target type data DT1 (S4).
  • the control unit 11 determines whether the position in the captured image identified in S3 is within the port P. Since the position of the detection device 40 is fixed in advance and the area where the port P appears in the captured image is also known in advance, the control unit 11 includes the two-dimensional coordinates indicating the position of the object specified in S3 in the area. Is determined. Then, when it is determined that the position of the identified object is within the port P, the control unit 11 sets both the stationary object and the moving object as the restriction target types. On the other hand, when it is determined that the position of the specified object is around the port P, the control unit 11 sets the moving object as the restriction target type.
  • the control unit 11 determines whether or not the type of object is the restriction target type set in S4 (S5). In S5, when the position of the object is within the port P, the control unit 11 determines that the type is the restriction target type regardless of the type specified in S3. In addition, when the position of the object is around the port P, the control unit 11 determines that the type specified in S3 is the moving object and is the restriction target type.
  • control unit 11 restricts the landing of the unmanned aerial vehicle 20 (S6).
  • control unit 11 transmits an instruction to hover on the spot to unmanned aerial vehicle 20.
  • the unmanned aerial vehicle 20 hovers on the spot and waits for landing.
  • control unit 11 permits the unmanned aerial vehicle 20 to land (S7), and this processing ends.
  • control unit 11 transmits an instruction to permit unmanned aerial vehicle 20 to land.
  • the unmanned aerial vehicle 20 detects the mark M in the port P based on the detection signal of the image capturing unit 24 or the sensor unit 25, and moves to approach the mark M and lands.
  • FIG. 12 is a flowchart showing an example of processing at the time of takeoff.
  • the process of FIG. 12 is executed when the flight mode becomes the takeoff mode.
  • the processing of S11 to S13 is the same as the processing of S1 to S3, respectively.
  • the control unit 11 sets the takeoff mode limitation target type according to the position of the object identified in S12 based on the limitation target type data DT1 (S14).
  • the process of S14 is substantially similar to the process of S4, but differs from S4 in that the restriction target type of the takeoff mode of the restriction target type data DT1 is referred to.
  • the moving object is set as the restriction target type regardless of the position of the object, but the restriction target type may be set according to the position of the object even at the time of takeoff.
  • the control unit 11 determines whether or not the type of the object is the restriction target type (S15). In S15, if the object type is a stationary object, the control unit 11 determines that it is not a restriction target type, and if the object type is a moving object, it determines that it is a restriction target type.
  • control unit 11 limits the takeoff of the unmanned aerial vehicle 20 (S16). In S16, control unit 11 does not transmit to unmanned aerial vehicle 20 an instruction to rotate the propeller.
  • the control unit 11 permits the takeoff of the unmanned aerial vehicle 20 (S17), and this processing ends.
  • the control unit 11 transmits to the unmanned aerial vehicle 20 an instruction to permit takeoff.
  • the unmanned aerial vehicle 20 rotates the propeller and takes off.
  • the takeoff and landing is not strictly limited more than necessary, but the takeoff and landing is limited based on the type of the object in the port P and its surroundings. In the case of an object that does not affect the safety, takeoff and landing are not limited, and both improvement of safety and improvement of flexibility can be achieved.
  • the takeoff and landing of the unmanned aerial vehicle 20 is controlled based on whether the port P and the objects in the vicinity thereof are stationary objects or moving objects. For example, the probability of contact is low and the influence at the time of contact is relatively small. In the case of an object, flexibility is ensured without limiting takeoff and landing, and in the case of a moving object that has a high probability of contact and the impact of contact is relatively large, safety is limited by taking off and landing. It is possible to improve the safety and the flexibility more effectively.
  • the takeoff and landing of the unmanned aerial vehicle 20 is controlled based on whether the port P and the objects in the vicinity thereof are cargo or non-cargo, and, for example, the probability of contact is low and the effect of contact is relatively small.
  • flexibility is ensured without limiting takeoffs and landings, and in the case of other objects that have a high probability of contact and the impact of contact is relatively large, safety is limited by takingoff and landing. It is possible to improve the safety and the flexibility more effectively.
  • the object not only in the port P but also in the vicinity of the port P is carefully taken off and landed. Can be controlled.
  • the takeoff and landing of the unmanned aerial vehicle 20 based on the position of the port P or an object in the vicinity of the port P, for example, when there is a cargo in the port P, landing is restricted and safety is emphasized.
  • landing is restricted and safety is emphasized.
  • the takeoff and landing of the unmanned aerial vehicle 20 is restricted based on whether the position of the object is within the port P or the vicinity of the port P. For example, when the cargo is in the port P, the landing is restricted.
  • Safety and if there is a cargo around Port P, it is possible to emphasize flexibility without restricting landing, and to improve safety and flexibility more effectively. You can
  • the restricted target type according to the flight mode, for example, it is possible to deal with the case where the type of the object to be noted differs depending on the flight mode, and further improve safety and flexibility. It is possible to achieve both effectively.
  • the restriction target type is set according to whether the unmanned aerial vehicle 20 performs landing or takeoff, so that it is possible to cope with, for example, a case where the types of objects to be noted are different at landing and at takeoff. Therefore, the improvement of safety and the improvement of flexibility can be more effectively achieved at the same time.
  • the unmanned aerial vehicle 20 takes off, even if the cargo is specified, it does not affect the takeoff. Therefore, the flexibility is emphasized and the takeoff is not limited. If specified, it will affect the landing, so by limiting the landing with emphasis on safety, it is possible to more effectively improve both safety and flexibility.
  • a second embodiment of the unmanned aerial vehicle control system 1
  • the unmanned aerial vehicle 20 when the unmanned aerial vehicle 20 is landing, if there is a cargo on the port P or a user is at or around the port P, the landing of the unmanned aerial vehicle 20 may be hindered. is there. Therefore, in the second embodiment, in order to prepare for the unmanned aerial vehicle 20 to land smoothly, in the present embodiment, a predetermined message is transmitted to the user when the unmanned aerial vehicle 20 approaches the arrival. ing.
  • FIG. 13 is a diagram showing how the unmanned aerial vehicle 20 moves toward the port P.
  • a first threshold value for example, 100 meters
  • the server 10 causes the user terminal to operate.
  • a predetermined message is transmitted to 30.
  • the straight line distance L between the unmanned aerial vehicle 20 and the port P is shown in FIG. 13, the distance in the horizontal direction may be used without considering the altitude difference between them.
  • FIG. 14 is a diagram showing an example of a message transmitted to the user terminal 30.
  • the message may be displayed using any medium such as e-mail, SNS, message application, or push notification.
  • the flight management application displays a message indicating that the unmanned aerial vehicle 20 is approaching.
  • the content of the message is not limited to the example of FIG. 14, and, for example, before the unmanned aerial vehicle 20 arrives above the port P, the restriction unit 104 determines in advance whether landing is possible, and the determination result by the restriction unit 104. May be displayed as a message.
  • the server 10 changes the unmanned aerial vehicle 20 to the landing mode. Will be notified.
  • the unmanned aerial vehicle 20 changes from the autonomous flight mode to the landing mode. The operation after changing to the landing mode is as described in the first embodiment.
  • the server 10 is responsive to each of the unmanned aerial vehicle 20 and the user terminal 30 regardless of the distance between the unmanned aerial vehicle 20 and the port P.
  • Information for notifying takeoff may be notified, and if takeoff is permitted, a control signal for taking off may be transmitted.
  • FIG. 15 is a functional block diagram of the second embodiment. As shown in FIG. 15, in the second embodiment, in addition to the functions described in the first embodiment, the positional relationship identifying unit 105 and the transmitting unit 106 are realized. In this embodiment, a case where these functions are realized in the server 10 will be described.
  • the positional relationship specifying unit 105 is realized mainly by the control unit 11.
  • the positional relationship identifying unit 105 identifies the positional relationship between the unmanned aerial vehicle 20 in flight and the port P.
  • the position of the unmanned aerial vehicle 20 is shown in the position information of the flight management data DT2, and the position of the port P is shown in the destination of the flight management data DT2.
  • the positional relationship is specified based on DT2.
  • the positional relationship is the relative position of the unmanned aerial vehicle 20 with respect to the port P, and may be, for example, the distance between the unmanned aerial vehicle 20 and the port P, or the angle of the unmanned aerial vehicle 20 with respect to the port P (the unmanned aerial vehicle 20 and the port P). Angle formed by the straight line connecting the line and the ground plane, or both of them.
  • the positional relationship identifying unit 105 identifies the distance between the unmanned aerial vehicle 20 in flight and the place as the positional relationship. The positional relationship identifying unit 105 will calculate the distance between the position indicated by the positional information of the unmanned aerial vehicle 20 and the position of the port P. As described above, the distance may be a distance on a three-dimensional space or a distance on a horizontal plane.
  • the transmission unit 106 is realized mainly by the control unit 11.
  • the transmission unit 106 transmits information according to the positional relationship to a destination according to the positional relationship specified by the positional relationship specifying unit 105.
  • the relationship between the positional relationship and the destination and the type of information is assumed to be stored in the data storage unit 100 in advance.
  • the transmission unit 106 transmits the type of information associated with the positional relationship to the destination associated with the positional relationship specified by the positional relationship specifying unit 105 based on the relationship.
  • the transmission unit 106 since the distance is acquired as the positional relationship, transmits the information according to the distance to the destination according to the distance specified by the positional relationship specifying unit 105.
  • the relationship between the distance and the destination and the type of information is stored in advance in the data storage unit 100, and the transmission unit 106 determines that the distance specified by the positional relationship specifying unit 105 is based on the relationship.
  • the type of information associated with the distance is transmitted to the associated destination.
  • the transmission unit 106 transmits the first information to the first destination when the distance between the unmanned aerial vehicle 20 and the port P becomes less than the first threshold value, and the unmanned aerial vehicle 20 and the port P are communicated with each other.
  • the second information is transmitted to the second transmission destination.
  • the first threshold value and the second threshold value are stored in advance in the data storage unit 100 and can be changed by an administrator or the like.
  • the first threshold value and the second threshold value may be set for any purpose.
  • the first threshold value is a threshold value indicating the timing at which the user should be notified that the unmanned aerial vehicle 20 is approaching.
  • the second threshold is a threshold indicating the timing at which the process of restricting the landing of the unmanned aerial vehicle 20 should be executed.
  • the first threshold is a distance of several tens of meters to several kilometers
  • the second threshold is a distance of several meters to several tens of meters.
  • the difference between the first threshold value and the second threshold value may be a distance that can secure a sufficient time (for example, about 1 to 10 minutes) to confirm a message or the like with the user.
  • the transmission unit 106 transmits a predetermined message to the user terminal when the distance between the unmanned aerial vehicle 20 and the port P is less than the first threshold.
  • the data indicating the content of the message is stored in advance in the data storage unit 100, and the transmission unit 106 generates and transmits the message based on the data.
  • the content of the message may be any content, for example, content indicating that the unmanned aerial vehicle 20 is approaching the arrival of the unmanned aerial vehicle 20.
  • the transmission unit 106 transmits a control signal based on the restriction unit 104 to the unmanned aerial vehicle 20 when the distance between the unmanned aerial vehicle 20 and the port P is less than the second threshold value.
  • the control signal based on the restriction unit 104 is a signal indicating that landing is not permitted or a signal indicating that landing is permitted.
  • the transmitting unit 106 transmits a signal indicating that landing is not permitted or a signal indicating that hovering is to be performed on the spot when the landing is not permitted by the limiting unit 104.
  • the transmission unit 106 transmits a signal indicating that the landing is permitted when the landing is permitted by the restriction unit 104.
  • the transmission unit 106 transmits an instruction to the landing mode when the landing is permitted by the restriction unit 104.
  • the transmission unit 106 may transmit information to a device other than the user terminal 30, for example, the unmanned aerial vehicle 20.
  • the deceleration instruction may be transmitted to the detection device 40 or the activation instruction may be transmitted to the detection device 40.
  • the transmission unit 106 may transmit information to a device other than the unmanned aerial vehicle 20, for example, the user terminal.
  • a predetermined message may be transmitted to 30, or an activation instruction may be transmitted to the detection device 40.
  • the transmission unit 106 may transmit a message to a terminal arranged at the port P when the distance from the port P is less than the first threshold value or less than the second threshold value, An instruction to turn on the lighting arranged near the port P may be transmitted.
  • the transmission unit 106 does not particularly transmit information to the user terminal 30 when the distance is equal to or greater than the threshold, and transmits information such as a message to the user terminal 30 when the distance is less than the threshold. Good.
  • the transmission destination to which the transmission unit 106 transmits information may be any of the unmanned aerial vehicle 20, the user terminal 30, or the detection device 40, or another computer such as a terminal arranged at the port P. It may be. Further, for example, the transmission unit 106 may transmit any of the above-described information, and in addition, a command requesting the remaining battery level of the unmanned aerial vehicle 20, a request to activate the videophone function of the user terminal 30, Alternatively, a request for changing the detection condition of the detection device 40 or the like may be transmitted.
  • FIG. 16 is a diagram showing processing executed in the second embodiment.
  • the processing described below is executed by the control unit 11 operating according to the program stored in the storage unit 12. Note that the process described below is an example of the process of the functional block illustrated in FIG. 16.
  • control unit 11 calculates the distance between the unmanned aerial vehicle 20 and the port P based on the flight management data DT2 (S21).
  • control unit 11 calculates the distance between the position indicated by the position information of unmanned aerial vehicle 20 stored in flight management data DT2 and the destination.
  • the control unit 11 determines whether the distance calculated in S21 is less than the first threshold value (S22). It is assumed that the first threshold value is stored in the storage unit 12 in advance. When it determines with it being less than a 1st threshold value (S22;Y), the control part 11 transmits a message to the user terminal 30 (S23). The message is stored in the storage unit 12 in advance.
  • the control unit 11 determines whether the distance calculated in S21 is less than the second threshold value (S24).
  • the second threshold is assumed to be stored in the storage unit 12 in advance.
  • the control unit 11 transmits a notification to the unmanned aerial vehicle 20 to the landing mode (S25), and this processing ends. After that, the processing of FIG. 11 described in the first embodiment is executed.
  • the server 10 by transmitting information according to the positional relationship between the unmanned aerial vehicle 20 and the port P to the destination according to the positional relationship, for example, the unmanned aerial vehicle 20 and the port
  • the server 10 transmits the flight status of the unmanned aerial vehicle 20 to the user terminal 30, and when it is in another positional relationship, the server 10 transmits a predetermined signal to the unmanned aerial vehicle 20. Therefore, it is possible to improve convenience when flying the unmanned aerial vehicle 20.
  • the server 10 transmits the flight status of the unmanned aerial vehicle 20 to the user terminal 30, and when the unmanned aerial vehicle 20 further approaches the port P, the server 10 sends a predetermined signal to the unmanned aerial vehicle 20. Can be transmitted, and the convenience of flying the unmanned aerial vehicle 20 can be improved.
  • the first information is transmitted to the first destination, and when the distance is less than the second threshold.
  • the second information By transmitting the second information to the second destination, the convenience of flying the unmanned aerial vehicle 20 can be improved.
  • a predetermined message is transmitted to the user terminal 30, and when the distance is less than the second threshold value, By transmitting a control signal indicating permission for takeoff and landing to unmanned aerial vehicle 20, it is possible to improve convenience when flying unmanned aerial vehicle 20.
  • takeoff and landing may not be limited as in the first embodiment.
  • the server 10 transmits a predetermined message to the user terminal 30, and the distance becomes less than the second threshold.
  • the server 10 may instruct the unmanned aerial vehicle 20 to shift to the landing mode without the restriction unit 104 executing the restriction.
  • the user can give time to remove the cargo on the port P or call attention to the surroundings by receiving the message in advance, so that the safety can be improved. Since the landing of the unmanned aerial vehicle 20 is not limited, the flexibility can be improved.
  • the server 10 identifies the flight mode of the unmanned aerial vehicle 20 based on the flight management data DT2, and transmits the type information associated with the flight mode to the destination associated with the identified flight mode.
  • the server 10 may have different destinations and types of information in the landing mode and the takeoff mode.
  • the unmanned aerial vehicle 20 does not have to carry a cargo.
  • the unmanned aerial vehicle 20 may fly for various purposes.
  • the unmanned aerial vehicle 20 may fly for purposes such as photographing, detecting weather information, security, or spraying pesticides.
  • the unmanned aerial vehicle control system 1 may include another computer (for example, a server computer or a personal computer), and the flight control of each unmanned aerial vehicle 20 may be executed by the computer.
  • the data storage unit 100 may be realized by a database server in the unmanned aerial vehicle control system 1 or a database server outside the unmanned aerial vehicle control system 1.
  • each function described above may be realized by any computer of the unmanned aerial vehicle control system 1, and each function may be realized by a plurality of computers such as the server 10, the unmanned aerial vehicle 20, and the user terminal 30. It may be shared.

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)

Abstract

無人航空機制御システム(1)の検出手段(400)は、無人航空機(20)の着陸と離陸の少なくとも一方が行われる場所にある物体を検出する。種別特定手段(101)は、検出手段(400)の検出結果に基づいて、物体の種別を特定する。制限手段(104)は、種別特定手段(101)により特定された種別に基づいて、無人航空機(20)の着陸と離陸の少なくとも一方を制限する。

Description

無人航空機制御システム、無人航空機制御方法、及びプログラム
 本発明は、無人航空機制御システム、無人航空機制御方法、及びプログラムに関する。
 従来、カメラや赤外線センサなどを利用して物体を検出し、無人航空機の飛行を制御する技術が知られている。例えば、特許文献1には、無人航空機が離着陸するポート内に人などの物体が存在するか否かをレーザセンサによって検出し、ポート内に物体が存在する場合に無人航空機の離着陸を制限することによって、離着陸時の安全性を高める技術が記載されている。
国際公開第2018/155700号
 しかしながら、特許文献1の技術では、レーザセンサによって物体が検出されると強制的に離着陸が制限されるので、例えば、落ち葉やビニール袋などのように、離着陸時の安全性に実質的な影響を与えない物体であったとしても、無人航空機を離着陸させることができなくなる。このため、特許文献1の技術では、必要以上に厳格に離着陸を制限してしまい、柔軟性に乏しかった。
 本発明は上記課題に鑑みてなされたものであって、その目的は、安全性の向上と柔軟性の向上を両立させることが可能な無人航空機制御システム、無人航空機制御方法、及びプログラムを提供することである。
 上記課題を解決するために、本発明に係る無人航空機制御システムは、無人航空機の着陸と離陸の少なくとも一方が行われる場所にある物体を検出するための検出手段と、前記検出手段の検出結果に基づいて、前記物体の種別を特定する種別特定手段と、前記種別特定手段により特定された種別に基づいて、前記無人航空機の着陸と離陸の少なくとも一方を制限する制限手段と、を含むことを特徴とする。
 本発明に係る無人航空機制御方法は、無人航空機の着陸と離陸の少なくとも一方が行われる場所にある物体を検出するための検出ステップと、前記検出ステップの検出結果に基づいて、前記物体の種別を特定する種別特定ステップと、前記種別特定ステップにより特定された種別に基づいて、前記無人航空機の着陸と離陸の少なくとも一方を制限する制限ステップと、を含む。
 本発明に係るプログラムは、無人航空機の着陸と離陸の少なくとも一方が行われる場所にある物体を検出するための検出手段の検出結果に基づいて、前記物体の種別を特定する種別特定手段、前記種別特定手段により特定された種別に基づいて、前記無人航空機の着陸と離陸の少なくとも一方を制限する制限手段、としてコンピュータを機能させる。
 また、本発明の一態様では、前記種別特定手段は、前記種別として、静止している静止物体であるか、移動している又は移動しうる移動物体であるか、を特定し、前記制限手段は、前記物体が前記静止物体又は前記移動物体の何れであるかに基づいて、前記無人航空機の着陸と離陸の少なくとも一方を制限する、ことを特徴とする。
 また、本発明の一態様では、前記無人航空機は、貨物を運搬可能であり、前記種別特定手段は、前記種別として、貨物であるか、貨物以外であるかを特定し、前記制限手段は、前記物体が貨物又は貨物以外の何れであるかに基づいて、前記無人航空機の着陸と離陸の少なくとも一方を制限する、ことを特徴とする。
 また、本発明の一態様では、前記場所は、前記無人航空機に着陸と離陸の少なくとも一方を行わせるためのエリアが予め決められており、前記検出手段は、前記エリア内にある物体と、前記エリア周辺にある物体と、の少なくとも一方を検出する、ことを特徴とする。
 また、本発明の一態様では、前記無人航空機制御システムは、前記物体の位置を特定する位置特定手段を更に含み、前記制限手段は、前記位置特定手段により特定された位置に更に基づいて、前記無人航空機の着陸と離陸の少なくとも一方を制限する、ことを特徴とする。
 また、本発明の一態様では、前記制限手段は、前記種別特定手段により特定された種別が所定の制限対象種別である場合に、前記無人航空機の着陸と離陸の少なくとも一方を制限し、前記制限対象種別は、前記位置特定手段により特定された位置に応じて設定される、ことを特徴とする。
 また、本発明の一態様では、前記場所は、前記無人航空機に着陸と離陸の少なくとも一方を行わせるためのエリアが予め決められており、前記位置特定手段は、前記位置として、前記エリア内であるか、前記エリア周辺であるか、を特定し、前記制限手段は、前記物体が前記エリア内又は前記エリア周辺の何れにあるかに基づいて、前記無人航空機の着陸と離陸の少なくとも一方を制限する、ことを特徴とする。
 また、本発明の一態様では、前記制限手段は、前記種別特定手段により特定された種別が所定の制限対象種別である場合に、前記無人航空機の着陸と離陸の少なくとも一方を制限し、前記無人航空機は、複数の飛行モードのうちの何れかに基づいて飛行し、前記無人航空機制御システムは、前記無人航空機の飛行モードを特定する飛行モード特定手段を更に含み、前記制限対象種別は、前記飛行モードに応じて設定される、ことを特徴とする。
 また、本発明の一態様では、前記制限手段は、前記種別特定手段により特定された種別が所定の制限対象種別である場合に、前記無人航空機の着陸と離陸の少なくとも一方を制限し、前記制限対象種別は、前記無人航空機が着陸又は離陸の何れを行うかに応じて設定される、ことを特徴とする。
 また、本発明の一態様では、前記無人航空機は、貨物を運搬可能であり、前記制限対象種別は、貨物であり、前記制限手段は、前記無人航空機が離陸する場合には、前記種別特定手段により貨物が特定されたとしても、前記無人航空機の離陸を制限せず、前記無人航空機が着陸する場合には、前記種別特定手段により貨物が特定された場合に、前記無人航空機の着陸を制限する、ことを特徴とする。
 また、本発明の一態様では、前記無人航空機制御システムは、飛行中の前記無人航空機と前記場所との位置関係を特定する位置関係特定手段と、前記位置関係特定手段により特定された位置関係に応じた送信先に、当該位置関係に応じた情報を送信する送信手段と、を更に含むことを特徴とする。
 また、本発明の一態様では、前記位置関係特定手段は、前記位置関係として、飛行中の前記無人航空機と前記場所との距離を特定し、前記送信手段は、前記位置関係特定手段により特定された距離に応じた送信先に、当該距離に応じた情報を送信する、ことを特徴とする。
 また、本発明の一態様では、前記送信手段は、前記距離が第1の閾値未満になった場合に、第1の送信先に第1の情報を送信し、前記距離が前記第1の閾値よりも小さい第2の閾値未満になった場合に、第2の送信先に第2の情報を送信する、ことを特徴とする。
 また、本発明の一態様では、前記送信手段は、前記距離が前記第1の閾値未満になった場合に、ユーザ端末に対し、所定のメッセージを送信し、前記距離が前記第2の閾値未満になった場合に、前記無人航空機に、前記制限手段に基づく制御信号を送信する、ことを特徴とする。
 また、本発明の一態様では、飛行中の無人航空機と、着陸及び離陸の少なくとも一方が行われる場所と、の位置関係を特定する位置関係特定手段と、前記位置関係特定手段により特定された位置関係に応じた送信先に、当該位置関係に応じた情報を送信する送信手段と、を含むことを特徴とする。
 本発明によれば、安全性の向上と柔軟性の向上を両立させることが可能になる。
無人航空機制御システムの全体構成を示す図である。 無人航空機が着陸する様子を示す図である。 無人航空機の着陸が制限される様子を示す図である。 無人航空機の着陸が制限される様子を示す図である。 無人航空機の離陸が制限される様子を示す図である。 無人航空機の離陸が制限される様子を示す図である。 無人航空機制御システムで実現される機能の一例を示す機能ブロック図である。 検出部により出力される撮影画像を示す図である。 制限対象種別データのデータ格納例を示す図である。 飛行管理データのデータ格納例を示す図である。 着陸時の処理の一例を示すフロー図である。 離陸時の処理の一例を示すフロー図である。 無人航空機がポートに向けて移動する様子を示す図である。 ユーザ端末に送信されたメッセージの一例を示す図である。 実施形態2の機能ブロック図である。 実施形態2において実行される処理を示す図である。
[1.実施形態1]
 以下、本発明に関わる無人航空機制御システムの実施形態(以降、実施形態1と記載する。)の例を説明する。
[1-1.無人航空機制御システムの全体構成]
 図1は、無人航空機制御システムの全体構成を示す図である。図1に示すように、無人航空機制御システム1は、サーバ10、無人航空機20、ユーザ端末30、及び検出装置40を含み、これらはネットワークNに接続されている。なお、図1では、サーバ10、無人航空機20、ユーザ端末30、及び検出装置40の各々を1つずつ示しているが、これらは複数台あってもよい。
 サーバ10は、サーバコンピュータである。サーバ10は、制御部11、記憶部12、及び通信部13を含む。制御部11は、少なくとも1つのマイクロプロセッサを含む。制御部11は、記憶部12に記憶されたプログラムやデータに従って処理を実行する。記憶部12は、主記憶部及び補助記憶部を含む。例えば、主記憶部はRAMなどの揮発性メモリであり、補助記憶部は、ROM、EEPROM、フラッシュメモリ、又はハードディスクなどの不揮発性メモリである。通信部13は、有線通信又は無線通信用の通信インタフェースであり、ネットワークNを介してデータ通信を行う。
 無人航空機20は、人が搭乗しない航空機であり、例えば、バッテリーで駆動する無人航空機(いわゆるドローン)やエンジンで駆動する無人航空機である。無人航空機20は、制御部21、記憶部22、通信部23、撮影部24、及びセンサ部25を含む。無人航空機20は、プロペラ、モータ、バッテリー、及びアンテナなども含むが、ここでは説明を省略する。
 制御部21、記憶部22、及び通信部23は、それぞれ制御部11、記憶部12、及び通信部13と同様のハードウェア構成であってよい。なお、通信部23は、FASST、FHSS、DMSS、又はAFHSSといった特定機器(例えば、いわゆるラジコン)用の無線通信インタフェースを含んでいてもよく、通信部13を介して操縦機(いわゆるプロポ)と無線通信することによって、無人航空機20を操縦可能としてもよい。
 撮影部24は、少なくとも1台のカメラを含む。例えば、撮影部24は、CCDイメージセンサやCMOSイメージセンサなどの撮像素子を含み、当該撮像素子が撮影した画像をデジタルデータとして記録する。画像は、静止画であってもよいし、所定のフレームレートで連続的に撮影された動画であってもよい。
 センサ部25は、少なくとも1つのセンサを含み、例えば、GPSセンサを含む。GPSセンサは、衛星からの信号を受信する受信機を含み、例えば、受信機が受信した信号に基づいて位置情報を検出する。位置情報は、例えば、緯度経度情報又は座標情報であり、例えば、地上の2次元的な位置を示してもよいし、高度も含む3次元的な位置を示してもよい。なお、無人航空機20には、任意のセンサが搭載されてよく、センサ部25は、加速度センサ、ジャイロセンサ、風センサ、地磁気センサ、高度センサ、変位センサ、感圧センサ、赤外線センサ、レーザセンサ、超音波センサ、又は温度センサ等の任意のセンサを含むようにしてもよい。
 ユーザ端末30は、ユーザが操作するコンピュータである。例えば、ユーザ端末30は、携帯電話機(スマートフォンを含む)、携帯情報端末(タブレット型コンピュータを含む)、又は、パーソナルコンピュータ等である。本実施形態では、ユーザ端末30は、制御部31、記憶部32、通信部33、操作部34、表示部35、及び撮影部36を含む。制御部31、記憶部32、通信部33、及び撮影部36は、それぞれ制御部11、記憶部12、通信部13、及び撮影部24と同様のハードウェア構成であってよい。
 操作部34は、入力デバイスであり、例えば、タッチパネルやマウス等のポインティングデバイス、キーボード、又はボタン等である。操作部34は、ユーザによる操作内容を制御部31に伝達する。表示部35は、例えば、液晶表示部又は有機EL表示部等である。表示部35は、制御部31の指示に従って画像を表示する。
 検出装置40は、物体を検出するための装置である。例えば、検出装置40は、カメラ、赤外線センサ、深度センサ、レーザセンサ、熱センサ、超音波センサ、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)センサ、人感センサ、又は圧力センサである。なお、検出装置40は、これらの複数のセンサを併用してもよい。
 物体を検出する方法自体は、公知の種々の方法を適用可能であり、本実施形態では、検出装置40がカメラであり、検出装置40により撮影された画像を解析して物体を検出する場合を例に挙げる。例えば、検出装置40は、有線通信又は無線通信用の通信インタフェースを含み、自身の検出結果(本実施形態では、カメラが撮影した撮影画像)をサーバ10等に送信可能とするが、検出装置40は、ユーザ端末30と接続され、検出結果がユーザ端末30を介してサーバ10等に送信されてもよい。
 なお、サーバ10、無人航空機20、ユーザ端末30、及び検出装置40のハードウェア構成は、図1の例に限られず、種々のハードウェアを適用可能である。例えば、サーバ10、無人航空機20、ユーザ端末30、及び検出装置40の各々は、コンピュータ読み取り可能な情報記憶媒体を読み取る読取部(例えば、メモリカードスロットや光ディスクドライブ)を含んでもよいし、外部機器と通信するための入出力部(例えば、USBポート)を含んでいてもよい。また例えば、各装置に記憶されるものとして説明するプログラム及びデータは、読取部又は入出力部を介して供給されるようにしてもよいし、ネットワークNを介して供給されるようにしてもよい。
[1-2.無人航空機制御システムの概要]
 本実施形態では、主に、無人航空機20の着陸時と離陸時の飛行制御について説明する。着陸とは、無人航空機20が陸地に着くことである。着陸は、接地又は着地ということもでき、例えば、機体が倒れずにプロペラが完全に停止することを意味する。着陸は、地表面に直接乗ること、及び、シートや建物などの物体上に機体が乗ることの両方を意味する。
 離陸とは、無人航空機20が陸地を離れて飛び立つことであり、空中に浮かぶことである。離陸は、無人航空機20が陸地から離れることを意味してもよいし、飛び立った後に機体が安定すること又は所定の高度まで上がることを意味してもよい。なお、無人航空機制御システム1は、着陸時又は離陸時の何れか一方の飛行制御だけを実行してもよい。
 図2は、無人航空機20が着陸する様子を示す図である。図2に示すように、本実施形態では、地上にポートPが配置されており、その付近に検出装置40が配置されている。なお、図2では、検出装置40を1台だけ示しているが、ポートPの周囲を取り囲むように、複数の検出装置40が配置されてもよい。また、Wi-Fiアクセスポイント等の通信機器がポートP付近に配置されていてもよい。
 ポートPは、着陸と離陸の少なくとも一方のために用意された場所である。本実施形態では、ポートPが離着陸の両方で使用される場合を説明するが、着陸専用のポートPと離陸専用のポートPとが別々に用意されていてもよい。例えば、ポートPは、コンクリートの土台や建物の屋上などのように固定されていてもよいし、マット・シート・板などのように可搬型であってもよい。ポートPは、使用可能な無人航空機20が予め定められていてもよく、例えば、複数の無人航空機20の各々による使用時間が定められていてもよい。
 例えば、検出装置40は、ポートPの一部又は全部が検出範囲に収まるような位置に配置される。別の言い方をすれば、ポートPの一部又は全部を検出可能なように、検出装置40の位置及び向きが決定される。検出範囲は、検出装置40で検出可能な範囲である。本実施形態では、検出装置40がカメラなので、検出範囲は、カメラの撮影範囲(画角内)となる。検出装置40が赤外線センサや超音波センサなどであれば、検出範囲は、赤外線や超音波などが届く範囲である。
 本実施形態では、検出装置40の検出範囲がポートP及びその周囲を含む場合を説明するが、撮影範囲は、ポートPの内部だけであっても。周囲とは、ポートPの周りの領域であり、例えば、ポートPの外部のうち、ポートPから所定距離未満の領域である。本実施形態では、検出装置40の検出範囲のうち、ポートPを除いた領域(即ち、撮影画像のうち、ポートPが写っていない部分)が周囲に相当する場合を説明するが、当該領域の一部だけが周囲に相当してもよい。
 例えば、無人航空機20がポートPに向けて移動する場合、ユーザは、ポートPの付近又は一定距離以上離れた位置で無人航空機20が到着するのを待機する。本実施形態では、ユーザ端末30には、無人航空機20の現在位置などを通知するためのアプリケーション(以降、飛行管理アプリと記載する。)がインストールされており、ユーザは、飛行管理アプリを起動して、無人航空機20の飛行状況を把握する。
 例えば、飛行管理アプリでは、無人航空機20の現在位置をリアルタイムに追跡可能としてもよいし、無人航空機20の到着予想時刻を通知してもよい。また例えば、後述する実施形態2のように、無人航空機20がポートPから所定距離(例えば、100メートル)未満の位置まで飛行した場合に、着陸の可否等を知らせるメッセージなどが通知されるようにしてもよい。
 無人航空機20は、特に貨物などを保持せずに飛行してもよいが、本実施形態では、貨物を保持したままポートPまで飛行する。貨物とは、運搬の対象となる物であり、無人航空機20が出発地から目的地まで運搬する物である。貨物は、荷物と呼ばれることもある。例えば、貨物は、ユーザが注文した商品、ユーザへの郵便物、又はユーザが作業で使用する資材や工具などである。
 例えば、無人航空機20は、貨物を保持する保持部材(例えば、キャッチャ、ケージ、又はコンテナなど)を有し、保持部材により保持された貨物を運搬する。無人航空機20は、ユーザが操縦してもよいが、本実施形態では、予め定められた経路上を自律的に飛行し、着陸時及び離陸時においても自律的に飛行する。
 ここでの自律的とは、コンピュータ主体という意味であり、ユーザ主体ではないという意味である。ユーザの操作を一切考慮しない場合も自律的に含まれるし、ユーザの操作を補助的に考慮する場合も自律的に含まれる。本実施形態では、サーバ10が無人航空機20の経路を設定し、サーバ10と無人航空機20とが通信することで、無人航空機20が自律的に飛行する。自律飛行自体は、種々の手法を適用可能であり、例えば、GPSを利用した自律飛行アルゴリズムを利用してもよい。また、無人航空機20に自律飛行アルゴリズムが搭載されており、無人航空機20が特にサーバ10と通信せずに飛行してもよい。
 図2に示すように、ポートPは、離着陸の目印となるマークM(図2では「H」の文字を含む円)を含む。例えば、マークMは、着陸時の目標位置として利用することもできるし、離陸時に無人航空機20を配置する位置として利用することもできる。なお、マークMは、無人航空機20の撮影部24又はセンサ部25で検出可能な情報であればよく、文字以外にも、ロゴやイラストといった画像であってもよい。
 例えば、無人航空機20の出発地として貨物の集荷場所が設定され、目的地としてポートPの位置が設定される。サーバ10は、集荷場所からポートPまでの飛行ルートを計算し、無人航空機20は、当該飛行ルートに基づいて、自律飛行モードでポートPの上空まで飛行する。無人航空機20がポートPの上空に到着すると、ポートPに着陸するための着陸モードに変化する。無人航空機20は、着陸モードになると、撮影部24又はセンサ部25を利用してマークMを検出する。
 マークMの検出方法自体は、公知の手法を適用可能であり、例えば、無人航空機20は、撮影部24の撮影画像から、パターンマッチングや畳み込みニューラルネットワークなどを利用してマークMを検出する。また例えば、無人航空機20は、センサ部25の赤外線センサや超音波センサ等を利用してマークMを検出する。
 無人航空機20は、検出したマークMに近づくようにして徐々に高度を下げる。無人航空機20は、ポートP上に着陸するとプロペラの回転を停止する。この場合、ユーザ端末30の飛行管理アプリに対し、着陸が完了した旨の通知が送信されるようにしてもよい。ユーザは、無人航空機20の着陸が成功したことを確認すると、ポートP内に移動して貨物を取り出す。なお、無人航空機20は、着陸した後に、アクチュエータを利用して保持部材を開くことにより、ポートP上に貨物を落下させて離陸してもよい。
 無人航空機20は、着陸時に風であおられることがあり、必ずしもマークMの上に正確に着陸できるとは限らない。例えば、着陸時に風が吹くと、無人航空機20はマークMから外れてしまうので、その近くに別の貨物が置かれていると、無人航空機20が接触して転倒する可能性がある。また例えば、着陸時に突風が吹くと、無人航空機20は、ポートPの外にはみ出してしまい、ユーザなどに接触する可能性がある。無人航空機20がポートPから離陸する時も同様であり、風であおられてユーザなどに接触する可能性がある。
 そこで、無人航空機制御システム1は、検出装置40により撮影された撮影画像に基づいて、ポートP及びその周囲にある物体を検出し、離着陸の制御をするようにしている。従来技術で説明したように、検出された物体の種別に関係なく強制的に離着陸が制限されると、必要以上に厳格に離着陸が制限されてしまい、柔軟性に乏しくなるので、無人航空機制御システム1は、物体の種別に応じて離着陸を制限するようにしている。以降、着陸時の制御と離陸時の制御を順番に説明する。
 図3及び図4は、無人航空機20の着陸が制限される様子を示す図である。なお、図3では貨物にCの符号を付しているが、特に図面を参照する必要のないときは、この符号を省略する。
 図3に示すように、ポートP内に別の貨物Cがあることが検出された場合、無人航空機20が貨物Cに接触する確率が高いので、サーバ10は、無人航空機20の着陸を許可しない。この場合、サーバ10は、無人航空機20を、上空でホバリングして待機させる。例えば、ユーザが貨物Cの存在に気付きポートPから貨物Cを撤去すると、ポートP内から貨物Cが撤去されたことが検出され、無人航空機20の着陸が許可される。
 ユーザは、ポートPから離れた所に貨物Cを移動させてもよいが、貨物Cのサイズは、人間や自動車などに比べると小さいので、無人航空機20が大きくあおられてポートP外に出たとしても、接触する確率は低い。もし仮に、無人航空機20がポートP外に出て貨物Cに接触したとしても、人間や動物などのように怪我をするわけでもなく、自動車やバイクなどの運転手が驚いてハンドルを切るといった心配もない。このため、貨物Cについては、ポートPの外に移動させれば、着陸時の安全性は十分に確保できると考えられる。
 また、ポートPは貨物の受け取り場所になっており、その周囲には、多数の貨物が積まれていることが考えられる。このため、ポートPの周囲に貨物Cがあるというだけで着陸を制限してしまうと、これら多数の貨物を遠くまで移動させなければならなくなり、柔軟性に乏しくなる。このため、貨物Cについては、ポートPの外に移動させることを条件として(ポートPから離れた場所にまで移動させなくても)着陸を許可することで、貨物Cを遠くまで運ぶ手間を省き、安全性と柔軟性を両立させている。
 また、図4に示すように、ポートP内にユーザがいることが検出された場合、ポートP内に貨物Cがあるときと同様、無人航空機20の着陸が許可されない。ただし、ユーザは、貨物Cに比べると大きいので、ポートPの外に出たとしても、ポートPの付近にいた場合には、無人航空機20が突風にあおられると、接触する確率は比較的高い。また、無人航空機20がユーザに接触すると、ユーザが怪我をして重大な事故に発展する可能性もある。更に、ユーザがポートPの外に出たとしても、ポートPの付近にいた場合には、ユーザが無人航空機20の存在に気付かずに、ポートPに侵入する可能性もある。
 このため、ポートP内にユーザがいることが検出された場合には、安全性を最大限重視して、ポートPから離れた位置(例えば、検出装置40の検出範囲外)に移動することを条件として、着陸が許可されるようになっている。この点、ポートPから貨物Cを運び出すことに比べると、ユーザは、ただ移動すればよいので負担は少ない。更に、ユーザは、原則として貨物Cを受け取る時くらいしかポートP内に立ち入らないので、このような制限を設けたとしても、さほど柔軟性には影響しないと考えられる。このため、検出された物体がユーザである場合には、厳格な制限を設けたとしても、安全性と柔軟性の両立が可能である。
 次に、離陸時の処理について説明する。着陸が許可される条件と離陸が許可される条件とは、同じであってもよいが、本実施形態では、これらを異ならせることで、安全性と柔軟性をより向上させるようにしている。
 図5及び図6は、無人航空機20の離陸が制限される様子を示す図である。無人航空機20は、貨物をポートPまで運搬するだけでなく、ポートP内で貨物を搭載し、別の場所に運搬することもある。即ち、ポートPは、目的地としてだけでなく、出発地として利用されることもある。このため、図5に示すように、無人航空機20は、貨物Cが搭載された状態で、離陸のスタンバイをしていることがある。
 図5の状態において、ポートP内に貨物Cがあることが検出されたとしても、その貨物Cは、無人航空機20が運搬するものなので、離陸に支障はない。このため、無人航空機20が離陸する場合には、着陸時とは異なり、ポートP内に貨物Cがあったとしても離陸が許可される。ポートPの周辺に別の貨物Cがあることが検出された場合には、着陸時と同様の理由で、無人航空機20を離陸させても支障がないと考えられるので、離陸が許可される。
 なお、ポートP内に複数の貨物があることが検出された場合、無人航空機20の付近に別の貨物が配置されている確率が高い。この場合、無人航空機20が離陸直後に風にあおられて別の貨物に接触する可能性がある。このため、ポートP内で複数の貨物が検出された場合には、離陸が制限されるようにしてもよい。ただし、複数の貨物が互いに密着して無人航空機20の保持部材の中に格納されていることが検出された場合には、無人航空機20が複数の貨物を同時に運搬するので、このような場合には、離陸が制限されずに許可されてもよい。
 また、図6に示すように、ポートP内にユーザがいることが検出された場合、無人航空機20は、ユーザに接触する可能性があるので、離陸が許可されない。また、着陸時と同じ理由で、ユーザがポートPの外に出たとしても、ポートPの付近にいる場合には、無人航空機20がユーザに接触する確率が高く、重大な事故に発展する可能性もある。このため、ユーザについては、着陸時と同様の条件を適用し、ポートPから離れた位置(例えば、検出装置40の撮影範囲外)に移動することを条件として、離陸が許可される。着陸時と同じ理由で、ユーザについては厳格な制限を設けたとしても、柔軟性にはさほど影響せず、安全性と柔軟性の両立が可能である。
 なお、図3~図6では、貨物とユーザを例に挙げたが、物体の種別に応じて着陸や着陸が制限されるようにすればよく、他の種別についても同様の制御が行われるようにしてもよい。例えば、犬や猫などの動物、自動車、又はバイクなどが検出された場合には、ユーザと同様の取扱いとしてもよい。また例えば、地上で貨物を運ぶためのカートなどが検出された場合には、貨物と同様の取扱いとしてもよい。
 以上のように、本実施形態の無人航空機制御システム1は、必要以上に厳格に離着陸を制限するのではなく、ポートP及びその周辺にある物体の種別に基づいて離着陸を制限することによって、安全性に実質的に影響しないような物体の場合には離着陸を制限せず、安全性の向上と柔軟性の向上を両立させるようにしている。以降、当該技術の詳細について説明する。
[1-3.無人航空機制御システムにおいて実現される機能]
 図7は、無人航空機制御システム1で実現される機能の一例を示す機能ブロック図である。図7に示すように、無人航空機制御システム1では、検出部400、データ記憶部100、種別特定部101、位置特定部102、飛行モード特定部103、及び制限部104が実現される。本実施形態では、検出部400が検出装置40によって実現され、他の各機能がサーバ10によって実現される場合を説明する。
[検出部]
 検出部400は、検出装置40によって実現される。検出部400は、無人航空機20の着陸と離陸の少なくとも一方が行われる場所にある物体を検出する。本実施形態では、ポートP及びその周辺の領域が当該場所に相当する場合を説明するが、無人航空機20の着陸と離陸の少なくとも一方が行われる任意の場所であればよく、例えば、駐車場、河川敷、公園、住宅の庭、又は建物の屋上などであってもよい。即ち、ポートPのように離着陸のためだけに用意された場所ではなく、普段は別の目的で使用されるが、ある特定の時にだけ無人航空機20の離着陸に使用される場所であってもよい。
 例えば、上記場所は、無人航空機20に着陸と離陸の少なくとも一方を行わせるためのエリアが予め決められており、検出部400は、エリア内にある物体と、エリア周辺にある物体と、の少なくとも一方を検出する。本実施形態では、ポートPが当該エリアに相当する場合を説明するが、予め定められたエリアであればよく、例えば、マットやシートが敷かれたエリア、テープで区切られたエリア、チョークやカラースプレーなどで描かれたエリア、カラーコーン(登録商標)で囲われたエリア、又はフェンスで囲われたエリアといった任意のエリアであってよい。
 検出部400は、検出装置40の検出信号に基づいて、ポートP及びその周辺における物体の検出結果を示すデータを出力する。本実施形態では、検出装置40がカメラなので、検出部400は、検出装置40の撮影範囲内の様子を示す撮影画像を生成して出力する。なお、撮影画像は、静止画だけでなく、動画も含む意味である。
 図8は、検出部400により出力される撮影画像を示す図である。検出装置40は、ポートP及びその周辺を撮影範囲に含むように配置されるので、図8に示すように、撮影画像Iには、ポートP及びその周辺の様子が示される。例えば、ポートPの周囲は、撮影画像Iのうち、ポートP以外の部分に撮影された領域である。なお、以降では、撮影画像Iの符号を省略する。
 なお、検出部400の検出結果を示すデータは、検出装置40として利用するセンサなどに応じて異なり、例えば、赤外線センサを利用する場合には、検出部400は、赤外線センサである検出装置40が計測した赤外線画像を生成する。また例えば、深度センサを利用する場合には、検出部400は、深度センサである検出装置40が計測した深度画像を生成する。深度画像は、物体の深度(深度センサと物体との距離)を示す画像である。
[データ記憶部]
 データ記憶部100は、記憶部12を主として実現される。データ記憶部100は、無人航空機20を制御するためのデータを記憶する。例えば、データ記憶部100は、制限対象種別データDT1と、飛行管理データDT2と、を記憶する。
 図9は、制限対象種別データDT1のデータ格納例を示す図である。制限対象種別データDT1は、制限対象種別を示すデータである。制限対象種別は、検出された場合に着陸と離陸の少なくとも一方が制限される物体の種別である。別の言い方をすれば、制限対象種別は、着陸時と離陸時の少なくとも一方において注意すべき物体の種別である。例えば、制限対象種別の物体が1つでも検出されると、着陸と離陸の少なくとも一方が制限される。制限対象種別データDT1は、管理者などによって内容が変更されてよい。
 本実施形態では、飛行モードや物体の検出位置によって、注意すべき物体を変えているので、図9に示すように、制限対象種別データDT1には、飛行モードと物体の位置の組み合わせごとに、制限対象種別が定義されている。例えば、制限対象種別データDT1には、静止物体と移動物体の各々が制限対象種別に該当するか否かが示されている。
 静止物体とは、静止している物体であり、原則として、外部から一定以上の力を受けない限りは移動しない。静止物体は、その内部に動力を持たない物体ということもできる。例えば、静止物体は、貨物、地上で貨物を運ぶカート、又は検出装置40などである。移動物体とは、移動している物体、又は、移動しうる物体である。移動しうる物体とは、現時点では静止しているが、外部からの力を受けずに自らの力で移動可能な物体である。移動物体は、その内部に動力を持つ物体ということもできる。例えば、移動物体は、人間、動物、自動車、バイク、又は自転車などである。
 図9に示すように、例えば、無人航空機20が着陸モードであり、物体の位置がポートP内であれば、静止物体と移動物体の何れであったとしても、制限対象種別となる。また例えば、無人航空機20が着陸モードであり、物体の位置がポートP周辺であれば、静止物体は制限対象種別とはならず、移動物体が制限対象種別となる。
 また例えば、無人航空機20が離陸モードであり、物体の位置がポートP内であれば、静止物体は制限対象種別とはならず、移動物体が制限対象種別となる。また例えば、無人航空機20が離陸モードであり、物体の位置がポートP周辺であれば、静止物体は制限対象種別とはならず、移動物体が制限対象種別となる。
 なお、図9のデータ格納例では、静止物体と移動物体の各々が制限対象種別に該当するか否かが示される場合を説明したが、制限対象種別は、任意の種別を設定可能であり、例えば、静止物体の中で細分化されていてもよいし、移動物体の中で細分化されていてもよい。他にも例えば、物体が移動するか否かといった観点でなく、貨物であるか否か又は重要な貨物であるか否かといった観点で制限対象種別が設定されてもよい。また例えば、生物であるか否かといった観点で制限対象種別が設定されてもよい。
 図10は、飛行管理データDT2のデータ格納例を示す図である。飛行管理データDT2は、飛行中の無人航空機20を管理するためのデータである。図10に示すように、例えば、飛行管理データDT2には、無人航空機20を一意に識別する無人航空機ID、目的地、飛行ルート、現在の飛行モード、及び現在の位置を示す位置情報といった情報が格納される。
 無人航空機IDは、無人航空機20の個体識別情報やIPアドレスなどの情報であり、無人航空機20の記憶部22などに記憶されているものとする。目的地は、無人航空機20が着陸すべき位置であり、例えば、ポートPの緯度経度情報又は座標情報である。飛行ルートは、出発地から目的地までの経路情報である。飛行ルートは、出発地と目的地に基づいて、ダイクストラ法やエースター法といった所定の経路探索アルゴリズムを利用することで設定されてもよいし、単純に出発地と目的地を結ぶ直線であってもよい。
 現在の飛行モードは、無人航空機20に設定中の飛行モードであり、予め定められた複数の飛行モードの何れかが設定される。飛行モードは、任意のモードを適用可能であり、本実施形態では、自律飛行モード、着陸モード、及び離陸モードが用意されているものとするが、他の飛行モードが存在してもよく、例えば、予め定められた地点に避難する避難モード、緊急時にその場で着陸を試みる緊急着陸モード、又は着陸が完了した着陸完了モードなどがあってもよい。
 自律飛行モードは、飛行管理データDT2の飛行ルート上を飛行するモードであり、離陸モードで離陸してから着陸モードになるまでの間の飛行モードである。別の言い方をすれば、自律飛行モードは、無人航空機20が出発地の上空に飛び立ってから目的地の上空に到達するまでの間の飛行モードである。着陸モードは、無人航空機20が目的地上空に到着した後に、着陸の動作をするためのモードである。離陸モードは、無人航空機20が出発地に着陸した状態から、離陸の動作をするためのモードである。
 位置情報は、無人航空機20のセンサ部25により検出された位置情報である。無人航空機20は、センサ部25で繰り返し位置情報を検出し、自身の無人航空機IDとともに、サーバ10に当該検出された位置情報を送信する。サーバ10は、飛行管理データDT2のうち、当該無人航空機IDが格納されたレコードに当該位置情報を格納する。これにより、位置情報は最新の状態に保たれる。
 例えば、離陸前において、無人航空機20は、自身の無人航空機ID、現在の位置情報(即ち、出発地の位置を示す位置情報)、及び自身に設定された目的地をサーバ10に送信する。目的地は、無人航空機20に接続された端末から入力されてもよい。また、これらの情報は、当該端末からサーバ10に送信されてもよい。サーバ10は、受信した出発地と目的地に基づいて飛行ルートを生成し、これらの情報を飛行管理データDT2に格納する。本実施形態では、この時点で飛行モードが離陸モードに設定される場合を説明するが、後述する制限部104により離陸が許可された場合に離陸モードになってもよい。
 その後、制限部104により離陸が許可されると、サーバ10は、無人航空機20に対して離陸指示とともに、移動方向や移動速度などの情報を送信する。無人航空機20は、これらの情報を受信すると、プロペラの回転を制御して離陸する。無人航空機20が一定高度まで上昇すると、サーバ10にその旨が通知され、飛行モードが自律飛行モードに変更される。なお、離陸時には、サーバ10からの指示ではなく、無人航空機20が自身の判断で離陸してもよい。その後は、サーバ10と無人航空機20との間で位置情報等が送信されることによって、目的地上空までの自律飛行が実現される。
 無人航空機20が目的地上空まで移動すると(例えば、位置情報と目的地との距離が閾値未満になると)、飛行モードが着陸モードに設定される。なお、後述する制限部104により着陸が許可された場合に着陸モードになってもよい。その後、制限部104により着陸が許可されると、サーバ10は、無人航空機20に対して着陸指示とともに、移動方向や移動速度などの情報を送信する。なお、着陸時には、サーバ10からの指示ではなく、無人航空機20が自身の判断で着陸してもよい。無人航空機20がセンサ部25の感圧センサなどにより着陸を検知すると、プロペラの回転が停止され、着陸が完了する。この場合、無人航空機20からサーバ10に対し、着陸が完了した旨が通知され、その旨が飛行管理データDT2に格納されてもよい。
[種別特定部]
 種別特定部101は、制御部11を主として実現される。種別特定部101は、検出部400の検出結果に基づいて、物体の種別を特定する。先述したように、物体の検出方法自体は、種々の手法を適用可能であり、種別特定部101は、利用する検出方法に応じた方法で物体の種別を特定すればよい。
 例えば、本実施形態のように、カメラを利用する場合には、種別特定部101は、検出部400により生成された撮影画像に基づいて、物体の種別を特定する。例えば、データ記憶部100に、種々の物体の形状や色彩などのパターンを定義したパターンデータを用意しておき、種別特定部101は、パターンデータに基づいて、撮影画像に対してパターンマッチングを行うことで物体を検出する。また例えば、畳み込みニューラルネットワークなどの機械学習を利用してもよく、種別特定部101は、種々の物体の特徴を示す教師データに基づいて作成した学習器(物体の種類を分類する学習器)を利用して、撮影画像に撮影された物体の種別を特定してもよい。
 また例えば、赤外線センサを利用する場合には、種別特定部101は、検出部400により生成された赤外線画像に基づいて、物体の種別を特定する。この場合、カメラを利用した場合と同様に、種別特定部101は、パターンマッチングや機械学習を利用して、赤外線画像に撮影された物体の種別を特定する。また例えば、深度センサを利用する場合には、種別特定部101は、検出部400により生成された深度画像に基づいて、物体の種別を特定する。深度画像では、深度の差が大きいエッジ部分を特定することで、物体の輪郭を特定することができる。このため、種別特定部101は、深度画像から輪郭線を抽出し、輪郭線の形状やサイズの特徴から物体の種別を特定する。
 本実施形態では、種別特定部101は、種別として、静止している静止物体であるか、移動している又は移動しうる移動物体であるか、を特定する。例えば、静止物体に分類される種別と、移動物体に分類される種別と、を予めデータ記憶部100に定義しておき、種別特定部101は、検出部400の検出結果に基づいて特定した種別が、静止物体と移動物体の何れに属するかを判定してもよい。例えば、貨物を静止物体として定義し、人・動物・乗物を移動物体として定義した場合、種別特定部101は、撮影画像などから特定した種別が貨物であれば静止物体として特定し、当該種別が人、動物、又は乗物であれば移動物体として特定する。
 また例えば、種別特定部101は、検出部400の検出結果の変化に基づいて、静止物体であるか移動物体であるかを特定してもよい。例えば、カメラを利用する場合に、静止物体は原則として動かないので、連続的に撮影される撮影画像に変化はない。一方、移動物体は移動するので、撮影画像に変化が生じる。このため、種別特定部101は、撮影画像の変化に基づいて、静止物体であるか移動物体であるかを特定してもよい。赤外線センサや深度センサを利用する場合も、種別特定部101は、赤外線画像の変化や深度画像の変化を利用して、静止物体であるか移動物体であるかを特定する。
 本実施形態では、無人航空機20は、貨物を運搬可能なので、種別特定部101は、種別として、貨物であるか、貨物以外であるかを特定してもよい。例えば、カメラを利用する場合には、パターンデータに貨物又は箱などの形状や色などを定義しておき、種別特定部101は、パターンデータに基づいて、撮影画像に対してパターンマッチングを行うことで、貨物であるか、貨物以外であるか、を特定する。即ち、種別特定部101は、パターンデータにマッチした場合には、物体の種別が貨物であると判定し、パターンデータにマッチしなかった場合には、物体の種別が貨物以外であると判定する。また例えば、貨物又は箱などの画像を格納した教師データに基づいて、機械学習の学習器に貨物又は箱などの形状や色などの特徴を学習させておき、種類特定部は、撮影画像を学習器に入力し、分類結果として貨物が出力されたか否かを取得してもよい。赤外線センサや深度センサを利用する場合も、種別特定部101は、赤外線画像や深度画像の特徴に基づいて、貨物であるか、貨物以外であるかを特定する。
[位置特定部]
 位置特定部102は、制御部11を主として実現される。位置特定部102は、物体の位置を特定する。位置特定部102は、検出部400の検出結果に基づいて、物体の位置を特定する。物体の位置は、物体の検出方法に応じた方法で検出されるようにすればよい。本実施形態のように、カメラを利用する場合には、種別特定部101により撮影画像が解析されて物体が検出されるので、位置特定部102は、撮影画像の中で物体が検出された位置(図8の撮影画像において物体が検出された画素の位置)を取得すればよい。赤外線センサや深度センサを利用する場合も同様に、位置特定部102は、赤外線画像や深度画像の中で物体が検出された位置を取得すればよい。
 本実施形態では、無人航空機20に着陸と離陸の少なくとも一方を行わせるためのエリアとしてポートPが予め決められているので、位置特定部102は、位置として、ポートP内であるか、ポートP周辺であるか、を特定する。例えば、ポートPの位置(例えば、撮影画像における領域)を予めデータ記憶部100に定義しておき、位置特定部102は、特定した位置がポートPの内部に含まれる否かを判定する。なお、ポートPの位置は、予め定義しておくのではなく、検出部400の検出結果からポートPの位置が特定されてもよい。この場合、物体の種別を検出する方法と同様に、パターンマッチングや畳み込みニューラルネットワーク等を利用して、撮影画像内のポートPの位置が特定されるようにすればよい。
 本実施形態では、制限対象種別は、位置特定部102により特定された位置に応じて設定される。データ記憶部100には、物体の位置と制限対象種別との関係が定義されており、位置特定部102により特定された位置に関連付けられた制限対象種別が設定される。本実施形態では、この関係は、制限対象種別データDT1に定義されている。例えば、位置特定部102により物体の位置がポートP内であることが特定された場合には、ポートP内の制限対象種別が設定され、位置特定部102により物体の位置がポートP周辺であることが特定された場合には、ポートP周辺の制限対象種別が設定される。
 図9のデータ格納例であれば、位置特定部102により物体の位置がポートP内であることが特定された場合には、着陸モードであれば、全ての種別が制限対象種別として設定され、離陸モードであれば、静止物体は制限対象種別として設定されず、移動物体が制限対象種別として設定される。一方、位置特定部102により物体の位置がポートP周辺であることが特定された場合には、飛行モードに関係なく、移動物体が制限対象種別として設定される。
[飛行モード特定部]
 飛行モード特定部103は、制御部11を主として実現される。本実施形態では、無人航空機20は、複数の飛行モードのうちの何れかに基づいて飛行し、飛行モード特定部103は、無人航空機20の飛行モードを特定する。本実施形態では、飛行管理データDT2に飛行モードが格納されている。先述したように、飛行モードは、無人航空機20の現在位置などの飛行状況に応じて適宜更新されるので、飛行モード特定部103は、データ記憶部100に記憶された飛行モードを参照する。
 例えば、制限対象種別は、飛行モードに応じて設定される。データ記憶部100には、飛行モードと制限対象種別との関係が定義されており、飛行モード特定部103により特定された飛行モードに関連付けられた制限対象種別が設定される。本実施形態では、この関係は、制限対象種別データDT1に定義されている。例えば、飛行モード特定部103により着陸モードであることが特定された場合には、着陸モードの制限対象種別が設定され、飛行モード特定部103により離陸モードであることが特定された場合には、離陸モードの制限対象種別が設定される。
 上記のように、制限対象種別は、無人航空機20が着陸又は離陸の何れを行うかに応じて設定される。本実施形態では、飛行モードに基づいて、着陸又は離陸の何れを行うかが特定される場合を説明するが、特に飛行モードで特定せず、他の方法によって特定されてもよい。例えば、飛行中の無人航空機20が目的地(例えば、ポートPの上空)に到着した場合に、着陸をすることが特定されてもよい。また例えば、無人航空機20のプロペラが回転していない状態で、目的地や飛行ルートなどが設定された場合に、離陸をすることが特定されてもよい。なお、着陸時と離陸時とで制限対象種別が完全に異なる必要はなく、少なくとも一部が異なっていればよい。
 図9のデータ格納例であれば、飛行モード特定部103により着陸モードが特定された場合(即ち、無人航空機20が着陸をする場合)には、物体がポート内であれば、全ての種別が制限対象種別として設定され、物体がポート周辺であれば、移動物体が制限対象種別として設定される。一方、飛行モード特定部103により離陸モードが特定された場合(即ち、無人航空機20が離陸をする場合)には、物体の位置に関係なく、移動物体が制限対象種別として設定される。
[制限部]
 制限部104は、制御部11を主として実現される。制限部104は、種別特定部101により特定された種別に基づいて、無人航空機20の着陸と離陸の少なくとも一方を制限する。本実施形態では、着陸と離陸の両方について、制限部104の処理の対象とするが、制限部104は、着陸又は離陸の何れか一方のみを対象としてもよい。
 着陸を制限するとは、着陸させないこと、又は、着陸を許可しないことである。例えば、無人航空機20をホバリングさせてその場で待機させること、着陸モードに移行させないこと、高度を上昇させること、プロペラの回転速度を減少させないこと、プロペラの回転速度を閾値以上の状態に保つこと、又はポートPから離れる方向に移動させることは、着陸を制限することに相当する。
 離陸を制限するとは、離陸させないこと、又は、離陸を許可しないことである。例えば、無人航空機20を着陸させたままにすること、離陸モードに移行させないこと、高度を上昇させないこと、プロペラの回転速度を増加させないこと、プロペラの回転速度を閾値未満の状態に保つこと、又はポートP上に留まらせることは、離陸を制限することに相当する。
 本実施形態では、制限対象種別が設定されるので、制限部104は、種別特定部101により特定された種別が所定の制限対象種別である場合に、無人航空機の着陸と離陸の少なくとも一方を制限する。例えば、制限部104は、種別特定部101により特定された種別が制限対象種別であるか否かを判定し、無人航空機20の着陸と離陸を制限する。本実施形態では、制限部104は、制限対象種別の物体が1つでも検出された場合には、他に検出された物体が制限対象種別に該当しなくても、無人航空機20の着陸と離陸を制限する。
 本実施形態では、着陸時の制限対象種別と離陸時の制限対象種別とが異なるので、例えば、制限部104は、無人航空機20が着陸する場合、種別特定部101により特定された種別が着陸時の制限対象種別であるか否かを判定し、着陸時の制限対象種別であると判定された場合に、無人航空機20の着陸を制限する。また例えば、制限部104は、無人航空機20が離陸モードの場合、種別特定部101により特定された種別が離陸時の制限対象種別であるか否かを判定し、離陸時の制限対象種別であると判定された場合に、無人航空機20の離陸を制限する。
 制限部104は、種別特定部101により特定された物体が静止物体又は移動物体の何れであるかに基づいて、無人航空機20の着陸と離陸の少なくとも一方を制限する。例えば、制限部104は、種別特定部101により特定された物体が静止物体である場合に、当該物体がポートP内であれば、無人航空機20の着陸を制限し、当該物体がポートP周辺であれば、無人航空機20の着陸を制限せずに許可する。また例えば、種別特定部101により特定された物体が移動物体である場合には、当該物体の位置に関係なく、無人航空機20の着陸を制限する。また例えば、制限部104は、種別特定部101により特定された物体が静止物体である場合には、当該物体の位置に関係なく、無人航空機20の離陸を制限せずに許可する。また例えば、種別特定部101により特定された物体が静止物体である場合には、当該物体の位置に関係なく、無人航空機20の離陸を制限する。
 また例えば、制限部104は、種別特定部101により特定された物体が貨物又は貨物以外の何れであるかに基づいて、無人航空機の着陸と離陸の少なくとも一方を制限してもよい。例えば、制限部104は、種別特定部101により特定された物体が貨物である場合に、当該貨物がポートP内であれば、無人航空機20の着陸を制限し、当該貨物がポートP周辺であれば、無人航空機20の着陸を制限せずに許可する。また例えば、種別特定部101により特定された物体が貨物以外である場合には、当該物体の位置に関係なく、無人航空機20の着陸を制限する。
 また例えば、制限部104は、種別特定部101により特定された物体が貨物である場合には、当該貨物の位置に関係なく、無人航空機20の離陸を制限せずに許可する。また例えば、種別特定部101により特定された物体が貨物以外である場合には、当該物体の位置に関係なく、無人航空機20の離陸を制限する。
 本実施形態では、制限部104は、位置特定部102により特定された位置に更に基づいて、無人航空機20の着陸と離陸の少なくとも一方を制限する。例えば、データ記憶部100に、無人航空機20の着陸を制限すべき位置と、無人航空機20の離陸を制限すべき位置と、が定義されているものとする。
 制限部104は、位置特定部102により特定された位置が着陸を制限すべき位置であるか否かを判定し、位置特定部102により特定された位置が着陸を制限すべき位置であると判定された場合には、無人航空機20の着陸を制限する。制限部104は、位置特定部102により特定された位置が離陸を制限すべき位置であるか否かを判定し、位置特定部102により特定された位置が離陸を制限すべき位置であると判定された場合には、無人航空機20の離陸を制限する。
 本実施形態では、ポートP内とその周辺でエリアが区別されているので、制限部104は、種別特定部101により特定された物体がポートP内又はポートP周辺の何れにあるかに基づいて、無人航空機の着陸と離陸の少なくとも一方を制限する。例えば、制限部104は、位置特定部102により特定された位置がポートP内であるか否かを判定する。例えば、制限部104は、当該位置がポートP内である場合、物体の種別に関係なく、着陸を制限する。また例えば、制限部104は、当該位置がポートP周辺である場合、静止物体であれば着陸を制限せずに許可し、移動物体であれば着陸を制限する。
 本実施形態では、無人航空機20は、貨物を運搬可能であり、制限対象種別は、貨物であってもよい。制限部104は、無人航空機20が離陸モードの場合には、種別特定部101により貨物が特定されたとしても、無人航空機20の離陸を制限しない。一方、制限部104は、無人航空機20が着陸モードの場合には、種別特定部101により貨物が特定された場合に、無人航空機20の着陸を制限する。
[1-4.無人航空機制御システムにおいて実行される処理]
 次に、無人航空機制御システム1において実行される処理について説明する。ここでは、着陸時と離陸時の各々におけるサーバ10の処理について説明する。以降説明する処理は、制御部11が記憶部12に記憶されたプログラムに従って動作することによって実行される。なお、以降説明する処理は、図7に示す機能ブロックの処理の一例である。
[着陸時の処理]
 図11は、着陸時の処理の一例を示すフロー図である。図11の処理は、飛行モードが着陸モードになった場合に実行される。図11に示すように、まず、サーバ10において、制御部11は、検出装置40から撮影画像を取得する(S1)。S1においては、検出装置40は、所定のフレームレートに基づいて連続的に撮影し、サーバ10に撮影画像を送信する。サーバ10においては、検出装置40により送信された撮影画像を受信する。
 制御部11は、S1において取得された撮影画像に基づいて、物体の種別を特定する(S2)。S2においては、制御部11は、パターンマッチング又は畳み込みニューラルネットワークを利用して、撮影画像に撮影された物体を検出し、その種別を特定する。
 制御部11は、S2で種別を特定した物体の位置を特定する(S3)。S3においては、制御部11は、撮影画像において物体が検出された位置を特定する。例えば、制御部11は、撮影画像の左上を限定としたスクリーン座標系の2次元座標で撮影画像内の位置が示される場合には、S2において物体が検出された位置を示す2次元座標が特定される。
 制御部11は、制限対象種別データDT1に基づいて、S3で特定した物体の位置に応じた、着陸モードの制限対象種別を設定する(S4)。S4においては、制御部11は、S3で特定した撮影画像内の位置がポートP内であるか否かを判定する。検出装置40の位置は予め固定されており、撮影画像においてポートPが表れる領域も予め分かっているので、制御部11は、S3で特定した物体の位置を示す2次元座標が当該領域内に含まれるか否かを判定する。そして、制御部11は、特定した物体の位置がポートP内であると判定された場合には、静止物体と移動物体の両方を制限対象種別として設定する。一方、制御部11は、特定した物体の位置がポートP周辺であると判定された場合には、移動物体を制限対象種別として設定する。
 制御部11は、物体の種別がS4で設定された制限対象種別であるか否かを判定する(S5)。S5においては、制御部11は、物体の位置がポートP内である場合には、S3で特定された種別に関係なく、制限対象種別であると判定する。また、制御部11は、物体の位置がポートP周辺である場合には、S3で特定された種別が移動物体である場合に、制限対象種別であると判定する。
 物体の種別が制限対象種別であると判定された場合(S5;Y)、制御部11は、無人航空機20の着陸を制限する(S6)。S6においては、制御部11は、無人航空機20に対し、その場でホバリングする旨の指示を送信する。無人航空機20は、当該指示を受信すると、その場でホバリングをして着陸を待機する。
 一方、物体の種別が制限対象種別であると判定されない場合(S5;N)、制御部11は、無人航空機20の着陸を許可し(S7)、本処理は終了する。S7において、制御部11は、無人航空機20に対し、着陸を許可する旨の指示を送信する。無人航空機20は、当該指示を受信すると、撮影部24又はセンサ部25の検出信号に基づいて、ポートP内のマークMを検出し、マークMに近づくように移動した着陸する。
[離陸時の処理]
 図12は、離陸時の処理の一例を示すフロー図である。図12の処理は、飛行モードが離陸モードになった場合に実行される。図12に示すように、S11~S13の処理は、それぞれS1~S3の処理と同様である。
 制御部11は、制限対象種別データDT1に基づいて、S12で特定した物体の位置に応じた、離陸モードの制限対象種別を設定する(S14)。S14の処理は、S4の処理と略同様であるが、制限対象種別データDT1の離陸モードの制限対象種別が参照される点でS4と異なる。ここでは、物体の位置に関係なく、移動物体が制限対象種別として設定されるが、離陸時においても、物体の位置に応じた制限対象種別が設定されてよい。
 制御部11は、物体の種別が制限対象種別であるか否かを判定する(S15)。S15においては、制御部11は、物体の種別が静止物体であれば、制限対象種別ではないと判定し、物体の種別が移動物体であれば、制限対象種別であると判定する。
 物体の種別が制限対象種別であると判定された場合(S15;Y)、制御部11は、無人航空機20の離陸を制限する(S16)。S16においては、制御部11は、無人航空機20に対し、プロペラを回転させる旨の指示を送信しない。
 一方、物体の種別が制限対象種別であると判定されない場合(S15;N)、制御部11は、無人航空機20の離陸を許可し(S17)、本処理は終了する。S17において、制御部11は、無人航空機20に対し、離陸を許可する旨の指示を送信する。無人航空機20は、当該指示を受信すると、プロペラを回転させて離陸する。
 実施形態1の無人航空機制御システム1によれば、必要以上に厳格に離着陸を制限するのではなく、ポートP及びその周辺にある物体の種別に基づいて離着陸を制限することによって、安全性に実質的に影響しないような物体の場合には離着陸を制限せず、安全性の向上と柔軟性の向上を両立させることができる。
 また、ポートP及びその周辺にある物体が静止物体又は移動物体の何れであるかに基づいて、無人航空機20の離着陸が制御され、例えば、接触する確率が低く接触時の影響も比較的小さい静止物体の場合には、離着陸を制限せずに柔軟性を確保し、接触する確率が高く接触時の影響も比較的大きい移動物体の場合には、離着陸を制限して安全性を確保するといったことをすることができ、安全性の向上と柔軟性の向上をより効果的に両立させることができる。
 また、ポートP及びその周辺にある物体が貨物又は貨物以外の何れであるかに基づいて、無人航空機20の離着陸が制御され、例えば、接触する確率が低く接触時の影響も比較的小さい貨物の場合には、離着陸を制限せずに柔軟性を確保し、接触する確率が高く接触時の影響も比較的大きい他の物体の場合には、離着陸を制限して安全性を確保するといったことをすることができ、安全性の向上と柔軟性の向上をより効果的に両立させることができる。
 また、無人航空機20を離着陸させるポートP内にある物体と、ポートP周辺にある物体と、が検出されることで、ポートP内だけでなく、ポートP周辺にある物体についても注意して離着陸を制御することができる。
 また、ポートP又はその周辺の物体の位置に基づいて無人航空機20の離着陸が制御されることで、例えば、ポートP内に貨物がある場合には着陸を制限して安全性を重視し、ポートPの周辺に貨物がある場合には着陸を制限せず柔軟性を重視するといったことができ、安全性の向上と柔軟性の向上をより効果的に両立させることができる。
 また、ポートP又はその周辺の物体の位置に応じた制限対象種別が設定されることで、注意すべき物体の種別が位置によって異なる場合にも対応することができ、安全性の向上と柔軟性の向上をより効果的に両立させることができる。
 また、物体の位置がポートP内又はポートP周辺の何れにあるかに基づいて、無人航空機20の離着陸が制限されることで、例えば、ポートP内に貨物がある場合には着陸を制限して安全性を重視し、ポートPの周辺に貨物がある場合には着陸を制限せず柔軟性を重視するといったことができ、安全性の向上と柔軟性の向上をより効果的に両立させることができる。
 また、飛行モードに応じた制限対象種別が設定されることで、例えば、注意すべき物体の種別が飛行モードによって異なる場合にも対応することができ、安全性の向上と柔軟性の向上をより効果的に両立させることができる。
 また、無人航空機20が着陸又は離陸の何れを行うかに応じて制限対象種別が設定されることで、例えば、注意すべき物体の種別が着陸時と離陸時で異なる場合にも対応することができ、安全性の向上と柔軟性の向上をより効果的に両立させることができる。
 また、無人航空機20が離陸する場合には、貨物が特定されたとしても、離陸には影響しないので柔軟性を重視して離陸を制限せず、無人航空機20が着陸する場合には、貨物が特定されると、着陸に影響するので安全性を重視して着陸を制限することで、安全性の向上と柔軟性の向上をより効果的に両立させることができる。
[2.実施形態2]
 次に、無人航空機制御システム1の別実施形態(以降、実施形態2と記載する。)を説明する。実施形態1で説明したように、無人航空機20が着陸をする場合に、ポートP上に貨物があったり、ポートP又はその周囲にユーザがいたりすると、無人航空機20の着陸に支障をきたすことがある。このため、実施形態2では、無人航空機20をスムーズに着陸させる準備をさせるために、本実施形態では、無人航空機20の到着が近づいたときに、ユーザに所定のメッセージが送信されるようになっている。
 図13は、無人航空機20がポートPに向けて移動する様子を示す図である。図13に示すように、無人航空機20がポートPに向けて飛行して、無人航空機20とポートPとの距離Lが第1の閾値(例えば、100メートル)未満になると、サーバ10からユーザ端末30に対し、所定のメッセージが送信される。なお、図13では、無人航空機20とポートPの直線距離Lとしているが、これらの高度差は考慮せず、水平方向の距離が用いられてもよい。
 図14は、ユーザ端末30に送信されたメッセージの一例を示す図である。ここでは、メッセージは、ユーザ端末30の飛行管理アプリに表示される場合を説明するが、例えば、電子メール、SNS、メッセージアプリ、又はプッシュ通知といった任意の媒体を利用して表示されてよい。
 図14に示すように、飛行管理アプリには、無人航空機20の到着が近づいていることを示すメッセージが表示される。なお、メッセージの内容は、図14の例に限られず、例えば、無人航空機20がポートPの上空に到着する前に、制限部104によって着陸の可否が事前に判定され、制限部104による判定結果をメッセージとして表示されてもよい。
 その後、無人航空機20とポートPとの距離Lが、第1の閾値よりも小さい第2の閾値(例えば、10メートル)未満になると、サーバ10から無人航空機20に対し、着陸モードに変更する旨の指示が通知される。無人航空機20は、当該指示を受信すると、自律飛行モードから着陸モードに変更する。着陸モードに変更された後の動作については、実施形態1で説明した通りである。
 なお、図13及び図14では、離陸時の処理について説明したが、離陸時には、サーバ10は、無人航空機20とポートPとの距離に関係なく、無人航空機20とユーザ端末30の各々に対し、離陸の可否を通知する情報がツ通知され、離陸が許可された場合には離陸する旨の制御信号が送信されてもよい。
[2-1.実施形態2において実現される機能]
 図15は、実施形態2の機能ブロック図である。図15に示すように、実施形態2では、実施形態1で説明した機能に加え、位置関係特定部105と送信部106が実現される。本実施形態では、これらの機能がサーバ10において実現される場合を説明する。
[位置関係特定部]
 位置関係特定部105は、制御部11を主として実現される。位置関係特定部105は、飛行中の無人航空機20とポートPとの位置関係を特定する。無人航空機20の位置は、飛行管理データDT2の位置情報に示されており、ポートPの位置は、飛行管理データDT2の目的地に示されているので、位置関係特定部105は、飛行管理データDT2に基づいて、位置関係を特定する。
 位置関係とは、ポートPに対する無人航空機20の相対位置であり、例えば、無人航空機20とポートPとの距離であってもよいし、ポートPに対する無人航空機20の角度(無人航空機20とポートPを結ぶ直線と地平面とのなす角度)であってもよいし、これらの両方であってもよい。本実施形態では、位置関係特定部105は、位置関係として、飛行中の無人航空機20と場所との距離を特定する。位置関係特定部105は、無人航空機20の位置情報が示す位置と、ポートPの位置と、の距離を計算することになる。先述したように、当該距離は、3次元空間上の距離であってもよいし、水平面上の距離であってもよい。
[送信部]
 送信部106は、制御部11を主として実現される。送信部106は、位置関係特定部105により特定された位置関係に応じた送信先に、当該位置関係に応じた情報を送信する。位置関係と、送信先及び情報の種類と、の関係は、データ記憶部100に予め記憶されているものとする。送信部106は、当該関係に基づいて、位置関係特定部105により特定された位置関係に関連付けられた送信先に、当該位置関係に関連付けられた種類の情報を送信する。
 本実施形態では、位置関係として距離が取得されるので、送信部106は、位置関係特定部105により特定された距離に応じた送信先に、当該距離に応じた情報を送信する。この場合、距離と、送信先及び情報の種類と、の関係がデータ記憶部100に予め記憶されており、送信部106は、当該関係に基づいて、位置関係特定部105により特定された距離に関連付けられた送信先に、当該距離に関連付けられた種類の情報を送信する。
 例えば、送信部106は、無人航空機20とポートPとの距離が第1の閾値未満になった場合に、第1の送信先に第1の情報を送信し、無人航空機20とポートPとの距離が第1の閾値よりも小さい第2の閾値未満になった場合に、第2の送信先に第2の情報を送信する。第1の閾値及び第2の閾値は、データ記憶部100に予め記憶されており、管理者などによって変更可能であるものとする。
 第1の閾値と第2の閾値は、任意の目的で設定されてよく、例えば、第1の閾値は、ユーザに対し、無人航空機20が接近したことを通知すべきタイミングを示す閾値である。第2の閾値は、無人航空機20の着陸を制限する処理を実行すべきタイミングを示す閾値である。例えば、第1の閾値は、数十メートル~数キロメートル程度の距離であり、第2の閾値は、数メートル~数十メートル程度の距離である。第1の閾値と第2の閾値の差は、ユーザにメッセージ等を確認するために十分な時間(例えば、1分~10分程度)を確保可能な距離であればよい。
 例えば、送信部106は、無人航空機20とポートPとの距離が第1の閾値未満になった場合に、ユーザ端末に対し、所定のメッセージを送信する。メッセージの内容を示すデータは、データ記憶部100に予め記憶されており、送信部106は、当該データに基づいて、メッセージを生成して送信する。先述した通り、メッセージの内容は、任意の内容であってよく、例えば、無人航空機20が無人航空機20の到着が近づいていることを示す内容である。
 また例えば、送信部106は、無人航空機20とポートPとの距離が第2の閾値未満になった場合に、無人航空機20に、制限部104に基づく制御信号を送信する。制限部104に基づく制御信号とは、着陸を許可しないことを示す信号、又は、着陸を許可することを示す信号である。例えば、送信部106は、制限部104により着陸が許可されない場合に、着陸を許可しない旨を示す信号、又は、その場でホバリングをする旨の信号を送信する。また例えば、送信部106は、制限部104により着陸が許可された場合に、着陸を許可する旨を示す信号を送信する。なお、着陸が許可された場合に初めて着陸モードになる場合には、送信部106は、制限部104により着陸が許可された場合に、着陸モードにする旨の指示を送信する。
 なお、無人航空機20とポートPとの距離が第1の閾値未満になった場合に、送信部106は、ユーザ端末30以外の装置に対して情報を送信してもよく、例えば、無人航空機20に減速指示を送信してもよいし、検出装置40に起動指示を送信してもよい。同様に、無人航空機20とポートPとの距離が第2の閾値未満になった場合に、送信部106は、無人航空機20以外の装置に対して情報を送信してもよく、例えば、ユーザ端末30に所定のメッセージを送信してもよいし、検出装置40に起動指示を送信してもよい。他にも例えば、送信部106は、ポートPとの距離が第1の閾値未満又は第2の閾値未満になった場合に、ポートPに配置された端末にメッセージを送信してもよいし、ポートP付近に配置された照明をオンにする旨の指示を送信してもよい。
 また、無人航空機20とポートPとの距離の閾値として、第1の閾値と第2の閾値が設定される場合を説明したが、3段階以上の閾値が設定されてもよいし、1段階だけの閾値が設定されてもよい。例えば、送信部106は、距離が閾値以上である場合には、ユーザ端末30に特に情報を送信せず、距離が閾値未満になった場合に、ユーザ端末30にメッセージなどの情報を送信してもよい。
 また例えば、送信部106が情報を送信する送信先は、無人航空機20、ユーザ端末30、又は検出装置40の何れかであってもよいし、ポートPに配置された端末などの他のコンピュータであってもよい。また例えば、送信部106は、上記説明した任意の情報を送信すればよく、その他にも、無人航空機20のバッテリー残量を要求する指令、ユーザ端末30にテレビ電話機能を起動する旨の要求、又は検出装置40の検出条件を変更する要求などが送信されてもよい。
[2-2.実施形態2において実行される処理]
 図16は、実施形態2において実行される処理を示す図である。以降説明する処理は、制御部11が記憶部12に記憶されたプログラムに従って動作することによって実行される。なお、以降説明する処理は、図16に示す機能ブロックの処理の一例である。
 図16に示すように、制御部11は、飛行管理データDT2に基づいて、無人航空機20とポートPとの距離を計算する(S21)。S21においては、制御部11は、飛行管理データDT2に格納された無人航空機20の位置情報が示す位置と目的地との距離を計算する。
 制御部11は、S21で計算した距離が第1の閾値未満であるか否かを判定する(S22)。第1の閾値は、記憶部12に予め記憶されているものとする。第1の閾値未満であると判定された場合(S22;Y)、制御部11は、ユーザ端末30にメッセージを送信する(S23)。メッセージは、記憶部12に予め記憶されているものとする。
 制御部11は、S21で計算した距離が第2の閾値未満であるか否かを判定する(S24)。第2の閾値は、記憶部12に予め記憶されているものとする。第2の閾値未満であると判定された場合(S24;Y)、制御部11は、無人航空機20に対し、着陸モードにする旨の通知を送信し(S25)、本処理は終了する。以降、実施形態1で説明した図11の処理が実行される。
 実施形態2の無人航空機制御システム1によれば、無人航空機20とポートPとの位置関係に応じた送信先に、当該位置関係に応じた情報を送信することで、例えば、無人航空機20とポートPとが所定の位置関係にあるときには、サーバ10がユーザ端末30に無人航空機20の飛行状況を送信し、別の位置関係にあるときには、サーバ10が無人航空機20に所定の信号を送信するといったことができ、無人航空機20を飛行させる際の利便性を向上させることができる。
 また、位置関係として、無人航空機20とポートPとの距離を取得し、当該距離に応じた送信先に、当該位置関係に応じた情報を送信することで、例えば、無人航空機20とポートPとが所定の距離未満になったときに、サーバ10がユーザ端末30に無人航空機20の飛行状況を送信し、無人航空機20がポートPに更に近づいたときには、サーバ10が無人航空機20に所定の信号を送信するといったことができ、無人航空機20を飛行させる際の利便性を向上させることができる。
 また、無人航空機20とポートPとの距離が第1の閾値未満になった場合に、第1の送信先に第1の情報を送信し、当該距離が第2の閾値未満になった場合に、第2の送信先に第2の情報を送信することで、無人航空機20を飛行させる際の利便性を向上させることができる。
 また、無人航空機20とポートPとの距離が第1の閾値未満になった場合に、ユーザ端末30に対し、所定のメッセージを送信し、当該距離が第2の閾値未満になった場合に、無人航空機20に離着陸の許可を示す制御信号が送信されることで、無人航空機20を飛行させる際の利便性を向上させることができる。
[3.変形例]
 なお、本発明は、以上に説明した実施の形態に限定されるものではない。本発明の趣旨を逸脱しない範囲で、適宜変更可能である。
 例えば、実施形態2において、実施形態1のように離着陸が制限されなくてもよい。この場合、例えば、無人航空機20とポートPとの距離が第1の閾値未満になった場合に、サーバ10からユーザ端末30に対し、所定のメッセージが送信され、距離が第2の閾値未満になった場合に、特に制限部104による制限が実行されることなく、サーバ10から無人航空機20に対し、着陸モードへの移行が指示されてもよい。このようにすることでも、ユーザが事前にメッセージを受信することで、ポートP上の貨物を除去したり、周囲に注意喚起したりする時間を与えることができるので、安全性を向上させることができ、無人航空機20の着陸も制限されないので、柔軟性を向上させることもできる。
 また例えば、実施形態2では、無人航空機20とポートPとの位置関係に応じた送信先に、当該位置関係に応じた情報が送信される場合を説明したが、無人航空機20の飛行モードに応じた送信先に、当該飛行モードに応じた情報が送信されてもよい。この場合、データ記憶部100には、飛行モードごとに、送信先と、送信すべき情報の種別と、が関連付けられているものとする。サーバ10は、飛行管理データDT2に基づいて、無人航空機20の飛行モードを特定し、当該特定された飛行モードに関連付けられた送信先に、当該飛行モードに関連付けられた種別の情報を送信する。例えば、サーバ10は、着陸モードと離陸モードとで、情報の送信先と種別を異ならせてもよい。
 また例えば、無人航空機20は、特に貨物を運搬しなくてもよい。無人航空機20は、種々の目的で飛行してよく、貨物の運搬以外にも、例えば、撮影、気象情報の検出、警備、又は農薬散布等の目的で飛行してもよい。
 また例えば、無人航空機制御システム1は、他のコンピュータ(例えば、サーバコンピュータ又はパーソナルコンピュータ)を含んでいてもよく、当該コンピュータによって各無人航空機20の飛行制御が実行されてもよい。例えば、データ記憶部100は、無人航空機制御システム1内のデータベースサーバにより実現されてもよいし、無人航空機制御システム1外のデータベースサーバにより実現されてもよい。
 また例えば、上記説明した各機能は、無人航空機制御システム1の何れかのコンピュータで実現されるようにすればよく、サーバ10、無人航空機20、及びユーザ端末30などの複数のコンピュータで各機能が分担されていてもよい。

Claims (17)

  1.  無人航空機の着陸と離陸の少なくとも一方が行われる場所にある物体を検出するための検出手段と、
     前記検出手段の検出結果に基づいて、前記物体の種別を特定する種別特定手段と、
     前記種別特定手段により特定された種別に基づいて、前記無人航空機の着陸と離陸の少なくとも一方を制限する制限手段と、
     を含むことを特徴とする無人航空機制御システム。
  2.  前記種別特定手段は、前記種別として、静止している静止物体であるか、移動している又は移動しうる移動物体であるか、を特定し、
     前記制限手段は、前記物体が前記静止物体又は前記移動物体の何れであるかに基づいて、前記無人航空機の着陸と離陸の少なくとも一方を制限する、
     ことを特徴とする請求項1に記載の無人航空機制御システム。
  3.  前記無人航空機は、貨物を運搬可能であり、
     前記種別特定手段は、前記種別として、貨物であるか、貨物以外であるかを特定し、
     前記制限手段は、前記物体が貨物又は貨物以外の何れであるかに基づいて、前記無人航空機の着陸と離陸の少なくとも一方を制限する、
     ことを特徴とする請求項1又は2に記載の無人航空機制御システム。
  4.  前記場所は、前記無人航空機に着陸と離陸の少なくとも一方を行わせるためのエリアが予め決められており、
     前記検出手段は、前記エリア内にある物体と、前記エリア周辺にある物体と、の少なくとも一方を検出する、
     ことを特徴とする請求項1~3の何れかに無人航空機制御システム。
  5.  前記無人航空機制御システムは、前記物体の位置を特定する位置特定手段を更に含み、
     前記制限手段は、前記位置特定手段により特定された位置に更に基づいて、前記無人航空機の着陸と離陸の少なくとも一方を制限する、
     ことを特徴とする請求項1~4の何れかに記載の無人航空機制御システム。
  6.  前記制限手段は、前記種別特定手段により特定された種別が所定の制限対象種別である場合に、前記無人航空機の着陸と離陸の少なくとも一方を制限し、
     前記制限対象種別は、前記位置特定手段により特定された位置に応じて設定される、
     ことを特徴とする請求項5に記載の無人航空機制御システム。
  7.  前記場所は、前記無人航空機に着陸と離陸の少なくとも一方を行わせるためのエリアが予め決められており、
     前記位置特定手段は、前記位置として、前記エリア内であるか、前記エリア周辺であるか、を特定し、
     前記制限手段は、前記物体が前記エリア内又は前記エリア周辺の何れにあるかに基づいて、前記無人航空機の着陸と離陸の少なくとも一方を制限する、
     ことを特徴とする請求項5又は6に記載の無人航空機制御システム。
  8.  前記制限手段は、前記種別特定手段により特定された種別が所定の制限対象種別である場合に、前記無人航空機の着陸と離陸の少なくとも一方を制限し、
     前記無人航空機は、複数の飛行モードのうちの何れかに基づいて飛行し、
     前記無人航空機制御システムは、前記無人航空機の飛行モードを特定する飛行モード特定手段を更に含み、
     前記制限対象種別は、前記飛行モードに応じて設定される、
     ことを特徴とする請求項1~7の何れかに記載の無人航空機制御システム。
  9.  前記制限手段は、前記種別特定手段により特定された種別が所定の制限対象種別である場合に、前記無人航空機の着陸と離陸の少なくとも一方を制限し、
     前記制限対象種別は、前記無人航空機が着陸又は離陸の何れを行うかに応じて設定される、
     ことを特徴とする請求項1~8の何れかに記載の無人航空機制御システム。
  10.  前記無人航空機は、貨物を運搬可能であり、
     前記制限対象種別は、貨物であり、
     前記制限手段は、
     前記無人航空機が離陸する場合には、前記種別特定手段により貨物が特定されたとしても、前記無人航空機の離陸を制限せず、
     前記無人航空機が着陸する場合には、前記種別特定手段により貨物が特定された場合に、前記無人航空機の着陸を制限する、
     ことを特徴とする請求項9に記載の無人航空機制御システム。
  11.  前記無人航空機制御システムは、
     飛行中の前記無人航空機と前記場所との位置関係を特定する位置関係特定手段と、
     前記位置関係特定手段により特定された位置関係に応じた送信先に、当該位置関係に応じた情報を送信する送信手段と、
     を更に含むことを特徴とする請求項1~10の何れかに記載の無人航空機制御システム。
  12.  前記位置関係特定手段は、前記位置関係として、飛行中の前記無人航空機と前記場所との距離を特定し、
     前記送信手段は、前記位置関係特定手段により特定された距離に応じた送信先に、当該距離に応じた情報を送信する、
     ことを特徴とする請求項11に記載の無人航空機制御システム。
  13.  前記送信手段は、前記距離が第1の閾値未満になった場合に、第1の送信先に第1の情報を送信し、前記距離が前記第1の閾値よりも小さい第2の閾値未満になった場合に、第2の送信先に第2の情報を送信する、
     ことを特徴とする請求項12に記載の無人航空機制御システム。
  14.  前記送信手段は、
     前記距離が前記第1の閾値未満になった場合に、ユーザ端末に対し、所定のメッセージを送信し、
     前記距離が前記第2の閾値未満になった場合に、前記無人航空機に、前記制限手段に基づく制御信号を送信する、
     ことを特徴とする請求項13に記載の無人航空機制御システム。
  15.  飛行中の無人航空機と、着陸及び離陸の少なくとも一方が行われる場所と、の位置関係を特定する位置関係特定手段と、
     前記位置関係特定手段により特定された位置関係に応じた送信先に、当該位置関係に応じた情報を送信する送信手段と、
     を含むことを特徴とする無人航空機制御システム。
  16.  無人航空機の着陸と離陸の少なくとも一方が行われる場所にある物体を検出するための検出ステップと、
     前記検出ステップの検出結果に基づいて、前記物体の種別を特定する種別特定ステップと、
     前記種別特定ステップにより特定された種別に基づいて、前記無人航空機の着陸と離陸の少なくとも一方を制限する制限ステップと、
     を含むことを特徴とする無人航空機制御方法。
  17.  無人航空機の着陸と離陸の少なくとも一方が行われる場所にある物体を検出するための検出手段の検出結果に基づいて、前記物体の種別を特定する種別特定手段、
     前記種別特定手段により特定された種別に基づいて、前記無人航空機の着陸と離陸の少なくとも一方を制限する制限手段、
     としてコンピュータを機能させるためのプログラム。
PCT/JP2018/047480 2018-12-25 2018-12-25 無人航空機制御システム、無人航空機制御方法、及びプログラム WO2020136703A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/734,227 US11816999B2 (en) 2018-12-25 2018-12-25 Unmanned aerial vehicle control system, unmanned aerial vehicle control method, and program
PCT/JP2018/047480 WO2020136703A1 (ja) 2018-12-25 2018-12-25 無人航空機制御システム、無人航空機制御方法、及びプログラム
JP2020502248A JP6748797B1 (ja) 2018-12-25 2018-12-25 無人航空機制御システム、無人航空機制御方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/047480 WO2020136703A1 (ja) 2018-12-25 2018-12-25 無人航空機制御システム、無人航空機制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2020136703A1 true WO2020136703A1 (ja) 2020-07-02

Family

ID=71126976

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/047480 WO2020136703A1 (ja) 2018-12-25 2018-12-25 無人航空機制御システム、無人航空機制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US11816999B2 (ja)
JP (1) JP6748797B1 (ja)
WO (1) WO2020136703A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111527463B (zh) * 2018-01-22 2024-02-23 深圳市大疆创新科技有限公司 用于多目标跟踪的方法和***
CN110262559B (zh) * 2019-07-18 2022-11-08 深圳市道通智能航空技术股份有限公司 一种无人机安全保护方法、装置及无人机
WO2022086960A1 (en) 2020-10-20 2022-04-28 DroneUp, LLC Methods and apparatus for navigating an unmanned vehicle based on a calculation of relative distance differences between a start location and a designated drop location
US11797029B2 (en) * 2021-07-19 2023-10-24 Ford Global Technologies, Llc Systems and methods for operating drones in proximity to objects
KR102539970B1 (ko) * 2022-06-24 2023-06-05 (주)쿼터니언 이륙조건을 자동으로 감지하여 이륙조건이 적합하지않으면 스테이션에서 운용하는 드론의 이륙을 강제로 방지하는 드론 스테이션 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010137596A1 (ja) * 2009-05-26 2010-12-02 国立大学法人 千葉大学 移動体制御装置及び移動体制御装置を搭載した移動体
JP2017523087A (ja) * 2014-08-11 2017-08-17 アマゾン テクノロジーズ インコーポレイテッド 自動航空機のプロペラ安全性

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6974077B1 (en) * 2004-09-09 2005-12-13 Edward Beyder Method of remote picking-up of soiled laundry and delivering clean laundry with on-site yet remote weighing
US10466700B1 (en) * 2015-09-25 2019-11-05 Amazon Technologies, Inc. Detecting of navigation data spoofing based on signal strength variance
GB2564804B (en) * 2016-05-04 2021-04-21 Walmart Apollo Llc Systems and methods for transporting products via unmanned aerial vehicles
US9984579B1 (en) * 2016-06-28 2018-05-29 Amazon Technologies, Inc. Unmanned aerial vehicle approach notification
US10029787B1 (en) * 2016-06-30 2018-07-24 X Development Llc Interactive transport services provided by unmanned aerial vehicles
US10395544B1 (en) * 2016-08-29 2019-08-27 Amazon Technologies, Inc. Electronic landing marker
US10497129B1 (en) * 2016-08-31 2019-12-03 Amazon Technologies, Inc. Image-based weather condition detection
US10198955B1 (en) * 2016-09-08 2019-02-05 Amazon Technologies, Inc. Drone marker and landing zone verification
US10248120B1 (en) * 2016-09-16 2019-04-02 Amazon Technologies, Inc. Navigable path networks for autonomous vehicles
US10370093B1 (en) * 2016-11-16 2019-08-06 Amazon Technologies, Inc. On-demand drone noise measurements
WO2018155700A1 (ja) 2017-02-27 2018-08-30 国立大学法人 東京大学 飛行管理システム
WO2019152384A1 (en) * 2018-01-31 2019-08-08 Walmart Apollo, Llc System and method for defending an unmanned aerial vehicle from ground threats
WO2019217008A1 (en) * 2018-05-08 2019-11-14 Amazon Technologies, Inc. Electronic devices capable of communicating over multiple networks
US11127071B2 (en) * 2018-09-17 2021-09-21 International Business Machines Corporation Drone station marketplace

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010137596A1 (ja) * 2009-05-26 2010-12-02 国立大学法人 千葉大学 移動体制御装置及び移動体制御装置を搭載した移動体
JP2017523087A (ja) * 2014-08-11 2017-08-17 アマゾン テクノロジーズ インコーポレイテッド 自動航空機のプロペラ安全性

Also Published As

Publication number Publication date
US20210209954A1 (en) 2021-07-08
US11816999B2 (en) 2023-11-14
JP6748797B1 (ja) 2020-09-02
JPWO2020136703A1 (ja) 2021-02-15

Similar Documents

Publication Publication Date Title
JP6748797B1 (ja) 無人航空機制御システム、無人航空機制御方法、及びプログラム
US11693428B2 (en) Methods and system for autonomous landing
EP3662335B1 (en) Model for determining drop-off spot at delivery location
US20230365129A1 (en) Apparatus and methods for obstacle detection
US20220357753A1 (en) Drop-off location planning for delivery vehicle
US9973737B1 (en) Unmanned aerial vehicle assistant for monitoring of user activity
US10839336B2 (en) Unmanned delivery
US20190220039A1 (en) Methods and system for vision-based landing
US11086316B2 (en) Robotic vehicle insecure pay load detection and response
JP6527299B1 (ja) 物品受け渡し場所の決定方法、着陸場所の決定方法、物品受け渡しシステム、及び情報処理装置
US10948910B2 (en) Robotic vehicle separated payload detection and response
JP2018537335A (ja) 無人航空機の飛行を制御する方法及びシステム
CN111372851B (zh) 无人航空器控制***、无人航空器控制方法、及可读存储媒体
CN111051198A (zh) 无人飞行器控制***、无人飞行器控制方法、及程序
TW201944790A (zh) 追蹤被盜的機器人運輸工具
WO2022047709A1 (zh) 更新限制区域数据的方法、装置、可移动平台和计算机存储介质
JP7299368B1 (ja) 無人機、プログラム、情報処理方法及び情報処理システム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2020502248

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18945120

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18945120

Country of ref document: EP

Kind code of ref document: A1