WO2021166175A1 - ドローンシステム、操作器および作業エリアの定義方法 - Google Patents

ドローンシステム、操作器および作業エリアの定義方法 Download PDF

Info

Publication number
WO2021166175A1
WO2021166175A1 PCT/JP2020/006849 JP2020006849W WO2021166175A1 WO 2021166175 A1 WO2021166175 A1 WO 2021166175A1 JP 2020006849 W JP2020006849 W JP 2020006849W WO 2021166175 A1 WO2021166175 A1 WO 2021166175A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
survey
drone
points
unit
Prior art date
Application number
PCT/JP2020/006849
Other languages
English (en)
French (fr)
Inventor
俊一郎 渡辺
了 宮城
千大 和氣
宏記 加藤
Original Assignee
株式会社ナイルワークス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ナイルワークス filed Critical 株式会社ナイルワークス
Priority to PCT/JP2020/006849 priority Critical patent/WO2021166175A1/ja
Priority to JP2022501520A priority patent/JP7412037B2/ja
Priority to CN202080096913.1A priority patent/CN115136090A/zh
Publication of WO2021166175A1 publication Critical patent/WO2021166175A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Definitions

  • the invention of the present application relates to a method of defining a drone system, an operator and a work area.
  • Patent Document 2 discloses an autonomous traveling system for a tractor that acquires the position and shape of a field by recording the transition of the position when the tractor is orbited along the outer circumference of the field.
  • Patent Document 3 discloses a driving support system that acquires information on the topography and ground of a field and stores the acquired topography and ground information in field map data in association with the position information of a work vehicle.
  • Patent Document 4 discloses a field shape determining device that determines the shape of a field based on GPS position data of a work point in a field in which a work vehicle travels.
  • the drone system is a system that defines a work area of a drone based on information on survey points, and has a display unit that displays information on a plurality of surveyed survey points and the display.
  • An area definition unit that defines the area by connecting a surveying point selection unit that accepts the selection of the surveying points displayed on the unit and a plurality of surveying points accepted by the surveying point selection unit to each other. To be equipped.
  • the area defined by the area definition unit may be further provided with an area type selection unit that determines an area type including a work area of the drone and an obstacle area prohibiting the flight of the drone.
  • the information of the survey point includes the type information of the area to which the survey point belongs, and the area definition unit determines the area type based on the type information of the area to which the plurality of survey points used for defining the area belong. It may be provided with an area type determination function.
  • the survey point information includes the type information of the area to which the survey point belongs, and the area definition unit permits connection between survey points to which the same type information is attached, and is accompanied by different type information. Connection between existing survey points may be prohibited.
  • the area definition unit may connect each survey point in the order in which selection is received by the survey point selection unit, and define the area with each connection line as the outer edge of the area.
  • the area definition unit determines whether or not the survey points are selected in the order in which the connection lines intersect, and when the survey points are selected in the order in which at least a part of the connection lines intersect, an error is generated. It may be a notification.
  • the area definition unit connects a plurality of surveying points received by the surveying point selection unit to each other, and the area of the area is reduced.
  • the area may be defined so as to be maximum.
  • the area defined by the area definition unit may be output to the display unit.
  • An operator according to another aspect of the present invention is the operator of the drone that defines a work area of the drone that autonomously flies based on the information of the survey points, and is a device of the plurality of surveyed survey points.
  • An area is divided by connecting a display unit that displays information, a survey point selection unit that accepts the selection of survey points displayed on the display unit, and a plurality of survey points received by the survey point selection unit to each other. It includes an area definition unit that defines the area.
  • a method of defining a work area is a method of defining a work area of a drone that autonomously flies based on information of survey points, and information on a plurality of surveyed survey points.
  • the area is divided by connecting the display step for displaying, the survey point selection step for accepting the selection of the survey point displayed in the display step, and the plurality of survey points received by the survey point selection step to each other. It includes an area definition step for defining an area.
  • the field surveying work can be made more efficient.
  • the above-mentioned drone system is a flowchart showing a flow of defining an area. It is a conceptual diagram which shows the outline of the pointing work for defining the area of a field and an obstacle in the said drone system. It is a conceptual diagram which shows the outline of the pointing work of the related technology.
  • the drone is regardless of the power means (electric power, prime mover, etc.) and the maneuvering method (wireless or wired, autonomous flight type, manual maneuvering type, etc.). It refers to all air vehicles with multiple rotor blades.
  • the rotor blades 101-1a, 101-1b, 101-2a, 101-2b, 101-3a, 101-3b, 101-4a, 101-4b are It is a means for flying the Drone 100, and is equipped with eight aircraft (four sets of two-stage rotor blades) in consideration of the balance between flight stability, aircraft size, and power consumption.
  • Each rotor 101 is arranged on all sides of the housing 110 by an arm protruding from the housing 110 of the drone 100.
  • the rotors 101-1a and 101-1b are on the left rear side in the direction of travel, the rotor blades 101-2a and 101-2b are on the left front side, the rotor blades 101-3a and 101-3b are on the right rear side, and the rotor blades 101- are on the right front side. 4a and 101-4b are arranged respectively.
  • the drone 100 has the traveling direction facing downward on the paper in FIG.
  • a grid-shaped propeller guard 115-1,115-2,115-3,115-4 forming a substantially cylindrical shape is provided on the outer circumference of each set of the rotor blade 101 to prevent the rotor blade 101 from interfering with foreign matter.
  • the radial members for supporting the propeller guards 115-1,115-2,115-3,115-4 have a wobbling structure rather than a horizontal structure. This is to encourage the member to buckle outside the rotor in the event of a collision and prevent it from interfering with the rotor.
  • Rod-shaped legs 107-1, 107-2, 107-3, 107-4 extend downward from the rotation axis of the rotor 101, respectively.
  • Motors 102-1a, 102-1b, 102-2a, 102-2b, 102-3a, 102-3b, 102-4a, 102-4b are rotor blades 101-1a, 101-1b, 101-2a, 101- It is a means to rotate 2b, 101-3a, 101-3b, 101-4a, 101-4b (typically an electric motor, but it may also be a motor, etc.), and one rotor is provided for each rotor. Has been done.
  • Motor 102 is an example of a propulsion device.
  • the upper and lower rotors (eg, 101-1a and 101-1b) in one set, and their corresponding motors (eg, 102-1a and 102-1b), are used for drone flight stability, etc.
  • the axes are on the same straight line and rotate in opposite directions.
  • Nozzles 103-1, 103-2, 103-3, 103-4 are means for spraying the sprayed material downward and are equipped with four nozzles.
  • the sprayed material generally refers to a liquid or powder sprayed on a field such as a pesticide, a herbicide, a liquid fertilizer, an insecticide, a seed, and water.
  • the tank 104 is a tank for storing the sprayed material, and is provided at a position close to the center of gravity of the drone 100 and at a position lower than the center of gravity from the viewpoint of weight balance.
  • the hoses 105-1, 105-2, 1053, 105-4 are means for connecting the tank 104 and the nozzles 103-1, 103-2, 103-3, 103-4, and are made of a hard material. Therefore, it may also serve as a support for the nozzle.
  • the pump 106 is a means for discharging the sprayed material from the nozzle.
  • FIG. 6 shows an overall conceptual diagram of the flight control system of the drone 100 according to the present invention.
  • This figure is a schematic view, and the scale is not accurate.
  • the drone 100, the actuator 401, the base station 404, and the server 405 are connected to each other via the mobile communication network 400.
  • These connections may be wireless communication by Wi-Fi instead of the mobile communication network 400, or may be partially or wholly connected by wire.
  • the components may have a configuration in which they are directly connected to each other in place of or in addition to the mobile communication network 400.
  • Drone 100 and base station 404 communicate with GNSS positioning satellite 410 such as GPS to acquire drone 100 and base station 404 coordinates. There may be a plurality of positioning satellites 410 with which the drone 100 and the base station 404 communicate.
  • the operator 401 transmits a command to the drone 100 by the operation of the user, and also displays information received from the drone 100 (for example, position, amount of sprayed material, battery level, camera image, etc.). It is a means and may be realized by a portable information device such as a general tablet terminal that runs a computer program.
  • the actuator 401 includes an input unit and a display unit as a user interface device.
  • the drone 100 according to the present invention is controlled to perform autonomous flight, but may be capable of manual operation during basic operations such as takeoff and return, and in an emergency.
  • an emergency operation device (not shown) having a function dedicated to emergency stop may be used.
  • the emergency operation device may be a dedicated device provided with a large emergency stop button or the like so that an emergency response can be taken quickly.
  • the system may include a small mobile terminal capable of displaying a part or all of the information displayed on the operating device 401, for example, a smart phone.
  • the small mobile terminal is connected to, for example, the base station 404, and can receive information and the like from the server 405 via the base station 404.
  • Field 403 is a rice field, field, etc. that is the target of spraying with the drone 100. In reality, the terrain of the field 403 is complicated, and the topographic map may not be available in advance, or the topographic map and the situation at the site may be inconsistent. Field 403 is usually adjacent to houses, hospitals, schools, other crop fields, roads, railroads, etc. In addition, there may be intruders such as buildings and electric wires in the field 403.
  • Base station 404 functions as an RTK-GNSS base station and can provide the exact location of the drone 100. Further, it may be a device that provides a master unit function of Wi-Fi communication. The base unit function of Wi-Fi communication and the RTK-GNSS base station may be independent devices. Further, the base station 404 may be able to communicate with the server 405 by using a mobile communication system such as 3G, 4G, and LTE. The base station 404 and the server 405 constitute a farming cloud.
  • the server 405 is typically a group of computers operated on a cloud service and related software, and may be wirelessly connected to the actuator 401 by a mobile phone line or the like.
  • the server 405 may be configured by a hardware device.
  • the server 405 may analyze the image of the field 403 taken by the drone 100, grasp the growing condition of the crop, and perform a process for determining the flight route.
  • the topographical information of the stored field 403 may be provided to the drone 100.
  • the history of the flight and captured images of the drone 100 may be accumulated and various analysis processes may be performed.
  • the small mobile terminal is, for example, a smart phone.
  • information on the expected operation of the drone 100 more specifically, the scheduled time when the drone 100 will return to the departure / arrival point 406, the content of the work to be performed by the user at the time of return, etc. Information is displayed as appropriate. Further, the operation of the drone 100 may be changed based on the input from the small mobile terminal.
  • the drone 100 takes off from the departure / arrival point outside the field 403 and returns to the departure / arrival point after spraying the sprayed material on the field 403 or when it becomes necessary to replenish or charge the sprayed material.
  • the flight route (invasion route) from the departure / arrival point to the target field 403 may be stored in advance on the server 405 or the like, or may be input by the user before the start of takeoff.
  • the departure / arrival point may be a virtual point defined by the coordinates stored in the drone 100, or may have a physical departure / arrival point.
  • FIG. 7 shows a block diagram showing a control function of an embodiment of the spraying drone according to the present invention.
  • the flight controller 501 is a component that controls the entire drone, and may be an embedded computer including a CPU, memory, related software, and the like.
  • the flight controller 501 uses motors 102-1a and 102-1b via control means such as ESC (Electronic Speed Control) based on the input information received from the controller 401 and the input information obtained from various sensors described later. , 102-2a, 102-2b, 102-3a, 102-3b, 104-a, 104-b to control the flight of the drone 100.
  • ESC Electronic Speed Control
  • the actual rotation speeds of the motors 102-1a, 102-1b, 102-2a, 102-2b, 102-3a, 102-3b, 104-a, 104-b are fed back to the flight controller 501, and normal rotation is performed. It is configured so that it can be monitored.
  • the rotary blade 101 may be provided with an optical sensor or the like so that the rotation of the rotary blade 101 is fed back to the flight controller 501.
  • the software used by the flight controller 501 can be rewritten through a storage medium for function expansion / change, problem correction, etc., or through communication means such as Wi-Fi communication or USB. In this case, protection is performed by encryption, checksum, electronic signature, virus check software, etc. so that rewriting by malicious software is not performed.
  • a part of the calculation process used by the flight controller 501 for control may be executed by another computer located on the controller 401, the server 405, or somewhere else. Due to the high importance of the flight controller 501, some or all of its components may be duplicated.
  • the flight controller 501 communicates with the actuator 401 via the communication device 530 and further via the mobile communication network 400, receives necessary commands from the actuator 401, and transmits necessary information to the actuator 401. Can be sent. In this case, the communication may be encrypted so as to prevent fraudulent acts such as interception, spoofing, and device hijacking.
  • the base station 404 also has an RTK-GPS base station function in addition to a communication function via the mobile communication network 400. By combining the signal of the RTK base station 404 and the signal from the positioning satellite 410 such as GPS, the flight controller 501 can measure the absolute position of the drone 100 with an accuracy of about several centimeters. Flight controllers 501 are so important that they may be duplicated and multiplexed, and each redundant flight controller 501 should use a different satellite to handle the failure of a particular GPS satellite. It may be controlled.
  • the 6-axis gyro sensor 505 is a means for measuring the acceleration of the drone body in three directions orthogonal to each other, and further, a means for calculating the velocity by integrating the acceleration.
  • the 6-axis gyro sensor 505 is a means for measuring the change in the attitude angle of the drone aircraft in the above-mentioned three directions, that is, the angular velocity.
  • the geomagnetic sensor 506 is a means for measuring the direction of the drone body by measuring the geomagnetism.
  • the barometric pressure sensor 507 is a means for measuring barometric pressure, and can also indirectly measure the altitude of the drone.
  • the laser sensor 508 is a means for measuring the distance between the drone body and the ground surface by utilizing the reflection of the laser light, and may be an IR (infrared) laser.
  • the sonar 509 is a means for measuring the distance between the drone aircraft and the ground surface by utilizing the reflection of sound waves such as ultrasonic waves. These sensors may be selected according to the cost target and performance requirements of the drone. In addition, a gyro sensor (angular velocity sensor) for measuring the inclination of the aircraft, a wind power sensor for measuring wind power, and the like may be added. Further, these sensors may be duplicated or multiplexed.
  • the flight controller 501 may use only one of them, and if it fails, it may switch to an alternative sensor for use. Alternatively, a plurality of sensors may be used at the same time, and if the measurement results do not match, it may be considered that a failure has occurred.
  • the flow rate sensor 510 is a means for measuring the flow rate of the sprayed material, and is provided at a plurality of locations on the path from the tank 104 to the nozzle 103.
  • the liquid drainage sensor 511 is a sensor that detects that the amount of sprayed material has fallen below a predetermined amount.
  • the growth diagnosis camera 512a is a means for photographing the field 403 and acquiring data for the growth diagnosis.
  • the growth diagnostic camera 512a is, for example, a multispectral camera and receives a plurality of light rays having different wavelengths from each other.
  • the plurality of light rays are, for example, red light (wavelength of about 650 nm) and near-infrared light (wavelength of about 774 nm).
  • the growth diagnosis camera 512a may be a camera that receives visible light.
  • the pathological diagnosis camera 512b is a means for photographing the crops growing in the field 403 and acquiring the data for the pathological diagnosis.
  • the pathological diagnosis camera 512b is, for example, a red light camera.
  • the red light camera is a camera that detects the amount of light in the frequency band corresponding to the absorption spectrum of chlorophyll contained in the plant, and detects, for example, the amount of light in the band around 650 nm.
  • the pathological diagnosis camera 512b may detect the amount of light in the frequency bands of red light and near infrared light.
  • the pathological diagnosis camera 512b may include both a red light camera and a visible light camera such as an RGB camera that detects light amounts of at least three wavelengths in the visible light band.
  • the pathological diagnosis camera 512b may be a multispectral camera, and may detect the amount of light in the band having a wavelength of 650 nm to 680 nm.
  • the growth diagnosis camera 512a and the pathology diagnosis camera 512b may be realized by one hardware configuration.
  • the obstacle detection camera 513 is a camera for detecting a drone intruder, and since the image characteristics and the orientation of the lens are different from the growth diagnosis camera 512a and the pathological diagnosis camera 512b, what are the growth diagnosis camera 512a and the pathological diagnosis camera 512b? Another device.
  • the switch 514 is a means for the user 402 of the drone 100 to make various settings.
  • the obstacle contact sensor 515 is a sensor for detecting that the drone 100, in particular, its rotor or propeller guard part, has come into contact with an intruder such as an electric wire, a building, a human body, a standing tree, a bird, or another drone. ..
  • the obstacle contact sensor 515 may be replaced by a 6-axis gyro sensor 505.
  • the cover sensor 516 is a sensor that detects that the operation panel of the drone 100 and the cover for internal maintenance are in the open state.
  • the inlet sensor 517 is a sensor that detects that the inlet of the tank 104 is
  • sensors may be selected according to the cost target and performance requirements of the drone, and may be duplicated / multiplexed.
  • a sensor may be provided at the base station 404, the actuator 401, or some other place outside the drone 100, and the read information may be transmitted to the drone.
  • the base station 404 may be provided with a wind sensor to transmit information on wind power and wind direction to the drone 100 via the mobile communication network 400 or Wi-Fi communication.
  • the flight controller 501 sends a control signal to the pump 106 to adjust the discharge amount and stop the discharge.
  • the current status of the pump 106 (for example, the number of revolutions) is fed back to the flight controller 501.
  • the LED107 is a display means for notifying the drone operator of the drone status.
  • Display means such as a liquid crystal display may be used in place of or in addition to the LED.
  • the buzzer is an output means for notifying the state of the drone (particularly the error state) by an audio signal.
  • the communication device 530 is connected to a mobile communication network 400 such as 3G, 4G, and LTE, and can communicate with a farming cloud composed of a base station and a server and an operator via the mobile communication network 400. Will be done.
  • other wireless communication means such as Wi-Fi, infrared communication, Bluetooth (registered trademark), ZigBee (registered trademark), NFC, or wired communication means such as USB connection. You may use it.
  • the speaker 520 is an output means for notifying the state of the drone (particularly the error state) by means of recorded human voice, synthetic voice, or the like. Depending on the weather conditions, it may be difficult to see the visual display of the drone 100 in flight. In such cases, voice communication is effective.
  • the warning light 521 is a display means such as a strobe light for notifying the state of the drone (particularly the error state). These input / output means may be selected according to the cost target and performance requirements of the drone, and may be duplicated or multiplexed.
  • the field management device 1 shown in FIG. 8 is a device that defines the area of the field to be operated by the drone 100 based on the coordinates acquired by the coordinate surveying device 2. In the defined area, the field management device 1, the drone 100, the actuator 401, or an external device that can be connected to the network NW generates a flight route for the drone 100 to autonomously fly in each area. In addition, the field management device 1 defines an area of obstacles that the drone 100 cannot enter. Flight routes are generated avoiding obstacle areas.
  • the field management device 1 constitutes the drone system 500 together with the drone 100, the actuator 401, the base station 404, and the coordinate surveying device 2 connected via the network NW.
  • the field management device 1 may have its function on the server 405, or may be a separate device. Further, the field management device 1 may have a configuration included in the drone 100.
  • a field is an example of a work area.
  • the coordinate surveying device 2 is a device that has the function of a mobile station of RTK-GNSS, and can survey the coordinate information of the field.
  • the coordinate surveying device 2 is a small device that can be held and walked by the user, for example, a rod-shaped device.
  • the coordinate surveying device 2 may be a wand-like device having a length sufficient for the user to stand upright and hold the upper end portion with the lower end touching the ground.
  • the number of coordinate surveying devices 2 that can be used to read the coordinate information of a field may be one or plural. According to the configuration in which the coordinate information about one field can be measured by a plurality of coordinate surveying devices 2, a plurality of users can each hold the coordinate measuring device 2 and walk in the field, so that the surveying work can be performed. It can be completed in a short time.
  • the coordinate surveying device 2 can measure information on obstacles in the field. Obstacles include walls, slopes, utility poles, power lines, etc. where the drone 100 may collide, and various objects that do not require chemical spraying or monitoring.
  • the coordinate surveying device 2 includes an input unit 201, a coordinate detection unit 202, and a transmission unit 203.
  • the input unit 201 has a configuration provided at the upper end of the coordinate surveying device 2, and is, for example, a button that accepts a user's press. The user presses the button of the input unit 201 when measuring the coordinates of the lower end of the coordinate surveying device 2. Further, the input unit 201 may have a configuration that accepts an input that is pressed once and deletes the data of the survey point whose coordinates are measured.
  • the input unit 201 is configured to be able to distinguish whether the information to be input is the outer edge coordinates of the field or the outer edge coordinates of the obstacle.
  • the input unit 201 may have at least two buttons, one button being a button for acquiring the outer edge coordinates of the field and the other button being a button for acquiring the outer edge coordinates of the obstacle. Further, the input unit 201 can input the outer edge coordinates of the obstacle in association with the type of the obstacle.
  • the coordinate detection unit 202 is a functional unit capable of detecting the three-dimensional coordinates of the lower end of the coordinate surveying device 2 by appropriately communicating with the base station 404.
  • the transmission unit 203 is a functional unit that transmits the three-dimensional coordinates of the lower end of the coordinate surveying device 2 at the time of the input to the actuator 401 or the field management device 1 via the network NW based on the input to the input unit 201. ..
  • the transmission unit 203 transmits the three-dimensional coordinates together with the pointing order.
  • the user moves the field with the coordinate surveying device 2 and points by the input unit 201 at the end point or the end side of the field and the obstacle.
  • the pointed and transmitted three-dimensional coordinates on the end points or edges of the field are received by the field management device 1 by distinguishing between the three-dimensional coordinates of the outer circumference of the field and the three-dimensional coordinates of obstacles. Further, the three-dimensional coordinates to be pointed may be received by the receiving unit 4011 of the actuator 401 and displayed by the display unit 4012. Further, the operator 401 determines whether the received three-dimensional coordinates are suitable as the three-dimensional coordinates of the outer periphery of the field or the obstacle, and if it is determined that re-surveying is necessary, the operator re-measures through the display unit 4012. You may encourage a survey.
  • the field management device 1 includes an arithmetic unit such as a CPU (Central Processing Unit) for executing information processing, and a storage device such as RAM (RandomAccessMemory) and ROM (ReadOnlyMemory), whereby at least as a software resource. It has a coordinate acquisition unit 11, a survey point selection unit 12, an area definition unit 13, and an area output unit 14.
  • arithmetic unit such as a CPU (Central Processing Unit) for executing information processing
  • RAM RandomAccessMemory
  • ROM ReadOnlyMemory
  • the coordinate acquisition unit 11 is a functional unit that acquires the coordinates measured by the coordinate surveying device 2.
  • the coordinate acquisition unit 11 acquires the coordinates of the survey points together with the order acquired by the coordinate surveying device 2.
  • the coordinate acquisition unit 11 may acquire the coordinates of the survey point together with the time acquired by the coordinate surveying device 2. Further, the coordinate acquisition unit 11 links the type of the survey point to the point indicating the outer edge coordinates of the field or the point indicating the outer edge coordinates of the obstacle, that is, the area type to which the survey point belongs, with the coordinate information. Get it with.
  • a first example of the area definition screen will be described with reference to FIG.
  • the survey points P1 to P6 acquired by the coordinate acquisition unit 11 are displayed superimposed on the map or photograph of the field on the area definition screen G1 displayed on the display unit 4012.
  • the surveying point list window G11 is displayed on the right side of the area definition screen G1.
  • the surveying dates and times of the surveying points are displayed in a list in the order acquired by the coordinate surveying device 2.
  • the surveying point list window G11 can be expanded by tapping the icon G110 in the upper right corner, and closed by tapping it again.
  • a trash can icon G112 is displayed for each survey point column G111, and the data of the survey point can be deleted by tapping the icon G112.
  • the description "deleted" is displayed.
  • the survey point selection unit 12 is a functional unit that accepts the user's selection of measurement points on the display unit 4012 of the actuator 401.
  • the user can tap the survey points on the map or photo of the field displayed on the area definition screen G1, or tap the survey points listed on the survey point list window G11. Select a survey point.
  • the survey points are selected one by one. be able to.
  • the information of the selected survey points is displayed in the selected point list window G12 arranged on the left side of the area definition screen G1.
  • the order selected on the display unit 4012 may be displayed together.
  • the selected survey points are displayed in the order of selection from the upper part to the lower part in the figure.
  • deselection may be accepted by a predetermined input, for example, by tapping the "x" portion.
  • the survey point selection unit 12 may accept only the selection of survey points with the same area type. That is, the survey point selection unit 12 allows connection between survey points with the same area type information, and prohibits connection between survey points with different area information.
  • a warning may be displayed when a survey point with different area information is selected. For example, when the first selected survey point is associated with the information that it belongs to the field, only the second and subsequent survey points indicating the coordinates of the outer edge of the field may be selectable. That is, the selection of the survey point indicating the outer edge coordinates of the obstacle may be invalidated. Further, the input of the area type defined before the operation of selecting the survey point may be accepted, and the survey points that can be selected may be displayed based on the input area type. When defining the area of a field or an obstacle, it is possible to accurately define the area of the field or the obstacle by surely selecting the survey points of the same area type.
  • the survey point selection unit 12 may have a function of changing the associated area type for each survey point.
  • the area type of the survey point may be changed and the selection may be accepted for each area type. According to this configuration, even if an incorrect area type is input at the time of surveying by the coordinate surveying device 2, the area can be defined without re-surveying.
  • the surveying point selection unit 12 may be able to select a surveying point regardless of the area type associated at the time of surveying by the coordinate surveying device 2. In this case, the user can select the area type by the area type selection unit 132 described later.
  • the survey point indicating the outer edge coordinates of the field may be displayed in a different manner from the survey point indicating the outer edge coordinates of the obstacle, or only the survey points indicating the outer edge coordinates of the field are displayed. You may.
  • the display of the survey point indicating the coordinates of the outer edge of the obstacle may be grayed out.
  • the area definition unit 13 is a functional unit that defines an area of a field or an obstacle by connecting a plurality of survey points received by the survey point selection unit 12.
  • the area definition unit 13 includes an outer edge defining unit 131 and an area type selection unit 132.
  • the outer edge regulation unit 131 connects a plurality of survey points received by the survey point selection unit 12 to divide the area and defines the area.
  • the outer edge defining unit 131 may connect the survey points in the order in which the survey point selection unit 12 accepts the selection, and this connecting line may be a line indicating the outer edge of the area. According to this configuration, the user can intuitively define the area by tapping the survey points so as to surround the area to be defined on the area definition screen G1. If one area is not defined by the above-mentioned connection procedure, an error notification may be given via a user interface device such as the actuator 401.
  • the area definition unit 13 determines whether or not the survey points are selected in the order in which the connection lines intersect, and notifies an error when the survey points are selected in the order in which at least a part of the connection lines intersect. ..
  • the case where one area is not defined is, for example, the case where connecting lines intersect with each other.
  • the outer edge defining unit 131 defines an area by connecting a plurality of survey points that have been selected by the survey point selection unit 12 so that the plurality of survey points are on the end points or edges of the outer edge of one area. You may.
  • the outer edge defining portion 131 may connect surveying points that are adjacent to each other in terms of coordinates, for example. According to this configuration, the defined area can be automatically generated. If there are a plurality of areas that can be generated based on the selected survey point, the outer edge defining unit 131 may adopt the area generated so that the area of the area is maximized.
  • the area type selection unit 132 is a functional unit that selects the area type of the area specified by the outer edge regulation unit 131.
  • the area type selection unit 132 may determine the type of the area based on the information of the type associated at the time of the survey by the coordinate surveying device 2. Further, the area type selection unit 132 may accept selection of whether the area is a field or an obstacle for the area specified by the outer edge regulation unit 131. Further, the area type selection unit 132 may be configured to further accept the detailed type of obstacle and incidental information when the area defined by the outer edge regulation unit 131 is selected as an obstacle area. For example, "guardrail", “telephone pole”, “electric wire”, “tree”, etc. can be registered as detailed types of obstacles, and information on the vertical coordinates (positions) of obstacles can be registered as incidental information. You may.
  • the area output unit 14 superimposes the defined area A1 on the field displayed on the area definition screen G1. In addition to or in place of this, the area output unit 14 outputs information on the area to a device that generates a flight route for the drone 100.
  • the area output unit 14 may display to that effect on the display unit 4012.
  • a plurality of areas may be displayed in a switchable or superposed manner to prompt the user to select an area to be adopted.
  • the area output unit 14 superimposes the area A2 defined by selecting the survey points P11, P12, P13 and P14 on the field on the area definition screen G1.
  • Area A2 is an area type different from area A1, for example, area A1 is a work area and area A2 is an obstacle area.
  • the obstacle area is displayed in a different manner from the work area. For example, the shaded color and pattern of the area may be different between the obstacle area and the work area.
  • the user can tap the survey points on the map or photo of the field displayed on the area definition screen G1, or tap the survey points listed on the survey point list window G11. Select a survey point.
  • the survey point list window G11 can be tapped with reference to the identification number on the map. Therefore, even when a plurality of survey points are close to each other and it is difficult to tap them separately on the map, the survey points can be appropriately selected.
  • the information of the selected survey point is displayed in the selected point list window G12 arranged on the left side of the area definition screen G1.
  • the selected survey points are displayed in the selected survey points in the selected point list window G12.
  • the identification number of each surveying point is also displayed in the selected point list window G12. According to this configuration, even when the selection is deselected in the selection point list window G12, the deselection can be appropriately input by referring to the identification number.
  • FIG. 13 is a screen showing an example of connecting the selected survey points in the selected order.
  • the survey points P1, P2, P4, and P3 are selected in this order in the survey point list window G11.
  • the connecting line connecting the survey point P2 and the survey point P4 and the connecting line connecting the survey point P3 and the survey point P1 intersect.
  • an error notification "Not a simple polygon” is displayed at the bottom of the selected point list window G12.
  • “automatic solution” is displayed on the right side of the error notification.
  • a plurality of survey points are automatically connected so as to be on the end point or the end edge of the outer edge of one area, and the area is redefined.
  • the survey type selection window G13 is displayed on the left side of the area definition screen G2 instead of the selection point list window G12.
  • the survey type can be selectively selected as to whether the area is a field area or an obstacle area.
  • Flow chart for defining an area As shown in Fig. 15, first, the coordinates of the survey points are acquired (S1), displayed on the area definition screen G1 of the display unit 4012, and the selection of multiple survey points used for defining the area is selected. Accept (S2). When a survey point is selected, the survey points are connected so as to be at the end point or on the edge of the outer edge of one area, and the outer edge of the area is defined (S3). It is determined in step S3 whether or not the area can be defined (S4), and if the area cannot be defined, an error is notified and the outer edge is automatically redefined (S5).
  • step S4 When the area can be defined in step S4, or when the area is redefined in step S5, the selection of the area type of the area is accepted (S6). Next, the information of the area is displayed on the display unit 4012, or is output to the device that generates the flight route of the drone 100 (S7). After that, by repeating steps S2 to S7, a plurality of field areas and obstacle areas can be defined.
  • the outer edge is automatically redefined in step S5, the area generated by the outer edge defining unit 131 so as to maximize the area may be adopted.
  • FIG. 17 is a conceptual diagram showing an outline of pointing work in the related technology.
  • the surveying points of the outer edge are acquired for each defined area, it is necessary to orbit the outer edge for each field and each obstacle.
  • the obstacle 1 and the obstacle 2 are utility poles
  • the obstacle 3 is a guardrail.
  • the surveying points P201 to P204 on the outer edge of the field 1, the surveying points P205 to P208 on the outer edge of the field 2, the surveying points P209 to P212 on the outer edge of the field 3, and the surveying of the outer edge of the field 4 are performed.
  • Points P213 to P216 are pointed in this order along the direction of the arrow.
  • the survey points P221 to P224 on the outer edge of the obstacle 1, the survey points P231 to P234 on the outer edge of the obstacle 2, and the survey points P241 to P244 on the outer edge of the obstacle 3 are rotated in this order along the direction of the arrow. , Pointing.
  • FIG. 16 is a conceptual diagram showing an outline of the pointing work in the present invention.
  • the user can point the survey points P101 to P128 necessary for defining the area in this order. That is, the user can go around in the order of proximity, regardless of the area type to which the user belongs, even if the surveying points constitute the outer edge of another area. This is because in the present invention, the survey point can be selected ex post facto from the area definition screen G1 and the area can be defined regardless of the survey order of the survey points.
  • pointing of survey points P104 to P113 can be performed in this order while proceeding in one direction without reciprocating on the farm road beside the field. That is, it is not necessary to make a round trip between the survey points P105 and P128, the farm road between the survey points P107 and P122, and the farm road between the survey points P109 and P120. Further, since the surveying points P103 and P104 of the adjacent obstacles can be surveyed at the timing before and after the surveying of the surveying points P102 on the outer edge of the field 1, it is not necessary to reciprocate on the long side in the left-right direction of the obstacle 3.
  • the surveying of obstacle 1 and obstacle 2 can also be performed on the way straight from the surveying point P114 to P128 on the outer edge of the field, and reciprocates between the surveying point of the field and the surveying point of the obstacle. You don't have to. That is, the surveying work can be performed efficiently.
  • the drone is not limited to the form of autonomously flying in the work area, for example, a drone that flies a part or all in the work area or on the movement route between the departure / arrival point and the work area based on the control of the user. It may be.
  • the drone system according to the present invention may be a system that prevents the drone 100 from leaving the work area defined in the present system. Specifically, when the drone 100 is within a predetermined range on the outer edge of the work area or inside the work area, a warning may be notified to the user via an actuator. In particular, the warning may be notified when the drone 100 is moving in the direction of exiting the work area within a predetermined range inside the work area, or when the drone 100 has acceleration in that direction.
  • the maneuvering command from the user may be invalidated and the drone 100 may be hovered on the outer edge or within a predetermined range inside the work area. Further, instead of hovering, it may be landed on the spot.

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】 圃場の測量作業を効率化する。 【解決手段】 測量点P1乃至P6の情報に基づいてドローン100の作業エリアA1を定義するシステム500であって、測量された複数の測量点の情報を表示する表示部4012と、表示部に表示される測量点の選択を受け付ける測量点選択部12と、測量点選択部により受け付けた複数の測量点を互いに接続することでエリアを区画し、エリアを定義するエリア定義部13と、を備える。

Description

ドローンシステム、操作器および作業エリアの定義方法
 本願発明は、ドローンシステム、操作器および作業エリアの定義方法に関する。
 一般にドローンと呼ばれる小型ヘリコプター(マルチコプター)の応用が進んでいる。その重要な応用分野の一つとして農地(圃場)への農薬や液肥などの薬剤散布が挙げられる(たとえば、特許文献1)。比較的狭い農地においては、有人の飛行機やヘリコプターではなくドローンの使用が適しているケースが多い。
 準天頂衛星システムやRTK-GPS(Real Time Kinematic - Global Positioning System)などの技術によりドローンが飛行中に自機の絶対位置をセンチメートル単位で正確に知ることができるようになったことで、日本において典型的な狭く複雑な地形の農地でも、人手による操縦を最小限として自律的に飛行し、効率的かつ正確に薬剤散布を行なえるようになっている。
 特許文献2には、トラクタを圃場の外周に沿って周回させたときの位置の推移を記録することで、圃場の位置および形状を取得する、トラクタの自律走行システムが開示されている。特許文献3には、圃場の地形・地盤に関する情報を取得するとともに、その取得する地形・地盤情報を作業車の位置情報に関連付けて圃場マップデータに記憶する運転支援システムが開示されている。特許文献4には、作業車両が走行する圃場における作業ポイントのGPS位置データに基づいて圃場の形状を決定する圃場形状決定装置が開示されている。
再公表公報 再表2017/175804 特開2018-163514号公報 特開2018-72066号公報 特開2015-206647号公報
 圃場の測量作業を効率化する。
 本発明の一の観点に係るドローンシステムは、測量点の情報に基づいてドローンの作業エリアを定義するシステムであって、測量された複数の前記測量点の情報を表示する表示部と、前記表示部に表示される測量点の選択を受け付ける測量点選択部と、前記測量点選択部により受け付けた複数の測量点を互いに接続することでエリアを区画し、前記エリアを定義するエリア定義部と、を備える。
 前記エリア定義部で定義された前記エリアに対し、前記ドローンの作業エリア及び前記ドローンの飛行を禁止する障害物エリアを含むエリア種別を決定するエリア種別選択部をさらに備えるものとしてもよい。
 前記測量点の情報は、当該測量点が属するエリアの種別情報を含み、前記エリア定義部は、エリアの定義に利用した複数の測量点が属するエリアの種別情報に基づいて、エリア種別を決定するエリア種別決定機能を備えるものとしてもよい。
 前記測量点の情報は、当該測量点が属するエリアの種別情報を含み、前記エリア定義部は、同じ種別情報が付随している測量点同士の接続を許可し、異なる前記種別情報が付随している測量点同士の接続を禁止するものとしてもよい。
 前記エリア定義部は、前記測量点選択部により選択を受け付けた順に各測量点を接続し、各接続線をエリアの外縁として当該エリアを定義するものとしてもよい。
 前記エリア定義部は、前記各接続線が交差する順に前記測量点が選択されたか否かを判別し、前記各接続線の少なくとも一部が交差する順に前記測量点が選択されたとき、エラーを通知するものとしてもよい。
 前記エリア定義部は、前記各接続線の少なくとも一部が交差する順に前記測量点が選択された場合に、前記測量点選択部により受け付けた複数の測量点を互いに接続し、前記エリアの面積が最大となるように前記エリアを定義するものとしてもよい。
 前記エリア定義部により定義された前記エリアを、前記表示部に出力するものとしてもよい。
 本発明の別の観点に係る操作器は、測量点の情報に基づいて自律的に飛行するドローンの作業エリアを定義する、前記ドローンの操作器であって、測量された複数の前記測量点の情報を表示する表示部と、前記表示部に表示される測量点の選択を受け付ける測量点選択部と、前記測量点選択部により受け付けた複数の測量点を互いに接続することでエリアを区画し、前記エリアを定義するエリア定義部と、を備える。
 本発明のさらに別の観点に係る作業エリアの定義方法は、測量点の情報に基づいて自律的に飛行するドローンの作業エリアを定義する方法であって、測量された複数の前記測量点の情報を表示する表示ステップと、前記表示ステップにおいて表示される測量点の選択を受け付ける測量点選択ステップと、前記測量点選択ステップにより受け付けた複数の測量点を互いに接続することでエリアを区画し、前記エリアを定義するエリア定義ステップと、を備える。
 圃場の測量作業を効率化できる。
本願発明に係るドローンシステムが有するドローンの平面図である。 上記ドローンの正面図である。 上記ドローンの右側面図である。 上記ドローンの背面図である。 上記ドローンの斜視図である。 上記ドローンの飛行制御システムの全体概念図である。 上記ドローンが有する機能ブロック図である。 上記ドローンシステムの機能ブロック図である。 上記ドローンシステムが有する操作器に表示されるエリア定義画面の第1例を示す図である。 上記エリア定義画面において、定義された圃場が表示されている様子を示す図である。 上記ドローンシステムが有する操作器に表示されるエリア定義画面の第2例を示す図である。 上記第2例のエリア定義画面において、定義された圃場が表示されている様子を示す図である。 上記エリア定義画面において、接続線が交差している様子を示す図である。 上記エリア定義画面に表示される測量種別選択ウィンドウの様子を示す図である。 上記ドローンシステムが、エリアを定義する流れを示すフローチャートである。 上記ドローンシステムにおいて圃場および障害物のエリアを定義するためのポインティング作業の概略を示す概念図である。 関連技術のポインティング作業の概略を示す概念図である。
 以下、図を参照しながら、本願発明を実施するための形態について説明する。図はすべて例示である。以下の詳細な説明では、説明のために、開示された実施形態の完全な理解を促すために、ある特定の詳細について述べられている。しかしながら、実施形態は、これらの特定の詳細に限られない。また、図面を単純化するために、周知の構造および装置については概略的に示されている。
 まず、本発明にかかるドローンの構成について説明する。本願明細書において、ドローンとは、動力手段(電力、原動機等)、操縦方式(無線であるか有線であるか、および、自律飛行型であるか手動操縦型であるか等)を問わず、複数の回転翼を有する飛行体全般を指すこととする。
 図1乃至図5に示すように、回転翼101-1a、101-1b、101-2a、101-2b、101-3a、101-3b、101-4a、101-4b(ローターとも呼ばれる)は、ドローン100を飛行させるための手段であり、飛行の安定性、機体サイズ、および、電力消費量のバランスを考慮し、8機(2段構成の回転翼が4セット)備えられている。各回転翼101は、ドローン100の筐体110からのび出たアームにより筐体110の四方に配置されている。すなわち、進行方向左後方に回転翼101-1a、101-1b、左前方に回転翼101-2a、101-2b、右後方に回転翼101-3a、101-3b、右前方に回転翼101-4a、101-4bがそれぞれ配置されている。なお、ドローン100は図1における紙面下向きを進行方向とする。
 回転翼101の各セットの外周には、略円筒形を形成する格子状のプロペラガード115-1,115-2,115-3,115-4が設けられ、回転翼101が異物と干渉しづらくなるようにしている。図2および図3に示されるように、プロペラガード115-1,115-2,115-3,115-4を支えるための放射状の部材は水平ではなくやぐら状の構造である。衝突時に当該部材が回転翼の外側に座屈することを促し、ローターと干渉することを防ぐためである。
 回転翼101の回転軸から下方には、それぞれ棒状の足107-1,107-2,107-3,107-4が伸び出ている。
 モーター102-1a、102-1b、102-2a、102-2b、102-3a、102-3b、102-4a、102-4bは、回転翼101-1a、101-1b、101-2a、101-2b、101-3a、101-3b、101-4a、101-4bを回転させる手段(典型的には電動機だが発動機等であってもよい)であり、一つの回転翼に対して1機設けられている。モーター102は、推進器の例である。1セット内の上下の回転翼(たとえば、101-1aと101-1b)、および、それらに対応するモーター(たとえば、102-1aと102-1b)は、ドローンの飛行の安定性等のために軸が同一直線上にあり、かつ、互いに反対方向に回転する。
 ノズル103-1、103-2、103-3、103-4は、散布物を下方に向けて散布するための手段であり4機備えられている。なお、本願明細書において、散布物とは、農薬、除草剤、液肥、殺虫剤、種、および、水などの圃場に散布される液体または粉体を一般的に指すこととする。
 タンク104は散布物を保管するためのタンクであり、重量バランスの観点からドローン100の重心に近い位置でかつ重心より低い位置に設けられている。ホース105-1、105-2、105-3、105-4は、タンク104と各ノズル103-1、103-2、103-3、103-4とを接続する手段であり、硬質の素材から成り、当該ノズルを支持する役割を兼ねていてもよい。ポンプ106は、散布物をノズルから吐出するための手段である。
 図6に本願発明に係るドローン100の飛行制御システムの全体概念図を示す。本図は模式図であって、縮尺は正確ではない。同図において、ドローン100、操作器401、基地局404およびサーバ405が移動体通信網400を介して互いに接続されている。これらの接続は、移動体通信網400に代えてWi-Fiによる無線通信を行ってもよいし、一部又は全部が有線接続されていてもよい。また、構成要素間において、移動体通信網400に代えて、又は加えて、直接接続する構成を有していてもよい。
 ドローン100および基地局404は、GPS等のGNSSの測位衛星410と通信を行い、ドローン100および基地局404座標を取得する。ドローン100および基地局404が通信する測位衛星410は複数あってもよい。
 操作器401は、使用者の操作によりドローン100に指令を送信し、また、ドローン100から受信した情報(たとえば、位置、散布物の貯留量、電池残量、カメラ映像等)を表示するための手段であり、コンピュータプログラムを稼働する一般的なタブレット端末等の携帯情報機器によって実現されてよい。操作器401は、ユーザインターフェース装置としての入力部および表示部を備える。本願発明に係るドローン100は自律飛行を行なうよう制御されるが、離陸や帰還などの基本操作時、および、緊急時にはマニュアル操作が行なえるようになっていてもよい。携帯情報機器に加えて、緊急停止専用の機能を有する非常用操作器(図示していない)を使用してもよい。非常用操作器は緊急時に迅速に対応が取れるよう大型の緊急停止ボタン等を備えた専用機器であってもよい。さらに、操作器401とは別に、操作器401に表示される情報の一部又は全部を表示可能な小型携帯端末、例えばスマートホンがシステムに含まれていてもよい。小型携帯端末は、例えば基地局404と接続されていて、基地局404を介してサーバ405からの情報等を受信可能である。
 圃場403は、ドローン100による散布の対象となる田圃や畑等である。実際には、圃場403の地形は複雑であり、事前に地形図が入手できない場合、あるいは、地形図と現場の状況が食い違っている場合がある。通常、圃場403は家屋、病院、学校、他の作物圃場、道路、鉄道等と隣接している。また、圃場403内に、建築物や電線等の侵入者が存在する場合もある。
 基地局404は、RTK-GNSS基地局として機能し、ドローン100の正確な位置を提供できるようになっている。また、Wi-Fi通信の親機機能等を提供する装置であってもよい。Wi-Fi通信の親機機能とRTK-GNSS基地局が独立した装置であってもよい。また、基地局404は、3G、4G、およびLTE等の移動通信システムを用いて、サーバ405と互いに通信可能であってもよい。基地局404およびサーバ405は、営農クラウドを構成する。
 サーバ405は、典型的にはクラウドサービス上で運営されているコンピュータ群と関連ソフトウェアであり、操作器401と携帯電話回線等で無線接続されていてもよい。サーバ405は、ハードウェア装置により構成されていてもよい。サーバ405は、ドローン100が撮影した圃場403の画像を分析し、作物の生育状況を把握して、飛行ルートを決定するための処理を行ってよい。また、保存していた圃場403の地形情報等をドローン100に提供してよい。加えて、ドローン100の飛行および撮影映像の履歴を蓄積し、様々な分析処理を行ってもよい。
 小型携帯端末は例えばスマートホン等である。小型携帯端末の表示部には、ドローン100の運転に関し予測される動作の情報、より具体的にはドローン100が発着地点406に帰還する予定時刻や、帰還時に使用者が行うべき作業の内容等の情報が適宜表示される。また、小型携帯端末からの入力に基づいて、ドローン100の動作を変更してもよい。
 通常、ドローン100は圃場403の外部にある発着地点から離陸し、圃場403に散布物を散布した後に、あるいは、散布物の補充や充電等が必要になった時に発着地点に帰還する。発着地点から目的の圃場403に至るまでの飛行経路(侵入経路)は、サーバ405等で事前に保存されていてもよいし、使用者が離陸開始前に入力してもよい。発着地点は、ドローン100に記憶されている座標により規定される仮想の地点であってもよいし、物理的な発着台があってもよい。
 図7に本願発明に係る散布用ドローンの実施例の制御機能を表したブロック図を示す。フライトコントローラー501は、ドローン全体の制御を司る構成要素であり、具体的にはCPU、メモリー、関連ソフトウェア等を含む組み込み型コンピュータであってよい。フライトコントローラー501は、操作器401から受信した入力情報、および、後述の各種センサーから得た入力情報に基づき、ESC(Electronic Speed Control)等の制御手段を介して、モーター102-1a、102-1b、102-2a、102-2b、102-3a、102-3b、104-a、104-bの回転数を制御することで、ドローン100の飛行を制御する。モーター102-1a、102-1b、102-2a、102-2b、102-3a、102-3b、104-a、104-bの実際の回転数はフライトコントローラー501にフィードバックされ、正常な回転が行なわれているかを監視できる構成になっている。あるいは、回転翼101に光学センサー等を設けて回転翼101の回転がフライトコントローラー501にフィードバックされる構成でもよい。
 フライトコントローラー501が使用するソフトウェアは、機能拡張・変更、問題修正等のために記憶媒体等を通じて、または、Wi-Fi通信やUSB等の通信手段を通じて書き換え可能になっている。この場合において、不正なソフトウェアによる書き換えが行なわれないように、暗号化、チェックサム、電子署名、ウィルスチェックソフト等による保護が行われている。また、フライトコントローラー501が制御に使用する計算処理の一部が、操作器401上、または、サーバ405上や他の場所に存在する別のコンピュータによって実行されてもよい。フライトコントローラー501は重要性が高いため、その構成要素の一部または全部が二重化されていてもよい。
 フライトコントローラー501は、通信機530を介して、さらに、移動体通信網400を介して操作器401とやり取りを行ない、必要な指令を操作器401から受信すると共に、必要な情報を操作器401に送信できる。この場合に、通信には暗号化を施し、傍受、成り済まし、機器の乗っ取り等の不正行為を防止できるようにしておいてもよい。基地局404は、移動体通信網400を介した通信機能に加えて、RTK-GPS基地局の機能も備えている。RTK基地局404の信号とGPS等の測位衛星410からの信号を組み合わせることで、フライトコントローラー501により、ドローン100の絶対位置を数センチメートル程度の精度で測定可能となる。フライトコントローラー501は重要性が高いため、二重化・多重化されていてもよく、また、特定のGPS衛星の障害に対応するため、冗長化されたそれぞれのフライトコントローラー501は別の衛星を使用するよう制御されていてもよい。
 6軸ジャイロセンサー505はドローン機体の互いに直交する3方向の加速度を測定する手段であり、さらに、加速度の積分により速度を計算する手段である。6軸ジャイロセンサー505は、上述の3方向におけるドローン機体の姿勢角の変化、すなわち角速度を測定する手段である。地磁気センサー506は、地磁気の測定によりドローン機体の方向を測定する手段である。気圧センサー507は、気圧を測定する手段であり、間接的にドローンの高度も測定することもできる。レーザーセンサー508は、レーザー光の反射を利用してドローン機体と地表との距離を測定する手段であり、IR(赤外線)レーザーであってもよい。ソナー509は、超音波等の音波の反射を利用してドローン機体と地表との距離を測定する手段である。これらのセンサー類は、ドローンのコスト目標や性能要件に応じて取捨選択してよい。また、機体の傾きを測定するためのジャイロセンサー(角速度センサー)、風力を測定するための風力センサーなどが追加されていてもよい。また、これらのセンサー類は、二重化または多重化されていてもよい。同一目的複数のセンサーが存在する場合には、フライトコントローラー501はそのうちの一つのみを使用し、それが障害を起こした際には、代替のセンサーに切り替えて使用するようにしてもよい。あるいは、複数のセンサーを同時に使用し、それぞれの測定結果が一致しない場合には障害が発生したと見なすようにしてもよい。
 流量センサー510は散布物の流量を測定するための手段であり、タンク104からノズル103に至る経路の複数の場所に設けられている。液切れセンサー511は散布物の量が所定の量以下になったことを検知するセンサーである。
 生育診断カメラ512aは、圃場403を撮影し、生育診断のためのデータを取得する手段である。生育診断カメラ512aは例えばマルチスペクトルカメラであり、互いに波長の異なる複数の光線を受信する。当該複数の光線は、例えば赤色光(波長約650nm)と近赤外光(波長約774nm)である。また、生育診断カメラ512aは、可視光線を受光するカメラであってもよい。
 病理診断カメラ512bは、圃場403に生育する作物を撮影し、病理診断のためのデータを取得する手段である。病理診断カメラ512bは、例えば赤色光カメラである。赤色光カメラは、植物に含有されるクロロフィルの吸収スペクトルに対応する周波数帯域の光量を検出するカメラであり、例えば波長650nm付近の帯域の光量を検出する。病理診断カメラ512bは、赤色光と近赤外光の周波数帯域の光量を検出してもよい。また、病理診断カメラ512bとして、赤色光カメラおよびRGBカメラ等の可視光帯域の少なくとも3波長の光量を検出する可視光カメラの両方を備えていてもよい。なお、病理診断カメラ512bはマルチスペクトルカメラであってもよく、波長650nm乃至680nm付近の帯域の光量を検出するものとしてもよい。
 なお、生育診断カメラ512aおよび病理診断カメラ512bは、1個のハードウェア構成により実現されていてもよい。
 障害物検知カメラ513はドローン侵入者を検知するためのカメラであり、画像特性とレンズの向きが生育診断カメラ512aおよび病理診断カメラ512bとは異なるため、生育診断カメラ512aおよび病理診断カメラ512bとは別の機器である。スイッチ514はドローン100の使用者402が様々な設定を行なうための手段である。障害物接触センサー515はドローン100、特に、そのローターやプロペラガード部分が電線、建築物、人体、立木、鳥、または、他のドローン等の侵入者に接触したことを検知するためのセンサーである。なお、障害物接触センサー515は、6軸ジャイロセンサー505で代用してもよい。カバーセンサー516は、ドローン100の操作パネルや内部保守用のカバーが開放状態であることを検知するセンサーである。注入口センサー517はタンク104の注入口が開放状態であることを検知するセンサーである。
 これらのセンサー類はドローンのコスト目標や性能要件に応じて取捨選択してよく、二重化・多重化してもよい。また、ドローン100外部の基地局404、操作器401、または、その他の場所にセンサーを設けて、読み取った情報をドローンに送信してもよい。たとえば、基地局404に風力センサーを設け、風力・風向に関する情報を移動体通信網400経由又はWi-Fi通信経由でドローン100に送信するようにしてもよい。
 フライトコントローラー501はポンプ106に対して制御信号を送信し、吐出量の調整や吐出の停止を行なう。ポンプ106の現時点の状況(たとえば、回転数等)は、フライトコントローラー501にフィードバックされる構成となっている。
 LED107は、ドローンの操作者に対して、ドローンの状態を知らせるための表示手段である。LEDに替えて、または、それに加えて液晶ディスプレイ等の表示手段を使用してもよい。ブザーは、音声信号によりドローンの状態(特にエラー状態)を知らせるための出力手段である。通信機530は、3G、4G、およびLTE等の移動体通信網400と接続されており、移動体通信網400を介して基地局、サーバで構成される営農クラウド、操作器と通信可能に接続される。通信機に替えて、または、それに加えて、Wi‐Fi、赤外線通信、Bluetooth(登録商標)、ZigBee(登録商標)、NFC等の他の無線通信手段、または、USB接続などの有線通信手段を使用してもよい。スピーカー520は、録音した人声や合成音声等により、ドローンの状態(特にエラー状態)を知らせる出力手段である。天候状態によっては飛行中のドローン100の視覚的表示が見にくいことがあるため、そのような場合には音声による状況伝達が有効である。警告灯521はドローンの状態(特にエラー状態)を知らせるストロボライト等の表示手段である。これらの入出力手段は、ドローンのコスト目標や性能要件に応じて取捨選択してよく、二重化・多重化してもよい。
●圃場管理装置の概要
 図8に示す圃場管理装置1は、座標測量装置2により取得される座標に基づいて、ドローン100に作業させる圃場のエリアを定義する装置である。定義されたエリアには、圃場管理装置1、ドローン100、操作器401又はネットワークNWに接続可能な外部装置により、当該エリアごとに、ドローン100が自律的に飛行する飛行ルートの生成が行われる。また、圃場管理装置1は、ドローン100が進入できない障害物のエリアを定義する。飛行ルートは、障害物のエリアを避けて生成される。
 圃場管理装置1は、ネットワークNWを介して接続されるドローン100、操作器401、基地局404および座標測量装置2と共に、ドローンシステム500を構成している。圃場管理装置1は、その機能がサーバ405上にあってもよいし、別途の装置であってもよい。また、圃場管理装置1は、ドローン100が有する構成であってもよい。圃場は、作業エリアの例である。
 座標測量装置2は、RTK-GNSSの移動局の機能を有する装置であり、圃場の座標情報を測量することができる。座標測量装置2は、使用者により保持して歩行することが可能な小型の装置であり、例えば棒状の装置である。座標測量装置2は、下端を地面についた状態で、使用者が直立して上端部を保持できる程度の長さの、杖のような装置であってもよい。ある圃場の座標情報を読み取るために使用可能な座標測量装置2の個数は、1個であっても複数であってもよい。複数の座標測量装置2により1か所の圃場に関する座標情報を測量可能な構成によれば、複数の使用者がそれぞれ座標測量装置2を保持して圃場を歩行することができるため、測量作業を短時間で完了することができる。
 また、座標測量装置2は、圃場における障害物の情報を測量することができる。障害物は、ドローン100が衝突する危険のある壁や法面、電柱、電線などや、薬剤散布又は監視を要さない各種物体を含む。
 座標測量装置2は、入力部201、座標検出部202および送信部203を備える。
 入力部201は、座標測量装置2の上端部に設けられる構成であり、例えば使用者の押下を受け付けるボタンである。使用者は、座標測量装置2の下端の座標を測量する際に、入力部201のボタンを押下する。また、入力部201は、一度押下され、座標を測量した測量点のデータを削除する入力を受け付ける構成を有していてもよい。
 入力部201は、入力される情報が圃場の外縁座標であるか、障害物の外縁座標であるかを区別して入力可能に構成されている。例えば、入力部201は少なくとも2個のボタンを有し、一方のボタンが圃場の外縁座標を取得するボタンで、他方のボタンが障害物の外縁座標を取得するボタンであってよい。さらに、入力部201は、障害物の外縁座標を、障害物の種類と関連付けて入力可能である。
 座標検出部202は、基地局404と適宜通信を行って座標測量装置2の下端の3次元座標を検出可能な機能部である。
 送信部203は、入力部201への入力に基づいて、当該入力時の座標測量装置2下端の3次元座標を、ネットワークNWを介して操作器401又は圃場管理装置1に送信する機能部である。送信部203は、当該3次元座標を、ポインティングされた順番とともに送信する。
 圃場の座標情報を読み取る工程において、使用者は、座標測量装置2を持って圃場を移動し、当該圃場および障害物の端点又は端辺上において入力部201によるポインティングを行う。
 ポインティングされて送信される圃場の端点又は端辺上の3次元座標は、圃場外周の3次元座標および障害物の3次元座標を区別して、圃場管理装置1により受信される。また、ポインティングされる3次元座標は、操作器401の受信部4011により受信され、表示部4012により表示されてもよい。また、操作器401は、受信される3次元座標が圃場外周又は障害物の3次元座標として適しているかを判定し、再測量が必要と判定される場合は、表示部4012を通じて使用者に再測量を促してもよい。
 圃場管理装置1は、情報処理を実行するためのCPU(Central Processing Unit)などの演算装置、RAM(Random Access Memory)やROM(Read Only Memory)などの記憶装置を備え、これによりソフトウェア資源として少なくとも、座標取得部11、測量点選択部12、エリア定義部13およびエリア出力部14を有する。
 座標取得部11は、座標測量装置2により測量される座標を取得する機能部である。座標取得部11は、測量点の座標を、座標測量装置2で取得された順番とともに取得する。座標取得部11は、測量点の座標を、座標測量装置2で取得された時刻とともに取得してもよい。また、座標取得部11は、当該測量点が圃場の外縁座標を示す点であるか障害物の外縁座標を示す点であるかの種別、すなわち測量点が属するエリア種別を、座標の情報と紐づけて取得する。
●エリア定義画面の構成(1)
 図9を用いてエリア定義画面の第1例について説明する。同図に示すように、座標取得部11により取得される測量点P1乃至P6は、表示部4012に表示されるエリア定義画面G1上に、圃場の地図又は写真に重ね合わされて表示される。また、エリア定義画面G1の右部には測量地点一覧ウィンドウG11が表示される。測量地点一覧ウィンドウG11には、測量点の測量日時が、座標測量装置2により取得された順に、一覧表示される。測量地点一覧ウィンドウG11は、右上部のアイコンG110をタップすることで、展開され、再度タップすると閉じられる。また、測量点のカラムG111ごとにゴミ箱のアイコンG112が表示されていて、アイコンG112をタップすると当該測量点のデータを削除することができる。削除された測量点のカラムG113には「削除済み」との記載が表示される。
 測量点選択部12は、操作器401の表示部4012上において、使用者による測定点の選択を受け付ける機能部である。使用者は、エリア定義画面G1に表示される圃場の地図又は写真上の測量点をタップする、または測量地点一覧ウィンドウG11に一覧表示された測量点をタップすることの少なくともいずれかの方法で、測量点を選択する。測量地点一覧ウィンドウG11において測量点を選択できる構成によれば、複数の測量点が互いに近接し、地図上において区別してタップすることが困難な場合であっても、測量点を1点ずつ選択することができる。
 図10に示すように、選択された測量点の情報は、エリア定義画面G1の左部に配置される選択地点一覧ウィンドウG12に表示される。選択地点一覧ウィンドウG12には、表示部4012上において選択された順番が合わせて表示されていてもよい。選択地点一覧ウィンドウG12には、選択された測量点が、図中上部から下方に向かって選択された順に表示される。なお、選択地点一覧ウィンドウG12において、所定の入力、例えば「×」部分のタップにより、選択の解除を受け付けてもよい。
 測量点選択部12は、同じエリア種別が付随している測量点の選択のみを受け付けるものとしてもよい。すなわち、測量点選択部12は、同じエリア種別情報が付随している測量点同士の接続を許可し、異なるエリア情報が付随している測量点同士の接続を禁止する。異なるエリア情報が付随している測量点が選択されると、警告が表示されてもよい。例えば、最初に選択した測量点が圃場に属する旨の情報と紐づけられている場合、2個目以降は圃場の外縁座標を示す測量点のみが選択可能となっていてもよい。すなわち、障害物の外縁座標を示す測量点は選択が無効化されていてもよい。また、測量点の選択操作の前に定義するエリア種別の入力を受け付け、入力されたエリア種別に基づいて選択可能な測量点の表示を行ってもよい。圃場又は障害物のエリアを定義するにあたり、同じエリア種別の測量点を確実に選択させることで、圃場および障害物のエリア定義を正確に行うことができる。
 測量点選択部12は、測量点ごとに、付随しているエリア種別を変更する機能を有していてもよい。当該測量点を、付随する種別とは異なるエリアの定義に使用する場合は、測量点のエリア種別を変更した上で、エリア種別ごとに選択を受け付けるように構成してもよい。この構成によれば、座標測量装置2による測量時点で誤ったエリア種別を入力した場合であっても、再度測量することなく、エリア定義を行うことができる。
 なお、測量点選択部12は、座標測量装置2による測量時点で紐づけられたエリア種別に関わらず測量点を選択可能であってもよい。この場合、使用者は、後述するエリア種別選択部132によりエリア種別を選択することができる。
 測量地点一覧ウィンドウG11上において、圃場の外縁座標を示す測量点が障害物の外縁座標を示す測量点とは異なる態様で表示されてもよいし、圃場の外縁座標を示す測量点のみが表示されてもよい。障害物の外縁座標を示す測量点の表示がグレーアウトしていてもよい。測量点の表示を属するエリア種別に応じて異ならせることで、使用者による選択ミスを軽減できる。
 エリア定義部13は、測量点選択部12により受け付けた複数の測量点を接続することでエリアを区画し、圃場又は障害物のエリアを定義する機能部である。エリア定義部13は、外縁規定部131と、エリア種別選択部132とを備える。
 外縁規定部131は、測量点選択部12により受け付けた複数の測量点を接続してエリアを区画し、エリアを定義する。外縁規定部131は、測量点選択部12において選択を受け付けた順に測量点を接続し、この接続線を当該エリアの外縁を示す線としてもよい。この構成によれば、使用者は、エリア定義画面G1上で定義したいエリアを囲うように測量点をタップしていくことで、エリアを直感的に定義することができる。なお、上述の接続手順によっては1個のエリアが規定されない場合、操作器401等のユーザインターフェース装置を介して、エラー通知を行ってもよい。すなわち、エリア定義部13は、各接続線が交差する順に測量点が選択されたか否かを判別し、各接続線の少なくとも一部が交差する順に測量点が選択されたとき、エラーを通知する。1個のエリアが規定されない場合とは、例えば、接続線同士が交差する場合である。
 外縁規定部131は、測量点選択部12において選択を受け付けた複数の測量点を、当該複数の測量点が1個のエリアの外縁の端点又は端辺上となるように接続してエリアを定義してもよい。外縁規定部131は、例えば座標上互いに隣接する測量点同士を接続してもよい。この構成によれば、定義するエリアを自動で生成できる。なお、外縁規定部131は、選択された測量点に基づいて生成され得るエリアが複数ある場合は、当該エリアの面積が最大となるように生成されたエリアを採用してもよい。
 エリア種別選択部132は、外縁規定部131により規定されたエリアのエリア種別を選択する機能部である。エリア種別選択部132は、座標測量装置2による測量の時点で紐づけられた種別の情報に基づいて、当該エリアの種別を決定してもよい。また、エリア種別選択部132は、外縁規定部131により規定されたエリアに対し、圃場であるか障害物であるかの選択を受け付けてもよい。また、エリア種別選択部132は、外縁規定部131により規定されたエリアが障害物エリアであると選択された場合、障害物の詳細種別や付随情報をさらに受け付けるように構成しても良い。例えば、障害物の詳細種別として、「ガードレール」、「電柱」、「電線」、「樹木」等を登録可能とし、付随情報として、障害物の上下方向の座標(位置)の情報を登録可能にしても良い。
 エリア出力部14は、図10に示すように、定義されるエリアA1を、エリア定義画面G1に表示される圃場に重畳的に表示する。また、エリア出力部14は、これに加えて又は替えて、ドローン100の飛行ルートを生成する装置に当該エリアの情報を出力する。エリア出力部14は、エリア定義部13において生成され得るエリアが複数ある場合には、その旨を表示部4012に表示してもよい。また、複数のエリアを切替可能に、又は重畳的に表示させ、採用するエリアの選択を使用者に促してもよい。
 また、エリア出力部14は、測量点P11、P12、P13およびP14の選択により定義されるエリアA2をエリア定義画面G1上の圃場に重畳的に表示する。エリアA2はエリアA1とは異なるエリア種別であり、例えばエリアA1が作業エリア、エリアA2が障害物エリアである。障害物エリアは、作業エリアとは異なる態様で表示される。例えば、障害物エリアと作業エリアとでは、エリアの網掛けの色やパターンが異なっていてもよい。
●エリア定義画面の構成(2)
 図11を用いてエリア定義画面の第2例について、第1例とは異なる部分を中心に説明する。同図に示すように、座標取得部11により取得される測量点P1乃至P6は、表示部4012に表示されるエリア定義画面G1上に、圃場の地図又は写真に重ね合わされて表示される。このとき、各測量点P1乃至P6の識別番号が各測量点上に併せて表示される。各測量点P1乃至P6の識別番号は、順に「1」「2」「3」「7」「6」「8」である。識別番号は、例えば測量点の座標が取得された順に付与されているが、各測量点固有の番号であればこれに限られない。エリア定義画面G1の右部には測量地点一覧ウィンドウG11が表示される。測量地点一覧ウィンドウG11には、各測量点の識別番号及び測量点の測量日時が、座標測量装置2により取得された順に、一覧表示される。
 使用者は、エリア定義画面G1に表示される圃場の地図又は写真上の測量点をタップする、または測量地点一覧ウィンドウG11に一覧表示された測量点をタップすることの少なくともいずれかの方法で、測量点を選択する。地図上および測量地点一覧ウィンドウG11に測量点の識別番号が表示される構成によれば、地図上の識別番号を参照して測量地点一覧ウィンドウG11をタップすることができる。したがって、複数の測量点が互いに近接し、地図上において区別してタップすることが困難な場合であっても、測量点を適切に選択することができる。
 図12に示すように、選択された測量点の情報は、エリア定義画面G1の左部に配置される選択地点一覧ウィンドウG12に表示される。選択地点一覧ウィンドウG12には、選択された測量点が選択された順に表示される。また、選択地点一覧ウィンドウG12には、各測量点の識別番号が合わせて表示される。この構成によれば、選択地点一覧ウィンドウG12において選択の解除をする際にも、識別番号を参照して、選択解除の入力を適切に行うことができる。
 図13は、選択される測量点を選択された順に接続した様子の一例を示す画面である。同図においては、測量地点一覧ウィンドウG11において測量点P1、P2、P4、及びP3がこの順に選択された様子を示している。測量点P2と測量点P4とを接続する接続線、および測量点P3と測量点P1とを接続する接続線が交差している。このとき、選択地点一覧ウィンドウG12の下部に「単純多角形ではありません」とのエラー通知が表示される。また、当該エラー通知の右方に「自動解法」との表示がなされている。「自動解法」の表示を選択すると、複数の測量点が1個のエリアの外縁の端点又は端辺上となるように自動的に接続して、エリアを再定義する。また、選択地点一覧ウィンドウG12の右下部に表示される「全クリア」を選択することで、測量点の選択作業を始めからやり直すことができる。なお、「自動解法」のタップによらず、エラー通知とともにエリアの再定義処理を行ってもよい。
 図14に示すように、エリアの外縁が定まった後、エリア定義画面G2の左方には、選択地点一覧ウィンドウG12に代えて、測量種別選択ウィンドウG13が表示される。測量種別選択ウィンドウG13では、エリアが圃場エリアおよび障害物エリアのいずれであるかの測量種別が択一的に選択可能である。
●エリアを定義するフローチャート
 図15に示すように、まず、測量点の座標を取得し(S1)、表示部4012のエリア定義画面G1に表示させ、エリアの定義に用いる複数の測量点の選択を受け付ける(S2)。測量点が選択されると、当該測量点が1個のエリアの外縁の端点又は端辺上となるように接続し、エリア外縁を規定する(S3)。ステップS3によりエリアが定義できるか否かを判別し(S4)、エリアが定義できない場合には、エラーを通知すると共に自動的に外縁を再定義する(S5)。ステップS4においてエリアが定義できるとき、またはステップS5においてエリアが再定義されたとき、当該エリアのエリア種別の選択を受け付ける(S6)。次いで、当該エリアの情報を、表示部4012に表示させ、又はドローン100の飛行ルートを生成する装置に出力する(S7)。以後、ステップS2乃至ステップS7を繰り返すことで、圃場のエリアおよび障害物のエリアを複数定義することができる。ここで、ステップS5において、自動的に外縁を再定義する場合には、外縁規定部131により、当該エリアの面積が最大となるように生成されたエリアを採用してもよい。
 本願発明によれば、圃場の測量作業を効率化することができる。図17は、関連技術におけるポインティング作業の概略を示す概念図である。同図に示すように、定義するエリアごとに外縁の測量点を取得する構成の場合、圃場ごとおよび障害物ごとにその外縁を周回して測量する必要がある。同図においては、圃場1、圃場2、圃場3および圃場4、ならびに障害物1、障害物2および障害物3の外縁をそれぞれ周回する必要がある。ここで、例えば障害物1および障害物2は電柱であり、障害物3はガードレールである。このとき、測量作業においては、開始点から圃場1の外縁の測量点P201乃至P204、圃場2の外縁の測量点P205乃至P208、圃場3の外縁の測量点P209乃至P212および圃場4の外縁の測量点P213乃至P216をそれぞれ矢印の方向に沿ってこの順にポインティングする。また、障害物1の外縁の測量点P221乃至P224、障害物2の外縁の測量点P231乃至P234、および障害物3の外縁の測量点P241乃至P244をそれぞれ矢印の方向に沿ってこの順に周回し、ポインティングする。
 この測量作業においては、各圃場間の農道を図中上下に往復して、測量点P203乃至P206、測量点P207乃至P210、測量点P211乃至P214を測量する必要がある。また、図中左右に細長い障害物3を測量する際には、測量点P242から測量点P243、および測量点P244から測量点P241を移動して測量する必要がある。さらに、圃場外縁の周回中には障害物の測量ができないため、圃場の測量点から障害物の測量点、すなわち同図においては測量点P208と測量点P221との間、測量点P216と測量点P231との間を、矢印で示すように移動する必要がある。このように、定義するエリアごとに外縁の測量点を周回して取得する構成では、測量点間の移動が多く煩雑である。
 図16は、本願発明におけるポインティング作業の概略を示す概念図である。同図に示すように、使用者は、エリアの定義に必要な測量点P101乃至P128を、この順でポインティングできる。すなわち、使用者は、属するエリア種別に関わらず、また別のエリアの外縁を構成する測量点であっても、近接する順に周ることができる。本願発明においては、測量点の測量順序に関わらず、エリア定義画面G1から事後的に測量点を選択し、エリアを定義することができるためである。
 この構成によれば、測量点P104乃至P113のポインティングを、圃場脇の農道を往復移動することなく一方向に進みながらこの順で行うことができる。すなわち、測量点P105とP128間の農道、測量点P107とP122間の農道、および測量点P109とP120間の農道を往復する必要がない。また、圃場1の外縁の測量点P102の測量の前後のタイミングで、近接する障害物の測量点P103、P104の測量ができるため、障害物3の左右方向の長辺を往復する必要がない。さらに、障害物1および障害物2の測量においても、圃場の外縁の測量点P114からP128に向かって直進する途中で行うことができ、圃場の測量点と障害物の測量点との間を往復する必要がない。すなわち、効率よく測量作業を行うことができる。
 なお、ドローンは、作業エリア内を自律的に飛行する形態に限られず、例えば作業エリア内又は発着地点と作業エリアとの移動経路上において一部又は全部を使用者の操縦に基づいて飛行するドローンであってもよい。このとき、本願発明に係るドローンシステムは、ドローン100が、本システムにおいて定義された作業エリアから退出するのを防止するシステムであってもよい。具体的には、ドローン100が当該作業エリアの外縁上又は作業エリア内側の所定範囲内にあるとき、操作器を介して使用者に警告を通知するものであってもよい。特に、ドローン100が作業エリア内側の所定範囲内において作業エリアから退出する方向に進行しているとき、又は当該方向に加速度を有するときに、当該警告を通知してもよい。また、警告の通知に代えて、又は加えて、使用者からの操縦命令を無効化し、ドローン100を外縁上又は作業エリア内側の所定範囲内においてホバリングさせてもよい。さらに、ホバリングに代えて、その場に着陸させてもよい。
(本願発明による技術的に顕著な効果)
 本願発明によれば、圃場の測量作業を効率化することができる。

 

Claims (10)

  1.  測量点の情報に基づいてドローンの作業エリアを定義するシステムであって、
     測量された複数の前記測量点の情報を表示する表示部と、
     前記表示部に表示される測量点の選択を受け付ける測量点選択部と、
     前記測量点選択部により受け付けた複数の測量点を互いに接続することでエリアを区画し、前記エリアを定義するエリア定義部と、
    を備える、
    ドローンシステム。
     
  2.  前記エリア定義部で定義された前記エリアに対し、前記ドローンの作業エリア及び前記ドローンの飛行を禁止する障害物エリアを含むエリア種別を決定するエリア種別選択部をさらに備える、
    請求項1記載のドローンシステム。
     
  3.  前記測量点の情報は、当該測量点が属するエリアの種別情報を含み、
     前記エリア定義部は、エリアの定義に利用した複数の測量点が属するエリアの種別情報に基づいて、エリア種別を決定するエリア種別決定機能を備える、
     請求項1記載のドローンシステム。
     
  4.  前記測量点の情報は、当該測量点が属するエリアの種別情報を含み、
     前記エリア定義部は、同じ種別情報が付随している測量点同士の接続を許可し、異なる前記種別情報が付随している測量点同士の接続を禁止する、
    請求項1乃至3のいずれかに記載のドローンシステム。
     
  5.  前記エリア定義部は、前記測量点選択部により選択を受け付けた順に各測量点を接続し、各接続線をエリアの外縁として当該エリアを定義する、
    請求項1乃至4のいずれかに記載のドローンシステム。
     
  6.  前記エリア定義部は、前記各接続線が交差する順に前記測量点が選択されたか否かを判別し、前記各接続線の少なくとも一部が交差する順に前記測量点が選択されたとき、エラーを通知する、
    請求項5記載のドローンシステム。
     
  7.  前記エリア定義部は、前記各接続線の少なくとも一部が交差する順に前記測量点が選択された場合に、前記測量点選択部により受け付けた複数の測量点を互いに接続し、前記エリアの面積が最大となるように前記エリアを定義する、
    請求項6記載のドローンシステム。
     
  8.  前記エリア定義部により定義された前記エリアを、前記表示部に出力する、
    請求項1乃至7のいずれかに記載のドローンシステム。
     
  9.  測量点の情報に基づいてドローンの作業エリアを定義する、前記ドローンの操作器であって、
     測量された複数の前記測量点の情報を表示する表示部と、
     前記表示部に表示される測量点の選択を受け付ける測量点選択部と、
     前記測量点選択部により受け付けた複数の測量点を互いに接続することでエリアを区画し、前記エリアを定義するエリア定義部と、
    を備える、
    操作器。
     
  10.  測量点の情報に基づいてドローンの作業エリアを定義する方法であって、
     測量された複数の前記測量点の情報を表示する表示ステップと、
     前記表示ステップにおいて表示される測量点の選択を受け付ける測量点選択ステップと、
     前記測量点選択ステップにより受け付けた複数の測量点を互いに接続することでエリアを区画し、前記エリアを定義するエリア定義ステップと、
    を備える、
    作業エリアの定義方法。
PCT/JP2020/006849 2020-02-20 2020-02-20 ドローンシステム、操作器および作業エリアの定義方法 WO2021166175A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/006849 WO2021166175A1 (ja) 2020-02-20 2020-02-20 ドローンシステム、操作器および作業エリアの定義方法
JP2022501520A JP7412037B2 (ja) 2020-02-20 2020-02-20 ドローンシステム、操作器および作業エリアの定義方法
CN202080096913.1A CN115136090A (zh) 2020-02-20 2020-02-20 无人机***、操作器以及作业区域的定义方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/006849 WO2021166175A1 (ja) 2020-02-20 2020-02-20 ドローンシステム、操作器および作業エリアの定義方法

Publications (1)

Publication Number Publication Date
WO2021166175A1 true WO2021166175A1 (ja) 2021-08-26

Family

ID=77390758

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/006849 WO2021166175A1 (ja) 2020-02-20 2020-02-20 ドローンシステム、操作器および作業エリアの定義方法

Country Status (3)

Country Link
JP (1) JP7412037B2 (ja)
CN (1) CN115136090A (ja)
WO (1) WO2021166175A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023139628A1 (ja) * 2022-01-18 2023-07-27 株式会社RedDotDroneJapan エリア設定システム、及びエリア設定方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017206066A (ja) * 2016-05-16 2017-11-24 株式会社プロドローン 薬液散布用無人航空機
JP2017211734A (ja) * 2016-05-24 2017-11-30 ヤンマー株式会社 自律走行経路生成システム
JP2019082846A (ja) * 2017-10-30 2019-05-30 国立大学法人北海道大学 協調作業システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3580765B2 (ja) * 2000-08-01 2004-10-27 株式会社ニコン・トリンブル 複数点種観測システム及び方法
CN106054917A (zh) 2016-05-27 2016-10-26 广州极飞电子科技有限公司 一种无人飞行器的飞行控制方法、装置和遥控器
JP6289750B1 (ja) 2016-07-29 2018-03-07 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動体、移動体制御方法、移動体制御システム、及び移動体制御プログラム
JP6289560B2 (ja) 2016-07-29 2018-03-07 株式会社 ミックウェア 地図情報処理装置、地図情報処理システム、地図情報処理方法、およびプログラム
JP7133298B2 (ja) * 2017-08-10 2022-09-08 株式会社小松製作所 運搬車両の管制システム及び運搬車両の管理方法
CN109708636B (zh) 2017-10-26 2021-05-14 广州极飞科技股份有限公司 导航图配置方法、避障方法以及装置、终端、无人飞行器
JP7270265B2 (ja) 2018-10-03 2023-05-10 株式会社ナイルワークス 運転経路生成装置、運転経路生成方法、運転経路生成プログラム、およびドローン

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017206066A (ja) * 2016-05-16 2017-11-24 株式会社プロドローン 薬液散布用無人航空機
JP2017211734A (ja) * 2016-05-24 2017-11-30 ヤンマー株式会社 自律走行経路生成システム
JP2019082846A (ja) * 2017-10-30 2019-05-30 国立大学法人北海道大学 協調作業システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023139628A1 (ja) * 2022-01-18 2023-07-27 株式会社RedDotDroneJapan エリア設定システム、及びエリア設定方法

Also Published As

Publication number Publication date
JPWO2021166175A1 (ja) 2021-08-26
CN115136090A (zh) 2022-09-30
JP7412037B2 (ja) 2024-01-12

Similar Documents

Publication Publication Date Title
JP6851106B2 (ja) 運転経路生成システム、運転経路生成方法、および運転経路生成プログラム、ならびにドローン
JP7008999B2 (ja) 運転経路生成システム、運転経路生成方法、および運転経路生成プログラム、ならびにドローン
JP6982908B2 (ja) 運転経路生成装置、運転経路生成方法、および運転経路生成プログラム、ならびにドローン
JP7270265B2 (ja) 運転経路生成装置、運転経路生成方法、運転経路生成プログラム、およびドローン
WO2021214812A1 (ja) 測量システム、測量方法、および測量プログラム
WO2021140657A1 (ja) ドローンシステム、飛行管理装置およびドローン
WO2021205559A1 (ja) 表示装置、ドローンの飛行可否判定装置、ドローン、ドローンの飛行可否判定方法、およびコンピュータプログラム
WO2021166175A1 (ja) ドローンシステム、操作器および作業エリアの定義方法
WO2021152797A1 (ja) 農作物育成システム
JP7079547B1 (ja) 圃場評価装置、圃場評価方法および圃場評価プログラム
WO2021224970A1 (ja) 測位システム、移動体、速度推定システム、測位方法、および速度推定方法
JP7037235B2 (ja) 産業機械システム、産業機械、管制装置、産業機械システムの制御方法、および、産業機械システムの制御プログラム
US20210254980A1 (en) Traveling route generating system, traveling route generating method, traveling route generating program, coordinate measuring system, and drone
JP2022088441A (ja) ドローン操縦機、および、操縦用プログラム
JP2022084735A (ja) ドローン、ドローンの制御方法、および、ドローンの制御プログラム
WO2022018790A1 (ja) 無人航空機制御システム
JP7285557B2 (ja) 運転経路生成システム、運転経路生成方法、運転経路生成プログラム、およびドローン
WO2021220409A1 (ja) エリア編集システム、ユーザインターフェース装置および作業エリアの編集方法
WO2021111621A1 (ja) 植物の病理診断システム、植物の病理診断方法、植物の病理診断装置、およびドローン
WO2021205501A1 (ja) 再測量要否判定装置、測量システム、ドローンシステム、および再測量要否判定方法
WO2021191947A1 (ja) ドローンシステム、ドローンおよび障害物検知方法
WO2021199243A1 (ja) 測位システム、ドローン、測量機、および測位方法
WO2021166101A1 (ja) 操作器、および、ドローンの操作用プログラム
JP2021082134A (ja) ドローンシステム、ドローン、管制装置、ドローンシステムの制御方法、および、ドローンシステム制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20920200

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022501520

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20920200

Country of ref document: EP

Kind code of ref document: A1