WO2023139628A1 - エリア設定システム、及びエリア設定方法 - Google Patents

エリア設定システム、及びエリア設定方法 Download PDF

Info

Publication number
WO2023139628A1
WO2023139628A1 PCT/JP2022/001506 JP2022001506W WO2023139628A1 WO 2023139628 A1 WO2023139628 A1 WO 2023139628A1 JP 2022001506 W JP2022001506 W JP 2022001506W WO 2023139628 A1 WO2023139628 A1 WO 2023139628A1
Authority
WO
WIPO (PCT)
Prior art keywords
geofence
information
field
area
drone
Prior art date
Application number
PCT/JP2022/001506
Other languages
English (en)
French (fr)
Inventor
望 三浦
Original Assignee
株式会社RedDotDroneJapan
株式会社DRONE iPLAB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社RedDotDroneJapan, 株式会社DRONE iPLAB filed Critical 株式会社RedDotDroneJapan
Priority to PCT/JP2022/001506 priority Critical patent/WO2023139628A1/ja
Publication of WO2023139628A1 publication Critical patent/WO2023139628A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map

Definitions

  • the present disclosure relates to an area setting system and an area setting method.
  • Patent Document 1 discloses that a flight area is defined by measuring the position coordinates of the end points of the flight area in advance using a survey instrument or the like.
  • the court area to be used may change each time. Therefore, it takes time and effort to measure all the end points of the court each time.
  • the present disclosure has been made in view of the above problems, and its purpose is to provide an area setting system and an area setting method that can more easily set a field to be photographed or worked or a geofence corresponding to this.
  • an area setting system for setting a target field or a geofence corresponding thereto for photographing or working with a mobile object comprising a server directly or indirectly connected to the mobile object for communication, the area setting system setting the target field or the corresponding geofence based on a plurality of pieces of position information obtained by positioning the mobile object or the surveying instrument at a plurality of predetermined positions in the target field, and preset field shape information.
  • an area setting system for setting a target field or a geofence corresponding thereto for photographing or working with a mobile body, comprising a server directly or indirectly connected to the mobile body for communication, wherein the area registration system sets the target field or the geofence corresponding to the target field or the geofence corresponding thereto on the basis of the position information and direction information respectively obtained by positioning and azimuth measurement of the mobile body or the surveying instrument by arranging the mobile body or the surveying instrument at a predetermined position in the target field in a predetermined orientation, and preset field shape information.
  • an area setting system characterized by:
  • an area setting method for setting a target field for photographing or working with a mobile body or a geofence corresponding thereto comprising the steps of: setting a field shape; placing a mobile body or a surveying instrument at a plurality of predetermined positions in the target field and acquiring a plurality of positional information by positioning the mobile body or the surveying instrument; and setting a target field or a geofence corresponding thereto based on the field shape information and the acquired plurality of positional information.
  • an area setting method for setting a target field or a geofence corresponding thereto for photographing or working with a mobile body comprising the steps of: setting a field shape; placing a mobile body or a surveying instrument in a predetermined position in the target field in a predetermined orientation and acquiring position information and direction information by positioning and azimuth positioning of the mobile body or the surveying instrument; and setting the target field or the corresponding geofence based on the field shape information and the acquired position information and direction information.
  • An area setting method is provided, characterized by:
  • an area setting system and an area setting method that can more easily set a field for shooting or work or a geofence corresponding thereto.
  • FIG. 1 is a diagram illustrating a configuration example of a system according to an embodiment of the present disclosure
  • FIG. FIG. 4 is a diagram showing another configuration example of a system according to an embodiment of the present disclosure
  • FIG. FIG. 4 is a diagram showing another configuration example of a system according to an embodiment of the present disclosure
  • FIG. FIG. 4 is a diagram showing another configuration example of a system according to an embodiment of the present disclosure
  • FIG. FIG. 2 is a diagram showing functional blocks of a drone according to an embodiment of the present disclosure
  • FIG. FIG. 3 is a diagram showing functional blocks of a control device according to an embodiment of the present disclosure
  • FIG. FIG. 3 is a diagram showing functional blocks of a server according to an embodiment of the present disclosure
  • FIG. 2 is a flow chart diagram showing the operation flow of the system according to one embodiment of the present disclosure
  • FIG. 4 is a flow chart diagram showing a flow of determination of installation position propriety of the system according to an embodiment of the present disclosure
  • FIG. 4 is a flowchart diagram showing an operation flow for displaying a court area or the like of the system according to an embodiment of the present disclosure
  • FIG. 5 is a diagram showing an example of drone placement positions and orientations when estimating a court area according to an embodiment of the present disclosure
  • FIG. 7 is a diagram showing another example of drone placement positions and orientations when estimating a court area according to an embodiment of the present disclosure
  • FIG. 7 is a diagram showing another example of drone placement positions and orientations when estimating a court area according to an embodiment of the present disclosure
  • FIG. 7 is a diagram showing another example of drone placement positions and orientations when estimating a court area according to an embodiment of the present disclosure
  • FIG. 7 is a diagram showing another example of drone placement positions and orientations when estimating a court area according to an embodiment of the present disclosure
  • FIG. 5 is a diagram showing an example of two drone placement positions and orientations when estimating a court area according to an embodiment of the present disclosure
  • FIG. 7 is a diagram showing another example of two drone placement positions and orientations when estimating a court area according to an embodiment of the present disclosure
  • FIG. 7 is a diagram showing another example of two drone placement positions and orientations when estimating a court area according to an embodiment of the present disclosure
  • FIG. 7 is a diagram showing another example of two drone placement positions and orientations when estimating a court area according to an embodiment of the present disclosure
  • FIG. 7 is a diagram showing another example of two drone placement positions and orientations when estimating a court area according to an embodiment of the present disclosure
  • FIG. 5 is a diagram showing an example of three drone placement positions and orientations when estimating a court area according to an embodiment of the present disclosure
  • FIG. 7 is a diagram showing another example of three drone placement positions and orientations when estimating a court area according to an embodiment of the present disclosure
  • FIG. 7 is a diagram showing another example of three drone placement positions and orientations when estimating a court area according to an embodiment of the present disclosure
  • FIG. 5 is a diagram showing a display example of a field area and flying geofences displayed on a display unit according to an embodiment of the present disclosure
  • FIG. 7 is a diagram showing another display example of field areas and flying geofences displayed on the display unit according to the embodiment of the present disclosure
  • FIG. 1 shows an overview of the overall configuration of a system 1 using a drone as an example of a mobile body as one embodiment of the present invention.
  • the system 1 includes a drone 100 having a photographing function, a control device 200 for the operator to operate the drone 100, and a server 300 (for example, a cloud server) connected to the control device 200 via a network 400 such as an Internet line.
  • the drone 100 can receive satellite signals from the satellites 500, and can estimate its own position and the like using GNSS based on the received satellite signals.
  • a base station 600 that provides information on reference points of fixed stations used for relative positioning such as RTK (Real Time Kinematic) is further provided, and the base station is connected to the drone and control device for wireless communication, making it possible to measure the position of the drone with higher accuracy.
  • RTK Real Time Kinematic
  • the base station 600 can be omitted, or the accuracy of estimating the position coordinates of the base station and drone can be further improved.
  • the control device 200 includes a display unit 210 that displays to the operator the status information of the drone and the drone acquired from the server, and an input unit 220 that inputs operation commands such as the flight direction and takeoff/landing when the operator operates the drone.
  • At least one of the display unit 210 and the input unit 220 has a communication function of wirelessly communicating with the drone using Wi-Fi, 2.4GH, and 5.6-5.8GH frequency bands.
  • at least one of the display unit 210 and the input unit 220 has a wireless communication function capable of communicating with a server via an Internet line using a communication standard such as LTE (Long Term Evolution).
  • LTE Long Term Evolution
  • FIG. 2 shows a modification of the overall configuration of this system.
  • a drone, a control device, a server, and a base station are connected so as to be able to communicate with each other via a network 400 such as an Internet line.
  • the drone directly communicates wirelessly with the Internet line 400 by a communication method such as LTE without going through the control device. Therefore, the drone, the control device, and the base station do not need to perform direct wireless communication, and it is sufficient if they can each be connected to the Internet line at a remote location. Therefore, the system configuration is suitable for the case where the drone and the control device exist in a remote location (for example, the case where the operator performs remote control), but the system configuration is not limited to this.
  • a drone, a control device, a base station, and a server are communicably connected to each other via a network 400 such as an internet line, and the drone and base station are communicatively connected to the internet line by satellite communication via a satellite 500.
  • the example of the system 4 shown in FIG. 4 shows an example of system redundancy in which a plurality of servers are connected to a single drone via a plurality of internet lines. In this case, even if an abnormality occurs in the server or the Internet line, the operation of the system can be continued by another redundant server or the Internet line, so the reliability of the system can be improved.
  • the drone and the control device can be operated even in a remote location, so the configuration is suitable for remote control, but the configuration is not limited to this, and can also be applied to visual flight in which the operator manually controls the drone while looking at it.
  • Drone configuration refers to any flying object in general, regardless of power means (electric power, prime mover, etc.), operation method (wireless or wired, fully autonomous flight type or partially manually operated type, etc.), and regardless of whether it is manned or unmanned, it has multiple rotor blades and has the function of autonomously controlling its attitude.
  • Drones are sometimes called unmanned aerial vehicles (UAVs), flying objects, multi-copters, RPASs (remote piloted aircraft systems), or UASs (Unmanned Aircraft Systems).
  • a geofence indicates a virtual boundary line, and in particular, indicates a boundary fence between a flight permitted area and a no-fly area where mobile objects such as drones are permitted to fly or move. Therefore, when a moving body such as a drone comes into contact with the geofence, the flight or movement is restricted so that the body does not fly out of the flight permitted area.
  • the drone 100 of this example includes a measurement unit 110, a flight function unit 120, and an image acquisition unit 130.
  • the drone 100 includes an arithmetic device such as a CPU (Central Processing Unit) for executing information processing, and a storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • arithmetic device such as a CPU (Central Processing Unit) for executing information processing
  • a storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the measurement unit 110 includes a position measurement unit 111 for measuring the position (absolute position) of the aircraft, and an azimuth measurement unit 112 for measuring the orientation (heading direction) of the aircraft.
  • the position measuring unit is not particularly limited, but measures its current position using, for example, GNSS (Global Navigation Satellite System), GPS (Global Positioning System), or the like.
  • RTK-GNSS Real Time Kinematic-Global Navigation Satellite System
  • the position information includes at least two-dimensional coordinate information (for example, latitude and longitude) in plan view, and preferably includes three-dimensional coordinate information including altitude information.
  • the position measurement unit receives signals from satellites such as GPS satellites and performs positioning (position determination) based on the signals.
  • the azimuth measurement unit is composed of, for example, a geomagnetic sensor that measures the heading direction of the drone by measuring geomagnetism, a compass, a GNSS compass, or the like.
  • the measurement unit may include various sensors (IMU, 6-axis GYRO) that acquire information such as temperature, atmospheric pressure, wind speed, acceleration, angular velocity, speed (GNSS Doppler, GPS Doppler, etc.).
  • the flight function unit 120 includes a thrust generation unit 121 for generating thrust for the aircraft to rise and move in a desired direction, and a flight control unit 122 for controlling the attitude angle control and flight operation of the aircraft from takeoff to flight and landing.
  • the thrust generating unit is equipped with a rotor blade, and a motor and battery, or an engine, etc. that serves as a power source for rotating the rotor blade. Further, the rotor blades may be provided with propeller guards for preventing the propellers from interfering with obstacles. Although the number of rotor blades constituting the thrust generating section is not particularly limited, for example, 1, 2, 4, 6, or 8 rotor blades can be provided.
  • the rotor may be composed of a single propeller, or may be composed of a plurality of coaxially arranged propellers. The number and shape of blades of each propeller are not particularly limited.
  • the flight control section has a processing unit, also called a flight controller.
  • a processing unit may comprise one or more processors, such as a programmable processor (eg, central processing unit (CPU), MPU, or DSP).
  • the processing unit has access to memory.
  • the memory stores logic, code, and/or program instructions executable by the processing unit to perform one or more steps.
  • the memory may include, for example, removable media or external storage devices such as SD cards and random access memory (RAM).
  • RAM random access memory
  • Various data obtained from cameras and sensors may be directly transmitted to and stored in the memory. For example, still image or moving image data captured by the camera 131 can be recorded in an internal memory or an external memory.
  • the processing unit includes a control module configured to control the state of the body of drone 100 .
  • the control module controls the thrusters of the drone 100 to adjust the spatial orientation, attitude angular angle, angular velocity, angular acceleration, angular jerk velocity, and/or acceleration of the drone 100 with six degrees of freedom (translational motions x, y, and z, and rotational motions ⁇ x , ⁇ y , and ⁇ z ).
  • the control module can control one or more of the camera holder, sensors.
  • the flight control unit can control the flight of the drone 100 based on a control signal from the control device 200 or based on a preset autonomous flight program.
  • the flight control unit can control the flight of the drone 100 by controlling the thrust generation unit based on various information such as the field area to be photographed, information on the corresponding flight geofence, two-dimensional or three-dimensional map data, map information including two-dimensional or three-dimensional map data, current position information of the drone 100, attitude information (heading information), speed information, acceleration information, and any combination thereof.
  • the image acquisition section 130 includes a camera 131 (imaging device) and a camera holding section 132 .
  • the camera 131 acquires at least one of still images and moving images (and acquires audio using a microphone as necessary), and transmits data to the storage unit of the drone 100 itself, the control device 200, the server 300, and the like.
  • the camera holding section 132 holds the camera 131 on the body.
  • the camera holding unit 132 may or may not change at least one of the position and orientation (orientation) of the camera 131 with respect to the body.
  • the camera holding section 132 may have a mechanism for suppressing the shaking and vibration of the body from being transmitted to the camera 131 .
  • the control device 200 includes a display section 210 and an input section 220, as shown in FIG. 6, for example.
  • the control device 200 also includes an arithmetic device such as a CPU (Central Processing Unit) for executing information processing, and a storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • arithmetic device such as a CPU (Central Processing Unit) for executing information processing
  • a storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the display unit 210 may be composed of a touch panel or liquid crystal monitor or the like that is integrally incorporated into the control device, or may be composed of a display device such as a liquid crystal monitor, a tablet terminal, or a smartphone that is wired or wirelessly connected to the control device.
  • the display unit can display images related to various types of information such as the shooting target field area, the corresponding flight geofence, map information, the current position information of the drone 100, attitude information (direction information), speed information, and acceleration information, the remaining battery level of the drone, and the installation position of the drone when surveying the shooting target field area.
  • the input unit 220 receives various inputs from a user such as a pilot, or inputs based on signals transmitted from the drone 100 or the server 300 .
  • the input unit 220 of this example includes a maneuver input unit 221, a field shape input unit 222, a measurement point input unit 223, a measurement execution input unit 224, a remeasurement necessity input unit 225, a field area correction input unit 226, and a geofence correction input unit 227.
  • the operation input unit 221 accepts input operations for commanding three-dimensional flight operations of the drone 100, including takeoff, landing, ascent, descent, turning, forward movement, backward movement, left and right movement, and the like.
  • the operation input unit 221 is composed of a control stick that is tilted back and forth, left and right, push buttons (including cross key buttons and the like) positioned up, down, left and right, or rotary dials, touch panels, etc. However, it is not particularly limited.
  • the control input unit 221 may have a takeoff button and a landing button that instruct automatic takeoff and landing, a flight start button that instructs to automatically fly to a predetermined position and hover at that position, a home button that performs a return operation to return to the starting position, a mode switching button that switches flight modes, an emergency stop button that stops the propellers in an emergency, an emergency landing button that makes a soft landing on the spot in an emergency, and a hovering button that makes it hover on the spot and hover in the air in an emergency. .
  • the field shape input unit 222 receives shape information of a shooting target field such as a sports court area.
  • the field shape input unit 222 can receive, for example, field shape information input from the touch panel of the control device 200 or the like, or field shape information transmitted from the drone 100 or the server 300 .
  • the shape of the imaging target field is not particularly limited and may be rectangular, square, other polygonal, circular, elliptical, or the like.
  • Field shape information can include information on the shape of the outer shape (outer frame) of the field, the positions and shapes of various lines (half lines, penalty lines, etc.) provided inside and outside the field, and points (central point, penalty kick position, etc.).
  • the field shape information may include two-dimensional or three-dimensional shape information such as the length of four sides (end line (goal line), side line (touch line)) of a rectangular field, crossing angle, aspect ratio, position of half line (center line), radius of center circle, position of center point (center spot), position of penalty area, position of intersection of side line and half line, position and size of soccer goal.
  • Soccer courts are standardized according to official standards, international standards, World Cup and Olympic standards, etc., and their shapes and sizes are defined in advance.
  • the standardized court shape, the unique size for the practice field, and the court shape with aspect ratio can be divided into a plurality of patterns and stored in advance in a storage unit such as the server 300.
  • the measurement point input unit 223 is an input unit for the user to specify in advance the position and orientation of the drone to be installed in the field before measuring the imaging target field using the measurement unit of the drone. For example, on the field displayed on the display unit 210, the position and direction of the drone to be installed are specified and input.
  • the measurement execution input unit 224 allows the user to input a measurement instruction when executing measurement of the imaging target field using the measurement unit of the drone while the drone is installed on the field according to the measurement position and heading specified by the user.
  • a measurement instruction is input by the measurement execution input unit 224, the position and heading of the drone are measured by the measurement unit of the drone, and the measurement results are transmitted to the server.
  • a surveying instrument having the same positioning (and azimuth positioning) function as the measurement unit may be used, and the measurement may be performed by the surveying instrument while the surveying instrument is installed on the field according to the measurement position and orientation specified by the user.
  • the re-measurement necessity input unit 225 accepts an input as to whether or not re-measurement is necessary when, for example, it is found that the position or orientation of the field to be captured that has been registered is incorrect.
  • the remeasurement necessity input unit 225 may receive an input regarding the necessity of remeasurement by a user such as a pilot, or may receive the input by a signal transmitted from the drone 100 or the server 300 .
  • the field area correction input unit 226 accepts input regarding correction details when correcting the shape, position, orientation, etc. of the field to be photographed once registered.
  • the field area correction input unit 226 may receive an input regarding the content of correction through input from a user such as a pilot, or may receive the input through a signal transmitted from the drone 100 or the server 300 .
  • the position, shape, and orientation of the field area estimated as a result of the field measurement by the drone are displayed on the display unit 210 of the control device 200 together with the surrounding map information, and the user such as the operator can check the displayed field area and correct at least one of the position, shape, and orientation of the field area using the field area correction input unit 226 as necessary.
  • the geofence correction input unit 227 accepts input regarding correction details when correcting the shape, position, orientation, etc. of a geofence once registered.
  • the geofence correction input unit 227 may receive an input regarding the content of correction through input from a user such as a pilot, or may receive the input through a signal transmitted from the drone 100 or the server 300 .
  • FIG. 24 shows an example displayed on the display unit when a user such as an operator accepts modification of the geofence registered by the geofence modification input unit 227 .
  • the shape and orientation of the registered geofence are displayed together with the field area (and the surrounding map) on the display unit 210 of the control device 200, and the user can check the relationship between the displayed geofence (dotted line) and the field area (solid line) and, if necessary, correct at least one of the position, shape, and orientation of the geofence using the geofence correction input unit 227.
  • the right geofence can be modified to be inside (to the left) the outer edge of the field area in order to prevent the drone from coming into contact with the building when blown by the wind.
  • FIG. 25 shows the relationship between the flight geofence and the field area when the drone flies along the sideline and above the sideline, and an example of modification of the flight geofence.
  • the shape and position direction of the registered geofence are displayed on the display unit 210 of the control device 200 along with the field area (and the surrounding map), and the user can check the relationship between the displayed geofence (dotted line) and the field area (solid line), and can correct at least one of the position, shape, and orientation of the geofence using the geofence correction input unit 227 as necessary.
  • flying geofences can be set at locations along and surrounding the sidelines of the estimated field area. Alternatively, it can be set along the goal line instead of the side line. Further, as shown in FIG. 25, geofence correction can be made by widening or narrowing the geofence positions of all or part of the top, bottom, left, and right sides, or by moving the geofence position to a position along the opposite sideline.
  • Server 300 may be a general-purpose computer such as a workstation or personal computer, or may be logically implemented by cloud computing.
  • the server 300 includes, for example, an arithmetic device such as a CPU (Central Processing Unit) for executing information processing, a storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory), and as software resources, a field shape designator 310, a measurement point designator 320, an area measurement unit 330, an area determination unit 340, and a storage unit 350 (see FIG. 7).
  • the server 300 includes a transmission/reception unit for communicating with the drone 100 and the control device 200, and an input/output unit for inputting and outputting (image output, audio output) the various information described above.
  • the field shape specifying unit 310 transmits options for the court shape to the control device 200 based on the information of the plurality of patterns of court shapes prerecorded in the storage unit 350, and specifies the shape of the field to be photographed based on the user's specification input of the court shape via the field shape input unit 222.
  • the measurement point designation unit 320 transmits options for measurement point candidates to the control device 200 according to the shape of the field to be photographed. For example, when the shape of the field to be photographed is a rectangular court, the options for the measurement point candidates are the four corner points of the court, the point where the half line and the side line intersect, the center point, and the like. Also, in addition to the measurement point, options for the heading may be transmitted to the control device 200 .
  • the measurement point designation unit 320 designates the measurement point and the heading based on the input information selected by the user from the options of the measurement point and the heading presented via the measurement point input unit 223 of the control device 200 . Alternatively, the measurement point specifying section 320 may uniquely specify the measurement point and heading in advance according to the shape of the field specified by the field shape specifying section 310 .
  • the area measurement unit 330 includes functional units including a measurement result confirmation unit 331 for confirming the measurement result, an area estimation unit 332 for estimating the position and orientation of the field area to be photographed, and a measurement adequacy determination unit 333 for determining the appropriateness of the field area measurement result.
  • the measurement result confirmation unit 331 acquires information on the position and orientation of the drone measured with the drone installed at the measurement point and measurement direction designated by the measurement point designation unit 320 . Specifically, based on user input via the measurement execution input unit 224 of the control device 200, information on the position and heading measured by the measurement unit of the drone is obtained while the drone is installed in the specified measurement position and nose direction (or the position and heading of the drone may be estimated based on the lines, goals, corner flags, etc. appearing in the image acquired by the drone's camera, or both the measurement information by the measurement unit and the estimation results from the camera image are used to obtain the position and heading information. You can also estimate the heading).
  • the drone even if the user inputs a measurement execution instruction from the measurement execution input unit 224, if the information such as acceleration and speed acquired by the measurement unit mounted on the drone is not stable at almost zero, or if the distance to the ground sensor (TOF sensor, IR sensor, etc.) does not constantly detect the ground installation distance, it is determined that the drone is not installed on the ground. It can also have functions.
  • the area estimation unit 332 estimates the position and direction of the field area or the position and direction of the flight geofence corresponding thereto, based on the field shape specified by the field shape specification unit 310, the measurement point and direction information specified by the measurement point specification unit 320, and the drone position and heading information acquired by the area measurement unit 330.
  • the measurement propriety determination unit 333 has a function of determining whether or not the measurement point and heading specified by the measurement point designation unit 320 match the actual location and heading of the drone, based on the field shape designated by the field shape designation unit 310, information on the measurement point and heading designated by the measurement point designation unit 320, and information on the position and heading of the drone acquired by the measurement result confirmation unit 331. If the above determination results in disagreement, it is highly likely that the measurement result is not appropriate. Therefore, the user is notified of the determination result and prompted to remeasure. A detailed control flow of the area measurement unit 330 will be described later using FIG.
  • the area determination unit 340 has a display control unit 341 that displays the estimated area of at least one of the shooting target field and the geofence on the display unit 210 of the control device, and an area correction unit 342 that, when receiving a correction input for the displayed estimated area from the user, corrects the estimated area in accordance with the correction input and stores the corrected estimated area in the storage unit 350.
  • a display control unit 341 that displays the estimated area of at least one of the shooting target field and the geofence on the display unit 210 of the control device
  • an area correction unit 342 that, when receiving a correction input for the displayed estimated area from the user, corrects the estimated area in accordance with the correction input and stores the corrected estimated area in the storage unit 350.
  • the storage unit 350 stores various information.
  • the storage unit 350 can store information transmitted from the drone 100 and the control device 200, information obtained as a result of information processing in the server 300, information input via the input/output unit of the server 300, and the like.
  • the storage unit 350 can store in advance information about the shooting target field and the geofence.
  • Fig. 8 shows an example of the operational flow up to estimating the court area and flight geofence as the field to be photographed using this system.
  • the user designates the shape of the imaging target field by performing an input operation via the field shape input unit 222 of the control device 200 (S101).
  • the shape of the field to be photographed can be designated by selecting and inputting the shape of the field to be photographed this time from among a plurality of court shape options displayed on the display unit of the control device 200 via the field shape input unit 222.
  • the user places the drone 100 in the imaging target field and designates a measurement point for positioning via the measurement point input unit 223 (S102). For example, by tapping one corner of the soccer court displayed on the screen of the display unit of the control device 200 shown in FIG. 12, the corner can be designated as the measurement point.
  • the user places the drone 100 at the position of the measurement point specified in S102, performs measurement, and estimates the position of the court area, etc. (S103).
  • the drone can perform measurement.
  • the position and orientation of the field area to be flown, and further the position and orientation of the corresponding flight geofence are estimated.
  • the propriety of the measurement by the drone is determined.
  • At least one of the court area and the flight geofence estimated by the system is displayed on the display unit of the control device 200, and the court area and the geofence are confirmed by executing processing for receiving corrections from the user (S104).
  • the court shape information may be obtained based on the image (satellite photograph) received from the satellite 500 on the day or in advance.
  • the satellite photograph may be acquired from an external server or the like via a network.
  • information on the position or orientation on the court is not limited to manual input, and can also be determined based on an image acquired by a camera.
  • information on the orientation and position of the court can be obtained based on the direction in which the end line extends in the image captured by the camera, or the position of the opposite corner included in the image captured by the camera.
  • FIG. 9 shows an example of a series of processing flows relating to court area estimation performed in S103 of FIG.
  • a measurement execution command input by the user via the measurement execution input unit 224 is accepted (S201).
  • the system performs positioning using GPS or the like through communication with the satellite 500, and acquires information on the current position (position coordinates) of the drone 100 (S202).
  • the current heading (direction) of the drone 100 is measured using a geomagnetic sensor or the like.
  • image information is acquired by photographing using the camera 131 as necessary.
  • the position and direction of the court area are estimated based on the court shape specified in S101, the position and direction specified in S102, and the position and direction information measured in S201 (S203). Then, the court area can be set as a shooting target field and stored in the storage unit. It is also possible to set the court area at an appropriate position on the two-dimensional or three-dimensional map data corresponding to the real space.
  • a flight geofence can also be set based on this court area.
  • a flying geofence in the horizontal direction (X-Y plane) is an imaginary boundary line offset outwardly or inwardly by a predetermined distance from a rectangular frame composed of, for example, side lines and end lines of a court area.
  • the flying geofence it is possible to set the flying geofence to coincide with the border of the court area, and to set the offset direction and offset distance from the sidelines and from the endlines, respectively. Further, when the drone shoots the field area while flying over the sideline along the sideline, the flying geofence is set at a position surrounding the sideline.
  • the vertical flight geofence it is possible to set the upper and lower geofences, respectively, based on the vertical (Z-axis) measurement coordinates of the field area.
  • the vertical flight geofence instead of the vertical (Z-axis) measurement coordinates of the field area, it is possible to set the horizontal planes at the preset upper and lower ground altitudes as the upper and lower geofences, respectively, based on the altitude information for each point obtained from the outside.
  • the position and shape of the flying geofence may be automatically determined by server 300 or control device 200 based on court area information and condition information including position and shape information relative to a preset court area.
  • S204 After estimating the court area in S203 above, it is determined whether there is a measurement error (S204). If it is determined in S204 that the coordinates of the court area have been erroneously measured, that is, if an error in the measurement of the court area coordinates is detected (YES in S204), the detection result of the measurement error is displayed on the display unit 210 of the control device 200 (S205), and the operation is restarted from S101. On the other hand, if no coordinate measurement error is detected in S204 (NO in S204), the measured coordinates of the court area are registered as they are as the measurement result (the registered state is maintained).
  • the measurement error determination for example, when measuring positions at multiple points on the court, if the relationship between the measured multiple positions (distance between two points, positional relationship between 3 points and 4 points, etc.) does not match the constraints of the court size (such as exceeding a preset measurement error threshold), it is determined as a measurement error.
  • the relationship between the measured multiple positions does not match the constraints of the court size (such as exceeding a preset measurement error threshold)
  • azimuths are measured at multiple locations, if the relationship between the measured azimuths does not match the direction specified by the user (such as when a preset measurement error threshold is exceeded)
  • it is determined as a measurement error when measuring positions at multiple points on the court, if the relationship between the measured multiple positions (distance between two points, positional relationship between 3 points and 4 points, etc.) does not match the constraints of the court size (such as exceeding a preset measurement error threshold).
  • azimuths are measured at multiple locations, if the relationship between the measured azi
  • the position and orientation on the court estimated from the image acquired by the camera in S202 do not match the position and orientation specified by the user (such as when the positions of lines, goals, and corner flags assumed from the installation position and orientation of the camera do not match the camera image), it can be determined that the measurement is erroneous, and if not, it can be determined that the measurement is correct.
  • FIG. 10 shows an example of the processing performed after the end of FIG. 9, and shows a detailed concrete example of S104 in FIG.
  • the estimated court area is superimposed on the map (including satellite photos) of the display unit (S301).
  • the user can see the position, direction, and shape of the court area superimposed on the map on the display unit, and can confirm whether the actual court area is appropriately set at the correct position on the map.
  • the user can input a re-survey request command via the re-survey necessity input unit 225.
  • a button for requesting resurveying and a button for notifying that resurveying is unnecessary may be displayed on the display unit along with a message for confirming whether or not resurveying is necessary.
  • S303 it is determined whether or not there is a correction input for the estimated court area from the user, and if there is a correction input (YES in S303), the estimated court area is corrected based on the content of the correction input (S304), and then the process proceeds to S305. On the other hand, if there is no input requesting correction (NO in S303), the process proceeds to S305 without performing correction processing.
  • S303 if the court area of the satellite photograph is deviated from the estimated court area, the user can input correction of the field area through the field area correction input section 226. FIG. For example, when the position or orientation of the court area in the satellite photograph and the estimated court area are deviated, the user can input correction of the position or orientation of the field area through the field area correction input section 226 .
  • the flight geofence determined based on the estimated court area information is displayed on the display unit.
  • the user can check the flying geofence area displayed over the court area.
  • an input requesting correction of the geofence is made via the geofence correction input unit 227 .
  • 11 to 15 are diagrams showing an example of the measurement points input by the measurement point input unit 223 when the drone 100 is arranged in a specific direction (one direction) at a specific position (one point) on the court as the field to be photographed, and the position and direction are measured.
  • 11 to 15 show an example of measuring the position and heading by pointing the nose of the drone in one specific direction at one specific position, but it is also possible to measure the position and heading by pointing the nose in multiple directions at the installation position.
  • the position where the drone 100 is arranged is the intersection of one half line and the side line (long side), and the direction of the aircraft is toward the center of the center circle (that is, the center of the court).
  • the orientation of the aircraft can be the same as the orientation of the camera.
  • the server acquires information such as the length of the long side and the short side of the court, the aspect ratio, etc. as the shape of the court from the user's input or communication via the network.
  • the distance from the positioned position to the furthest point on the court becomes smaller.
  • the measurement error can be reduced compared to the case of positioning on the corner side of the court.
  • the user since the user does not need to enter the inside of the court during the measurement, it is possible not to disturb athletes training on the court, for example.
  • FIG. 12 shows another example of measuring one position and one direction at a specific position of the field to be photographed.
  • the position where the drone 100 is arranged is the intersection (one corner point) of the end line (short side) and the side line (long side), and the orientation of the aircraft is along the side line toward the corner on the opposite side.
  • the drone 100 when the drone 100 is arranged in the direction along the long side of the court, it is possible to reduce the directional measurement error compared to directing it in the direction along the short side.
  • the user since the user does not need to enter the inside of the court during the measurement, it is possible not to disturb athletes training on the court, for example.
  • FIG. 13 shows another example of measuring one position and one direction at a specific position of the field to be photographed.
  • the position where the drone 100 is arranged is the intersection (one corner point) of the end line (short side) and the side line (long side), and the direction of the aircraft is the direction facing the corner on the opposite side along the end line.
  • the user does not need to enter the inside of the court during the measurement, so it is possible not to disturb athletes training on the court, for example.
  • FIG. 14 shows another example of measuring one position and one direction at a specific position in the field to be photographed.
  • the position where the drone 100 is arranged is the central point (center) position of the court, and the orientation of the aircraft is along the half line.
  • FIG. 15 shows another example of measuring one position and one direction at a specific position of the field to be photographed.
  • the position where the drone 100 is arranged is the central point (center) position of the court, and the orientation of the aircraft is parallel to the end line.
  • positioning at the center position of the court reduces the distance from the positioned position to the farthest point on the court.
  • the measurement error can be reduced as compared with the case of positioning using the frame line (outer frame) of the court.
  • 16 to 20 are diagrams showing an example of the positions of two specific points in the field to be photographed and the points of measurement by the drone input by the measurement point input unit 223 when measuring the direction at each position as necessary.
  • 16 to 20 show an example of measuring the position and heading by pointing the nose of the drone in one specific direction at each of two specific positions, but it is also possible to measure the position and heading in each installation state by pointing the nose in a plurality of predetermined directions at each installation position.
  • the positions where the drones 100 are arranged are the intersection points (two points) on both sides of the half line and the side line (long side).
  • the orientation of the fuselage may be any orientation, but in the illustrated example, it is directed to the intersection on the opposite side along the half line.
  • the position accuracy can be increased compared to performing position measurement at only one point. Also, since the distance between the two points this time corresponds to the coat width, the coat width error is reduced in the set coat area.
  • the length and orientation of the half line are specified, and the end lines on both sides are parallel to the half line and have the same length. Therefore, if there is information on the length of the long side of the court or the aspect ratio of the court as shape information of the court, the court area can be estimated.
  • the direction of the aircraft is measured at one or both of the two points where the drone 100 is arranged and positioned, the accuracy can be further improved by using the direction information.
  • the user since the user does not need to enter the inside of the court during the measurement, it is possible not to disturb athletes training on the court, for example.
  • FIG. 17 shows the positions of two specific points in the imaging target field and another example of measuring the direction at each position.
  • the position where the drone 100 is arranged is the intersection (1 point) of the half line and the side line, and the intersection (1 point) of the side line and the end line on the opposite side.
  • the glider shall be oriented along the half line or side line.
  • the court area can be estimated based on the position information and direction information of each of the two points, and the length of the long side of the court or the aspect ratio information as the shape information of the court.
  • the position accuracy can be increased compared to performing position measurement at only one point.
  • the user since the user does not need to enter the inside of the court during the measurement, it is possible not to disturb athletes training on the court, for example.
  • the court area can be estimated without measuring the direction at two points, but it is preferable to measure the direction from the viewpoint of improving accuracy.
  • FIG. 18 shows the positions of two specific points in the imaging target field and another example of measuring the direction at each position.
  • the positions where the drones 100 are arranged are the intersections (two points) of the end line and the side line on the same side. In other words, two points at both ends of one side line.
  • the heading of the fuselage is along the end line toward the opposite corner.
  • the court area can be estimated based on the position information and direction information of each of the two points, and the length of the long side of the court or the aspect ratio information as the shape information of the court.
  • the position accuracy can be increased compared to performing position measurement at only one point.
  • the user since the user does not need to enter the inside of the court during the measurement, it is possible not to disturb athletes training on the court, for example.
  • the court area can be estimated without measuring the direction at two points, but it is preferable to measure the direction from the viewpoint of improving accuracy.
  • FIG. 19 shows another example of two specific positions of the field to be photographed and the direction measurement at each position.
  • the positions where the drones 100 are arranged are the intersections (two points) of the end line and the side line on one goal side. In other words, two points at both ends of one end line. At each point, the heading of the aircraft is along the sideline toward the opposite corner.
  • the court area can be estimated based on the position information and direction information of each of the two points, and the length of the long side of the court or the aspect ratio information as the shape information of the court.
  • the position accuracy can be increased compared to performing position measurement at only one point.
  • the user since the user does not need to enter the inside of the court during the measurement, it is possible not to disturb athletes training on the court, for example.
  • the court area can be estimated without measuring the direction at two points, but it is preferable to measure the direction from the viewpoint of improving accuracy.
  • FIG. 20 shows the positions of two specific points in the imaging target field and another example of measuring the direction at each position.
  • the positions where the drones 100 are arranged are two corners located diagonally on the court.
  • the orientation of the fuselage, at each point, is along the sideline or the endline.
  • one corner faces the opposite corner along the side line
  • the other corner faces the opposite corner along the end line.
  • the court area can be estimated based on the position information and direction information of each of the two points, and the length of the long side of the court or the aspect ratio information as the shape information of the court.
  • the position accuracy can be increased compared to performing position measurement at only one point.
  • the user since the user does not need to enter the inside of the court during the measurement, it is possible not to disturb athletes training on the court, for example.
  • the court area can be estimated without measuring the direction at two points, but it is preferable to measure the direction from the viewpoint of improving accuracy.
  • 21 to 23 are diagrams showing an example of the measurement points by the drone input by the measurement point input unit 223 when measuring the positions at three specific points in the imaging target field.
  • the positions where the drones 100 are arranged are three corners (three points) on the court.
  • the orientation of the fuselage in this example is along the sideline at each point in the opposite corner facing direction.
  • the court area can be estimated based on the position information of each of the three points, so the orientation of the aircraft can be arbitrary.
  • the positional accuracy of the court area can be improved more than when position measurement is performed at one or two points.
  • the court area can be estimated without measuring the direction at three points, but it is preferable to measure the direction from the viewpoint of improving accuracy.
  • the court area can be estimated without the court shape information, it is preferable to estimate the court area using the court shape information from the viewpoint of improving accuracy.
  • FIG. 22 shows another example of position measurement at three specific points in the field to be photographed.
  • the positions where the drones 100 are arranged are two corners (two points) on the same goal side and the intersection (one point) of the half line and one side line.
  • the aircraft is oriented along the side line at the two corner points, and along the half line at the intersection of the half lines.
  • the court area can be estimated based on the position information of each of the three points, so the orientation of the aircraft can be arbitrary.
  • the positional accuracy of the court area can be improved more than when position measurement is performed at one or two points.
  • the court area can be estimated without measuring the direction at three points, but it is preferable to measure the direction from the viewpoint of improving accuracy.
  • the court area can be estimated without the court shape information, it is preferable to estimate the court area using the court shape information from the viewpoint of improving accuracy.
  • FIG. 23 shows another example of position measurement at three specific points in the field to be photographed.
  • the positions where the drones 100 are arranged are one corner (2 points) and the intersections (2 points) of the half line and the side lines on both sides.
  • the aircraft is oriented along the side line at the first corner, and along the half line at the intersection of the half lines.
  • the court area can be estimated based on the position information of each of the three points, so the orientation of the aircraft can be arbitrary.
  • the positional accuracy of the court area can be improved more than when position measurement is performed at one or two points.
  • the court area can be estimated without measuring the direction at three points, but it is preferable to measure the direction from the viewpoint of improving accuracy.
  • the court area can be estimated without the court shape information, it is preferable to estimate the court area using the court shape information from the viewpoint of improving accuracy.
  • the determination method as one embodiment of the present invention is characterized by determining the field to be captured or the flight geofence corresponding thereto based on a plurality of pieces of positional information acquired by positioning a drone placed at a predetermined position in the field to be captured and field shape information set in advance.
  • the number of times of positioning can be reduced compared to the case of measurement without using the field shape information.
  • a determination method as an embodiment of the present invention is characterized by determining a field to be captured or a flying geofence corresponding thereto based on position information and direction information obtained by positioning and azimuth measurement of a drone placed at a predetermined position in a field to be captured in a predetermined orientation, and field shape information set in advance.
  • position information and direction information obtained by positioning and azimuth measurement of a drone placed at a predetermined position in a field to be captured in a predetermined orientation, and field shape information set in advance.
  • the determination method as an embodiment of the present invention may determine a field to be photographed or a flying geofence corresponding thereto based on a plurality of pieces of position information and direction information obtained by arranging them at a plurality of predetermined positions and the field shape information. In this case, the accuracy of determination can be improved compared to the case where the position and direction are measured only at one place.
  • the determination method as an embodiment of the present invention may determine a shooting target field or a flying geofence corresponding thereto based on one piece of position information obtained by arranging the drone at one predetermined position, a plurality of direction information obtained by arranging the drone at one predetermined position in a plurality of orientations, and the field shape information.
  • the accuracy of determination can be improved as compared with the case of performing direction measurement in only one direction.
  • the field to be photographed or the flying geofence corresponding thereto may be determined based on a plurality of positional information and a plurality of direction information obtained by positioning the drones at a plurality of predetermined positions in predetermined orientations, and the field shape information. In this case, it is possible to improve the accuracy of determination compared to the case where there is only one position information or direction information.
  • the flight geofence when the drone flies inside the set flight geofence and the obstacle detection unit detects an obstacle, the flight geofence may be corrected based on the detected information. In this case, it is possible to form the flying geofence in consideration of the obstacles, so it is possible to improve the accuracy of the flying geofence.
  • wind speed information may be acquired from an external system or a drone, and if the wind speed is equal to or higher than a predetermined value, the flight geofence in the height direction may be changed to be lower. In this case, it is possible to form a flight geofence based on the wind speed, so safety can be enhanced.
  • the geofence in the height direction may be changed to be higher when the reception condition of satellite signals received from satellites in the drone or base station is worse than a predetermined value set in advance.
  • the drone's flight altitude can be increased, so the number of satellites that can be communicated with increases, and the satellite signal reception can be improved.
  • the flight geofence may be changed when it overlaps with the flight area of another drone.
  • a flight geofence can be formed based on the flight areas of other drones, so collisions with other drones can be prevented, and safety can be improved.
  • erroneous registration of the position information of the set field to be photographed may be detected based on the position information of other positions in the field to be photographed.
  • a flight geofence can be formed based on the flight areas of other drones, so collisions with other drones can be prevented, and safety can be improved.
  • erroneous registration of the position information of the set field to be photographed may be detected based on the position information of other positions in the field to be photographed and the field shape information.
  • erroneous registration of position information can be easily determined, and the accuracy of field area determination for imaging can be improved.
  • the erroneous registration when the erroneous registration is detected, information regarding the detected erroneous registration may be notified to the user. In this case, the user can easily recognize the erroneous registration and reset the correct imaging target field.
  • An embodiment of the present invention is characterized in that at least one of the imaging target field and the flying geofence set using the above determination method is displayed on the display unit of the control device. According to this, it is possible to easily control the drone while viewing at least one of the imaging target field and the flying geofence.
  • the field to be photographed or the flying geofence displayed on the display unit may be corrected according to user input. According to this, it is possible to modify the shooting target field or flying geofence at the user's will.
  • the technical scope of the present disclosure is not limited to such examples.
  • an example of aerial photography of a sports court by a drone has been described as an example of a moving object, but the application of the present invention is not limited to drones, and can be applied to a camera system that can move above a court fixed with wires, for example.
  • the target field for area setting may be a target field for work such as lawn mowing, other than the field for aerial photography. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can conceive of various modifications or modifications within the scope of the technical idea described in the claims, and these are also naturally understood to belong to the technical scope of the present disclosure.
  • the device described in this specification may be realized as a single device, or may be realized by multiple devices (for example, cloud servers, drones, control devices), etc., all or part of which are connected by a network.
  • each function unit field shape command unit, measurement point designation unit, measurement result confirmation unit, area estimation unit, measurement propriety determination unit, estimated area display unit
  • storage unit of server 300 may be realized by being implemented in different servers, drones, and control devices that are connected to each other via a network.
  • a series of processes by the device described in this specification may be implemented using software, hardware, or a combination of software and hardware. It is possible to prepare a computer program for realizing each function of the server 300 according to the present embodiment and to implement it in a PC or the like.
  • a computer-readable recording medium storing such a computer program can also be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed, for example, via a network without using a recording medium.
  • the area setting system is characterized by setting the target field or a geofence corresponding thereto based on a plurality of pieces of position information obtained by positioning the mobile body or surveying instrument at a plurality of predetermined positions in the target field and field shape information set in advance.
  • (Item 2) An area setting system for setting a target field for photographing or working with a mobile object or a geofence corresponding thereto, A server directly or indirectly connected to the mobile object for communication, The area registration system is characterized by setting the target field or a geofence corresponding to the target field or a geofence based on position information and direction information respectively obtained by positioning and azimuth measurement of the mobile body or surveying instrument placed at a predetermined position in the target field in a predetermined orientation, and field shape information set in advance. (Item 3) Item 2.
  • the area setting system according to item 2 wherein a target field or a geofence corresponding thereto is set based on a plurality of position information and direction information obtained by arranging the moving body at a plurality of predetermined positions and the field shape information.
  • a target field or a geofence corresponding thereto is set based on the one piece of position information obtained by arranging the moving body at one predetermined position, a plurality of direction information obtained by arranging the mobile object at the one predetermined position in a plurality of orientations, and the field shape information.
  • (Item 5) The area setting system according to any one of items 2 to 4, wherein a target field or a geofence corresponding thereto is estimated based on a plurality of positional information and a plurality of directional information obtained by positioning the mobile object at a plurality of predetermined positions in a plurality of predetermined orientations, and the field shape information.
  • the mobile object is a drone, 6.
  • the area setting system according to item 6 wherein when the drone flies inside the set flight geofence and an obstacle is detected by an obstacle detection unit, the flight geofence is corrected based on the detected information.
  • (Item 8) 8. The area setting system according to item 6 or 7, wherein the flying geofence in the height direction is changed to be lower when the wind speed is equal to or higher than a predetermined value.
  • (Item 9) 9. The area setting system according to any one of items 6 to 8, wherein the geofence in the height direction is increased when the reception condition of the satellite signal received from the satellite is worse than a predetermined value.
  • (Item 10) 10. The area setting system according to any one of items 6 to 9, wherein the flight geofence is changed when overlapping with another drone's flight area.
  • (Item 15) 13 The area setting system according to item 12, wherein at least one of the target field and the flying geofence displayed on the display unit is modified according to a user's input.
  • (Item 16) An area setting method for setting a target field for photographing or working with a mobile object or a geofence corresponding thereto, setting the field shape; a step of arranging the mobile body or the surveying instrument at a plurality of predetermined positions in the target field and acquiring a plurality of pieces of position information by positioning the mobile body or the surveying instrument; setting the target field or a geofence corresponding thereto based on the field shape information and the plurality of acquired position information;
  • An area setting method comprising: (Item 17) An area setting method for setting a target field for photographing or working with a mobile object or a geofence corresponding thereto, setting the field shape; a step of arranging the mobile body or the surveying instrument at a predetermined position in the target field in a predetermined orientation and acquiring position information and

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】簡易に撮影対象となるフィールド又はこれに対応する飛行ジオフェンスを判定することができるエリア設定システム、及びエリア設定方法を提供する。 【解決手段】本開示によるエリア設定システムは、ドローンによる撮影を行う撮影対象フィールド又はこれに対応する飛行ジオフェンスを設定するエリア設定システムであって、位置情報を測定する測定部を備えるドローンと、ユーザの入力を受け付ける入力部を備える操縦装置と、前記ドローン及び操縦装置と直接又は間接的に通信接続されるサーバとを備え、前記エリア登録システムは、前記ドローンを前記撮影対象フィールドの複数の所定位置に配置して前記測定部により取得した複数の位置情報と、予め設定されるフィールド形状情報と、に基づいて、前記撮影対象フィールド又はこれに対応する飛行ジオフェンスを設定することを特徴とする。

Description

エリア設定システム、及びエリア設定方法
 本開示は、エリア設定システム、及びエリア設定方法に関する。
 従来、無人航空機やドローンに関して、例えば特許文献1には、測量機等により予め飛行エリアの端点の位置座標を測量することにより、飛行エリアを定義することが開示されている。
国際公開第2021/166175号公報
 しかしながら、例えばスポーツのコートエリア等をドローンなどの移動体を利用して撮影又は他の作業を行うために、撮影又は作業の対象フィールドを認識しようとする場合、利用するコートエリアはその都度変更される可能性がある。そのため、コートのすべての端点を毎回測量する作業には手間がかかる。
 そこで、本開示は上記問題点に鑑みてなされたものであり、その目的は、より簡易に撮影又は作業の対象となるフィールド又はこれに対応するジオフェンスを設定することができるエリア設定システム、及びエリア設定方法を提供することである。
 本開示によれば、移動体による撮影又は作業を行う対象フィールド又はこれに対応するジオフェンスを設定するエリア設定システムであって、移動体と直接又は間接的に通信接続されるサーバとを備え、エリア設定システムは、移動体又は測量機を対象フィールドの複数の所定位置に配置して移動体又は測量機の位置測位により取得した複数の位置情報と、予め設定されるフィールド形状情報と、に基づいて、対象フィールド又はこれに対応するジオフェンスを設定することを特徴とする、エリア設定システムが提供される。あるいは、本発明によれば、移動体による撮影又は作業を行う対象フィールド又はこれに対応するジオフェンスを設定するエリア設定システムであって、移動体と直接又は間接的に通信接続されるサーバとを備え、エリア登録システムは、移動体又は測量機を前記対象フィールドの所定位置に所定向きで配置して移動体又は測量機の位置測位及び方位測定によりそれぞれ取得した位置情報及び方向情報と、予め設定されるフィールド形状情報と、に基づいて、対象フィールド又はこれに対応するジオフェンスを設定することを特徴とする、エリア設定システムが提供される。
 また、本開示によれば、移動体による撮影又は作業を行う対象フィールド又はこれに対応するジオフェンスを設定するエリア設定方法であって、フィールド形状を設定するステップと、移動体又は測量機を対象フィールドの複数の所定位置に配置して移動体又は測量機の位置測位により複数の位置情報を取得するステップと、フィールド形状情報と、取得した複数の位置情報とに基づいて、対象フィールド又はこれに対応するジオフェンスを設定するステップと、を備えることを特徴とする、エリア設定方法が提供される。あるいは、本発明によれば、移動体による撮影又は作業を行う対象フィールド又はこれに対応するジオフェンスを設定するエリア設定方法であって、フィールド形状を設定するステップと、移動体又は測量機を対象フィールドの所定位置に所定向きで配置して前記移動体又は測量機の位置測位及び方位測位により位置情報及び方向情報を取得するステップと、フィールド形状情報と、取得した位置情報及び方向情報とに基づいて、対象フィールド又はこれに対応するジオフェンスを設定するステップと、を備えることを特徴とする、エリア設定方法が提供される。
 本開示によれば、より簡易に撮影又は作業の対象となるフィールド又はこれに対応するジオフェンスを設定することができるエリア設定システム、及びエリア設定方法を提供することができる。
本開示の一実施形態に係るシステムの構成例を示す図である。 本開示の一実施形態に係るシステムの他の構成例を示す図である。 本開示の一実施形態に係るシステムの他の構成例を示す図である。 本開示の一実施形態に係るシステムの他の構成例を示す図である。 本開示の一実施形態に係るドローンの機能ブロックを示す図である。 本開示の一実施形態に係る操縦装置の機能ブロックを示す図である。 本開示の一実施形態に係るサーバの機能ブロックを示す図である。 本開示の一実施形態に係るシステムの動作フローを示すフローチャート図である。 本開示の一実施形態に係るシステムの設置位置適否の判定フローを示すフローチャート図である。 本開示の一実施形態に係るシステムのコートエリア等を表示する動作フローを示すフローチャート図である。 本開示の一実施形態に係るコートエリアを推定する際のドローン配置位置及び向きの一例を示す図である。 本開示の一実施形態に係るコートエリアを推定する際のドローン配置位置及び向きの他の一例を示す図である。 本開示の一実施形態に係るコートエリアを推定する際のドローン配置位置及び向きの他の一例を示す図である。 本開示の一実施形態に係るコートエリアを推定する際のドローン配置位置及び向きの他の一例を示す図である。 本開示の一実施形態に係るコートエリアを推定する際のドローン配置位置及び向きの他の一例を示す図である。 本開示の一実施形態に係るコートエリアを推定する際の2カ所のドローン配置位置及び向きの一例を示す図である。 本開示の一実施形態に係るコートエリアを推定する際の2カ所のドローン配置位置及び向きの他の一例を示す図である。 本開示の一実施形態に係るコートエリアを推定する際の2カ所のドローン配置位置及び向きの他の一例を示す図である。 本開示の一実施形態に係るコートエリアを推定する際の2カ所のドローン配置位置及び向きの他の一例を示す図である。 本開示の一実施形態に係るコートエリアを推定する際の2カ所のドローン配置位置及び向きの他の一例を示す図である。 本開示の一実施形態に係るコートエリアを推定する際の3カ所のドローン配置位置及び向きの一例を示す図である。 本開示の一実施形態に係るコートエリアを推定する際の3カ所のドローン配置位置及び向きの他の一例を示す図である。 本開示の一実施形態に係るコートエリアを推定する際の3カ所のドローン配置位置及び向きの他の一例を示す図である。 本開示の一実施形態に係る表示部で表示されるフィールドエリアと飛行ジオフェンスの表示例を示す図である。 本開示の一実施形態に係る表示部で表示されるフィールドエリアと飛行ジオフェンスの他の表示例を示す図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。また、以下に示す実施の形態は、一例を表すにすぎず、その用途、目的又は規模等に応じて、他の既知の要素や代替手段を採用できる。
 図1は、本発明の一実施形態としての移動体の一例としてドローンを用いたシステム1の全体構成の概要を示す。システム1は、撮影機能を有するドローン100と、操縦者がドローン100を操作するための操縦装置200と、インターネット回線等のネットワーク400を介して操縦装置200に接続されるサーバ300(例えばクラウドサーバ)と、を備えることができる。ドローン100は衛星500から衛星信号を受信することが可能であり、受信した衛星信号に基づいて、GNSSを用いて自機の位置などを推定することができる。また、RTK(Real Time Kinematic)などの相対測位に用いる固定局の基準点の情報を提供する基地局600を更に備え、基地局がドローン及び操縦装置と無線通信可能に接続されることで、ドローンの位置をより高い精度で計測することが可能となる。ここで、VRS(Virtual Reference Station)による仮想基準点方式を用いたRTK計測を行う場合には、基地局600を省略、もしくは、基地局やドローンの位置座標推定の精度をさらに向上することができる。
 ここで、操縦装置200は、ドローンやサーバから取得したドローンのステータス情報などを操縦者に表示する表示部210と、操縦者がドローンを操縦する際に飛行方向や離陸/着陸などの動作指令を入力する入力部220と、を備えており、表示部210と入力部220は、互いに有線又は無線で通信可能に接続されている。また、表示部210と入力部220の少なくともいずれかは、Wi-Fi、2.4GH、5.6~5.8GHの周波数帯域を用いた無線通信によりドローンと無線通信を行う通信機能を備えている。更に、表示部210と入力部220の少なくともいずれかは、LTE(Long Term Evolution)などの通信規格を利用してインターネット回線を介してサーバと通信を行うことができる無線通信機能を備えている。図1に示す構成例では、ドローンは操縦装置200を介してサーバと通信を行うため、ドローンと操縦装置が直接無線通信を行うことが可能な距離に存在する場合(例えば、操縦者による有視界飛行など)に適したシステム構成であるが、これに限られない。
 図2~図4は、本システムの全体構成の変形例である。図2は、本システムの全体構成の変形例である。図2に示すシステム2の例では、インターネット回線等のネットワーク400を介して、ドローンと操縦装置とサーバと基地局とがそれぞれ相互に通信可能に接続されている。ここで、図1に示す構成例とは異なり、ドローンは操縦装置を介さずにLTEなどの通信方法によって直接インターネット回線400と無線通信を行うため、ドローンと操縦装置及び基地局は、直接無線通信を行う必要がなく、遠隔地においてそれぞれインターネット回線に接続できれば良い。そのため、ドローンと操縦装置が遠隔地に存在する場合(例えば、操縦者が遠隔操作を行う場合など)に適したシステム構成であるが、これに限られない。
 次に、図3に示すシステム3の例では、インターネット回線等のネットワーク400を介して、ドローンと操縦装置と基地局とサーバとがそれぞれ相互に通信可能に接続され、かつドローン及び基地局は衛星500を介した衛星通信によりインターネット回線と通信接続される例を示している。また、図4に示すシステム4の例では、1台のドローンに対して、複数のサーバが複数のインターネット回線を介して接続されるシステム冗長化の例を示している。この場合、サーバ、又はインターネット回線に異常が生じた場合であっても、冗長化された他のサーバやインターネット回線によりシステムの動作を継続することができるため、システムの信頼性を向上させることができる。なお、図3,4においても、ドローンと操縦装置は遠隔地にあっても操縦可能であるため、遠隔操作に適した構成ではあるが、これに限られず、操縦者がドローンを見ながら手動制御する有視界飛行にも適用可能である。
 <ドローンの構成>
 本願明細書において、ドローンとは、動力手段(電力、原動機等)、操縦方式(無線であるか有線であるか、および、完全自律飛行型であるか部分手動操縦型であるか等)を問わず、また及び有人か無人かを問わず、複数の回転翼を有し、自律的に姿勢制御を行う機能を有する飛行体全般を指すこととする。またドローンは、無人航空機(Unmanned aerial vehicle:UAV)、飛行体、マルチコプター(Multi Copter)、RPAS(remote piloted aircraft systems)、又はUAS(Unmanned Aircraft Systems)等と称呼されることがある。また、本願明細書において、ジオフェンスとは、仮想的な境界線を示すものであり、特に、ドローンなどの移動体が飛行又は移動が許可される飛行許可エリアと飛行禁止エリアの境界線のフェンスを示すものとする。そのため、ドローンなどの移動体がジオフェンスに接触した場合には、飛行許可エリアの外側に機体が飛び出さないように飛行又は移動が制限される。
 図5に示すように、本例のドローン100は、測定部110、飛行機能部120、画像取得部130を備える。なお、図示例の機能ブロックは参考構成であり、適宜変更が可能である。ドローン100は情報処理を実行するためのCPU(Central Processing Unit)などの演算装置、RAM(Random Access Memory)やROM(Read Only Memory)などの記憶装置を備える。
 測定部110は、機体の位置(絶対位置)を測定するための位置測定部111と、機体の向き(ヘディング方向)を測定するための方位測定部112を備える。位置測定部は、特に限定されないが、例えば、GNSS(Global Navigation Satellite System)、GPS(Global Positioning System)等を用いて、現時点での自己位置を測定する。自己位置の測定方法として、例えば、RTK-GNSS(Real Time Kinematic - Global Navigation Satellite System)を用いることもできる。位置情報は、少なくとも平面視での2次元での座標情報(例えば緯度、経度)を含み、好ましくは高度情報を含む3次元での座標情報を含む。位置測定部は、GPS衛星等の衛星からの信号を受信し、それに基づいて測位(位置の特定)を行う。方位測定部は、例えば地磁気の測定によりドローンの機体の機首方位(ヘディング方向)を測定する地磁気センサ、あるいはコンパス、GNSSコンパス等で構成される。なお、測定部は他にも、温度、気圧、風速、加速度、角速度、速度(GNSSドップラー、GPSドップラーなど)等の情報を取得する種々のセンサ(IMU、6軸GYRO)等を含んでもよい。
 飛行機能部120は、浮上し、所望の方向に移動するための推力を機体に発生させるための推力発生部121と、離陸から飛行中、着陸までの機体の姿勢角制御及び飛行動作を制御するための飛行制御部122とを備える。
 推力発生部は、回転翼と、回転翼を回転させる動力源となるモータ及びバッテリー、あるいはエンジン等を備える。また、回転翼には、障害物に対するプロペラの干渉を防ぐためのプロペラガードを設けてもよい。推力発生部を構成する回転翼の数は特に限定されないが、例えば1機、2機、4機、6機、8機の回転翼を備えることができる。回転翼は単独のプロペラで構成されていてもよいし、同軸配置された複数のプロペラで構成されていてもよい。各プロペラの羽根(ブレード)枚数、形状は特に限定されない。
 飛行制御部は、フライトコントローラとも呼ばれる処理ユニットを有する。処理ユニットは、プログラマブルプロセッサ(例えば、中央処理ユニット(CPU)、MPU又はDSP)などの1つ以上のプロセッサを有することができる。処理ユニットは、メモリ(記憶部)にアクセス可能である。メモリは、1つ以上のステップを行うために処理ユニットが実行可能であるロジック、コード、および/またはプログラム命令を記憶している。メモリは、例えば、SDカードやランダムアクセスメモリ(RAM)などの分離可能な媒体または外部の記憶装置を含んでいてもよい。カメラやセンサ類から取得した各種データは、メモリに直接に伝達されかつ記憶されてもよい。例えば、カメラ131で撮影した静止画または動画のデータを内蔵メモリ又は外部メモリに記録することができる。
 処理ユニットは、ドローン100の機体の状態を制御するように構成された制御モジュールを含んでいる。例えば、制御モジュールは、6自由度(並進運動x、y及びz、並びに回転運動θ、θ及びθ)を有するドローン100の空間的配置、姿勢角角度、角速度、角加速度、角躍度速度、および/または加速度を調整するためにドローン100の推力発生部を制御する。制御モジュールは、カメラ保持部、センサ類のうちの1つ以上を制御することができる。飛行制御部は、操縦装置200からの操縦信号に基づいて、あるいは予め設定された自律飛行プログラムに基づいて、ドローン100の飛行を制御することができる。また飛行制御部は、撮影対象フィールドエリア、これに対応する飛行ジオフェンスの情報、2次元又は3次元の地図データを含む地図情報、ドローン100の現在の位置情報、姿勢情報(機首方位情報)、速度情報、及び加速度情報等の各種情報及びこれらの任意の組み合わせに基づいて推力発生部を制御することにより、ドローン100の飛行を制御することができる。
 画像取得部130は、カメラ131(撮像装置)と、カメラ保持部132とを備える。カメラ131は、静止画及び動画の少なくとも何れかを取得し、(更に、必要に応じてマイクにより音声を取得し)ドローン100自体の記憶部、操縦装置200、サーバ300等にデータを送信することができる。カメラ保持部132は、カメラ131を機体に保持する。カメラ保持部132は、機体に対するカメラ131の位置及び姿勢(向き)の少なくとも何れかを変更可能なものであってもよいし、そうでなくてもよい。カメラ保持部132は、機体の揺れ、振動がカメラ131に伝わるのを抑制する機構を有していてもよい。
 <操縦装置の構成>
 操縦装置200は、例えば図6に示すように、表示部210及び入力部220を備える。また操縦装置200は、情報処理を実行するためのCPU(Central Processing Unit)などの演算装置、RAM(Random Access Memory)やROM(Read Only Memory)などの記憶装置を備える。
 表示部210は、操縦装置に一体に組み込まれたタッチパネルまたは液晶モニタ等で構成されていてもよいし、操縦装置に有線接続又は無線接続された液晶モニタ、タブレット端末、スマートフォン等の表示装置で構成されていてもよい。表示部は、撮影対象フィールドエリア、これに対応する飛行ジオフェンス、地図情報、ドローン100の現在の位置情報、姿勢情報(方向情報)、速度情報、及び加速度情報、ドローンのバッテリ残量、撮影対象フィールドエリアを測量する際のドローンの設置位置等の各種情報に関する画像を表示することができる。
 入力部220は、操縦者等のユーザによる各種の入力、あるいは、ドローン100もしくはサーバ300から送信される信号に基づく入力を受け付ける。本例の入力部220は、操縦入力部221、フィールド形状入力部222、測定地点入力部223、測定実行入力部224、再測定要否入力部225、フィールドエリア修正入力部226、及びジオフェンス修正入力部227を備える。
 操縦入力部221は、離陸、着陸、上昇、下降、旋回、前進、後退、左右の移動等を含めた3次元のドローン100の飛行動作を指示する入力操作を受け付ける。操縦入力部221は、前後左右等に倒して操作する操縦スティック、上下左右に位置する押しボタン(十字キーボタン等を含む)、または、回転式のダイヤル、タッチパネル等で構成されるが、特に限定されるものではない。操縦入力部221は、自動的な離陸、着陸を指示する離陸ボタン、着陸ボタンを有していてもよいし、所定の位置まで自動的に飛行してその位置でホバリングするように指示する飛行開始ボタン、スタートした位置まで戻る帰還動作を行うホームボタン、飛行モード切替を行うモード切替ボタン、緊急時にプロペラを停止させる緊急停止ボタン、緊急時にその場に軟着陸させる緊急着陸ボタン、緊急時にその場でホバリングさせて空中静止させるホバリングボタン等を有していてもよい。
 フィールド形状入力部222は、例えばスポーツのコートエリア等の撮影対象フィールドの形状情報を受け付ける。フィールド形状入力部222は、例えば、操縦装置200のタッチパネル等から入力されるフィールドの形状情報、または、ドローン100もしくはサーバ300から送信されるフィールドの形状情報を受け付けることができる。撮影対象フィールドの形状は、長方形、正方形、他の多角形、円形、楕円形等、特に限定されない。フィールドの形状情報は、フィールドの外形(外枠)の形状と、フィールドの内外に設けられる各種の線(ハーフライン、ペナルティーライン等)、点(中心点、ペナルティーキックの位置となる点等)の位置、形状の情報を含み得る。フィールドの形状情報は、例えば撮影対象フィールドがサッカーコートである場合、長方形のフィールドの4辺(エンドライン(ゴールライン)、サイドライン(タッチライン))の長さ、交差角度、縦横比、ハーフライン(センターライン)の位置、センターサークルの半径、中心点(センタースポット)の位置、ペナルティーエリアの位置、サイドラインとハーフラインの交点の位置、サッカーゴールの位置、大きさ等の2次元形状、あるいは3次元形状に関する情報を含んでもよい。なお、サッカーコートは、公式規格、国際基準の規格、W杯やオリンピックでの規格等によって規格化されており、予め形状、サイズが規定されている。当該規格化されたコート形状、及び練習場用などの独自のサイズ、および縦横比のコート形状(縦横比が一定でサイズが異なる形状、縦又は横の長さが独自の長さとなっているコート形状などを含む)は、複数のパターンに分けられてサーバ300等の記憶部に予め記憶することができる。
 測定地点入力部223は、ドローンの測定部を用いて撮影対象フィールドを測定する前に、フィールドに設置するドローンの位置と向きをユーザが予め指定するための入力部である。例えば、表示部210に表示されたフィールド上に、設置するドローンの位置と向きを指定入力する。
 測定実行入力部224は、ユーザが指定した測定位置と機首方位に従ってフィールド上にドローンが設置された状態で、ドローンの測定部を用いて撮影対象フィールドの測定を実行する際にユーザが測定指示を入力することができる。ここで、測定位置が1地点の場合は測定位置と機首方位の両方の指定が必要だが、測定位置が2地点以上の場合は位置のみで機首方位の情報が無くてもよい。測定実行入力部224により測定指示が入力されると、ドローンの測定部により、ドローンの位置と機首方位が測定され、測定結果がサーバに送信される。ここで、本実施形態では、ドローンの測定部を用いて、フィールドの所定位置の位置座標を取得する例を示しているが、ドローンに替えて、測定部と同様の位置測位(及び方位測位)の機能を有する測量機を用いて、ユーザが指定した測定位置と向きに従ってフィールド上に当該測量機が設置された状態で、測量機による測定を実施するようにしても良い。
 再測定要否入力部225は、例えば、一度登録された撮影対象フィールドの位置、向きが誤っていると判明した場合等において、再度測定する必要があるか否かの入力を受け付ける。再測定要否入力部225は、操縦者等のユーザの入力によって再測定要否に関する入力を受け付けてもよいし、ドローン100またはサーバ300から送信される信号によって当該入力を受け付けてもよい。
 フィールドエリア修正入力部226は、一度登録された撮影対象フィールドの形状、位置、向き等を修正する際に、修正内容に関する入力を受け付ける。フィールドエリア修正入力部226は、操縦者等のユーザの入力によって修正内容に関する入力を受け付けてもよいし、ドローン100またはサーバ300から送信される信号によって当該入力を受け付けてもよい。操縦者等のユーザがフィールドエリア修正入力部226によって推定された撮影対象フィールドの修正を受け付ける一例として、ドローンによるフィールド測定の結果として推定されたフィールドエリアの位置、形状及び向きが、操縦装置200の表示部210に周辺マップ情報とともに表示され、操縦者等のユーザは、表示されたフィールドエリアを確認して、必要に応じて、フィールドエリア修正入力部226によりフィールドエリアの位置、形状、向きの少なくともいずれかを修正することができる。
 ジオフェンス修正入力部227は、一度登録されたジオフェンスの形状、位置、向き等を修正する際に、修正内容に関する入力を受け付ける。ジオフェンス修正入力部227は、操縦者等のユーザの入力によって修正内容に関する入力を受け付けてもよいし、ドローン100またはサーバ300から送信される信号によって当該入力を受け付けてもよい。図24は、操縦者等のユーザがジオフェンス修正入力部227によって登録したジオフェンスの修正を受け付ける際の表示部に表示される一例を示す。この例では、登録されたジオフェンスの形状、位置向きが、操縦装置200の表示部210にフィールドエリア(及び周辺マップ)と共に表示され、ユーザは表示されたジオフェンス(点線)とフィールドエリア(実線)との関係を確認して、必要時応じて、ジオフェンス修正入力部227によりジオフェンスの位置、形状、向きの少なくともいずれかを修正することができる。例えば、図24に示すように、フィールド右側の直ぐ外側に建物などの障害物がある場合には、風に煽られた際にドローンが建物と接触することを防止するために、右側のジオフェンスをフィールドエリアの外縁よりも内側(左側)に修正することができる。また、右側のジオフェンスを障害物を避けた形に変形させてフィールドエリアの外縁よりも外側に広げる修正を行うこともできる。あるいは、必要に応じて上下左右の一部又は全部の辺のジオフェンス位置をフィールドの外側に広げる修正、上下左右の一部又は全部の辺のジオフェンス位置をフィールドの内側に狭める修正を行うことも可能である。
 フィールドエリアを撮影するドローンは、フィールドエリアの上空を飛行する場合以外にも、フィールドエリアのサイドラインに沿ってサイドラインの上空を飛行しながらフィールドエリアを撮影することも考えられる。そのため、図25は、ドローンがサイドラインに沿ってサイドライン上空を飛行する場合の飛行ジオフェンスとフィールドエリアの関係、及び飛行ジオフェンスの修正例を示している。この例でも図24と同様に、登録されたジオフェンスの形状、位置向きが、操縦装置200の表示部210にフィールドエリア(及び周辺マップ)と共に表示され、ユーザは表示されたジオフェンス(点線)とフィールドエリア(実線)との関係を確認して、必要時応じて、ジオフェンス修正入力部227によりジオフェンスの位置、形状、向きの少なくともいずれかを修正することができる。例えば、飛行ジオフェンスは、推定されたフィールドエリアのサイドラインに沿った位置に、サイドラインを囲う位置に設定されることができる。あるいは、サイドラインに替えて、ゴールラインに沿った位置に設定することもできる。また図25に示すように、ジオフェンスの修正は、上下左右の一部又は全部の辺のジオフェンス位置を外側に広げる修正、あるいは狭める修正が可能であり、またジオフェンスの位置を逆側のサイドラインに沿った位置に移動させる修正も可能である。
 <サーバの構成>
 サーバ300は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。サーバ300は、例えば、情報処理を実行するためのCPU(Central Processing Unit)などの演算装置、RAM(Random Access Memory)やROM(Read Only Memory)などの記憶装置を備え、これによりソフトウェア資源として、フィールド形状指定部310、測定地点指定部320、エリア測定部330、エリア確定部340、及び記憶部350を備える(図7参照)。サーバ300は、ドローン100や操縦装置200と通信するための送受信部、及び、上記の各種情報を入力したり、出力(画像出力、音声出力)したりするための入出力部を備える。
 フィールド形状指定部310は、記憶部350に予め記録された複数パターンのコート形状の情報に基づいて、操縦装置200にコート形状の選択肢を送信すると共に、フィールド形状入力部222を介したユーザのコート形状の指定入力に基づいて、撮影対象フィールドの形状を特定する。
 測定地点指定部320は、撮影対象フィールドの形状に応じて計測地点の候補の選択肢を操縦装置200に送信する。計測地点の候補の選択肢とは、例えば、撮影対象フィールドの形状が長方形のコートの場合、コートの4つの角の点、ハーフラインとサイドラインが交わる点、中心点、等である。また、計測地点に加えて機首方位の選択肢を操縦装置200に送信するようにしても良い。測定地点指定部320は、操縦装置200の測定地点入力部223を介して提示された計測地点と機首方位の選択肢からユーザが選択した入力情報に基づいて、計測地点や機首方位を指定する。あるいは、測定地点指定部320は、フィールド形状指定部310で指定されたフィールドの形状に応じて、予め計測地点や機首方位が一意に指定されるようにしても良い。
 エリア測定部330は、測定結果を確認する測定結果確認部331、撮影対象のフィールドエリアの位置と方位を推定するエリア推定部332、フィールドエリアの測定結果の適否を判定する測定適否判定部333、の各機能部を備えている。
 測定結果確認部331は、測定地点指定部320により指定された計測地点と計測方向にドローンが設置された状態で計測されたドローンの位置と方位の情報を取得する。具体的には、操縦装置200の測定実行入力部224を介したユーザの入力に基づいて、ドローンが指定された計測位置と機首方向にドローンが設置されている状態でドローンの測定部で計測される位置と機首方位の情報を取得する(あるいは、ドローンのカメラで取得された画像に映るライン、ゴール、コーナーフラッグ等に基づいて、ドローンの位置と機首方位を推定しても良いし、計測部による計測情報とカメラ画像による推定結果の両方を用いて位置と機首方位を推定しても良い)。また、測定実行入力部224からユーザが測定実行の指示を入力した場合であっても、ドローンに搭載された計測部で取得する加速度、速度等の情報がほぼゼロに安定していない場合、もしくは対地距離センサ(TOFセンサ、IRセンサ等)が地面設置距離を定常的に検知されない場合には、ドローンが地面に設置されていないと判定し、ドローンの位置と方位の計測情報を取得せずに、表示部210にユーザへドローンの設置位置の確認を促す設置位置確認の通知機能を備えることもできる。
 エリア推定部332は、フィールド形状指定部310で指定されたフィールド形状、及び測定地点指定部320で指定された測定地点と方位の情報、及びエリア測定部330で取得されたドローンの位置と機首方位の情報に基づいて、フィールドエリアの位置と方位、またはこれに対応する飛行ジオフェンスの位置と方位を推定する。
 測定適否判定部333は、フィールド形状指定部310で指定されたフィールド形状、及び測定地点指定部320で指定された測定地点と機首方位の情報、及び測定結果確認部331で取得されたドローンの位置と機首方位の情報に基づいて、測定地点指定部320で指定された測定地点と機首方位と、実際にドローンが設置された位置と機首方位とが一致しているか否かを判定する機能を有する。上記判定が不一致となる場合には、測定結果が適切でない可能性が高いため、判定結果と共にユーザに再測定を促す通知を行う。エリア測定部330の詳細な制御フローは図9を用いて後述する。
 エリア確定部340は、撮影対象フィールドとジオフェンスの少なくともいずれかの推定エリアを操縦装置の表示部210に表示させる表示制御部341と、ユーザから表示した推定エリアの修正入力を受け付けた場合に、修正入力に応じて推定エリアの修正を行い、修正後の推定エリアを記憶部350に記憶するエリア修正部342を有する。エリア確定部340の詳細な制御フローは図10を用いて後述する。
 記憶部350は、各種情報を記憶する。記憶部350は、ドローン100及び操縦装置200から送信される情報、及びサーバ300での情報処理の結果により得られる情報、サーバ300の入出力部を介して入力された情報等を記憶することができる。記憶部350には、予め撮影対象フィールドおよびジオフェンスに関する情報を記憶することができる。
 図8は、本システムを用いて、撮影対象フィールドとしてのコートエリア及び飛行ジオフェンスを推定するまでの動作フローの一例を示している。ユーザは、操縦装置200のフィールド形状入力部222を介した入力操作により、撮影対象フィールドの形状を指定する(S101)。例えば、操縦装置200の表示部に表示された複数のコート形状の選択肢の中から、今回の撮影対象フィールドの形状をフィールド形状入力部222を介して選択入力することにより、撮影対象フィールドの形状を指定することができる。
 次いで、ユーザは、撮影対象フィールドにドローン100を配置して測位するための測定地点を測定地点入力部223を介して指定する(S102)。例えば図12に示す操縦装置200の表示部の画面に表示されたサッカーコートの1つのコーナーをタップすること等により、そのコーナーを測定地点として指定することができる。
 次いで、ユーザは、S102で指定した測定地点の位置にドローン100を配置して測定を行い、コートエリアの位置等を推定する(S103)。例えば、現実のサッカーコートのコーナー(測定地点)の地面にドローン100を設置し、測定実行入力部224を介して測定実行の指令を入力することで、ドローンによる測定を実施することができる。そして、S101で指定されたコート形状、S102で指定された測定地点、S103で測定された測定情報に基づいて、飛行対象のフィールドエリアの位置と方位、更にはこれに対応する飛行ジオフェンスの位置と方位を推定する。更には、S101で指定されたコート形状、S102で指定された測定地点、S103で測定された測定情報に基づいて、ドローンによる測定の適否を判定する。
 次いで、操縦装置200の表示部に、システムが推定したコートエリア及び飛行ジオフェンスの少なくとも何れかを表示し、ユーザからの修正を受け付ける処理を実行することでコートエリアとジオフェンスを確定する(S104)。
 なお、S101において、衛星500から当日又は事前に受信した画像(衛星写真)に基づいて、コート形状の情報を取得してもよい。また、当該衛星写真は、ネットワークを介して外部サーバ等から取得してもよい。
 また、S102において、コート上の位置または向きの情報は、手入力に限らず、カメラで取得した画像に基づいて判定することもできる。例えば、サッカーコートのコーナー位置に、エンドラインの延在方向に機体を設置した場合、カメラで撮影した画像に含まれるエンドラインの延在方向、あるいはカメラで撮影した画像に含まれる逆側のコーナーの位置に基づいて、コートの向き、位置の情報を取得することができる。
 図9は、上記図8のS103において行われる、コートエリアの推定に関する一連の処理フローの一例を示している。まず、測定実行入力部224を介してユーザが入力する測定実行の指令を受け付ける(S201)。次にシステムは、測定地点の位置にドローン100を配置した状態で、衛星500との通信によりGPS等を用いた位置測位を実行して、現時点のドローン100の位置(位置座標)の情報を取得する(S202)。また、必要に応じて、地磁気センサ等を用いてドローン100の現時点の機首方位(方向)の計測を行う。さらに、必要に応じて、カメラ131を用いた撮影により画像情報を取得する。
 次いで、S101で指定したコート形状、S102で指定した位置と方向、S201で計測した位置と方向の情報に基づいて、コートのエリア(領域)の位置と方位を推定する(S203)。そして、当該コートエリアを撮影対象フィールドとして設定し、記憶部に記憶することができる。現実空間に対応する2次元又は3次元の地図データ上の適切な位置に、コートエリアを設定することも可能である。このコートエリアに基づいて、飛行ジオフェンスを設定することもできる。水平方向(X-Y平面)の飛行ジオフェンスは、例えばコートエリアのサイドライン、エンドラインで構成される長方形の枠線から所定距離だけ外側にもしくは内側にオフセットさせた仮想の境界線である。あるいは、コートエリアの枠線に一致するように飛行ジオフェンスを設定することも可能であるし、サイドラインから、及びエンドラインからのそれぞれのオフセット方向及びオフセット距離を設定することも可能である。また、ドローンがサイドラインに沿ってサイドライン上空を飛行しながらフィールドエリアを撮影する場合には、飛行ジオフェンスは、当該サイドラインを囲う位置に設定される。また、垂直方向の飛行ジオフェンスは、フィールドエリアの垂直方向(Z軸方向)の測定座標に基づいて、予め設定された上限の対地高度と下限の対地高度をそれぞれ上側ジオフェンス、下側ジオフェンスとして設定することが可能である。また、垂直方向の飛行ジオフェンスは、フィールドエリアの垂直方向(Z軸方向)の測定座標に替えて、外部から取得した地点ごとの標高情報に基づいて、予め設定された上限の対地高度と下限の対地高度における水平面をそれぞれ上側ジオフェンス、下側ジオフェンスとして設定することが可能である。飛行ジオフェンスの位置、形状は、コートエリアの情報と、予め設定されたコートエリアに対する相対的な位置、形状情報を含む条件情報に基づいて、サーバ300または操縦装置200によって自動的に決定されてもよい。あるいは、操縦装置200を介したユーザの入力操作に基づいて設定可能であってもよい。つまり、ユーザが任意に飛行ジオフェンスの位置、形状を設定可能であってもよい。
 上記S203でコートエリアを推定した後で、測定誤りの判定を行う(S204)。S204において、コートエリアの座標が誤って測定されていると判定した場合、つまりコートエリア座標の測定誤りが検出された場合には(S204のYES)、測定誤りの検出結果を操縦装置200の表示部210に表示させ(S205)、再度S101から操作をやり直す。一方で、S204において座標の測定誤りが検出されなかった場合(S204のNO)、コートエリアの測定座標がそのまま測定結果として登録される(登録状態が維持される)。
 測定誤りの判定(S204)は、例えば、コートの複数個所で位置を計測する場合に、測定された複数位置の関係(2点間の距離、3点4点の位置関係等)がコートサイズの制約に一致しない場合(予め設定された測定誤差の閾値を超える場合など)は測定誤りと判定する。あるいは、複数個所で方位を計測する場合に、計測した方位の関係が、ユーザが指定した方向とは不一致となる場合(予め設定された測定誤差の閾値を超える場合など)に、測定誤りと判定する。また、S202においてカメラで取得した画像により推定されるコートに対する位置と向きが、ユーザが指定した位置と向きとは不一致となる場合(カメラの設置位置と向きから想定されるラインやゴールやコーナーフラッグの位置がカメラ画像と一致しない場合など)に、測定誤りと判定することができ、そうでない場合は正しく測定されていると判定することができる。
 図10は、上記図9のエンドの後に行われる処理の一例を示しており、図8のS104の詳細な具体例を示している。
 位置測位で取得した位置情報(及び必要に応じて方位測定で取得した方向情報)と、コート形状情報に基づいて、推定したコートエリアを表示部のマップ(衛星写真を含む)上に重畳表示(オーバーレイ)する(S301)。ユーザは、表示部のマップ上に重ねて表示されたコートエリアの位置、向き、形状を見て、マップ上の正しい位置に、実際のコートエリアが適切に設定されているかを確認することができる。ユーザは例えば、衛星写真のコートエリアと推定コートエリアが不一致だと判断した場合(もしくは、ずれ量が許容範囲を超える場合)には、ユーザは再測量要否入力部225を介して再測量要求指令を入力できる。例えば、再測量の要否を確認するメッセージとともに、再測量を要求するボタン及び再測量が不要であることをそれぞれ伝達するためのボタンが表示部に表示されるようにしてもよい。
 S302において、ユーザからの操縦装置200を介した再測量を要求する入力が有るか否かを判定し、再測量の入力がある場合(S302のYES)にはS101に戻る。一方で、再測量を要求する入力がない場合(S302のNO)には、S303に進む。
 S303において、ユーザから推定コートエリアの修正入力の有無を判定し、修正の入力がある場合(S303のYES)には、当該修正入力の内容に基づいて、推定コートエリアを修正し(S304)、その後S305に進む。一方で、修正を要求する入力がない場合(S303のNO)には、修正処理をせずにS305に進む。S303において、衛星写真のコートエリアと推定コートエリアがズレている場合には、ユーザはフィールドエリア修正入力部226を介してフィールドエリアの修正を入力できる。例えば、衛星写真のコートエリアと推定コートエリアの位置又は向きがズレている場合には、ユーザはフィールドエリア修正入力部226を介してフィールドエリアの位置又は向きの修正を入力できる。
 S305において、推定したコートエリアの情報に基づいて決定された飛行ジオフェンスを表示部に表示させる。ユーザは、コートエリアと重ねて表示された飛行ジオフェンスのエリアを確認することができる。マップ上に重ねて表示された飛行ジオフェンスの位置が正しくない等、修正が必要と判断した場合には、ジオフェンス修正入力部227を介してジオフェンスの修正を要求する入力を行う。S305において、コートエリアのエッジ(エンドライン、サイドライン、コーナー)からのジオフェンスのオフセット距離を設定したり、局所的に飛行禁止エリアを設定したりすることも可能である。
 そして、S306において、ユーザからの飛行ジオフェンスの修正入力の有無を判定し、修正の入力がある場合(S306のYES)には、当該修正入力の内容に基づいて、飛行ジオフェンスを修正し(S304)、一方で、修正を要求する入力がない場合(S306のNO)には、修正処理をせずに処理を終了する。これにより、適切な飛行ジオフェンスを表示させることができる。
 図11~図15は、撮影対象フィールドとしてのコートにおける特定位置(1点)に、特定の向き(1方向)でドローン100を配置し、位置と方向の測定を行う場合の測定地点入力部223で入力するドローンによる測定地点の一例を示す図である。図11~図15では、1カ所の特定位置においてそれぞれ特定の1方向にドローンの機首を向けて位置と機首方位を測位する例を示すが、設置位置において複数方向に機首を向けてそれぞれ位置と機首方位を測位することもできる。図11において、ドローン100を配置した位置は、ハーフラインとサイドライン(長辺)の一方の交点であり、機体の向きは、センターサークルの中心(つまりコートの中心)に向ける。なお、機体の向きは、カメラの向きと同じとすることができる。また、サーバは、コートの形状として、コートの長辺と短辺の長さ、縦横比等の情報をユーザの入力またはネットワークを介した通信により取得する。
 本例のように、コートのコーナー側よりもセンター側、つまりコートの中心に近い位置で測位することで、測位した位置からコートの最も遠い点までの距離が小さくなる。その結果、コートのコーナー側で測位する場合に比べて測定誤差を小さくすることができる。また、測定の際にユーザがコートの内部に入り込む必要がないので、例えばコート内でトレーニングしている選手などの邪魔にならないようにすることができる。
 図12は、撮影対象フィールドの特定位置で、1点の位置と1方向の測定を行う場合の他の例を示す。ドローン100を配置した位置は、エンドライン(短辺)とサイドライン(長辺)の交点(コーナー1点)であり、機体の向きは、サイドラインに沿って、逆側のコーナーを向く方向である。
 本例のように、コートの長辺に沿う方向に向けてドローン100を配置する場合、短辺に沿う方向に向けるよりも方向の測定誤差を小さくすることができる。また、測定の際にユーザがコートの内部に入り込む必要がないので、例えばコート内でトレーニングしている選手などの邪魔にならないようにすることができる。
 図13は、撮影対象フィールドの特定位置で、1点の位置と1方向の測定を行う場合の他の例を示す。ドローン100を配置した位置は、エンドライン(短辺)とサイドライン(長辺)の交点(コーナー1点)であり、機体の向きは、エンドラインに沿って、逆側のコーナーを向く方向である。
 本例の場合、測定の際にユーザがコートの内部に入り込む必要がないので、例えばコート内でトレーニングしている選手などの邪魔にならないようにすることができる。
 図14は、撮影対象フィールドの特定位置で、1点の位置と1方向の測定を行う場合の他の例を示す。ドローン100を配置した位置は、コートの中心点(センター)位置であり、機体の向きは、ハーフラインに沿った向きである。
 図15は、撮影対象フィールドの特定位置で、1点の位置と1方向の測定を行う場合の他の例を示す。ドローン100を配置した位置は、コートの中心点(センター)位置であり、機体の向きは、エンドラインに平行な向きである。
 図14,15のように、コートの中心位置で測位することで、測位した位置からコートの最も遠い点までの距離が小さくなる。その結果、コートの枠線(外枠)で測位する場合に比べて測定誤差を小さくすることができる。
 図16~図20は、撮影対象フィールドの特定の2点の位置と、必要に応じてそれぞれの位置で方向の測定を行う場合の測定地点入力部223で入力するドローンによる測定地点の一例を示す図である。図16~図20では、2カ所の特定位置においてそれぞれ特定の1方向にドローンの機首を向けて位置と機首方位を測位する例を示すが、各設置位置において予め規定した複数方向に機首を向けてそれぞれの設置状態で位置と機首方位を測位することもできる。図16で示す例では、ドローン100を配置した位置は、ハーフラインとサイドライン(長辺)の両側の交点(2点)である。機体の向きは任意の向きでよいが、図示例ではハーフラインに沿って、逆側の交点を向く方向である。
 本例のように、コートの2点で位置測定を行う場合、1点のみで行うよりも位置精度を高めることができる。また、今回の2点間距離がコート幅に該当するため、設定されたコートエリアにおいてコート幅の誤差が小さくなる。ハーフラインの両端の2点の位置を測定することで、ハーフラインの長さと向きが特定され、両側のエンドラインはハーフラインと平行で長さが同一である。よって、コートの形状情報として、コートの長辺の長さ又は縦横比の情報があれば、コートエリアを推定することができる。また、上記ドローン100を配置して測位する2点の一方又は両方で機体の向きを測定した場合には、当該方向情報を用いることで、さらに精度を高めることができる。また、測定の際にユーザがコートの内部に入り込む必要がないので、例えばコート内でトレーニングしている選手などの邪魔にならないようにすることができる。
 図17は、撮影対象フィールドの特定の2点の位置と、それぞれの位置で方向の測定を行う場合の他の例を示す。ドローン100を配置した位置は、ハーフラインとサイドラインの交点(1点)と、逆側のサイドラインとエンドラインの交点(1点)である。機体の向きは、ハーフラインとサイドラインの交点の位置では、ハーフラインまたはサイドラインに沿った向きに配置する。また、サイドラインとエンドラインの交点では、サイドラインまたはエンドラインに沿った向きに配置する。今回の場合、2点それぞれの位置情報及び方向情報と、コートの形状情報としてのコートの長辺の長さ又は縦横比の情報とに基づいて、コートエリアを推定することができる。
 本例のように、コートの2点で位置測定を行う場合、1点のみで行うよりも位置精度を高めることができる。また、測定の際にユーザがコートの内部に入り込む必要がないので、例えばコート内でトレーニングしている選手などの邪魔にならないようにすることができる。なお、コートの形状情報として、コートの長辺と短辺の長さの情報がある場合、2点で方向の測定はしなくても、コートエリアを推定することができるが、精度を高める観点から方向の測定を行うことが好ましい。
 図18は、撮影対象フィールドの特定の2点の位置と、それぞれの位置で方向の測定を行う場合の他の例を示す。ドローン100を配置した位置は、同一サイドの、エンドラインとサイドラインの交点(2点)である。換言すると、一方のサイドラインの両端の2点である。機体の向きは、それぞれの点で、エンドラインに沿って逆側のコーナーを向く方向である。今回の場合、2点それぞれの位置情報及び方向情報と、コートの形状情報としてのコートの長辺の長さ又は縦横比の情報とに基づいて、コートエリアを推定することができる。
 本例のように、コートの2点で位置測定を行う場合、1点のみで行うよりも位置精度を高めることができる。また、測定の際にユーザがコートの内部に入り込む必要がないので、例えばコート内でトレーニングしている選手などの邪魔にならないようにすることができる。なお、コートの形状情報として、コートの長辺と短辺の長さの情報がある場合、2点で方向の測定はしなくても、コートエリアを推定することができるが、精度を高める観点から方向の測定を行うことが好ましい。
 図19は、撮影対象フィールドの特定の2点の位置と、それぞれの位置で方向の測定を行う場合の他の例を示す。ドローン100を配置した位置は、一方のゴール側の、エンドラインとサイドラインの交点(2点)である。換言すると、一方のエンドラインの両端の2点である。機体の向きは、それぞれの点で、サイドラインに沿って逆側のコーナーを向く方向である。今回の場合、2点それぞれの位置情報及び方向情報と、コートの形状情報としてのコートの長辺の長さ又は縦横比の情報とに基づいて、コートエリアを推定することができる。
 本例のように、コートの2点で位置測定を行う場合、1点のみで行うよりも位置精度を高めることができる。また、測定の際にユーザがコートの内部に入り込む必要がないので、例えばコート内でトレーニングしている選手などの邪魔にならないようにすることができる。なお、コートの形状情報として、コートの長辺と短辺の長さの情報がある場合、2点で方向の測定はしなくても、コートエリアを推定することができるが、精度を高める観点から方向の測定を行うことが好ましい。
 図20は、撮影対象フィールドの特定の2点の位置と、それぞれの位置で方向の測定を行う場合の他の例を示す。ドローン100を配置した位置は、コートの対角線状に位置するコーナーの2点である。機体の向きは、それぞれの点で、サイドライン又はエンドラインに沿った向きである。図示例では、一方のコーナーではサイドラインに沿って逆側のコーナーを向く方向であり、他方のコーナーではエンドラインに沿って逆側のコーナーを向く方向である。今回の場合、2点それぞれの位置情報及び方向情報と、コートの形状情報としてのコートの長辺の長さ又は縦横比の情報とに基づいて、コートエリアを推定することができる。
 本例のように、コートの2点で位置測定を行う場合、1点のみで行うよりも位置精度を高めることができる。また、測定の際にユーザがコートの内部に入り込む必要がないので、例えばコート内でトレーニングしている選手などの邪魔にならないようにすることができる。なお、コートの形状情報として、コートの長辺と短辺の長さの情報がある場合、2点で方向の測定はしなくても、コートエリアを推定することができるが、精度を高める観点から方向の測定を行うことが好ましい。
 図21~図23は、撮影対象フィールドの特定の3点の位置で位置の測定を行う場合の測定地点入力部223で入力するドローンによる測定地点の一例を示す図である。図21に示す例では、ドローン100を配置した位置は、コートにおける3つのコーナー(3点)である。本例での機体の向きは、それぞれの点でサイドラインに沿って逆のコーナーを向く方向である。今回の場合、3点それぞれの位置情報に基づいて、コートエリアを推定することができるので、機体の向きは任意の向きでよい。
 本例のように、コートの3点で位置測定を行う場合、1点又は2点で位置測定を行うよりもコートエリアの位置精度を高めることができる。また、測定の際にユーザがコートの内部に入り込む必要がないので、例えばコート内でトレーニングしている選手などの邪魔にならないようにすることができる。なお、本例の場合、3点で方向の測定はしなくても、コートエリアを推定することができるが、精度を高める観点から方向の測定を行うことが好ましい。また、コートの形状情報がなくてもコートエリアを推定することができるが、精度を高める観点からコートの形状情報も用いてコートエリアを推定することが好ましい。
 図22は、撮影対象フィールドの特定の3点の位置で位置の測定を行う場合の他の例を示す。ドローン100を配置した位置は、同一ゴール側の2つのコーナー(2点)と、ハーフラインと一方のサイドラインの交点(1点)である。本例での機体の向きは、コーナー2点ではサイドラインに沿って逆のコーナーを向く方向であり、ハーフラインの交点ではハーフラインに沿った向きである。今回の場合、3点それぞれの位置情報に基づいて、コートエリアを推定することができるので、機体の向きは任意の向きでよい。
 本例のように、コートの3点で位置測定を行う場合、1点又は2点で位置測定を行うよりもコートエリアの位置精度を高めることができる。また、測定の際にユーザがコートの内部に入り込む必要がないので、例えばコート内でトレーニングしている選手などの邪魔にならないようにすることができる。なお、本例の場合、3点で方向の測定はしなくても、コートエリアを推定することができるが、精度を高める観点から方向の測定を行うことが好ましい。また、コートの形状情報がなくてもコートエリアを推定することができるが、精度を高める観点からコートの形状情報も用いてコートエリアを推定することが好ましい。
 図23は、撮影対象フィールドの特定の3点の位置で位置の測定を行う場合の他の例を示す。ドローン100を配置した位置は、1つのコーナー(2点)と、ハーフラインと両側のサイドラインの交点(2点)である。本例での機体の向きは、コーナー1点ではサイドラインに沿って逆のコーナーを向く方向であり、ハーフラインの交点ではハーフラインに沿った向きである。今回の場合、3点それぞれの位置情報に基づいて、コートエリアを推定することができるので、機体の向きは任意の向きでよい。
 本例のように、コートの3点で位置測定を行う場合、1点又は2点で位置測定を行うよりもコートエリアの位置精度を高めることができる。また、測定の際にユーザがコートの内部に入り込む必要がないので、例えばコート内でトレーニングしている選手などの邪魔にならないようにすることができる。なお、本例の場合、3点で方向の測定はしなくても、コートエリアを推定することができるが、精度を高める観点から方向の測定を行うことが好ましい。また、コートの形状情報がなくてもコートエリアを推定することができるが、精度を高める観点からコートの形状情報も用いてコートエリアを推定することが好ましい。
 以上説明したように、本発明の一実施形態としての判定方法は、ドローンを撮影対象フィールドの所定位置に配置して位置測位により取得した複数の位置情報と、予め設定されるフィールド形状情報と、に基づいて、撮影対象フィールド又はこれに対応する飛行ジオフェンスを判定することを特徴とする。このように、撮影対象フィールド等の判定において、予め設定されるフィールド形状情報を用いることで、当該フィールド形状情報を用いずに測定する場合に比べて、位置測位の回数を低減することができる。その結果、簡易に撮影対象となるフィールド又はこれに対応する飛行ジオフェンスを判定することができる。
 また、本発明の一実施形態としての判定方法は、ドローンを撮影対象フィールドの所定位置に所定向きで配置して位置測位及び方位測定によりそれぞれ取得した位置情報及び方向情報と、予め設定されるフィールド形状情報と、に基づいて、撮影対象フィールド又はこれに対応する飛行ジオフェンスを判定することを特徴とする。このように、撮影対象フィールド等の判定において、予め設定されるフィールド形状情報を用いることで、当該フィールド形状情報を用いずに測定する場合に比べて、位置測位の回数を低減することができる。その結果、簡易に撮影対象となるフィールド又はこれに対応する飛行ジオフェンスを判定することができる。また、位置情報だけでなく、方向情報を用いることで、複数個所での位置測位を行わなくても、1カ所のみでの測定で撮影対象フィールド又はこれに対応する飛行ジオフェンスを判定することができる。
 また、本発明の一実施形態としての判定方法は、複数の前記所定位置に配置して取得した複数の位置情報及び方向情報と、前記フィールド形状情報と、に基づいて、撮影対象フィールド又はこれに対応する飛行ジオフェンスを判定するようにしてもよい。この場合、1カ所のみで位置及び方向を測定する場合に比べて、判定の精度を高めることができる。
 また、本発明の一実施形態としての判定方法は、前記ドローンを1か所の所定位置に配置して取得した1の前記位置情報、及び、前記1か所の所定位置に複数の向きで配置して取得した複数の方向情報と、前記フィールド形状情報と、に基づいて、撮影対象フィールド又はこれに対応する飛行ジオフェンスを判定するようにしてもよい。この場合、1つの方向のみで方向測定する場合に比べて、判定の精度を高めることができる。
 また、本発明の一実施形態としての判定方法は、前記ドローンを複数の所定位置にそれぞれ予め定められた向きで配置して位置測位により取得した複数の位置情報及び複数の方向情報と、前記フィールド形状情報と、に基づいて、撮影対象フィールド又はこれに対応する飛行ジオフェンスを判定するようにしてもよい。この場合、位置情報または方向情報の何れかが1つのみである場合に比べて、判定の精度を高めることができる。
 また、本発明の一実施形態としては、設定した前記飛行ジオフェンスの内側をドローンが飛行して障害物検知部により障害物を検知した場合に、検知した情報に基づいて前記飛行ジオフェンスを修正するようにしてもよい。この場合、障害物を踏まえた飛行ジオフェンスを形成することができるので、飛行ジオフェンスの精度を高めることができる。
 また、本発明の一実施形態としては、風速情報を外部システム又はドローンから取得して、当該風速が所定値以上の場合に、高さ方向の前記飛行ジオフェンスを低く変更するようにしてもよい。この場合、風速を踏まえた飛行ジオフェンスを形成することができるので、安全性を高めることができる。あるいは、ドローン又は基地局において衛星から受信する衛星信号の受信状態が予め設定された所定値よりも悪化した場合に、高さ方向のジオフェンスを高く変更してもよい。このようにジオフェンスを高く変更することにより、衛星が建物などの障害物に隠れていることに起因して衛星信号の受信状態が悪化している場合であっても、ドローンの飛行高度を上昇させることができるため、通信可能な衛星の数が増加して、衛星信号の受信状態を改善することが可能となる。
 また、本発明の一実施形態としては、他のドローンの飛行エリアと重なる場合に、前記飛行ジオフェンスを変更するようにしてもよい。この場合、他のドローンの飛行エリアを踏まえた飛行ジオフェンスを形成することができるので、他のドローンとの衝突を防止することができ、安全性を高めることができる。
 また、本発明の一実施形態としては、設定した撮影対象フィールドの位置情報の誤登録を、前記撮影対象フィールドにおける他の位置の位置情報に基づいて検出するようにしてもよい。この場合、他のドローンの飛行エリアを踏まえた飛行ジオフェンスを形成することができるので、他のドローンとの衝突を防止することができ、安全性を高めることができる。
 また、本発明の一実施形態としては、設定した撮影対象フィールドの位置情報の誤登録を前記撮影対象フィールドにおける他の位置の位置情報及び前記フィールド形状情報に基づいて検出するようにしてもよい。この場合、位置情報の誤登録を簡易に判定することができ、撮影対象フィールドエリア判定の精度を高めることができる。
 また、本発明の一実施形態としては、前記誤登録を検出した場合に、検出した誤登録に関する情報をユーザに通知するようにしてもよい。この場合、ユーザが誤登録を容易に把握して、正しい撮影対象フィールドを設定し直すことができる。
 また、本発明の一実施形態としては、上記の判定方法を用いて設定した前記撮影対象フィールド及び前記飛行ジオフェンスの少なくとも何れかを操縦装置の表示部に表示することを特徴とする。これによれば、撮影対象フィールド、及び飛行ジオフェンスの少なくとも一方を見ながら、容易にドローンの操縦をすることができる。
 また、本発明の一実施形態としては、前記表示部に表示した前記撮影対象フィールド又は前記飛行ジオフェンスをユーザの入力に応じて修正するようにしてもよい。これによれば、ユーザの意思で、撮影対象フィールド又は飛行ジオフェンスを修正することができる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。上述した実施形態では、移動体の一例としてドローンによりスポーツコートを空撮する場合の例を説明したが、本発明の適用用途はドローンに限定されず、例えば、ワイヤーで固定されたコート上空を移動可能なカメラシステムにも適用可能である。更には、エリア設定を行う対象フィールドは、空撮を行うフィールド以外にも、芝刈りなどの移動体が行う作業の対象フィールドであっても良い。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 本明細書において説明した装置は、単独の装置として実現されてもよく、一部または全部がネットワークで接続された複数の装置(例えばクラウドサーバ、ドローン、操縦装置)等により実現されてもよい。例えば、サーバ300の各機能部(フィールド形状指令部、測定地点指定部、測定結果確認部、エリア推定部、測定適否判定部、推定エリア表示部)および記憶部は、互いにネットワークで接続された異なるサーバ、ドローン、操縦装置に実装されることにより実現されてもよい。
 本明細書において説明した装置による一連の処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。本実施形態に係るサーバ300の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 また、本明細書においてフローチャート図を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
 (項目1)
 移動体による撮影又は作業を行う対象フィールド又はこれに対応するジオフェンスを設定するエリア設定システムであって、
 前記移動体と直接又は間接的に通信接続されるサーバとを備え、
 前記エリア設定システムは、前記移動体又は測量機を前記対象フィールドの複数の所定位置に配置して前記移動体又は測量機の位置測位により取得した複数の位置情報と、予め設定されるフィールド形状情報と、に基づいて、前記対象フィールド又はこれに対応するジオフェンスを設定することを特徴とする、エリア設定システム。
 (項目2)
 移動体による撮影又は作業を行う対象フィールド又はこれに対応するジオフェンスを設定するエリア設定システムであって、
 前記移動体と直接又は間接的に通信接続されるサーバとを備え、
 前記エリア登録システムは、前記移動体又は測量機を前記対象フィールドの所定位置に所定向きで配置して前記移動体又は測量機の位置測位及び方位測定によりそれぞれ取得した位置情報及び方向情報と、予め設定されるフィールド形状情報と、に基づいて、前記対象フィールド又はこれに対応するジオフェンスを設定することを特徴とする、エリア設定システム。
 (項目3)
 前記移動体を複数の前記所定位置に配置して取得した複数の位置情報及び方向情報と、前記フィールド形状情報と、に基づいて、対象フィールド又はこれに対応するジオフェンスを設定する、項目2に記載のエリア設定システム。
 (項目4)
 前記移動体を1か所の所定位置に配置して取得した1の前記位置情報、及び、前記1か所の所定位置に複数の向きで配置して取得した複数の方向情報と、前記フィールド形状情報と、に基づいて、対象フィールド又はこれに対応するジオフェンスを設定する、項目2に記載のエリア設定システム。
 (項目5)
 前記移動体を複数の所定位置でそれぞれ予め定められた複数の向きで配置して前記位置測位により取得した複数の位置情報及び複数の方向情報と、前記フィールド形状情報と、に基づいて、対象フィールド又はこれに対応するジオフェンスを推定する、項目2~4の何れかに記載のエリア設定システム。
 (項目6)
 前記移動体は、ドローンであり、
 前記ジオフェンスは、前記ドローンの飛行許可エリアの外縁を定義する飛行ジオフェンスである、項目1~5のいずれかに記載のエリア設定システム。
 (項目7)
 設定した前記飛行ジオフェンスの内側をドローンが飛行して障害物検知部により障害物を検知した場合に、検知した情報に基づいて前記飛行ジオフェンスを修正する、項目6に記載のエリア設定システム。
 (項目8)
 風速が所定値以上の場合に、高さ方向の前記飛行ジオフェンスを低く変更する、項目6又は7に記載のエリア設定システム。
 (項目9)
 衛星から受信する衛星信号の受信状態が所定値よりも悪化した場合に、高さ方向のジオフェンスを高く変更する、項目6~8の何れかに記載のエリア設定システム。
 (項目10)
 他のドローンの飛行エリアと重なる場合に、前記飛行ジオフェンスを変更する、項目6~9の何れかに記載のエリア設定システム。
 (項目11)
 設定した対象フィールドの位置情報の測定誤りを、前記対象フィールドにおける他の位置の位置情報に基づいて検出する、項目1~10の何れかに記載のエリア設定システム。
 (項目12)
 設定した対象フィールドの位置情報の測定誤りを前記対象フィールドにおける他の位置の位置情報及び前記フィールド形状情報に基づいて検出する、項目1~10の何れかに記載のエリア設定システム。
 (項目13)
 前記測定誤りを検出した場合に、検出した測定誤りに関する情報をユーザに通知する、項目11または12に記載のエリア設定システム。
 (項目14)
 設定した前記対象フィールド及び前記飛行ジオフェンスの少なくとも何れかを操縦装置の表示部に表示する、項目6~9の何れかに記載のエリア設定システム。
 (項目15)
 前記表示部に表示した前記対象フィールド及び前記飛行ジオフェンスの少なくともいずれかをユーザの入力に応じて修正する、項目12に記載のエリア設定システム。
 (項目16)
 移動体による撮影又は作業を行う対象フィールド又はこれに対応するジオフェンスを設定するエリア設定方法であって、
 フィールド形状を設定するステップと、
 前記移動体又は測量機を前記対象フィールドの複数の所定位置に配置して前記移動体又は測量機の位置測位により複数の位置情報を取得するステップと、
 前記フィールド形状情報と、取得した前記複数の位置情報とに基づいて、前記対象フィールド又はこれに対応するジオフェンスを設定するステップと、
 を備えることを特徴とする、エリア設定方法。
 (項目17)
 移動体による撮影又は作業を行う対象フィールド又はこれに対応するジオフェンスを設定するエリア設定方法であって、
 フィールド形状を設定するステップと、
 前記移動体又は測量機を前記対象フィールドの所定位置に所定向きで配置して前記移動体又は測量機の位置測位及び方位測位により位置情報及び方向情報を取得するステップと、
 前記フィールド形状情報と、取得した前記位置情報及び方向情報とに基づいて、前記対象フィールド又はこれに対応するジオフェンスを設定するステップと、
 を備えることを特徴とする、エリア設定方法。
 1     システム
 100   ドローン(移動体)
 200   操縦装置
 300   サーバ
 400   ネットワーク
 500   衛星
 600   基地局

Claims (17)

  1.  移動体による撮影又は作業を行う対象フィールド又はこれに対応するジオフェンスを設定するエリア設定システムであって、
     前記移動体と直接又は間接的に通信接続されるサーバとを備え、
     前記エリア設定システムは、前記移動体又は測量機を前記対象フィールドの複数の所定位置に配置して前記移動体又は測量機の位置測位により取得した複数の位置情報と、予め設定されるフィールド形状情報と、に基づいて、前記対象フィールド又はこれに対応するジオフェンスを設定することを特徴とする、エリア設定システム。
  2.  移動体による撮影又は作業を行う対象フィールド又はこれに対応するジオフェンスを設定するエリア設定システムであって、
     前記移動体と直接又は間接的に通信接続されるサーバとを備え、
     前記エリア登録システムは、前記移動体又は測量機を前記対象フィールドの所定位置に所定向きで配置して前記移動体又は測量機の位置測位及び方位測定によりそれぞれ取得した位置情報及び方向情報と、予め設定されるフィールド形状情報と、に基づいて、前記対象フィールド又はこれに対応するジオフェンスを設定することを特徴とする、エリア設定システム。
  3.  前記移動体を複数の前記所定位置に配置して取得した複数の位置情報及び方向情報と、前記フィールド形状情報と、に基づいて、対象フィールド又はこれに対応するジオフェンスを設定する、請求項2に記載のエリア設定システム。
  4.  前記移動体を1か所の所定位置に配置して取得した1の前記位置情報、及び、前記1か所の所定位置に複数の向きで配置して取得した複数の方向情報と、前記フィールド形状情報と、に基づいて、対象フィールド又はこれに対応するジオフェンスを設定する、請求項2に記載のエリア設定システム。
  5.  前記移動体を複数の所定位置でそれぞれ予め定められた複数の向きで配置して前記位置測位により取得した複数の位置情報及び複数の方向情報と、前記フィールド形状情報と、に基づいて、対象フィールド又はこれに対応するジオフェンスを推定する、請求項2~4の何れかに記載のエリア設定システム。
  6.  前記移動体は、ドローンであり、
     前記ジオフェンスは、前記ドローンの飛行許可エリアの外縁を定義する飛行ジオフェンスである、請求項1~5のいずれかに記載のエリア設定システム。
  7.  設定した前記飛行ジオフェンスの内側をドローンが飛行して障害物検知部により障害物を検知した場合に、検知した情報に基づいて前記飛行ジオフェンスを修正する、請求項6に記載のエリア設定システム。
  8.  風速が所定値以上の場合に、高さ方向の前記飛行ジオフェンスを低く変更する、請求項6又は7に記載のエリア設定システム。
  9.  衛星から受信する衛星信号の受信状態が所定値よりも悪化した場合に、高さ方向のジオフェンスを高く変更する、請求項6~8の何れかに記載のエリア設定システム。
  10.  他のドローンの飛行エリアと重なる場合に、前記飛行ジオフェンスを変更する、請求項6~9の何れかに記載のエリア設定システム。
  11.  設定した対象フィールドの位置情報の測定誤りを、前記対象フィールドにおける他の位置の位置情報に基づいて検出する、請求項1~10の何れかに記載のエリア設定システム。
  12.  設定した対象フィールドの位置情報の測定誤りを前記対象フィールドにおける他の位置の位置情報及び前記フィールド形状情報に基づいて検出する、請求項1~10の何れかに記載のエリア設定システム。
  13.  前記測定誤りを検出した場合に、検出した測定誤りに関する情報をユーザに通知する、請求項11または12に記載のエリア設定システム。
  14.  設定した前記対象フィールド及び前記飛行ジオフェンスの少なくとも何れかを操縦装置の表示部に表示する、請求項6~9の何れかに記載のエリア設定システム。
  15.  前記表示部に表示した前記対象フィールド及び前記飛行ジオフェンスの少なくともいずれかをユーザの入力に応じて修正する、請求項12に記載のエリア設定システム。
  16.  移動体による撮影又は作業を行う対象フィールド又はこれに対応するジオフェンスを設定するエリア設定方法であって、
     フィールド形状を設定するステップと、
     前記移動体又は測量機を前記対象フィールドの複数の所定位置に配置して前記移動体又は測量機の位置測位により複数の位置情報を取得するステップと、
     前記フィールド形状情報と、取得した前記複数の位置情報とに基づいて、前記対象フィールド又はこれに対応するジオフェンスを設定するステップと、
     を備えることを特徴とする、エリア設定方法。
  17.  移動体による撮影又は作業を行う対象フィールド又はこれに対応するジオフェンスを設定するエリア設定方法であって、
     フィールド形状を設定するステップと、
     前記移動体又は測量機を前記対象フィールドの所定位置に所定向きで配置して前記移動体又は測量機の位置測位及び方位測位により位置情報及び方向情報を取得するステップと、
     前記フィールド形状情報と、取得した前記位置情報及び方向情報とに基づいて、前記対象フィールド又はこれに対応するジオフェンスを設定するステップと、
     を備えることを特徴とする、エリア設定方法。

     
PCT/JP2022/001506 2022-01-18 2022-01-18 エリア設定システム、及びエリア設定方法 WO2023139628A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/001506 WO2023139628A1 (ja) 2022-01-18 2022-01-18 エリア設定システム、及びエリア設定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/001506 WO2023139628A1 (ja) 2022-01-18 2022-01-18 エリア設定システム、及びエリア設定方法

Publications (1)

Publication Number Publication Date
WO2023139628A1 true WO2023139628A1 (ja) 2023-07-27

Family

ID=87347953

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/001506 WO2023139628A1 (ja) 2022-01-18 2022-01-18 エリア設定システム、及びエリア設定方法

Country Status (1)

Country Link
WO (1) WO2023139628A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9588516B1 (en) * 2016-02-08 2017-03-07 Unmanned Innovation Inc. Unmanned aerial vehicle visual line of sight control
US20180267543A1 (en) * 2017-03-15 2018-09-20 Teal Drones, Inc. Drone-relative geofence
WO2019230920A1 (ja) * 2018-06-01 2019-12-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
WO2021166175A1 (ja) * 2020-02-20 2021-08-26 株式会社ナイルワークス ドローンシステム、操作器および作業エリアの定義方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9588516B1 (en) * 2016-02-08 2017-03-07 Unmanned Innovation Inc. Unmanned aerial vehicle visual line of sight control
US20180267543A1 (en) * 2017-03-15 2018-09-20 Teal Drones, Inc. Drone-relative geofence
WO2019230920A1 (ja) * 2018-06-01 2019-12-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
WO2021166175A1 (ja) * 2020-02-20 2021-08-26 株式会社ナイルワークス ドローンシステム、操作器および作業エリアの定義方法

Similar Documents

Publication Publication Date Title
US12007761B2 (en) Unmanned aerial vehicle inspection system
US11203425B2 (en) Unmanned aerial vehicle inspection system
US9513635B1 (en) Unmanned aerial vehicle inspection system
AU2016352014B2 (en) Unmanned moving vehicle piloting method and unmanned moving vehicle watching device
WO2017065103A1 (ja) 小型無人飛行機の制御方法
US20180267561A1 (en) Autonomous control of unmanned aircraft
US10983535B2 (en) System and method for positioning a movable object
US20200117197A1 (en) Obstacle detection assembly for a drone, drone equipped with such an obstacle detection assembly and obstacle detection method
US20190354116A1 (en) Trajectory determination in a drone race
JP7055324B2 (ja) 表示装置
JP6934116B1 (ja) 航空機の飛行制御を行う制御装置、及び制御方法
JP6289750B1 (ja) 移動体、移動体制御方法、移動体制御システム、及び移動体制御プログラム
WO2021168819A1 (zh) 无人机的返航控制方法和设备
US20210208608A1 (en) Control method, control apparatus, control terminal for unmanned aerial vehicle
WO2023139628A1 (ja) エリア設定システム、及びエリア設定方法
WO2023187891A1 (ja) 判定システム、及び判定方法
WO2018045654A1 (zh) 显示可移动装置的状态的方法、***和控制装置
CN112313599B (zh) 控制方法、装置和存储介质
JP7031997B2 (ja) 飛行体システム、飛行体、位置測定方法、プログラム
AU2020217371A1 (en) A method of surveying a target
WO2024009447A1 (ja) 飛行制御システム、及び飛行制御方法
CN110892353A (zh) 控制方法、控制装置、无人飞行器的控制终端
US20190352005A1 (en) Fiducial gates for drone racing
JP2020101391A (ja) 無人航空機システム
US20230030222A1 (en) Operating modes and video processing for mobile platforms

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22921792

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023574890

Country of ref document: JP

Kind code of ref document: A