WO2015163012A1 - 情報処理装置、情報処理方法、プログラムおよび撮像システム - Google Patents

情報処理装置、情報処理方法、プログラムおよび撮像システム Download PDF

Info

Publication number
WO2015163012A1
WO2015163012A1 PCT/JP2015/056316 JP2015056316W WO2015163012A1 WO 2015163012 A1 WO2015163012 A1 WO 2015163012A1 JP 2015056316 W JP2015056316 W JP 2015056316W WO 2015163012 A1 WO2015163012 A1 WO 2015163012A1
Authority
WO
WIPO (PCT)
Prior art keywords
flight route
information
template
flight
flying object
Prior art date
Application number
PCT/JP2015/056316
Other languages
English (en)
French (fr)
Inventor
高橋 正宏
聰 赤川
佳恵 岡澤
良憲 山田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201910540198.5A priority Critical patent/CN110254716B/zh
Priority to CN201580015781.4A priority patent/CN106133629B/zh
Priority to CN202010149654.6A priority patent/CN111399488B/zh
Priority to EP15782406.1A priority patent/EP3136195A4/en
Priority to JP2016514797A priority patent/JP6369538B2/ja
Priority to KR1020167025108A priority patent/KR102294078B1/ko
Priority to US15/122,608 priority patent/US9865172B2/en
Publication of WO2015163012A1 publication Critical patent/WO2015163012A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0034Assembly of a flight plan
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0004Transmission of traffic-related information to or from an aircraft
    • G08G5/0013Transmission of traffic-related information to or from an aircraft with a ground station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0086Surveillance aids for monitoring terrain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/14Relay systems
    • H04B7/15Active relay systems
    • H04B7/185Space-based or airborne stations; Stations for satellite systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, a program, and an imaging system for setting a flight route of a flying object.
  • Patent Document 1 A technique relating to a method of capturing a photograph in which a camera is attached to a flying object that can be operated wirelessly and captured by the camera is disclosed (for example, Patent Document 1).
  • a camera By attaching a camera to the flying object, it is possible to take a picture from the sky or from a place where the tripod cannot be stood.
  • the cost can be reduced compared to using a real airplane or helicopter, it can be taken safely, it can be taken even in a low altitude or in a narrow place, and it approaches the target.
  • Various advantages such as being able to capture images.
  • the technology for controlling the flying object requires high technology and is not specialized for shooting. Since the user needs to perform the flight operation of the flying object and the shooting operation of the camera, it is difficult for a general camera user to perform effective shooting according to the subject and location. there were.
  • the present disclosure proposes a new and improved information processing apparatus, information processing method, program, and imaging system that enable a user to easily perform effective shooting according to a subject and a location.
  • a flight route information template indicating a flight route of a flying object is presented, and based on a user operation, the flight route information of the selected template is associated with the flight range of the flying object.
  • An information processing apparatus including a flight route generation unit that generates the flight route information is provided.
  • a flight route information template indicating a flight route of a flying object
  • an information processing method including generating flight route information of the flying object is provided.
  • the computer displays the flight route information template indicating the flight route of the flying object, and the flight route information of the selected template and the flying range of the flying object based on the user's operation. And generating a flight route information of the air vehicle is provided.
  • a flying object, a flight route information template indicating the flying route of the flying object, and the flight route information of the selected template and the flying range of the flying object are displayed based on a user operation.
  • an information processing terminal including a flight route generation unit that generates flight route information of the flying object is provided.
  • a flight route information template indicating a flight route of a flying object is presented to a user, and final flight route information of the flying object is generated based on a user operation performed on the template. .
  • the user can easily generate flight route information of the flying object by selecting and operating the template.
  • the flight route information of the flying object can be easily created, so that the user can easily perform effective shooting according to the subject and the location.
  • the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.
  • First embodiment automatic creation using a template
  • Outline of imaging system using flying object 1.2.
  • Functional configuration 1.3.
  • Flight route information generation processing Second embodiment (manual creation using partial templates) 2.1.
  • Flight route information generation processing Summary 4. Hardware configuration example
  • FIG. 1 is an explanatory diagram illustrating an overview of the imaging system according to the present embodiment.
  • the imaging system includes an information processing terminal 10 and a flying device (flying body) 20, and is configured to be able to communicate with each other.
  • the information processing terminal 10 is a device such as a smartphone or a tablet terminal, and is used as a device for creating flight route information of the flying device 20 in the imaging system according to the present embodiment.
  • the information processing terminal 10 can transmit the created flight route information to the flying device 20 by providing a communication function.
  • the flying device 20 is a device that flies based on the flight route information.
  • the flying device 20 according to the present embodiment is provided with an imaging device 22. While flying based on the flight route information, the flying device 20 performs imaging by the imaging device 22 based on the camera angle and framing set together with the flight route information.
  • the flying device 20 flies and shoots based on the flight route information created by the information processing terminal 10.
  • the flight route information of the flight device 20 is selected and set from a flight route template presented to the user via the information processing terminal 10.
  • the flight route template also includes settings at the time of shooting by the imaging device 22. Therefore, when the user selects a template for the subject, flight route information including flight control information for causing the flying device 20 to fly along the flight route and shooting control information of the imaging device 22 is automatically generated. Is done.
  • FIG. 2 shows functional configurations of the information processing terminal 10 and the flying device 20 that constitute the imaging system according to the present embodiment.
  • the information processing terminal 10 includes an input unit 110, a control unit 120, a template acquisition unit 130, a flight route generation unit 140, a display processing unit 150, a display unit 160, and a communication unit 170.
  • the input unit 110 includes an input unit 110, a control unit 120, a template acquisition unit 130, a flight route generation unit 140, a display processing unit 150, a display unit 160, and a communication unit 170.
  • the input unit 110 is a functional unit that receives an operation of the information processing terminal 10 from the user.
  • the input unit 110 is, for example, a touch panel provided over the display unit 160 or a button provided on the housing of the information processing terminal 10.
  • the input unit 110 Upon receiving an operation input from the user, the input unit 110 outputs input information to the control unit 120.
  • the control unit 120 controls various functional units included in the information processing terminal 10 based on input information from the input unit 110. For example, when receiving a flight route information creation request as input information, the control unit 120 displays a shooting scene selection screen (FIG. 4) for setting flight route information on the display unit 170 on the display processing unit 160. Instruct them to do so. Further, when receiving the shooting scene selection information as input information, the control unit 120 instructs the template acquisition unit 130 to acquire a template in which flight route information suitable for the selected shooting scene is set in advance. Alternatively, when receiving the change information for changing the flight route information of the selected template as the input information, the control unit 120 instructs the flight route generation unit 140 to correct the flight route information. The control unit 120 also performs communication control with the flying device 20.
  • a shooting scene selection screen FIG. 4
  • the template acquisition unit 130 acquires a preset flight route information template of the flight device 20 from the server 30 based on an instruction from the control unit 120.
  • the server 30 is connected to be communicable via a network.
  • the server 30 includes a template storage unit 310 that stores a preset flight route information template. Note that the template stored in the template storage unit 310 may be updated at a predetermined timing.
  • the template acquisition unit 130 transmits the shooting scene selected by the user together with the template transmitter request to the server 30 and receives a template suitable for the selected shooting scene from the server 30.
  • the acquired template is output to at least one of the flight route generation unit 140 and the display processing unit 150.
  • the flight route generation unit 140 generates flight route information based on the template selected by the user.
  • the flight route generation unit 140 sets the selected template on the subject information including the subject to be photographed by the imaging unit 260 of the flying device 20. Further, the flight route generation unit 140 receives the flight route information change information and corrects the flight route information. The details of the function of the flight route generation unit 140 will be described later.
  • the flight route generation unit 140 outputs the generated flight route information to the display processing unit 150.
  • the display processing unit 150 performs processing for displaying various types of information on the display unit 160.
  • the display processing unit 150 causes the display unit 160 to display the template acquired by the template acquisition unit 130, the flight route information generated by the flight route generation unit 140, and the like.
  • the display unit 160 displays various types of information displayed by the display processing unit 150.
  • the display unit 160 is, for example, a liquid crystal display device or an organic EL display device.
  • the touch panel is provided as the input unit 110 in the display unit 160, the user can directly operate information displayed on the display unit 160 by bringing a finger or the like into contact with the surface of the display unit 160.
  • the communication unit 170 is a functional unit for transmitting and receiving information to and from the flying device 20.
  • the communication unit 170 may be, for example, a wireless communication device such as Bluetooth (registered trademark) or a wireless LAN (Local Area Network), or may be a wire communication device that performs wired communication.
  • the communication unit 170 transmits information to the flying device 20 and outputs the information received from the flying device 20 to the control unit 120.
  • the flying device 20 includes a communication unit 210, a flight control unit 220, a flight mechanism 230, an imaging control unit 240, an imaging unit 250, and an imaging data storage unit 260.
  • the communication unit 210 is a functional unit for transmitting and receiving information to and from the information processing terminal 10.
  • the communication unit 210 is equivalent to the communication device 170 of the information communication terminal 10, and is, for example, a wireless communication device such as Bluetooth (registered trademark) or a wireless LAN, a wire communication device that performs wired communication, or the like.
  • the communication unit 210 outputs information received from the information communication terminal 10 to the flight control unit 220 and the imaging control unit 240, and transmits information to the information communication terminal 10 in response to a transmission instruction from the imaging control unit 240.
  • the flight control unit 220 performs flight control for causing the flying device 20 to fly along the set flight route based on the flight route information.
  • the flight control unit 220 drives the flight mechanism 230 based on the flight route information and causes the flight device 20 to fly.
  • the flying mechanism 230 is a mechanism for flying the flying device 20 and causes the flying device 20 to fly by causing the motor 232 to rotate the propeller 234 to generate lift.
  • the flight mechanism 230 may be composed of, for example, four propellers 234 and four motors 232 provided for the respective propellers 234. Each motor 232 is driven based on the motor drive control information from the flight control unit 220 and rotates the propeller 234 by its rotational force.
  • the imaging control unit 240 controls the imaging by the imaging unit 250 based on setting information (hereinafter also referred to as “imaging setting information”) at the time of imaging of the imaging unit 250 included in the flight route information. For example, based on the shooting setting information, the shooting control unit 240 instructs the start and end of shooting by the imaging unit 250, and sets the camera angle, framing, and the like. In addition, the imaging control unit 240 stores the imaging data acquired by the imaging unit 250 in the imaging data storage unit 260 or transmits the imaging data to the information processing terminal 10 via the communication unit 210.
  • imaging setting information hereinafter also referred to as “imaging setting information”
  • the imaging unit 250 captures a still image or a moving image.
  • the imaging unit 250 includes, for example, an imaging element such as a lens, a CCD (Charge Coupled Device) image sensor, and a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the imaging unit 250 performs still image or moving image imaging based on the imaging control information from the imaging control unit 240.
  • the captured image may be recorded in the shooting data storage unit 260 as shooting data.
  • the imaging data storage unit 260 stores imaging data including a still image or a moving image acquired by the imaging unit 250.
  • the imaging data may be stored in the imaging data storage unit 260 in association with the flight route information when the image is captured.
  • the shooting data stored in the shooting data storage unit 260 can be read out by the information processing terminal 10 or other devices after the flight, for example.
  • the imaging device 22 is configured by the imaging control unit 240, the imaging unit 250, and the imaging data storage unit 260.
  • the flight route information template is acquired from the external server 30, but the present disclosure is not limited to such an example.
  • FIG. in this case as well, the templates stored in the template storage unit can be updated to increase the variation of flight route information that can be provided to the user, or to provide flight route information more suitable for the shooting scene and subject. You can do it.
  • FIG. 3 is a flowchart showing the flight route information generation process according to the present embodiment.
  • FIG. 4 is an explanatory diagram showing an example of a shooting scene selection screen 410 for selecting a shooting scene.
  • FIG. 5 is an explanatory diagram showing an example of the template selection screen 420.
  • FIG. 6 is an explanatory diagram illustrating flight route information represented by a template.
  • FIG. 7 is an explanatory diagram showing an example of a flight route information adjustment screen 430 for adjusting a template.
  • FIG. 8 is an explanatory diagram showing an example of the flight route information adjustment screen 430 including the preview screen 432b.
  • the user sets the flight route information of the flying device 20 using the information processing terminal 10.
  • the information processing terminal 10 presents an optimal template according to the scene or subject that the user wants to photograph with the imaging device 22 of the flying device 20, and sets the selected template according to the subject to fly. Generate route information. Accordingly, the user can cause the flying device 20 to take an aerial image without performing the flight control of the flying device 20 or the imaging control of the imaging device 22.
  • the flight route information generation process will be described in detail.
  • the control unit 120 displays a shooting scene selection screen 410 for selecting a shooting scene to be shot on the display unit 160, and allows the user to select a shooting scene. (S100).
  • FIG. 4 shows an example of the shooting scene selection screen 410.
  • “Basic ⁇ ⁇ ⁇ Flight” 412a for shooting landscapes “Sports” 412b for shooting sports competitions, “Marine” 412c for shooting beaches and the sea, and shooting in a park “ Park "412d and the like are presented.
  • “snow” scene for shooting at a ski resort, a snowy field, or the like may be presented.
  • Each shooting scene is preliminarily set with a flight route information template for shooting the scene well.
  • any one of the shooting scene objects 412a to 412d when any one of the shooting scene objects 412a to 412d is selected, auto setting in which flight route information is automatically set for the shooting scene is executed.
  • the user can select a shooting scene by touching the display area of the corresponding shooting scene object from the shooting scene objects 412 a to 412 d displayed on the shooting scene selection screen 410.
  • the screen changes to the template selection screen 420, and a template corresponding to the flight route information suitable for the selected shooting scene is displayed (S110).
  • the flight route information setting process in which the flight route information is automatically set will be described.
  • the user selects a manual setting object 412e that enables manual setting of flight route information on the shooting scene selection screen 410 of FIG. Processing at the time of manual setting will be described in detail in a second embodiment described later.
  • a “PlayBack” object 414 for reproducing shooting data and a “Settings” object 416 for performing various settings related to the flight route information generation process are displayed. It may be.
  • step S100 When a shooting scene is selected in step S100, the information processing terminal 10 displays a flight route information template corresponding to the selected shooting scene on the display unit 160 and presents it to the user (S110).
  • the control unit 120 of the information processing terminal 10 causes the template acquisition unit 130 to acquire a flight route information template suitable for the shooting scene from the server 30.
  • the template acquisition unit 130 transmits the shooting scene selected by the user together with the template transmitter request to the server 30.
  • Each template stored in the template storage unit 310 of the server 30 includes a flight route of the flying device 20 and shooting setting information of the imaging device 22 of the flying device 20 as flight route information.
  • the template includes, as digital data, three-dimensional position information of a plurality of points that the predetermined flying device 20 should fly and information indicating the order of movement to each point.
  • the template only needs to include information corresponding to the route on which the flying device 20 should fly, and may include, for example, movement path data represented by vector components instead of position information of a plurality of points.
  • the flight route template for each shooting scene is designed in such a way that it combines parts of the flight route (also referred to as “partial template”) such as horizontal movement, ascending, and turning to optimize the shooting scene and subject. Specifically, it is designed in consideration of the shape and size of the space for photographing and the shape and position of the subject. For example, when photographing a building, the flight device 20 can be moved along the height direction of the building or swiveled around the building by adopting a flight route that incorporates many vertical movements and turning operations. can do. Further, for example, when shooting a sports competition, it is possible to move the flying device 20 following the movement of a person by using a flight route that incorporates many linear motions.
  • the template of shooting setting information for each shooting scene is set according to the flight route and the combination of flight routes.
  • the shooting setting information include shooting start information for starting shooting, shooting end information for ending shooting, camera angle and framing at the time of shooting, camera mode setting for adjusting a frame rate, zoom setting, and the like.
  • camera mode setting for example, high frame rate shooting with a high frame rate and low speed shooting with a low frame rate can be set.
  • the imaging direction of the imaging device 22 is set so as to face the traveling direction of the flying device 20 or the position where the subject exists. Further, when the flying device 20 turns, the imaging direction of the imaging device 22 is set so as to face the rotation center of the flying device 20. Note that processing such as white balance, brightness adjustment, and backlight correction may be automatically performed.
  • Each template stored in the template storage unit 310 of the server 30 stores shooting scene information suitable for shooting based on the flight route information in association with the above-described flight route information.
  • the server 30 extracts a template associated with the selected shooting scene from the template storage unit 310 and transmits the template to the template acquisition unit 130 of the information processing terminal 10.
  • the template acquisition unit 130 outputs the template acquired from the server 30 to the display processing unit 150, and the display processing unit 150 displays the template selection screen 420 on the display unit 160.
  • FIG. 5 shows an example of the template selection screen 420.
  • FIG. 5 shows an example of the template selection screen 420 when “Basic Flight” 412a is selected on the shooting scene selection screen 410 of FIG.
  • the template selection screen 420 includes a subject information display area 421 that displays subject information including a subject, and a template display area 422 in which a template of flight route information acquired from the server 30 is displayed.
  • the subject information displayed in the subject information display area 421 is map information of the shooting range including the subject, and can be acquired by specifying the shooting range including the subject using a map application, for example.
  • the subject information is acquired before the template is selected.
  • the subject information may be acquired before the shooting scene selection process in step S100.
  • the flying device 20 moves in the space, if the map information as the subject information is three-dimensionally displayed, it becomes easy for the user to image the movement of the flying device 20.
  • the three-dimensional data (that is, 3D map) of the map information for example, data acquired in advance by three-dimensional laser scanning can be used.
  • the subject information can be set as a photographing range when the subject is photographed by the imaging unit 250 as in the present embodiment.
  • the flying device 200 is simply caused to fly, the flight of the flying device 200 is used. It is good also as a range.
  • the map information of the flight range in which the flying device 200 is desired to fly is the subject information.
  • the template display area 422 is provided, for example, at an end (for example, the right end) of the subject information display area 421, and displays template objects 50a, 50b, and 50c that schematically show the flight route information of the template. Although three types of template objects 50a, 50b, and 50c are displayed in the template display area 422 in FIG. 5, one or a plurality of template objects can be displayed in the area 422. When only a part of all the acquired templates is displayed in the template display area 422, a non-displayed template object can be displayed in the template display area 422 by, for example, a scroll bar or a movement button. Good.
  • the user selects a template to be used as flight route information from the template objects 50a, 50b, and 50c displayed in the template display area 422.
  • the template can be selected by, for example, dragging the template objects 50a, 50b, and 50c to be selected to an arbitrary position in the subject information display area 421.
  • selection can be made by bringing a finger or the like into contact with the object regions 422a, 422b, and 422c corresponding to the template objects 50a, 50b, and 50c.
  • each template object 50a, 50b, 50c shown in FIG. 5 represents a flight route of the flying device 20, and shows how the flying device 20 moves from the shape of the template object.
  • the flight route of the template object 50a moves over the sky at substantially the same height, and the flight route of the template object 50b rises after turning and further turns in the sky. Further, the flight route of the template object 50c rises vertically and then descends while drawing a spiral. In this way, the user can easily recognize the contents of each template from the template objects 50a, 50b, and 50c.
  • the template object may further include shooting setting information.
  • shooting setting information For example, in the template object 50 a shown in FIG. 6, the movement of the flying device 20 is indicated by broken lines 51 and 53 and a solid line 52. The sections of the broken lines 51 and 53 indicate that shooting by the imaging device 22 is not performed, and the section of the solid line 52 indicates that shooting by the imaging device 22 is performed. That is, the template object 50a shown in FIG. 6 does not acquire imaging data when the flying device 20 ascends or descends, and can acquire imaging data only when moving above the sky at substantially the same height. Recognize.
  • step S110 the user selects one template object from the template objects 50a, 50b, and 50c displayed in the template display area 422 (S120).
  • the control unit 120 displays the selected template on the 3D map that is the subject information to the template creation unit 140 to display the flight route information. The details are shown to the user. As a result, for example, a flight route adjustment screen 430 on which the flight route of the selected template is displayed on the 3D map as shown in FIG. 7 is displayed.
  • the template creation unit 140 associates the movement path of the flying device 200 represented by the template object on a 3D map that imitates the real world.
  • the template creation unit 140 associates the position where the template object is placed on the 3D map with the position information (latitude, longitude, altitude) in the real world associated with each position of the 3D map, so that the flying device 200 Generate absolute flight route information moving in the real world.
  • the template creation unit 140 is defined by information indicating the relative flight path of the flight device, that is, flight route information of the flight device 200, and an absolute flight range or a physical absolute position on the 3D map. By associating with the flight range, absolute flight route information in the real world of the flying device 200 is generated.
  • the flight range can be defined using the coordinates of a certain space defined by the absolute position.
  • the information included in the flight range may be information that can define the absolute position.
  • a reference point of the absolute position used for determining the absolute position of the flight device is used as information for defining the flight range.
  • the template creation unit 140 may convert relative flight route information indicated by the template with reference to the reference point of the absolute position, and generate absolute flight route information in the real world of the flying device 200.
  • FIG. 7 shows an example of the flight route adjustment screen 430 on which the flight route of the selected template is displayed on the subject information.
  • FIG. 7 shows a case where the template object 50 b is selected on the template selection screen 420.
  • the flight route adjustment screen 430 includes a flight route information adjustment region 431 for displaying subject information on which the flight route is displayed, and a detailed information display region 432 for displaying detailed information on the flight route information.
  • the flight route information adjustment area 431 is an area for changing the flight route displayed on the subject information.
  • the flight route object (also referred to as “flight route object”) 60 of the template object 50b selected by the user by the drag operation or the touch operation in step S120 is displayed on the subject information.
  • the flight route object 60 can be finely adjusted to become a route intended by the user.
  • the user can adjust the flight route object 60 displayed in the flight route information adjustment area 431 by moving it by, for example, a drag operation and arranging it so as to match the 3D map that is subject information.
  • a basic flight route is maintained by performing a pinch-out operation for separating two fingers from a contact state or a pinch-in operation for bringing two separated fingers close together.
  • You can also enlarge or reduce the flight route. For example, when enlarging a turning flight route set around the structure A on the sea surface in the flight route object 60, a pinch-out operation may be performed within a circle of the turning flight route. Further, for example, when it is desired to lower the position of the two turning flight routes that are above the sky, a pinch-in operation may be performed so that these turning flight routes are brought closer.
  • a plurality of adjustment points 62a to 62i may be displayed on the flight route object 60 displayed in the flight route information adjustment region 431.
  • These adjustment points 62a to 62i are operation positions for changing the flight route information, and are arbitrarily set, for example, at positions that become points on the flight route.
  • the shape of the flight route object 60 can be changed by moving the adjustment points 62a to 62i.
  • the flight route information adjustment area 431 in FIG. 7 it is assumed that the user moves a finger or the like to the adjustment point 62f and moves it toward the center of the turning flight route. Then, with the movement of the adjustment point 62f, the flight route object 60 is changed to a flight route indicated by a broken line.
  • the flight route between the adjustment points is automatically interpolated and corrected for natural movement.
  • the absolute flight route information in the real world of the flying device 200 is changed correspondingly.
  • the camera angle of the imaging device 22 at that position may be adjusted.
  • FIG. 8 it is assumed that the user touches the adjustment point 62b with a finger or the like.
  • the camera angle object 64 indicating the camera angle is displayed at the position of the adjustment point 62b.
  • a camera angle object 64 shown in FIG. 8 is an arrow, and the direction of the arrow indicates the imaging direction of the imaging device 22. The user can easily change the camera angle of the imaging device 22 by moving or rotating the camera angle object 64 with a finger or the like.
  • the images acquired by the imaging device 22 at the adjustment points 62a to 62i may be previewed. For example, it is assumed that a finger or the like is selected at the adjustment point 62f in FIG.
  • a preview area 432a is provided in the flight route information adjustment area 431, and an image predicted to be captured from this position is displayed in the preview area 432a.
  • the image displayed in the preview area 432a can be predicted based on the 3D map of the subject information and the imaging position, camera angle, zoom setting, and the like obtained from the flight route information.
  • a zoom setting unit 432b that enlarges or reduces the preview image may be provided.
  • the zoom setting unit 432b is a slide bar, for example.
  • the preview image can be enlarged by moving the bar to the + side, and the preview image can be reduced by moving the bar to the-side.
  • the zoom setting unit 432b can adjust the zoom setting of the imaging device 22 at a certain adjustment point while confirming the preview image.
  • a camera mode setting for switching between high-speed shooting and low-speed shooting can be performed in the same manner.
  • the adjustment points 62a to 62i may be displayed on the flight route object 60.
  • the present disclosure is not limited to this example, and the adjustment points 62a to 62i may not be displayed. Good.
  • the adjustment points 62a to 62i are not displayed, for example, when a finger or the like touches an arbitrary position on the flight route object 60, the flight route object 60 is changed or the camera angle object 64 is displayed as described above. The camera angle may be changed.
  • the user can intuitively change the flight route information so as to match the subject information.
  • the detailed information display area 432 of the flight route adjustment screen 430 displays detailed information of the flight route information displayed in the flight route information adjustment area 431 .
  • the detailed information display area 432 displays the total flight time 433 of the set flight route, the flight speed 434 and the altitude 435 of the flight device 20 at a certain position.
  • the currently selected selection template 436 may be displayed. The user can change the flight route of the flying device 20 with reference to these pieces of information.
  • the detailed information display area 432 is provided with an “EditCourse” button 437 for setting whether or not the flight route information displayed in the flight route information adjustment area 431 can be changed.
  • an “EditCourse” button 437 for setting whether or not the flight route information displayed in the flight route information adjustment area 431 can be changed.
  • the detailed information display area 432 is provided with a “REC START” button 438 for causing the flying device 20 to fly based on the set flight route information and starting shooting.
  • the “REC START” button 438 is operable when the flight route information cannot be changed by the “EditCourse” button 437.
  • step S130 the user operates the flight route object 60 displayed in the detailed information display area 432 of the flight route adjustment screen 430 to change the flight route information so that desired shooting data can be acquired. be able to.
  • the flight route information is determined (S140).
  • the confirmation of the flight route information may be, for example, when the “REC START” button 438 is pressed.
  • the final flight route information of the flying device 200 generated by the flight route information generation processing according to the present embodiment may represent all flight routes by absolute position information in the real world. Alternatively, only one point or a plurality of points in the flight route may be represented by absolute position information, and other points may be represented by relative positions from the points represented by the absolute position information.
  • the control unit 120 transmits the flight route information to the flying device 20.
  • the flying device 20 that has received the flight route information performs shooting with the specified shooting setting on the set flight route.
  • the shooting data acquired by the flying device 20 based on the generated flight route information may be transmitted to the information processing terminal 10 in real time so that the user can check it.
  • the imaging data may be stored in the imaging data storage unit 260 of the flying device 20, and the imaging data may be acquired from the imaging data storage unit 260 after imaging by flying.
  • the shooting data acquired by the flying device 20 may be associated not only with the video but also with flight route information when the shooting data is acquired.
  • flight route setting unit 140 when the flight route setting unit 140 generates the flight route information, whether the shooting data is only a video or is associated with the video and the flight route information may be set together.
  • the movement of the flying device 20 for example, horizontal movement, turning, ascending, descending, etc.
  • the flight route information generation process in the imaging system according to the present embodiment has been described above.
  • the user selects a flight route information template presented by selecting a shooting scene, and selects a flight route of the template for subject information including a 3D map. Arrange and represent objects to represent. With such a simple operation, the flying device 20 can fly to perform shooting. Further, fine adjustment of the flight route information can be performed by an intuitive operation such as a drag operation, a pinch-in operation, and a pinch-out operation.
  • FIG. 9 is a flowchart showing the flight route information generation process at the time of manual setting according to the present embodiment.
  • FIG. 10 is an explanatory diagram showing an example of the flight route information creation screen 440 at the time of manual setting.
  • the imaging system according to the present embodiment is the same as that of the first embodiment, the description thereof is omitted here.
  • the flight route information generation process according to this embodiment shown in FIG. 9 is a process executed instead of steps S110 and S120 of the flight route information generation process of the first embodiment shown in FIG. Therefore, first, when receiving an instruction to create flight route information from the user, the control unit 120 displays a shooting scene selection screen 410 for selecting a shooting scene to be shot on the display unit 160, and displays a shooting scene to the user. Let them choose. At this time, when a manual setting object 412e enabling manual setting of flight route information is selected, the screen transits to a flight route information creation screen 440 as shown in FIG.
  • the flight route information creation screen 440 includes, for example, a flight route creation region 441 for creating flight route information, a confirmation region 442 indicating flight route information created at that time, a partial template display region 443, and a confirmation region 444. It consists of.
  • the subject information for example, 3D map
  • the user creates flight route information by arranging and combining partial templates representing the basic flight route of the flying device 20 on the 3D map displayed in the flight route creation area 441 as described below. I will do it.
  • the user selects a partial template representing the basic flight route of the flying device 20 to be placed on the 3D map in the flight route creation region 441 from the partial template display region 443 (S200).
  • the partial template displayed in the partial template display area 443 is such that when the manual setting object 412e is selected on the shooting scene selection screen 410, the control unit 120 acquires the partial template from the server 30 to the template acquisition unit 130. Instructions are given.
  • the partial template also includes shooting setting information of the imaging device 22 during flight along the flight route, as well as the flight route of the flight device 20, as in the flight route information template described in the first embodiment. .
  • the template acquisition unit 130 outputs the partial template acquired from the server 30 to the display processing unit 150, and the display processing unit 150 displays the partial template in the partial template display area 443 of the display unit 160.
  • partial templates such as a turning flight template 443a, a twist flight template 443b, a rolling flight template 443c, and an ascending flight template 443d are displayed in the partial template display area 443.
  • a left move button (“ ⁇ ” button) or a right move button (“>” button) is provided, for example, in the partial template display area 443.
  • the information may be scrollable. Thereby, all partial templates can be presented to the user.
  • the user can select a partial template in the partial template display area 443 by, for example, bringing a finger or the like into contact with the partial template indicating a desired basic flight route.
  • the partial template selected in step S200 is arranged on the flight route creation area 441 (S210).
  • the user can place the partial template selected in the partial template display area 443 in the flight route creation area 441 by a drag operation. Then, the user sets a partial template at an arbitrary position of the subject information displayed in the flight route creation area 441.
  • the flight route creation charge device 441 displays a plan view when the 3D map is viewed from above, but the display angle of this 3D map can be changed as appropriate by the user's operation.
  • the flight route generation unit 140 may write a partial template number unique to each partial template with respect to the partial templates arranged in the flight route creation region 441.
  • the partial template number “1” is displayed together with the turning flight template 443 a arranged in the flight route creation area 441. Thereby, it can be made easy to understand what kind of partial template is used for the flight route information.
  • the display of the partial template may be changed in accordance with the arrangement state, for example, the arranged partial template is indicated by a solid line, and the partial template during the arrangement operation is indicated by a broken line. Good. This makes it easier for the user to recognize the partial template being operated, so that the user can easily create flight route information.
  • the flight route generation unit 140 When the partial template is arranged in the flight route creation area 441, the flight route generation unit 140 also displays the partial template already arranged for the subject information in the flight route creation area 441 in the confirmation area 442. At this time, the partial template number may be displayed in the confirmation area 442 together with the partial template. Further, the display angle of the 3D map displayed in the confirmation area 442 can be changed as appropriate by the user's operation. Since the confirmation area 442 is provided for the user to confirm what kind of flight route information is generated, the confirmation area 442 displays a 3D map at a display angle that makes it easy to confirm the entire configuration of the flight route information. It is good to display.
  • flight route information can be created by an operation of placing modules on a 3D map and combining puzzles.
  • the flight route information creation screen 440 transits to the flight route information adjustment screen 430.
  • the flight route information is adjusted as necessary (S130), and the final flight route information is determined (S140).
  • the flight route information generation process according to the second embodiment has been described above.
  • the user can easily create arbitrary flight route information by arranging a partial template with respect to subject information including a 3D map.
  • flight route information is created manually, it can be created by a simple operation by providing a partial module, and elaborate shooting with a high degree of freedom can be performed.
  • the imaging system by providing flight route information optimized for a shooting scene and a subject as a template, even when shooting with the flying device 20 that is difficult to control, it is possible to set an appropriate camera angle, framing, etc. A shooting effect can be obtained.
  • the provided flight route template is arranged on the 3D map, and the flight route can be finely adjusted by performing general operations such as drag operation and pinch operation. Flight route information can be changed by operation.
  • the camera angle can be easily changed by performing a general operation such as a drag operation or a pinch operation at an adjustment point arbitrarily set on the flight route object 60.
  • the user can also create an arbitrary flight route by combining modular partial templates. Thereby, elaborate photography with a high degree of freedom can be performed.
  • the flight route information can be created while the user corresponds to the 3D map, the range in which the flying device 20 is allowed to fly can be limited. Since the flying device 20 can move in a wide space, when the user performs a flight operation using a controller or the like, the flying device 20 may fly to an unintended range of the user or may enter a restricted area. There is also a possibility of getting lost.
  • the flight route information generation process according to the above-described embodiment, the flight route of the flight device 20 and the area to be photographed are set in advance as flight route information, so that the flight device 20 can be safely photographed.
  • the information processing terminal 10 according to the present embodiment can also be configured as shown in FIG. 11, for example.
  • FIG. 11 a hardware configuration example of the information processing terminal 10 according to the present embodiment will be described with reference to FIG.
  • the information processing terminal 10 can be realized by a processing device such as a computer as described above.
  • the information processing terminal 10 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, and a host bus 904a.
  • the information processing terminal 10 includes a bridge 904, an external bus 904 b, an interface 905, an input device 906, an output device 907, a storage device 908, a drive 909, a connection port 911, and a communication device 913.
  • a processing device such as a computer as described above.
  • the information processing terminal 10 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, and a host bus 904a.
  • the information processing terminal 10 includes a bridge 904, an external bus 904 b, an interface 905, an input device 906, an output device 907, a storage device 908, a drive 909, a connection port 911, and
  • the CPU 901 functions as an arithmetic processing device and a control device, and controls the overall operation in the information processing terminal 10 according to various programs. Further, the CPU 901 may be a microprocessor.
  • the ROM 902 stores programs used by the CPU 901, calculation parameters, and the like.
  • the RAM 903 temporarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 904a including a CPU bus.
  • the host bus 904a is connected to an external bus 904b such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 904.
  • an external bus 904b such as a PCI (Peripheral Component Interconnect / Interface) bus
  • PCI Peripheral Component Interconnect / Interface
  • the host bus 904a, the bridge 904, and the external bus 904b do not necessarily have to be configured separately, and these functions may be mounted on one bus.
  • the input device 906 includes an input means for inputting information by the user such as a mouse, keyboard, touch panel, button, microphone, switch, and lever, and an input control circuit that generates an input signal based on the input by the user and outputs the input signal to the CPU 901. Etc.
  • the output device 907 includes, for example, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device and a display device such as a lamp, and an audio output device such as a speaker.
  • LCD liquid crystal display
  • OLED Organic Light Emitting Diode
  • the storage device 908 is an example of a storage unit of the information processing terminal 10 and is a device for storing data.
  • the storage device 908 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like.
  • the storage device 908 drives a hard disk and stores programs executed by the CPU 901 and various data.
  • the drive 909 is a reader / writer for a storage medium, and is built in or externally attached to the information processing terminal 10.
  • the drive 909 reads information recorded on a mounted removable recording medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and outputs the information to the RAM 903.
  • the connection port 911 is an interface connected to an external device, and is a connection port with an external device capable of transmitting data by USB (Universal Serial Bus), for example.
  • the communication device 913 is a communication interface configured by a communication device or the like for connecting to the communication network 5, for example.
  • the communication device 913 may be a wireless LAN (Local Area Network) compatible communication device, a wireless USB compatible communication device, or a wire communication device that performs wired communication.
  • the flying device 20 includes the imaging device 22.
  • the present disclosure is not limited to this example, and the flying device 20 does not necessarily include the imaging device 22.
  • the shooting setting information may not be included in the flight route information.
  • the flying device 20 performs an aerial attraction, the flight route of the flying device 20 can be easily set by using the method of the above embodiment, and the flying device 20 can fly safely. .
  • An information processing apparatus comprising: a flight route generation unit configured to associate flight route information of the selected template with a flight range of a flying object and generate flight route information of the flying object based on a user operation.
  • a flight route generation unit presents a template corresponding to a scene in which the flying object is caused to fly.
  • the flight route generation unit presents a template corresponding to a shooting mode of an imaging unit provided in the flying object.
  • the flight route information further includes shooting setting information of an imaging unit provided in the flying object.
  • the flight route generation unit A flight route object indicating a flight route of the template is displayed on map information indicating a flight range of the flying object; Based on a user operation, the flight route object is moved with respect to the map information, The information processing apparatus according to any one of (1) to (4), wherein the flight route information of the flying object is generated based on the setting of the flight route object when the user performs a confirmation operation.
  • the flight route generation unit associates the position where the flight route object is arranged on the map information with the position information in the real world associated with each position of the map information, and The information processing apparatus according to (5), which generates route information.
  • the flight route generation unit displays a preview of a captured image acquired by an imaging unit provided on the flying object at an arbitrary position on the flight route object on a display unit.
  • One or more adjustment points are provided on the displayed flight route, The information processing apparatus according to any one of (5) to (7), wherein the flight route generation unit changes the flight route information based on an operation on the adjustment point from a user.
  • the flight route generation unit A camera angle object for displaying a camera angle of an imaging unit provided in the flying object is displayed at the adjustment point, The information processing apparatus according to (8), wherein the camera angle of the imaging unit is changed in accordance with a change in orientation of the camera angle object by a user operation.
  • the information processing apparatus according to (8) or (9), wherein the flight route generation unit changes flight route information of the flying object according to movement of the adjustment point by a user operation.
  • (11) Including a communication unit that performs at least information communication with the flying object, The information processing apparatus according to any one of (1) to (10), wherein the generated flight route information is transmitted to the flying object via the communication unit.
  • the flight route generation unit is configured to capture shooting data in which the flying object is photographed during flight by an imaging unit provided on the flying object, and the flight route is associated with the flight route.
  • the information processing apparatus according to (11), which is acquired by the flying object.
  • the information processing apparatus includes a template acquisition unit that is capable of communicating with a server that holds a template including a flight route and acquires the template from the server.
  • the information processing apparatus includes a template acquisition unit that is capable of communicating with a server that holds a template including a flight route and acquires the template from the server.
  • the flight route information of the selected template is associated with the flight range of the flying object, and the flight route information of the flying object is generated.
  • Including an information processing method On the computer, Presenting a flight route information template showing the flight route of the vehicle, Based on the user's operation, the flight route information of the selected template is associated with the flight range of the flying object, and the flight route information of the flying object is generated.
  • a program for executing processing including (16) The flying object, A template of flight route information indicating the flight route of the flying object is presented, and the flight route information of the selected template and the flight range of the flying object are associated with each other based on a user operation, and the flight route of the flying object
  • An information processing terminal including a flight route generation unit for generating information;
  • An imaging system comprising:

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Astronomy & Astrophysics (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ユーザが被写体やロケーションに応じた効果的な撮影を容易に行うことが可能な情報処理装置を提供する。飛行体の飛行ルートを示す飛行ルート情報のテンプレートを提示し、ユーザの操作に基づいて、選択されたテンプレートの飛行ルート情報と飛行体の飛行範囲とを対応させ、飛行体の飛行ルート情報を生成する飛行ルート生成部を備える、情報処理装置が提供される。

Description

情報処理装置、情報処理方法、プログラムおよび撮像システム
 本開示は、飛行体の飛行ルートを設定するための情報処理装置、情報処理方法、プログラムおよび撮像システムに関する。
 無線で操縦可能な飛行体にカメラを取り付けて、そのカメラで撮像するという写真の撮像方法に関する技術が開示されている(例えば、特許文献1)。飛行体にカメラを取り付けることで、上空からや、三脚が立てられない場所からの写真を撮像することが可能になる。また飛行体にカメラを取り付けて撮像することで、本物の飛行機やヘリコプターを使用した場合よりもコストを抑えることができる、安全に撮像ができる、低空や狭い場所でも撮像ができる、目標に接近して撮像ができる等の様々な利点がもたらされる。
特開2006-27448号公報
 このような撮像装置を備えた飛行体は、古くは軍用に用いられることが多かったが、最近ではコンシューマ向けの飛行体も増えつつある。しかしながら、コンシューマ向けの飛行体では、撮影のソリューションとして不十分なものが多い。
 例えば、飛行体を制御する技術は高い技術を要するものであり、かつ、撮影に特化したものではない。ユーザは飛行体の飛行操作とカメラの撮影操作とを行う必要があるため、一般的なカメラユーザには操作の難易度が高く、被写体やロケーションに応じた効果的な撮影を行うことは困難であった。
 そこで、本開示では、ユーザが被写体やロケーションに応じた効果的な撮影を容易に行うことが可能な、新規かつ改良された情報処理装置、情報処理方法、プログラムおよび撮像システムを提案する。
 本開示によれば、飛行体の飛行ルートを示す飛行ルート情報のテンプレートを提示し、ユーザの操作に基づいて、選択されたテンプレートの飛行ルート情報と飛行体の飛行範囲とを対応させ、飛行体の飛行ルート情報を生成する飛行ルート生成部を備える、情報処理装置が提供される。
 また、本開示によれば、飛行体の飛行ルートを示す飛行ルート情報のテンプレートを提示すること、ユーザの操作に基づいて、選択されたテンプレートの飛行ルート情報と飛行体の飛行範囲とを対応させ、飛行体の飛行ルート情報を生成すること、を含む、情報処理方法が提供される。
 さらに、本開示によれば、コンピュータに、飛行体の飛行ルートを示す飛行ルート情報のテンプレートを提示すること、ユーザの操作に基づいて、選択されたテンプレートの飛行ルート情報と飛行体の飛行範囲とを対応させ、飛行体の飛行ルート情報を生成すること、を含む処理を実行させるためのプログラムが提供される。
 また、本開示によれば、飛行体と、飛行体の飛行ルートを示す飛行ルート情報のテンプレートを提示し、ユーザの操作に基づいて、選択されたテンプレートの飛行ルート情報と飛行体の飛行範囲とを対応させ、飛行体の飛行ルート情報を生成する飛行ルート生成部を備える情報処理端末と、からなる撮像システムが提供される。
 本開示によれば、ユーザに飛行体の飛行ルートを示す飛行ルート情報のテンプレートを提示し、当該テンプレートに対して行われるユーザの操作に基づいて最終的な飛行体の飛行ルート情報が生成される。ユーザは、テンプレートを選択して、操作することで、容易に飛行体の飛行ルート情報を生成することができる。
 以上説明したように本開示によれば、飛行体の飛行ルート情報を容易に作成することができるので、ユーザが被写体やロケーションに応じた効果的な撮影を容易に行うことが可能となる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の第1の実施形態に係る撮像システムの概要を説明する説明図である。 同実施形態に係る撮像システムを構成する情報処理端末および飛行デバイスの機能構成を示す機能ブロック図である。 同実施形態に係る飛行ルート情報生成処理を示すフローチャートである。 同実施形態に係る撮影シーンを選択する撮影シーン選択画面の一例を示す説明図である。 同実施形態に係るテンプレート選択画面の一例を示す説明図である。 同実施形態に係るテンプレートが表す飛行ルート情報を説明する説明図である。 同実施形態に係る飛行ルート情報の調整を行う飛行ルート情報調整画面の一例を示す説明図である。 同実施形態に係るプレビュー画面を備える飛行ルート情報調整画面の一例を示す説明図である。 本開示の第2の実施形態に係るマニュアル設定時の飛行ルート情報生成処理を示すフローチャートである。 同実施形態に係るマニュアル設定時の飛行ルート情報作成画面の一例を示す説明図である。 上記実施形態に係る情報処理端末のハードウェア構成の一例を示すハードウェア構成図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.第1の実施の形態(テンプレートを利用したオート作成)
  1.1.飛行体を用いた撮像システムの概要
  1.2.機能構成
  1.3.飛行ルート情報生成処理
 2.第2の実施形態(部分テンプレートを用いたマニュアル作成)
  2.1.飛行ルート情報生成処理
 3.まとめ
 4.ハードウェア構成例
 <1.第1の実施形態>
 [1.1.飛行体を用いた撮像システムの概要]
 まず、図1を参照して、本開示の第1の実施形態に係る撮像システムの概要について説明する。なお、図1は、本実施形態に係る撮像システムの概要を説明する説明図である。
 本実施形態に係る撮像システムは、図1に示すように、情報処理端末10と飛行デバイス(飛行体)20とからなり、互いに通信可能に構成されている。情報処理端末10は、例えばスマートフォンやタブレット端末等の機器であり、本実施形態に係る撮像システムにおいて、飛行デバイス20の飛行ルート情報を作成するための機器として用いられる。情報処理端末10は、通信機能を備えていることで、作成した飛行ルート情報を飛行デバイス20へ送信することができる。
 一方、飛行デバイス20は、飛行ルート情報に基づいて飛行するデバイスである。本実施形態に係る飛行デバイス20には、撮像装置22が設けられている。飛行デバイス20は、飛行ルート情報に基づき飛行しながら、飛行ルート情報とともに設定されたカメラアングルやフレーミングに基づき撮像装置22による撮影を行う。
 本実施形態に係る撮像システムでは、飛行デバイス20は、情報処理端末10により作成された飛行ルート情報に基づき飛行し撮影を行う。飛行デバイス20の飛行ルート情報は、情報処理端末10を介してユーザに提示される飛行ルートのテンプレートから選択して設定される。飛行ルートのテンプレートには、撮像装置22の撮影時の設定も含まれている。したがって、ユーザが被写体に対してテンプレートを選択することで、飛行デバイス20を飛行ルートに沿って飛行させるための飛行制御情報と撮像装置22の撮影制御情報とを含む飛行ルート情報が自動的に生成される。
 以下では、本実施形態に係る撮像システムの構成と、飛行デバイス20の飛行ルート情報の生成処理について、詳細に説明する。
 [1.2.機能構成]
 図2に、本実施形態に係る撮像システムを構成する情報処理端末10および飛行デバイス20の機能構成を示す。
(情報処理端末)
 情報処理端末10は、図2に示すように、入力部110と、制御部120と、テンプレート取得部130と、飛行ルート生成部140と、表示処理部150と、表示部160と、通信部170とを備える。
 入力部110は、ユーザからの情報処理端末10の操作を受け付ける機能部である。入力部110は、例えば、表示部160に重ねて設けられたタッチパネルや、情報処理端末10の筐体に設けられたボタン等である。入力部110は、ユーザからの操作入力を受けると、入力情報を制御部120へ出力する。
 制御部120は、入力部110からの入力情報に基づいて、情報処理端末10が備える各種機能部を制御する。例えば、制御部120は、入力情報として、飛行ルート情報の作成要求を受けると、表示処理部160に対し、飛行ルート情報を設定するための撮影シーン選択画面(図4)を表示部170に表示させるよう指示する。また、制御部120は、入力情報として撮影シーンの選択情報を受けると、テンプレート取得部130に対し、選択された撮影シーンに適した飛行ルート情報が予め設定されたテンプレートを取得するよう指示する。あるいは、制御部120は、入力情報として、選択されたテンプレートの飛行ルート情報を変更する変更情報を受けると、飛行ルート生成部140に対し、飛行ルート情報を修正するよう指示する。また、制御部120は、飛行デバイス20との通信制御も行う。
 テンプレート取得部130は、制御部120の指示に基づいて、サーバ30から予め設定された飛行デバイス20の飛行ルート情報のテンプレートを取得する。サーバ30とはネットワークを介して通信可能に接続されている。サーバ30は、予め設定された飛行ルート情報のテンプレートを記憶するテンプレート記憶部310を備える。なお、テンプレート記憶部310に記憶されたテンプレートは所定のタイミングで更新されるようにしてもよい。テンプレート取得部130は、テンプレート送信機要求とともにユーザが選択した撮影シーンをサーバ30へ送信して、選択された撮影シーンに適したテンプレートをサーバ30から受信する。取得されたテンプレートは、飛行ルート生成部140または表示処理部150のうち少なくともいずれか一方に出力される。
 飛行ルート生成部140は、ユーザにより選択されたテンプレートに基づいて、飛行ルート情報を生成する。飛行ルート生成部140は、ユーザによりテンプレートが選択されると、飛行デバイス20の撮像部260により撮影する被写体を含む被写体情報上に、選択されたテンプレートを設定する。また、飛行ルート生成部140は、飛行ルート情報の変更情報を受けて、飛行ルート情報を修正する。なお、飛行ルート生成部140の機能の詳細については後述する。飛行ルート生成部140は、生成した飛行ルート情報を表示処理部150へ出力する。
 表示処理部150は、各種情報を表示部160に表示させる処理を行う。表示処理部150は、例えば、テンプレート取得部130により取得されたテンプレートや、飛行ルート生成部140により生成された飛行ルート情報等を、表示部160に表示させる。
 表示部160は、表示処理部150により表示処理された各種情報を表示する。表示部160は、例えば、液晶ディスプレイ装置や有機ELディスプレイ装置等である。表示部160に入力部110としてタッチパネルが設けられているときは、ユーザは表示部160の表面に指等を接触させることで表示部160に表示されている情報を直接操作することができる。
 通信部170は、飛行デバイス20との間で情報を送受信するための機能部である。通信部170は、例えば、Bluetooth(登録商標)や無線LAN(Local Area Network)等の無線通信用装置であってもよく、有線による通信を行うワイヤー通信装置であってもよい。通信部170は、制御部120からの送信指示を受けて飛行デバイス20に対して情報を送信し、飛行デバイス20から受信した情報を制御部120へ出力する。
 (飛行デバイス)
 一方、飛行デバイス20は、図2に示すように、通信部210と、飛行制御部220と、飛行機構230と、撮影制御部240と、撮像部250と、撮影データ記憶部260とを備える。
 通信部210は、情報処理端末10との間で情報を送受信するための機能部である。通信部210は、情報通信端末10の通信装置170と同等、例えば、Bluetooth(登録商標)や無線LAN等の無線通信用装置、有線による通信を行うワイヤー通信装置等である。通信部210は、情報通信端末10から受信した情報を飛行制御部220および撮影制御部240へ出力し、撮影制御部240からの送信指示を受けて情報通信端末10に対して情報を送信する。
 飛行制御部220は、飛行ルート情報に基づいて、飛行デバイス20を設定された飛行ルートに沿って飛行させる飛行制御を行う。飛行制御部220は、飛行ルート情報に基づき、飛行機構230を駆動させ、飛行デバイス20を飛行させる。
 飛行機構230は、飛行デバイス20を飛行させるための機構であって、モータ232によりプロペラ234を回転させることで揚力を生じさせて飛行デバイス20を飛行させる。飛行機構230は、例えば4つのプロペラ234と、各プロペラ234に対してそれぞれ設けられる4つのモータ232とから構成してもよい。各モータ232は、飛行制御部220からのモータ駆動制御情報に基づき駆動し、その回転力によってプロペラ234をそれぞれ回転させる。
 撮影制御部240は、飛行ルート情報に含まれる撮影部250の撮影時の設定情報(以下、「撮影設定情報」ともいう。)に基づいて、撮像部250による撮影を制御する。撮影制御部240は、例えば、撮影設定情報に基づき、撮像部250による撮影開始や撮影終了を指示したり、カメラアングルやフレーミング等を設定したりする。また、撮影制御部240は、撮像部250により取得された撮影データを、撮影データ記憶部260に記憶させたり、通信部210を介して情報処理端末10へ送信したりする。
 撮像部250は、静止画像または動画像を撮像する。撮像部250は、例えば、レンズやCCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子等で構成されている。撮像部250は、撮影制御部240からの撮影制御情報に基づき静止画像または動画像の撮像を実行する。撮像された画像は、撮影データとして、撮影データ記憶部260に記録してもよい。
 撮影データ記憶部260は、撮像部250により取得された静止画像または動画像を含む撮像データを記憶する。撮影データは、画像を撮像したときの飛行ルート情報と関連付けて撮影データ記憶部260に記憶されてもよい。撮影データ記憶部260に記憶された撮影データは、例えば、飛行後に情報処理端末10やその他の機器により読み出すことができる。撮影制御部240、撮像部250および撮影データ記憶部260により、撮像装置22は構成される。
 以上、本実施形態に係る撮像システムの機能構成について説明した。なお、本実施形態の撮像システムでは、飛行ルート情報のテンプレートは、外部のサーバ30から取得したが、本開示はかかる例に限定されない。例えば、情報処理端末10にテンプレートを記憶するテンプレート記憶部を備える構成としてもよい。この場合にも、テンプレート記憶部に記憶されているテンプレートは、アップデート可能とすることで、ユーザに提供可能な飛行ルート情報のバリエーションを増やしたり、より撮影シーンや被写体に適した飛行ルート情報を提供したりすることができる。
 [1.3.飛行ルート情報生成処理]
 次に、図3~図8に基づいて、本実施形態に係る飛行ルート情報生成処理について説明する。なお、図3は、本実施形態に係る飛行ルート情報生成処理を示すフローチャートである。図4は、撮影シーンを選択する撮影シーン選択画面410の一例を示す説明図である。図5は、テンプレート選択画面420の一例を示す説明図である。図6は、テンプレートが表す飛行ルート情報を説明する説明図である。図7は、テンプレートの調整を行う飛行ルート情報調整画面430の一例を示す説明図である。図8は、プレビュー画面432bを備える飛行ルート情報調整画面430の一例を示す説明図である。
 本実施形態に係る撮像システムでは、ユーザは、情報処理端末10を用いて飛行デバイス20の飛行ルート情報を設定する。この際、情報処理端末10は、ユーザが飛行デバイス20の撮像装置22によって撮影したいシーンや被写体に応じて、最適なテンプレートを提示し、選択されたテンプレートを被写体に合わせて設定することで、飛行ルート情報を生成する。これにより、ユーザは飛行デバイス20の飛行制御や撮像装置22の撮影制御を行うことなく、飛行デバイス20に空撮させることができる。以下、飛行ルート情報生成処理について詳細に説明する。
 (S100:撮影シーン選択)
 まず、ユーザから飛行ルート情報を作成する指示を受けると、制御部120は、表示部160に撮影を行う撮影シーンを選択するための撮影シーン選択画面410を表示させ、ユーザに撮影シーンを選択させる(S100)。
 図4に、撮影シーン選択画面410の一例を示す。撮影シーン選択画面410では、撮影シーンとして、例えば風景等を撮影する「Basic Flight」412a、スポーツ競技を撮影する「Sports」412b、ビーチや海を撮影する「Marine」412c、公園で撮影を行う「Park」412d等が提示される。撮影シーンとしては、上記以外にも、スキー場や雪原等で撮影を行う「スノー」シーン等を提示してもよい。各撮影シーンには、そのシーンを格好のよく撮影するための飛行ルート情報のテンプレートが予めそれぞれ設定されている。
 図4の例では、撮影シーンオブジェクト412a~412dのいずれかが選択された場合には、撮影シーンに対して自動的に飛行ルート情報が設定されるオート設定が実行される。ユーザは、例えば撮影シーン選択画面410に表示された撮影シーンオブジェクト412a~412dから該当する撮影シーンオブジェクトの表示領域に指等を接触させて、撮影シーンを選択することができる。撮影シーンオブジェクト412a~412dのうちいずれか1つが選択されると、テンプレート選択画面420に遷移し、選択された撮影シーンに適した飛行ルート情報に対応したテンプレートが表示される(S110)。
 なお、本実施形態では、飛行ルート情報がオート設定される飛行ルート情報設定処理について説明するが、ユーザ自身で飛行ルート情報を作成することも可能である。この場合には、ユーザは、例えば図4の撮影シーン選択画面410では飛行ルート情報のマニュアル設定を可能にするマニュアル設定オブジェクト412eを選択する。マニュアル設定時の処理については、後述の第2の実施形態にて詳細に説明する。
 また、撮影シーン選択画面410には、例えば図4に示すように、撮影データを再生する「PlayBack」オブジェクト414や、飛行ルート情報生成処理に関連する各種設定を行う「Settings」オブジェクト416が表示されていてもよい。
 (S110:テンプレート表示)
 ステップS100にて撮影シーンが選択されると、情報処理端末10は、選択された撮影シーンに対応する飛行ルート情報のテンプレートを表示部160に表示してユーザに提示する(S110)。情報処理端末10の制御部120は、撮影シーンが選択されると、テンプレート取得部130に対して、サーバ30から当該撮影シーンに適した飛行ルート情報のテンプレートを取得させる。テンプレート取得部130は、テンプレート送信機要求とともにユーザが選択した撮影シーンをサーバ30へ送信する。
 サーバ30のテンプレート記憶部310に記憶されている各テンプレートは、飛行ルート情報として、飛行デバイス20の飛行ルートと、飛行デバイス20の撮像装置22の撮影設定情報とを有している。例えば、テンプレートは、デジタルデータとして、予め定められた飛行デバイス20が飛行すべき複数の地点の3次元的な位置情報と、各地点への移動の順序を示す情報とを含む。テンプレートは、飛行デバイス20が飛行すべきルートに対応する情報を含んでいればよく、複数の地点の位置情報でなく例えばベクトル成分で表された移動経路データを含んでも良い。
 各撮影シーンの飛行ルートのテンプレートは、水平移動や上昇、旋回などの飛行ルートのパーツ(「部分テンプレート」ともいう。)を組み合わせ、撮影するシーンや被写体に最適化する形で設計される。具体的には、撮影する空間の形状や広さ、被写体の形状や位置等を考慮して設計される。例えば、建物を撮影するのであれば、上下方向の移動や旋回動作を多く取り入れた飛行ルートとすることで、飛行デバイス20を建物の高さ方向に沿って移動させたり建物の周りを旋回させたりすることができる。また、例えば運動会の徒競走を撮影するのであれば、直線動作を多く取り入れた飛行ルートとすることで、人物の移動に追従して飛行デバイス20を移動させるようにすることができる。
 各撮影シーンの撮影設定情報のテンプレートは、飛行ルートや飛行ルートの組み合わせに応じて設定されている。撮影設定情報としては、例えば、撮影を開始する撮影開始情報、撮影を終了する撮影終了情報、撮影時のカメラアングルやフレーミング、フレームレートを調整するカメラモード設定、ズーム設定等がある。カメラモード設定では、例えば、フレームレートがハイスピードであるハイフレームレート撮影や、フレームレートがロースピードであるロースピード撮影を設定することができる。
 例えばカメラアングルであれば、飛行デバイス20の水平移動時や上下移動時には、撮像装置22の撮像方向が飛行デバイス20の進行方向あるいは被写体の存在する位置を向くように設定される。また、飛行デバイス20の旋回時には、撮像装置22の撮像方向が飛行デバイス20の回転中心を向くように設定される。なお、ホワイトバランスや明るさ調整、逆光補正等の処理は自動で行うようにしてもよい。
 サーバ30のテンプレート記憶部310に記憶されている各テンプレートには、上述の飛行ルート情報とともに、その飛行ルート情報に基づく撮影が適した撮影シーン情報が関連付けて記憶されている。サーバ30は、テンプレート記憶部310から、選択された撮影シーンが関連付けられているテンプレートを抽出し、情報処理端末10のテンプレート取得部130へ送信する。
 テンプレート取得部130は、サーバ30から取得したテンプレートを表示処理部150へ出力し、表示処理部150は、表示部160にテンプレート選択画面420を表示させる。図5に、テンプレート選択画面420の一例を示す。図5には、図4の撮影シーン選択画面410にて「Basic Flight」412aが選択された場合のテンプレート選択画面420の一例である。
 テンプレート選択画面420は、被写体を含む被写体情報を表示する被写体情報表示領域421と、サーバ30から取得された飛行ルート情報のテンプレートが表示されるテンプレート表示領域422とからなる。
 被写体情報表示領域421に表示される被写体情報は、被写体を含む撮影範囲の地図情報であり、例えば地図アプリケーション等を用いて被写体を含む撮影範囲を特定することにより取得できる。被写体情報は、テンプレートが選択される前までに取得しておく。例えば、ステップS100の撮影シーン選択処理の前に被写体情報を取得してもよい。ここで、飛行デバイス20が空間を移動することから、被写体情報である地図情報を3次元表示すると飛行デバイス20の動きをユーザにイメージさせ易くなる。地図情報の3次元データ(すなわち、3Dマップ)は、例えば3次元レーザスキャニングにより予め取得されたデータを用いることができる。
 なお、被写体情報は、本実施形態のように撮像部250により被写体の撮影を行う場合には撮影範囲とすることができるが、例えば、飛行デバイス200を単に飛行させる場合には飛行デバイス200の飛行範囲としてもよい。この場合、飛行デバイス200を飛行させたい飛行範囲の地図情報が被写体情報となる。
 テンプレート表示領域422は、例えば被写体情報表示領域421の端部(例えば右端)に設けられており、テンプレートの飛行ルート情報を模式化したテンプレートオブジェクト50a、50b、50cが表示されている。図5のテンプレート表示領域422には3種類のテンプレートオブジェクト50a、50b、50cが表示されているが、当該領域422には1または複数のテンプレートオブジェクトを表示することが可能である。取得された全テンプレートのうち一部のみがテンプレート表示領域422に表示されている場合には、例えばスクロールバーや移動ボタン等により、非表示のテンプレートオブジェクトをテンプレート表示領域422に表示できるようにしてもよい。
 ユーザは、テンプレート表示領域422に表示されたテンプレートオブジェクト50a、50b、50cから、飛行ルート情報として利用するテンプレートを選択する。テンプレートの選択は、例えば、選択するテンプレートオブジェクト50a、50b、50cを被写体情報表示領域421の任意の位置にドラッグして行うことができる。あるいは、各テンプレートオブジェクト50a、50b、50cに対応するオブジェクト領域422a、422b、422cに指等を接触させることで選択することもできる。
 ここで、本実施形態では、テンプレート表示領域422においてユーザに提示するテンプレートの内容を、その飛行ルート情報を模式化したテンプレートオブジェクト50a、50b、50cとして提示している。例えば、図5に示す各テンプレートオブジェクト50a、50b、50cは、飛行デバイス20の飛行ルートを表しており、テンプレートオブジェクトの形状から飛行デバイス20がどのように動くかを示している。例えば、テンプレートオブジェクト50aの飛行ルートは上空を略同一高さで移動するものであり、テンプレートオブジェクト50bの飛行ルートは旋回した後上昇して、上空にてさらに旋回するものである。また、テンプレートオブジェクト50cの飛行ルートは、垂直に上昇した後、螺旋を描きながら降下するものである。このように、ユーザは、テンプレートオブジェクト50a、50b、50cから各テンプレートの内容を容易に認識することができる。
 テンプレートオブジェクトには、さらに撮影設定情報も含めてもよい。例えば、図6に示すテンプレートオブジェクト50aでは、飛行デバイス20の動きを破線51、53および実線52で示している。破線51、53の区間は、撮像装置22による撮影が行われないことを示しており、実線52の区間は、撮像装置22による撮影が行われることを示している。すなわち、図6に示すテンプレートオブジェクト50aは、飛行デバイス20が上昇または降下する際には撮像データは取得されず、上空を略同一高さで移動しているときのみ撮影データが取得されることがわかる。
 (S120:テンプレート選択)
 図3の説明に戻り、ステップS110にてテンプレート選択画面420が表示されると、ユーザは、テンプレート表示領域422に表示されたテンプレートオブジェクト50a、50b、50cから1つのテンプレートオブジェクトを選択する(S120)。入力部110の入力情報よりテンプレートオブジェクトが選択されたことを検知すると、制御部120は、テンプレート作成部140に対して、被写体情報である3Dマップ上に選択されたテンプレートを表示して飛行ルート情報の詳細をユーザに提示させる。これにより、例えば図7に示すような、3Dマップ上に選択されたテンプレートの飛行ルートが表示された飛行ルート調整画面430が表示される。
 より詳細に説明すると、テンプレート作成部140は、あるテンプレートオブジェクトが選択されると、テンプレートオブジェクトにより表される飛行デバイス200の移動経路を、現実世界を模した3Dマップ上に対応させる。テンプレート作成部140は、テンプレートオブジェクトが3Dマップ上に置かれた位置と、3Dマップの各位置に関連付けられた現実世界での位置情報(緯度、経度、高度)とを対応させ、飛行デバイス200が現実世界で移動する絶対的飛行ルート情報を生成する。この対応付けにより、現実世界において、飛行デバイス200がどのような緯度、経度、高度を辿って移動していくかが決定される。すなわち、テンプレート作成部140は、飛行デバイス200の飛行ルート情報という相対的な飛行デバイスの移動経路を表す情報と、3Dマップ上での絶対的な飛行範囲、あるいは物理的な絶対位置で定義される飛行範囲とを対応させることで、飛行デバイス200の現実世界での絶対的飛行ルート情報を生成する。
 ここで、飛行範囲は、絶対位置で定義されるある一定の空間の座標を用いて定義することができる。また、飛行範囲に含まれる情報は絶対位置を定義可能な情報であればよく、例えば飛行デバイスの絶対位置を決定するために用いる絶対位置の基準点を、飛行範囲を定義するための情報として用いることも可能である。この場合、テンプレート作成部140は、絶対位置の基準点を基準として、テンプレートが示す相対的な飛行ルート情報を変換し、飛行デバイス200の現実世界での絶対的飛行ルート情報を生成すればよい。
 (S130:飛行ルート情報微調整)
 飛行ルート調整画面430では、飛行ルート情報を変更して微調整することができる(S130)。図7に、被写体情報上に選択されたテンプレートの飛行ルートが表示された飛行ルート調整画面430の一例を示す。図7には、テンプレート選択画面420においてテンプレートオブジェクト50bが選択された場合を示す。
 飛行ルート調整画面430は、飛行ルートが表示された被写体情報を表示する飛行ルート情報調整領域431と、飛行ルート情報の詳細情報が表示される詳細情報表示領域432とからなる。
 飛行ルート情報調整領域431では、被写体情報上に表示された飛行ルートを変更する領域である。ステップS120においてユーザがドラッグ操作あるいはタッチ操作により選択したテンプレートオブジェクト50bの飛行ルートのオブジェクト(「飛行ルートオブジェクト」ともいう。)60が、被写体情報上に表示されている。飛行ルート情報調整領域431では、この飛行ルートオブジェクト60をユーザが意図するルートとなるように微調整を行うことができる。
 例えば、ユーザは、飛行ルート情報調整領域431に表示された飛行ルートオブジェクト60を、例えばドラッグ操作により移動して、被写体情報である3Dマップに合わせるように配置させて調整することができる。また、飛行ルートオブジェクト60上にて、2つの指を接触させた状態から離隔させるピンチアウト操作や、離隔された2つの指を近接させるピンチイン操作等を行うことで、基本的な飛行ルートを維持したままで飛行ルートの拡大や縮小を行うこともできる。例えば、飛行ルートオブジェクト60のうち、海面にある構造物Aの周囲に設定された旋回飛行ルートを大きくするときには、当該旋回飛行ルートの円内においてピンチアウト操作を行えばよい。また、例えば、2つの旋回飛行ルートのうち、より上空にある方の位置を低くしたいときには、これらの旋回飛行ルートを近づけるようにピンチイン操作を行えばよい。
 さらに、図7に示すように、飛行ルート情報調整領域431に表示された飛行ルートオブジェクト60上に、複数の調整ポイント62a~62iを表示させてもよい。これらの調整ポイント62a~62iは、飛行ルート情報を変更する操作位置であり、例えば飛行ルート上のポイントとなる位置等に、任意に設定される。
 例えば、調整ポイント62a~62iを移動させることで、飛行ルートオブジェクト60の形状を変化させることができる。具体的には、図7の飛行ルート情報調整領域431において、ユーザが、例えば調整ポイント62fに指等を接触させ、旋回飛行ルートの中心方向へ移動させたとする。そうすると、調整ポイント62fの移動に伴い、飛行ルートオブジェクト60が破線で示す飛行ルートに変更される。調整ポイント間の飛行ルートは自動的に補間され、自然な移動となるように補正される。このように飛行ルート情報調整領域431にて飛行ルートを変更すると、飛行デバイス200の現実世界での絶対的飛行ルート情報が対応して変更される。
 また、例えば、調整ポイント62a~62iに指等を接触させたときに、その位置での撮像装置22のカメラアングルを調整できるようにしてもよい。例えば、図8に示すように、ユーザが、例えば調整ポイント62bに指等を接触させたとする。そうすると、調整ポイント62bの位置に、カメラアングルを示すカメラアングルオブジェクト64が表示される。図8に示すカメラアングルオブジェクト64は、矢印であり、矢印の向きが撮像装置22の撮像方向を示している。ユーザは、カメラアングルオブジェクト64を指等で移動させたり回転させたりすることで、撮像装置22のカメラアングルを容易に変更することができる。
 さらに、図8に示すように、調整ポイント62a~62iにおける撮像装置22により取得される画像をプレビュー可能にしてもよい。例えば、図8の調整ポイント62fに指等が選択されたとする。このとき、飛行ルート情報調整領域431にプレビュー領域432aが設けられ、この位置から撮像されると予測される画像がプレビュー領域432aに表示される。プレビュー領域432aに表示される画像は、被写体情報の3Dマップと飛行ルート情報から得られる撮像位置、カメラアングル、ズーム設定等とにより、予測可能である。プレビュー領域432aにてプレビュー画像を表示させることで、設定した飛行ルート情報としたときにユーザが意図する画像が取得されるか否かを事前に確認することが可能となる。
 また、プレビュー領域432aにプレビュー画像が表示されたとき、当該プレビュー画像を拡大縮小させるズーム設定部432bを設けてもよい。ズーム設定部432bは、例えばスライドバーであり、バーを+側に移動させるとプレビュー画像を拡大し、バーを-側に移動させるとプレビュー画像を縮小することができる。これにより、ある調整ポイントにおける撮像装置22のズーム設定を、プレビュー画像を確認しながらズーム設定部432bにより調整することも可能となる。カメラアングルやズーム調整以外にも、例えばハイスピード撮影とロースピード撮影との切り替えを行うカメラモード設定等も同様に行うことができる。
 なお、図7、図8のように、飛行ルートオブジェクト60上に調整ポイント62a~62iを表示させてもよいが、本開示はかかる例に限定されず、調整ポイント62a~62iは表示させなくともよい。調整ポイント62a~62iが非表示の場合、例えば、飛行ルートオブジェクト60上の任意の位置に指等が接触されたとき、上述のように、飛行ルートオブジェクト60の変更や、カメラアングルオブジェクト64の表示、カメラアングルの変更を可能にしてもよい。
 このように、飛行ルート調整画面430の飛行ルート情報調整領域431において、ユーザは、飛行ルート情報を被写体情報に合わせるように、直観的に変更することができる。
 一方、飛行ルート調整画面430の詳細情報表示領域432には、飛行ルート情報調整領域431に表示されている飛行ルート情報の詳細情報が表示される。例えば、詳細情報表示領域432には、図7に示すように、設定された飛行ルートの総飛行時間433や、ある位置における飛行デバイス20の飛行速度434および高度435等が表示される。また、現在選択されている選択テンプレート436を表示させてもよい。ユーザは、これらの情報を参考に、飛行デバイス20の飛行ルートを変更することができる。
 詳細情報表示領域432には、飛行ルート情報調整領域431に表示されている飛行ルート情報の変更可否を設定する「EditCourse」ボタン437が設けられている。「EditCourse」ボタン437を押下する度に、飛行ルート情報の変更の可否が切り替わる。この際、飛行ルート情報の変更可能状態の場合には、例えば飛行ルート情報調整領域431中に「Editing」を表示し、ユーザに通知するようにしてもよい。
 また、詳細情報表示領域432には、設定された飛行ルート情報に基づき飛行デバイス20を飛行させて撮影を開始させる「REC START」ボタン438が設けられている。「REC START」ボタン438は、「EditCourse」ボタン437により飛行ルート情報の変更が不可となっている場合に操作可能となる。
 このように、ステップS130では、ユーザは、飛行ルート調整画面430の詳細情報表示領域432に表示された飛行ルートオブジェクト60を操作して、所望の撮影データが取得できるように飛行ルート情報を変更することができる。
 (S140:飛行ルート情報決定)
 ステップS130の飛行ルート情報の調整を終えると、飛行ルート情報が確定される(S140)。飛行ルート情報の確定は、例えば、「REC START」ボタン438が押下されたときとしてもよい。本実施形態に係る飛行ルート情報生成処理で生成される、飛行デバイス200の最終的な飛行ルート情報は、全飛行ルートを現実世界における絶対的な位置情報により表してもよい。あるいは、飛行ルートにおいて、1地点または複数の地点だけ絶対的な位置情報で表し、他の地点は絶対的な位置情報で表した地点からの相対位置により表してもよい。飛行ルート情報が確定されると、制御部120は、飛行ルート情報を飛行デバイス20へ送信する。飛行ルート情報を受信した飛行デバイス20は、設定された飛行ルートで、指定された撮影設定で撮影を行う。
 なお、生成された飛行ルート情報に基づき飛行デバイス20が取得した撮影データは、リアルタイムで情報処理端末10に送信されるようにして、ユーザが確認できるようにしてもよい。あるいは、飛行デバイス20の撮影データ記憶部260に撮像データを記憶しておき、飛行による撮影終了後、撮影データ記憶部260から撮像データを取得するようにしてもよい。
 また、飛行デバイス20により取得される撮影データには、映像のみでなく、撮影データを取得したときの飛行ルート情報を関連付けておいてもよい。撮影データを、映像のみとするか、あるいは映像と飛行ルート情報と関連付けておくかの設定は、例えば、飛行ルート設定部140により飛行ルート情報を生成する際に、合わせて行ってもよい。映像と飛行ルート情報と関連付けた撮影データを取得することで、撮影データの映像を編集する際等、飛行デバイス20の動き(例えば、水平移動、旋回、上昇、降下等)を確認できることで、時間軸の調整や音の挿入等を行い易くすることができる。
 以上、本実施形態に係る撮像システムにおける飛行ルート情報生成処理について説明した。本実施形態に係る飛行ルート情報生成処理によれば、ユーザは、撮影シーンを選択することで提示された飛行ルート情報のテンプレートを選択し、3Dマップからなる被写体情報に対してテンプレートの飛行ルートを表すオブジェクトを配置して合わせる。このような簡単な操作によって、飛行デバイス20を飛行させて撮影を行わせることができるようになる。また、飛行ルート情報の微調整も、ドラッグ操作やピンチイン操作、ピンチアウト操作等の直観的な操作によって行うことができる。
 <2.第2の実施形態>
 次に、第2の実施形態に係る飛行ルート情報生成処理について説明する。本実施形態に係る飛行ルート情報生成処理は、第1の実施形態と同様、図2に示す構成の撮像システムにて実行されるものであり、ユーザ自身で飛行ルート情報を作成するマニュアル設定時の飛行ルート情報生成処理である。以下、図9および図10に基づいて、本実施形態に係る飛行ルート情報生成処理について説明する。なお、図9は、本実施形態に係るマニュアル設定時の飛行ルート情報生成処理を示すフローチャートである。図10は、マニュアル設定時の飛行ルート情報作成画面440の一例を示す説明図である。また、本実施形態に係る撮像システムは、第1の実施形態と同様であるため、ここではその説明を省略する。
 [2.1.飛行ルート情報生成処理]
 図9に本実施形態に係る飛行ルート情報生成処理は、図3に示す第1の実施形態の飛行ルート情報生成処理のステップS110、S120の代わりに実行される処理である。したがって、まず、ユーザから飛行ルート情報を作成する指示を受けると、制御部120は、表示部160に撮影を行う撮影シーンを選択するための撮影シーン選択画面410を表示させ、ユーザに撮影シーンを選択させる。この際、飛行ルート情報のマニュアル設定を可能にするマニュアル設定オブジェクト412eが選択されると、図10に示すような飛行ルート情報作成画面440に遷移する。
 飛行ルート情報作成画面440は、例えば、飛行ルート情報の作成を行う飛行ルート作成領域441と、その時点において作成された飛行ルート情報を示す確認領域442と、部分テンプレート表示領域443と、確定領域444とからなる。飛行ルート作成領域441および確認領域442に表示される被写体情報(例えば、3Dマップ)は、第1の実施形態と同様、飛行ルート情報作成画面440に遷移する前までに取得されているものとする。ユーザは、以下に説明するように、飛行ルート作成領域441に表示された3Dマップ上に対して飛行デバイス20の基本飛行ルートを表す部分テンプレートを配置し組み合わせていくことで、飛行ルート情報を作成していく。
 (S200:部分テンプレート選択)
 まず、ユーザは、飛行ルート作成領域441の3Dマップに配置する飛行デバイス20の基本飛行ルートを表す部分テンプレートを、部分テンプレート表示領域443から選択する(S200)。部分テンプレート表示領域443に表示される部分テンプレートは、撮影シーン選択画面410にてマニュアル設定オブジェクト412eが選択された際、制御部120からテンプレート取得部130に対し、サーバ30から部分テンプレートを取得するよう指示がなされる。なお、部分テンプレートにも、第1の実施形態で説明した飛行ルート情報のテンプレートと同様、飛行デバイス20の飛行ルートとともに、この飛行ルートで飛行中における撮像装置22の撮影設定情報も含まれている。
 テンプレート取得部130は、サーバ30から取得した部分テンプレートを表示処理部150に出力し、表示処理部150によって表示部160の部分テンプレート表示領域443に表示される。例えば図10に示すように、部分テンプレート表示領域443には、旋回飛行テンプレート443a、ツイスト飛行テンプレート443b、ローリング飛行テンプレート443c、上昇飛行テンプレート443d等の部分テンプレートが表示される。部分テンプレート表示領域443内にすべての部分テンプレートを表示できない場合には、例えば左移動ボタン(「<」ボタン)や右移動ボタン(「>」ボタン)を設ける等して、部分テンプレート表示領域443内の情報をスクロールできるようにしてもよい。これにより、ユーザに対してすべての部分テンプレートを提示することができる。
 ユーザは、部分テンプレート表示領域443において、例えば所望の基本飛行ルートを示す部分テンプレートに指等を接触させることで、部分テンプレートを選択することができる。
 (S210:部分テンプレート配置)
 ステップS200にて選択された部分テンプレートは、飛行ルート作成領域441上に配置される(S210)。例えば、ユーザは、部分テンプレート表示領域443にて選択した部分テンプレートを、ドラッグ操作により飛行ルート作成領域441に配置させることができる。そして、ユーザは、飛行ルート作成領域441に表示されている被写体情報の任意の位置に、部分テンプレートを設定する。なお、図10において飛行ルート作成料器441には3Dマップを上空からみたときの平面図が表示されているが、この3Dマップはユーザの操作によって表示角度を適宜変更することが可能である。
 ここで、飛行ルート生成部140は、飛行ルート作成領域441に配置された部分テンプレートに対して、各部分テンプレートに固有の部分テンプレート番号が併記されるようにしてもよい。例えば、図10では、飛行ルート作成領域441に配置された旋回飛行テンプレート443aに対して、部分テンプレート番号「1」が合わせて表示されている。これにより、どのような部分テンプレートにより飛行ルート情報が構成されているかを分かりやすくすることができる。
 また、図10に示すように、配置済の部分テンプレートは実線で示し、配置操作中の部分テンプレートは破線で示す等のように、配置状態に応じて部分テンプレートの表示を変更させるようにしてもよい。これにより、操作中の部分テンプレートが認識しやすくなるので、ユーザは飛行ルート情報の作成を行い易くなる。
 部分テンプレートが飛行ルート作成領域441に配置されると、飛行ルート生成部140は、確認領域442にも飛行ルート作成領域441の被写体情報に対して配置済の部分テンプレートを表示させる。この際、確認領域442にも、部分テンプレートとともに部分テンプレート番号を合わせて表示してもよい。また、確認領域442に表示される3Dマップもユーザの操作によって表示角度を適宜変更することが可能である。確認領域442は、どのような飛行ルート情報が生成されているかをユーザが確認するために設けられているので、確認領域442では、飛行ルート情報の全体構成を確認しやすい表示角度で3Dマップを表示させるとよい。
 (S220:飛行ルート情報決定)
 飛行ルート作成領域441に部分テンプレートを配置すると、ユーザは、意図する飛行ルート情報が作成されたか否かを確認する(S220)。現在の飛行ルート情報がまだ作成途中であれば、ユーザは、意図する飛行ルート情報が作成されるまで、ステップS200、S210の処理を繰り返し行う。一方、意図する飛行ルート情報が作成されたと判断したとき、ユーザは、確定領域444に対して選択操作を行い、飛行ルート情報を決定する。
 このように、水平移動、上昇、旋回などの基本的な飛行パターンと、カメラアングル等の撮影設定情報とを組み合わせてモジュール化した部分テンプレートを提供することで、ユーザが任意に組み合わせて飛行ルート情報を作成することができる。すなわち、3Dマップ上にモジュールを配置しパズルを組み合わせるような操作で、飛行ルート情報を作成することが可能となる。
 図9に示す処理により、飛行ルート情報が作成されると、飛行ルート情報作成画面440から飛行ルート情報調整画面430へ遷移する。そして、図3に示した第1の実施形態と同様、飛行ルート情報の調整が必要に応じて行われ(S130)、最終的な飛行ルート情報が決定される(S140)。
 以上、第2の実施形態に係る飛行ルート情報生成処理について説明した。本実施形態に係る飛行ルート情報生成処理によれば、ユーザは、3Dマップからなる被写体情報に対して部分テンプレートを配置することで、任意の飛行ルート情報を容易に作成することができる。このように、マニュアルで飛行ルート情報を作成する場合にも、部分モジュールの提供により簡単な操作で作成することができ、自由度の高い凝った撮影を行うことも可能となる。
 <3.まとめ>
 上述の実施形態に係る撮像システムでは、撮影シーンや被写体に最適化された飛行ルート情報をテンプレートとして提供することで、操作制御の難しい飛行デバイス20による撮影においても、適切なカメラアングル、フレーミング等の撮影効果を得ることができる。そして、提供される飛行ルートのテンプレートを、3Dマップ上に配置して、ドラッグ操作やピンチ操作等の一般的な操作を行うことで飛行ルートの微調整ができるので、ユーザは直感的な簡単な操作で飛行ルート情報を変更可能である。さらに、飛行ルートオブジェクト60上に任意に設定された調整ポイントにおいてドラッグ操作やピンチ操作等の一般的な操作を行うことで、カメラアングルの変更等を容易に行うこともできる。
 また、撮影シーンや被写体に最適化されたテンプレートとして飛行ルート情報を提供するだけでなく、ユーザがモジュール化された部分テンプレートを組み合わせて任意の飛行ルートを作成することもできる。これにより、自由度の高い凝った撮影を行うことができる。
 さらに、ユーザが3Dマップに対応させながら飛行ルート情報を作成できることで、飛行デバイス20を飛行させる範囲を限定させることも可能となる。飛行デバイス20は、広い空間を移動可能であるため、ユーザがコントローラ等により飛行操作した場合には、飛行デバイス20がユーザの意図しない範囲まで飛行してしまったり、立ち入り禁止区域に侵入してしまったりする可能性もある。上述の実施形態に係る飛行ルート情報生成処理によって、飛行デバイス20の飛行ルートや撮影するエリアを飛行ルート情報として予め設定しておくことで、安全に飛行デバイス20による撮影を行うことができる。
 このような撮像システムを用いることで、飛行デバイスを活用した撮影において撮影者の意図を反映した、格好のよい映像を、誰もが簡単に撮影できることを実現できる。これにより、例えば、これまで撮影できていなかった映像をより簡単に撮影することが可能となり、ユーザの飛行デバイス20の使い方、楽しみ方を大きく広げることができる。また、従来の学芸会や運動会、旅行といった典型的なユースケースから、日常的なイベントや風景等の撮影のシーンを広げることができ、単なる記録映像ではなく撮影者の意図を込めた作品を作成できるという楽しみ方も想定できる。
 <4.ハードウェア構成例>
 本実施形態に係る情報処理端末10は、例えば図11に示すように構成することもできる。以下、図11に基づいて、本実施形態に係る情報処理端末10の一ハードウェア構成例について説明する。
 本実施形態に係る情報処理端末10は、上述したように、コンピュータ等の処理装置により実現することができる。情報処理端末10は、図11に示すように、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904aとを備える。また、情報処理端末10は、ブリッジ904と、外部バス904bと、インタフェース905と、入力装置906と、出力装置907と、ストレージ装置908と、ドライブ909と、接続ポート911と、通信装置913とを備える。
 CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理端末10内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス904aにより相互に接続されている。
 ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
 入力装置906は、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。出力装置907は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置や、スピーカなどの音声出力装置を含む。
 ストレージ装置908は、情報処理端末10の記憶部の一例であり、データ格納用の装置である。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
 ドライブ909は、記憶媒体用リーダライタであり、情報処理端末10に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体に記録されている情報を読み出して、RAM903に出力する。
 接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。また、通信装置913は、例えば、通信網5に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置913は、無線LAN(Local Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 なお、上記実施形態では、飛行デバイス20は撮像装置22を備えているが、本開示はかかる例に限定されず、飛行デバイス20は撮像装置22を必ずしも備えていなくともよい。この場合、飛行ルート情報には撮影設定情報は含まれなくともよい。例えば、飛行デバイス20に空中アトラクションを行わせる場合等、上記実施形態の手法を用いることで、飛行デバイス20の飛行ルートを容易に設定することができ、飛行デバイス20を安全に飛行させることができる。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 飛行体の飛行ルートを示す飛行ルート情報のテンプレートを提示し、
 ユーザの操作に基づいて、選択された前記テンプレートの飛行ルート情報と飛行体の飛行範囲とを対応させ、前記飛行体の飛行ルート情報を生成する飛行ルート生成部を備える、情報処理装置。
(2)
 前記飛行ルート生成部は、前記飛行体を飛行させるシーンに対応したテンプレートを提示する、前記(1)に記載の情報処理装置。
(3)
 前記飛行ルート生成部は、前記飛行体に設けられた撮像部の撮影モードに応じたテンプレートを提示する、前記(1)または(2)に記載の情報処理装置。
(4)
 前記飛行ルート情報には、前記飛行体に設けられた撮像部の撮影設定情報がさらに含まれる、前記(1)~(3)のいずれか1項に記載の情報処理装置。
(5)
 前記飛行ルート生成部は、
 前記テンプレートの飛行ルートを示す飛行ルートオブジェクトを、飛行体の飛行範囲を示す地図情報上に表示させ、
 ユーザの操作に基づいて、前記地図情報に対して前記飛行ルートオブジェクトを移動させ、
 ユーザが確定操作を行ったときの前記飛行ルートオブジェクトの設定に基づき、前記飛行体の飛行ルート情報を生成する、前記(1)~(4)のいずれか1項に記載の情報処理装置。
(6)
 前記飛行ルート生成部は、前記飛行ルートオブジェクトが前記地図情報上に配置された位置と、前記地図情報の各位置に関連付けられた現実世界での位置情報とを対応付けて、前記飛行体の飛行ルート情報を生成する、前記(5)に記載の情報処理装置。
(7)
 前記飛行ルート生成部は、前記飛行ルートオブジェクト上の任意の位置において前記飛行体に設けられた撮像部により取得される撮像画像のプレビューを表示部に表示させる、前記(5)または(6)に記載の情報処理装置。
(8)
 表示された前記飛行ルート上には1または複数の調整ポイントが設けられており、
 前記飛行ルート生成部は、ユーザからの前記調整ポイントに対する操作に基づいて、前記飛行ルート情報を変更する、前記(5)~(7)のいずれか1項に記載の情報処理装置。
(9)
 前記飛行ルート生成部は、
 前記調整ポイントに、前記飛行体に設けられた撮像部のカメラアングルを表示させるカメラアングルオブジェクトを表示させ、
 ユーザの操作による前記カメラアングルオブジェクトの向きの変更に応じて、前記撮像部のカメラアングルを変更する、前記(8)に記載の情報処理装置。
(10)
 前記飛行ルート生成部は、ユーザの操作による前記調整ポイントの移動に応じて、前記飛行体の飛行ルート情報を変更する、前記(8)または(9)に記載の情報処理装置。
(11)
 少なくとも前記飛行体と情報通信を行う通信部を備え、
 前記通信部を介して、生成された飛行ルート情報を前記飛行体に対して送信する、前記(1)~(10)のいずれか1項に記載の情報処理装置。
(12)
 前記飛行ルート生成部は、前記飛行ルート情報に基づいて飛行した前記飛行体が当該飛行体に設けられた撮像部により飛行中に撮影した撮影情報と、前記飛行ルートとが関連付けられた撮影データを、前記飛行体に取得させる、前記(11)に記載の情報処理装置。
(13)
 飛行ルートを含むテンプレートを保持するサーバと通信可能であり、前記サーバから前記テンプレートを取得するテンプレート取得部を備える、前記(1)~(12)のいずれか1項に記載の情報処理装置。
(14)
 飛行体の飛行ルートを示す飛行ルート情報のテンプレートを提示すること、
 ユーザの操作に基づいて、選択された前記テンプレートの飛行ルート情報と飛行体の飛行範囲とを対応させ、前記飛行体の飛行ルート情報を生成すること、
を含む、情報処理方法。
(15)
 コンピュータに、
 飛行体の飛行ルートを示す飛行ルート情報のテンプレートを提示すること、
 ユーザの操作に基づいて、選択された前記テンプレートの飛行ルート情報と飛行体の飛行範囲とを対応させ、前記飛行体の飛行ルート情報を生成すること、
を含む処理を実行させるためのプログラム。
(16)
 飛行体と、
 前記飛行体の飛行ルートを示す飛行ルート情報のテンプレートを提示し、ユーザの操作に基づいて、選択された前記テンプレートの飛行ルート情報と飛行体の飛行範囲とを対応させ、前記飛行体の飛行ルート情報を生成する飛行ルート生成部を備える情報処理端末と、
からなる撮像システム。
 10   情報処理端末
 20   飛行デバイス
 30   サーバ
 110  入力部
 120  制御部
 130  テンプレート取得部
 140  飛行ルート生成部
 150  表示処理部
 160  表示部
 170  通信部(情報処理端末側)
 210  通信部(飛行デバイス側)
 220  飛行制御部
 230  飛行機構
 232  モータ
 234  プロペラ
 240  撮影制御部
 250  撮像部
 260  撮影データ記憶部
 310  テンプレート記憶部

Claims (16)

  1.  飛行体の飛行ルートを示す飛行ルート情報のテンプレートを提示し、
     ユーザの操作に基づいて、選択された前記テンプレートの飛行ルート情報と飛行体の飛行範囲とを対応させ、前記飛行体の飛行ルート情報を生成する飛行ルート生成部を備える、情報処理装置。
  2.  前記飛行ルート生成部は、前記飛行体を飛行させるシーンに対応したテンプレートを提示する、請求項1に記載の情報処理装置。
  3.  前記飛行ルート生成部は、前記飛行体に設けられた撮像部の撮影モードに応じたテンプレートを提示する、請求項1に記載の情報処理装置。
  4.  前記飛行ルート情報には、前記飛行体に設けられた撮像部の撮影設定情報がさらに含まれる、請求項1に記載の情報処理装置。
  5.  前記飛行ルート生成部は、
     前記テンプレートの飛行ルートを示す飛行ルートオブジェクトを、飛行体の飛行範囲を示す地図情報上に表示させ、
     ユーザの操作に基づいて、前記地図情報に対して前記飛行ルートオブジェクトを移動させ、
     ユーザが確定操作を行ったときの前記飛行ルートオブジェクトの設定に基づき、前記飛行体の飛行ルート情報を生成する、請求項1に記載の情報処理装置。
  6.  前記飛行ルート生成部は、前記飛行ルートオブジェクトが前記地図情報上に配置された位置と、前記地図情報の各位置に関連付けられた現実世界での位置情報とを対応付けて、前記飛行体の飛行ルート情報を生成する、請求項5に記載の情報処理装置。
  7.  前記飛行ルート生成部は、前記飛行ルートオブジェクト上の任意の位置において前記飛行体に設けられた撮像部により取得される撮像画像のプレビューを表示部に表示させる、請求項5に記載の情報処理装置。
  8.  表示された前記飛行ルート上には1または複数の調整ポイントが設けられており、
     前記飛行ルート生成部は、ユーザからの前記調整ポイントに対する操作に基づいて、前記飛行ルート情報を変更する、請求項5に記載の情報処理装置。
  9.  前記飛行ルート生成部は、
     前記調整ポイントに、前記飛行体に設けられた撮像部のカメラアングルを表示させるカメラアングルオブジェクトを表示させ、
     ユーザの操作による前記カメラアングルオブジェクトの向きの変更に応じて、前記撮像部のカメラアングルを変更する、請求項8に記載の情報処理装置。
  10.  前記飛行ルート生成部は、ユーザの操作による前記調整ポイントの移動に応じて、前記飛行体の飛行ルート情報を変更する、請求項8に記載の情報処理装置。
  11.  少なくとも前記飛行体と情報通信を行う通信部を備え、
     前記通信部を介して、生成された飛行ルート情報を前記飛行体に対して送信する、請求項1に記載の情報処理装置。
  12.  前記飛行ルート生成部は、前記飛行ルート情報に基づいて飛行した前記飛行体が当該飛行体に設けられた撮像部により飛行中に撮影した撮影情報と、前記飛行ルートとが関連付けられた撮影データを、前記飛行体に取得させる、請求項11に記載の情報処理装置。
  13.  飛行ルートを含むテンプレートを保持するサーバと通信可能であり、前記サーバから前記テンプレートを取得するテンプレート取得部を備える、請求項1に記載の情報処理装置。
  14.  飛行体の飛行ルートを示す飛行ルート情報のテンプレートを提示すること、
     ユーザの操作に基づいて、選択された前記テンプレートの飛行ルート情報と飛行体の飛行範囲とを対応させ、前記飛行体の飛行ルート情報を生成すること、
    を含む、情報処理方法。
  15.  コンピュータに、
     飛行体の飛行ルートを示す飛行ルート情報のテンプレートを提示すること、
     ユーザの操作に基づいて、選択された前記テンプレートの飛行ルート情報と飛行体の飛行範囲とを対応させ、前記飛行体の飛行ルート情報を生成すること、
    を含む処理を実行させるためのプログラム。
  16.  飛行体と、
     前記飛行体の飛行ルートを示す飛行ルート情報のテンプレートを提示し、ユーザの操作に基づいて、選択された前記テンプレートの飛行ルート情報と飛行体の飛行範囲とを対応させ、前記飛行体の飛行ルート情報を生成する飛行ルート生成部を備える情報処理端末と、
    からなる撮像システム。
PCT/JP2015/056316 2014-04-25 2015-03-04 情報処理装置、情報処理方法、プログラムおよび撮像システム WO2015163012A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN201910540198.5A CN110254716B (zh) 2014-04-25 2015-03-04 信息处理装置、信息处理方法和成像***
CN201580015781.4A CN106133629B (zh) 2014-04-25 2015-03-04 信息处理装置、信息处理方法、程序和成像***
CN202010149654.6A CN111399488B (zh) 2014-04-25 2015-03-04 信息处理装置、信息处理方法、程序和成像***
EP15782406.1A EP3136195A4 (en) 2014-04-25 2015-03-04 Information processing device, information processing method, program, and imaging system
JP2016514797A JP6369538B2 (ja) 2014-04-25 2015-03-04 情報処理装置、情報処理方法、コンピュータ読み取り可能な媒体および撮像システム
KR1020167025108A KR102294078B1 (ko) 2014-04-25 2015-03-04 정보 처리 장치, 정보 처리 방법, 프로그램 및 촬상 시스템
US15/122,608 US9865172B2 (en) 2014-04-25 2015-03-04 Information processing device, information processing method, program, and imaging system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014091358 2014-04-25
JP2014-091358 2014-04-25

Publications (1)

Publication Number Publication Date
WO2015163012A1 true WO2015163012A1 (ja) 2015-10-29

Family

ID=54332183

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/056316 WO2015163012A1 (ja) 2014-04-25 2015-03-04 情報処理装置、情報処理方法、プログラムおよび撮像システム

Country Status (6)

Country Link
US (1) US9865172B2 (ja)
EP (1) EP3136195A4 (ja)
JP (3) JP6369538B2 (ja)
KR (1) KR102294078B1 (ja)
CN (3) CN111399488B (ja)
WO (1) WO2015163012A1 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016184288A (ja) * 2015-03-26 2016-10-20 富士重工業株式会社 飛行経路作成装置、飛行経路作成方法及び飛行経路作成プログラム
CN106184793A (zh) * 2016-08-29 2016-12-07 上海理工大学 一种用于汽车的空中俯视影像监视***
JP2017215849A (ja) * 2016-06-01 2017-12-07 清水建設株式会社 見学会説明システム
JP2018042477A (ja) * 2016-09-12 2018-03-22 島根県 自動刈取システム
WO2018073879A1 (ja) * 2016-10-17 2018-04-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 飛行経路生成方法、飛行経路生成システム、飛行体、プログラム、及び記録媒体
JP2018084508A (ja) * 2016-11-24 2018-05-31 東芝ライテック株式会社 照明環境計測システムおよび照明システム
EP3343305A1 (en) * 2016-12-16 2018-07-04 Insitu, Inc. (a Subsidiary Of The Boeing Company) Systems and methods for establishing a flight pattern adjacent to a target for a vehicle to follow
JP2018522306A (ja) * 2015-06-11 2018-08-09 インテル コーポレイション ドローン制御装置及び方法
JP2018165930A (ja) * 2017-03-28 2018-10-25 株式会社ゼンリンデータコム ドローンナビゲーション装置、ドローンナビゲーション方法及びドローンナビゲーションプログラム
WO2018198313A1 (ja) * 2017-04-28 2018-11-01 株式会社オプティム 無人飛行体のアクションプラン作成システム、方法及びプログラム
JP2018173992A (ja) * 2014-04-25 2018-11-08 ソニー株式会社 情報処理装置、情報処理方法、コンピュータ読み取り可能な媒体および撮像システム
JPWO2017131194A1 (ja) * 2016-01-29 2018-11-15 住友建機株式会社 ショベル及びショベルの周囲を飛行する自律式飛行体
JP2018196064A (ja) * 2017-05-19 2018-12-06 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 情報処理装置、空撮経路生成方法、空撮経路生成システム、プログラム、及び記録媒体
JP2019505047A (ja) * 2016-01-28 2019-02-21 クアルコム,インコーポレイテッド ドローン飛行制御
JP2019080165A (ja) * 2017-10-24 2019-05-23 M−Solutions株式会社 画像提供方法
JP2019110462A (ja) * 2017-12-19 2019-07-04 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、システム、制御方法、及びプログラム
JP2019179249A (ja) * 2017-11-06 2019-10-17 株式会社エアロネクスト 飛行体及び飛行体の制御方法
WO2019212035A1 (ja) * 2018-05-02 2019-11-07 株式会社センシンロボティクス 飛行体の制御に関する情報表示方法
WO2021181553A1 (ja) * 2020-03-11 2021-09-16 日本電気株式会社 ルート設定装置、ルート設定方法、及びプログラム
WO2021250914A1 (ja) * 2020-06-09 2021-12-16 ソニーグループ株式会社 情報処理装置、移動装置、情報処理システム、および方法、並びにプログラム

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058829A (ja) * 2015-09-15 2017-03-23 株式会社オプティム 無人航空機制御システム、無人航空機制御方法
CN108603790B (zh) 2015-12-09 2020-09-25 菲力尔***公司 基于无人机***的热成像***和方法
US10416667B2 (en) * 2016-02-03 2019-09-17 Sony Corporation System and method for utilization of multiple-camera network to capture static and/or motion scenes
CN107077152A (zh) * 2016-11-30 2017-08-18 深圳市大疆创新科技有限公司 控制方法、设备、***、无人机和可移动平台
WO2018150492A1 (ja) * 2017-02-15 2018-08-23 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 画像表示方法、画像表示システム、飛行体、プログラム、及び記録媒体
USD858352S1 (en) * 2017-10-30 2019-09-03 Shenzhen Valuelink E-Commerce Co., Ltd. Drone
KR102030085B1 (ko) * 2017-11-29 2019-10-08 김자유 무인 비행체 제어 시스템
US10424211B1 (en) * 2018-03-12 2019-09-24 Kitty Hawk Corporation Aircraft cockpit display and interface
CN108803633A (zh) * 2018-07-25 2018-11-13 安康学院 一种基于移动通信网络的无人机低空监控***
JP7017998B2 (ja) * 2018-09-13 2022-02-09 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 情報処理装置、飛行経路生成方法、プログラム、及び記録媒体
KR102099407B1 (ko) * 2018-11-27 2020-05-15 주식회사 파크에이아이 자율 주행 방법 및 자율 주행 장치
JP6582258B1 (ja) * 2018-12-27 2019-10-02 株式会社センシンロボティクス 飛行体の制御に関する情報表示方法
US20220166917A1 (en) * 2019-04-02 2022-05-26 Sony Group Corporation Information processing apparatus, information processing method, and program
US11492113B1 (en) * 2019-04-03 2022-11-08 Alarm.Com Incorporated Outdoor security camera drone system setup
CN110127069A (zh) * 2019-04-17 2019-08-16 深圳市一刻创意电子有限公司 一种具有图像处理功能的近距离飞行器
KR102239444B1 (ko) * 2019-05-31 2021-04-13 대진대학교 산학협력단 자율비행체의 실시간 비행경로 제어 시스템 및 제어 방법
JP6873515B1 (ja) * 2019-07-25 2021-05-19 株式会社プロドローン 遠隔操縦システムおよびその操縦装置
JP7082351B2 (ja) * 2019-12-04 2022-06-08 テックファーム株式会社 飛行制御システム
JP7505219B2 (ja) 2020-03-24 2024-06-25 大日本印刷株式会社 動画作成システム、動画作成装置、およびプログラム
WO2022209398A1 (ja) * 2021-03-30 2022-10-06 ソニーグループ株式会社 情報処理方法、情報処理装置、コンピュータ読み取り可能な媒体および撮像システム
WO2022266883A1 (zh) * 2021-06-23 2022-12-29 深圳市大疆创新科技有限公司 飞行任务编辑方法、飞行方法、控制终端、无人飞行器及***
KR102443574B1 (ko) * 2022-02-17 2022-09-15 주식회사 시에라베이스 시설물 점검용 무인이동체의 3d 점검경로 생성방법
WO2023189455A1 (ja) * 2022-03-29 2023-10-05 ソニーグループ株式会社 データ処理方法、データ処理装置、プログラム、および移動体制御システム
WO2023211616A1 (en) * 2022-04-27 2023-11-02 Snap Inc. Editing video captured by electronic devices using associated flight path information

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001306143A (ja) * 2000-04-21 2001-11-02 Yamaha Motor Co Ltd 無人ヘリコプタの飛行制御システム
JP2002211494A (ja) * 2001-01-17 2002-07-31 Todaka Seisakusho:Kk 無人ヘリコプタ用飛行計画装置
JP2006027448A (ja) * 2004-07-16 2006-02-02 Chugoku Electric Power Co Inc:The 無人飛行体を利用した空撮方法及びその装置

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03164697A (ja) * 1989-11-21 1991-07-16 Nec Corp 飛翔体の管制装置
JP2003110981A (ja) * 2001-09-28 2003-04-11 Hiroboo Kk 空撮映像処理システム及び無線式の小型無人飛行体
JP3557443B2 (ja) * 2001-10-25 2004-08-25 防衛庁技術研究本部長 飛行管理方法および装置
JP3557444B2 (ja) * 2001-10-25 2004-08-25 防衛庁技術研究本部長 低高度飛行経路の作成方法および装置
JP4141269B2 (ja) * 2003-01-28 2008-08-27 古野電気株式会社 飛行経路決定装置
US6856894B1 (en) * 2003-10-23 2005-02-15 International Business Machines Corporation Navigating a UAV under remote control and manual control with three dimensional flight depiction
JP2006085588A (ja) * 2004-09-17 2006-03-30 Noritsu Koki Co Ltd 画像記憶装置
ES2245245B1 (es) * 2004-06-08 2007-02-16 INSTITUTO NACIONAL DE TECNICA AEROESPACIAL "ESTEBAN TERRADAS" Sistema y metodo de control de un vehiculo aereo no tripulado.
ATE420394T1 (de) * 2004-07-03 2009-01-15 Saab Ab System und verfahren zur steuerung eines flugzeugs während des fluges
CA2528571A1 (en) * 2004-11-30 2006-05-30 William Wright System and method for interactive 3d air regions
FR2894368B1 (fr) * 2005-12-07 2008-01-25 Thales Sa Dispositif et procede de construction automatisee de trajectoire d'urgence pour aeronefs
CN100449444C (zh) * 2006-09-29 2009-01-07 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
TW200817239A (en) * 2006-10-03 2008-04-16 Wu Chang Huei Complementation control system and method of flight vehicle
JP5107582B2 (ja) * 2007-01-15 2012-12-26 三菱電機株式会社 画像センサ搭載型航空機用航法計算プログラム
FR2922642B1 (fr) 2007-10-19 2010-01-22 Airbus France Procede et dispositif de creation d'un plan de vol d'un aeronef
US20090319100A1 (en) * 2008-06-20 2009-12-24 Honeywell International Inc. Systems and methods for defining and rendering a trajectory
US8521339B2 (en) 2008-09-09 2013-08-27 Aeryon Labs Inc. Method and system for directing unmanned vehicles
US20100286859A1 (en) * 2008-11-18 2010-11-11 Honeywell International Inc. Methods for generating a flight plan for an unmanned aerial vehicle based on a predicted camera path
FR2955959B1 (fr) * 2010-02-02 2012-09-21 Thales Sa Systeme d'aide a la navigation pour un drone
EP2543028B1 (en) * 2010-03-03 2019-06-26 Elbit Systems Ltd. System for guiding an aircraft to a reference point in low visibility conditions
CN101866180A (zh) * 2010-06-23 2010-10-20 清华大学 一种飞行控制***
US20120143482A1 (en) * 2010-12-02 2012-06-07 Honeywell International Inc. Electronically file and fly unmanned aerial vehicle
JP5618840B2 (ja) * 2011-01-04 2014-11-05 株式会社トプコン 飛行体の飛行制御システム
US8676406B2 (en) * 2011-05-03 2014-03-18 Raytheon Company Unmanned aerial vehicle control using a gamepad
JP5882693B2 (ja) * 2011-11-24 2016-03-09 株式会社トプコン 航空写真撮像方法及び航空写真撮像装置
FR2985581B1 (fr) * 2012-01-05 2014-11-28 Parrot Procede de pilotage d'un drone a voilure tournante pour operer une prise de vue par une camera embarquee avec minimisation des mouvements perturbateurs
CN102621903B (zh) * 2012-02-24 2014-01-08 深圳市迪瑞德科技有限公司 可遥控飞行器的电子设备及遥控方法
US20130226373A1 (en) * 2012-02-27 2013-08-29 Ge Aviation Systems Llc Methods for in-flight adjusting of a flight plan
US9841761B2 (en) * 2012-05-04 2017-12-12 Aeryon Labs Inc. System and method for controlling unmanned aerial vehicles
US20130345905A1 (en) * 2012-06-25 2013-12-26 Honeywell International Inc. Avionics display system providing enhanced flight-plan management
US20140018979A1 (en) * 2012-07-13 2014-01-16 Honeywell International Inc. Autonomous airspace flight planning and virtual airspace containment system
US8797190B2 (en) * 2012-07-26 2014-08-05 General Electric Company Method for displaying a user entered flight path
US9208457B2 (en) * 2012-09-20 2015-12-08 The Boeing Company Optimized flight plan management system
US9075415B2 (en) * 2013-03-11 2015-07-07 Airphrame, Inc. Unmanned aerial vehicle and methods for controlling same
CN103196443B (zh) * 2013-04-09 2015-09-23 王宁羽 基于光流和附加信息的飞行体姿态测量方法与***
CN103324203A (zh) * 2013-06-08 2013-09-25 西北工业大学 基于智能手机的无人飞机航电***
CN105912014B (zh) * 2013-06-25 2019-01-15 深圳市大疆创新科技有限公司 飞行器的控制***及控制方法
CN111399488B (zh) * 2014-04-25 2023-08-01 索尼公司 信息处理装置、信息处理方法、程序和成像***

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001306143A (ja) * 2000-04-21 2001-11-02 Yamaha Motor Co Ltd 無人ヘリコプタの飛行制御システム
JP2002211494A (ja) * 2001-01-17 2002-07-31 Todaka Seisakusho:Kk 無人ヘリコプタ用飛行計画装置
JP2006027448A (ja) * 2004-07-16 2006-02-02 Chugoku Electric Power Co Inc:The 無人飛行体を利用した空撮方法及びその装置

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018173992A (ja) * 2014-04-25 2018-11-08 ソニー株式会社 情報処理装置、情報処理方法、コンピュータ読み取り可能な媒体および撮像システム
JP2016184288A (ja) * 2015-03-26 2016-10-20 富士重工業株式会社 飛行経路作成装置、飛行経路作成方法及び飛行経路作成プログラム
JP2018522306A (ja) * 2015-06-11 2018-08-09 インテル コーポレイション ドローン制御装置及び方法
JP2019505047A (ja) * 2016-01-28 2019-02-21 クアルコム,インコーポレイテッド ドローン飛行制御
JP2022000570A (ja) * 2016-01-29 2022-01-04 住友建機株式会社 ショベル及び自律式飛行体
JPWO2017131194A1 (ja) * 2016-01-29 2018-11-15 住友建機株式会社 ショベル及びショベルの周囲を飛行する自律式飛行体
JP7387684B2 (ja) 2016-01-29 2023-11-28 住友建機株式会社 ショベル及び自律式飛行体
JP2017215849A (ja) * 2016-06-01 2017-12-07 清水建設株式会社 見学会説明システム
CN106184793A (zh) * 2016-08-29 2016-12-07 上海理工大学 一种用于汽车的空中俯视影像监视***
JP2018042477A (ja) * 2016-09-12 2018-03-22 島根県 自動刈取システム
WO2018073879A1 (ja) * 2016-10-17 2018-04-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 飛行経路生成方法、飛行経路生成システム、飛行体、プログラム、及び記録媒体
US11377211B2 (en) 2016-10-17 2022-07-05 SZ DJI Technology Co., Ltd. Flight path generation method, flight path generation system, flight vehicle, program, and storage medium
JPWO2018073879A1 (ja) * 2016-10-17 2019-09-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行経路生成方法、飛行経路生成システム、飛行体、プログラム、及び記録媒体
JP7116526B2 (ja) 2016-11-24 2022-08-10 東芝ライテック株式会社 照明環境計測システム
JP2018084508A (ja) * 2016-11-24 2018-05-31 東芝ライテック株式会社 照明環境計測システムおよび照明システム
EP3343305A1 (en) * 2016-12-16 2018-07-04 Insitu, Inc. (a Subsidiary Of The Boeing Company) Systems and methods for establishing a flight pattern adjacent to a target for a vehicle to follow
RU2687008C2 (ru) * 2016-12-16 2019-05-06 Инситу, Инк. Способ установления плановой траектории полета транспортного средства возле цели (варианты), вычислительное устройство (варианты)
AU2017251682B2 (en) * 2016-12-16 2021-11-11 Insitu, Inc. Systems and methods for establishing a flight pattern adjacent to a target for a vehicle to follow
JP2018165930A (ja) * 2017-03-28 2018-10-25 株式会社ゼンリンデータコム ドローンナビゲーション装置、ドローンナビゲーション方法及びドローンナビゲーションプログラム
JP7152836B2 (ja) 2017-04-28 2022-10-13 株式会社オプティム 無人飛行体のアクションプラン作成システム、方法及びプログラム
JPWO2018198313A1 (ja) * 2017-04-28 2020-04-02 株式会社オプティム 無人飛行体のアクションプラン作成システム、方法及びプログラム
WO2018198313A1 (ja) * 2017-04-28 2018-11-01 株式会社オプティム 無人飛行体のアクションプラン作成システム、方法及びプログラム
US11543836B2 (en) 2017-04-28 2023-01-03 Optim Corporation Unmanned aerial vehicle action plan creation system, method and program
US11361444B2 (en) 2017-05-19 2022-06-14 SZ DJI Technology Co., Ltd. Information processing device, aerial photography path generating method, aerial photography path generating system, program, and recording medium
JP2018196064A (ja) * 2017-05-19 2018-12-06 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 情報処理装置、空撮経路生成方法、空撮経路生成システム、プログラム、及び記録媒体
JP7021900B2 (ja) 2017-10-24 2022-02-17 M-Solutions株式会社 画像提供方法
JP2019080165A (ja) * 2017-10-24 2019-05-23 M−Solutions株式会社 画像提供方法
JP2019189224A (ja) * 2017-11-06 2019-10-31 株式会社エアロネクスト 飛行体及び飛行体の制御方法
JP2019179249A (ja) * 2017-11-06 2019-10-17 株式会社エアロネクスト 飛行体及び飛行体の制御方法
JP2019110462A (ja) * 2017-12-19 2019-07-04 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、システム、制御方法、及びプログラム
WO2019212035A1 (ja) * 2018-05-02 2019-11-07 株式会社センシンロボティクス 飛行体の制御に関する情報表示方法
WO2021181553A1 (ja) * 2020-03-11 2021-09-16 日本電気株式会社 ルート設定装置、ルート設定方法、及びプログラム
JPWO2021181553A1 (ja) * 2020-03-11 2021-09-16
WO2021250914A1 (ja) * 2020-06-09 2021-12-16 ソニーグループ株式会社 情報処理装置、移動装置、情報処理システム、および方法、並びにプログラム

Also Published As

Publication number Publication date
CN110254716A (zh) 2019-09-20
JP7020522B2 (ja) 2022-02-16
JPWO2015163012A1 (ja) 2017-04-13
US9865172B2 (en) 2018-01-09
EP3136195A4 (en) 2017-11-29
KR20160147713A (ko) 2016-12-23
EP3136195A1 (en) 2017-03-01
JP6777121B2 (ja) 2020-10-28
JP2018173992A (ja) 2018-11-08
JP2021012721A (ja) 2021-02-04
CN110254716B (zh) 2023-09-01
KR102294078B1 (ko) 2021-08-25
CN106133629A (zh) 2016-11-16
CN111399488A (zh) 2020-07-10
CN111399488B (zh) 2023-08-01
JP6369538B2 (ja) 2018-08-08
CN106133629B (zh) 2020-04-07
US20170076612A1 (en) 2017-03-16

Similar Documents

Publication Publication Date Title
JP7020522B2 (ja) 情報処理装置、情報処理方法、コンピュータ読み取り可能な媒体、撮像システム、および飛行体
JP7043255B2 (ja) 電子機器及びその制御方法
US10733807B2 (en) Display control device, display control method, and recording medium
US20130040700A1 (en) Image capture device and image capture method
CN103426282A (zh) 遥控方法及终端
WO2019140621A1 (zh) 视频处理方法及终端设备
GB2571431A (en) Electronic apparatus and method for controlling the same
TW201218746A (en) Image processing apparatus, image processing method, and computer program
WO2014155877A1 (ja) 画像処理装置、画像処理方法およびプログラム
KR102477993B1 (ko) 표시 제어장치, 촬상 장치, 제어 방법 및 컴퓨터 판독 가능한 매체
JP2024075613A (ja) 情報処理方法、情報処理装置及びプログラム
US20220053179A1 (en) Information processing apparatus, information processing method, and program
US20160344946A1 (en) Screen System
WO2019105222A1 (zh) 生成装置、生成***、摄像***、移动体以及生成方法
WO2019127402A1 (zh) 球形全景图的合成方法、无人机***、无人机、终端及其控制方法
KR102514702B1 (ko) 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법
KR20180000110A (ko) 드론 및 그 제어방법
EP4379668A1 (en) Generation of realistic vr video from captured target object

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15782406

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016514797

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015782406

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015782406

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15122608

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20167025108

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE