WO2020230377A1 - 情報処理方法、無人飛行体及び無人飛行体制御システム - Google Patents

情報処理方法、無人飛行体及び無人飛行体制御システム Download PDF

Info

Publication number
WO2020230377A1
WO2020230377A1 PCT/JP2020/003886 JP2020003886W WO2020230377A1 WO 2020230377 A1 WO2020230377 A1 WO 2020230377A1 JP 2020003886 W JP2020003886 W JP 2020003886W WO 2020230377 A1 WO2020230377 A1 WO 2020230377A1
Authority
WO
WIPO (PCT)
Prior art keywords
unmanned aerial
sound
target
aerial vehicle
aerial vehicles
Prior art date
Application number
PCT/JP2020/003886
Other languages
English (en)
French (fr)
Inventor
ステファン ジョン
一暢 小西
浅井 勝彦
井上 和夫
俊介 久原
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2021519260A priority Critical patent/JP7457949B2/ja
Priority to CN202080015683.1A priority patent/CN113453980B/zh
Publication of WO2020230377A1 publication Critical patent/WO2020230377A1/ja
Priority to US17/469,317 priority patent/US11656639B2/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/18Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/55UAVs specially adapted for particular uses or applications for life-saving or rescue operations; for medical use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2203/00Details of circuits for transducers, loudspeakers or microphones covered by H04R3/00 but not provided for in any of its subgroups
    • H04R2203/12Beamforming aspects for stereophonic sound reproduction with loudspeaker arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles

Definitions

  • This disclosure relates to information processing methods, unmanned aerial vehicles and unmanned aerial vehicle control systems.
  • Patent Document 1 discloses an unmanned aerial vehicle that estimates the position of a sound source using a microphone array.
  • the present disclosure provides an information processing method, an unmanned aerial vehicle, and an unmanned aerial vehicle control system that can effectively collect the target sound even when a plurality of unmanned aerial vehicles are used.
  • the computer determines whether or not the target sound is recognized based on the sound data acquired in at least one unmanned air vehicle among the plurality of unmanned air vehicles, and the target sound is the target sound.
  • the positions and sound collecting directions of the plurality of unmanned air vehicles are acquired, and noise-related information regarding the noise generated by at least one of the plurality of unmanned air vehicles is acquired.
  • Obtaining the estimated position of the sound collecting target which is the source of the target sound estimated from the target sound, the estimated position, the position and sound collecting direction of each of the plurality of unmanned vehicles, and the noise-related information.
  • At least one of the target position and the target sound collecting direction of each of the plurality of unmanned aviators is determined based on the above, and the movement to the target position and the target sound collecting direction of each of the plurality of unmanned aviators are determined. This is a method of outputting at least one request for setting the sound collecting direction of.
  • the information processing method, the unmanned aerial vehicle, and the unmanned aerial vehicle control system according to the present disclosure can effectively collect the target sound even when a plurality of unmanned aerial vehicles are used.
  • FIG. 1 is a block diagram showing an example of the configuration of the unmanned aerial vehicle control system according to the first embodiment.
  • FIG. 2 is a block diagram showing an example of the configuration of the unmanned aerial vehicle according to the first embodiment.
  • FIG. 3 is a graph showing an example of the relationship between the rotation speed of the rotor blade and the noise level.
  • FIG. 4A is a diagram showing an example of a noise range when the unmanned aerial vehicle is viewed from above.
  • FIG. 4B is a diagram showing an example of the noise range when the unmanned aerial vehicle is viewed from the side.
  • FIG. 5 is a flowchart showing an example of an information processing method by the unmanned aerial vehicle control system according to the first embodiment.
  • FIG. 1 is a block diagram showing an example of the configuration of the unmanned aerial vehicle control system according to the first embodiment.
  • FIG. 2 is a block diagram showing an example of the configuration of the unmanned aerial vehicle according to the first embodiment.
  • FIG. 3 is a graph showing an example of the relationship between the
  • FIG. 6 is a sequence diagram showing a flow until the position of the sound collecting target is specified by the unmanned aerial vehicle control system and the plurality of unmanned aerial vehicles according to the first embodiment.
  • FIG. 7 is an explanatory diagram for explaining an example of moving each of the plurality of unmanned aerial vehicles according to the first embodiment to each target position and setting the sound collecting direction in each target sound collecting direction.
  • FIG. 8 is a diagram for explaining another example of moving each of the plurality of unmanned aerial vehicles according to the first embodiment to each target position and setting the sound collecting direction in each of the target sound collecting directions.
  • FIG. 9A is a diagram showing an example of a target sound collection direction according to the type of target sound (human voice).
  • FIG. 9B is a diagram showing another example of the target sound collection direction according to the type of target sound (flight sound of an unmanned aerial vehicle).
  • FIG. 10 is a block diagram showing an example of the configuration of the unmanned aerial vehicle according to the second embodiment.
  • FIG. 11 is a diagram for explaining a problem that may occur when collecting sound generated by a sound collecting target using a plurality of unmanned aerial vehicles.
  • FIG. 11 is a diagram for explaining a problem that may occur when collecting sound generated by a sound collecting target (also referred to as a target sound) using a plurality of unmanned aerial vehicles.
  • a sound collecting target also referred to as a target sound
  • FIG. 11 shows unmanned aerial vehicles 100a and 100b as a plurality of unmanned aerial vehicles.
  • FIG. 11 shows a sound collecting target 200 which is a sound collecting target of a plurality of unmanned aerial vehicles.
  • FIG. 11 shows a suspicious person as a sound collecting target 200 for security purposes.
  • an unmanned aerial vehicle is equipped with a microphone array consisting of multiple microphone elements.
  • the microphone array is capable of beamforming by utilizing the time difference of the sound picked up by each microphone element, and the directivity can be made arbitrary. That is, an unmanned vehicle equipped with a microphone array can narrow down the sound collection direction to a specific direction, and when the target sound is collected in the specific direction, the sound collection range (direction) based on the specific direction is obtained. It can be recognized that the sound collection target 200 exists in the range). For example, as shown in FIG. 11, when the unmanned aerial vehicle 100a picks up the target sound in the sound picking range A, it can recognize that the sound picking target 200 exists in the sound picking range A.
  • the unmanned aerial vehicle 100a knows that the sound collection target 200 exists somewhere within the sound collection range A, but the detailed position is unknown. Therefore, for example, it is conceivable to perform triangulation or the like using a plurality of unmanned aerial vehicles.
  • the sound collection direction of each unmanned aerial vehicle intersects with each other (specifically, the sound collection of each unmanned aerial vehicle). This is because it can be specified that the sound collection target 200 exists in the range where the ranges overlap).
  • the noise generated by another unmanned aerial vehicle with respect to one unmanned aerial vehicle (for example, the flight sound generated by the rotation of the rotor blades) is generated. It may get in the way. Specifically, as shown on the right side of FIG. 11, the sound collection range B of the unmanned aerial vehicle 100b and the noise range of the noise generated by the unmanned aerial vehicle 100a may overlap. In this case, the noise of the unmanned aerial vehicle 100a may deteriorate the sound collecting quality of the unmanned aerial vehicle 100b and the accuracy of estimating the position of the sound collecting target 200.
  • a computer makes a target sound based on sound data acquired in at least one unmanned air vehicle among a plurality of unmanned air vehicles. It is determined whether or not the target sound is recognized, and if it is determined that the target sound is recognized, the positions and sound collecting directions of the plurality of unmanned aviators are acquired, and at least one unmanned of the plurality of unmanned aviators is unmanned.
  • the noise-related information regarding the noise generated by the air vehicle is acquired, the estimated position of the sound collecting target which is the source of the target sound estimated from the target sound is acquired, and the estimated position and the plurality of unmanned air vehicles are each obtained.
  • At least one of the target position and the target sound collecting direction of each of the plurality of unmanned aviators is determined based on the position and the sound collecting direction of, and the noise-related information, and the target for each of the plurality of unmanned aviators is determined. This is a method of outputting at least one request for moving to each position and setting the sound collecting direction for each of the target sound collecting directions.
  • the target position and the target sound collection of each of the plurality of unmanned air vehicles based on the noise-related information regarding the noise generated by the unmanned air vehicle. At least one of the directions is determined. Therefore, a plurality of unmanned aerial vehicles can move to a target position where the noise of the unmanned aerial vehicle does not interfere with the sound collection, taking into consideration the noise-related information, or the noise of the unmanned aerial vehicle collects the sound in the sound collection direction. It can be set in the target sound collection direction that does not get in the way. Therefore, even when a plurality of unmanned aerial vehicles are used, the target sound can be effectively collected. As a result, the sound collection quality of each unmanned aerial vehicle can be improved, and the accuracy of estimating the position of the sound collection target can be improved.
  • the target sound collection direction of each of the plurality of unmanned aerial vehicles is a direction in which each of the plurality of unmanned aerial vehicles heads toward the estimated position, and the target positions of each of the plurality of unmanned aerial vehicles are the plurality.
  • the noise range of the other unmanned aerial vehicle estimated from the noise-related information of the other unmanned aerial vehicle does not overlap with the sound collecting direction in the state where each of the unmanned aerial vehicles is directed to the estimated position. It may be a position.
  • the noise ranges of the other unmanned aerial vehicles do not overlap with the sound collecting direction in the state where the sound collecting direction is directed to the estimated position.
  • the noise of the other unmanned aerial vehicle does not get in the way, and the target sound can be effectively picked up.
  • the noise of another unmanned aerial vehicle can be made difficult to be picked up by the microphone mounted on the unmanned aerial vehicle.
  • the noise-related information includes information on the rotation speed of the rotor blades of the unmanned vehicle, and the correspondence relationship between the noise level predetermined for each rotation speed of the rotor blades of the unmanned vehicle and the distance from the unmanned vehicle.
  • the noise range may be estimated based on the information about the rotation speed.
  • the correspondence between the noise level and the distance from the unmanned aerial vehicle is predetermined for each rotation speed of the rotor, the corresponding rotation speed of the rotor of another unmanned aerial vehicle acquired is the correspondence.
  • the noise range of other unmanned aerial vehicles can be easily estimated by collating with.
  • the estimated position may be updated from the target sounds obtained from each of the plurality of unmanned aerial vehicles after the request is output.
  • the accuracy of position estimation can be further improved by determining at least one of the target position and the target sound collection direction again using the updated estimated position.
  • the unmanned aerial vehicle other than the unmanned aerial vehicle that has acquired the sound data used for recognizing the target sound among the plurality of unmanned aerial vehicles is preferentially moved to the target position or the sound collection direction is set to the target. It may be set in the sound collecting direction.
  • the target position of the unmanned aerial vehicle from which the sound data used for recognizing the target sound is acquired is determined as the current position, and the target sound collection direction of the unmanned aerial vehicle is directed toward the estimated position. It may be decided to.
  • the target position is left at the current position and the sound collecting direction is directed to the estimated position.
  • the unmanned air vehicle that does not recognize the target sound other than the unmanned air vehicle is preferentially moved to the target position or the sound collection direction is set to the target sound collection direction. Therefore, an unmanned aerial vehicle that does not efficiently recognize the target sound can also recognize the target sound. That is, the sound collection quality of each unmanned aerial vehicle can be quickly improved, and the accuracy of estimating the position of the sound collection target can be quickly improved.
  • the unmanned aerial vehicle having a moving speed faster than that of the other unmanned aerial vehicles may be preferentially moved among the plurality of unmanned aerial vehicles.
  • an unmanned aerial vehicle having a high moving speed can reach a target position faster than other unmanned aerial vehicles. Therefore, the unmanned aerial vehicle having a high moving speed moves preferentially to the unmanned aerial vehicle.
  • the sound collection quality can be improved quickly, and the accuracy of estimating the position of the sound collection target can be improved quickly.
  • the target position of each of the plurality of unmanned aerial vehicles may be a position where the distance between each unmanned aerial vehicle and the estimated position is different.
  • the distance difference between the target position of each of the plurality of unmanned air vehicles and the estimated position (in other words, the time difference until the target sound from the sound collecting target reaches each unmanned air vehicle) is also used. Therefore, the accuracy of estimating the position of the sound collecting target can be further improved.
  • the target position of each of the plurality of unmanned aerial vehicles may be a position where the sound shield does not overlap with the sound collecting direction in a state where the sound collecting direction is directed to the estimated position.
  • the sound shield does not overlap with the sound collecting direction in the state where the sound collecting direction is directed to the estimated position, so that the sound collecting directions do not overlap with each other.
  • the sound shield does not get in the way, and the target sound can be picked up more effectively.
  • the movement route of each of the plurality of unmanned aerial vehicles to the target position is determined based on the estimated position, the position and sound collecting direction of each of the plurality of unmanned aerial vehicles, and the noise-related information.
  • the movement route of each of the plurality of unmanned aerial vehicles is covered by a sound shield while each of the plurality of unmanned aerial vehicles is moving along the movement route with the sound collecting direction directed to the estimated position.
  • the position may not overlap in the sound collecting direction.
  • the target sound can be continuously collected without being disturbed by the sound shield.
  • the sound collection sensitivity of the target sound may be acquired, and the estimated position estimated based on the sound collection sensitivity may be acquired.
  • the approximate position of the sound collection target can be estimated according to the sound collection sensitivity.
  • the frequency of the target sound is acquired, and the noise-related information includes the frequency of the noise generated by the unmanned air vehicle, and the estimated position, the position of each of the plurality of unmanned air vehicles, and the sound collection direction.
  • At least one of the target position and the target sound pick-up direction of each of the plurality of unmanned air vehicles may be determined based on the noise-related information and the frequency of the target sound.
  • the unmanned air vehicle is an unmanned air vehicle in a plurality of unmanned air vehicles, and is a target sound based on sound data acquired in at least one unmanned air vehicle among the plurality of unmanned air vehicles.
  • a determination unit that determines whether or not the sound is recognized, and when it is determined that the target sound is recognized, the positions and sound collection directions of the plurality of unmanned aviators are acquired, and among the plurality of unmanned aviators.
  • An acquisition unit that acquires noise-related information related to noise generated by at least one unmanned vehicle, and acquires an estimated position of a sound collecting target that is a source of the target sound estimated from the target sound, and an estimated position.
  • a determination unit that determines at least one of the target position and the target sound collection direction of each of the plurality of unmanned air vehicles based on the position and sound collection direction of each of the plurality of unmanned air vehicles and the noise-related information.
  • Each of the plurality of unmanned aircraft includes an output unit that outputs at least one request for moving to each of the target positions and setting a sound collecting direction for each of the target sound collecting directions.
  • the target sound can be effectively collected without providing an external system separately from the plurality of unmanned aerial vehicles.
  • the unmanned air vehicle control system is an unmanned air vehicle control system that controls a plurality of unmanned air vehicles, and is acquired by at least one unmanned air vehicle among the plurality of unmanned air vehicles.
  • a determination unit that determines whether or not the target sound is recognized based on the sound data, and if it is determined that the target sound is recognized, the positions and sound collection directions of the plurality of unmanned air vehicles are acquired, and the plurality of sounds are collected. Acquires noise-related information regarding noise generated by at least one unmanned air vehicle, and acquires an estimated position of a sound collecting target that is a source of the target sound estimated from the target sound.
  • At least one of the target position and the target sound collection direction of each of the plurality of unmanned aviation bodies based on the unit, the estimated position, the position and sound collection direction of each of the plurality of unmanned aviation bodies, and the noise-related information. It includes a determination unit for determining, and an output unit for outputting at least one request for moving to each of the target positions and setting the sound collection direction in each of the target sound collection directions for each of the plurality of unmanned air vehicles. ..
  • an unmanned aerial vehicle control system that can effectively collect the target sound even when a plurality of unmanned aerial vehicles are used. For example, by operating the unmanned aerial vehicle control system as a center for a plurality of unmanned aerial vehicles, it becomes easy to link the plurality of unmanned aerial vehicles.
  • FIG. 1 is a block diagram showing an example of the configuration of the unmanned aerial vehicle control system 1 according to the first embodiment.
  • the unmanned aerial vehicle control system 1 is a system for controlling a plurality of unmanned aerial vehicles, and is realized by, for example, a controller such as a radio or a computer such as a server device. Further, the unmanned aerial vehicle control system 1 may be a system including a plurality of unmanned aerial vehicles. Here, the unmanned aerial vehicle control system 1 will be described as a controller provided separately from the plurality of unmanned aerial vehicles.
  • the unmanned aerial vehicle control system 1 includes a processor 10, noise data 20, and a communication IF (interface) 30.
  • the unmanned vehicle control system 1 includes, for example, a memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory) and a communication circuit, the noise data 20 is stored in the memory, and the communication IF 30 is realized by the communication circuit or the like. Will be done.
  • the noise data 20 includes, for example, data showing a correspondence relationship between a predetermined noise level and a distance from the unmanned aerial vehicle for each rotation speed (for example, rpm or rps) of a rotary blade included in the unmanned aerial vehicle. Details of the noise data 20 will be described later.
  • the communication IF30 is a communication interface for the unmanned aerial vehicle control system 1 to communicate with a plurality of unmanned aerial vehicles.
  • the communication standard used by the communication IF30 for communication with a plurality of unmanned aerial vehicles is not particularly limited.
  • the processor 10 includes a determination unit 11, an acquisition unit 12, an estimation unit 13, a determination unit 14, and an output unit 15.
  • the determination unit 11, the acquisition unit 12, the estimation unit 13, the determination unit 14, and the output unit 15 are realized by the processor 10 executing a program stored in the memory.
  • the memory in which the program is stored and the memory in which the noise data 20 is stored may be the same memory or different memories.
  • the determination unit 11 determines whether or not the target sound is recognized based on the sound data acquired by at least one unmanned aerial vehicle among the plurality of unmanned aerial vehicles.
  • the acquisition unit 12, the estimation unit 13, the determination unit 14, and the output unit 15 perform the following processing.
  • the acquisition unit 12 acquires the positions and sound collection directions of the plurality of unmanned aerial vehicles. In addition, the acquisition unit 12 acquires noise-related information regarding noise generated by at least one unmanned aerial vehicle among the plurality of unmanned aerial vehicles. In addition, the acquisition unit 12 acquires the estimated position of the sound collecting target, which is the source of the target sound estimated from the target sound.
  • the estimation unit 13 estimates the noise range of the unmanned aerial vehicle from the noise-related information of the unmanned aerial vehicle.
  • the determination unit 14 determines at least one of the target position and the target sound collection direction of each of the plurality of unmanned aerial vehicles based on the estimated position, the position and sound collection direction of each of the plurality of unmanned aerial vehicles, and the noise-related information. ..
  • the output unit 15 outputs at least one request for each of the plurality of unmanned aerial vehicles to move to each target position and set the sound collection direction in each target sound collection direction.
  • the determination unit 11 Details of the determination unit 11, the acquisition unit 12, the estimation unit 13, the determination unit 14, and the output unit 15 will be described later.
  • FIG. 2 is a block diagram showing an example of the configuration of the unmanned aerial vehicle 100 according to the first embodiment.
  • the unmanned aerial vehicle 100 is an unmanned aerial vehicle in a plurality of unmanned aerial vehicles 100 controlled by the unmanned aerial vehicle control system 1.
  • the unmanned aerial vehicle 100 is also referred to as a drone, an unmanned aerial vehicle, or a UAV (Unmanned Aerial Vehicle).
  • the unmanned aerial vehicle 100 may be used for security, rescue in the event of a disaster, or the like.
  • the unmanned aircraft 100 includes a processor 110, a communication IF 130, a plurality of microphones 140, a plurality of rotor blades 150, a compass 161 and an acceleration sensor 162, a gyro sensor 163, a GPS receiver, a camera 171 and a gimbal 172.
  • the communication IF 130 is a communication interface for the unmanned aerial vehicle 100 to communicate with the unmanned aerial vehicle control system 1.
  • the communication standard used by the communication IF 130 for communication with the unmanned aerial vehicle control system 1 is not particularly limited.
  • the compass 161 is a sensor that detects the direction of the unmanned aerial vehicle 100. Since the plurality of microphones 140 described later have directivity, the compass 161 can detect a specific direction having high directivity intensity.
  • the acceleration sensor 162 is a sensor that detects the acceleration applied to each of the three different directions of the unmanned aerial vehicle 100.
  • the gyro sensor 163 is a sensor that detects the angular velocity in each rotation of the unmanned aerial vehicle 100 around three different directions.
  • Each of the plurality of microphones 140 has a directivity capable of collecting higher quality sound than an angle range other than the sound collection range in a sound collection range which is a predetermined angle range with reference to a specific direction. It is a microphone to have. A specific direction with high directivity is also called a sound collecting direction.
  • the sound collection range is, for example, an angle range of 90 ° or less, and is a three-dimensional angle range having a spread with respect to the sound collection direction with respect to the position of the microphone 140.
  • Each of the plurality of microphones 140 may be a microphone array having a plurality of microphone elements. Each of the plurality of microphones 140 sequentially generates sound data by collecting sound, and sequentially outputs the sequentially generated sound data to the processor 110.
  • the unmanned aerial vehicle 100 may have at least one microphone having one directivity.
  • Each of the plurality of rotor blades 150 generates a force to fly the unmanned aerial vehicle 100. Specifically, each of the plurality of rotor blades 150 rotates to generate an air flow to generate a force for flying the unmanned aerial vehicle 100.
  • the plurality of rotors 150 are rotated by, for example, an actuator (motor or the like) (not shown).
  • the gimbal 172 is a device for keeping the posture of the camera 171 around the three axes constant. That is, the gimbal 172 is a device for maintaining the attitude of the camera 171 in a desired attitude with respect to the earth coordinate system, for example, even if the attitude of the unmanned aerial vehicle 100 changes.
  • the camera 171 is a device having an optical system such as a lens and an image sensor, and is an example of the sensor.
  • the camera 171 sequentially generates image data by taking an image, and sequentially outputs the sequentially generated image data to the unmanned aerial vehicle control system 1 via the communication IF 130.
  • the processor 110 includes a flight control unit 141, a sound detection unit 142, and a sound collection processing unit 143.
  • the processor 110 acquires and detects the detection results detected by various sensors such as the compass 161, the acceleration sensor 162, the gyro sensor 163, and the plurality of microphones 140, and the reception results by the GPS receiver 164 or the communication IF 130.
  • the flight control unit 141, the sound detection unit 142, and the sound collection processing unit 143 are realized by executing a program stored in a memory (not shown) for the result or the reception result.
  • the processor 110 controls the communication IF 130 or the plurality of rotors 150.
  • the flight control unit 141 acquires the detection result by the GPS receiver 164 and detects the current position of the unmanned aerial vehicle 100. Then, the flight control unit 141 uses the current position of the unmanned flight object 100, the direction, flight speed and flight attitude of the unmanned flight object 100 obtained from the detection results by the compass 161 and the acceleration sensor 162 and the gyro sensor 163, and the communication IF 130. The flight state of the unmanned flying object 100 is controlled by controlling the number of rotations of the plurality of rotating blades 150 in response to the received flight control signal from the unmanned flying object control system 1.
  • the sound collection processing unit 143 acquires sound data generated by collecting sound from the microphone 140, and executes predetermined sound processing on the acquired sound data. Specifically, the sound collecting processing unit 143 has a noise processing unit 144, and the noise processing unit 144 performs sound source separation processing on the acquired sound data to fly the unmanned aerial vehicle 100. Separate the related noise from the target sound.
  • the noise related to the flight of the unmanned aerial vehicle 100 (hereinafter, referred to as “noise”) is, for example, the noise generated by the rotation of the rotor 150 of the unmanned aerial vehicle 100.
  • the noise processing unit 144 extracts noise or a target sound by, for example, applying a directivity filter for obtaining directivity in an arbitrary direction to an audio signal obtained from the microphone 140. As a result, the noise and the target sound are separated.
  • the sound collection processing unit 143 transmits the target sound to the unmanned aerial vehicle control system 1 via the communication IF 130.
  • the sound detection unit 142 determines whether or not the target sound is a specific sound.
  • the specific sound is, for example, a sound indicating a suspicious person, a sound indicating a suspicious unmanned aerial vehicle, a sound indicating a victim, or the like.
  • a sound feature may be used in determining whether or not the target sound is a specific sound.
  • a peak frequency and a peak frequency time (called a peak time) when the sound is converted into a time-dependent frequency (spectrogram) by an FFT (Fast Fourier Transform) are stored in advance.
  • the sound detection unit 142 determines whether or not the target sound is a specific sound by comparing the feature amount of the target sound with the feature amount of the specific sound. For example, the sound detection unit 142 converts the target sound into a spectrogram and calculates the peak frequency and the peak time as the feature amount of the target sound. The sound detection unit 142 compares the peak frequencies and peak times of the target sound and the specific sound, and if the error is smaller than a predetermined threshold value, it can determine that the target sound is the specific sound.
  • the method for making the determination is not particularly limited. For example, when the target sound is a specific sound, the sound detection unit 142 transmits to the unmanned aerial vehicle control system 1 via the communication IF 130 that the sound collecting target corresponds to the specific sound. For example, when the target sound is a sound indicating a victim, the sound detection unit 142 transmits to the unmanned vehicle control system 1 that the sound collection target is a victim.
  • FIG. 3 is a graph showing an example of the relationship between the rotation speed of the rotor 150 and the noise level. Note that FIG. 3 also shows a top view of the rotary blade 150 as a diagram for explaining the measurement location of the noise level in the graph. In the top view, the center of the rotary blade 150 (position of the rotary axis) is the origin, the two directions orthogonal to each other in the horizontal direction are the + X-axis direction and the + Y-axis direction, and the upward direction (vertically upward direction) is the + Z-axis direction. It is said.
  • these positions differ only in the parameters in the Y-axis direction, and the noise level is lower at the positions (marked with x in FIG. 3) separated from the rotor 150 in the + Y-axis direction.
  • the noise data 20 as shown can be generated for each rotation speed of the rotor 150.
  • FIG. 4A is a diagram showing an example of noise data 20 when the unmanned aerial vehicle 100 is viewed from above.
  • FIG. 4B is a diagram showing an example of noise data 20 when the unmanned aerial vehicle 100 is viewed from the side.
  • the noise data 20 includes a noise map (noise range) of the noise level around the unmanned aerial vehicle 100 as shown in FIGS. 4A and 4B for each rotation speed.
  • a noise map noise range
  • “noise level 1” has a higher noise level than "noise level 2”
  • FIG. 4A when the unmanned aerial vehicle 100 is viewed from above, the closer to the unmanned aerial vehicle 100, the higher the noise level. It gets higher.
  • FIG. 4B when the unmanned vehicle 100 is viewed from the side, the noise level is low in the vertical direction (vertical direction) of the unmanned vehicle 100, and unmanned flight is performed in the horizontal direction (horizontal direction). The closer to the body 100, the higher the noise level.
  • such a noise map is included in the noise data 20 for each rotation speed of the rotor 150. Further, such a noise map may be included in the noise data 20 for each model of the unmanned aerial vehicle 100.
  • the noise level may be measured and the noise map may be updated by using a microphone mounted on the unmanned aerial vehicle 100 (may be a microphone 140 or another dedicated microphone). Good. As a result, even if the current noise level changes from the noise level in the initially created noise map due to changes in the environment or mechanical deterioration, a noise map corresponding to such a change can be generated.
  • FIG. 5 is a flowchart showing an example of an information processing method by the unmanned aerial vehicle control system 1 according to the first embodiment. Since the unmanned aerial vehicle control system 1 is realized by a computer, the information processing method is a method executed by the computer.
  • the determination unit 11 determines whether or not the target sound is recognized based on the sound data acquired by at least one unmanned aerial vehicle 100 among the plurality of unmanned aerial vehicles 100 (step S11). Specifically, in the determination unit 11, at least one unmanned aviation body 100 out of the plurality of unmanned aviation bodies 100 acquires the sound data of the sound collection target in the sound collection range, and the target sound (for example, of a suspicious person). It is determined whether or not the sound or the sound of the victim is recognized.
  • step S11 If the target sound is not recognized (No in step S11), the process of step S11 is performed until the target sound is recognized.
  • the acquisition unit 12 acquires the positions and sound collection directions of the plurality of unmanned aerial vehicles 100 (step S12). For example, the acquisition unit 12 instructs the plurality of unmanned aerial vehicles 100 to acquire the current position and the sound collecting direction and transmit them to the unmanned aerial vehicle control system 1. For example, the acquisition unit 12 has a position of each of the plurality of unmanned aerial vehicles 100 based on the reception result of the GPS receiver 164 included in each of the plurality of unmanned aerial vehicles 100, and a compass included in each of the plurality of unmanned aerial vehicles 100. The sound collecting direction of each of the plurality of unmanned aerial vehicles 100 based on the detection result of 161 is acquired from each of the plurality of unmanned aerial vehicles 100 via the communication IF30.
  • the acquisition unit 12 acquires noise-related information regarding noise generated by at least one unmanned aerial vehicle 100 among the plurality of unmanned aerial vehicles 100 (step S13).
  • the acquisition unit 12 may acquire noise-related information for each of the plurality of unmanned aerial vehicles 100 including the unmanned aerial vehicle 100 that has acquired the sound data used for recognizing the target sound.
  • the noise-related information includes, for example, information on the rotation speed of the rotary blade 150 included in the unmanned aerial vehicle 100.
  • the acquisition unit 12 acquires information on the current rotation speed of the rotary blade 150 of the unmanned aerial vehicle 100 from the unmanned aerial vehicle 100 via the communication IF 30.
  • the acquisition unit 12 acquires the estimated position of the sound collecting target, which is the source of the target sound estimated from the target sound (step S14).
  • the acquisition unit 12 may acquire the sound collection sensitivity of the target sound, or may acquire the estimated position estimated based on the sound collection sensitivity. If the sound collection sensitivity is high, it can be estimated that the sound collection target is located on the unmanned aerial vehicle 100 side in the sound collection range, and if the sound collection sensitivity is low, the sound collection target is the unmanned aerial vehicle within the sound collection range. It can be estimated that it is located on the opposite side of 100. In this way, the approximate position of the sound collection target can be estimated as the estimated position according to the sound collection sensitivity.
  • the determination unit 14 determines at least one of the target position and the target sound collection direction of each of the plurality of unmanned vehicle 100s based on the estimated position, the position and sound collection direction of each of the plurality of unmanned vehicle 100s, and the noise-related information. Determine (step S15).
  • the target sound collection direction of each of the plurality of unmanned aerial vehicles 100 is the direction in which each of the plurality of unmanned aerial vehicles 100 heads toward the estimated position.
  • the target position of each of the plurality of unmanned aerial vehicles 100 is estimated from the noise-related information of the other unmanned aerial vehicle 100 in a state where each of the plurality of unmanned aerial vehicles 100 has the sound collecting direction directed to the estimated position.
  • the target position is a state in which the unmanned aerial vehicle 100b directs the sound collection direction to the estimated position of the sound collection target 200, such as the position of the unmanned aerial vehicle 100b.
  • the noise range of the unmanned aerial vehicle 100a (inside the broken line around the unmanned aerial vehicle 100a) does not overlap with the sound collecting direction of the unmanned aerial vehicle 100b (the direction from the unmanned aerial vehicle 100b to the estimated position of the sound collecting target 200).
  • the estimation unit 13 has a correspondence relationship between a predetermined noise level for each rotation speed of the rotor 150 included in the unmanned aerial vehicle 100 and a distance from the unmanned aerial vehicle 100, and noise-related information (for example, information on the rotation speed). ) And the noise range of the unmanned aerial vehicle 100 is estimated.
  • the noise range of the unmanned aerial vehicle 100 can be easily estimated by collating the rotation speed with the corresponding relationship.
  • the output unit 15 outputs at least one request for each of the plurality of unmanned aerial vehicles 100 to move to each target position and set the sound collection direction to each target sound collection direction (step S16).
  • the output unit 15 requests flight control signals for each of the plurality of unmanned aerial vehicles 100 for at least one of movement to each target position and setting of sound collection direction in each target sound collection direction. It may be output as.
  • the output unit 15 makes at least one of movement to each target position and setting of sound collection direction to each target sound collection direction for each operator who operates each of the plurality of unmanned aerial vehicles 100. (For example, display on an operation screen provided on a radio or the like) may be output as the request.
  • FIG. 6 is a sequence diagram showing a flow until the position of the sound collecting target is specified by the unmanned aerial vehicle control system 1 and the plurality of unmanned aerial vehicles 100 according to the first embodiment.
  • FIG. 7 is an explanatory diagram for explaining an example of moving each of the plurality of unmanned aerial vehicles 100 according to the first embodiment to each target position and setting the sound collecting direction for each target sound collecting direction.
  • the plurality of unmanned aerial vehicles 100 may include three or more unmanned aerial vehicles 100, but when explaining with specific examples below, pay attention to two of them, the unmanned aerial vehicles 100a and 100b. To do.
  • the plurality of unmanned aerial vehicles 100 may include only two unmanned aerial vehicles 100.
  • the plurality of unmanned aerial vehicles 100 start sound collection (step S100a and step S100b).
  • the plurality of unmanned aerial vehicles 100 collect sound while flying for the purpose of finding a suspicious person or a victim, for example.
  • the unmanned aerial vehicle 100a recognizes the target sound and transmits information indicating that the target sound is recognized to the unmanned aerial vehicle control system 1.
  • Step S101a For example, as shown on the left side of FIG. 7, the unmanned aerial vehicle 100a picks up the sound generated by the sound picking target 200 in the sound picking range A and recognizes the target sound.
  • the unmanned air vehicle 100a transmits to the unmanned air vehicle control system 1 that the target sound is a specific sound (a sound indicating a suspicious person, a sound indicating a suspicious unmanned air vehicle, a sound indicating a victim, etc.).
  • the unmanned vehicle control system 1 has recognized the target sound by the unmanned vehicle 100a.
  • the unmanned aerial vehicle control system 1 may recognize the target sound only by acquiring the sound data.
  • the unmanned aerial vehicle control system 1 determines that the target sound has been recognized, and starts the process of specifying the position of the sound collecting target 200 (estimating the position with high accuracy) (step S102). Specifically, the unmanned aerial vehicle control system 1 instructs a plurality of unmanned aerial vehicles 100 to acquire their current position, sound collecting direction, and noise-related information. The unmanned aerial vehicle control system 1 may give an instruction to acquire noise-related information only to the unmanned aerial vehicle 100a that recognizes the target sound. Further, the unmanned vehicle control system 1 estimates the position of the sound collecting target 200 from the target sound recognized by the unmanned vehicle 100a, and acquires the position (estimated position).
  • Each of the plurality of unmanned aerial vehicles 100 acquires its own current position and sound collecting direction, and noise-related information, and transmits the information to the unmanned aerial vehicle control system 1 (step S103a and step). S103b).
  • the unmanned aerial vehicle 100 other than the unmanned aerial vehicle 100a does not have to acquire and transmit the noise-related information.
  • noise-related information includes the number of revolutions of each rotor 150 of a plurality of unmanned aerial vehicles 100.
  • the unmanned aerial vehicle control system 1 estimates the noise range of the plurality of unmanned aerial vehicles 100 from the noise-related information of the plurality of unmanned aerial vehicles 100 (step S104). For example, the unmanned aerial vehicle control system 1 estimates the noise range of each of the plurality of unmanned aerial vehicles 100 by collating the rotation speed of each rotor 150 of the plurality of unmanned aerial vehicles 100 with the noise data 20. If the noise-related information of the unmanned aerial vehicle 100 other than the unmanned aerial vehicle 100a is not transmitted, only the noise range of the unmanned aerial vehicle 100a may be estimated.
  • each of the plurality of unmanned aerial vehicles 100 may have the noise data 20, and each of the plurality of unmanned aerial vehicles 100 uses the noise data 20 and the rotation speed of the rotor 150 acquired by itself.
  • the noise range of may be estimated.
  • the noise-related information includes each noise range of the plurality of unmanned aerial vehicles 100.
  • the noise range does not have to be estimated using the rotation speed of the rotor 150 of the unmanned aerial vehicle 100.
  • the microphone 140 arranged at a specific position with respect to the main body of the unmanned aerial vehicle 100 may be used. This may be done using the picked up noise level. This is because if the noise level at a specific position is known, the noise range around the unmanned aerial vehicle 100 can be estimated.
  • the unmanned vehicle control system 1 determines the target position and the target sound collection direction of each of the plurality of unmanned vehicle 100s based on the estimated position, the position of each of the plurality of unmanned vehicle 100s, the sound collection direction, and the noise-related information. , Outputs a request for moving to each target position and setting a sound collecting direction for each of the target sound collecting directions for each of the plurality of unmanned flying objects 100 (step S105).
  • Each of the plurality of unmanned aerial vehicles 100 moves to a target position and sets the sound collecting direction to the target sound collecting direction to collect sound (step S106a and step). S106b).
  • the target sound collection direction of each of the plurality of unmanned aerial vehicles 100 is the direction in which each of the plurality of unmanned aerial vehicles 100 heads toward the estimated position.
  • the target position of each of the plurality of unmanned aerial vehicles 100 is estimated from the noise-related information of the other unmanned aerial vehicle 100 in a state where each of the plurality of unmanned aerial vehicles 100 has the sound collecting direction directed to the estimated position. This is a position where the noise range of the unmanned aerial vehicle 100 does not overlap in the sound collecting direction.
  • the unmanned aerial vehicles 100a and 100b requested by the unmanned aerial vehicle control system 1 have the directions in which the unmanned aerial vehicles 100a and 100b each move toward the estimated position of the sound collecting target 200 as the target sound collecting directions.
  • the unmanned aerial vehicle control system 1 preferentially moves the unmanned aerial vehicle 100b other than the unmanned aerial vehicle 100a that has acquired the sound data used for recognizing the target sound among the plurality of unmanned aerial vehicles 100 to the target position.
  • the sound collecting direction may be set to the target sound collecting direction.
  • the unmanned vehicle control system 1 preferentially moves the unmanned vehicle 100b to the target position, and determines the target position of the unmanned vehicle 100a, which has acquired the sound data used for recognizing the target sound, as the current position.
  • the target sound collection direction of the unmanned vehicle 100a is determined in the direction toward the estimated position of the sound collection target 200.
  • the noise range of the other unmanned aerial vehicle 100a is set to the sound collecting direction in a state where the sound collecting direction (sound collecting range B) is directed to the estimated position. Since they do not overlap, the noise of the other unmanned aerial vehicle 100a does not interfere when the unmanned aerial vehicle 100b collects the target sound, and the target sound can be effectively collected.
  • the noise range is divided into two stages, for example, a "noise level 1" range and a "noise level 2" range lower than the "noise level 1", the unmanned vehicle after moving to the target position.
  • both the “noise level 1" range and the “noise level 2" range as the noise range of the other unmanned vehicle 100a do not overlap in the sound collection direction.
  • the target position may be determined. If it is difficult to determine the target position so that both ranges do not overlap in the sound collecting direction, the target position is determined so that at least the range of "noise level 1" does not overlap in the sound collecting direction. May be done.
  • the unmanned flying object 100a that has acquired the sound data used for recognizing the target sound has already recognized the target sound
  • the target position is left as the current position and the sound collecting direction is directed toward the estimated position.
  • the unmanned air vehicle 100b that does not recognize the target sound other than the unmanned air vehicle 100a is preferentially moved to the target position or the sound collection direction is set to the target sound collection direction. Therefore, in addition to the unmanned aerial vehicle 100a that has already recognized the target sound, the unmanned aerial vehicle 100b that does not recognize the target sound can also recognize the target sound. That is, the sound collection quality of each unmanned aerial vehicle 100 can be quickly improved, and the accuracy of estimating the position of the sound collection target can be quickly improved.
  • the unmanned aerial vehicle 100b so that the noise range of the unmanned aerial vehicle 100a from which the sound data used for recognizing the target sound is acquired does not overlap in the sound collecting direction of the unmanned aerial vehicle 100b other than the unmanned aerial vehicle 100a.
  • the target position of the unmanned aerial vehicle 100a may be determined so that the noise range of the unmanned aerial vehicle 100b does not overlap with the sound collecting direction of the unmanned aerial vehicle 100a.
  • each of the plurality of unmanned vehicle 100s acquires sound collection data in a state of facing the target sound collection direction, and actually collects the sound at the time of the sound collection.
  • the position, sound collecting direction, time, and the like are acquired and transmitted to the unmanned vehicle control system 1 (step S107a and step S107b).
  • the unmanned aerial vehicle control system 1 identifies the position of the sound collecting target 200 by updating the estimated position from the target sounds obtained from each of the plurality of unmanned aerial vehicles 100 after outputting the request, that is, a plurality of.
  • the position of the sound collecting target 200 using the unmanned aerial vehicle 100 is estimated with high accuracy (step S108).
  • the unmanned aerial vehicle control system 1 may perform triangulation using the actual position and sound collection direction of each of the plurality of unmanned aerial vehicles 100 at the time of sound collection, and the sound collection target 200 in which each unmanned aerial vehicle 100 is the same.
  • the position of the sound collection target 200 is specified by the time difference when the same sound is collected. In this way, the accuracy of position estimation can be further improved by determining at least one of the target position and the target sound pick-up direction again using the updated estimated position.
  • step S108 If the accuracy of estimating the position of the sound collecting target 200 is not sufficient in step S108, the process from step S102 may be performed again.
  • the case where the accuracy of estimating the position of the sound collecting target 200 is not sufficient means that the sound collecting target 200 does not exist at the position when the estimated position in step S108 is actually confirmed by, for example, a camera 171 or the like. It may be.
  • the accuracy of estimating the position of the sound collecting target 200 is not sufficient, for example, the area where the sound collecting ranges of the plurality of unmanned aerial vehicles 100 facing the estimated position overlap is large, and the position of the sound collecting target 200 It may be the case that cannot be specified.
  • the target position of each of the plurality of unmanned aerial vehicles 100 is determined to be the current position, and the unmanned aerial vehicle 100 other than the unmanned aerial vehicle 100 that has acquired the sound data used for recognizing the target sound preferentially picks up the sound. It may be set in the target sound collection direction. This will be described with reference to FIG.
  • FIG. 8 is a diagram for explaining another example of moving each of the plurality of unmanned aerial vehicles 100 according to the first embodiment to each target position and setting the sound collecting direction for each target sound collecting direction.
  • the unmanned aerial vehicle 100a recognizes the target sound.
  • the target positions of the plurality of unmanned aerial vehicles 100 are determined as the current positions. That is, the unmanned aerial vehicles 100a and 100b stay in place, respectively.
  • the unmanned aerial vehicle 100b other than the unmanned aerial vehicle 100a that has acquired the sound data used for recognizing the target sound is preferentially set to the target sound collecting direction.
  • the unmanned vehicle 100b rotates on the spot about the vertical axis so that the sound collecting direction becomes the target sound collecting direction, whereby unmanned flight
  • the sound collection range B of the body 100b includes the estimated position of the sound collection target 200, and the position of the sound collection target 200 using the unmanned flying objects 100a and 100b can be estimated with high accuracy. .. If it is difficult to prevent the noise range of the unmanned aerial vehicle 100a from overlapping the sound collecting direction of the unmanned aerial vehicle 100b only by setting the sound collecting direction in the target sound collecting direction, the unmanned aerial vehicle 100a and At least one target position of 100b may be changed from the current position.
  • the type of target sound may be considered. This will be described with reference to FIGS. 9A and 9B.
  • FIG. 9A is a diagram showing an example of a target sound collection direction according to the type of target sound (human voice).
  • FIG. 9B is a diagram showing another example of the target sound collection direction according to the type of target sound (flight sound of an unmanned aerial vehicle).
  • the unmanned aerial vehicle 100a recognizes, for example, a human voice as the target sound of the sound collecting target 200. Since a person is basically located below the unmanned aerial vehicle 100 in flight (on the ground side), when determining the target sound collection direction of the unmanned aerial vehicle 100b, consideration other than below the unmanned aerial vehicle 100b is taken into consideration. You don't have to put it in. That is, the target sound collection direction can be easily determined by focusing on the lower part of the unmanned aerial vehicle 100b.
  • the unmanned aerial vehicle 100a recognizes the flight sound of the unmanned aerial vehicle that is not registered in advance as the target sound of the sound collecting target 200. Since the unmanned aerial vehicle can move widely from near the ground to the sky, the target sound pickup direction is determined without focusing on a specific direction.
  • the plurality of unmanned aerial vehicles 100 can move to a target position where the noise of the unmanned aerial vehicle 100 does not interfere with the sound collection in consideration of the noise-related information, or the noise of the unmanned aerial vehicle 100 can move in the sound collection direction. It can be set in the target sound collection direction that does not interfere with sound collection. Therefore, even when a plurality of unmanned aerial vehicles 100 are used, the target sound can be effectively collected. As a result, the sound collection quality of each unmanned aerial vehicle 100 can be improved, and the accuracy of estimating the position of the sound collection target can be improved.
  • At least one of the plurality of unmanned aerial vehicles 100 may include the function of the unmanned aerial vehicle control system 1 (specifically, the function of the processor 10) according to the first embodiment. This will be described with reference to FIG.
  • FIG. 10 is a block diagram showing an example of the configuration of the unmanned aerial vehicle 101 according to the second embodiment.
  • the unmanned aerial vehicle 101 according to the second embodiment is different from the unmanned aerial vehicle 100 according to the first embodiment in that the processor 111 is provided instead of the processor 110 and the noise data 20 is further provided.
  • the processor 111 further includes a determination unit 11, an acquisition unit 12, an estimation unit 13, a determination unit 14, and an output unit 15 as functions of the unmanned aerial vehicle control system 1 according to the first embodiment.
  • the communication IF 130 serves as a communication interface for the unmanned aerial vehicle 101 to communicate with other unmanned aerial vehicles. It should be noted that each of the plurality of unmanned aerial vehicles may have the function of the unmanned aerial vehicle control system 1 according to the first embodiment, or any one of the plurality of unmanned aerial vehicles may have the function of the unmanned aerial vehicle control system 1 according to the first embodiment. It has the function of the body control system 1 and may control other unmanned aerial vehicles.
  • the unmanned air vehicle 101 is an unmanned air vehicle in a plurality of unmanned air vehicles, and the target sound is recognized based on the sound data acquired in at least one unmanned air vehicle among the plurality of unmanned air vehicles.
  • the determination unit 11 for determining whether or not the sound has been generated, and when it is determined that the target sound has been recognized, the positions and sound collection directions of the plurality of unmanned air vehicles are acquired, and at least one of the plurality of unmanned air vehicles is obtained.
  • the acquisition unit 12 that acquires noise-related information related to the noise generated by the unmanned vehicle and acquires the estimated position of the sound collecting target that is the source of the target sound estimated from the target sound, the estimated position, and a plurality of unmanned aircraft.
  • a determination unit 14 that determines at least one target position and target sound collection direction for each of the plurality of unmanned aircraft based on each position and sound collection direction, and noise-related information, and for each of the plurality of unmanned aircraft.
  • the output unit 15 is provided with at least one request for moving to each target position and setting the sound collecting direction for each target sound collecting direction.
  • the unmanned aerial vehicle having a moving speed faster than that of the other unmanned aerial vehicles may be preferentially moved.
  • An unmanned aerial vehicle with a high moving speed can reach the target position faster than other unmanned aerial vehicles. Therefore, the unmanned aerial vehicle with a high moving speed moves preferentially to improve the sound collection quality of the unmanned aerial vehicle. It can be improved quickly, and the accuracy of estimating the position of the sound collecting target can be improved quickly.
  • the target position of each of the plurality of unmanned aerial vehicles may be a position where the distance between each unmanned aerial vehicle and the estimated position is different.
  • the distance difference between each target position of multiple unmanned air vehicles and the estimated position in other words, the time difference until the target sound from the sound collection target reaches each unmanned air vehicle
  • the sound collection target The accuracy of estimating the position of is further improved.
  • the target position of each of the plurality of unmanned aerial vehicles may be a position where the sound shield does not overlap with the sound collecting direction in a state where the sound collecting direction is directed to the estimated position. After each of the plurality of unmanned aircraft has moved to the target position, the sound shield does not overlap the sound collection direction in the state where the sound collection direction is directed to the estimated position, so that each of the plurality of unmanned aircraft is targeted. When collecting sound, the sound shield does not get in the way, and the target sound can be collected more effectively.
  • the determination unit 14 determines the movement route to the target position of each of the plurality of unmanned aerial vehicles based on the estimated position, the position and sound collecting direction of each of the plurality of unmanned aerial vehicles, and the noise-related information. May be good. Then, in the movement route of each of the plurality of unmanned aerial vehicles, the sound shield is the sound pickup while each of the plurality of unmanned aerial vehicles is moving along the movement route with the sound collection direction directed to the estimated position. The positions may not overlap in the direction. As a result, even while each of the plurality of unmanned aerial vehicles is moving to the target position, the target sound can be continuously collected without being disturbed by the sound shield.
  • the acquisition unit 12 may acquire the frequency of the target sound.
  • the determination unit 14 determines the target position and target sound collection direction of each of the plurality of unmanned aerial vehicles based on the estimated position, the position and sound collection direction of each of the plurality of unmanned aerial vehicles, the noise-related information, and the frequency of the target sound. At least one may be determined. For example, when the frequency of the target sound and the frequency of the noise are in different frequency bands, the frequency of the noise may be removed by a filter or the like. As a result, the target sound having a frequency different from the noise frequency generated by the sound collecting target can be effectively picked up.
  • the unmanned aerial vehicle control system 1 and the unmanned aerial vehicle 101 include the estimation unit 13 and the noise data 20, but they may not be provided, and the noise range of the unmanned aerial vehicle may be increased. It may be estimated by a configuration other than the unmanned aerial vehicle control system 1 and the unmanned aerial vehicle 101.
  • the present disclosure can be realized as a program for causing a processor (for example, processor 10 of the unmanned vehicle control system 1 or processor 111 of the unmanned vehicle 101) to execute the steps included in the information processing method. Further, the present disclosure can be realized as a non-temporary computer-readable recording medium such as a CD-ROM on which the program is recorded.
  • each step is executed by executing the program using hardware resources such as a computer CPU, memory, and input / output circuits. .. That is, each step is executed when the CPU acquires data from the memory or the input / output circuit or the like and performs an operation, or outputs the operation result to the memory or the input / output circuit or the like.
  • hardware resources such as a computer CPU, memory, and input / output circuits. .. That is, each step is executed when the CPU acquires data from the memory or the input / output circuit or the like and performs an operation, or outputs the operation result to the memory or the input / output circuit or the like.
  • each component included in the unmanned aerial vehicle control system 1 and the unmanned aerial vehicle 101 is composed of dedicated hardware or by executing a software program suitable for each component. It may be realized. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • FPGA Field Programmable Gate Array
  • a part or all of the functions of the unmanned aerial vehicle control system 1 and the unmanned aerial vehicle 101 according to the above embodiment may be realized by executing a program by a processor such as a CPU.
  • a part or all of the functions of the unmanned aerial vehicle control system 1 may be realized by executing a part or all of the functions by an external server.
  • a part or all of the functions of the unmanned aerial vehicle control system 1 according to the above embodiment may be realized by being executed by a plurality of external servers. That is, the determination unit 11, the acquisition unit 12, the determination unit 14, and the output unit 15, which are functional components of the processor 10, may be distributed and arranged in a plurality of external servers.
  • each of the above steps is executed is for exemplifying in order to specifically explain the present disclosure, and may be an order other than the above as long as the same effect can be obtained. Further, a part of the above steps may be executed simultaneously with other steps (for example, in parallel).
  • the present disclosure can be applied to, for example, a system using a plurality of unmanned aerial vehicles.
  • Unmanned aerial vehicle control system 10 110, 111 Processor 11 Judgment unit 12 Acquisition unit 13 Estimate unit 14 Determination unit 15 Output unit 20 Noise data 30, 130 Communication IF 100, 100a, 100b, 101 Unmanned flying object 140 Microphone 141 Flight control unit 142 Sound detection unit 143 Sound collection processing unit 144 Noise processing unit 150 Rotating blade 161 Compass 162 Acceleration sensor 163 Gyro sensor 164 GPS receiver 171 Camera 172 Gimbal 200 Sound target

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

情報処理方法は、コンピュータが、ターゲット音が認識されたか否かを判定し(S11)、ターゲット音が認識されたと判定された場合(S11でYes)、複数の無人飛行体の位置及び収音方向を取得し(S12)、無人飛行体が発生する騒音に関する騒音関連情報を取得し(S13)、ターゲット音から推定される収音ターゲットの推定位置を取得し(S14)、推定位置、複数の無人飛行体それぞれの位置及び収音方向、並びに騒音関連情報、に基づいて複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定し(S15)、複数の無人飛行体それぞれに対する、目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する(S16)。

Description

情報処理方法、無人飛行体及び無人飛行体制御システム
 本開示は、情報処理方法、無人飛行体及び無人飛行体制御システムに関する。
 特許文献1には、マイクロフォンアレイを用いて、音の発生源の位置を推定する無人飛行体が開示されている。
米国特許第9247343号明細書
 例えば、特許文献1のような無人飛行体を複数用いて収音ターゲットの位置を推定することが考えられる。
 しかしながら、無人飛行体の回転翼の回転等による騒音によって、収音品質が劣化し、また、収音ターゲットの位置の推定の精度が悪化する可能性がある。
 そこで、本開示は、複数の無人飛行体を用いた場合であっても、ターゲット音を効果的に収音することができる情報処理方法、無人飛行体及び無人飛行体制御システムを提供する。
 本開示に係る情報処理方法は、コンピュータが、複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定し、前記ターゲット音が認識されたと判定された場合、前記複数の無人飛行体の位置及び収音方向を取得し、前記複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得し、前記ターゲット音から推定される前記ターゲット音の発生源である収音ターゲットの推定位置を取得し、前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定し、前記複数の無人飛行体それぞれに対する、前記目標位置それぞれへの移動及び前記目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する方法である。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 本開示に係る情報処理方法、無人飛行体及び無人飛行体制御システムは、複数の無人飛行体を用いた場合であっても、ターゲット音を効果的に収音することができる。
図1は、実施の形態1に係る無人飛行体制御システムの構成の一例を示すブロック図である。 図2は、実施の形態1に係る無人飛行体の構成の一例を示すブロック図である。 図3は、回転翼の回転数と、騒音レベルとの関係の一例を示すグラフである。 図4Aは、無人飛行体を上面視した場合の騒音範囲の一例を示す図である。 図4Bは、無人飛行体を側面視した場合の騒音範囲の一例を示す図である。 図5は、実施の形態1に係る無人飛行体制御システムによる情報処理方法の一例を示すフローチャートである。 図6は、実施の形態1に係る無人飛行体制御システム及び複数の無人飛行体によって収音ターゲットの位置を特定するまでの流れを示すシーケンス図である。 図7は、実施の形態1に係る複数の無人飛行体それぞれの目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の一例を説明するための説明図である。 図8は、実施の形態1に係る複数の無人飛行体それぞれの目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の他の一例を説明するための図である。 図9Aは、ターゲット音の種類(人の声)に応じた目標収音方向の一例を示す図である。 図9Bは、ターゲット音の種類(無人飛行体の飛行音)に応じた目標収音方向の他の一例を示す図である。 図10は、実施の形態2に係る無人飛行体の構成の一例を示すブロック図である。 図11は、複数の無人飛行体を用いて収音ターゲットが発生した音の収音を行う際に生じ得る問題を説明するための図である。
 (本開示の基礎となった知見)
 図11は、複数の無人飛行体を用いて収音ターゲットが発生した音(ターゲット音とも呼ぶ)の収音を行う際に発生し得る問題を説明するための図である。例えば、図11には、複数の無人飛行体として、無人飛行体100a及び100bを示している。また、図11には、複数の無人飛行体の収音のターゲットである収音ターゲット200を示している。
 例えば、警備の用途又は災害時の救助の用途等において、収音ターゲット200が発生した音の収音品質を向上したり、収音ターゲット200の位置を精度良く推定したりすることが望まれている。なお、図11では、警備の用途おける収音ターゲット200として不審者を示している。
 これを実現するために、例えば、無人飛行体には複数のマイクロフォン素子からなるマイクロフォンアレイが搭載される。マイクロフォンアレイは、各マイクロフォン素子が収音した音の時間差を利用したビームフォーミングが可能となっており、指向性を任意のものとすることができる。つまり、マイクロフォンアレイが搭載された無人飛行体は、収音方向を特定の方向に絞ることができ、当該特定の方向においてターゲット音を収音した場合、当該特定の方向に基づく収音範囲(指向範囲)に収音ターゲット200が存在することを認識できる。例えば、図11に示すように、無人飛行体100aは、その収音範囲Aにおいてターゲット音を収音した場合、収音範囲Aに収音ターゲット200が存在することを認識できる。
 このとき、無人飛行体100aは、収音ターゲット200が収音範囲A内のどこかに存在することはわかるが、詳細な位置はわからない。そこで、例えば、複数の無人飛行体を用いて三角測量等を行うことが考えられる。複数の無人飛行体を用いることで、各無人飛行体がターゲット音を収音したときの、各無人飛行体の収音方向が交差する点付近(具体的には、各無人飛行体の収音範囲が重複する範囲)に収音ターゲット200が存在すると特定できるためである。
 しかし、複数の無人飛行体を用いてターゲット音の収音を行う場合、ある無人飛行体に対して他の無人飛行体が発生する騒音(例えば回転翼の回転に伴い発生する飛行音等)が邪魔になる場合がある。具体的には、図11の右側に示すように、無人飛行体100bの収音範囲Bと無人飛行体100aが発生する騒音の騒音範囲とが重複する場合がある。この場合、無人飛行体100aの騒音によって、無人飛行体100bの収音品質が劣化し、また、収音ターゲット200の位置の推定の精度が悪化する可能性がある。
 このような問題を解決するために、本開示の一態様に係る情報処理方法は、コンピュータが、複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定し、前記ターゲット音が認識されたと判定された場合、前記複数の無人飛行体の位置及び収音方向を取得し、前記複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得し、前記ターゲット音から推定される前記ターゲット音の発生源である収音ターゲットの推定位置を取得し、前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定し、前記複数の無人飛行体それぞれに対する、前記目標位置それぞれへの移動及び前記目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する方法である。
 これによれば、ターゲット音から推定される収音ターゲットの推定位置だけでなく、無人飛行体が発生する騒音に関する騒音関連情報にも基づいて、複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つが決定される。したがって、複数の無人飛行体は、騒音関連情報も考慮して、無人飛行体の騒音が収音の邪魔にならない目標位置へ移動でき、又は、収音方向を無人飛行体の騒音が収音の邪魔にならない目標収音方向へ設定できる。このため、複数の無人飛行体を用いた場合であっても、ターゲット音を効果的に収音することができる。これにより、各無人飛行体の収音品質を向上でき、また、収音ターゲットの位置の推定の精度を向上できる。
 また、前記複数の無人飛行体それぞれの前記目標収音方向は、前記複数の無人飛行体のそれぞれが前記推定位置に向かう方向であり、前記複数の無人飛行体それぞれの前記目標位置は、前記複数の無人飛行体のそれぞれが収音方向を前記推定位置に向けた状態において、他の無人飛行体の騒音関連情報から推定される当該他の無人飛行体の騒音範囲が当該収音方向に重ならない位置であるとしてもよい。
 これによれば、複数の無人飛行体のそれぞれが目標位置に移動した後、収音方向を推定位置に向けた状態において、他の無人飛行体の騒音範囲が当該収音方向に重ならないため、複数の無人飛行体のそれぞれがターゲット音を収音する際に他の無人飛行体の騒音が邪魔にならず、ターゲット音を効果的に収音することができる。言い換えると、他の無人飛行体の騒音が当該無人飛行体に搭載のマイクロフォンにより収音されにくくすることができる。
 また、前記騒音関連情報は、無人飛行体の回転翼の回転数に関する情報を含み、無人飛行体の回転翼の回転数ごとに予め定められた騒音レベルと無人飛行体からの距離との対応関係と、前記回転数に関する情報とに基づいて前記騒音範囲を推定するとしてもよい。
 これによれば、回転翼の回転数ごとに騒音レベルと無人飛行体からの距離との対応関係が予め定められているため、取得した他の無人飛行体の回転翼の回転数を当該対応関係に照合することで、他の無人飛行体の騒音範囲を容易に推定できる。
 また、前記要求を出力した後の前記複数の無人飛行体それぞれから得られるターゲット音から前記推定位置を更新するとしてもよい。
 これによれば、更新した推定位置を用いて、再度、目標位置及び目標収音方向の少なくとも1つを決定することで、位置の推定の精度をさらに高めることができる。
 また、前記複数の無人飛行体のうちの前記ターゲット音の認識に用いられた音データを取得した無人飛行体以外の無人飛行体を優先的に前記目標位置へ移動させる又は収音方向を前記目標収音方向へ設定させるとしてもよい。具体的には、前記ターゲット音の認識に用いられた音データを取得した無人飛行体の前記目標位置を現在位置に決定し、当該無人飛行体の前記目標収音方向を前記推定位置に向かう方向に決定するとしてもよい。
 これによれば、ターゲット音の認識に用いられた音データを取得した無人飛行体は、すでにターゲット音を認識しているため、目標位置を現在位置のままにし、収音方向を推定位置に向かうように設定させ、当該無人飛行体以外のターゲット音を認識していない無人飛行体を優先的に目標位置へ移動させる又は収音方向を目標収音方向へ設定させる。したがって、効率的にターゲット音を認識していない無人飛行体もターゲット音を認識できるようになる。つまり、各無人飛行体の収音品質を早く向上でき、また、収音ターゲットの位置の推定の精度を早く向上できる。
 また、前記複数の無人飛行体のうちの移動速度が他の無人飛行体よりも速い無人飛行体を優先的に移動させるとしてもよい。
 これによれば、移動速度の速い無人飛行体は、他の無人飛行体よりも早く目標位置に到達し得るため、移動速度の速い無人飛行体が優先的に移動することで、当該無人飛行体の収音品質を早く向上でき、また、収音ターゲットの位置の推定の精度を早く向上できる。
 また、前記複数の無人飛行体それぞれの前記目標位置は、各無人飛行体と前記推定位置との距離がそれぞれ異なる位置であるとしてもよい。
 これによれば、複数の無人飛行体のそれぞれの目標位置と、推定位置との距離差(言い換えると、収音ターゲットからのターゲット音が各無人飛行体に到達するまでの時間差)も利用することで、収音ターゲットの位置の推定の精度をさらに向上できる。
 また、前記複数の無人飛行体それぞれの前記目標位置は、収音方向を前記推定位置に向けた状態において、音の遮蔽物が当該収音方向に重ならない位置であるとしてもよい。
 これによれば、複数の無人飛行体のそれぞれが目標位置に移動した後、収音方向を推定位置に向けた状態において、音の遮蔽物が当該収音方向に重ならないため、複数の無人飛行体のそれぞれがターゲット音を収音する際に音の遮蔽物が邪魔にならず、ターゲット音をさらに効果的に収音することができる。
 また、さらに、前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの前記目標位置への移動ルートを決定し、前記複数の無人飛行体それぞれの前記移動ルートは、前記複数の無人飛行体のそれぞれが収音方向を前記推定位置に向けた状態で当該移動ルートを移動している間、音の遮蔽物が当該収音方向に重ならない位置であるとしてもよい。
 これによれば、複数の無人飛行体のそれぞれが目標位置へ移動している間も、音の遮蔽物に邪魔されずに連続的にターゲット音を収音できる。
 また、さらに、前記ターゲット音の収音感度を取得し、前記収音感度に基づいて推定された前記推定位置を取得するとしてもよい。
 これによれば、収音感度に応じて収音ターゲットのおおよその位置を推定できる。
 また、さらに、前記ターゲット音の周波数を取得し、前記騒音関連情報には、無人飛行体が発生する騒音の周波数が含まれ、前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、前記騒音関連情報、並びに前記ターゲット音の周波数に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定するとしてもよい。
 これによれば、騒音の周波数をフィルタ等によって除去することで、収音ターゲットが発生した、騒音の周波数とは異なる周波数を有するターゲット音を効果的に収音することができる。
 本開示の一態様に係る無人飛行体は、複数の無人飛行体における無人飛行体であって、前記複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定する判定部と、前記ターゲット音が認識されたと判定された場合に、前記複数の無人飛行体の位置及び収音方向を取得し、前記複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得し、前記ターゲット音から推定される前記ターゲット音の発生源である収音ターゲットの推定位置を取得する取得部と、前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定する決定部と、前記複数の無人飛行体それぞれに対する、前記目標位置それぞれへの移動及び前記目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する出力部と、を備える。
 これによれば、複数の無人飛行体を用いた場合であっても、ターゲット音を効果的に収音することができる無人飛行体を提供できる。例えば、複数の無人飛行体とは別途外部にシステムを設けることなく、ターゲット音を効果的に収音することができる。
 本開示の一態様に係る無人飛行体制御システムは、複数の無人飛行体を制御する無人飛行体制御システムであって、前記複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定する判定部と、前記ターゲット音が認識されたと判定された場合に、前記複数の無人飛行体の位置及び収音方向を取得し、前記複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得し、前記ターゲット音から推定される前記ターゲット音の発生源である収音ターゲットの推定位置を取得する取得部と、前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定する決定部と、前記複数の無人飛行体それぞれに対する、前記目標位置それぞれへの移動及び前記目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する出力部と、を備える。
 これによれば、複数の無人飛行体を用いた場合であっても、ターゲット音を効果的に収音することができる無人飛行体制御システムを提供できる。例えば、複数の無人飛行体に対して無人飛行体制御システムが中心となって動作することで、複数の無人飛行体を連携させやすくなる。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 以下、本開示の一態様に係る情報処理方法、無人飛行体及び無人飛行体制御システムについて、図面を参照しながら具体的に説明する。
 なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施の形態1)
 以下、図1から図9Bを用いて実施の形態1について説明する。
 [構成]
 図1は、実施の形態1に係る無人飛行体制御システム1の構成の一例を示すブロック図である。無人飛行体制御システム1は、複数の無人飛行体を制御するためのシステムであり、例えば、プロポ等のコントローラ又はサーバ装置等のコンピュータによって実現される。また、無人飛行体制御システム1は、複数の無人飛行体を含むシステムであってもよい。ここでは、無人飛行体制御システム1を複数の無人飛行体とは別体に設けられたコントローラとして説明する。
 無人飛行体制御システム1は、プロセッサ10、騒音データ20及び通信IF(インタフェース)30を備える。無人飛行体制御システム1は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ及び通信回路等を備え、騒音データ20はメモリに格納され、通信IF30は通信回路等によって実現される。
 騒音データ20は、例えば、無人飛行体が備える回転翼の回転数(例えば、rpm又はrps等)ごとに予め定められた騒音レベルと無人飛行体からの距離との対応関係を示すデータを含む。騒音データ20の詳細については後述する。
 通信IF30は、無人飛行体制御システム1が複数の無人飛行体との間で通信を行うための通信インタフェースである。通信IF30が複数の無人飛行体との通信に用いる通信規格は特に限定されない。
 プロセッサ10は、判定部11、取得部12、推定部13、決定部14及び出力部15を備える。判定部11、取得部12、推定部13、決定部14及び出力部15は、プロセッサ10がメモリに格納されたプログラムを実行することで実現される。なお、プログラムが格納されたメモリと騒音データ20が格納されたメモリとは、同一のメモリであってもよいし、異なるメモリであってもよい。
 判定部11は、複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定する。
 ターゲット音が認識されたと判定された場合、取得部12、推定部13、決定部14及び出力部15は以下の処理を行う。
 取得部12は、複数の無人飛行体の位置及び収音方向を取得する。また、取得部12は、複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得する。また、取得部12は、ターゲット音から推定されるターゲット音の発生源である収音ターゲットの推定位置を取得する。
 推定部13は、無人飛行体の騒音関連情報から当該無人飛行体の騒音範囲を推定する。
 決定部14は、推定位置、複数の無人飛行体それぞれの位置及び収音方向、並びに騒音関連情報、に基づいて複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定する。
 出力部15は、複数の無人飛行体それぞれに対する、目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する。
 判定部11、取得部12、推定部13、決定部14及び出力部15の詳細については後述する。
 図2は、実施の形態1に係る無人飛行体100の構成の一例を示すブロック図である。無人飛行体100は、無人飛行体制御システム1によって制御される複数の無人飛行体100における無人飛行体である。
 無人飛行体100は、ドローン、無人航空機またはUAV(Unmanned Aerial Vehicle)とも表現される。無人飛行体100は、警備又は災害時の救助等に用いられる場合がある。
 無人飛行体100は、プロセッサ110、通信IF130、複数のマイクロフォン140、複数の回転翼150、コンパス161、加速度センサ162、ジャイロセンサ163、GPS受信機、カメラ171及びジンバル172を備える。
 通信IF130は、無人飛行体100が無人飛行体制御システム1との間で通信を行うための通信インタフェースである。通信IF130が無人飛行体制御システム1との通信に用いる通信規格は特に限定されない。
 コンパス161は、無人飛行体100の向きを検出するセンサである。後述する複数のマイクロフォン140は、指向性を有することから、コンパス161によって指向性の強度の高い特定の方向を検出することができる。
 加速度センサ162は、無人飛行体100の異なる3方向のそれぞれにかかる加速度を検出するセンサである。
 ジャイロセンサ163は、無人飛行体100の異なる3方向を軸とした3軸周りそれぞれの回転における角速度を検出するセンサである。
 複数のマイクロフォン140のそれぞれは、特定の方向を基準とする所定の角度範囲である収音範囲において、収音範囲以外の角度範囲よりも高品質な音を収音することができる、指向性を有するマイクロフォンである。指向性の強度の高い特定の方向を収音方向とも呼ぶ。収音範囲は、例えば、90°以下の角度範囲であり、マイクロフォン140の位置を基準とした収音方向に対して広がりを有する3次元的な角度範囲である。複数のマイクロフォン140のそれぞれは、複数のマイクロフォン素子を有するマイクロフォンアレイであってもよい。複数のマイクロフォン140のそれぞれは、収音することで音データを逐次生成し、逐次生成された音データをプロセッサ110に逐次出力する。なお、無人飛行体100は、少なくとも1つの指向性を有するマイクロフォンを有していればよい。
 複数の回転翼150のそれぞれは、無人飛行体100を飛行させる力を発生させる。複数の回転翼150のそれぞれは、具体的には、回転して気流を発生させることで無人飛行体100を飛行させる力を発生させる。複数の回転翼150は、例えば、図示しないアクチュエータ(モータ等)によって回転させられる。
 ジンバル172は、カメラ171の三軸方向周りの姿勢を一定に保つための機器である。つまり、ジンバル172は、無人飛行体100の姿勢が変化しても、カメラ171の姿勢を、例えば、地球座標系に対して所望の姿勢に維持するための機器である。
 カメラ171は、レンズなどの光学系およびイメージセンサを有する機器であり、センサの一例である。カメラ171は、撮像することで画像データを逐次生成し、逐次生成された画像データを、通信IF130を介して無人飛行体制御システム1に逐次出力する。
 プロセッサ110は、飛行制御部141、音検知部142及び収音処理部143を備える。プロセッサ110は、コンパス161、加速度センサ162、ジャイロセンサ163、複数のマイクロフォン140等の各種センサにより検出された検出結果、及び、GPS受信機164又は通信IF130による受信結果等を取得し、取得した検出結果又は受信結果に対して、図示しないメモリに格納されているプログラムを実行することで、飛行制御部141、音検知部142及び収音処理部143が実現される。これにより、プロセッサ110は、通信IF130又は複数の回転翼150を制御する。
 飛行制御部141は、GPS受信機164による検出結果を取得して無人飛行体100の現在位置を検出する。そして、飛行制御部141は、無人飛行体100の現在位置と、コンパス161、加速度センサ162及びジャイロセンサ163による検出結果から得られる無人飛行体100の向き、飛行速度及び飛行姿勢と、通信IF130により受信された無人飛行体制御システム1からの飛行制御信号とに応じて、複数の回転翼150の回転数を制御することにより、無人飛行体100の飛行状態を制御する。
 収音処理部143は、マイクロフォン140が収音することで生成した音データを取得し、取得された音データに対して所定の音処理を実行する。具体的には、収音処理部143は、ノイズ処理部144を有し、ノイズ処理部144は、取得された音データに対して、音源分離処理を行うことで、無人飛行体100の飛行に関わる騒音と、ターゲット音とを分離する。無人飛行体100の飛行に関わる騒音(以下、「騒音」という。)とは、例えば、無人飛行体100の回転翼150が回転することにより生じる騒音である。ノイズ処理部144は、例えば、任意の方向への指向性を得るための指向性フィルタを、マイクロフォン140から得られた音声信号に適用することで、騒音又はターゲット音を抽出する。これにより、騒音とターゲット音とが分離される。収音処理部143は、ターゲット音を、通信IF130を介して無人飛行体制御システム1に送信する。
 音検知部142は、ターゲット音が特定の音であるか否かを判定する。特定の音とは、例えば、不審者を示す音、不審な無人飛行体を示す音、被災者を示す音等である。例えば、ターゲット音が特定の音であるか否かを判定する際に、音の特徴量が用いられてもよい。例えば、特定の音の特徴量として、音をFFT(Fast Fourier Transform)で時間依存周波数(スペクトログラム)に変換したときのピーク周波数及びピーク周波数の時間(ピーク時間と呼ぶ)が予め記憶される。そして、音検知部142は、ターゲット音の特徴量と特定の音の特徴量とを比較することでターゲット音が特定の音であるか否かを判定する。例えば、音検知部142は、ターゲット音をスペクトログラムに変換し、ターゲット音の特徴量としてピーク周波数及びピーク時間を計算する。音検知部142は、ターゲット音及び特定の音のそれぞれのピーク周波数及びピーク時間を比較し、誤差が所定の閾値よりも小さければ、ターゲット音が特定の音であると判定することができる。なお、当該判定を行う方法は特に限定されない。例えば、音検知部142は、ターゲット音が特定の音である場合、収音ターゲットが特定の音に対応することを、通信IF130を介して無人飛行体制御システム1に送信する。例えば、音検知部142は、ターゲット音が被災者を示す音である場合、収音ターゲットが被災者であることを無人飛行体制御システム1に送信する。
 [騒音データ]
 次に、騒音データ20の詳細について図3、図4A及び図4Bを用いて説明する。
 図3は、回転翼150の回転数と、騒音レベルとの関係の一例を示すグラフである。なお、図3には、当該グラフにおける騒音レベルの測定場所を説明するための図として、回転翼150の上面図も示している。当該上面図では、回転翼150の中心(回転軸の位置)を原点として、水平方向において互いに直交する2つの方向を+X軸方向及び+Y軸方向とし、上方向(鉛直上方向)を+Z軸方向としている。
 図3に示すように、無人飛行体100の回転翼150の回転数が多くなると、騒音レベルも高くなる傾向にあることがわかる。また、回転翼150からの距離が離れると、回転翼150の回転数が多くなるにつれて騒音レベルも高くなるという傾向は変わらないが、回転翼150からの距離が近いときと比べて騒音レベルが低くなることがわかる。例えば、図3では、回転翼150の中心(原点)に対して、X=0.25m、Y=0m、Z=-0.5mの位置と、X=0.25m、Y=0.5m、Z=-0.5mの位置とにおける騒音レベルをそれぞれ示している。これらの位置は、Y軸方向のパラメータのみを異ならせており、回転翼150から+Y軸方向により離れた位置(図3の×印)のほうが騒音レベルが低くなっていることがわかる。例えば、無人飛行体100の周囲の様々な点について、図3のグラフに示すような回転翼150の回転数と騒音レベルとの対応関係を予め計測しておくことで、図4A及び図4Bに示すような騒音データ20を、回転翼150の回転数ごとに生成することができる。
 図4Aは、無人飛行体100を上面視した場合の騒音データ20の一例を示す図である。
 図4Bは、無人飛行体100を側面視した場合の騒音データ20の一例を示す図である。
 騒音データ20には、回転数ごとに、図4A及び図4Bに示すような無人飛行体100の周囲の騒音レベルの騒音マップ(騒音範囲)が含まれている。例えば、「騒音レベル1」は、「騒音レベル2」よりも騒音レベルが高く、図4Aに示すように、無人飛行体100を上面視した場合には、無人飛行体100に近いほど騒音レベルが高くなる。また、図4Bに示すように、無人飛行体100を側面視した場合には、無人飛行体100の上下方向(鉛直方向)については騒音レベルが低く、左右方向(水平方向)については、無人飛行体100に近いほど騒音レベルが高くなる。上述したように、このような騒音マップが回転翼150の回転数ごとに騒音データ20に含まれる。なお、さらに、無人飛行体100の機種ごとにもこのような騒音マップが騒音データ20に含まれていてもよい。
 また、例えば、無人飛行体100に搭載したマイク(マイク140であってもよいし、その他の専用のマイクであってもよい)を用いて、騒音レベルを計測し、騒音マップを更新してもよい。これにより、環境の変化又は機械劣化等により、現状の騒音レベルが当初作成した騒音マップにおける騒音レベルから変化した場合であっても、このような変化に対応した騒音マップを生成できる。
 [動作]
 次に、無人飛行体制御システム1の動作(無人飛行体制御システム1による情報処理方法)について、図5から図9Bを用いて説明する。
 図5は、実施の形態1に係る無人飛行体制御システム1による情報処理方法の一例を示すフローチャートである。無人飛行体制御システム1は、コンピュータにより実現されるため、情報処理方法は、コンピュータが実行する方法となる。
 判定部11は、複数の無人飛行体100のうちの少なくとも1つの無人飛行体100において取得される音データに基づきターゲット音が認識されたか否かを判定する(ステップS11)。具体的には、判定部11は、複数の無人飛行体100のうちの少なくとも1つの無人飛行体100が、その収音範囲において収音ターゲットの音データを取得し、ターゲット音(例えば不審者の音又は被災者の音等)を認識したか否かを判定する。
 ターゲット音が認識されない場合(ステップS11でNo)、ターゲット音を認識するまでステップS11の処理が行われる。
 ターゲット音が認識された場合(ステップS11でYes)、取得部12は、複数の無人飛行体100の位置及び収音方向を取得する(ステップS12)。例えば、取得部12は、複数の無人飛行体100に対して、現在の位置及び収音方向を取得させ無人飛行体制御システム1に送信するように指示する。例えば、取得部12は、複数の無人飛行体100のそれぞれが備えるGPS受信機164の受信結果に基づく複数の無人飛行体100のそれぞれの位置、及び、複数の無人飛行体100のそれぞれが備えるコンパス161の検出結果に基づく複数の無人飛行体100のそれぞれの収音方向を、通信IF30を介して複数の無人飛行体100のそれぞれから取得する。
 また、取得部12は、複数の無人飛行体100のうちの少なくとも1つの無人飛行体100が発生する騒音に関する騒音関連情報を取得する(ステップS13)。例えば、取得部12は、ターゲット音の認識に用いられた音データを取得した無人飛行体100を含む複数の無人飛行体100それぞれの騒音関連情報を取得してもよい。騒音関連情報は、例えば、無人飛行体100が備える回転翼150の回転数に関する情報を含む。取得部12は、無人飛行体100の現在の回転翼150の回転数に関する情報を、通信IF30を介して当該無人飛行体100から取得する。
 また、取得部12は、ターゲット音から推定されるターゲット音の発生源である収音ターゲットの推定位置を取得する(ステップS14)。例えば、取得部12は、ターゲット音の収音感度を取得してもよく、収音感度に基づいて推定された推定位置を取得してもよい。収音感度が高ければ、収音ターゲットが収音範囲の中の無人飛行体100側に位置すると推定でき、また、収音感度が低ければ、収音ターゲットが収音範囲の中の無人飛行体100とは反対側に位置すると推定できる。このように、収音感度に応じて収音ターゲットのおおよその位置を推定位置として推定できる。
 決定部14は、推定位置、複数の無人飛行体100それぞれの位置及び収音方向、並びに騒音関連情報、に基づいて複数の無人飛行体100それぞれの目標位置及び目標収音方向の少なくとも1つを決定する(ステップS15)。例えば、複数の無人飛行体100それぞれの目標収音方向は、複数の無人飛行体100のそれぞれが推定位置に向かう方向である。例えば、複数の無人飛行体100それぞれの目標位置は、複数の無人飛行体100のそれぞれが収音方向を推定位置に向けた状態において、他の無人飛行体100の騒音関連情報から推定される当該他の無人飛行体100の騒音範囲が当該収音方向に重ならない位置である。つまり、図11の右側の図を用いて説明すると、目標位置は、無人飛行体100bの位置のように、無人飛行体100bが収音方向を収音ターゲット200の推定位置に向けた状態において、無人飛行体100aの騒音範囲(無人飛行体100aの周囲の破線内)が無人飛行体100bの収音方向(無人飛行体100bから収音ターゲット200の推定位置への方向)に重なる位置ではない。
 例えば、推定部13は、無人飛行体100が備える回転翼150の回転数ごとに予め定められた騒音レベルと無人飛行体100からの距離との対応関係と、騒音関連情報(例えば回転数に関する情報)とに基づいて、無人飛行体100の騒音範囲を推定する。上述したように、回転翼150の回転数ごとに騒音レベルと無人飛行体100からの距離との対応関係が騒音データ20において予め定められているため、取得した無人飛行体100の回転翼150の回転数を当該対応関係に照合することで、当該無人飛行体100の騒音範囲を容易に推定できる。
 そして、出力部15は、複数の無人飛行体100それぞれに対する、目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する(ステップS16)。例えば、出力部15は、複数の無人飛行体100のそれぞれに対して、目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の少なくとも1つについての飛行制御信号を当該要求として出力してもよい。また、例えば、出力部15は、複数の無人飛行体100のそれぞれを操作する各操作者に対して、目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の少なくとも1つについての指示(例えばプロポ等に設けられた操作画面への表示)を当該要求として出力してもよい。
 次に、無人飛行体制御システム1及び複数の無人飛行体100によって収音ターゲットの位置を特定するまでの流れを図6及び図7を用いて説明する。
 図6は、実施の形態1に係る無人飛行体制御システム1及び複数の無人飛行体100によって収音ターゲットの位置を特定するまでの流れを示すシーケンス図である。
 図7は、実施の形態1に係る複数の無人飛行体100それぞれの目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の一例を説明するための説明図である。
 例えば、複数の無人飛行体100には3つ以上の無人飛行体100が含まれていてもよいが、以下で具体例をあげて説明するときには、そのうちの2つの無人飛行体100a及び100bに着目する。なお、複数の無人飛行体100には、無人飛行体100が2つのみ含まれていてもよい。
 複数の無人飛行体100(無人飛行体100a及び100b)は、収音を開始する(ステップS100a及びステップS100b)。複数の無人飛行体100は、例えば、不審者又は被災者の発見等のために飛行しながら収音をする。例えば、複数の無人飛行体100のうちの少なくとも1つの無人飛行体100として、無人飛行体100aがターゲット音を認識し、ターゲット音を認識したことを示す情報を無人飛行体制御システム1に送信する(ステップS101a)。例えば、図7の左側に示すように、無人飛行体100aは、収音範囲Aにおいて収音ターゲット200が発生する音を収音し、ターゲット音を認識する。例えば、無人飛行体100aは、ターゲット音が特定の音(不審者を示す音、不審な無人飛行体を示す音、被災者を示す音等)であることを無人飛行体制御システム1に送信することで、無人飛行体制御システム1は、無人飛行体100aがターゲット音を認識したことがわかる。なお、無人飛行体100は、音データを取得するだけで、無人飛行体制御システム1がターゲット音を認識してもよい。
 無人飛行体制御システム1は、ターゲット音が認識されたと判定し、収音ターゲット200の位置の特定(高精度な位置の推定)の処理を開始する(ステップS102)。具体的には、無人飛行体制御システム1は、複数の無人飛行体100に対して、現在の自身の位置及び収音方向、並びに、騒音関連情報を取得するように指示する。なお、無人飛行体制御システム1は、騒音関連情報の取得の指示については、ターゲット音を認識した無人飛行体100aにのみ行ってもよい。また、無人飛行体制御システム1は、無人飛行体100aが認識したターゲット音から収音ターゲット200の位置を推定し、当該位置(推定位置)を取得する。
 複数の無人飛行体100(無人飛行体100a及び100b)は、それぞれ現在の自身の位置及び収音方向、並びに、騒音関連情報を取得し、無人飛行体制御システム1に送信する(ステップS103a及びステップS103b)。なお、騒音関連情報の取得の指示が無人飛行体100aにのみ行われた場合には、無人飛行体100a以外の無人飛行体100は、騒音関連情報の取得及び送信をしなくてもよい。例えば、騒音関連情報は、複数の無人飛行体100のそれぞれの回転翼150の回転数を含む。
 無人飛行体制御システム1は、複数の無人飛行体100の騒音関連情報から複数の無人飛行体100の騒音範囲を推定する(ステップS104)。例えば、無人飛行体制御システム1は、複数の無人飛行体100のそれぞれの回転翼150の回転数を騒音データ20に照合することで、複数の無人飛行体100のそれぞれの騒音範囲を推定する。なお、無人飛行体100a以外の無人飛行体100の騒音関連情報が送信されない場合には、無人飛行体100aの騒音範囲のみが推定されてもよい。
 なお、複数の無人飛行体100のそれぞれが騒音データ20を有していてもよく、複数の無人飛行体100のそれぞれが、騒音データ20及び自身が取得した回転翼150の回転数を用いて自身の騒音範囲を推定してもよい。この場合、騒音関連情報には、複数の無人飛行体100のそれぞれの騒音範囲が含まれる。
 なお、騒音範囲の推定は、無人飛行体100の回転翼150の回転数を用いて行われなくてもよく、例えば、無人飛行体100の本体に対して特定の位置に配置されたマイクロフォン140が収音したノイズレベルを用いて行われてもよい。特定の位置におけるノイズレベルがわかれば、無人飛行体100の周囲の騒音範囲を推定できるためである。
 無人飛行体制御システム1は、推定位置、複数の無人飛行体100それぞれの位置、収音方向及び騒音関連情報、に基づいて複数の無人飛行体100それぞれの目標位置及び目標収音方向を決定し、複数の無人飛行体100それぞれに対する、目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の要求を出力する(ステップS105)。
 複数の無人飛行体100(無人飛行体100a及び100b)のそれぞれは、要求に応じて、目標位置へ移動し、収音方向を目標収音方向へ設定して収音を行う(ステップS106a及びステップS106b)。
 複数の無人飛行体100それぞれの目標収音方向は、複数の無人飛行体100のそれぞれが推定位置に向かう方向である。複数の無人飛行体100それぞれの目標位置は、複数の無人飛行体100のそれぞれが収音方向を推定位置に向けた状態において、他の無人飛行体100の騒音関連情報から推定される当該他の無人飛行体100の騒音範囲が当該収音方向に重ならない位置である。図7の右側において、無人飛行体制御システム1から要求を受けた無人飛行体100a及び100bは、目標収音方向として、無人飛行体100a及び100bのそれぞれが収音ターゲット200の推定位置に向かう方向に向いていることがわかる。また、無人飛行体制御システム1は、複数の無人飛行体100のうちのターゲット音の認識に用いられた音データを取得した無人飛行体100a以外の無人飛行体100bを優先的に目標位置へ移動させる又は収音方向を前記目標収音方向へ設定させてもよい。ここでは、無人飛行体制御システム1は、無人飛行体100bを優先的に目標位置へ移動させ、ターゲット音の認識に用いられた音データを取得した無人飛行体100aの目標位置を現在位置に決定し(つまり移動させず)、無人飛行体100aの目標収音方向を収音ターゲット200の推定位置に向かう方向に決定している。
 これにより、例えば、無人飛行体100bが目標位置に移動した後、収音方向(収音範囲B)を推定位置に向けた状態において、他の無人飛行体100aの騒音範囲が当該収音方向に重ならないため、無人飛行体100bがターゲット音を収音する際に他の無人飛行体100aの騒音が邪魔にならず、ターゲット音を効果的に収音することができる。なお、騒音範囲を、例えば「騒音レベル1」の範囲と「騒音レベル1」よりもレベルの低い「騒音レベル2」の範囲との2段階に分けた場合、目標位置に移動後の無人飛行体100bの収音方向を推定位置に向けた状態において、他の無人飛行体100aの騒音範囲として「騒音レベル1」の範囲及び「騒音レベル2」の範囲の両方が当該収音方向に重ならないように目標位置が決定されてもよい。なお、当該両方の範囲が当該収音方向に重ならないように目標位置を決定することが難しい場合には、少なくとも「騒音レベル1」の範囲が当該収音方向に重ならないように目標位置が決定されてもよい。
 また、ターゲット音の認識に用いられた音データを取得した無人飛行体100aは、すでにターゲット音を認識しているため、目標位置を現在位置のままにし、収音方向を推定位置に向かうように設定させ、無人飛行体100a以外のターゲット音を認識していない無人飛行体100bを優先的に目標位置へ移動させる又は収音方向を目標収音方向へ設定させる。したがって、すでにターゲット音を認識している無人飛行体100aに加え、ターゲット音を認識していない無人飛行体100bもターゲット音を認識できるようになる。つまり、各無人飛行体100の収音品質を早く向上でき、また、収音ターゲットの位置の推定の精度を早く向上できる。
 なお、図7では、ターゲット音の認識に用いられた音データを取得した無人飛行体100aの騒音範囲が無人飛行体100a以外の無人飛行体100bの収音方向に重ならないように無人飛行体100bの目標位置が決定される例を示したが、無人飛行体100bの騒音範囲が無人飛行体100aの収音方向に重ならないように無人飛行体100aの目標位置が決定されてもよい。
 複数の無人飛行体100(無人飛行体100a及び100b)のそれぞれは、目標位置に移動した後、目標収音方向に向いた状態で、収音データを取得し、また当該収音時の実際の位置、収音方向及び時刻等を取得し、無人飛行体制御システム1に送信する(ステップS107a及びステップS107b)。これにより、無人飛行体制御システム1は、要求を出力した後の複数の無人飛行体100それぞれから得られるターゲット音から推定位置を更新することで、収音ターゲット200の位置を特定、すなわち、複数の無人飛行体100を用いた収音ターゲット200の位置を高精度に推定する(ステップS108)。例えば、無人飛行体制御システム1は、複数の無人飛行体100それぞれの収音時の実際の位置及び収音方向を用いた三角測量、及び、各無人飛行体100が同じ収音ターゲット200からの同じ音を収音した時の時間差等により収音ターゲット200の位置を特定する。このように、更新した推定位置を用いて、再度、目標位置及び目標収音方向の少なくとも1つを決定することで、位置の推定の精度をさらに高めることができる。
 なお、ステップS108において、収音ターゲット200の位置の推定の精度が十分でない場合には、再度ステップS102からの処理が行われてもよい。収音ターゲット200の位置の推定の精度が十分でない場合とは、例えば、ステップS108において推定された位置を例えばカメラ171等によって実際に確認したときに、当該位置に収音ターゲット200が存在しない場合であってもよい。また、収音ターゲット200の位置の推定の精度が十分でない場合とは、例えば、推定位置に向いた複数の無人飛行体100それぞれの収音範囲が重複する領域が大きく、収音ターゲット200の位置を特定しきれない場合であってもよい。
 なお、複数の無人飛行体100それぞれの目標位置が現在位置に決定され、ターゲット音の認識に用いられた音データを取得した無人飛行体100以外の無人飛行体100が優先的に収音方向を目標収音方向へ設定させられてもよい。これについて、図8を用いて説明する。
 図8は、実施の形態1に係る複数の無人飛行体100それぞれの目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の他の一例を説明するための図である。
 図8の左側に示すように、例えば、無人飛行体100aがターゲット音を認識したとする。この場合に、複数の無人飛行体100(無人飛行体100a及び100b)それぞれの目標位置が現在位置に決定される。つまり、無人飛行体100a及び100bは、それぞれその場に留まる。そして、ターゲット音の認識に用いられた音データを取得した無人飛行体100a以外の無人飛行体100bが優先的に収音方向を目標収音方向へ設定させられる。具体的には、図8の右側に示すように、無人飛行体100bは、収音方向が目標収音方向となるように、鉛直方向軸を中心にその場で回転する、これにより、無人飛行体100bの収音範囲Bに収音ターゲット200の推定位置が含まれるようになり、無人飛行体100a及び100bを用いた収音ターゲット200の位置の推定を高精度に行うことができるようになる。なお、目標収音方向への収音方向の設定だけでは、無人飛行体100aの騒音範囲が無人飛行体100bの収音方向に重ならないようにすることが難しい場合には、無人飛行体100a及び100bの少なくとも一方の目標位置を現在位置から変更してもよい。
 また、目標収音方向を決定する際に、ターゲット音の種類を考慮してもよい。これについて、図9A及び図9Bを用いて説明する。
 図9Aは、ターゲット音の種類(人の声)に応じた目標収音方向の一例を示す図である。図9Bは、ターゲット音の種類(無人飛行体の飛行音)に応じた目標収音方向の他の一例を示す図である。
 図9Aに示すように、無人飛行体100aが収音ターゲット200のターゲット音として、例えば人の声を認識したとする。人は、基本的には、飛行している無人飛行体100の下方(地面側)に存在するため、無人飛行体100bの目標収音方向の決定の際に無人飛行体100bの下方以外を考慮にいれなくてもよい。つまり、無人飛行体100bの下方に絞って目標収音方向を容易に決定することができる。
 一方で、図9Bに示すように、無人飛行体100aが収音ターゲット200のターゲット音として、予め登録されていないような無人飛行体の飛行音を認識したとする。無人飛行体は、地面付近から上空に至るまで広く移動可能であるため、特定の方向に絞らずに目標収音方向を決定する。
 [まとめ]
 複数の無人飛行体100を用いて、ターゲット音の収音を行う場合、ある無人飛行体100に対して他の無人飛行体100が発生する騒音(例えば回転翼150の回転に伴い発生する飛行音等)が収音の邪魔になる場合がある。これに対して、ターゲット音から推定される収音ターゲット200の推定位置だけでなく、無人飛行体100が発生する騒音に関する騒音関連情報にも基づいて、複数の無人飛行体100それぞれの目標位置及び目標収音方向の少なくとも1つが決定される。したがって、複数の無人飛行体100は、騒音関連情報も考慮して、無人飛行体100の騒音が収音の邪魔にならない目標位置へ移動でき、又は、収音方向を無人飛行体100の騒音が収音の邪魔にならない目標収音方向へ設定できる。このため、複数の無人飛行体100を用いた場合であっても、ターゲット音を効果的に収音することができる。これにより、各無人飛行体100の収音品質を向上でき、また、収音ターゲットの位置の推定の精度を向上できる。
 (実施の形態2)
 例えば、実施の形態1に係る無人飛行体制御システム1の機能(具体的にはプロセッサ10の機能)を複数の無人飛行体100のうちの少なくとも1つの無人飛行体100が備えていてもよい。これについて、図10を用いて説明する。
 図10は、実施の形態2に係る無人飛行体101の構成の一例を示すブロック図である。
 実施の形態2に係る無人飛行体101は、プロセッサ110の代わりにプロセッサ111を備え、さらに騒音データ20を備えている点が、実施の形態1に係る無人飛行体100と異なる。プロセッサ111は、実施の形態1に係る無人飛行体制御システム1の機能として、判定部11、取得部12、推定部13、決定部14及び出力部15をさらに備える。通信IF130は、無人飛行体101が他の無人飛行体との間で通信を行うための通信インタフェースとなる。なお、複数の無人飛行体のそれぞれが実施の形態1に係る無人飛行体制御システム1の機能を有していてもよいし、複数の無人飛行体のいずれかが実施の形態1に係る無人飛行体制御システム1の機能を有し、他の無人飛行体を制御してもよい。
 無人飛行体101は、具体的には、複数の無人飛行体における無人飛行体であって、複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定する判定部11と、ターゲット音が認識されたと判定された場合に、複数の無人飛行体の位置及び収音方向を取得し、複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得し、ターゲット音から推定されるターゲット音の発生源である収音ターゲットの推定位置を取得する取得部12と、推定位置、複数の無人飛行体それぞれの位置及び収音方向、並びに騒音関連情報、に基づいて複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定する決定部14と、複数の無人飛行体それぞれに対する、目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する出力部15と、を備える。
 無人飛行体101が有する無人飛行体制御システム1の機能は、実施の形態1におけるものと同じであるため、詳細な説明は省略する。
 (その他の実施の形態)
 以上、本開示の一つまたは複数の態様に係る情報処理方法、無人飛行体制御システム1、無人飛行体101について、実施の形態に基づいて説明したが、本開示は、これらの実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を各実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の一つまたは複数の態様の範囲内に含まれてもよい。
 例えば、複数の無人飛行体のそれぞれを目標位置に移動させるときに、複数の無人飛行体のうちの移動速度が他の無人飛行体よりも速い無人飛行体を優先的に移動させてもよい。移動速度の速い無人飛行体は、他の無人飛行体よりも早く目標位置に到達し得るため、移動速度の速い無人飛行体が優先的に移動することで、当該無人飛行体の収音品質を早く向上でき、また、収音ターゲットの位置の推定の精度を早く向上できる。
 また、例えば、複数の無人飛行体それぞれの目標位置は、各無人飛行体と推定位置との距離がそれぞれ異なる位置であってもよい。複数の無人飛行体のそれぞれの目標位置と、推定位置との距離差(言い換えると、収音ターゲットからのターゲット音が各無人飛行体に到達するまでの時間差)も利用することで、収音ターゲットの位置の推定の精度をさらに向上できる。
 また、例えば、複数の無人飛行体それぞれの目標位置は、収音方向を推定位置に向けた状態において、音の遮蔽物が当該収音方向に重ならない位置であってもよい。複数の無人飛行体のそれぞれが目標位置に移動した後、収音方向を推定位置に向けた状態において、音の遮蔽物が当該収音方向に重ならないため、複数の無人飛行体のそれぞれがターゲット音を収音する際に音の遮蔽物が邪魔にならず、ターゲット音をさらに効果的に収音することができる。
 また、例えば、決定部14は、推定位置、複数の無人飛行体それぞれの位置及び収音方向、並びに騒音関連情報、に基づいて複数の無人飛行体それぞれの目標位置への移動ルートを決定してもよい。そして、複数の無人飛行体それぞれの移動ルートは、複数の無人飛行体のそれぞれが収音方向を推定位置に向けた状態で当該移動ルートを移動している間、音の遮蔽物が当該収音方向に重ならない位置であってもよい。これにより、複数の無人飛行体のそれぞれが目標位置へ移動している間も、音の遮蔽物に邪魔されずに連続的にターゲット音を収音できる。
 また、例えば、取得部12は、ターゲット音の周波数を取得してもよい。また、決定部14は、推定位置、複数の無人飛行体それぞれの位置及び収音方向、騒音関連情報、並びにターゲット音の周波数に基づいて複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定してもよい。例えば、ターゲット音の周波数と騒音の周波数とが異なる周波数帯である場合、騒音の周波数をフィルタ等によって除去してもよい。これにより、収音ターゲットが発生した、騒音の周波数とは異なる周波数を有するターゲット音を効果的に収音することができる。
 また、例えば、上記実施の形態において、無人飛行体制御システム1及び無人飛行体101は、推定部13及び騒音データ20を備えていたが、備えていなくてもよく、無人飛行体の騒音範囲が無人飛行体制御システム1及び無人飛行体101以外の構成によって推定されてもよい。
 本開示は、情報処理方法に含まれるステップを、プロセッサ(例えば無人飛行体制御システム1のプロセッサ10又は無人飛行体101のプロセッサ111)に実行させるためのプログラムとして実現できる。さらに、本開示は、そのプログラムを記録したCD-ROM等である非一時的なコンピュータ読み取り可能な記録媒体として実現できる。
 例えば、本開示が、プログラム(ソフトウェア)で実現される場合には、コンピュータのCPU、メモリおよび入出力回路等のハードウェア資源を利用してプログラムが実行されることによって、各ステップが実行される。つまり、CPUがデータをメモリまたは入出力回路等から取得して演算したり、演算結果をメモリまたは入出力回路等に出力したりすることによって、各ステップが実行される。
 なお、上記実施の形態において、無人飛行体制御システム1及び無人飛行体101に含まれる各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 上記実施の形態に係る無人飛行体制御システム1及び無人飛行体101の機能の一部または全ては典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。また、集積回路化はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、またはLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 また、上記実施の形態に係る無人飛行体制御システム1及び無人飛行体101の機能の一部または全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。
 また、上記実施の形態に係る無人飛行体制御システム1の機能の一部または全てを、外部サーバが実行することにより実現してもよい。
 また、上記実施の形態に係る無人飛行体制御システム1の機能の一部または全てを、複数の外部サーバが実行することにより実現してもよい。つまり、プロセッサ10における機能構成要素である判定部11、取得部12、決定部14及び出力部15が複数の外部サーバに分散して配置されてもよい。
 また、上記各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、同様の効果が得られる範囲で上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(例えば並列)に実行されてもよい。
 さらに、本開示の主旨を逸脱しない限り、本開示の各実施の形態に対して当業者が思いつく範囲内の変更を施した各種変形例も本開示に含まれる。
 本開示は、例えば、複数の無人飛行体を用いたシステムに適用できる。
 1 無人飛行体制御システム
 10、110、111 プロセッサ
 11 判定部
 12 取得部
 13 推定部
 14 決定部
 15 出力部
 20 騒音データ
 30、130 通信IF
 100、100a、100b、101 無人飛行体
 140 マイクロフォン
 141 飛行制御部
 142 音検知部
 143 収音処理部
 144 ノイズ処理部
 150 回転翼
 161 コンパス
 162 加速度センサ
 163 ジャイロセンサ
 164 GPS受信機
 171 カメラ
 172 ジンバル
 200 収音ターゲット

Claims (14)

  1.  コンピュータが、
     複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定し、
     前記ターゲット音が認識されたと判定された場合、
      前記複数の無人飛行体の位置及び収音方向を取得し、
      前記複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得し、
      前記ターゲット音から推定される前記ターゲット音の発生源である収音ターゲットの推定位置を取得し、
      前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定し、
      前記複数の無人飛行体それぞれに対する、前記目標位置それぞれへの移動及び前記目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する
     情報処理方法。
  2.  前記複数の無人飛行体それぞれの前記目標収音方向は、前記複数の無人飛行体のそれぞれが前記推定位置に向かう方向であり、
     前記複数の無人飛行体それぞれの前記目標位置は、前記複数の無人飛行体のそれぞれが収音方向を前記推定位置に向けた状態において、他の無人飛行体の騒音関連情報から推定される当該他の無人飛行体の騒音範囲が当該収音方向に重ならない位置である
     請求項1に記載の情報処理方法。
  3.  前記騒音関連情報は、無人飛行体の回転翼の回転数に関する情報を含み、
     無人飛行体の回転翼の回転数ごとに予め定められた騒音レベルと無人飛行体からの距離との対応関係と、前記回転数に関する情報とに基づいて前記騒音範囲を推定する
     請求項2に記載の情報処理方法。
  4.  前記要求を出力した後の前記複数の無人飛行体それぞれから得られるターゲット音から前記推定位置を更新する
     請求項1~3のいずれか1項に記載の情報処理方法。
  5.  前記複数の無人飛行体のうちの前記ターゲット音の認識に用いられた音データを取得した無人飛行体以外の無人飛行体を優先的に前記目標位置へ移動させる又は収音方向を前記目標収音方向へ設定させる
     請求項1~4のいずれか1項に記載の情報処理方法。
  6.  前記ターゲット音の認識に用いられた音データを取得した無人飛行体の前記目標位置を現在位置に決定し、当該無人飛行体の前記目標収音方向を前記推定位置に向かう方向に決定する
     請求項5に記載の情報処理方法。
  7.  前記複数の無人飛行体のうちの移動速度が他の無人飛行体よりも速い無人飛行体を優先的に移動させる
     請求項1~6のいずれか1項に記載の情報処理方法。
  8.  前記複数の無人飛行体それぞれの前記目標位置は、各無人飛行体と前記推定位置との距離がそれぞれ異なる位置である
     請求項1~7のいずれか1項に記載の情報処理方法。
  9.  前記複数の無人飛行体それぞれの前記目標位置は、収音方向を前記推定位置に向けた状態において、音の遮蔽物が当該収音方向に重ならない位置である
     請求項1~8のいずれか1項に記載の情報処理方法。
  10.  さらに、
     前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの前記目標位置への移動ルートを決定し、
     前記複数の無人飛行体それぞれの前記移動ルートは、前記複数の無人飛行体のそれぞれが収音方向を前記推定位置に向けた状態で当該移動ルートを移動している間、音の遮蔽物が当該収音方向に重ならない位置である
     請求項1~9のいずれか1項に記載の情報処理方法。
  11.  さらに、前記ターゲット音の収音感度を取得し、
     前記収音感度に基づいて推定された前記推定位置を取得する
     請求項1~10のいずれか1項に記載の情報処理方法。
  12.  さらに、前記ターゲット音の周波数を取得し、
     前記騒音関連情報には、無人飛行体が発生する騒音の周波数が含まれ、
     前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、前記騒音関連情報、並びに前記ターゲット音の周波数に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定する
     請求項1~11のいずれか1項に記載の情報処理方法。
  13.  複数の無人飛行体における無人飛行体であって、
     前記複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定する判定部と、
     前記ターゲット音が認識されたと判定された場合に、
      前記複数の無人飛行体の位置及び収音方向を取得し、前記複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得し、前記ターゲット音から推定される前記ターゲット音の発生源である収音ターゲットの推定位置を取得する取得部と、
      前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定する決定部と、
      前記複数の無人飛行体それぞれに対する、前記目標位置それぞれへの移動及び前記目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する出力部と、を備える
     無人飛行体。
  14.  複数の無人飛行体を制御する無人飛行体制御システムであって、
     前記複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定する判定部と、
     前記ターゲット音が認識されたと判定された場合に、
      前記複数の無人飛行体の位置及び収音方向を取得し、前記複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得し、前記ターゲット音から推定される前記ターゲット音の発生源である収音ターゲットの推定位置を取得する取得部と、
      前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定する決定部と、
      前記複数の無人飛行体それぞれに対する、前記目標位置それぞれへの移動及び前記目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する出力部と、を備える
     無人飛行体制御システム。
PCT/JP2020/003886 2019-05-15 2020-02-03 情報処理方法、無人飛行体及び無人飛行体制御システム WO2020230377A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021519260A JP7457949B2 (ja) 2019-05-15 2020-02-03 情報処理方法、無人飛行体及び無人飛行体制御システム
CN202080015683.1A CN113453980B (zh) 2019-05-15 2020-02-03 信息处理方法、无人飞行体以及无人飞行体控制***
US17/469,317 US11656639B2 (en) 2019-05-15 2021-09-08 Information processing method, unmanned aerial vehicle, and unmanned aerial vehicle control system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019092488 2019-05-15
JP2019-092488 2019-05-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/469,317 Continuation US11656639B2 (en) 2019-05-15 2021-09-08 Information processing method, unmanned aerial vehicle, and unmanned aerial vehicle control system

Publications (1)

Publication Number Publication Date
WO2020230377A1 true WO2020230377A1 (ja) 2020-11-19

Family

ID=73289530

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/003886 WO2020230377A1 (ja) 2019-05-15 2020-02-03 情報処理方法、無人飛行体及び無人飛行体制御システム

Country Status (4)

Country Link
US (1) US11656639B2 (ja)
JP (1) JP7457949B2 (ja)
CN (1) CN113453980B (ja)
WO (1) WO2020230377A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024084953A1 (ja) * 2022-10-20 2024-04-25 ソニーグループ株式会社 情報処理装置および情報処理方法、並びにプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019006154A (ja) * 2017-06-20 2019-01-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行体、飛行制御システム、飛行制御方法、プログラム及び記録媒体
JP2019505047A (ja) * 2016-01-28 2019-02-21 クアルコム,インコーポレイテッド ドローン飛行制御
JP2019062435A (ja) * 2017-09-27 2019-04-18 沖電気工業株式会社 機器制御装置、機器制御プログラム、機器制御方法、対話装置、及びコミュニケーションシステム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050271221A1 (en) * 2004-05-05 2005-12-08 Southwest Research Institute Airborne collection of acoustic data using an unmanned aerial vehicle
JP5952692B2 (ja) * 2012-09-13 2016-07-13 本田技研工業株式会社 音源方向推定装置、音響処理システム、音源方向推定方法、及び音源方向推定プログラム
EP3161502B1 (en) * 2014-08-29 2020-04-22 SZ DJI Technology Co., Ltd. An unmanned aerial vehicle (uav) for collecting audio data
CN104460684A (zh) * 2014-11-17 2015-03-25 长春理工大学 一种用于远距离声音信号获取的飞行机器人
US9598182B2 (en) * 2015-05-11 2017-03-21 Lily Robotics, Inc. External microphone for an unmanned aerial vehicle
US10176792B1 (en) * 2015-08-18 2019-01-08 Amazon Technologies, Inc. Audio canceling of audio generated from nearby aerial vehicles
EP3379844A4 (en) * 2015-11-17 2018-11-14 Sony Corporation Information processing device, information processing method, and program
CN105509874A (zh) * 2015-11-20 2016-04-20 东莞职业技术学院 一种基于飞行器的环境噪声探测定位方法
US10021339B2 (en) * 2015-12-01 2018-07-10 Qualcomm Incorporated Electronic device for generating video data
US10101196B2 (en) * 2016-02-17 2018-10-16 Qualcomm Incorporated Device for UAV detection and identification
US9738381B1 (en) * 2016-02-23 2017-08-22 General Electric Company Industrial machine acoustic inspection using unmanned aerial vehicle
US10362392B2 (en) * 2016-05-18 2019-07-23 Georgia Tech Research Corporation Aerial acoustic sensing, acoustic sensing payload and aerial vehicle including the same
WO2018020965A1 (ja) * 2016-07-28 2018-02-01 パナソニックIpマネジメント株式会社 無人飛行体検知システム及び無人飛行体検知方法
JP2018026792A (ja) * 2016-07-28 2018-02-15 パナソニックIpマネジメント株式会社 無人飛行体検知システム及び無人飛行体検知方法
CN106292721A (zh) * 2016-09-29 2017-01-04 腾讯科技(深圳)有限公司 一种控制飞行器跟踪目标对象的方法、设备及***
KR101892028B1 (ko) * 2016-10-26 2018-08-27 현대자동차주식회사 음향 추적 정보 제공 방법, 차량용 음향 추적 장치, 및 이를 포함하는 차량
KR101756603B1 (ko) * 2016-11-22 2017-07-13 주식회사 위츠 드론을 이용한 무인 경비 시스템
CN106772246B (zh) * 2017-01-20 2019-04-05 浙江大学 基于声阵列的无人机实时检测和定位***及方法
CN109144092A (zh) * 2017-06-16 2019-01-04 昊翔电能运动科技(昆山)有限公司 无人机飞行辅助方法、装置及无人机
CN107577449B (zh) * 2017-09-04 2023-06-23 百度在线网络技术(北京)有限公司 唤醒语音的拾取方法、装置、设备及存储介质
US11721352B2 (en) * 2018-05-16 2023-08-08 Dotterel Technologies Limited Systems and methods for audio capture
JP7126143B2 (ja) * 2018-07-18 2022-08-26 パナソニックIpマネジメント株式会社 無人飛行体、情報処理方法およびプログラム
CN112703748B (zh) * 2019-02-15 2024-06-04 松下电器(美国)知识产权公司 信息处理装置、信息处理方法以及程序记录介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019505047A (ja) * 2016-01-28 2019-02-21 クアルコム,インコーポレイテッド ドローン飛行制御
JP2019006154A (ja) * 2017-06-20 2019-01-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行体、飛行制御システム、飛行制御方法、プログラム及び記録媒体
JP2019062435A (ja) * 2017-09-27 2019-04-18 沖電気工業株式会社 機器制御装置、機器制御プログラム、機器制御方法、対話装置、及びコミュニケーションシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024084953A1 (ja) * 2022-10-20 2024-04-25 ソニーグループ株式会社 情報処理装置および情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
JPWO2020230377A1 (ja) 2020-11-19
CN113453980A (zh) 2021-09-28
US20210405663A1 (en) 2021-12-30
JP7457949B2 (ja) 2024-03-29
CN113453980B (zh) 2024-03-29
US11656639B2 (en) 2023-05-23

Similar Documents

Publication Publication Date Title
US10409292B2 (en) Movement control method, autonomous mobile robot, and recording medium storing program
CN110737277B (zh) 无人飞行体、信息处理方法以及程序记录介质
JP2017016359A (ja) 自律移動ロボット
CN112051591A (zh) 一种激光雷达与惯性测量单元的检测方法及相关装置
CN109637517B (zh) 控制装置、控制***以及控制方法
CN110775269B (zh) 无人飞行体、信息处理方法以及程序记录介质
US11928974B2 (en) Unmanned aircraft, information processing method, and recording medium
JP6758068B2 (ja) 自律移動ロボット
CN110244762A (zh) 基于听声辨位的飞行设备防撞方法及设备、安全***
WO2020230377A1 (ja) 情報処理方法、無人飛行体及び無人飛行体制御システム
JP6478177B2 (ja) 制御装置、撮像システム、移動体、制御方法、およびプログラム
JP2016181178A (ja) 自律移動ロボット
JP7017998B2 (ja) 情報処理装置、飛行経路生成方法、プログラム、及び記録媒体
KR101877611B1 (ko) 복수의 gps 수신기를 이용한 무인 항공기 측위 장치 및 방법
WO2020213198A1 (ja) 無人飛行体、制御方法及びプログラム
JP7351609B2 (ja) 経路探索装置及びプログラム
Martinson et al. Robotic discovery of the auditory scene
WO2019093297A1 (ja) 情報処理装置、制御方法、及びプログラム
JP2017068639A (ja) 自律移動ロボット
WO2021014805A1 (ja) 無人飛行体および情報処理方法
US20190129423A1 (en) Dynamic impact detection
CN112771463A (zh) 无人飞行体、信息处理方法以及程序
JP6974290B2 (ja) 位置推定装置、位置推定方法、プログラム、及び記録媒体
CN117471446A (zh) 确定无人机自速度的方法、电子设备及存储介质
JP2020111146A (ja) 無人飛行体、制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20806847

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021519260

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20806847

Country of ref document: EP

Kind code of ref document: A1