WO2023195394A1 - 撮像支援装置、移動体、撮像支援方法、及びプログラム - Google Patents

撮像支援装置、移動体、撮像支援方法、及びプログラム Download PDF

Info

Publication number
WO2023195394A1
WO2023195394A1 PCT/JP2023/012704 JP2023012704W WO2023195394A1 WO 2023195394 A1 WO2023195394 A1 WO 2023195394A1 JP 2023012704 W JP2023012704 W JP 2023012704W WO 2023195394 A1 WO2023195394 A1 WO 2023195394A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
divided
region
imaging
blur
Prior art date
Application number
PCT/JP2023/012704
Other languages
English (en)
French (fr)
Inventor
哲 和田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2023195394A1 publication Critical patent/WO2023195394A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the technology of the present disclosure relates to an imaging support device, a mobile object, an imaging support method, and a program.
  • Japanese Unexamined Patent Publication No. 2016-24516 discloses a photographing means consisting of at least one camera that photographs adjacent and overlapping photographing areas while moving continuously or arbitrarily intermittently, and a common photographing area where each photographing area overlaps.
  • a mobile multi-image photographing device is described that has one or more marker applying means for fixedly applying a marker on a subject for a predetermined period of time.
  • the mobile multi-image photographing device has means for deriving the relationship between the photographing position and the marker applying position while the photographing means moves in the photographing means and the marker applying means, and the mobile multi-image photographing device has a means for deriving the relationship between the photographing position and the marker applying position while the photographing means moves, and the mobile multi-image photographing device has a means for deriving the relationship between the photographing position and the marker applying position while the photographing means moves.
  • a mobile multi-image photographing device which is characterized in that it includes an image synthesizing means for generating a synthesized image by synthesizing a group of images.
  • Japanese Unexamined Patent Publication No. 2017-34576 discloses an image photographing system having a photographing device and an image processing device, wherein the photographing device includes a camera device having at least one camera for photographing a photographing area of a part of a subject; At least one marker laser that applies a laser beam to at least four points in the area to apply markers, and the distance from the reference position of the marker laser to the applied marker, or the mutual panning of the irradiation direction of adjacent marker lasers. and a marker applying section that measures physical parameters for obtaining three-dimensional coordinates of each applied marker, including angles or tilt angles.
  • the image processing device includes an acquisition unit that acquires a group of photographed images and measured values of physical parameters from the photographing device, and a set of pixels constituting a marker image of the photographed image to which the marker is attached, and calculates marker image coordinates from the photographed image.
  • the three-dimensional coordinates of the marker corresponding to the marker image are derived from the captured image marker coordinate extracting unit and the measured values of the physical parameters, the three-dimensional coordinates are converted to the coordinates of the plane of the subject surface that the markers constitute, and a facing image marker coordinate calculation unit that calculates marker coordinates of a facing image when the marker is viewed as a perspective image from a specific viewpoint position directly facing a plane of the object surface; a marker image coordinate of at least four photographed images; A facing correction value calculation unit that calculates a facing correction value for projecting the photographed image to the facing image from the marker coordinates of the facing image corresponding to the facing image;
  • An image capturing system comprising: a facing image converting unit that is applied to an image to which no marker is attached to generate a facing image of a photographing area without a marker image reflected therein; ing.
  • JP 2015-32948A describes an image processing device that receives a plurality of image data and performs a synthesis process on the plurality of image data to obtain synthesized image data.
  • Each of the plurality of image data has information indicating the light intensity distribution and the light incident direction.
  • the image processing device generates a plurality of refocused image data by refocusing the plurality of image data according to a first refocusing coefficient, and also generates a plurality of refocusing image data according to a second refocusing coefficient different from the first refocusing coefficient.
  • a refocus processing means for generating a plurality of image data for synthesis by refocusing a plurality of image data according to the refocus processing means;
  • An image processing apparatus is described that is characterized by having a detection means for obtaining information, and a synthesis means for synthesizing a plurality of image data for synthesis according to overlapping location information to obtain synthesized image data.
  • One embodiment of the technology of the present disclosure provides an imaging support device that can accurately calculate the amount of blur of an overlap region image included in a divided image when a composite image is generated from a plurality of divided images, and a moving
  • the present invention provides systems, imaging support methods, and programs.
  • a first aspect of the technology of the present disclosure includes a processor, and the processor divides the imaging target region into a plurality of divided regions, the divided regions partially overlapping each other.
  • a light source irradiates a reference light onto the overlapping region of the divided regions, and images the divided region in a state where the overlapping region is irradiated with the reference light.
  • the device take an image, a divided image including a reference image indicating the reference light is acquired for each divided area, and an overlap area image indicating an overlapping area is generated for each divided area based on the reference image within the divided image.
  • a second aspect according to the technology of the present disclosure is the imaging support device according to the first aspect, in which the processor individually performs blur correction on each of the plurality of divided images according to the amount of blur.
  • a third aspect according to the technology of the present disclosure is the imaging support device according to the second aspect, in which the processor generates a composite image by combining a plurality of divided images that have undergone blur correction.
  • a fourth aspect of the technology of the present disclosure is the imaging support device according to the third aspect, wherein the processor synthesizes a plurality of divided images based on feature points included in the overlap area image after blur correction. be.
  • a fifth aspect according to the technology of the present disclosure is the imaging support device according to the fourth aspect, in which the feature point is included in a region other than the reference image in the overlap region image.
  • the processor generates a composite image by combining a plurality of divided images obtained for a plurality of divided regions, and generates a composite image for each divided region.
  • This is an imaging support device according to a first aspect that performs blur correction using a blur amount.
  • a seventh aspect of the technology of the present disclosure is that when a plurality of divided images including corresponding overlapping region images are set as a set, the reference image is included in the overlapping region image in one of the set of divided images.
  • the composite image includes an overlapping region image included in the other of the set of divided images.
  • An eighth aspect according to the technology of the present disclosure is according to any one of the first to seventh aspects, wherein the reference light is directional light and the reference image is an image of the directional light. It is an imaging support device.
  • a ninth aspect of the technology of the present disclosure is the imaging support device according to any one of the first to eighth aspects, in which the amount of blur is calculated based on the size of the reference image.
  • a tenth aspect of the technology of the present disclosure is the imaging support according to any one of the first to ninth aspects, wherein the reference light is irradiated to a predetermined position in the overlap region image. It is a device.
  • An eleventh aspect according to the technology of the present disclosure is the imaging support according to any one of the first to tenth aspects, wherein each of the plurality of divided regions is predetermined by the angle of view of the imaging device. It is a device.
  • a twelfth aspect according to the technology of the present disclosure is a mobile object including the imaging support device according to any one of the first to eleventh aspects.
  • a thirteenth aspect of the technology of the present disclosure is a plurality of divided regions obtained by dividing the imaging target region, and an overlap region in which the divided regions partially overlap.
  • each of the plurality of divided regions having a plurality of divided regions by causing a light source to irradiate a reference light onto an overlapping region of the divided regions, and by causing an imaging device to image the divided region in a state where the overlapping region is irradiated with the reference light. , obtaining a divided image including a reference image indicating the reference light for each divided area, and determining the blur amount of an overlap area image indicating the overlap area based on the reference image in the divided image for each divided area.
  • a fourteenth aspect of the technology of the present disclosure is to allow a computer to generate a plurality of divided regions obtained by dividing an imaging target region, and to create an overlapping region, which is an area in which the divided regions partially overlap.
  • a light source is caused to irradiate a reference light onto the overlapping region of the divided regions, and an imaging device is used to image the divided region in a state in which the overlapping region is irradiated with the reference light.
  • a divided image including a reference image indicating the reference light is obtained for each divided area, and an overlap area image indicating an overlapping area is obtained for each divided area based on the reference image within the divided image.
  • This is a program for executing processing including calculating the amount of blur.
  • FIG. 1 is a perspective view showing an example of a flight imaging device.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of an imaging device.
  • FIG. 1 is a block diagram showing an example of a functional configuration of an imaging device.
  • FIG. 3 is an explanatory diagram illustrating an example of imaging processing and blur amount calculation processing in a processor.
  • FIG. 3 is an explanatory diagram illustrating an example of imaging processing and blur amount calculation processing in a processor.
  • FIG. 2 is an explanatory diagram illustrating an example of blur correction processing in a processor.
  • FIG. 2 is an explanatory diagram illustrating an example of feature point extraction processing in a processor.
  • FIG. 2 is an explanatory diagram illustrating an example of image synthesis processing in a processor.
  • FIG. 3 is a flowchart illustrating an example of the flow of imaging support processing. It is an explanatory view explaining an example of feature point extraction processing concerning a 1st modification.
  • FIG. 2 is an explanatory diagram illustrating an example of feature point extraction processing in a processor.
  • FIG. 2 is an explanatory diagram illustrating an example of image synthesis processing in a processor.
  • FIG. 2 is an explanatory diagram illustrating an example of blur correction processing in a processor. It is an explanatory view explaining an example of image composition processing concerning a 2nd modification. It is an explanatory view explaining an example of image composition processing concerning a 3rd modification.
  • I/F is an abbreviation for "Interface”.
  • RAM is an abbreviation for "Random Access Memory.”
  • EEPROM is an abbreviation for "Electrically Erasable Programmable Read-Only Memory.”
  • CPU is an abbreviation for "Central Processing Unit.”
  • HDD is an abbreviation for “Hard Disk Drive.”
  • SSD is an abbreviation for “Solid State Drive.”
  • DRAM is an abbreviation for "Dynamic Random Access Memory.”
  • SRAM is an abbreviation for "Static Random Access Memory.”
  • CMOS is an abbreviation for "Complementary Metal Oxide Semiconductor.”
  • GPU is an abbreviation for “Graphics Processing Unit.”
  • TPU is an abbreviation for “Tensor Processing Unit”.
  • USB is an abbreviation for “Universal Serial Bus.”
  • ASIC is an abbreviation for “Application Specific Integrated Circuit.”
  • FPGA is an abbreviation for “Field-Programmable Gate Array.”
  • PLD is an abbreviation for “Programmable Logic Device”.
  • SoC is an abbreviation for "System-on-a-chip.”
  • IC is an abbreviation for "Integrated Circuit.”
  • AI is an abbreviation for “Artificial Intelligence.”
  • SLD is an abbreviation for "Super Luminescent Diode.”
  • LED is an abbreviation for "Light Emitting Diode.”
  • perpendicular refers to an error that is generally allowed in the technical field to which the technology of the present disclosure belongs, in addition to being perfectly perpendicular, to the extent that it does not go against the spirit of the technology of the present disclosure. It refers to vertical in the sense of including the error of.
  • horizontal direction refers to an error that is generally allowed in the technical field to which the technology of the present disclosure belongs, in addition to a completely horizontal direction, and is contrary to the spirit of the technology of the present disclosure. Refers to the horizontal direction, including a certain degree of error.
  • vertical direction refers to an error that is generally allowed in the technical field to which the technology of the present disclosure belongs, in addition to a perfect vertical direction, and is contrary to the spirit of the technology of the present disclosure. Refers to the vertical direction with a certain degree of error.
  • the flight imaging device 1 has a flight function and an imaging function, and images the wall surface 2A of the imaging target 2 while flying.
  • the concept of "flight” includes not only the meaning that the flying imaging device 1 moves in the air, but also the meaning that the flying imaging device 1 stands still in the air.
  • the flight imaging device 1 is an example of a "moving object” according to the technology of the present disclosure
  • the imaging target 2 is an example of an "imaging target area” according to the technology of the present disclosure.
  • the wall surface 2A is, for example, a flat surface.
  • a plane refers to a two-dimensional surface (that is, a surface along a two-dimensional direction).
  • the concept of "plane" does not include the meaning of mirror surface.
  • the wall surface 2A is a plane defined in the horizontal direction and the vertical direction (that is, a surface extending in the horizontal direction and the vertical direction).
  • the imaging target 2 having the wall surface 2A is a pier provided on a bridge.
  • the piers are made of reinforced concrete, for example.
  • a bridge pier is cited as an example of the imaging target 2, but the imaging target 2 may be an object other than a bridge pier (for example, a tunnel or a dam).
  • the flight function (hereinafter also simply referred to as "flight function") of the flight imaging device 1 is a function in which the flight imaging device 1 flies based on a flight instruction signal.
  • the flight instruction signal refers to a signal that instructs the flight imaging device 1 to fly.
  • the flight instruction signal is transmitted, for example, from a transmitter 20 for controlling the flight imaging device 1.
  • the transmitter 20 is operated by a user (not shown).
  • the transmitter 20 includes a control section 22 for controlling the flight imaging device 1 and a display device 24 for displaying an image obtained by being imaged by the flight imaging device 1.
  • the display device 24 is, for example, a liquid crystal display.
  • the flight instruction signal is classified into a plurality of instruction signals including a movement instruction signal that instructs the movement and movement direction of the flight imaging device 1 and a standstill instruction signal that instructs the flight imaging device 1 to stand still.
  • a flight instruction signal is transmitted from the transmitter 20, but a flight instruction signal may also be transmitted from a base station (not shown) that sets a flight route for the flight imaging device 1. good.
  • the imaging function (hereinafter also simply referred to as "imaging function”) of the flight imaging device 1 is a function for the flight imaging device 1 to image a subject (for example, the wall surface 2A of the imaging target 2).
  • the flight imaging device 1 includes a flying object 10 and an imaging device 30.
  • the flying object 10 is, for example, an unmanned aircraft such as a drone. Flight functions are realized by the aircraft 10.
  • the flying object 10 has a plurality of propellers 12, and flies when the plurality of propellers 12 rotate. Flying the flying object 10 is synonymous with flying the flying imaging device 1.
  • the imaging device 30 is, for example, a digital camera or a video camera.
  • the imaging function is realized by the imaging device 30.
  • the imaging device 30 is mounted on the aircraft 10. Specifically, the imaging device 30 is provided at the bottom of the flying object 10.
  • the imaging device 30 is provided at the lower part of the aircraft 10, but the imaging device 30 may be provided at the upper part or the front part of the aircraft 10.
  • the flight imaging device 1 includes a laser light source 43.
  • the laser light source 43 is mounted on the aircraft 10. Specifically, the laser light source 43 is provided at the top of the aircraft 10.
  • the laser light source 43 is provided at the top of the aircraft 10.
  • the laser light source 43 may also be provided at the bottom or front of the aircraft 10, and the laser light source 43 may be provided at the bottom or front of the aircraft 10. They may be integrated.
  • the laser light source 43 irradiates the imaging target 2 with the laser light L.
  • the laser beam L is irradiated to a predetermined position in the divided region 3 as a reference beam.
  • the reference light is light that is irradiated onto the divided area 3 as a reference object for calculating the amount of blur, which will be described later.
  • Laser light source 43 operates under the control of computer 32.
  • the laser light L is, for example, light with a wavelength in the visible light range, but this is just one example.
  • the laser light L may be infrared light.
  • the laser light L is an example of a "reference light” and a "directional light” according to the technology of the present disclosure.
  • the laser light source 43 is an example of a "light source” according to the technology of the present disclosure.
  • the laser light L is irradiated onto the overlap region 5 of the image capturing target divided region 3A.
  • the position where the laser beam L is irradiated in the overlap region 5 is determined in advance.
  • the position irradiated with the laser beam L is, for example, the central portion of the overlap region 5.
  • the imaging device 30 sequentially images the divided areas 3 of the wall surface 2A.
  • the divided region 3 is a region obtained by dividing the wall surface 2A.
  • the divided area 3 is determined, for example, by the angle of view of the imaging device 30.
  • the plurality of divided regions 3 are an example of "the plurality of divided regions" according to the technology of the present disclosure. In the example shown in FIG. 1, a rectangular area is shown as an example of the divided area 3.
  • a plurality of divided images 92 and 94 are obtained by sequentially capturing images of the plurality of divided regions 3 by the imaging device 30.
  • a composite image 90 is generated by combining the plurality of divided images 92 and 94.
  • the plurality of divided images 92 and 94 are combined so that adjacent divided images 92 and 94 partially overlap.
  • the composite image 90 is used, for example, to inspect or survey the wall surface 2A of the imaging target 2.
  • the composite image 90 is a two-dimensional image 90A.
  • the composite image 90 is an example of a "composite image" according to the technology of the present disclosure.
  • FIG. 1 shows a mode in which each divided region 3 is imaged by the imaging device 30 in a state where the optical axis OA of the imaging device 30 is perpendicular to the wall surface 2A.
  • the plurality of divided regions 3 are imaged so that adjacent divided regions 3 partially overlap each other.
  • the reason why a plurality of divided regions 3 are imaged so that a portion of adjacent divided regions 3 overlaps with each other is because feature points included in the overlapping portions of adjacent divided regions 3 (for example, dirt on the wall surface 2A and/or This is to generate a composite image 90 corresponding to the adjacent divided areas 3 based on the differences in the area (or unevenness, etc.).
  • overlap the overlap between adjacent divided regions 3
  • overlapped region between adjacent divided regions 3 will be referred to as overlap region 5.
  • the overlap area 5 is an example of an "overlap area” according to the technology of the present disclosure.
  • the ratio of the area of the overlap region 5 to the entire area of each divided region 3 is referred to as an overlap ratio.
  • the overlap rate is set to a predetermined overlap rate.
  • the predetermined overlap rate is set, for example, to a rate at which it is estimated that a sufficient amount of feature points can be obtained to generate the composite image 90 (eg, 30%).
  • the composite image 90 is generated by combining divided images 92 and 94 in overlap area images 95A and 95B, which are images showing the overlap area 5.
  • Overlapping area images 95A and 95B are examples of "overlapping area images" according to the technology of the present disclosure.
  • the plurality of divided regions 3 are divided regions 3 that have already been imaged (i.e., divided regions 3 that have been imaged by the flight imaging device 1), and divided regions 3 that have not been imaged (i.e., the divided regions 3 that have not been imaged by the flight imaging device 1). 1).
  • a divided region 3 that has not yet been imaged among the plurality of divided regions 3 will be referred to as an "imaging target divided region 3A”
  • a divided region 3 that has already been imaged among the plurality of divided regions 3 The divided area 3 that has been captured will be referred to as "imaged divided area 3B.”
  • the flight imaging device 1 images a plurality of divided regions 3 while moving in the horizontal direction.
  • the flight imaging device 1 also determines the order in which a part of the imaged target divided area 3A overlaps with a part of the imaged divided area 3B that was imaged immediately before (for example, one frame before) the imaged target divided area 3A.
  • Each of the plurality of divided regions 3 is imaged.
  • FIG. 1 an example in which the flight imaging device 1 images a plurality of divided regions 3 by moving in the horizontal direction will be described, but this is just an example.
  • the flight imaging device 1 may image the plurality of divided regions 3 while moving in a zigzag pattern by alternately repeating horizontal movement and vertical movement.
  • the imaging device 30 includes a computer 32, a communication device 34, an image sensor 36, an image sensor driver 38, an imaging lens 40, an image memory 42, a laser light source 43, and an input/output I/F 44.
  • the imaging device 30 is an example of an "imaging device" according to the technology of the present disclosure.
  • the computer 32 includes a processor 46, a storage 48, and a RAM 50.
  • the processor 46, storage 48, and RAM 50 are interconnected via a bus 52, and the bus 52 is connected to the input/output I/F 44.
  • a communication device 34, an image sensor driver 38, an imaging lens 40, an image memory 42, and a laser light source 43 are connected to the input/output I/F 44.
  • the computer 32 is an example of a "computer” and an “imaging support device” according to the technology of the present disclosure.
  • the processor 46 is an example of a "processor" according to the technology of the present disclosure.
  • the processor 46 includes, for example, a CPU, and controls the entire imaging device 30.
  • the storage 48 is a nonvolatile storage device that stores various programs, various parameters, and the like. Examples of the storage 48 include an HDD and/or a flash memory (eg, EEPROM and/or SSD).
  • the RAM 50 is a memory in which information is temporarily stored, and is used by the processor 46 as a work memory. Examples of the RAM 50 include DRAM and/or SRAM.
  • the communication device 34 is communicably connected to the transmitter 20, for example.
  • the communication device 34 is connected to the transmitter 20 for wireless communication using a predetermined wireless communication standard. Examples of the predetermined wireless communication standard include Wi-Fi (registered trademark).
  • the communication device 34 is in charge of exchanging information with the transmitter 20. For example, communication device 34 transmits information to transmitter 20 in response to a request from processor 46 .
  • the communication device 34 also receives information transmitted from the transmitter 20 and outputs the received information to the processor 46 via the bus 52.
  • the communication device 34 may be communicably connected to the transmitter 20 and/or the aircraft 10. .
  • the image sensor 36 is connected to an image sensor driver 38.
  • Image sensor driver 38 controls image sensor 36 according to instructions from processor 46 .
  • the image sensor 36 is, for example, a CMOS color image sensor. Note that although a CMOS color image sensor is exemplified here as the image sensor 36, the technology of the present disclosure is not limited to this, and other image sensors may be used.
  • the image sensor 36 captures an image of a subject (for example, the wall surface 2A of the image capture target 2) under the control of the image sensor driver 38, and outputs image data 39 obtained by capturing the image.
  • the imaging lens 40 is placed closer to the subject than the image sensor 36.
  • the imaging lens 40 captures subject light that is reflected light from the subject, and forms an image of the captured subject light on the imaging surface of the image sensor 36 .
  • the imaging lens 40 includes a plurality of optical elements (not shown) such as a focus lens, a zoom lens, and an aperture.
  • the imaging lens 40 is connected to the computer 32 via an input/output I/F 44.
  • the plurality of optical elements included in the imaging lens 40 are connected to the input/output I/F 44 via a drive mechanism (not shown) having a power source.
  • a plurality of optical elements included in the imaging lens 40 operate under the control of the computer 32.
  • optical zoom, shutter speed adjustment, and the like are realized by operating a plurality of optical elements included in the imaging lens 40.
  • Image data 39 generated by the image sensor 36 is temporarily stored in the image memory 42.
  • the processor 46 acquires image data 39 from the image memory 42 and executes various processes using the acquired image data 39.
  • the composite image 90 when the composite image 90 is generated, the composite image 90 is generated based on the feature points included in the overlapping portion (i.e., the overlap region 5) of the adjacent divided regions 3. .
  • the imaging conditions for example, subject distance
  • the divided images 92 and 94 may become blurred. If the divided images 92 and 94 are blurred to the extent that it is difficult to extract feature points, it is necessary to suppress the blur before combining the divided images 92 and 94. Therefore, it is necessary to accurately determine the amount of blur in the divided images 92 and 94.
  • the imaging support process is performed by the processor 46.
  • An imaging support processing program 60 is stored in the storage 48 .
  • the imaging support processing program 60 is an example of a "program" according to the technology of the present disclosure.
  • the processor 46 reads the imaging support processing program 60 from the storage 48 and executes the read imaging support processing program 60 on the RAM 50.
  • the processor 46 performs imaging support processing according to an imaging support processing program 60 executed on the RAM 50.
  • the processor 46 operates as an imaging control section 62, a blur amount calculation section 64, a blur correction section 66, a feature point information generation section 68, a composite image generation section 70, and an output section 72 according to the imaging support processing program 60. This is achieved by doing.
  • the flying object 10 receives a movement instruction signal transmitted from the transmitter 20 in response to a user's operation, and moves to an imaging position based on the received movement instruction signal.
  • the flying object 10 also receives a standstill instruction signal transmitted from the transmitter 20 in response to a user's operation, and stands still at the imaging position based on the received standstill instruction signal.
  • the imaging device 30 receives the imaging start signal transmitted from the transmitter 20 in response to the user's operation, the imaging device 30 executes the imaging process described below.
  • the imaging control unit 62 causes the laser light source 43 to irradiate the laser light L by outputting the irradiation instruction signal 43A to the laser light source 43.
  • the imaging control unit 62 outputs a first imaging instruction signal 62A to the image sensor 36, thereby causing the image sensor 36 to image the divided region 3A to be imaged.
  • the image capturing target divided region 3A is irradiated with laser light L. Therefore, the image sensor 36 images the divided region 3A to be imaged, which is irradiated with the laser beam L.
  • Target image data 91 is obtained by capturing an image of the image capturing target divided region 3A by the image sensor 36 under the control of the image capturing control unit 62.
  • the target image data 91 includes image data indicating a divided image 92.
  • Target image data 91 is stored in storage 48 .
  • the divided image 92 is an example of a "divided image” according to the technology of the present disclosure.
  • the overlap region image 95A includes a laser light image 80 that is an image showing the laser light L irradiated onto the imaged target divided region 3A.
  • the laser light image 80 is a point image.
  • the laser light image 80 is an example of a "reference image” and a "directional light image” according to the technology of the present disclosure.
  • the blur amount calculation unit 64 calculates the blur amount of the divided image 92 based on the laser light image 80 in the overlap area image 95A of the divided image 92.
  • the amount of blur refers to the difference between the actual size of the laser light image 80 and the size of the laser light image 80 when in focus.
  • the laser light image 80 is identified by, for example, image analysis using an AI method or a pattern matching method.
  • the blur amount calculation unit 64 obtains a divided image 92 included in the target image data 91 stored in the storage 48.
  • the blur amount calculation unit 64 obtains reference light standard information 82 from the storage 48 .
  • the reference light standard information 82 is information indicating the size of the laser light image 80 at the time of focusing.
  • the reference light standard information 82 is, for example, information indicating a table 82A in which the input value is a numerical value indicating the imaging condition at the time of focusing (for example, subject distance), and the output value is the size of the laser light image 80.
  • the blur amount calculation unit 64 derives the size of the laser light image 80 at the time of focusing according to the imaging conditions of the divided image 92 from the table 82A indicated by the reference light standard information 82. Further, the blur amount calculation unit 64 calculates the blur amount by comparing the size of the laser light image 80 at the time of focus derived from the table 82A and the size of the laser light image 80 included in the actual divided image 92. calculate.
  • the blur amount calculation unit 64 outputs first blur amount information 84 indicating the calculated blur amount to the storage 48 .
  • the flying object 10 when the flying object 10 receives a movement instruction signal transmitted from the transmitter 20 in response to a user's operation, it moves based on the received movement instruction signal.
  • the flying object 10 is moving in the horizontal direction based on the movement instruction signal. Specifically, the moving direction of the flying object 10 is rightward toward the wall surface 2A. The flying object 10 continues to move based on the received movement instruction signal while receiving the movement instruction signal transmitted from the transmitter 20 in response to the user's operation.
  • the imaging control unit 62 outputs a second imaging instruction signal 62B to the image sensor 36, thereby causing the image sensor 36 to image the divided region 3A to be imaged.
  • Target image data 91 is obtained by capturing an image of the image capturing target divided region 3A by the image sensor 36 under the control of the image capturing control unit 62.
  • the target image data 91 includes image data indicating a divided image 94.
  • the divided image 94 is obtained by being imaged by the imaging device 30 when the flying object 10 moves from the position where the divided image 92 was obtained.
  • Target image data 91 is stored in storage 48 .
  • the divided image 94 is an example of a "divided image" according to the technology of the present disclosure.
  • the blur amount calculation unit 64 calculates the blur amount of the divided image 94.
  • the amount of blur in the divided image 94 is calculated using the same method as the amount of blur in the divided image 92.
  • the blur amount calculation unit 64 outputs second blur amount information 86 indicating the calculated blur amount to the storage 48 .
  • the blur correction section 66 performs blur correction on the divided images 92 and 94 according to the amount of blur determined by the blur amount calculation section 64. Further, the blur correction unit 66 performs blur correction for each of the divided images 92 and 94. Specifically, the blur correction unit 66 obtains the divided images 92 and the first blur amount information 84 from the storage 48 . The blur correction unit 66 performs blur correction on the divided image 92 according to the amount of blur indicated by the first blur amount information 84. The blur correction unit 66 also obtains the divided images 94 and the second blur amount information 86 from the storage 48 . The blur correction unit 66 performs blur correction on the divided image 94 according to the amount of blur indicated by the second blur amount information 86.
  • the blur correction process in the blur correction section 66 is a conventionally known blur correction process.
  • the blur correction unit 66 removes blur by performing filter processing on the divided images 92 and 94 using a point spread function that defines the laser light image 80, which is a point image.
  • the removal of blur includes reduction of blur that is generally acceptable in the technical field to which the technology of the present disclosure belongs, which is contrary to the spirit of the technology of the present disclosure. This refers to the horizontal direction in the sense of reducing blur to the extent that it does not.
  • a corrected image 92A which is an image in which the blur of the divided image 92 has been corrected
  • a corrected image 94A which is an image in which the blur of the divided image 94 has been corrected
  • the feature point information generation unit 68 acquires the corrected image data 96 output from the blur correction unit 66 from the storage 48, thereby generating corrected images 92A and 94A included in the corrected image data 96. get.
  • the feature point information generation unit 68 generates first feature point information 92B based on the corrected image 92A.
  • the first feature point information 92B is information indicating the coordinates of the first feature point 92C included in the overlap region image 95A of the corrected image 92A.
  • the feature point information generation unit 68 derives the first feature point 92C by, for example, performing image processing (for example, high frequency component extraction processing, etc.) on the corrected image data 96.
  • the coordinates of the first feature point 92C are, for example, coordinates based on any one of the four vertices of the imaging target divided region 3A.
  • the first feature point 92C is an example of a "feature point" according to the technology of the present disclosure.
  • the feature point information generation unit 68 generates second feature point information 94B based on the corrected image 94A.
  • the second feature point information 94B is information indicating the coordinates of the second feature point 94C included in the overlap area image 95B of the corrected image 94A.
  • the feature point information generation unit 68 derives the second feature point 94C using the same method as the first feature point 92C.
  • the second feature point 94C is an example of a "feature point" according to the technology of the present disclosure.
  • the feature point information generation section 68 outputs the first feature point information 92B and the second feature point information 94B to the composite image generation section 70.
  • the composite image generation unit 70 acquires corrected images 92A and 94A from the storage 48.
  • the composite image generation unit 70 also obtains first feature point information 92B and second feature point information 94B from the feature point information generation unit 68.
  • the composite image generation unit 70 performs image composition processing on the corrected images 92A and 94A.
  • the image composition process is a process of generating a composite image 90 based on the first feature point information 92B and the second feature point information 94B.
  • the composite image generation unit 70 composites the overlap area image 95A of the corrected image 92A and the overlap area image 95B of the corrected image 94A in an overlapping state so that the same feature points 92C and 94C match.
  • a composite image 90 is generated.
  • the overlap area image 95A of the corrected image 92A and the overlap area image 95B of the corrected image 94A correspond to each other. That is, the overlap area image 95A and the overlap area image 95B indicate a common overlap area 5.
  • the overlap area image 95A of the corrected image 92A includes the laser light image 80.
  • the overlap area image 95B of the corrected image 94A does not include the laser light image 80. Therefore, in the image synthesis process, the composite image generation unit 70 generates the composite image 90 using the overlap area image 95B as an image indicating the overlap area 5 in the composite image 90.
  • the composite image 90 has an overlap region image 95B that does not include the laser light image 80.
  • the laser light image 80 has been removed from the overlap area image 95A of the composite image 90.
  • the composite image generation section 70 outputs composite image data 97 indicating the composite image 90 to the output section 72 .
  • the output unit 72 outputs the composite image data 97 to the outside.
  • the output unit 72 outputs composite image data 97 to the transmitter 20.
  • the transmitter 20 causes the display device 24 to display a composite image 90 indicated by composite image data 97.
  • FIG. 9 shows an example of the flow of imaging support processing according to this embodiment.
  • the flow of the imaging support process shown in FIG. 9 is an example of the "imaging support method" according to the technology of the present disclosure.
  • step ST10 the imaging control section 62 outputs an irradiation instruction signal 43A to the laser light source 43.
  • the laser light L is irradiated from the laser light source 43 to the imaging target divided region 3A.
  • step ST12 the imaging control unit 62 outputs the first imaging instruction signal 62A to the image sensor 36.
  • the divided region 3A to be imaged is imaged by the image sensor 36 under the control of the imaging control unit 62.
  • the imaging support process moves to step ST14.
  • step ST14 the divided image 92 obtained by imaging the divided region 3A to be imaged by the imaging device 30 in step ST12 is acquired. After the process of step ST14 is executed, the imaging support process moves to step ST16.
  • step ST16 the imaging control unit 62 determines whether the number of divided images 92 specified by the user has been acquired. In step ST16, if the number of divided images 92 has not reached the number specified by the user, the determination is negative and the imaging support process moves to step ST18. In step ST16, if the number of divided images 92 has reached the number specified by the user, the determination is affirmative and the imaging support process moves to step ST20.
  • step ST18 the flying object 10 moves to the next position based on the flight instruction signal transmitted from the transmitter 20.
  • the imaging support process moves to step ST12.
  • step ST12 the imaging control unit 62 outputs the second imaging instruction signal 62B to the image sensor 36.
  • the divided region 3A to be imaged is imaged by the image sensor 36 under the control of the imaging control unit 62.
  • the imaging support process moves to step ST14.
  • step ST14 the divided image 94 obtained by imaging the divided region 3A to be imaged by the imaging device 30 in step ST12 is acquired. After the process of step ST14 is executed, the imaging support process moves to step ST16.
  • step ST20 the blur amount calculation unit 64 obtains target image data 91 indicating the divided images 92 and 94 obtained in step ST12. After the process of step ST20 is executed, the imaging support process moves to step ST22.
  • step ST22 the blur amount calculation unit 64 calculates the blur amount of the divided images 92 and 94 indicated by the target image data 91 acquired in step ST20. Specifically, the blur amount calculation unit 64 derives the size of the laser light image 80 when in focus according to the imaging conditions of the divided images 92 and 94 from the table 82A indicated by the reference light standard information 82. Furthermore, the blur amount calculation unit 64 calculates the blur by comparing the size of the laser light image 80 at the time of focus derived from the table 82A and the size of the laser light image 80 included in the actual divided images 92 and 94. Calculate the amount. After the process of step ST22 is executed, the imaging support process moves to step ST24.
  • step ST24 the blur correction unit 66 performs blur correction processing on the divided images 92 and 94 according to the blur amount calculated by the blur amount calculation unit 64 in step ST22. After the process of step ST24 is executed, the imaging support process moves to step ST26.
  • step ST26 the feature point information generation unit 68 generates first feature point information 92B and second feature point information 94B based on the corrected images 92A and 94A that have been blurred in step ST24. After the process of step ST26 is executed, the imaging support process moves to step ST28.
  • step ST28 the composite image generation unit 70 generates a composite image 90 by combining the corrected images 92A and 94A based on the first feature point information 92B and the second feature point information 94B generated in step ST26. do.
  • the imaging support process moves to step ST30.
  • step ST30 the output unit 72 outputs composite image data 97 indicating the composite image 90 generated in step ST28 to the outside.
  • the blur amount calculation unit 64 calculates the blur amount of the overlap region images 95A and 95B included in the divided images 92 and 94 based on the laser light image 80. Therefore, according to this configuration, it is possible to accurately calculate the amount of blur in the overlap area images 95A and 95B included in the divided images 92 and 94.
  • the blur correction unit 66 performs blur correction on each of the divided images 92 and 94 individually according to the blur amount calculated by the blur amount calculation unit 64. There is. Because it is difficult to always keep the imaging conditions the same due to disturbances to the flight imaging device 1 (for example, the influence of wind), the amount of blur may differ between the divided images 92 and 94. Therefore, it is necessary to perform blur correction based on the amount of blur for each of the divided images 92 and 94. Therefore, according to this configuration, it is possible to accurately correct the blurring of the overlap area images 95A and 95B included in the individual divided images 92 and 94. For example, compared to the case where the blur of another divided image 94 is corrected based on the amount of blur of one divided image 92, the blur of overlap area images 95A and 95B included in each divided image 92 and 94 is can be corrected with high precision.
  • the composite image generation unit 70 generates the composite image 90 by combining the plurality of divided images 92 and 94 that have been subjected to blur correction.
  • the composite image 90 By performing the blur correction, feature points included in the divided images 92 and 94 can be extracted with high accuracy. Therefore, according to this configuration, it is possible to generate a composite image 90 with extremely little positional shift. For example, compared to a case where the plurality of divided images 92 and 94 are combined without performing blur correction, it is possible to generate a combined image 90 with less positional deviation.
  • the divided images 92 and 94 are synthesized. Since the overlap region images 95A and 95B that have not been subjected to blur correction are blurred, it may be difficult to extract the first feature point 92C and the second feature point 94C. Therefore, even if the plurality of divided images 92 and 94 are synthesized using overlap area images 95A and 95B that have not been subjected to blur correction, there is a possibility that a synthesized image 90 with less positional deviation may not be obtained.
  • the composite image 90 is created by combining the divided images 92 and 94 based on the first feature point 92C and the second feature point 94C included in the overlap area images 95A and 95B that have undergone blur correction. generated. Therefore, according to this configuration, it is possible to generate a composite image 90 with extremely little positional shift. For example, compared to a case where the divided images 92 and 94 are combined based on the first feature point 92C and the second feature point 94C of the overlap area images 95A and 95B that have not been subjected to blur correction, the positional deviation is smaller. A composite image 90 can be generated.
  • the overlap in one of the set of divided images 92 and 94 is The laser light image 80 is included in the lap area image 95A.
  • Composite image 90 includes an overlap area image 95B included in divided image 94 of a set of divided images 92 and 94. That is, the divided images 92 and 94 are combined using the overlap area image 95B that does not include the laser light image 80. Therefore, according to this configuration, the laser light image 80 is not reflected in the portion of the composite image 90 that corresponds to the overlap region 5.
  • the laser light L is used as the reference light
  • the laser light image 80 is used as the reference image included in the overlap region images 95A and 95B. Since the laser light L, which is directional light, has a higher straightness than non-directional light, it is easier for the blur amount calculation unit 64 to specify the degree of spread of the laser light image 80. Therefore, according to this configuration, the amount of blur can be calculated with high accuracy. For example, compared to the case where the reference light is non-directional light, the reference image is less likely to spread, and the amount of blur can be calculated with high accuracy.
  • the amount of blur is calculated based on the size of the laser light image 80.
  • the size of the laser light image 80 reflects the spread of the image due to blur. Therefore, according to this configuration, the amount of blur can be calculated with high accuracy.
  • the reference image is an image showing a non-directional pattern, and the amount of blur can be calculated with higher accuracy than in the case where the amount of blur is calculated from the pattern rather than from the size of the reference image.
  • the laser light L is irradiated to a predetermined position in the overlap region 5.
  • the position of the laser light image 80 within the divided images 92 and 94 is determined in advance, so that the laser light image 80 is accurately specified.
  • the amount of blur is calculated based on the laser light image 80. Therefore, according to this configuration, since the laser light image 80 is accurately specified, the amount of blur can be calculated with high accuracy. For example, compared to a case where the reference light is irradiated to a different position for each divided image, the laser light image 80 can be specified more accurately, so the amount of blur can be calculated with higher accuracy. Furthermore, since the position of the laser light image 80 is predetermined, the amount of blur can be easily calculated, compared to, for example, a case where the reference light is irradiated to a different position for each divided image.
  • the plurality of divided regions 3 are predetermined based on the angle of view of the imaging device 30. This makes the sizes of the divided images 92 and 94 constant. Therefore, according to this configuration, the sizes of the divided images 92 and 94 are constant, so that the process of combining the divided images 92 and 94 becomes easier.
  • processing may be performed to make the laser light image 80 reflected in the corrected image 94A less noticeable, such as interpolation processing using pixel values of surrounding pixels.
  • the blur correction section 66 does not need to perform blur correction.
  • the threshold value is set to an amount of blur that makes it difficult for the feature point information generation unit 68 to extract the feature point 92C or 94C.
  • the amount of blur that makes it difficult to extract the feature points 92C or 94C is, for example, the amount of blur that makes it impossible to extract a sufficient amount of feature points 92C or 94C to generate the composite image 90 with a probability of 50% or more. be. This eliminates the need for unnecessary blur correction.
  • the feature point information generation unit 68 obtains a corrected image 92A by obtaining the corrected image data 96 stored in the storage 48.
  • the feature point information generation unit 68 generates first feature point information 92B based on the corrected image 92A.
  • the first feature point information 92B is information indicating the coordinates of the first feature point 92C included in the corrected image 92A.
  • the feature point information generation unit 68 extracts a first feature point 92C included in a region 95C other than the laser light image 80 of the overlap region image 95A in the corrected image 92A. In other words, the feature point information generation unit 68 identifies the laser light image 80 in the overlap region image 95A, and extracts the first feature point 92C from the remaining region 95C excluding the laser light image 80. .
  • the laser light image 80 in the corrected image 92A is specified, for example, by image analysis using an AI method or a pattern matching method.
  • the region 95C is an example of a "region other than the reference image" according to the technology of the present disclosure.
  • the first feature point 92C is included in the region 95C other than the laser light image 80 in the overlap region image 95A.
  • the overlap area image 95A of the divided image 92 includes the laser light image 80
  • the overlap area image 95B of the divided image 94 does not include the laser light image 80. Therefore, it is difficult to extract corresponding feature points from the area corresponding to the position of the laser light image 80 between the divided image 92 and the divided image 94. This is because the portion of the overlap region image 95A that is irradiated with the laser light image 80 is different from the portion of the overlap region image 95B that is not irradiated with the laser light image 80.
  • the divided image 92 is synthesized based on the first feature point 92C included in the area 95C other than the laser light image 80 in the overlap area image 95A.
  • the first feature point 92C can be extracted with higher accuracy from the region 95C other than the laser light image 80 in the overlap region image 95A of the divided image 92 than from the region corresponding to the position of the laser light image 80.
  • the fact that the first feature point 92C is extracted with high precision also increases the precision with which the divided images 92 are synthesized using the first feature point 92C. Therefore, according to this configuration, it is possible to generate a composite image 90 with even less positional deviation. For example, compared to the case where the first feature point 92C including the area of the laser light image 80 is extracted, a composite image 90 with less positional deviation can be generated.
  • the threshold range includes a range of blur that does not interfere with extraction of the feature points 92C or 94C by the feature point information generation unit 68, but requires blur correction to improve the image quality of the composite image 90.
  • the feature point information generation unit 68 acquires divided images 92 and 94 included in the target image data 91 stored in the storage 48.
  • the feature point information generation unit 68 extracts a first feature point 92C included in the overlap region image 95A in the divided image 92.
  • the feature point information generation unit 68 generates first feature point information 92B indicating the coordinates of the extracted first feature point 92C.
  • the feature point information generation unit 68 extracts a second feature point 94C included in the overlap region image 95B in the divided image 94.
  • the feature point information generation unit 68 generates second feature point information 94B indicating the coordinates of the extracted second feature point 94C.
  • the feature point information generation section 68 outputs the first feature point information 92B and the second feature point information 94B to the composite image generation section 70.
  • the composite image generation unit 70 obtains divided images 92 and 94 from the storage 48.
  • the composite image generation unit 70 also obtains first feature point information 92B and second feature point information 94B from the feature point information generation unit 68.
  • the composite image generation unit 70 performs image composition processing on the divided images 92 and 94.
  • the image composition process is a process of generating a composite image 90 based on the first feature point information 92B and the second feature point information 94B.
  • the composite image generation unit 70 composites the overlap region image 95A of the divided image 92 and the overlap region image 95B of the divided image 94 in an overlapping state so that the same feature points 92C and 94C match.
  • a composite image 90 is generated.
  • the composite image generation section 70 outputs composite image data 97 indicating the composite image 90 to the blur correction section 66 and the output section 72.
  • the output unit 72 transmits the composite image data 97 to the transmitter 20 and causes the display device 24 to display the composite image 90.
  • the blur correction section 66 performs blur correction on the composite image 90 according to the amount of blur determined by the blur amount calculation section 64 (FIGS. 4 and 5). Specifically, the blur correction unit 66 acquires the composite image 90 and the first blur amount information 84 from the storage 48. The blur correction unit 66 performs blur correction on the area corresponding to the divided image 92 in the composite image 90 according to the amount of blur indicated by the first blur amount information 84. The blur correction unit 66 also obtains second blur amount information 86 from the storage 48 . The blur correction unit 66 performs blur correction on the area corresponding to the divided image 94 in the composite image 90 according to the amount of blur indicated by the second blur amount information 86.
  • the area where blur correction is performed according to the amount of blur indicated by the second amount of blur information 86 also includes the area corresponding to the overlap area image 95B.
  • the blur correction unit 66 outputs corrected image data 96 indicating a corrected composite image 90C, which is an image in which the blur of the composite image 90 has been corrected, to the output unit 72.
  • the output unit 72 transmits the corrected image data 96 to the transmitter 20 and displays the corrected composite image 90C on the display device 24 instead of the composite image 90.
  • the composite image 90 is generated by combining the plurality of divided images 92 and 94 obtained for the plurality of divided regions 3. , blur correction is performed using the amount of blur obtained for each region corresponding to the divided images 92 and 94.
  • the composite image 90 is a two-dimensional image 90A
  • the technology of the present disclosure is not limited to this.
  • the composite image 90 is a three-dimensional image 90B.
  • the flight imaging device 1 sequentially images a plurality of divided regions 3 of the wall surface 2A. Further, the flight imaging device 1 images a plurality of divided regions 3 on a wall surface 2B that is continuous with the wall surface 2A. The plurality of divided regions 3 are irradiated with laser light L. A plurality of divided images 92, 94, and 98 are obtained by sequentially capturing images of the plurality of divided regions 3 by the imaging device 30. A composite image 90 is generated by combining the plurality of divided images 92, 94, and 98. The composite image 90 is a three-dimensional image 90B that is a three-dimensional image showing the imaging target 2.
  • the blur amount calculation unit 64 calculates the blur amount for the divided images 92, 94, and 98.
  • the blur correction unit 66 performs blur correction processing on each of the divided images 92, 94, and 98. As a result, the blurring of the divided images 92, 94, and 98 is corrected.
  • the composite image generation unit 70 performs image synthesis processing on the divided images 92, 94, and 98 based on the feature point information generated by the feature point information generation unit 68 (see FIG. 6). I do. As a result, a composite image 90 is generated.
  • the processor 46 of the flight imaging device 1 generates the composite image 90 based on the target image data 91 stored in the storage 48, but the technology of the present disclosure is not limited to this.
  • a plurality of target image data 91 is input from the processor 46 of the flight imaging device 1 to the processor 110 of the external device 100 that is communicably connected to the flight imaging device 1 through a wired or wireless connection.
  • the processor 110 of the external device 100 may generate the composite image 90 based on the plurality of target image data 91.
  • the external device 100 is an example of an "imaging support device" according to the technology of the present disclosure
  • the processor 110 is an example of a "processor" according to the technology of the present disclosure.
  • the imaging target 2 such as a bridge
  • Processing such as capturing the image 92 and the like and generating the composite image 90 can be divided as appropriate.
  • the blur correction is performed on areas of the composite image 90 other than the overlap area image 95B. may be applied.
  • the blur correction is performed only on the overlap region images 95A and 95B to generate the composite image 90 at the site, and the blur correction is performed on the regions of the composite image 90 other than the overlap region images 95B at the site. You may perform the process using the external device 100 after returning to .
  • the plurality of divided images 92 and 94 used to generate the composite image 90 may include images that have been subjected to projective transformation.
  • the image that has been subjected to projective transformation refers to, for example, an image that has been corrected, including an image area that is distorted into a trapezoid or the like due to the attitude (for example, the angle of depression or elevation) of the imaging device 30.
  • Projective transformation means that the wall surface 2A is imaged by the imaging device 30 in a state in which the posture of the imaging device 30 is tilted with respect to the wall surface 2A (that is, in a state in which the optical axis OA of the imaging device 30 is tilted with respect to the wall surface 2A). This is the processing performed on the image obtained by.
  • Image distortion caused by the angle of depression or elevation is corrected by projective transformation.
  • an image obtained by performing imaging with the imaging device 30 in a state where the posture of the imaging device 30 is tilted with respect to the wall surface 2A is subjected to projective transformation, so that it appears as if it were from a position directly facing the wall surface 2A.
  • the image is converted into an image obtained by imaging (that is, with the optical axis OA perpendicular).
  • the laser beam L is irradiated onto the divided region 3 as the reference light, and the divided image 92 includes the laser light image 80 as the reference image.
  • the technology of the present disclosure but not limited to.
  • the laser beam L directional light emitted from an LED light source, an SLD light source, or the like may be emitted, and the divided images 92 and 94 may include images of the directional light.
  • the laser light image 80 is a point image as a reference light, but the technology of the present disclosure is not limited to this.
  • the laser light image 80 may be a rectangular or triangular image other than a point image, or a pattern.
  • the flight imaging device 1 has been described with reference to an example of the form in which the flight and imaging are performed based on the flight instruction signal and the imaging start signal from the transmitter 20. but not limited to.
  • the flight imaging device 1 may be configured to fly and capture images according to a predetermined flight plan.
  • the imaging device 30 is mounted on the flying object 10, but the imaging device 30 may be mounted on a variety of moving objects (for example, a gondola, an automatic transport robot, an automatic guided vehicle, or It may also be mounted on a vehicle such as a high-altitude inspection vehicle.
  • the moving object may be a person.
  • the person refers to, for example, a worker who surveys and/or inspects land and/or infrastructure.
  • the imaging device 30 when the moving object is a person, being equipped with the imaging device 30 means that the imaging device 30 (for example, a portable terminal with a camera function) is held by the person, and/or equipment worn by the person (for example, it includes a mode in which the imaging device 30 is attached to a helmet, work clothes, etc.
  • the processor 46 is illustrated, but it is also possible to use at least one other CPU, at least one GPU, and/or at least one TPU instead of the processor 46 or in addition to the processor 46. You can also do this.
  • the imaging support processing program 60 may be stored in a portable non-transitory computer-readable storage medium (hereinafter simply referred to as a "non-transitory storage medium") such as an SSD or a USB memory.
  • a non-transitory storage medium such as an SSD or a USB memory.
  • the imaging support processing program 60 stored in the non-temporary storage medium is installed in the computer 32 of the imaging device 30, and the processor 46 executes processing according to the imaging support processing program 60.
  • the imaging support processing program 60 is stored in a storage device such as another computer or a server device connected to the imaging device 30 via a network, and the imaging support processing program 60 is downloaded in response to a request from the imaging device 30. may be installed on the computer 32.
  • imaging support processing program 60 it is not necessary to store the entire imaging support processing program 60 in a storage device such as another computer or server device connected to the imaging device 30, or in the storage 48, but only a part of the imaging support processing program 60 can be stored. You can leave it.
  • the computer 32 is built into the imaging device 30, the technology of the present disclosure is not limited to this, and for example, the computer 32 may be provided outside the imaging device 30.
  • the computer 32 including the processor 46, the storage 48, and the RAM 50 is illustrated, but the technology of the present disclosure is not limited to this, and instead of the computer 32, an ASIC, an FPGA, and/or Alternatively, a device including a PLD may be applied. Further, instead of the computer 32, a combination of hardware configuration and software configuration may be used.
  • processors can be used as hardware resources for executing the various processes described in each of the above embodiments.
  • the processor include a CPU, which is a general-purpose processor that functions as a hardware resource that executes various processes by executing software, that is, a program.
  • the processor include a dedicated electronic circuit such as an FPGA, a PLD, or an ASIC, which is a processor having a circuit configuration specifically designed to execute a specific process.
  • Each processor has a built-in memory or is connected to it, and each processor uses the memory to perform various processes.
  • Hardware resources that execute various processes may be configured with one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of multiple FPGAs, or a CPU and FPGA). Furthermore, the hardware resource that executes various processes may be one processor.
  • one processor is configured by a combination of one or more CPUs and software, and this processor functions as a hardware resource that executes various processes.
  • a and/or B has the same meaning as “at least one of A and B.” That is, “A and/or B” means that it may be only A, only B, or a combination of A and B. Furthermore, in this specification, even when three or more items are expressed by connecting them with “and/or”, the same concept as “A and/or B" is applied.
  • the processor comprises a plurality of divided regions obtained by dividing the imaging target region, the plurality of divided regions having an overlap region in which the divided regions partially overlap each other. in each, causing a light source to irradiate the overlapping area of the divided area with reference light; Obtaining a divided image including a reference image indicating the reference light for each divided region by causing an imaging device to image the divided region in which the overlapping region is irradiated with the reference light; An imaging support device that calculates, for each of the divided regions, an amount of blur of an overlap region image indicating the overlap region based on the reference image within the divided image.
  • Appendix 5 The imaging support device according to appendix 4, wherein the feature point is included in an area other than the reference image in the overlap area image.
  • the above processor is Generate a composite image by combining the plurality of divided images obtained for the plurality of divided regions, The imaging support device according to supplementary note 1, wherein blur correction is performed on the composite image using the blur amount obtained for each of the divided regions.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

プロセッサを備え、プロセッサは、撮像対象領域が分割されることで得られる複数の分割領域であって、分割領域間の一部がオーバラップしている領域であるオーバラップ領域を有する複数の分割領域の各々において、分割領域のオーバラップ領域に対して光源に参照光を照射させ、オーバラップ領域に参照光が照射されている状態の分割領域を撮像装置に撮像させることで、参照光を示す参照像を含む分割画像を分割領域毎に取得し、分割領域毎に、分割画像内での参照像に基づいて、オーバラップ領域を示すオーバラップ領域画像のぼけ量を算出する、撮像支援装置。

Description

撮像支援装置、移動体、撮像支援方法、及びプログラム
 本開示の技術は、撮像支援装置、移動体、撮像支援方法、及びプログラムに関する。
 特開2016-24516号公報には、連続的あるいは任意に断続的に移動しながら、隣接して重なり合う撮影領域を撮影する少なくとも一つのカメラからなる撮影手段と、各撮影領域が重なり合う共通撮影領域の被写体上に、所定時間固定的に、マーカを付与する1または複数のマーカ付与手段を有する移動式マルチ画像撮影装置が記載されている。移動式マルチ画像撮影装置は、撮影手段およびマーカ付与手段において、撮影手段が移動する中で撮影位置とマーカ付与位置の関係を導出する手段を有し、撮影手段の前進に合わせて前後する撮影について、前の撮影位置では撮影範囲に含まれるように被写体上に固定される少なくとも一つのマーカを付与し、後の撮影ではマーカが含まれるようにそのマーカ付与位置に対して特定の位置関係で撮影するように、マーカ付与と撮影のタイミングを制御する手段を有し、マーカ付与画像群から各撮影領域間を繋ぎ合わせる補正パラメータを算出する補正パラメータ算出手段と、補正パラメータに基づいて、撮影した画像群を合成した合成画像を生成する画像合成手段と、を備えることを特徴とする移動式マルチ画像撮影装置が記載されている。
 特開2017-34576号公報には、撮影装置と画像処理装置を有する画像撮影システムであって、撮影装置は、被写体の一部の撮影領域を撮影する少なくとも一つのカメラを有するカメラ装置と、撮影領域内の少なくとも4つの地点にレーザビームを照射してマーカを付与する少なくとも一つのマーカレーザと、付与されたマーカまでのマーカレーザの基準位置からの距離、あるいは、隣接するマーカレーザの照射方向の相互のパン角度またはチルト角度、を含む、各付与マーカの3次元座標を得るための物理パラメータを計測する計測部とからなるマーカ付与部と、を有する。撮影装置は、マーカ付与部により、撮影領域の少なくとも4つのマーカ付与地点に対して同時または順次にマーカを付与した撮影画像と、同時または順次にマーカを付与しない撮影画像をカメラで撮影すると、共にマーカ付与地点へのマーカの付与毎に物理パラメータの計測を実行する。画像処理装置は、撮影装置から、撮影画像群と物理パラメータの計測値を取得する取得部と、マーカを付与した撮影画像のマーカ像を構成する画素集合に基づいて、撮影画像からマーカ像座標を抽出する撮影画像マーカ座標抽出部と、物理パラメータの計測値から、マーカ像に対応するマーカの3次元座標を導出し、3次元座標からマーカが構成する被写体表面の平面の座標に変換し、さらに被写体表面の平面に正対する特定の視点位置からの透視画像としてマーカを見たときの正対化画像のマーカ座標を算出する正対化画像マーカ座標算出部、少なくとも4つの撮影画像のマーカ像座標と対応する正対化画像のマーカ座標から、撮影画像を正対化画像に投影変換するための正対化補正値を算出する正対化補正値算出部、正対化補正値をマーカ付与地点にマーカを付与していない画像に適用して、マーカ像の写り込みのない撮影領域の正対化画像を生成する正対化画像変換部、を有することを特徴とする画像撮影システムが記載されている。
 特開2015-32948号公報には、複数の画像データを受けて、当該複数の画像データを合成処理して合成画像データを得る画像処理装置が記載されている。複数の画像データの各々は光の強度分布および光の入射方向を示す情報を有している。画像処理装置は、第1のリフォーカス係数に応じて複数の画像データをリフォーカス処理して複数のリフォーカス画像データを生成するとともに、第1のリフォーカス係数と異なる第2のリフォーカス係数に応じて複数の画像データをリフォーカス処理して複数の合成用画像データを生成するリフォーカス処理手段と、複数のリフォーカス画像データを受けて、リフォーカス画像データにおける重複箇所を検出して重複箇所情報を得る検出手段と、重複箇所情報に応じて複数の合成用画像データを合成処理して合成画像データを得る合成手段と、を有することを特徴とする画像処理装置が記載されている。
 本開示の技術に係る一つの実施形態は、複数の分割画像から合成画像が生成される場合の分割画像に含まれるオーバラップ領域画像のぼけ量を精度よく算出することができる撮像支援装置、移動体、撮像支援方法、及びプログラムを提供する。
 本開示の技術に係る第1の態様は、プロセッサを備え、プロセッサは、撮像対象領域が分割されることで得られる複数の分割領域であって、分割領域間の一部がオーバラップしている領域であるオーバラップ領域を有する複数の分割領域の各々において、分割領域のオーバラップ領域に対して光源に参照光を照射させ、オーバラップ領域に参照光が照射されている状態の分割領域を撮像装置に撮像させることで、参照光を示す参照像を含む分割画像を分割領域毎に取得し、分割領域毎に、分割画像内での参照像に基づいて、オーバラップ領域を示すオーバラップ領域画像のぼけ量を算出する、撮像支援装置である。
 本開示の技術に係る第2の態様は、プロセッサが、ぼけ量に応じて、複数の分割画像の各々に対して個別にぼけ補正を行う、第1の態様に係る撮像支援装置である。
 本開示の技術に係る第3の態様は、プロセッサが、ぼけ補正を行った複数の分割画像を合成することで合成画像を生成する、第2の態様に係る撮像支援装置である。
 本開示の技術に係る第4の態様は、プロセッサが、ぼけ補正後のオーバラップ領域画像に含まれる特徴点に基づいて、複数の分割画像を合成する、第3の態様に係る撮像支援装置である。
 本開示の技術に係る第5の態様は、特徴点が、オーバラップ領域画像において、参照像以外の領域に含まれる、第4の態様に係る撮像支援装置である。
 本開示の技術に係る第6の態様は、プロセッサが、複数の分割領域について得られた複数の分割画像を合成することで合成画像を生成し、合成画像に対して、分割領域毎に得られたぼけ量を用いてぼけ補正を行う、第1の態様に係る撮像支援装置である。
 本開示の技術に係る第7の態様は、対応するオーバラップ領域画像を含む複数の分割画像を一組とした場合、一組の分割画像の内の一方におけるオーバラップ領域画像に参照像が含まれ、合成画像は、一組の分割画像の内の他方に含まれるオーバラップ領域画像を含む、第3の態様から第6の態様の何れか一つに係る撮像支援装置である。
 本開示の技術に係る第8の態様は、参照光が、指向性光であり、参照像は、指向性光の像である、第1の態様から第7の態様の何れか一つに係る撮像支援装置である。
 本開示の技術に係る第9の態様は、ぼけ量が、参照像の大きさに基づいて算出される、第1の態様から第8の態様の何れか一つに係る撮像支援装置である。
 本開示の技術に係る第10の態様は、参照光が、オーバラップ領域画像において、予め定められた位置に照射される、第1の態様から第9の態様の何れか一つに係る撮像支援装置である。
 本開示の技術に係る第11の態様は、複数の分割領域の各々が、撮像装置の画角により予め定められている、第1の態様から第10の態様の何れか一つに係る撮像支援装置である。
 本開示の技術に係る第12の態様は、第1から第11の何れか一つに係る撮像支援装置を備える、移動体である。
 本開示の技術に係る第13の態様は、撮像対象領域が分割されることで得られる複数の分割領域であって、分割領域間の一部がオーバラップしている領域であるオーバラップ領域を有する複数の分割領域の各々において、分割領域のオーバラップ領域に対して光源に参照光を照射させること、オーバラップ領域に参照光が照射されている状態の分割領域を撮像装置に撮像させることで、参照光を示す参照像を含む分割画像を分割領域毎に取得すること、及び、分割領域毎に、分割画像内での参照像に基づいて、オーバラップ領域を示すオーバラップ領域画像のぼけ量を算出すること、を含む撮像支援方法である。
 本開示の技術に係る第14の態様は、コンピュータに、撮像対象領域が分割されることで得られる複数の分割領域であって、分割領域間の一部がオーバラップしている領域であるオーバラップ領域を有する複数の分割領域の各々において、分割領域のオーバラップ領域に対して光源に参照光を照射させること、オーバラップ領域に参照光が照射されている状態の分割領域を撮像装置に撮像させることで、参照光を示す参照像を含む分割画像を分割領域毎に取得すること、及び、分割領域毎に、分割画像内での参照像に基づいて、オーバラップ領域を示すオーバラップ領域画像のぼけ量を算出すること、を含む処理を実行させるためのプログラムである。
飛行撮像装置の一例を示す斜視図である。 撮像装置のハードウェア構成の一例を示すブロック図である。 撮像装置の機能的な構成の一例を示すブロック図である。 プロセッサにおける撮像処理及びぼけ量算出処理の一例を説明する説明図である。 プロセッサにおける撮像処理及びぼけ量算出処理の一例を説明する説明図である。 プロセッサにおけるぼけ補正処理の一例を説明する説明図である。 プロセッサにおける特徴点抽出処理の一例を説明する説明図である。 プロセッサにおける画像合成処理の一例を説明する説明図である。 撮像支援処理の流れの一例を説明するフローチャートである。 第1変形例に係る特徴点抽出処理の一例を説明する説明図である。 プロセッサにおける特徴点抽出処理の一例を説明する説明図である。 プロセッサにおける画像合成処理の一例を説明する説明図である。 プロセッサにおけるぼけ補正処理の一例を説明する説明図である。 第2変形例に係る画像合成処理の一例を説明する説明図である。 第3変形例に係る画像合成処理の一例を説明する説明図である。
 以下、添付図面に従って本開示の技術に係る撮像支援装置、移動体、撮像支援方法、及びプログラムの実施形態の一例について説明する。
 先ず、以下の説明で使用される文言について説明する。
 I/Fとは、“Interface”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。EEPROMとは、“Electrically Erasable Programmable Read-Only Memory”の略称を指す。CPUとは、“Central Processing Unit”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。DRAMとは、“Dynamic Random Access Memory”の略称を指す。SRAMとは、“Static Random Access Memory”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。TPUとは、“Tensor Processing Unit”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。ICとは、“Integrated Circuit”の略称を指す。AIとは、“Artificial Intelligence”の略称を指す。SLDとは、“Super Luminescent Diode”の略称を指す。LEDとは、“Light Emitting Diode”の略称を指す。
 本明細書の説明において、「垂直」とは、完全な垂直の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの垂直を指す。本明細書の説明において、「水平方向」とは、完全な水平方向の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの水平方向を指す。本明細書の説明において、「鉛直方向」とは、完全な鉛直方向の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの鉛直方向を指す。
 <第1実施形態>
 一例として図1に示すように、飛行撮像装置1は、飛行機能及び撮像機能を備えており、飛行しながら撮像対象2の壁面2Aを撮像する。本明細書の説明において、「飛行」の概念には、飛行撮像装置1が空中を移動するという意味の他に、飛行撮像装置1が空中で静止するという意味も含まれる。飛行撮像装置1は、本開示の技術に係る「移動体」の一例であり、撮像対象2は、本開示の技術に係る「撮像対象領域」の一例である。
 壁面2Aは、一例として、平面である。平面とは、二次元状の面(すなわち、二次元方向に沿う面)を指す。また、本明細書の説明において、「平面」の概念には、鏡面の意味は含まれない。本実施形態において、例えば、壁面2Aは、水平方向及び鉛直方向で規定された平面(すなわち、水平方向及び鉛直方向に延びる面)である。一例として、壁面2Aを有する撮像対象2は、橋梁に設けられた橋脚である。橋脚は、例えば鉄筋コンクリート製である。ここでは、撮像対象2の一例として、橋脚が挙げられているが、撮像対象2は、橋脚以外の物体(例えば、トンネル又はダム等)でもよい。
 飛行撮像装置1の飛行機能(以下、単に「飛行機能」とも称する)は、飛行指示信号に基づいて飛行撮像装置1が飛行する機能である。飛行指示信号とは、飛行撮像装置1の飛行を指示する信号を指す。飛行指示信号は、例えば飛行撮像装置1を操縦するための送信機20から送信される。送信機20は、ユーザ(図示省略)によって操作される。送信機20は、飛行撮像装置1を操縦するための操縦部22と、飛行撮像装置1によって撮像されることで得られた画像を表示するための表示装置24とを備える。表示装置24は、例えば液晶ディスプレイである。
 飛行指示信号は、具体的には、飛行撮像装置1の移動及び移動方向を指示する移動指示信号と、飛行撮像装置1の静止を指示する静止指示信号とを含む複数の指示信号に分類される。ここでは、飛行指示信号が送信機20から送信される例が挙げられているが、飛行撮像装置1に対して飛行ルートを設定する基地局(図示省略)等から飛行指示信号が送信されてもよい。飛行撮像装置1の撮像機能(以下、単に「撮像機能」とも称する)は、飛行撮像装置1が被写体(一例として、撮像対象2の壁面2A)を撮像する機能である。
 飛行撮像装置1は、飛行体10及び撮像装置30を備える。飛行体10は、例えばドローン等の無人航空機である。飛行機能は、飛行体10によって実現される。飛行体10は、複数のプロペラ12を有しており、複数のプロペラ12が回転することによって飛行する。飛行体10が飛行することは、飛行撮像装置1が飛行することと同義である。
 撮像装置30は、例えば、デジタルカメラ又はビデオカメラである。撮像機能は、撮像装置30によって実現される。撮像装置30は、飛行体10に搭載されている。具体的には、撮像装置30は、飛行体10の下部に設けられている。ここでは、撮像装置30が飛行体10の下部に設けられている例が挙げられているが、撮像装置30は、飛行体10の上部又は前部等に設けられてもよい。
 飛行撮像装置1は、レーザ光源43を備える。レーザ光源43は、飛行体10に搭載されている。具体的には、レーザ光源43は、飛行体10の上部に設けられている。ここでは、レーザ光源43が飛行体10の上部に設けられている例が挙げられているが、レーザ光源43は、飛行体10の下部又は前部等に設けられてもよく、撮像装置30と一体とされてもよい。
 レーザ光源43は、撮像対象2に対してレーザ光Lを照射する。レーザ光Lは、参照光として分割領域3の予め定められた位置に照射される。参照光とは、後述するぼけ量を算出するための参照対象として分割領域3に照射される光である。レーザ光源43は、コンピュータ32の制御下で動作する。レーザ光Lは、例えば、可視光域の波長の光であるが、これはあくまでも一例に過ぎない。レーザ光Lは、赤外光であってもよい。レーザ光Lは、本開示の技術に係る「参照光」及び「指向性光」の一例である。レーザ光源43は、本開示の技術に係る「光源」の一例である。
 レーザ光Lは、撮像対象分割領域3Aのオーバラップ領域5に照射される。オーバラップ領域5においてレーザ光Lが照射される位置は、予め定められている。レーザ光Lが照射される位置は、例えば、オーバラップ領域5の中央部分である。
 撮像装置30は、壁面2Aの分割領域3を順次に撮像する。分割領域3は、壁面2Aを分割した領域である。分割領域3は、例えば、撮像装置30の画角によって定まる。複数の分割領域3は、本開示の技術に係る「複数の分割領域」の一例である。図1に示す例では、分割領域3の一例として、四角形の領域が示されている。複数の分割領域3が撮像装置30によって順次に撮像されることで複数の分割画像92及び94が得られる。複数の分割画像92及び94が合成されることにより合成画像90が生成される。複数の分割画像92及び94は、隣接する分割画像92及び94の一部が重なり合うように合成される。合成画像90は、例えば、撮像対象2の壁面2Aを点検したり測量したりするために利用される。図1に示す例では、合成画像90は、2次元画像90Aである。合成画像90は、本開示の技術に係る「合成画像」の一例である。
 図1に示す例では、壁面2Aに対して撮像装置30の光軸OAが垂直な状態で各分割領域3が撮像装置30によって撮像される態様が示されている。複数の分割領域3は、隣接する分割領域3同士の一部が重なり合うように撮像される。隣接する分割領域3同士の一部が重なり合うように複数の分割領域3を撮像するのは、隣接する分割領域3のうち重なり合う部分に含まれる特徴点(例えば、壁面2Aに存在する汚れ、及び/又は凹凸等)に基づいて、隣接する分割領域3に対応する合成画像90を生成するためである。
 以下、隣接する分割領域3同士の一部が重なり合うことをオーバラップと称し、隣接する分割領域3同士の重なり合った領域をオーバラップ領域5とする。オーバラップ領域5は、本開示の技術に係る「オーバラップ領域」の一例である。また、各分割領域3の全体の面積に対してオーバラップ領域5の面積が占める割合をオーバラップ率と称する。オーバラップ率は、既定のオーバラップ率に設定される。既定のオーバラップ率は、例えば、合成画像90を生成するために十分な特徴点の量が得られると推定される率(一例として30%)に設定される。合成画像90は、オーバラップ領域5を示す像であるオーバラップ領域画像95A及び95Bにおいて、分割画像92及び94が合成されることで生成される。オーバラップ領域画像95A及び95Bは、本開示の技術に係る「オーバラップ領域画像」の一例である。
 図1に示す例では、複数の分割領域3は、既に撮像された分割領域3(すなわち、飛行撮像装置1によって撮像された分割領域3)と、未撮像の分割領域3(すなわち、飛行撮像装置1によって撮像されようとしている分割領域3)とを含む。以下、複数の分割領域3を区別して説明する場合、複数の分割領域3のうちの未撮像の分割領域3を「撮像対象分割領域3A」と称し、複数の分割領域3のうちの既に撮像された分割領域3を「撮像済み分割領域3B」と称する。
 飛行撮像装置1は、一例として水平方向に移動しながら、複数の分割領域3を撮像する。また、飛行撮像装置1は、撮像対象分割領域3Aの一部と、撮像対象分割領域3Aの一つ前(例えば、1フレーム前)に撮像された撮像済み分割領域3Bの一部とが重なり合う順番で複数の分割領域3をそれぞれ撮像する。以下、一例として図1に示すように、飛行撮像装置1が水平方向の移動を行うことにより、複数の分割領域3を撮像する例を前提に説明するが、これはあくまでも一例に過ぎない。飛行撮像装置1は、一例として水平方向への移動と鉛直方向への移動を交互に繰り返すことによりジグザグに移動しながら、複数の分割領域3を撮像してもよい。
 一例として図2に示すように、撮像装置30は、コンピュータ32、通信装置34、イメージセンサ36、イメージセンサドライバ38、撮像レンズ40、画像メモリ42、レーザ光源43、及び入出力I/F44を備える。撮像装置30は、本開示の技術に係る「撮像装置」の一例である。
 コンピュータ32は、プロセッサ46、ストレージ48、及びRAM50を備える。プロセッサ46、ストレージ48、及びRAM50は、バス52を介して相互に接続されており、バス52は、入出力I/F44に接続されている。また、入出力I/F44には、通信装置34、イメージセンサドライバ38、撮像レンズ40、画像メモリ42、及びレーザ光源43が接続されている。コンピュータ32は、本開示の技術に係る「コンピュータ」及び「撮像支援装置」の一例である。プロセッサ46は、本開示の技術に係る「プロセッサ」の一例である。
 プロセッサ46は、例えば、CPUを有しており、撮像装置30の全体を制御する。ストレージ48は、各種プログラム及び各種パラメータ等を記憶する不揮発性の記憶装置である。ストレージ48としては、例えば、HDD及び/又はフラッシュメモリ(例えば、EEPROM及び/又はSSD)等が挙げられる。
 RAM50は、一時的に情報が記憶されるメモリであり、プロセッサ46によってワークメモリとして用いられる。RAM50としては、例えば、DRAM及び/又はSRAM等が挙げられる。
 通信装置34は、一例として送信機20と通信可能に接続されている。ここでは、通信装置34が既定の無線通信規格で送信機20と無線通信可能に接続されている。既定の無線通信規格とは、例えば、Wi-Fi(登録商標)等が挙げられる。通信装置34は、送信機20との間の情報の授受を司る。例えば、通信装置34は、プロセッサ46からの要求に応じた情報を送信機20に送信する。また、通信装置34は、送信機20から送信された情報を受信し、受信した情報を、バス52を介してプロセッサ46に出力する。ここでは、通信装置34が送信機20と通信可能に接続されている例が挙げられているが、通信装置34は、送信機20及び/又は飛行体10と通信可能に接続されていてもよい。
 イメージセンサ36は、イメージセンサドライバ38と接続されている。イメージセンサドライバ38は、プロセッサ46からの指示に従って、イメージセンサ36を制御する。イメージセンサ36は、例えば、CMOSカラーイメージセンサである。なお、ここでは、イメージセンサ36としてCMOSカラーイメージセンサを例示しているが、本開示の技術はこれに限定されず、他のイメージセンサであってもよい。イメージセンサ36は、イメージセンサドライバ38の制御下で、被写体(一例として、撮像対象2の壁面2A)を撮像し、撮像することで得た画像データ39を出力する。
 撮像レンズ40は、イメージセンサ36よりも被写体側に配置されている。撮像レンズ40は、被写体からの反射光である被写体光を取りこみ、取り込んだ被写体光をイメージセンサ36の撮像面に結像させる。撮像レンズ40には、フォーカスレンズ、ズームレンズ、及び絞り等の複数の光学素子(図示省略)が含まれている。撮像レンズ40は、入出力I/F44を介してコンピュータ32に接続されている。具体的には、撮像レンズ40に含まれる複数の光学素子は、動力源を有する駆動機構(図示省略)を介して入出力I/F44に接続されている。撮像レンズ40に含まれる複数の光学素子は、コンピュータ32の制御下で作動する。撮像装置30では、撮像レンズ40に含まれる複数の光学素子を作動させることによって、光学ズーム、及びシャッタスピードの調節等が実現される。
 画像メモリ42には、イメージセンサ36によって生成された画像データ39が一時的に記憶される。プロセッサ46は、画像メモリ42から画像データ39を取得し、取得した画像データ39を用いて各種処理を実行する。
 ところで、上述したように、合成画像90が生成される場合には、隣接する分割領域3のうち重なり合う部分(すなわち、オーバラップ領域5)に含まれる特徴点に基づいて合成画像90が生成される。しかしながら、分割領域3が撮像されることで得られる分割画像92及び94毎に、撮像条件(例えば、被写体距離)が変化してしまうことがある。このような場合には、分割画像92及び94にぼけが生じることがある。分割画像92及び94に、特徴点を抽出することが困難な程のぼけが生じている場合には、ぼけを抑制してから分割画像92及び94を合成することが必要となるが、この前提として、分割画像92及び94のぼけ量を精度よく求めることが必要となる。
 そこで、このような事情に鑑み、本実施形態では、一例として図3に示すように、プロセッサ46によって撮像支援処理が行われる。ストレージ48には、撮像支援処理プログラム60が記憶されている。撮像支援処理プログラム60は、本開示の技術に係る「プログラム」の一例である。プロセッサ46は、ストレージ48から撮像支援処理プログラム60を読み出し、読み出した撮像支援処理プログラム60をRAM50上で実行する。プロセッサ46は、RAM50上で実行する撮像支援処理プログラム60に従って、撮像支援処理を行う。
 撮像支援処理は、プロセッサ46が撮像支援処理プログラム60に従って、撮像制御部62、ぼけ量算出部64、ぼけ補正部66、特徴点情報生成部68、合成画像生成部70、及び出力部72として動作することで実現される。
 一例として図4に示すように、飛行体10は、ユーザによる操作に応じて送信機20から送信された移動指示信号を受信し、受信した移動指示信号に基づいて撮像位置に移動する。また、飛行体10は、ユーザによる操作に応じて送信機20から送信された静止指示信号を受信し、受信した静止指示信号に基づいて撮像位置で静止する。そして、撮像装置30は、ユーザによる操作に応じて送信機20から送信された撮像開始信号を受信した場合、以下に説明する撮像処理を実行する。
 撮像制御部62は、レーザ光源43に対して照射指示信号43Aを出力することにより、レーザ光源43にレーザ光Lを照射させる。
 撮像制御部62は、イメージセンサ36に対して第1撮像指示信号62Aを出力することにより、イメージセンサ36に撮像対象分割領域3Aを撮像させる。撮像対象分割領域3Aには、レーザ光Lが照射されている。従って、レーザ光Lが照射された状態の撮像対象分割領域3Aが、イメージセンサ36により撮像される。撮像制御部62の制御下でイメージセンサ36によって撮像対象分割領域3Aが撮像されることにより対象画像データ91が得られる。対象画像データ91は、分割画像92を示す画像データを含む。対象画像データ91は、ストレージ48に記憶される。図4に示す対象画像データ91によって示される分割画像92は、例えば、1枚目の合成用画像である。分割画像92は、本開示の技術に係る「分割画像」の一例である。分割画像92において、オーバラップ領域画像95Aには、撮像対象分割領域3Aに照射されたレーザ光Lを示す像であるレーザ光像80が含まれる。図4に示す例では、レーザ光像80が、点像である例が示されている。レーザ光像80は、本開示の技術に係る「参照像」及び「指向性光の像」の一例である。
 ぼけ量算出部64は、分割画像92のオーバラップ領域画像95Aにおけるレーザ光像80に基づいて、分割画像92のぼけ量を算出する。ここで、ぼけ量とは、実際のレーザ光像80の大きさと合焦時のレーザ光像80の大きさとの差分を指す。レーザ光像80は、例えば、AI方式又はパターンマッチング方式の画像解析によって特定される。図4に示す例では、ぼけ量算出部64は、ストレージ48に記憶された対象画像データ91に含まれる分割画像92を取得する。また、ぼけ量算出部64は、ストレージ48から参照光基準情報82を取得する。参照光基準情報82は、合焦時におけるレーザ光像80の大きさを示す情報である。参照光基準情報82は、例えば、合焦時の撮像条件(例えば、被写体距離)を示す数値を入力値とし、レーザ光像80の大きさを出力値とするテーブル82Aを示す情報である。ぼけ量算出部64は、参照光基準情報82により示されるテーブル82Aから、分割画像92の撮像条件に応じた合焦時のレーザ光像80の大きさを導出する。さらに、ぼけ量算出部64は、テーブル82Aから導出した合焦時のレーザ光像80の大きさと、実際の分割画像92に含まれるレーザ光像80の大きさとを比較することにより、ぼけ量を算出する。ぼけ量算出部64は、算出したぼけ量を示す第1ぼけ量情報84をストレージ48に出力する。
 一例として図5に示すように、飛行体10は、ユーザによる操作に応じて送信機20から送信された移動指示信号を受信した場合、受信した移動指示信号に基づいて移動する。図5に示す例では、飛行体10が移動指示信号に基づいて水平方向に移動している。具体的には、飛行体10の移動方向は、壁面2Aに向かって右方向である。飛行体10は、ユーザによる操作に応じて送信機20から送信された移動指示信号を受信している間、受信した移動指示信号に基づいて移動を継続する。
 撮像制御部62は、イメージセンサ36に対して第2撮像指示信号62Bを出力することにより、イメージセンサ36に撮像対象分割領域3Aを撮像させる。撮像制御部62の制御下でイメージセンサ36によって撮像対象分割領域3Aが撮像されることにより対象画像データ91が得られる。対象画像データ91は、分割画像94を示す画像データを含む。分割画像94は、分割画像92が得られた位置から飛行体10が移動した場合に撮像装置30によって撮像されることで得られる。対象画像データ91は、ストレージ48に記憶される。分割画像94は、本開示の技術に係る「分割画像」の一例である。
 ぼけ量算出部64は、分割画像94のぼけ量を算出する。分割画像94のぼけ量は、分割画像92のぼけ量と同様な手法により算出される。ぼけ量算出部64は、算出したぼけ量を示す第2ぼけ量情報86をストレージ48に出力する。
 一例として図6に示すように、ぼけ補正部66は、ぼけ量算出部64において求められたぼけ量に応じて、分割画像92及び94に対してぼけ補正を行う。また、ぼけ補正部66は、分割画像92及び94毎にぼけ補正を行う。具体的には、ぼけ補正部66は、ストレージ48から分割画像92及び第1ぼけ量情報84を取得する。ぼけ補正部66は、第1ぼけ量情報84により示されるぼけ量に応じて、分割画像92に対してぼけ補正を行う。また、ぼけ補正部66は、ストレージ48から分割画像94及び第2ぼけ量情報86を取得する。ぼけ補正部66は、第2ぼけ量情報86により示されるぼけ量に応じて、分割画像94に対してぼけ補正を行う。
 ぼけ補正部66におけるぼけ補正処理は、従来既知のぼけ補正処理が行われる。例えば、ぼけ補正部66は、分割画像92及び94に対して、点像であるレーザ光像80を規定した点拡がり関数を利用したフィルタ処理を施すことにより、ぼけを除去する。ここで、ぼけの除去には、ぼけを完全に除去することの他に、本開示の技術が属する技術分野で一般的に許容されるぼけの低減であって、本開示の技術の趣旨に反しない程度のぼけの低減を含めた意味合いでの水平方向を指す。
 ぼけ補正部66によるぼけ補正処理の結果、分割画像92のぼけが補正された画像である補正画像92A、及び分割画像94のぼけが補正された画像である補正画像94Aが得られる。ぼけ補正部66は、補正画像92A及び94Aを示す補正画像データ96を、特徴点情報生成部68及びストレージ48へ出力する。
 一例として図7に示すように、特徴点情報生成部68は、ぼけ補正部66から出力された補正画像データ96をストレージ48から取得することで、補正画像データ96に含まれる補正画像92A及び94Aを取得する。特徴点情報生成部68は、補正画像92Aに基づいて第1特徴点情報92Bを生成する。第1特徴点情報92Bは、補正画像92Aのオーバラップ領域画像95Aに内に含まれる第1特徴点92Cの座標を示す情報である。特徴点情報生成部68は、例えば、補正画像データ96に対して画像処理(例えば、高周波成分抽出処理等)を施すことにより第1特徴点92Cを導出する。第1特徴点92Cの座標は、例えば、撮像対象分割領域3Aの4つの頂点のうちいずれか1つの頂点を基準にした座標である。第1特徴点92Cは、本開示の技術に係る「特徴点」の一例である。
 特徴点情報生成部68は、補正画像94Aに基づいて第2特徴点情報94Bを生成する。第2特徴点情報94Bは、補正画像94Aのオーバラップ領域画像95B内に含まれる第2特徴点94Cの座標を示す情報である。特徴点情報生成部68は、第1特徴点92Cと同様の手法により第2特徴点94Cを導出する。第2特徴点94Cは、本開示の技術に係る「特徴点」の一例である。特徴点情報生成部68は、第1特徴点情報92B及び第2特徴点情報94Bを合成画像生成部70に出力する。
 一例として図8に示すように、合成画像生成部70は、ストレージ48から補正画像92A及び94Aを取得する。また、合成画像生成部70は、特徴点情報生成部68から第1特徴点情報92B及び第2特徴点情報94Bを取得する。合成画像生成部70は、補正画像92A及び94Aに対して画像合成処理を行う。画像合成処理は、第1特徴点情報92B及び第2特徴点情報94Bに基づいて合成画像90を生成する処理である。合成画像生成部70は、補正画像92Aのオーバラップ領域画像95Aと、補正画像94Aのオーバラップ領域画像95Bとを、同じ特徴点92C及び94Cが一致するようにオーバラップさせた状態で合成することにより、合成画像90を生成する。
 補正画像92Aのオーバラップ領域画像95Aと、補正画像94Aのオーバラップ領域画像95Bとは互いに対応している。すなわち、オーバラップ領域画像95Aとオーバラップ領域画像95Bとは、共通するオーバラップ領域5を示している。ここで、補正画像92A及び補正画像94Aを一組としたとき、補正画像92Aのオーバラップ領域画像95Aには、レーザ光像80が含まれている。一方、補正画像94Aのオーバラップ領域画像95Bには、レーザ光像80が含まれていない。そこで、合成画像生成部70は、画像合成処理において、合成画像90におけるオーバラップ領域5を示す像としてオーバラップ領域画像95Bを用いて、合成画像90を生成する。その結果、合成画像90は、レーザ光像80が含まれていないオーバラップ領域画像95Bを有する。換言すれば、合成画像90のオーバラップ領域画像95Aから、レーザ光像80が除去されている。合成画像生成部70は、合成画像90を示す合成画像データ97を出力部72に出力する。
 出力部72は、合成画像データ97を外部へ出力する。図8に示す例では、出力部72は、送信機20に合成画像データ97を出力する。送信機20は、合成画像データ97により示される合成画像90を表示装置24に表示させる。
 次に、本実施形態に係る飛行撮像装置1の作用について図9を参照しながら説明する。図9には、本実施形態に係る撮像支援処理の流れの一例が示されている。図9に示す撮像支援処理の流れは、本開示の技術に係る「撮像支援方法」の一例である。
 図9に示す撮像支援処理では、先ず、ステップST10で、撮像制御部62は、レーザ光源43に対して照射指示信号43Aを出力する。これにより、撮像制御部62の制御下で、レーザ光源43から撮像対象分割領域3Aに対してレーザ光Lが照射される。ステップST10の処理が実行された後、撮像支援処理は、ステップST12に移行する。
 ステップST12で、撮像制御部62は、イメージセンサ36に対して第1撮像指示信号62Aを出力する。撮像制御部62の制御下でイメージセンサ36によって撮像対象分割領域3Aが撮像される。ステップST12の処理が実行された後、撮像支援処理は、ステップST14に移行する。
 ステップST14で、ステップST12において撮像装置30により撮像対象分割領域3Aが撮像されることにより得られた分割画像92が取得される。ステップST14の処理が実行された後、撮像支援処理は、ステップST16に移行する。
 ステップST16で、撮像制御部62は、ユーザが指定した枚数の分割画像92が取得されたか否かを判定する。ステップST16において、ユーザが指定した枚数に分割画像92が達していない場合には、判定が否定されて、撮像支援処理は、ステップST18に移行する。ステップST16において、ユーザが指定した枚数に分割画像92が達している場合には、判定が肯定されて、撮像支援処理は、ステップST20に移行する。
 ステップST18で、飛行体10は、送信機20から送信された飛行指示信号に基づいて次の位置に移動する。ステップST18における処理が実行された後、撮像支援処理は、ステップST12に移行する。
 ステップST12で、撮像制御部62は、イメージセンサ36に対して第2撮像指示信号62Bを出力する。撮像制御部62の制御下でイメージセンサ36によって撮像対象分割領域3Aが撮像される。ステップST12の処理が実行された後、撮像支援処理は、ステップST14に移行する。
 ステップST14で、ステップST12において撮像装置30により撮像対象分割領域3Aが撮像されることにより得られた分割画像94が取得される。ステップST14の処理が実行された後、撮像支援処理は、ステップST16に移行する。
 ステップST20で、ぼけ量算出部64は、ステップST12で得られた分割画像92及び94を示す対象画像データ91を取得する。ステップST20の処理が実行された後、撮像支援処理は、ステップST22に移行する。
 ステップST22で、ぼけ量算出部64は、ステップST20で取得した対象画像データ91により示される分割画像92及び94のぼけ量を算出する。具体的には、ぼけ量算出部64は、参照光基準情報82により示されるテーブル82Aから、分割画像92及び94の撮像条件に応じた合焦時のレーザ光像80の大きさを導出する。さらに、ぼけ量算出部64は、テーブル82Aから導出した合焦時のレーザ光像80の大きさと、実際の分割画像92及び94に含まれるレーザ光像80の大きさとを比較することにより、ぼけ量を算出する。ステップST22の処理が実行された後、撮像支援処理は、ステップST24に移行する。
 ステップST24で、ぼけ補正部66は、ステップST22でぼけ量算出部64により算出されたぼけ量に応じて、分割画像92及び94に対して、ぼけ補正処理を行う。ステップST24の処理が実行された後、撮像支援処理は、ステップST26に移行する。
 ステップST26で、特徴点情報生成部68は、ステップST24でぼけ補正された補正画像92A及び94Aに基づいて、第1特徴点情報92B及び第2特徴点情報94Bを生成する。ステップST26の処理が実行された後、撮像支援処理は、ステップST28に移行する。
 ステップST28で、合成画像生成部70は、ステップST26で生成された第1特徴点情報92B及び第2特徴点情報94Bに基づいて、補正画像92A及び94Aを合成することにより、合成画像90を生成する。ステップST28の処理が実行された後、撮像支援処理は、ステップST30に移行する。
 ステップST30で、出力部72は、ステップST28で生成された合成画像90を示す合成画像データ97を外部へ出力する。ステップST30の処理が実行された後、撮像支援処理は終了する。
 以上説明したように、本実施形態に係る飛行撮像装置1では、オーバラップ領域5を有する複数の分割領域3の各々において、レーザ光Lが分割領域3の一部に照射され、レーザ光Lを示すレーザ光像80を含む分割画像92及び94が分割領域3毎に取得される。オーバラップ領域画像95A及び95Bのぼけ量は、レーザ光像80の拡がりの度合いに依存している。そこで、本構成では、ぼけ量算出部64によって、レーザ光像80に基づいて分割画像92及び94に含まれるオーバラップ領域画像95A及び95Bのぼけ量が算出される。従って、本構成によれば、分割画像92及び94に含まれるオーバラップ領域画像95A及び95Bのぼけ量を精度よく算出することができる。例えば、分割領域3において、オーバラップ領域5以外の領域に照射されたレーザ光Lに基づいて分割画像92及び94のオーバラップ領域画像95A及び95Bのぼけ量が算出される場合と比較して、本構成では、分割画像92及び94に含まれるオーバラップ領域画像95A及び95Bのぼけ量を精度よく算出することができる。
 また、本実施形態に係る飛行撮像装置1では、ぼけ補正部66において、ぼけ量算出部64が算出したぼけ量に応じて、分割画像92及び94の各々に対して個別にぼけ補正を行っている。飛行撮像装置1に対する外乱(例えば、風の影響等)により、撮像条件を常に同一にすることは困難なので、ぼけ量は、分割画像92及び94で異なる場合がある。このため、ぼけ量に基づくぼけ補正も分割画像92及び94毎に行う必要がある。従って、本構成によれば、個々の分割画像92及び94に含まれるオーバラップ領域画像95A及び95Bのぼけを精度よく補正することができる。例えば、一の分割画像92のぼけ量に基づいて、他の分割画像94のぼけが補正される場合と比較して、個々の分割画像92及び94に含まれるオーバラップ領域画像95A及び95Bのぼけを精度よく補正することができる。
 また、本実施形態に係る飛行撮像装置1では、合成画像生成部70において、ぼけ補正が行われた複数の分割画像92及び94が合成されることによって合成画像90が生成される。ぼけ補正が行われることで、分割画像92及び94に含まれる特徴点を精度よく抽出することができる。従って、本構成によれば、極めて位置ずれが少ない合成画像90を生成することができる。例えば、ぼけ補正が行われずに複数の分割画像92及び94が合成される場合と比較して、位置ずれが少ない合成画像90を生成することができる。
 また、本実施形態に係る飛行撮像装置1では、ぼけ補正処理がされた後のオーバラップ領域画像95A及び95Bに含まれる第1特徴点92C及び第2特徴点94Cに基づいて、分割画像92及び94が合成される。ぼけ補正が行われていないオーバラップ領域画像95A及び95Bは、ぼけているので、第1特徴点92C及び第2特徴点94Cの抽出が困難な場合がある。そのため、ぼけ補正がされていないオーバラップ領域画像95A及び95Bを用いて複数の分割画像92及び94が合成されたとしても、位置ずれが少ない合成画像90が得られない虞がある。本構成では、ぼけ補正が行われたオーバラップ領域画像95A及び95Bに含まれる第1特徴点92C及び第2特徴点94Cに基づいて、分割画像92及び94を合成することにより、合成画像90が生成される。従って、本構成によれば、極めて位置ずれが少ない合成画像90を生成することができる。例えば、ぼけ補正が行われていないオーバラップ領域画像95A及び95Bの第1特徴点92C及び第2特徴点94Cに基づいて分割画像92及び94が合成される場合と比較して、位置ずれが少ない合成画像90を生成することができる。
 また、本実施形態に係る飛行撮像装置1では、対応するオーバラップ領域画像95A及び95Bを含む分割画像92及び94を一組とした場合、一組の分割画像92及び94の内の一方におけるオーバラップ領域画像95Aにレーザ光像80が含まれている。合成画像90は、一組の分割画像92及び94の内の分割画像94に含まれるオーバラップ領域画像95Bを含む。つまり、分割画像92及び94は、レーザ光像80が含まれないオーバラップ領域画像95Bを用いて合成される。従って、本構成によれば、合成画像90のオーバラップ領域5に該当する部分にレーザ光像80が写り込まない。
 また、本実施形態に係る飛行撮像装置1では、参照光としてレーザ光Lが用いられ、オーバラップ領域画像95A及び95Bに含まれる参照像としてレーザ光像80が用いられる。指向性光であるレーザ光Lは、非指向性の光に比べ、直進性が高いので、ぼけ量算出部64においてレーザ光像80の拡がりの度合いを特定し易い。従って、本構成によれば、ぼけ量を精度よく算出することができる。例えば、参照光が、非指向性の光である場合と比較して、参照像が広がりにくく、ぼけ量を精度よく算出することができる。
 また、本実施形態に係る飛行撮像装置1では、ぼけ量は、レーザ光像80の大きさに基づいて算出される。レーザ光像80の大きさは、ぼけによる像の拡がりを反映している。従って、本構成によれば、ぼけ量を精度よく算出することができる。例えば、参照像が、非指向性の模様を示す像であり、参照像の大きさからでなく模様からぼけ量が算出される場合と比較して、ぼけ量を精度よく算出することができる。
 また、本実施形態に係る飛行撮像装置1では、レーザ光Lは、オーバラップ領域5において、予め定められた位置に照射される。これにより、分割画像92及び94内におけるレーザ光像80の位置が予め定まるので、レーザ光像80が正確に特定される。ぼけ量は、レーザ光像80に基づいて算出される。従って、本構成によれば、レーザ光像80が正確に特定されるので、ぼけ量を精度よく算出することができる。例えば、参照光が、分割画像毎に異なる位置に照射される場合と比較して、レーザ光像80が正確に特定されるので、ぼけ量を精度よく算出することができる。また、例えば、参照光が分割画像毎に異なる位置に照射される場合と比較して、レーザ光像80の位置が予め定められているので、ぼけ量を容易に算出することができる。
 また、本実施形態に係る飛行撮像装置1では、複数の分割領域3は、撮像装置30の画角によって予め定められている。これにより、分割画像92及び94の大きさが一定になる。従って、本構成によれば、分割画像92及び94の大きさが一定になるから、分割画像92及び94を合成する処理がし易くなる。
 また、本実施形態では、補正画像94Aに写るレーザ光像80を目立たなくさせる処理、例えば、周囲の画素の画素値による補間処理等を行ってもよい。
 また、本実施形態では、ぼけ量算出部64が算出したぼけ量が予め設定された閾値未満であった場合は、ぼけ補正部66によるぼけ補正を行わなくてもよい。閾値には、特徴点情報生成部68において特徴点92Cまたは94Cを抽出することが困難となるぼけ量が設定される。特徴点92Cまたは94Cを抽出することが困難となるぼけ量とは、例えば50%以上の確率で、合成画像90を生成するために十分な量の特徴点92Cまたは94Cが抽出されなくなるぼけ量である。こうすれば、無駄なぼけ補正を行わなくて済む。
 (第1変形例)
 上記第1実施形態では、補正画像92Aにおいて、オーバラップ領域画像95Aの全体に含まれる第1特徴点92Cが抽出される形態例を挙げて説明したが、本開示の技術は、これに限定されない。本第1変形例では、オーバラップ領域画像95Aにおいて、レーザ光像80以外の領域95Cに含まれる第1特徴点92Cを抽出する。
 一例として図10に示すように、特徴点情報生成部68は、ストレージ48に記憶された補正画像データ96を取得することで、補正画像92Aを取得する。特徴点情報生成部68は、補正画像92Aに基づいて第1特徴点情報92Bを生成する。第1特徴点情報92Bは、補正画像92A内に含まれる第1特徴点92Cの座標を示す情報である。
 特徴点情報生成部68は、補正画像92Aにおいて、オーバラップ領域画像95Aのレーザ光像80以外の領域95Cに含まれる第1特徴点92Cを抽出する。換言すれば、特徴点情報生成部68は、オーバラップ領域画像95Aにおいて、レーザ光像80を特定し、レーザ光像80を除いた残りの領域95Cに対して、第1特徴点92Cを抽出する。補正画像92Aにおけるレーザ光像80は、例えば、AI方式又はパターンマッチング方式の画像解析によって特定される。領域95Cは、本開示の技術に係る「参照像以外の領域」の一例である。
 以上説明したように、本第1変形例に係る飛行撮像装置1では、第1特徴点92Cは、オーバラップ領域画像95Aにおいて、レーザ光像80以外の領域95Cに含まれる。ここで、分割画像92のオーバラップ領域画像95Aにはレーザ光像80が含まれており、分割画像94のオーバラップ領域画像95Bにはレーザ光像80が含まれない。そのため、分割画像92と分割画像94との間でレーザ光像80の位置に対応する領域から対応関係にある特徴点を抽出することは困難である。なぜならば、オーバラップ領域画像95Aにおいてレーザ光像80が照射されている部分と、オーバラップ領域画像95Bにおいてレーザ光像80が照射されていない部分の写り方が異なるからである。
 本構成では、オーバラップ領域画像95Aにおけるレーザ光像80以外の領域95Cに含まれる第1特徴点92Cに基づいて分割画像92が合成される。分割画像92のオーバラップ領域画像95Aにおけるレーザ光像80以外の領域95Cからは、レーザ光像80の位置に対応する領域よりも第1特徴点92Cを精度良く抽出することが可能となる。第1特徴点92Cが精度良く抽出されるということは、第1特徴点92Cを用いて分割画像92を合成する精度も高まる。従って、本構成によれば、さらに位置ずれが少ない合成画像90を生成することができる。例えば、レーザ光像80の領域も含めて第1特徴点92Cが抽出される場合と比較して、位置ずれが少ない合成画像90を生成することができる。
 <第2実施形態>
 上記第1実施形態では、ぼけ補正がされた後に合成画像90が生成される形態例を挙げて説明したが、本開示の技術は、これに限定されない。ぼけ補正には相応の処理時間が掛かるため、ぼけ補正をしてから合成画像90を生成すると、合成画像90の表示に時間が掛かる。そこで、本第2実施形態では、合成画像90を生成した後に、ぼけ補正を行う。
 なお、以下では、ぼけ量算出部64においてぼけ量の算出が既に終了しており、かつ、算出したぼけ量が予め設定された閾値範囲内であるとして説明を行う。この場合の閾値範囲には、特徴点情報生成部68における特徴点92Cまたは94Cの抽出には支障はないが、合成画像90の画質向上のためにぼけ補正を行う必要があるぼけ量の範囲が設定される。
 一例として図11に示すように、特徴点情報生成部68は、ストレージ48に記憶された対象画像データ91に含まれる分割画像92及び94を取得する。特徴点情報生成部68は、分割画像92において、オーバラップ領域画像95Aに含まれる第1特徴点92Cを抽出する。特徴点情報生成部68は、抽出した第1特徴点92Cの座標を示す第1特徴点情報92Bを生成する。
 特徴点情報生成部68は、分割画像94において、オーバラップ領域画像95Bに含まれる第2特徴点94Cを抽出する。特徴点情報生成部68は、抽出した第2特徴点94Cの座標を示す第2特徴点情報94Bを生成する。特徴点情報生成部68は、第1特徴点情報92B及び第2特徴点情報94Bを合成画像生成部70に出力する。
 一例として図12に示すように、合成画像生成部70は、ストレージ48から分割画像92及び94を取得する。また、合成画像生成部70は、特徴点情報生成部68から第1特徴点情報92B及び第2特徴点情報94Bを取得する。合成画像生成部70は、分割画像92及び94に対して画像合成処理を行う。画像合成処理は、第1特徴点情報92B及び第2特徴点情報94Bに基づいて合成画像90を生成する処理である。合成画像生成部70は、分割画像92のオーバラップ領域画像95Aと、分割画像94のオーバラップ領域画像95Bとを、同じ特徴点92C及び94Cが一致するようにオーバラップさせた状態で合成することにより、合成画像90を生成する。合成画像生成部70は、合成画像90を示す合成画像データ97をぼけ補正部66及び出力部72に出力する。出力部72は、合成画像データ97を送信機20に送信し、合成画像90を表示装置24に表示させる。
 一例として図13に示すように、ぼけ補正部66は、ぼけ量算出部64(図4及び図5)において求められたぼけ量に応じて、合成画像90に対してぼけ補正を行う。具体的には、ぼけ補正部66は、ストレージ48から合成画像90及び第1ぼけ量情報84を取得する。ぼけ補正部66は、第1ぼけ量情報84により示されるぼけ量に応じて、合成画像90の内の分割画像92に対応した領域に対してぼけ補正を行う。また、ぼけ補正部66は、ストレージ48から第2ぼけ量情報86を取得する。ぼけ補正部66は、第2ぼけ量情報86により示されるぼけ量に応じて、合成画像90の内の分割画像94に対応した領域に対してぼけ補正を行う。第2ぼけ量情報86により示されるぼけ量に応じたぼけ補正を行う領域は、オーバラップ領域画像95Bに対応した領域も含む。ぼけ補正部66は、合成画像90のぼけが補正された画像である補正合成画像90Cを示す補正画像データ96を出力部72に出力する。出力部72は、補正画像データ96を送信機20に送信し、合成画像90に代えて補正合成画像90Cを表示装置24に表示させる。
 以上説明したように、本第2実施形態に係る飛行撮像装置1では、複数の分割領域3について得られた複数の分割画像92及び94を合成することで合成画像90を生成し、合成画像90に対して、分割画像92及び94に対応した領域毎に得られたぼけ量を用いてぼけ補正を行う。処理時間が掛かるぼけ補正を後回しにして合成画像90を生成することで、時間を掛けずに合成画像90をユーザに供することができる。
 (第2変形例)
 上記各実施形態では、合成画像90が2次元画像90Aである形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第2変形例では、合成画像90は、3次元画像90Bである。
 一例として図14に示すように、飛行撮像装置1は、壁面2Aの複数の分割領域3を順次に撮像する。また、飛行撮像装置1は、壁面2Aに連続した壁面2Bにおいて、複数の分割領域3を撮像する。複数の分割領域3には、レーザ光Lが照射される。複数の分割領域3が撮像装置30によって順次に撮像されることで複数の分割画像92、94及び98が得られる。複数の分割画像92、94及び98が合成されることにより合成画像90が生成される。合成画像90は、撮像対象2を示す立体的な画像である3次元画像90Bである。
 合成画像90の生成において、ぼけ量算出部64(図4及び図5参照)は、分割画像92、94及び98に対してぼけ量を算出する。ぼけ補正部66(図6参照)は、分割画像92、94及び98毎にぼけ補正処理を行う。これにより、分割画像92、94及び98のぼけが補正される。そして、合成画像生成部70(図8参照)は、特徴点情報生成部68(図6参照)によって生成された特徴点情報に基づいて、分割画像92、94及び98に対して、画像合成処理を行う。この結果、合成画像90が生成される。
 (第3変形例)
 なお、上記各実施形態では、飛行撮像装置1のプロセッサ46が、ストレージ48に記憶された対象画像データ91に基づいて、合成画像90を生成する形態例を挙げて説明したが、本開示の技術はこれに限定されない。一例として図15に示すように、飛行撮像装置1と有線接続又は無線接続により通信可能に接続された外部装置100のプロセッサ110に、飛行撮像装置1のプロセッサ46から複数の対象画像データ91を入力し、外部装置100のプロセッサ110が、複数の対象画像データ91に基づいて合成画像90を生成してもよい。外部装置100は、本開示の技術に係る「撮像支援装置」の一例であり、プロセッサ110は、本開示の技術に係る「プロセッサ」の一例である。
 この場合、橋梁等の撮像対象2がある現場では分割画像92等の撮像に専念し、外部装置100が設置された土木事務所等の拠点に戻ったときに合成画像90を生成する等、分割画像92等の撮像と合成画像90の生成等の処理を適宜分業することができる。
 なお、上記第1実施形態において、オーバラップ領域画像95A及び95Bに対してのみぼけ補正を施して合成画像90を生成した後、オーバラップ領域画像95B以外の合成画像90の領域に対してぼけ補正を施してもよい。オーバラップ領域画像95A及び95Bに対してのみぼけ補正を施して合成画像90を生成するのは現場で行い、オーバラップ領域画像95B以外の合成画像90の領域に対してぼけ補正を施すのは拠点に戻ってから外部装置100で行ってもよい。
 また、上記各実施形態では、光軸OAが垂直な状態で撮像される形態例を挙げて説明したが、本開示の技術は、これに限定されない。例えば、合成画像90の生成に用いられる複数の分割画像92及び94には、射影変換が施された画像が含まれていてもよい。射影変換が施された画像とは、例えば、撮像装置30の姿勢(例えば、俯角又は仰角)に起因して台形等に歪んだ画像領域を含む画像が補正された画像を指す。射影変換は、壁面2Aに対して撮像装置30の姿勢が傾いた状態(すなわち、壁面2Aに対して撮像装置30の光軸OAが傾いた状態)で撮像装置30によって壁面2Aが撮像されることによって得られた画像に対して行われる処理である。
 俯角又は仰角に起因して生じる画像の歪みは、射影変換が行われることによって補正される。すなわち、壁面2Aに対して撮像装置30の姿勢が傾いた状態で撮像装置30によって撮像が行われることで得られた画像は、射影変換が行われることで、あたかも壁面2Aに正対した位置から(すなわち、光軸OAが垂直な状態で)撮像が行われることによって得られた画像のように変換される。
 また、上記各実施形態では、参照光としてレーザ光Lが分割領域3に照射され、分割画像92に参照像としてレーザ光像80が含まれる形態例を挙げて説明したが、本開示の技術は、これに限定されない。レーザ光Lに代えて、LED光源又はSLD光源等から照射される指向性を有する光が照射され、分割画像92及び94に指向性光の像が含まれる態様であってもよい。
 また、上記各実施形態では、参照光としてレーザ光像80が点像である形態例を挙げて説明したが、本開示の技術は、これに限定されない。レーザ光像80は、点像以外の矩形、若しくは三角形の像、又は模様であってもよい。
 また、上記各実施形態では、飛行撮像装置1が、送信機20からの飛行指示信号及び撮像開始信号に基づいて飛行及び撮像を行う形態例を挙げて説明したが、本開示の技術は、これに限定されない。例えば、飛行撮像装置1は、予め定められた飛行計画に従って飛行及び撮像を行う態様であってもよい。
 また、上記各実施形態では、撮像装置30が飛行体10に搭載されている例が挙げられているが、撮像装置30は、各種移動体(例えば、ゴンドラ、自動搬送ロボット、無人搬送車、又は高所点検車)等に搭載されてもよい。また、移動体は、人物であってもよい。ここで、人物とは、例えば、土地及び/又はインフラストラクチャ等に対する測量及び/又は点検を行う作業員を指す。なお、移動体が人物である場合、撮像装置30が搭載されるとは、人物によって撮像装置30(例えば、カメラ機能付き携帯型端末)が把持される、及び/又は人物が身に付ける装備(例えば、ヘルメット、又は作業着等)に撮像装置30が取り付けられる態様を含む
 また、上記各実施形態では、プロセッサ46を例示したが、プロセッサ46に代えて、又は、プロセッサ46と共に、他の少なくとも1つのCPU、少なくとも1つのGPU、及び/又は、少なくとも1つのTPUを用いるようにしてもよい。
 また、上記各実施形態では、ストレージ48に撮像支援処理プログラム60が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、撮像支援処理プログラム60がSSD又はUSBメモリなどの可搬型の非一時的なコンピュータ読取可能な記憶媒体(以下、単に「非一時的記憶媒体」と称する)に記憶されていてもよい。非一時的記憶媒体に記憶されている撮像支援処理プログラム60は、撮像装置30のコンピュータ32にインストールされ、プロセッサ46は、撮像支援処理プログラム60に従って処理を実行する。
 また、ネットワークを介して撮像装置30に接続される他のコンピュータ又はサーバ装置等の記憶装置に撮像支援処理プログラム60を記憶させておき、撮像装置30の要求に応じて撮像支援処理プログラム60がダウンロードされ、コンピュータ32にインストールされてもよい。
 また、撮像装置30に接続される他のコンピュータ又はサーバ装置等の記憶装置、又はストレージ48に撮像支援処理プログラム60の全てを記憶させておく必要はなく、撮像支援処理プログラム60の一部を記憶させておいてもよい。
 また、撮像装置30には、コンピュータ32が内蔵されているが、本開示の技術はこれに限定されず、例えば、コンピュータ32が撮像装置30の外部に設けられるようにしてもよい。
 また、上記各実施形態では、プロセッサ46、ストレージ48、及びRAM50を含むコンピュータ32が例示されているが、本開示の技術はこれに限定されず、コンピュータ32に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータ32に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 また、上記各実施形態で説明した各種処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、各種処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電子回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで各種処理を実行する。
 各種処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、各種処理を実行するハードウェア資源は1つのプロセッサであってもよい。
 1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、各種処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、各種処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、各種処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電子回路を用いることができる。また、上記の処理はあくまでも一例である。したがって、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
 2022年4月5日に出願された日本国特許出願2022-062894号の開示は、その全体が参照により本明細書に取り込まれる。
 以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
 プロセッサを備え、
 上記プロセッサは、撮像対象領域が分割されることで得られる複数の分割領域であって、上記分割領域間の一部がオーバラップしている領域であるオーバラップ領域を有する上記複数の分割領域の各々において、上記分割領域の上記オーバラップ領域に対して光源に参照光を照射させ、
 上記オーバラップ領域に上記参照光が照射されている状態の上記分割領域を撮像装置に撮像させることで、上記参照光を示す参照像を含む分割画像を上記分割領域毎に取得し、
 上記分割領域毎に、上記分割画像内での上記参照像に基づいて、上記オーバラップ領域を示すオーバラップ領域画像のぼけ量を算出する
 撮像支援装置。
(付記2)
 上記プロセッサは、上記ぼけ量に応じて、複数の上記分割画像の各々に対して個別にぼけ補正を行う
 付記1に記載の撮像支援装置。
(付記3)
 上記プロセッサは、上記ぼけ補正を行った複数の上記分割画像を合成することで合成画像を生成する
 付記2に記載の撮像支援装置。
(付記4)
 上記プロセッサは、上記ぼけ補正後の上記オーバラップ領域画像に含まれる特徴点に基づいて、複数の上記分割画像を合成する
 付記3に記載の撮像支援装置。
(付記5)
 上記特徴点は、上記オーバラップ領域画像において、上記参照像以外の領域に含まれる
 付記4に記載の撮像支援装置。
(付記6)
 上記プロセッサは、
 上記複数の分割領域について得られた複数の上記分割画像を合成することで合成画像を生成し、
 上記合成画像に対して、上記分割領域毎に得られた上記ぼけ量を用いてぼけ補正を行う
 付記1に記載の撮像支援装置。
(付記7)
 対応する上記オーバラップ領域画像を含む複数の上記分割画像を一組とした場合、上記一組の分割画像の内の一方における上記オーバラップ領域画像に上記参照像が含まれ、
 上記合成画像は、上記一組の分割画像の内の他方に含まれる上記オーバラップ領域画像を含む
 付記3に記載の撮像支援装置。
(付記8)
 上記参照光は、指向性光であり、
 上記参照像は、上記指向性光の像である
 付記1から付記7の何れか一つに記載の撮像支援装置。
(付記9)
 上記ぼけ量は、上記参照像の大きさに基づいて算出される
 付記1から付記8の何れか一つに記載の撮像支援装置。
(付記10)
 上記参照光は、上記オーバラップ領域画像において、予め定められた位置に照射される
 付記1から付記9の何れか一つに記載の撮像支援装置。
(付記11)
 上記複数の分割領域の各々は、上記撮像装置の画角によって予め定められている
 付記1から付記10の何れか一つに記載の撮像支援装置。
(付記12)
 付記1から付記11の何れか一つに記載の撮像支援装置を備える
 移動体。

Claims (14)

  1.  プロセッサを備え、
     前記プロセッサは、撮像対象領域が分割されることで得られる複数の分割領域であって、前記分割領域間の一部がオーバラップしている領域であるオーバラップ領域を有する前記複数の分割領域の各々において、前記分割領域の前記オーバラップ領域に対して光源に参照光を照射させ、
     前記オーバラップ領域に前記参照光が照射されている状態の前記分割領域を撮像装置に撮像させることで、前記参照光を示す参照像を含む分割画像を前記分割領域毎に取得し、
     前記分割領域毎に、前記分割画像内での前記参照像に基づいて、前記オーバラップ領域を示すオーバラップ領域画像のぼけ量を算出する
     撮像支援装置。
  2.  前記プロセッサは、前記ぼけ量に応じて、複数の前記分割画像の各々に対して個別にぼけ補正を行う
     請求項1に記載の撮像支援装置。
  3.  前記プロセッサは、前記ぼけ補正を行った複数の前記分割画像を合成することで合成画像を生成する
     請求項2に記載の撮像支援装置。
  4.  前記プロセッサは、前記ぼけ補正後の前記オーバラップ領域画像に含まれる特徴点に基づいて、複数の前記分割画像を合成する
     請求項3に記載の撮像支援装置。
  5.  前記特徴点は、前記オーバラップ領域画像において、前記参照像以外の領域に含まれる
     請求項4に記載の撮像支援装置。
  6.  前記プロセッサは、
     前記複数の分割領域について得られた複数の前記分割画像を合成することで合成画像を生成し、
     前記合成画像に対して、前記分割領域毎に得られた前記ぼけ量を用いてぼけ補正を行う
     請求項1に記載の撮像支援装置。
  7.  対応する前記オーバラップ領域画像を含む複数の前記分割画像を一組とした場合、前記一組の分割画像の内の一方における前記オーバラップ領域画像に前記参照像が含まれ、
     前記合成画像は、前記一組の分割画像の内の他方に含まれる前記オーバラップ領域画像を含む
     請求項3に記載の撮像支援装置。
  8.  前記参照光は、指向性光であり、
     前記参照像は、前記指向性光の像である
     請求項1に記載の撮像支援装置。
  9.  前記ぼけ量は、前記参照像の大きさに基づいて算出される
     請求項1に記載の撮像支援装置。
  10.  前記参照光は、前記オーバラップ領域画像において、予め定められた位置に照射される
     請求項1に記載の撮像支援装置。
  11.  前記複数の分割領域の各々は、前記撮像装置の画角によって予め定められている
     請求項1に記載の撮像支援装置。
  12.  請求項1から請求項11の何れか一項に記載の撮像支援装置を備える
     移動体。
  13.  撮像対象領域が分割されることで得られる複数の分割領域であって、前記分割領域間の一部がオーバラップしている領域であるオーバラップ領域を有する前記複数の分割領域の各々において、前記分割領域の前記オーバラップ領域に対して光源に参照光を照射させること、
     前記オーバラップ領域に前記参照光が照射されている状態の前記分割領域を撮像装置に撮像させることで、前記参照光を示す参照像を含む分割画像を前記分割領域毎に取得すること、及び、
     前記分割領域毎に、前記分割画像内での前記参照像に基づいて、前記オーバラップ領域を示すオーバラップ領域画像のぼけ量を算出すること
     を含む撮像支援方法。
  14.  コンピュータに、
     撮像対象領域が分割されることで得られる複数の分割領域であって、前記分割領域間の一部がオーバラップしている領域であるオーバラップ領域を有する前記複数の分割領域の各々において、前記分割領域の前記オーバラップ領域に対して光源に参照光を照射させること、
     前記オーバラップ領域に前記参照光が照射されている状態の前記分割領域を撮像装置に撮像させることで、前記参照光を示す参照像を含む分割画像を前記分割領域毎に取得すること、及び、
     前記分割領域毎に、前記分割画像内での前記参照像に基づいて、前記オーバラップ領域を示すオーバラップ領域画像のぼけ量を算出すること
     を含む処理を実行させるためのプログラム。
PCT/JP2023/012704 2022-04-05 2023-03-28 撮像支援装置、移動体、撮像支援方法、及びプログラム WO2023195394A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022062894 2022-04-05
JP2022-062894 2022-04-05

Publications (1)

Publication Number Publication Date
WO2023195394A1 true WO2023195394A1 (ja) 2023-10-12

Family

ID=88242880

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/012704 WO2023195394A1 (ja) 2022-04-05 2023-03-28 撮像支援装置、移動体、撮像支援方法、及びプログラム

Country Status (1)

Country Link
WO (1) WO2023195394A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012083233A (ja) * 2010-10-12 2012-04-26 Canon Inc 三次元形状測定装置、三次元形状測定方法及びコンピュータプログラム
JP2015132546A (ja) * 2014-01-14 2015-07-23 ソニー株式会社 情報処理装置および方法
WO2016203844A1 (ja) * 2015-06-16 2016-12-22 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012083233A (ja) * 2010-10-12 2012-04-26 Canon Inc 三次元形状測定装置、三次元形状測定方法及びコンピュータプログラム
JP2015132546A (ja) * 2014-01-14 2015-07-23 ソニー株式会社 情報処理装置および方法
WO2016203844A1 (ja) * 2015-06-16 2016-12-22 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Similar Documents

Publication Publication Date Title
JP6484729B2 (ja) 無人航空機の奥行き画像の取得方法、取得装置及び無人航空機
US10237532B2 (en) Scan colorization with an uncalibrated camera
US10275661B2 (en) Image processing apparatus, image processing method, and computer program product
JP6363863B2 (ja) 情報処理装置および情報処理方法
JP6733267B2 (ja) 情報処理プログラム、情報処理方法および情報処理装置
EP3529978B1 (en) An image synthesis system
JP2016057108A (ja) 演算装置、演算システム、演算方法およびプログラム
EP3358480B1 (en) Drawing creation device and drawing creation method
US9704255B2 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
CN107517346B (zh) 基于结构光的拍照方法、装置及移动设备
CN113870343A (zh) 相对位姿标定方法、装置、计算机设备和存储介质
JPWO2015068470A1 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
US20220026208A1 (en) Surveying system, surveying method, and surveying program
JP2018205264A (ja) 画像処理装置、画像処理方法および画像処理用プログラム
JP4852006B2 (ja) 空間情報データベース生成装置及び空間情報データベース生成プログラム
CN113052974B (zh) 物体三维表面的重建方法和装置
WO2023195394A1 (ja) 撮像支援装置、移動体、撮像支援方法、及びプログラム
EP3529977B1 (en) A bundle adjustment system
JP6969739B2 (ja) 位置情報取得システム、位置情報取得方法及びプログラム
CN112304250B (zh) 一种移动物体之间的三维匹配设备及方法
JP6685814B2 (ja) 撮像装置およびその制御方法
WO2023176078A1 (ja) 画像処理装置、画像処理方法、及びプログラム
CN113593026A (zh) 车道线标注辅助地图生成方法、装置和计算机设备
KR20220078447A (ko) 저밀도 영역을 복원하는 이미지 복원 장치의 동작 방법
JP2021022846A (ja) 点検方法、点検システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23784683

Country of ref document: EP

Kind code of ref document: A1