WO2023053698A1 - 撮影制御装置、撮影制御方法、及び撮影制御プログラム - Google Patents

撮影制御装置、撮影制御方法、及び撮影制御プログラム Download PDF

Info

Publication number
WO2023053698A1
WO2023053698A1 PCT/JP2022/028856 JP2022028856W WO2023053698A1 WO 2023053698 A1 WO2023053698 A1 WO 2023053698A1 JP 2022028856 W JP2022028856 W JP 2022028856W WO 2023053698 A1 WO2023053698 A1 WO 2023053698A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
photographing
image information
control device
image
Prior art date
Application number
PCT/JP2022/028856
Other languages
English (en)
French (fr)
Inventor
雄大 阿部
哲郎 芦田
篤 小野田
智大 島田
森人 二関
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2023550413A priority Critical patent/JPWO2023053698A1/ja
Publication of WO2023053698A1 publication Critical patent/WO2023053698A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/07Roll-film cameras having more than one objective

Definitions

  • the present invention relates to an imaging control device, an imaging control method, and an imaging control program.
  • Patent Document 1 discloses a camera control system having a plurality of cameras.
  • a plurality of cameras have shooting control means capable of controlling shooting states.
  • At least one of the photographing control means of the plurality of cameras is manually controllable from the outside of the camera, and the camera control system determines the photographing states of the remaining cameras based on information obtained from the manually controlled cameras. It is characterized by controlling.
  • Patent Document 2 describes a camera position detection method.
  • a camera position detection method uses a plurality of cameras, a panoramic camera, and a data processing device, and obtains the positional relationship of the cameras from images taken from the plurality of cameras and the panoramic camera.
  • Each of the cameras has a drive mechanism that controls the operation of the camera.
  • a panorama camera captures images of the plurality of cameras.
  • the data processing device controls the plurality of cameras and the panorama camera, inputs the captured images of each camera, and performs data processing.
  • Patent Document 3 describes an imaging apparatus having an imaging target installation area for setting an imaging target and a plurality of imaging devices for imaging different sides of the imaging target.
  • a plurality of imaging devices are arranged on the communication path so as to image the sides of the imaging target from a plurality of directions.
  • the imaging apparatus automatically controls pan, tilt, and focus so that when one camera tracks an object to be photographed, the remaining cameras also track the object to be photographed.
  • Patent Document 4 describes an image processing device that is communicably connected to a plurality of cameras, performs image synthesis processing on a plurality of captured images acquired from the plurality of cameras, and outputs a panoramic synthesized image.
  • the image processing apparatus includes a reference camera determining section, an imaging condition acquiring section, an imaging condition setting section, and an image synthesizing section.
  • a reference camera determination unit determines one of the plurality of cameras as a reference camera.
  • the imaging condition acquisition unit acquires imaging conditions related to exposure and white balance set in the reference camera.
  • the image capturing condition setting unit sends an image capturing condition setting command relating to exposure and white balance to the cameras other than the reference camera among the plurality of cameras, based on the image capturing conditions of the reference camera.
  • the image synthesizing unit performs image synthesizing processing on the plurality of captured images acquired from the plurality of cameras, and outputs the panoramic synthesized image.
  • Patent Document 5 describes an automatic photographing system.
  • the automatic photographing system is characterized by comprising a photographing camera, background storage means, detection means, extraction means, and photographing control means.
  • a photographing camera is installed at a predetermined position and photographs a subject.
  • the background storage means stores a background image of a range that can be photographed using the photographing camera at the predetermined position.
  • the detection means detects at least a Detects when part of the subject enters.
  • the extraction means extracts a part to be imaged from the subject detected by the detection means.
  • the photographing control means controls the photographing camera so that the part of the subject to be photographed falls within a desired range within the photographed image of the photographing camera.
  • JP-A-2000-083246 Japanese Patent Application Laid-Open No. 2007-327750 Japanese Patent Application Laid-Open No. 2006-086671 JP 2016-208306 A JP 2005-099164 A
  • An imaging control device of one aspect disclosed includes a processor and a memory, wherein the processor stores first image information, which is information about an image captured in a reference state by any one of a plurality of imaging devices; Based on second image information, which is information about an image captured by any one of the plurality of imaging devices in a non-reference state, any one of the plurality of imaging devices is controlled.
  • a photographing control device of one aspect disclosed includes a processor and a memory, and the processor stores a first image which is information about an image photographed in a reference state by another photographing device different from the plurality of photographing devices. Any one of the plurality of photographing devices is controlled based on the information and the second image information, which is information regarding an image photographed by the other photographing device in a non-reference state.
  • the photographing control method controls a plurality of photographing devices, wherein first image information is information regarding an image photographed in a reference state by one of the plurality of photographing devices. and second image information, which is information about an image captured by any one of the plurality of imaging devices in a non-reference state, to control one of the plurality of imaging devices.
  • a disclosed imaging control method of one aspect is a imaging control method for controlling a plurality of imaging devices, and is information about an image captured in a reference state by another imaging device different from the plurality of imaging devices. Based on the first image information and the second image information, which is information about an image captured by the other imaging device in a non-reference state, any one of the plurality of imaging devices is controlled.
  • An imaging control program of one aspect disclosed is an imaging control program for controlling a plurality of imaging devices, wherein a processor stores information about an image captured in a reference state by one of the plurality of imaging devices. executing a step of controlling any one of the plurality of photographing devices based on the first image information and second image information that is information regarding an image photographed by one of the plurality of photographing devices in a non-reference state; It is a thing to let you.
  • An imaging control program of one aspect disclosed is an imaging control program for controlling a plurality of imaging devices, wherein a processor is provided with an image captured in a reference state by another imaging device different from the plurality of imaging devices. a step of controlling any one of the plurality of photographing devices based on first image information, which is information, and second image information, which is information regarding an image photographed by the other photographing device in a non-reference state; It is something that makes you execute.
  • FIG. 1 is a diagram showing a schematic configuration of an imaging system 100 including an imaging control device 5 that is an embodiment of an imaging control device of the present invention
  • FIG. FIG. 2 is a schematic diagram showing an example in which the photography system 100 is applied to a photography studio
  • 3 is a diagram showing an example of an image based on image information photographed by the photographing device 1c of FIG. 2
  • FIG. 3 is a diagram showing an example of an image based on image information photographed by the photographing device 1c of FIG. 2
  • FIG. 1 is a schematic diagram showing an example in which the imaging system 100 is applied to an event site
  • FIG. FIG. 6 is a schematic diagram showing a state in which the arrangement pattern of the person H3 has changed in FIG.
  • FIG. 1 is a diagram showing a schematic configuration of an imaging system 100 including an imaging control device 5, which is an embodiment of the imaging control device of the present invention.
  • a photographing system 100 includes a plurality of photographing devices 1 for automatically photographing, a photographing device 2 for manually photographing, a network 3 such as the Internet or a LAN (Local Area Network), an image storage server 4, and photographing control.
  • the plurality of imaging devices 1 includes five imaging devices: imaging device 1a, imaging device 1b, imaging device 1c, imaging device 1d, and imaging device 1e.
  • the photographing device 2 may be omitted.
  • the photographing device 1 and the photographing device 2 are arranged, for example, at an event site where an event such as a concert is held, or at a photographing studio.
  • the five photographing devices 1 and 2 are arranged at different positions in the same installation place, and configured to photograph a subject at the installation place from different directions.
  • the imaging device 1 and the imaging device 2 each include an imaging device, an image processing circuit, and a communication interface connectable to the network 3 .
  • the image processing circuit generates image data by processing a captured image signal obtained by capturing an image of a subject with an image sensor.
  • the photographing device 1 and the photographing device 2 are each configured by, for example, a digital camera or a smartphone.
  • the image data generated by the imaging devices 1 and 2 and the information associated therewith are also referred to as image information captured by the imaging devices 1 and 2, respectively.
  • the image information generated by each of the imaging devices 1 and 2 includes identification information and imaging setting information of the imaging device that generated the image data. It is also possible to recognize the number of subjects included in the image or the types of the subjects based on the image information.
  • the shooting setting information includes an exposure value, shooting mode, zoom magnification, shooting interval for continuous shooting, shooting direction (pan/tilt angle), and the like.
  • Shooting modes include a normal mode, a wide dynamic range mode, a plurality of image processing modes, and the like.
  • the normal mode is a mode in which the dynamic range is used as a reference value.
  • the wide dynamic range mode is a mode that makes the dynamic range wider than the reference value.
  • the image processing mode is a mode in which at least one of color and gradation is different when image processing is performed.
  • the imaging device 1 and the imaging device 2 each transmit the generated image information to the image storage server 4 via the network 3 .
  • the image storage server 4 includes a processor, a communication interface connectable to the network 3, and a storage device such as an SSD (Solid State Drive) or HDD (Hard Disk Drive).
  • This storage device may be a network storage device connected to the network 3 .
  • the processor of the image storage server 4 acquires the image information transmitted from the imaging devices 1 and 2 and stores the acquired image information in the storage device.
  • the imaging control device 5 controls the imaging device 1 based on the image information stored in the storage device of the image storage server 4 .
  • the parameters of the imaging device 1 controlled by the imaging control device 5 include imaging conditions of the imaging device 1 .
  • the shooting conditions include at least one of shooting interval, angle of view (zoom magnification), shooting direction (pan/tilt angle), exposure value, color, gradation, dynamic range, and shooting mode.
  • Shooting modes include single shot, continuous shot, electronic shutter, electronic front curtain shutter, mechanical shutter, and the like.
  • a personal computer, a smart phone, a tablet terminal, or the like is used as the imaging control device 5, for example.
  • the imaging control device 5 includes a communication interface 51 for connecting to the network 3, a memory 52 including RAM (Random Access Memory) and ROM (Read Only Memory), and a processor 53.
  • a communication interface 51 for connecting to the network 3
  • a memory 52 including RAM (Random Access Memory) and ROM (Read Only Memory)
  • ROM Read Only Memory
  • the processor 53 is a CPU (Central Processing Unit), a programmable logic device (PLD), a dedicated electric circuit, or the like.
  • a CPU is a general-purpose processor that executes software (programs) to perform various functions.
  • a PLD is a processor such as an FPGA (Field Programmable Gate Array) whose circuit configuration can be changed after manufacturing.
  • a dedicated electric circuit is a processor, such as an ASIC (Application Specific Integrated Circuit), having a circuit configuration specially designed to execute specific processing.
  • the processor 53 may be composed of one processor, or may be composed of a combination of two or more processors of the same type or different types.
  • the processor 53 may be composed of multiple FPGAs or a combination of a CPU and an FPGA.
  • the hardware structure of the processor 53 is an electrical circuit that combines circuit elements such as semiconductor elements.
  • the processor 53 may perform control for displaying image information stored in the image storage server 4 on a display (not shown), in addition to the imaging control described later.
  • FIG. 2 is a schematic diagram showing an example in which the photography system 100 is applied to a photography studio.
  • Five photographing devices 1 and 2 that constitute the photographing system 100 are installed in a photographing studio.
  • the main subject photographed in the photography studio and the background subject forming the background of the main subject are defined as specific subjects.
  • the specific subject is the subject to be photographed.
  • a non-specific subject is defined as a subject that can be photographed other than the specific subject existing in the photography studio.
  • a main subject includes a person, an animal, a robot, or the like.
  • the photography studio includes a person H1, objects OB1 and OB2, a person H2, a cameraman (not shown), and various types of equipment (not shown).
  • a person H1 is a specific subject.
  • Object OB1 and object OB2 are a photographing set and are placed behind person H1.
  • Object OB1 and object OB2 are also specific subjects.
  • the person H2 sets the costume or hairstyle of the person H1.
  • the person H2, the cameraman, the equipment, etc. constitute non-specific subjects.
  • the five photographing devices 1 photograph the person H1 from different directions.
  • FIG. 2 shows the imaging regions Av of the imaging devices 1 and 2, respectively.
  • Each shooting area Av includes a person H1, an object OB1, and an object OB2.
  • the photographing device 2 is arranged in front of the person H1.
  • the photographing device 2 is manually operated by a cameraman.
  • the five photographing devices 1 automatically and continuously perform photographing under the control of the photographing control device 5, respectively.
  • the processor 53 receives information (first image information) about the first image captured in the reference state and information about the second image (second image information) captured in the non-reference state by any of the five imaging devices 1 ), the imaging conditions for any one of the five imaging devices 1 are controlled.
  • a reference state is a state in which a predetermined condition is satisfied.
  • the reference state is defined as a state in which the angle of view of each photographing device 1 (in other words, the photographing area Av) includes only the specific subject among the specific subject and the non-specific subject.
  • the predetermined condition means that the angles of view of all the photographing devices 1 include only the subject to be photographed.
  • the processor 53 issues a shooting start instruction to each of the five shooting devices 1 to start shooting. Automatic continuous photographing by the device 1 is started. Continuous shooting is performed by setting the shooting mode, shooting interval, exposure value, zoom magnification, and shooting direction to predetermined reference values.
  • the reference state can also be said to be a state in which shooting of only the specific subject among the specific subject and the non-specific subject is started.
  • the reference state is a state indicated by the image information obtained from the imaging device 1 at the imaging start timing (first timing) of the imaging device 1 . That is, the reference state is a state grasped by the information of the first image captured by each imaging device 1 .
  • the processor 53 stores any one of the five image information captured initially as the image capturing device 1 is registered as the first image information photographed in the reference state.
  • the first image information means an image (image information) first photographed by one photographing device set by the user.
  • the first image information is image information obtained from an arbitrary one of the information regarding the images captured by each imaging device 1 at the first timing. In the following description, it is assumed that the image information captured first by the imaging device 1c is registered as the first image information.
  • the processor 53 may cause each imaging device 1 to start automatic imaging when the cameraman operates the shutter button of the imaging device 2 to issue a shooting instruction or an autofocus instruction to the imaging device 2 .
  • the processor 53 After registering the first image information, the processor 53 performs recognition processing of the subject included in the image data of the first image information.
  • three specific subjects namely the person H1, the object OB1, and the object OB2, are recognized by this recognition processing.
  • the second image information refers to image information successively captured by the imaging device 1c, excluding the first image information (that is, the first image information).
  • the cameraman or the person H2 may enter the photographing area Av of the photographing device 1, or the equipment may enter the photographing region Av of the photographing device 1 due to movement of the equipment.
  • the state after the start of photographing of the specific subject that is, the state in which the subject photographed by the photographing apparatus 1 can change is defined as the non-reference state.
  • the non-reference state is a state indicated by the image information obtained from the imaging device 1 at a timing (second timing) after the first timing.
  • the second image information is image information captured by the imaging device 1c in this non-reference state.
  • the processor 53 sequentially acquires the second image information from the image storage server 4 and controls the imaging conditions of each imaging device 1 based on the acquired second image information and first image information. In other words, the processor 53 combines information about the image obtained from any one photographing device 1 at the first timing and information about the image obtained from any one photographing device 1 at the second timing. , the imaging conditions of each imaging device 1 are controlled. Specific control contents will be described below with reference to FIGS. 3 and 4. FIG.
  • FIG. 3 illustrates an image P1 based on the first image information, and an image P2, an image P3, and an image P4 based on the second image information.
  • Image P1 includes person H1, object OB1, and object OB2.
  • the person H1, the object OB1, and the object OB2 are all specific subjects, as described above.
  • the image P2 and the image P3 include the person H2 who is a non-specific subject in addition to all the specific subjects included in the image P1.
  • the distance between person H1 and person H2 is greater than in image P3.
  • image P3 the distance between person H1 and person H2 is smaller than in image P2.
  • the image P4 is assumed to be taken while the object OB1 is being changed to another object by the person H2, for example.
  • image P4 contains only object OB2 and person H1.
  • FIG. 4 illustrates an image P5 and an image P6 based on the second image information.
  • the image P5 corresponds to an image captured with a part of the specific subject blocked by an object OB3 such as equipment.
  • the image P6 corresponds to an image captured in a state where the object OB1 forming the background is changed to another object OB4.
  • the processor 53 determines matching or non-matching of subjects based on the first image information and the second image information, and controls the imaging conditions of each imaging device 1 based on the determination result. For example, the processor 53 controls the imaging conditions of each imaging device 1 based on the number of subjects included in the image data of the first image information and the number of subjects included in the image data of the second image information. . That is, the processor 53 determines whether the number of subjects matches or does not match, and when the number of subjects does not match, controls the photographing conditions so that the photographing frequency of each photographing device 1 changes. More specifically, when the number of subjects recognized from the second image information is greater than the number of subjects recognized from the first image information, the processor 53 sets the photographing interval of each photographing device 1 from the reference value.
  • the photographing conditions are controlled so as to reduce the photographing frequency of each photographing device 1 when the number of subjects does not match.
  • the imaging conditions may be controlled so as to increase .
  • the imaging interval may be set smaller than the reference value.
  • control of imaging conditions is also an example, and other controls may be used.
  • the processor 53 changes the background subject to an image P4 shown in FIG. It may be determined that the state is in the process of being taken, and the photographing interval of each photographing device 1 may be made larger than the reference value.
  • the number of subjects to be photographed is decreasing, it is assumed that some kind of preparation is being made. be able to.
  • Control example 2 When the processor 53 determines that the number of subjects does not match and determines that the number of subjects in the second image information is greater than the number of subjects in the first image information, the processor 53 determines that the distance between the subjects in the second image information Based on this, the imaging conditions of each imaging device 1 may be controlled. Specifically, when the number of subjects recognized from the second image information is larger than the number of subjects recognized from the first image information, as shown in the image P2 or the image P3, the processor 53 Based on the distance between the non-specified subject (person H2 in the example of FIG. 3) included in the image data of the information and the specified subject (person H1) included in the image data of the second image information, the photographing of each photographing device 1 is performed. Conditions may be controlled.
  • the processor 53 determines that the number of subjects recognized in the second image information is large, the distance between the specified subject and the non-specified subject included in the second image information exceeds the predetermined threshold value.
  • the photographing interval may be changed based on the above.
  • the processor 53 may keep the photographing interval at the reference value when the distance is equal to or greater than the threshold, and may reduce the photographing interval from the reference value when the distance is less than the threshold.
  • Image P2 shows an example in which the distance between the specific subject and the non-specific subject is equal to or greater than the threshold.
  • image P3 shows an example in which the distance between the specific subject and the non-specific subject is less than the threshold.
  • the processor 53 may make the photographing interval larger than the reference value when the distance is equal to or greater than the threshold, and may make the photographing interval smaller than the reference value when the distance is less than the threshold.
  • a situation in which the person H1 and the person H2 are close to each other is considered to be a situation in which the person H2 is adjusting the costume and hairstyle of the person H1. In such a situation, by increasing the frequency of photographing, it is possible to photograph many of the natural appearances of the person H1 that have not been photographed by the photographer, making it possible to obtain valuable images.
  • the processor 53 determines whether the subjects do not match each other. 1 may be changed. In other words, the processor 53 may change the imaging conditions of each imaging device 1 when the identity of the subjects cannot be confirmed even when the number of subjects matches.
  • the control when the image based on the second image information is the image P6 in FIG. 4 will be described.
  • the number of subjects in image P6 matches the number of subjects in image P1.
  • the image P6 includes an object OB4, which is a non-specific subject, instead of the object OB1, which is a specific subject.
  • the processor 53 changes the imaging conditions of each imaging device 1 to imaging conditions suitable for the second image information. Specifically, the processor 53 changes the exposure value of each photographing device 1 to a value suitable for the object OB2 and the object OB4, and sets the color or gradation of each photographing device 1 to a value suitable for the object OB2 and the object OB4. value, the dynamic range of each photographing device 1 is changed to a value suitable for the object OB2 and the object OB4, and the angle of view of each photographing device 1 is changed so that the entire object OB1 and object OB4 are photographed.
  • the processor 53 may change the photographing conditions of each photographing device 1 based on the positional relationship of the subjects even when the matching of the number of subjects and the identity of the subjects can be confirmed.
  • the positional relationship of the subject includes the relative positional relationship between the main subject and the background subject and the positional relationship of the specific subject with respect to the angle of view. Specifically, even if the number of subjects included in the image data of the first image information and the number of subjects included in the image data of the second image information are the same and the subjects match, If the position of the background subject has changed significantly, the shooting direction of each imaging device 1 may be changed so that the background subject is included in the angle of view.
  • the processor 53 may change the imaging conditions of each imaging device 1 based on the color information obtained from the first image information and the second image information regardless of the number of subjects and the identity of the subjects. good. Specifically, in the image data of the second image information, when the color of the specific subject is changed from the image data of the first image information, the processor 53 changes the imaging conditions of each imaging device 1. good. For example, when a brightly colored figurine is added to the photographing set, which is a specific subject, the processor 53 may perform a filtering process for emphasizing the coloring of the image data, thereby emphasizing the colors of the figurine. . Alternatively, the processor 53 may filter the image data into a black and white image if the color of the shot set has been weakened.
  • the processor 53 may change the photographing conditions of each photographing device 1 when the brightness of the specific subject in the first image information and the second image information do not match.
  • the imaging conditions of each imaging device 1 may be changed. For example, when a light that emits strong light is added to a photography set that is a specific subject, the photography conditions may be changed so that each photography device 1 performs HDR (High Dynamic Range) photography.
  • the processor 53 may change the imaging direction of each imaging device 1 according to the movement of the imaging set.
  • the shooting conditions may be controlled in the same manner as described above.
  • the processor 53 changes the photographing direction as well as the photographing conditions of each photographing device 1 so as to perform HDR photographing.
  • the processor 53 may increase the photographing interval of each photographing device 1 beyond the reference value. For example, in the example of image P5 in FIG. 4, part of person H1 is blocked by object OB3. In such a case, by setting the shooting interval of each shooting device 1 larger than the reference value, it is possible to prevent many images in which the specific subject is hidden from being shot. It should be noted that the photographing device whose photographing condition is changed may be a part of the plurality of photographing devices.
  • a specific subject photographed by a part of the plurality of photographing devices 1 is at least partially blocked by a non-specific subject, and a specific subject photographed by the other photographing devices is blocked by the non-specific subject.
  • the photographing intervals of only some of the photographing devices may be made larger than the reference value, and the photographing intervals of the other photographing devices may be the same as or shorter than the reference value. If the photographing intervals of other photographing devices are set to be shorter than the reference value, it is possible to compensate for the decrease in the total number of photographs taken by some of the photographing devices whose photographing intervals are longer than the reference value.
  • the processor 53 may change the angle of view when at least part of the specific subject is blocked by the non-specific subject (object OB3).
  • the processor 53 may control the photographing device 1 to zoom out so that the size of the image of the non-specific subject becomes smaller.
  • the angle of view may be changed instead of changing the imaging interval, or may be performed in addition to changing the imaging interval.
  • the image information first captured by the imaging device 1c is referred to as the first image information
  • the image information captured by the imaging device 1c after the first image information is obtained is referred to as the second image information.
  • the processor 53 controls the imaging conditions of each of the five imaging devices 1 based on the first image information and the second image information.
  • the processor 53 controls the imaging conditions of all the imaging devices 1 included in the imaging system 100 based on the first image information and the second image information obtained by one imaging device 1c.
  • the processor 53 may control the imaging conditions of each of the four imaging devices 1 other than the imaging device 1c based on the first image information and the second image information.
  • the photographing device 1c is used as a dedicated device for acquiring the first image information and the second image information, and the processor 53, based on the first image information and the second image information, You may control each of the imaging device 1d and the imaging device 1e.
  • the photographing condition of the photographing device 1c is not changed from the initial setting, and the photographing conditions of the other photographing devices 1a, 1b, 1d, and 1e are changed based on the first image information and the second image information. changes depending on the situation. That is, since the specific subject is photographed under two types of photographing conditions by the five photographing devices 1, various image data can be obtained.
  • the imaging device 1a, the imaging device 1b, the imaging device 1d, and the imaging device 1e may be controlled so as not to perform imaging under the same imaging conditions. That is, the processor 53 may control the imaging conditions of at least one of the imaging devices 1a, 1b, 1d, and 1e based on the first image information and the second image information. By doing so, more diverse image data can be obtained.
  • the processor 53 is based on the difference between the shooting setting information included in the first image information and the shooting setting information included in the second image information, at least one of the shooting devices 1a, 1b, 1d, and 1e Shooting conditions may be controlled. For example, if the brightness of the specific subject when the first image information is captured is different from the brightness of the specific subject when the second image information is captured, the image capturing apparatus 1c can capture images according to the difference in brightness. Conditions are changed automatically.
  • the processor 53 adds at least one imaging condition (for example, exposure value) of the imaging device 1a, the imaging device 1b, the imaging device 1d, and the imaging device 1e to the second image information. Control is performed to approximate the included shooting setting information (for example, exposure value). By doing so, it is possible to perform photographing suitable for the brightness of the specific subject by the photographing devices 1a, 1b, 1d, and 1e.
  • the image information captured first by the imaging device 1 is registered as the first image information, but the image information captured first by the imaging device 2 may be registered as the first image information. .
  • the first image information and the second image information were taken by the same photographing device 1 (the photographing device 1c)
  • the present invention is not limited to this.
  • image information captured first by the imaging device 1c is defined as first image information
  • image information captured subsequently by the imaging device 1b is defined as second image information
  • the processor 53 may control at least one of the five imaging devices 1 .
  • the photographing conditions of the photographing device 1 are the second image information photographed by the photographing device 1 and the first image information photographed by the photographing device 1 or photographing device 2. can be changed automatically based on Therefore, the photographing conditions can be changed in real time in response to changes in the subject to be photographed, making it possible to perform optimum photographing according to the state of the subject.
  • FIGS. 5 and 6 are schematic diagrams showing an example in which the imaging system 100 is applied to an event venue where a concert is held.
  • the photographing device 2 is removed from the photographing system 100, and the photographing device 1f is added instead.
  • the photographing device 1 f is a photographing device that automatically and continuously takes pictures under the control of the photographing control device 5 .
  • the six photographing devices 1 constituting the photographing system 100 are installed at an event venue where a group of five persons H3 holds a concert.
  • FIG. 5 shows the imaging area Av of each imaging device 1 .
  • Each shooting area Av includes five persons H3.
  • the imaging device 1f is installed at a position higher in the vertical direction than the imaging devices 1a, 1b, 1c, 1d, and 1e. Further, the photographing device 1f is configured to be capable of photographing substantially the entire area of the stage SG. That is, the imaging area Av of imaging device 1f overlaps part or all of at least one imaging region Av of imaging device 1a, imaging device 1b, imaging device 1c, imaging device 1d, and imaging device 1e.
  • the imaging area Av of the imaging device 1f constitutes an inclusive imaging area.
  • the inclusive imaging area means an imaging area that includes at least part of the imaging areas Av of the plurality of imaging devices 1a to 1e.
  • the inclusive imaging area includes all of the imaging area Av by at least one of the imaging apparatuses 1a to 1e or part of the imaging area Av by at least one imaging apparatus.
  • the photographing device 1f is a photographing device that captures a bird's-eye view of the stage SG.
  • the imaging device 1f may be a flying object such as a drone.
  • the photographing device 1f may be a device that is attached near the ceiling of the stage SG and that is movable in the horizontal and planar directions.
  • the six photographing devices 1 automatically and continuously perform photographing under the control of the photographing control device 5, respectively.
  • an imaging apparatus produces different images even when the same region is photographed, depending on the type of lens, the type of imaging device, the configuration of the image processing engine, and the like.
  • the six photographing devices 1 may have the same configuration, or may be a photographing device having photographing characteristics different from those of the others, only the photographing device 1f for bird's-eye photographing. In other words, the six photographing devices 1 may have the same configuration of lenses, imaging devices, image processing engines, etc., or only the photographing device 1f may differ.
  • the processor 53 uses the first image information photographed by the photographing device 1f in the reference state and the second image information photographed by the photographing device 1f in the non-reference state. It controls each of the device 1b, the photographing device 1c, the photographing device 1d, and the photographing device 1e.
  • the reference state and the non-reference state are determined based on the schedule of events.
  • the reference state is a state in which a concert rehearsal is being performed
  • the non-reference state is a state in which the actual concert is being performed.
  • the reference state is a state indicated by image information captured by the imaging device 1f during the rehearsal.
  • Rehearsal is the first timing.
  • the non-reference state is a state indicated by image information captured by the imaging device 1f during the performance.
  • the actual performance is the timing (second timing) after the first timing.
  • FIG. 5 shows an arrangement pattern in which five persons H3 are gathered in the center of the stage SG and stand still in two lines.
  • FIG. 6 shows an arrangement pattern in which five persons H3 stand still in a line on the stage SG.
  • the arrangement pattern of the groups is scheduled to shift to the arrangement pattern shown in FIG. 6 after becoming the arrangement pattern shown in FIG. 5 during the concert.
  • the processor 53 causes at least the shooting device 1f among the six shooting devices 1 to start shooting. give instructions.
  • the processor 53 causes the photographing device 1f to start automatic continuous photographing.
  • continuous photography is photography in which the photography mode, photography interval, exposure value, zoom magnification, and photography direction are set to predetermined reference values.
  • the processor 53 acquires the image information photographed at the timing immediately before the arrangement pattern of the groups changes greatly among the image information photographed during the rehearsal, and registers this image information as the first image information.
  • the schedule determines that the arrangement pattern largely changes from the arrangement pattern shown in FIG. 5 to the arrangement pattern shown in FIG.
  • the processor 53 acquires the image information captured by the imaging device 1f in the arrangement pattern shown in FIG. 5 and registers it as the first image information.
  • This first image information is taken during the rehearsal with the subject (person H3) of the predetermined arrangement pattern included in the angle of view.
  • the processor 53 registers a plurality of pieces of image information as the first image information. That is, the number of pieces of first image information varies according to the number and types of predetermined array patterns.
  • the staff When starting the actual performance of the concert, the staff inputs information indicating the start of the actual performance to the photographing control device 5 .
  • the processor 53 Upon detection of the input of information indicating the start of the actual shooting, the processor 53 issues a shooting start instruction to the six shooting devices 1 to cause these shooting devices 1 to automatically start continuous shooting.
  • continuous photography is photography in which the photography mode, photography interval, exposure value, zoom magnification, and photography direction are set to predetermined reference values.
  • the image information that is sequentially captured by the imaging device 1f during the performance is referred to as second image information.
  • the processor 53 After starting automatic photographing by each photographing device 1, the processor 53 sequentially acquires the second image information photographed by the photographing device 1f, and based on the acquired second image information and the registered first image information, The photographing conditions of each of the five photographing devices 1 other than the photographing device 1f are controlled.
  • the processor 53 selects the five image capturing devices 1 other than the image capturing device 1f based on the group arrangement pattern included in the first image information and the group arrangement pattern included in the second image information. control the shooting conditions for each of the For example, the processor 53 derives the degree of similarity between the arrangement pattern of the groups included in the second image information and the arrangement pattern of the groups included in the first image information.
  • the imaging conditions of each of the five imaging devices 1 are maintained at the reference value, and when the degree of similarity is equal to or greater than the threshold, the imaging conditions of each of the five imaging devices 1 are changed from the reference value. In the array pattern shown in FIG. 6, five persons H3 can be photographed individually. Therefore, when the second image information includes an arrangement pattern similar to the arrangement pattern shown in FIG.
  • the processor 53 changes the shooting mode of each of the five imaging devices 1 to a shooting mode suitable for individual shooting. .
  • the processor 53 changes the focus position or zoom magnification of each of the five photographing devices 1 so that each of the five persons H3 can be photographed in close-up.
  • Shooting modes suitable for individual shooting include, for example, portrait mode and skin-beautifying mode.
  • the processor 53 zooms the photographing device 1 so that all five persons H3 are captured in the arrangement pattern shown in FIG. Magnification may be controlled.
  • the arrangement pattern as shown in FIG. 6 is obtained, or when the subject continuously takes the same pose, it is often an important scene in the event.
  • the processor 53 sets the photographing apparatus 1 to the continuous shooting mode when the second image information includes an arrangement pattern similar to the arrangement pattern shown in FIG. can be Alternatively, the processor 53 may set the photographing device 1 to the continuous shooting mode when the second image information includes an arrangement pattern similar to the arrangement pattern immediately before the subject continuously takes the same pose. Alternatively, the processor 53 may control the photographing conditions so that the photographing timings of the plurality of photographing devices 1 are the same in the scene of the arrangement pattern as shown in FIG. Also, the processor 53 may control the imaging conditions such that the imaging timings of the respective imaging devices 1 are slightly different.
  • the photographing timings of the plurality of photographing devices 1 are the same, it is possible to obtain images simultaneously photographed from various angles in a scene of interest. Also, the timing at which the subject moves quickly may be determined based on the difference between the plurality of pieces of first image information captured during the rehearsal. In this case, if the similarity between the arrangement pattern of the groups included in the first image information immediately before the movement of the subject becomes fast and the arrangement pattern of the groups included in the second image information (for example, FIG. 5) is equal to or greater than a threshold, the photographing conditions may be controlled such that a plurality of photographing devices 1 use mechanical shutters. By controlling in this way, it is possible to prevent rolling distortion when using a rolling shutter.
  • the processor 53 controls the imaging conditions of each of the five imaging devices 1 excluding the imaging device 1f based on the first image information and the second image information.
  • the processor 53 sets the imaging conditions for at least one of the imaging devices 1a, 1b, 1c, 1d, and 1e based on the first image information and the second image information. may be controlled. In this way, the group is photographed under a plurality of types of photographing conditions by the photographing devices 1a, 1b, 1c, 1d, and 1e. As a result, various image data can be obtained.
  • the processor 53 selects the photographing device 1a, the photographing device 1b, the photographing device 1c, the photographing device 1d, and the photographing device 1e whose photographing region Av of the photographing device 1f partially or wholly overlaps with the photographing device 1f.
  • Only the imaging conditions may be controlled. For example, it is conceivable that the photographing direction, angle of view, etc. of the photographing devices 1a to 1f are changed in the middle. In this case, the imaging area Av of any one of the imaging devices 1a, 1b, 1c, 1d, and 1e may not overlap with the imaging region Av of the imaging device 1f.
  • the imaging device that captures the imaging region Av that does not overlap with the imaging region Av of the imaging device 1f.
  • the information about the imaging device whose imaging region Av does not overlap with the imaging region Av of the imaging device 1f may be registered in advance by the user, or may be determined using image recognition processing.
  • the photographing device 1f for photographing the first image information and the second image information may be configured so as to automatically change the photographing settings such as the exposure value during the performance according to the photographing environment.
  • the processor 53 may change the photographing settings (for example, exposure) of the five photographing devices 1 other than the photographing device 1f based on the second image information.
  • the processor 53 stores the shooting setting information (for example, exposure value) included in the second image information and the shooting setting information (for example, exposure value) included in each of the image information shot by the five shooting devices 1 other than the shooting device 1f. ), the photographing settings (for example, exposure values) of the five photographing devices 1 are changed.
  • the processor 53 changes the exposure of the five imaging devices 1 so that the exposure values of the five imaging devices 1 other than the imaging device 1f approach the exposure value of the imaging device 1f. By doing so, it is possible to photograph the event with proper exposure using the six photographing devices 1 .
  • the photographing device for photographing the first image information and the second image information may be configured to automatically change the photographing settings such as the exposure value according to the photographing environment based on the schedule of the event.
  • an event schedule may include, in addition to the arrangement patterns described above, factors that change the brightness of the shooting environment, such as video display and lighting changes. In this case, the exposure value of the photographing device 1 may be automatically changed in consideration of the event schedule.
  • the schedule of events may determine scenes of particular interest other than the array pattern and the brightness of the shooting environment. For example, if the event is a concert, the schedule may determine when the performers all pose in the same pose. In this case, in order to increase the number of shots during a time period that includes a scene in which the same pose is taken based on the schedule, the photographing apparatus 1 may be placed in continuous shooting mode for several seconds before and after the scene in which the same pose is taken. Alternatively, if the event is a wedding ceremony, the photographing device 1 may similarly be set to continuous shooting mode for a scene where the bride and groom enter.
  • control may be performed so that the photographing timings of the plurality of photographing devices 1 for a specific scene are the same based on a schedule, or the photographing timings of the plurality of photographing devices 1 may be controlled to be slightly different. Also, if a time period in which the subject moves quickly is known based on the schedule, control may be performed so that the mechanical shutter is preferentially used only in that time period.
  • the photographing conditions of the five photographing devices 1 other than the photographing device 1f are the second image information photographed by the photographing device 1f and the first image information photographed by the photographing device 1f. It can be changed automatically based on image information. Therefore, the photographing conditions can be changed in real time in response to changes in the subject to be photographed, making it possible to perform optimum photographing according to the state of the subject.
  • the processor 53 may further change the photographing conditions of the photographing device 1f based on the first image information and the second image information photographed by the photographing device 1f. For example, it is assumed that after the arrangement pattern shown in FIG. 5 is changed to the arrangement pattern shown in FIG. 6, the stage SG is illuminated brighter. In such a case, the processor 53 first determines whether or not the degree of similarity between the arrangement pattern of groups included in the second image information and the arrangement pattern of groups included in the first image information is equal to or greater than a threshold. If the degree of similarity is equal to or greater than the threshold, the processor 53 changes the imaging conditions of the imaging devices 1a, 1b, 1c, 1d, and 1e from the reference values.
  • the processor 53 changes the exposure value of the photographing device 1f in consideration of subsequent changes in the brightness of the stage SG.
  • the second image information can be of high quality, and the control of the imaging devices 1a, 1b, 1c, 1d, and 1e by the processor 53 can be performed with high accuracy. can be done.
  • a processor and a memory (memory 52)
  • the processor includes first image information, which is information about an image captured in a reference state by one of the plurality of image capturing devices (image capturing device 1) (image capturing device 1c or image capturing device 1f), and based on the second image information that is information about an image captured by any one of the imaging devices (imaging device 1c or imaging device 1f) in a non-reference state, any of the plurality of imaging devices (imaging device 1a, imaging device 1b, Control the imaging device 1c, imaging device 1d, imaging device 1e, or imaging device 1f), an imaging control device (imaging control device 5);
  • the imaging control device is a state that satisfies a predetermined condition, Shooting control device.
  • the imaging control device is a state in which only the specific subjects (person H1, object OB1, and object OB2) are included in the angle of view. Shooting control device.
  • the imaging control device controls any one of the plurality of photographing devices based on the number of subjects included in the first image information and the number of subjects included in the second image information. Shooting control device.
  • the imaging control device according to (4), The processor further controls any one of the plurality of photographing devices based on the distance between the subjects included in the second image information. Shooting control device.
  • the imaging control device controls any one of the plurality of photographing devices based on the specific subject included in the first image information and a subject (object OB3) other than the specific subject included in the second image information. I do, Shooting control device.
  • the imaging control device according to any one of (1) to (6), The plurality of photographing devices are installed in a photographing studio,
  • the reference state is a state in which photography of only specific subjects (person H1, object OB1, and object OB2) to be photographed has started,
  • the non-reference state is a state after the start of photography of the specific subject to be photographed.
  • Shooting control device is a state after the start of photography of the specific subject to be photographed.
  • the imaging control device includes a state in which the background of the specific subject photographed by the plurality of photographing devices has changed with respect to the reference state. Shooting control device.
  • the imaging control device is a state in which a subject with a predetermined pattern is included in the angle of view. Shooting control device.
  • the imaging control device controls any one of the plurality of photographing devices based on the subject pattern included in the first image information and the subject pattern included in the second image information. Shooting control device.
  • the imaging control device according to The above multiple shooting devices are installed at the event venue
  • the reference state is a state in which an event rehearsal is being performed
  • the non-reference state is a state in which the event is in production, Shooting control device.
  • the imaging control device according to (1), The plurality of photographing devices photograph the event held at the venue, The imaging control apparatus, wherein the reference state and the non-reference state are determined based on the schedule of the event.
  • the imaging control device according to (1) or (2), The processor controls any one of the plurality of photographing devices based on a difference between the photographing settings included in the first image information and the photographing settings included in the second image information.
  • Shooting control device The imaging control device according to (1) or (2), The processor controls any one of the plurality of photographing devices based on a difference between the photographing settings included in the first image information and the photographing settings included in the second image information.
  • the imaging control device according to (1) or (2), The processor, based on the difference between the photographing settings of the photographing device that photographed the first image information and the second image information, and the photographing settings of another photographing device other than the photographing device, control shooting settings, Shooting control device.
  • the imaging control device according to any one of (1) to (14), The imaging device that captured the first image information and the imaging device that captured the second image information are the same. Shooting control device.
  • the imaging control device according to any one of (1) to (15), A photographing control device in which a photographing device controlled based on the first image information and the second image information and a photographing device photographing the first image information and the second image information are different.
  • the imaging control device according to any one of (1) to (16),
  • the parameters of the imaging device controlled by the processor include imaging conditions of the imaging device, Shooting control device.
  • the imaging control device according to (17), The shooting conditions include at least one of shooting interval, angle of view, shooting direction, exposure, and shooting mode. Shooting control device.
  • the imaging control device causes the plurality of photographing devices to perform photographing based on a photographing-related operation (a photographing instruction or an autofocus instruction) of a manually operated photographing device (photographing device 2) different from the plurality of photographing devices. to run Shooting control device.
  • a photographing-related operation a photographing instruction or an autofocus instruction
  • photographing device 2 a manually operated photographing device
  • the imaging control device according to any one of (1) to (19),
  • the imaging device (imaging device 1f) that captures the first image information can capture the imaging region (imaging region Av) of all the imaging devices other than the imaging device, and
  • the processor changes the photographing settings of the photographing device other than the photographing device based on the image information photographed by the photographing device photographing the first image information.
  • Shooting control device
  • a processor (processor 53) and a memory (memory 52), The above processor is photographed in a reference state by another imaging device (imaging device 1f) different from the plurality of imaging devices (imaging device 1a, photographic device 1b, photographic device 1c, photographic device 1d, and photographic device 1e). Control any one of the plurality of photographing devices based on first image information that is information about an image and second image information that is information about an image photographed by the other photographing device in a non-reference state. , Shooting control device.
  • the imaging control device according to (21), The other imaging device captures an inclusive imaging region including at least part of the imaging regions of the plurality of imaging devices, Shooting control device.
  • the imaging control device according to (21), The other imaging device is located at a position higher in the vertical direction than the plurality of imaging devices, Shooting control device.
  • a photographing control method for controlling a plurality of photographing devices for controlling a plurality of photographing devices, first image information that is information about an image captured in a reference state by any one of the plurality of image capturing devices; and second image information that is information about an image captured in a non-reference state by any one of the plurality of image capturing devices 2 control any one of the plurality of imaging devices based on the image information; Shooting control method.
  • a photographing control method for controlling a plurality of photographing devices for controlling a plurality of photographing devices, first image information that is information about an image shot in a reference state by another imaging device different from the plurality of imaging devices; and information about an image shot in a non-reference state by the other imaging device. Control any one of the plurality of imaging devices based on the second image information, Shooting control method.
  • An imaging control program for controlling a plurality of imaging devices A processor is provided with first image information, which is information about an image captured in a reference state by any one of the plurality of image capturing devices, and information about an image captured in a non-reference state by any one of the plurality of image capturing devices. executing a step of controlling any one of the plurality of imaging devices based on the second image information that is Shooting control program.
  • An imaging control program for controlling a plurality of imaging devices,
  • the processor is provided with first image information, which is information relating to an image captured in a reference state by another imaging device different from the plurality of imaging devices, and information relating to an image captured in a non-reference state by the other imaging device. executing a step of controlling any one of the plurality of imaging devices based on the second image information, which is information; Shooting control program.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

撮影制御装置、撮影制御方法、及び撮影制御プログラムを提供する。撮影制御装置5のプロセッサ53は、撮影装置1cにより基準状態にて撮影された画像に関する情報である第1画像情報と、撮影装置1cにより非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、撮影装置1a、撮影装置1b、撮影装置1c、撮影装置1d、及び撮影装置1eの各々の制御を行う。

Description

撮影制御装置、撮影制御方法、及び撮影制御プログラム
 本発明は、撮影制御装置、撮影制御方法、及び撮影制御プログラムに関する。
 特許文献1には、複数のカメラを備えたカメラ制御システムが開示されている。複数のカメラは、撮影状態を制御可能な撮影制御手段を持つ。上記複数のカメラの撮影制御手段のうち少なくとも1つは、カメラの外部から手動制御可能であり、カメラ制御システムは、手動制御するカメラから得られる情報をもとにして残りのカメラの撮影状態を制御することを特徴とする。
 特許文献2には、カメラ位置検出方法が記載されている。カメラ位置検出方法は、複数のカメラと、パノラマカメラと、データ処理装置とを用い、上記複数のカメラおよび上記パノラマカメラからの撮像画像によりカメラの位置関係を求める。複数のカメラは、カメラの動作を制御する駆動機構をそれぞれに有する。パノラマカメラは、上記複数のカメラを撮影する。データ処理装置は、上記複数のカメラおよび上記パノラマカメラを制御すると共に各カメラの撮像画像を入力してデータ処理を行う。
 特許文献3には、撮像対象を設置するための撮像対象設置領域と、撮像対象の異なる側面を撮像する複数の撮像デバイスとを有する撮影装置が記載されている。複数の撮像デバイスはそれぞれ、複数の方向から撮像対象の側面を撮像するように通信路上に配置される。撮像装置は、撮影対象を1台のカメラが追うと残りのカメラも撮影対象を追尾するように自動的にパン、チルト、フォーカスが制御される。
 特許文献4には、複数のカメラと通信可能に接続され、上記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行ってパノラマ合成画像を出力する画像処理装置が記載されている。画像処理装置は、基準カメラ決定部と、撮像条件取得部と、撮像条件設定部と、画像合成部とを備えたことを特徴とする。基準カメラ決定部は、上記複数のカメラのうちの1つを基準カメラとして決定する。撮像条件取得部は、上記基準カメラにおいて設定された露出およびホワイトバランスに関する撮像条件を取得する。撮像条件設定部は、上記複数のカメラのうち上記基準カメラを除く他のカメラに対し、上記基準カメラの上記撮像条件に基づき、露出およびホワイトバランスに関する撮像条件の設定指令を送出する。画像合成部は、上記複数のカメラから取得した複数の撮像画像に対して画像合成処理を行って上記パノラマ合成画像を出力する。
 特許文献5には、自動撮影システムが記載されている。自動撮影システムは、撮影用カメラと、背景記憶手段と、検知手段と、抽出手段と、撮影制御手段とを備えたことを特徴とする。撮影用カメラは、所定の位置に設置され、被写体を撮影する。背景記憶手段は、上記所定の位置において上記撮影用カメラを用いて撮影可能な範囲の背景画像を記憶する。検知手段は、上記撮影用カメラにより得られた撮影画像と、上記背景記憶手段により記憶された上記背景画像のうちその撮影画像に相当する部分の画像との差に基づき、上記撮影画像内に少なくとも被写体の一部が入ったことを検知する。抽出手段は、その検知手段で検知された被写体から撮影対象部位を抽出する。撮影制御手段は、上記被写体の撮影対象部位が上記撮影用カメラの撮影画像内の所望の範囲内に入るように上記撮影用カメラを制御する。
特開2000-083246号公報 特開2007-327750号公報 特開2006-086671号公報 特開2016-208306号公報 特開2005-099164号公報
 開示される一態様の撮影制御装置は、プロセッサと、メモリとを備え、上記プロセッサは、複数の撮影装置のいずれかにより基準状態にて撮影された画像に関する情報である第1画像情報と、上記複数の撮影装置のいずれかにより非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、上記複数の撮影装置のいずれかの制御を行う、ものである。
 開示される一態様の撮影制御装置は、プロセッサと、メモリとを備え、上記プロセッサは、複数の撮影装置とは異なる他の撮影装置により基準状態にて撮影された画像に関する情報である第1画像情報と、上記他の撮影装置により非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、上記複数の撮影装置のいずれかの制御を行う、ものである。
 開示される一態様の撮影制御方法は、複数の撮影装置を制御する撮影制御方法であって、上記複数の撮影装置のいずれかにより基準状態にて撮影された画像に関する情報である第1画像情報と、上記複数の撮影装置のいずれかにより非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、上記複数の撮影装置のいずれかの制御を行う、ものである。
 開示される一態様の撮影制御方法は、複数の撮影装置を制御する撮影制御方法であって、上記複数の撮影装置とは異なる他の撮影装置により基準状態にて撮影された画像に関する情報である第1画像情報と、上記他の撮影装置により非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、上記複数の撮影装置のいずれかの制御を行う、ものである。
 開示される一態様の撮影制御プログラムは、複数の撮影装置を制御する撮影制御プログラムであって、プロセッサに、上記複数の撮影装置のいずれかにより基準状態にて撮影された画像に関する情報である第1画像情報と、上記複数の撮影装置のいずれかにより非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、上記複数の撮影装置のいずれかの制御を行うステップを実行させる、ものである。
 開示される一態様の撮影制御プログラムは、複数の撮影装置を制御する撮影制御プログラムであって、プロセッサに、上記複数の撮影装置とは異なる他の撮影装置により基準状態にて撮影された画像に関する情報である第1画像情報と、上記他の撮影装置により非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、上記複数の撮影装置のいずれかの制御を行うステップを実行させる、ものである。
本発明の撮影制御装置の一実施形態である撮影制御装置5を含む撮影システム100の概略構成を示す図である。 撮影システム100を撮影スタジオに適用した例を示す模式図である。 図2の撮影装置1cによって撮影された画像情報に基づく画像の一例を示す図である。 図2の撮影装置1cによって撮影された画像情報に基づく画像の一例を示す図である。 撮影システム100をイベント会場に適用した例を示す模式図である。 図5において、人物H3の配列パターンが変化した状態を示す模式図である。
 図1は、本発明の撮影制御装置の一実施形態である撮影制御装置5を含む撮影システム100の概略構成を示す図である。撮影システム100は、自動で撮影を行う複数の撮影装置1と、手動操作によって撮影を行う撮影装置2と、インターネット又はLAN(Local Area Network)等のネットワーク3と、画像保管サーバ4と、撮影制御装置5と、を備える。
 図1の例では、複数の撮影装置1に、撮影装置1a、撮影装置1b、撮影装置1c、撮影装置1d、及び撮影装置1eの5つの撮影装置が含まれる。撮影装置2は省略される場合もある。撮影装置1及び撮影装置2は、例えば、コンサート等のイベントが行われるイベント会場又は撮影スタジオ等に配置される。5つの撮影装置1と撮影装置2は、同じ設置場所の異なる位置に配置され、設置場所の被写体を異なる方向から撮影するように構成される。
 撮影装置1及び撮影装置2は、それぞれ、撮像素子と、画像処理回路と、ネットワーク3に接続可能な通信インタフェースと、を含む。画像処理回路は、撮像素子で被写体を撮像して得られる撮像画像信号を処理して画像データを生成する。
 撮影装置1及び撮影装置2は、それぞれ、例えば、デジタルカメラ又はスマートフォン等で構成される。撮影装置1及び撮影装置2によりそれぞれ生成される画像データとこれに付属する情報のことを、撮影装置1及び撮影装置2のそれぞれが撮影した画像情報とも記載する。撮影装置1及び撮影装置2のそれぞれにより生成される画像情報には、画像データを生成した撮影装置の識別情報及び撮影設定情報が含まれる。また、画像情報に基づき、画像に含まれる被写体の数又は被写体の種類を認識することもできる。
 撮影設定情報には、露出値、撮影モード、ズーム倍率、連続撮影を行う場合の撮影間隔、及び撮影方向(パン・チルト角)等が含まれる。撮影モードには、通常モード、広ダイナミックレンジモード、及び複数の画像処理モード等が含まれる。通常モードは、ダイナミックレンジを基準値とするモードである。広ダイナミックレンジモードは、ダイナミックレンジを基準値よりも広くするモードである。画像処理モードは、画像処理を行う際の色彩と階調の少なくとも一方が異なるモードである。
 撮影装置1と撮影装置2は、それぞれ、生成した画像情報を、ネットワーク3を介して、画像保管サーバ4に送信する。
 画像保管サーバ4は、プロセッサと、ネットワーク3に接続可能な通信インタフェースと、SSD(Solid State Drive)又はHDD(Hard Disk Drive)等の記憶装置と、を備える。この記憶装置は、ネットワーク3に接続されたネットワークストレージ装置であってもよい。画像保管サーバ4のプロセッサは、撮影装置1と撮影装置2から送信されてきた画像情報を取得し、取得した画像情報を記憶装置に記憶する。
 撮影制御装置5は、画像保管サーバ4の記憶装置に記憶された画像情報に基づいて、撮影装置1を制御する。撮影制御装置5が制御する撮影装置1のパラメータは、撮影装置1の撮影条件を含む。この撮影条件には、撮影間隔、画角(ズーム倍率)、撮影方向(パン・チルト角)、露出値、色彩、階調、ダイナミックレンジ、及び撮影モードのうち少なくとも1つが含まれる。撮影モードには、単写、連写、電子シャッター、電子先幕シャッター、及びメカニカルシャッター等が含まれる。撮影制御装置5は、一例として、パーソナルコンピュータ、スマートフォン、又はタブレット端末等が用いられる。
 撮影制御装置5は、ネットワーク3に接続するための通信インタフェース51と、RAM(Random Access Memory)及びROM(Read Only Memory)を含むメモリ52と、プロセッサ53と、を備える。
 プロセッサ53は、CPU(Central Processing Unit)、プログラマブルロジックデバイス(Programmable Logic Device: PLD)、又は、専用電気回路等である。CPUは、ソフトウエア(プログラム)を実行して各種機能を果たす汎用的なプロセッサである。PLDは、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサである。専用電気回路は、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである。
 また、プロセッサ53は、1つのプロセッサで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せで構成されてもよい。例えば、プロセッサ53は、複数のFPGAや、CPUとFPGAの組み合わせで構成されてもよい。
 プロセッサ53のハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。プロセッサ53は、後述する撮影制御に加えて、画像保管サーバ4に記憶された画像情報を図示省略のディスプレイに表示する制御等を行ってもよい。
 次に、撮影制御装置5のプロセッサ53が行う制御について、撮影システム100の具体的な適用例を挙げて説明する。
<撮影システムの第1適用例>
 図2は、撮影システム100を撮影スタジオに適用した例を示す模式図である。撮影システム100を構成する5つの撮影装置1と撮影装置2は、撮影スタジオに設置されている。以下では、撮影スタジオにて撮影される主要な被写体と、主要な被写体の背景を構成している背景被写体と、をそれぞれ特定被写体と定義する。言い換えると、特定被写体とは、撮影対象の被写体である。また、撮影スタジオに存在している特定被写体以外の撮影され得る被写体のことを非特定被写体と定義する。主要な被写体には、人物、動物、又はロボット等が含まれる。
 撮影スタジオには、人物H1と、物体OB1及び物体OB2と、人物H2と、図示省略のカメラマンと、図示省略の各種の機材とが存在している。人物H1は、特定被写体である。物体OB1及び物体OB2は、撮影セットであり、人物H1の後ろに配置されている。物体OB1及び物体OB2もまた、特定被写体である。人物H2は、人物H1の衣装又は髪型のセット等を行う。人物H2、カメラマン、及び機材等は非特定被写体を構成している。
 5つの撮影装置1は、人物H1をそれぞれ異なる方向から撮影する。図2には、撮影装置1及び撮影装置2のそれぞれの撮影領域Avが示されている。各撮影領域Avには、人物H1、物体OB1、及び物体OB2が含まれている。撮影装置2は、人物H1の正面に配置されている。撮影装置2はカメラマンによって手動操作される。5つの撮影装置1は、それぞれ、撮影制御装置5からの制御によって、撮影を自動的に且つ連続して実行する。
 プロセッサ53は、5つの撮影装置1のいずれかによって、基準状態で撮影された第1画像に関する情報(第1画像情報)と、非基準状態で撮影された第2画像に関する情報(第2画像情報)とに基づき、5つの撮影装置1のいずれかの撮影装置について、撮影条件を制御する。基準状態とは、予め決められた条件を満たした状態である。
 第1適用例では、各撮影装置1の画角(換言すると撮影領域Av)に、特定被写体と非特定被写体のうち特定被写体のみが含まれる状態を基準状態と定義する。すなわち、予め決められた条件とは、全撮影装置1の画角に、撮影対象の被写体のみが含まれる状態を意味する。この基準状態にて、カメラマンが、撮影制御装置5に対して撮影開始することを示す情報の入力を行うと、プロセッサ53は、5つの撮影装置1のそれぞれに撮影開始指示を出して、これら撮影装置1による自動での連続撮影を開始させる。連続撮影は、撮影モード、撮影間隔、露出値、ズーム倍率、及び撮影方向を、既定の基準値に設定して行われる。
 基準状態とは、特定被写体と非特定被写体のうち特定被写体のみの撮影を開始した状態ということもできる。言い換えると、基準状態とは、撮影装置1の撮影開始タイミング(第1のタイミング)で、撮影装置1から得られる画像情報が示す状態である。すなわち、基準状態は、各撮影装置1によって最初に撮影された画像情報により把握される状態である。
 各撮影装置1によって最初に撮影された画像情報が、画像保管サーバ4に登録されると、プロセッサ53は、この最初に撮影された5つの画像情報のうちのいずれか1つを、撮影装置1により基準状態にて撮影した第1画像情報として登録する。ここで、第1画像情報とは、ユーザによって設定された一の撮影装置が、最初に撮影した画像(画像情報)を意味する。言い換えると、第1画像情報は、各撮影装置1によって第1のタイミングで撮影された画像に関する情報のうち、任意の一の撮影装置から得られた画像情報である。以下では、撮影装置1cによって最初に撮影された画像情報が第1画像情報として登録されるものとして説明する。
 なお、カメラマンが撮影装置2のシャッタボタンを操作して撮影装置2に対する撮影指示又はオートフォーカス指示を行ったことを契機として、プロセッサ53は、各撮影装置1による自動撮影を開始させてもよい。
 プロセッサ53は、第1画像情報を登録すると、第1画像情報の画像データに含まれる被写体の認識処理を行う。ここでは、この認識処理によって、人物H1、物体OB1、及び物体OB2の3つの特定被写体が認識される。
 第1適用例では、撮影装置1cによって順次撮影される画像情報のうち最初に撮影された画像情報(すなわち第1画像情報)を除くものを、第2画像情報と記載する。撮影装置1による自動撮影の開始後は、カメラマン又は人物H2が撮影装置1の撮影領域Avに入り込んだり、機材の移動等によってその機材が撮影装置1の撮影領域Avに入り込んだりし得る。このように、特定被写体の撮影開始後の状態、すなわち、撮影装置1によって撮影される被写体が変化し得る状態のことを非基準状態と定義する。言い換えると、非基準状態とは、第1のタイミングの後のタイミング(第2のタイミング)で、撮影装置1から得られる画像情報が示す状態である。
 第2画像情報は、この非基準状態において撮影装置1cにより撮影された画像情報である。プロセッサ53は、第2画像情報を画像保管サーバ4から逐次取得し、取得した第2画像情報と第1画像情報とに基づいて、各撮影装置1の撮影条件を制御する。言い換えると、プロセッサ53は、第1のタイミングで任意の一の撮影装置1から得られた画像についての情報と、第2のタイミングで任意の一の撮影装置1から得られた画像についての情報とに基づいて、各撮影装置1の撮影条件を制御する。
 以下、図3及び図4を参照して、具体的な制御内容を説明する。
 図3には、第1画像情報に基づく画像P1と、第2画像情報に基づく画像P2、画像P3、及び画像P4と、が例示されている。画像P1には、人物H1、物体OB1、及び物体OB2が含まれる。人物H1、物体OB1、及び物体OB2は、上述の通り、いずれも特定被写体である。
 画像P2と画像P3には、画像P1に含まれる全特定被写体に加え、非特定被写体である人物H2が含まれている。画像P2では、人物H1と人物H2の距離が画像P3に比べて大きい。一方、画像P3では、人物H1と人物H2の距離が画像P2に比べて小さい。
 画像P4は、例えば人物H2によって物体OB1が別の物体に変更される途中で撮影されたものを想定している。したがって、画像P4には、物体OB2と人物H1だけが含まれている。
 図4には、第2画像情報に基づく画像P5及び画像P6が例示されている。画像P5は、特定被写体の一部が機材等の物体OB3によって遮蔽されている状態で撮影された画像に相当する。画像P6は、背景を構成する物体OB1が別の物体OB4に変更された状態で撮影された画像に相当する。
(制御例1)
 プロセッサ53は、第1画像情報及び第2画像情報に基づいて、被写体の一致又は不一致を判定し、判定結果に基づいて、各撮影装置1の撮影条件の制御を行う。例えば、プロセッサ53は、第1画像情報の画像データに含まれる被写体の数と、第2画像情報の画像データに含まれる被写体の数とに基づいて、各撮影装置1の撮影条件の制御を行う。すなわち、プロセッサ53は、被写体の数の一致又は不一致を判定し、被写体の数が一致しない場合に、各撮影装置1の撮影頻度が変化するよう撮影条件を制御する。
 より具体的には、プロセッサ53は、第2画像情報から認識した被写体の数が、第1画像情報から認識した被写体の数よりも多い場合には、各撮影装置1の撮影間隔を基準値よりも大きくする。第2画像情報から認識した被写体の数が、第1画像情報から認識した被写体の数よりも多い場合、図3に示す画像P2又は画像P3のように、非特定被写体が各撮影装置1によって撮影される状況にあると判断できる。撮影間隔を基準値よりも大きくすることには、連続撮影を停止することも含まれる。このように、特定被写体に加えて非特定被写体が撮影される状況では、特定被写体のみが撮影されている状況よりも低頻度で撮影が行われるように撮影条件が制御される。これにより、必要以上の撮影がなされるのを防ぐことができる。
 なお、撮影条件の上記制御は一例であり、他の制御であってもよい。具体的に、上記制御は、被写体の数が一致しない場合に、各撮影装置1の撮影頻度を減らすよう撮影条件を制御したが、被写体の数が一致しない場合に、各撮影装置1の撮影頻度を増やすように撮影条件を制御してもよい。例えば、非特定被写体が写った画像をより多く取得したい場合は、撮影間隔を基準値よりも小さくするなどしてもよい。以下の説明も同様に撮影条件の制御は一例であり、他の制御であってもよい。
 または、プロセッサ53は、第2画像情報から認識した被写体の数が、第1画像情報から認識した被写体の数よりも少ない場合には、図3に示す画像P4のように、背景被写体が変更されている途中の状況であると判断して、各撮影装置1の撮影間隔を基準値よりも大きくしてもよい。撮影される被写体の数が減少している状況は、何らかの準備を行っている状況と想定されることから、このような状況では撮影頻度を落とすことで、必要以上の撮影がなされるのを防ぐことができる。
(制御例2)
 プロセッサ53は、被写体の数の不一致を判定した場合であって、第2画像情報の被写体の数が第1画像情報の被写体より多いと判定した場合に、第2画像情報内の被写体の距離に基づき、各撮影装置1の撮影条件の制御を行ってもよい。
 具体的に、プロセッサ53は、画像P2又は画像P3に示すように、第2画像情報から認識した被写体の数が、第1画像情報から認識した被写体の数よりも多い場合には、第2画像情報の画像データに含まれる非特定被写体(図3の例では人物H2)と、第2画像情報の画像データに含まれる特定被写体(人物H1)との距離に基づいて、各撮影装置1の撮影条件を制御してもよい。
 より具体的に、プロセッサ53は、第2画像情報で認識した被写体の数が多いと判定した場合には、第2画像情報に含まれる、特定被写体と非特定被写体との距離が、所定の閾値以上か否かに基づいて、撮影間隔を変更してもよい。プロセッサ53は、この距離が閾値以上である場合には、撮影間隔を基準値のままとし、この距離が閾値未満である場合には、撮影間隔を基準値よりも小さくしてもよい。画像P2は、特定被写体と非特定被写体との距離が閾値以上である場合の例を示す。一方、画像P3は、特定被写体と非特定被写体との距離が閾値未満である場合の例を示す。
 または、プロセッサ53は、この距離が閾値以上である場合には、撮影間隔を基準値よりも大きくし、この距離が閾値未満である場合には、撮影間隔を基準値よりも小さくしてもよい。人物H1と人物H2が近くにいる状況は、人物H1の衣装や髪型を人物H2が調整している状況と考えられる。このような状況では撮影頻度を上げることで、カメラマンによって撮影されていない人物H1の自然な姿を多く撮影でき、貴重な画像を得ることが可能になる。
(制御例3)
 プロセッサ53は、第1画像情報の画像データに含まれる被写体の数と、第2画像情報の画像データに含まれる被写体の数とが同じ場合には、これら被写体が不一致の場合に、各撮影装置1の撮影条件の変更を行ってもよい。言い換えると、プロセッサ53は、被写体の数が一致する場合であっても、被写体の同一性が確認できない場合には、各撮影装置1の撮影条件を変更してもよい。
 例えば、第2画像情報に基づく画像が図4の画像P6であった場合の制御を説明する。画像P6の被写体の数は、画像P1の被写体の数と一致する。一方、画像P6には、特定被写体である物体OB1に代えて、非特定被写体である物体OB4が含まれる。このような場合、プロセッサ53は、各撮影装置1の撮影条件を、第2画像情報に適した撮影条件に変更する。
 具体的に、プロセッサ53は、各撮影装置1の露出値を物体OB2と物体OB4に適した値に変更したり、各撮影装置1の色彩又は階調の設定を物体OB2と物体OB4に適した値に変更したり、各撮影装置1のダイナミックレンジを物体OB2と物体OB4に適した値に変更したり、物体OB1と物体OB4の全体が撮影されるように各撮影装置1の画角を変更したりする。
 また、プロセッサ53は、被写体の数の一致及び被写体の同一性が確認できた場合であっても、被写体の位置関係に基づいて、各撮影装置1の撮影条件を変更してもよい。被写体の位置関係とは、主要な被写体と背景被写体との相対的な位置関係や、画角に対する特定被写体の位置関係が含まれる。
 具体的に、第1画像情報の画像データに含まれる被写体の数と、第2画像情報の画像データに含まれる被写体の数とが同じであり、被写体が一致している場合であっても、背景被写体の位置が大きく変化している場合には、その背景被写体が画角に入るように、各撮影装置1の撮影方向を変更してもよい。
 さらに、プロセッサ53は、被写体の数の一致及び被写体の同一性に関わらず、第1画像情報及び第2画像情報から得られる色彩情報に基づいて、各撮影装置1の撮影条件を変更してもよい。
 具体的には、第2画像情報の画像データにおいて、第1画像情報の画像データから特定被写体の色彩が変更された場合は、プロセッサ53は、各撮影装置1の撮影条件の変更を行ってもよい。例えば、特定被写体である撮影セットに色彩が鮮やかな置物が追加された場合に、プロセッサ53は、画像データに対して発色を強調するフィルタ処理を行い、置物の色彩を強調するようにしてもよい。又は、撮影セットの色彩が弱められた場合、プロセッサ53は、画像データに対して白黒画像とするフィルタ処理を行っても良い。
 また、プロセッサ53は、第1画像情報及び第2画像情報のそれぞれの特定被写体の明るさが一致しない場合に、各撮影装置1の撮影条件を変更してもよい。言い換えると、第2画像情報の画像データにおいて、第1画像情報の画像データから、特定被写体の明るさが変更された場合は、各撮影装置1の撮影条件の変更を行ってもよい。例えば、特定被写体である撮影セットに強い光を発するライトが追加された場合に、各撮影装置1がHDR(High Dynamic Range)撮影を行うように撮影条件が変更されてもよい。
 又は、撮影セットが移動した場合は、プロセッサ53は、撮影セットの移動に合わせて各撮影装置1の撮影方向を変更してもよい。撮影方向の変更に伴い、更に、特定被写体に上記のような変化があった場合は、上記と同様に撮影条件の制御を行ってもよい。言い換えると、撮影セットが移動され、且つ、撮影セットにライトが加わるような場合には、プロセッサ53は、撮影方向の変更の他、HDR撮影を行うように各撮影装置1の撮影条件を変更してもよい。
(制御例4)
 プロセッサ53は、第2画像情報の画像データにおいて、特定被写体の少なくとも一部が非特定被写体によって遮られている場合には、各撮影装置1の撮影間隔を基準値よりも大きくしてもよい。例えば、図4の画像P5の例では、人物H1の一部が、物体OB3によって遮られている。このような場合に、各撮影装置1の撮影間隔を基準値よりも大きくすることで、特定被写体が隠れている画像が多く撮影されるのを防ぐことができる。
 なお、撮影条件を変更する撮影装置は、複数の撮影装置の内の一部であってもよい。例えば、複数の撮影装置1の一部の撮影装置によって撮影される特定被写体が、非特定被写体によって少なくとも一部遮られ、かつ、それ以外の撮影装置によって撮影される特定被写体が非特定被写体によって遮られない場合は、その一部の撮影装置の撮影間隔のみを基準値よりも大きくし、それ以外の撮影装置の撮影間隔を基準値と同じにしてもよいし、短くしてもよい。それ以外の撮影装置の撮影間隔を基準値よりも短くした場合、撮影間隔を基準値よりも大きくした一部の撮影装置の総撮影枚数が減った分をカバーすることができる。
 または、特定被写体の少なくとも一部が非特定被写体(物体OB3)によって遮られている場合には、プロセッサ53は、画角を変更してもよい。例えば、プロセッサ53は、非特定被写体の画像上のサイズが小さくなるように、撮影装置1を制御してズームアウトさせてもよい。なお、画角の変更は、撮影間隔の変更に代えて行われてもよいし、撮影間隔の変更に加えて行われてもよい。
 以上の説明では、撮影装置1cによって最初に撮影された画像情報を第1画像情報とし、第1画像情報が得られた後に撮影装置1cによって撮影された画像情報を第2画像情報とした。また、プロセッサ53が、第1画像情報と第2画像情報に基づいて、5つの撮影装置1のそれぞれの撮影条件を制御するものとした。言い換えると、上記説明では、一の撮影装置1cによって得られた第1画像情報及び第2画像情報に基づいて、プロセッサ53は、撮影システム100に含まれる全ての撮影装置1の撮影条件を制御した。
 しかし、プロセッサ53は、第1画像情報と第2画像情報に基づいて、撮影装置1c以外の4つの撮影装置1のそれぞれの撮影条件を制御してもよい。つまり、撮影装置1cを第1画像情報と第2画像情報を取得する専用の装置として利用し、プロセッサ53は、第1画像情報と第2画像情報に基づいて、撮影装置1a、撮影装置1b、撮影装置1d、及び撮影装置1eのそれぞれを制御してもよい。このようにすると、撮影装置1cの撮影条件は初期設定から変更されず、他の撮影装置1a、1b、1d、1eの撮影条件は、第1画像情報及び第2画像情報に基づいて、撮影現場の状況に応じて変更される。すなわち、5つの撮影装置1によって2種類の撮影条件で特定被写体の撮影がなされることになるため、多様な画像データを得ることができる。
 また、撮影装置1a、撮影装置1b、撮影装置1d、及び撮影装置1eのそれぞれが同じ撮影条件で撮影を行わないように制御してもよい。つまり、プロセッサ53は、第1画像情報と第2画像情報に基づいて、撮影装置1a、撮影装置1b、撮影装置1d、及び撮影装置1eの少なくとも1つについて、撮影条件を制御してもよい。このようにすることで、より多様な画像データを得ることができる。
 また、撮影装置1cを第1画像情報と第2画像情報を取得する専用の装置として利用し、かつ、撮影装置1cが自らの撮影条件を自動で設定するモードで動作する場合には、プロセッサ53は、第1画像情報に含まれる撮影設定情報と第2画像情報に含まれる撮影設定情報との差に基づいて、撮影装置1a、撮影装置1b、撮影装置1d、及び撮影装置1eの少なくとも1つの撮影条件を制御してもよい。
 例えば、第1画像情報を撮影したときの特定被写体の明るさと、第2画像情報を撮影したときの特定被写体の明るさとが異なる場合には、その明るさの差に応じて撮影装置1cの撮影条件が自動で変更される。したがって、第1画像情報に含まれる撮影設定情報(露出値)と第2画像情報に含まれる撮影設定情報(露出値)には差が生じる。プロセッサ53は、この差が閾値以上となった場合には、撮影装置1a、撮影装置1b、撮影装置1d、及び撮影装置1eの少なくとも1つの撮影条件(例えば露出値)を、第2画像情報に含まれる撮影設定情報(例えば露出値)に近づける制御を行う。このようにすることで、特定被写体の明るさに適した撮影を撮影装置1a、撮影装置1b、撮影装置1d、及び撮影装置1eによって行うことができる。
 以上の説明では、撮影装置1が最初に撮影した画像情報が第1画像情報として登録されるものとしたが、撮影装置2が最初に撮影した画像情報を第1画像情報として登録してもよい。
 また、第1画像情報と第2画像情報は、同じ撮影装置1(撮影装置1c)によって撮影されたものとしたが、これに限らない。例えば、撮影装置1cが最初に撮影した画像情報を第1画像情報とし、撮影装置1bがその後に撮影した画像情報を第2画像情報とし、これらの第1画像情報と第2画像情報に基づいてプロセッサ53が5つの撮影装置1の少なくとも1つの制御を行ってもよい。
 以上のように、第1適用例によれば、撮影装置1の撮影条件を、撮影装置1によって撮影される第2画像情報と、撮影装置1又は撮影装置2によって撮影された第1画像情報とに基づいて自動で変更できる。このため、撮影される被写体の変化に対して撮影条件をリアルタイムで変更することができ、被写体の状態に応じた最適な撮影が可能になる。
<撮影システムの第2適用例>
 図5及び図6は、撮影システム100をコンサートが開催されるイベント会場に適用した例を示す模式図である。第2適用例では、撮影システム100において、撮影装置2が削除され、代わりに、撮影装置1fが追加されている。撮影装置1fは、撮影制御装置5の制御により自動的に、且つ連続して撮影を行う撮影装置である。そして、撮影システム100を構成する6つの撮影装置1は、5人の人物H3からなるグループがコンサートを行うイベント会場に設置されている。
 6つの撮影装置1は、ステージSGの周囲に配置されており、ステージSG上で演じるグループをそれぞれ異なる方向から撮影する。図5には、各撮影装置1の撮影領域Avが示されている。各撮影領域Avには、5人の人物H3が含まれている。
 撮影装置1fは、撮影装置1a、撮影装置1b、撮影装置1c、撮影装置1d、及び、撮影装置1eよりも鉛直方向で高い位置に設置されている。また、撮影装置1fは、ステージSGのほぼ全域を撮影可能に構成されている。つまり、撮影装置1fの撮影領域Avは、撮影装置1a、撮影装置1b、撮影装置1c、撮影装置1d、及び、撮影装置1eの少なくとも1つの撮影領域Avの一部又は全部と重なっている。撮影装置1fの撮影領域Avは包含撮影領域を構成している。すなわち、包含撮影領域とは、複数の撮影装置1a~1eの撮影領域Avの少なくとも一部を含む撮影領域を意味する。言い換えると、包含撮影領域には、撮影装置1a~1eのうち、少なくとも一つの撮影装置による撮影領域Avの全て又は少なくとも一つの撮影装置による撮影領域Avの一部が含まれる。
 撮影装置1fは、ステージSGを俯瞰撮影する撮影装置である。撮影装置1fはドローンなどの飛行体であってもよい。または、撮影装置1fは、ステージSGの天井近傍に取り付けられ、水平方向及び平面方向を移動可能な装置であってもよい。
 6つの撮影装置1は、それぞれ、撮影制御装置5からの制御によって、撮影を自動的に且つ連続して実行する。一般的に撮影装置は、レンズの種類、撮像素子の種類、画像処理エンジン等の構成に応じて、同じ領域を撮影した場合でも得られる画像に差異が生じる。6つの撮影装置1は、同一の構成の撮影装置であってもよいし、俯瞰撮影する撮影装置1fのみ他とは異なる撮影特性を有する撮影装置であってもよい。言い換えると、レンズ、撮像素子、および画像処理エンジン等の構成について、6つの撮影装置1は、同じであってもよいし、撮影装置1fのみ異なっていてもよい。
 第2適用例において、プロセッサ53は、撮影装置1fにより基準状態にて撮影した第1画像情報と、撮影装置1fにより非基準状態にて撮影した第2画像情報とに基づき、撮影装置1a、撮影装置1b、撮影装置1c、撮影装置1d、及び、撮影装置1eのそれぞれの制御を行う。
 第2適用例において、基準状態と非基準状態は、イベントのスケジュールに基づき決定される。具体的には、基準状態とは、コンサートのリハーサルが行われている状態であり、非基準状態とは、コンサートの本番が行われている状態である。言い換えると、基準状態とは、リハーサル中に撮影装置1fによって撮影された画像情報が示す状態である。リハーサルが第1のタイミングである。また、非基準状態とは、本番中に撮影装置1fによって撮影された画像情報が示す状態である。本番は、第1のタイミングの後のタイミグ(第2のタイミング)である。
 コンサートでは、5人の人物H3が様々な配列パターンで静止する。例えば、図5では、5人の人物H3がステージSGの中央に集まって2列に並んで静止する配列パターンを示す。また、図6では、5人の人物H3がステージSGに一列に並んで静止する配列パターンを示す。ここでは、コンサートの際中に、グループの配列パターンが、図5に示す配列パターンとなった後に、図6に示す配列パターンに移行するようにスケジュールされているものとする。
 コンサートのリハーサルを開始するにあたり、スタッフが、撮影制御装置5に対してリハーサルを開始することを示す情報の入力を行うと、プロセッサ53は、6つの撮影装置1のうち少なくとも撮影装置1fに撮影開始指示を出す。これにより、プロセッサ53は、撮影装置1fに対し、自動での連続撮影を開始させる。ここでも、連続撮影は、撮影モード、撮影間隔、露出値、ズーム倍率、及び撮影方向を既定の基準値に設定した撮影である。
 プロセッサ53は、リハーサル中に撮影された画像情報のうち、グループの配列パターンが大きく変化する直前のタイミングにて撮影された画像情報を取得して、この画像情報を第1画像情報として登録する。上述したように、本実施形態では、配列パターンは、図5に示す配列パターンの後、図6に示す配列パターンへと大きく変化することがスケジュールで決まっている。このため、プロセッサ53は、図5に示す配列パターンとなった状態で撮影装置1fによって撮影された画像情報を取得して第1画像情報として登録する。この第1画像情報は、リハーサル中に、既定の配列パターンの被写体(人物H3)を画角に含む状態で撮影されたものとなる。
 なお、配列パターンの大きな変化が何度もある場合、プロセッサ53は、複数の画像情報を、第1画像情報として登録する。すなわち、第1画像情報の数は、既定の配列パターンの数や種類に応じて変動する。
 コンサートの本番を開始する際には、スタッフが、撮影制御装置5に対して本番を開始することを示す情報の入力を行う。本番開始を示す情報の入力を検知すると、プロセッサ53は、6つの撮影装置1に撮影開始指示を出して、これら撮影装置1による自動での連続撮影を開始させる。ここでも、連続撮影は、撮影モード、撮影間隔、露出値、ズーム倍率、及び撮影方向を既定の基準値に設定した撮影である。
 第2適用例では、本番中に撮影装置1fによって順次撮影される画像情報を第2画像情報と記載する。各撮影装置1による自動撮影の開始後、プロセッサ53は、撮影装置1fにより撮影された第2画像情報を逐次取得し、取得した第2画像情報と、登録した第1画像情報とに基づいて、撮影装置1fを除く他の5つの撮影装置1のそれぞれの撮影条件を制御する。
 具体的には、プロセッサ53は、第1画像情報に含まれるグループの配列パターンと、第2画像情報に含まれるグループの配列パターンとに基づいて、撮影装置1fを除く他の5つの撮影装置1のそれぞれの撮影条件を制御する。
 例えば、プロセッサ53は、第2画像情報に含まれるグループの配列パターンと、第1画像情報に含まれるグループの配列パターンとの類似度を導出し、この類似度が閾値未満の場合には、5つの撮影装置1のそれぞれの撮影条件を基準値に維持し、この類似度が閾値以上の場合には、5つの撮影装置1のそれぞれの撮影条件を基準値に対して変更する。
 図6に示す配列パターンでは、5人の人物H3を個別に撮影可能になる。そこで、プロセッサ53は、図5に示す配列パターンに類似する配列パターンが第2画像情報に含まれる場合には、5つの撮影装置1のそれぞれの撮影モードを個別撮影に適した撮影モードに変更する。或いは、プロセッサ53は、5人の人物H3をそれぞれアップで撮影できるように、5つの撮影装置1のそれぞれのフォーカス位置又はズーム倍率を変更する。個別撮影に適した撮影モードには、例えば、ポートレートモード又は美肌モード等が含まれる。
 又は、プロセッサ53は、図5に示す配列パターンに類似する配列パターンが第2画像情報に含まれる場合に、図6に示す配列パターンにおいて5人の人物H3が全員写るように撮影装置1のズーム倍率を制御してもよい。
 また、図6に示すような配列パターンになる時、あるいは、被写体が継続して同じポーズをとる時等は、イベントにおいて重要な場面であることが多い。プロセッサ53は、そのような重要な場面を含む時間帯の撮影枚数を増やすため、図5に示す配列パターンに類似する配列パターンが第2画像情報に含まれる場合に、撮影装置1を連写モードにしてもよい。または、プロセッサ53は、被写体が継続して同じポーズをとる直前の配列パターンに類似する配列パターンが第2画像情報に含まれる場合に、撮影装置1を連写モードにしてもよい。
 あるいは、プロセッサ53は、図6に示すような配列パターンの場面において複数の撮影装置1の撮影タイミングが同じとなるように撮影条件を制御してもよい。また、プロセッサ53は、それぞれの撮影装置1の撮影タイミングがわずかに異なるように撮影条件を制御してもよい。複数の撮影装置1の撮影タイミングが同じであれば、注目すべき場面において様々な角度から同時に撮影した画像を得ることができる。
 また、リハーサルが行われている時に撮影された複数の第1画像情報の差異に基づき、被写体の動きが速いタイミングを判定してもよい。この場合、被写体の動きが速くなる直前の第1画像情報に含まれるグループの配列パターンと、第2画像情報に含まれるグループの配列パターン(例えば図5)との類似度が閾値以上の場合に、複数の撮影装置1がメカニカルシャッターを使うように撮影条件が制御されてもよい。このように制御することにより、ローリングシャッタを使う場合のローリング歪を防止することができる。
 以上の説明では、プロセッサ53が、第1画像情報と第2画像情報に基づいて、撮影装置1fを除いた5つの撮影装置1のそれぞれの撮影条件を制御するものとした。しかし、プロセッサ53は、第1画像情報と第2画像情報に基づいて、撮影装置1a、撮影装置1b、撮影装置1c、撮影装置1d、及び撮影装置1eの少なくとも1つの撮影装置について、撮影条件を制御してもよい。このようにすると、撮影装置1a、撮影装置1b、撮影装置1c、撮影装置1d、及び撮影装置1eによって複数種類の撮影条件でグループの撮影がなされる。その結果、多様な画像データを得ることができる。
 また、プロセッサ53は、撮影装置1a、撮影装置1b、撮影装置1c、撮影装置1d、及び撮影装置1eのうち、撮影装置1fの撮影領域Avと撮影領域が一部又は全部重なっている撮影装置の撮影条件のみを制御してもよい。例えば、撮影装置1a~撮影装置1fの撮影方向、画角等が途中で変更されることも考えられる。この場合、撮影装置1a、撮影装置1b、撮影装置1c、撮影装置1d、及び撮影装置1eのいずれかの撮影領域Avが、撮影装置1fの撮影領域Avと重ならないことも生じ得る。その場合、撮影装置1fの撮影領域Avと重ならない撮影領域Avを撮影する撮影装置は制御対象としないことが望ましい。なお、撮影領域Avが撮影装置1fの撮影領域Avと重ならない撮影装置に関する情報は、ユーザによって予め登録されていてもよいし、画像認識処理を用いて判定されてもよい。
 また、第1画像情報と第2画像情報をそれぞれ撮影する撮影装置1fについては、本番中の露出値等の撮影設定を撮影環境に応じて自動で変更するように構成してもよい。この場合、プロセッサ53は、第2画像情報に基づいて、撮影装置1f以外の5つの撮影装置1の撮影設定(例えば露出)を変更してもよい。
 例えば、プロセッサ53は、第2画像情報に含まれる撮影設定情報(例えば露出値)と、撮影装置1f以外の5つの撮影装置1によって撮影された各画像情報に含まれる撮影設定情報(例えば露出値)との差に基づいて、この5つの撮影装置1の撮影設定(例えば露出値)を変更する。より詳細には、プロセッサ53は、撮影装置1f以外の5つの撮影装置1の露出値が、撮影装置1fの露出値に近づくように、5つの撮影装置1の露出変更を行う。このようにすることで、6つの撮影装置1によって適正な露出でイベントを撮影可能となる。
 また、第1画像情報と第2画像情報をそれぞれ撮影する撮影装置については、イベントのスケジュールに基づき露出値等の撮影設定を撮影環境に応じて自動で変更するように構成してもよい。例えば、イベントのスケジュールには、上記で示した配列パターン以外にも、映像の表示、照明の変更等、撮影環境の明るさを変更する要因が含まれる場合がある。この場合、イベントのスケジュールを考慮して撮影装置1の露出値を自動で変更するように制御してもよい。
 また、イベントのスケジュールによって、配列パターン及び撮影環境の明るさ以外に、特に注目すべき場面が決まることがある。例えば、イベントがコンサートであれば、出演者が一斉に同じポーズをとる場面がスケジュールによって決まることがある。この場合には、スケジュールに基づき同じポーズをとる場面を含む時間帯の撮影枚数を増やすために、その同じポーズをとる場面の前後数秒間、撮影装置1を連写モードにしてもよい。または、イベントが結婚式であれば、新郎新婦が入場する場面なども同様に撮影装置1を連写モードにしてもよい。
 あるいは、スケジュールに基づき特定の場面の複数の撮影装置1の撮影タイミングが同じとなるように制御してもよいし、複数の撮影装置1の撮影タイミングをわずかに異なるように制御してもよい。また、スケジュールに基づき、被写体の動きが速い時間帯が分かる場合は、その時間帯のみメカニカルシャッターを優先して使用するように制御してもよい。
 以上のように、第2適用例によれば、撮影装置1f以外の5つの撮影装置1の撮影条件を、撮影装置1fによって撮影される第2画像情報と、撮影装置1fによって撮影された第1画像情報とに基づいて自動で変更できる。このため、撮影される被写体の変化に対して撮影条件をリアルタイムで変更することができ、被写体の状態に応じた最適な撮影が可能になる。
 なお、プロセッサ53は、撮影装置1fにより撮影された、第1画像情報と第2画像情報に基づいて、更に撮影装置1fの撮影条件を変更してもよい。例えば、図5に示す配列パターンから図6に示す配列パターンに変化した後に、ステージSGの照明が明るくなるような演出がなされる場合を想定する。
 このような場合、プロセッサ53は、まず、第2画像情報に含まれるグループの配列パターンと第1画像情報に含まれるグループの配列パターンとの類似度が閾値以上か否かを判定する。ここで、類似度が閾値以上の場合には、プロセッサ53は、撮影装置1a、撮影装置1b、撮影装置1c、撮影装置1d、及び撮影装置1eそれぞれの撮影条件を基準値に対して変更する。さらに、プロセッサ53は、その後のステージSGの明るさの変更を考慮して、撮影装置1fの露出値を変更する。
 このようにすることで、第2画像情報を高品質なものにすることができ、プロセッサ53による撮影装置1a、撮影装置1b、撮影装置1c、撮影装置1d、及び撮影装置1eの制御を高精度に行うことができる。
 以上説明したように、本明細書には以下の事項が少なくとも記載されている。なお、括弧内には、上記した実施形態において対応する構成要素等を示しているが、これに限定されるものではない。
(1)
 プロセッサ(プロセッサ53)と、メモリ(メモリ52)とを備え、
 上記プロセッサは、複数の撮影装置(撮影装置1)のいずれか(撮影装置1c又は撮影装置1f)により基準状態にて撮影された画像に関する情報である第1画像情報と、上記複数の撮影装置のいずれか(撮影装置1c又は撮影装置1f)により非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、上記複数の撮影装置のいずれか(撮影装置1a、撮影装置1b、撮影装置1c、撮影装置1d、撮影装置1e、又は撮影装置1f)の制御を行う、
撮影制御装置(撮影制御装置5)。
(2)
 (1)に記載の撮影制御装置であって、
 上記基準状態は、予め決められた条件を満たした状態である、
撮影制御装置。
(3)
 (1)又は(2)に記載の撮影制御装置であって、
 上記基準状態は、特定被写体(人物H1、物体OB1、及び物体OB2)のみを画角に含む状態である、
撮影制御装置。
(4)
 (3)に記載の撮影制御装置であって、
 上記プロセッサは、上記第1画像情報に含まれる被写体の数と、上記第2画像情報に含まれる被写体の数とに基づいて、上記複数の撮影装置のいずれかの制御を行う、
撮影制御装置。
(5)
 (4)に記載の撮影制御装置であって、
 上記プロセッサは、更に、上記第2画像情報に含まれる被写体間の距離に基づいて、上記複数の撮影装置のいずれかの制御を行う、
撮影制御装置。
(6)
 (3)に記載の撮影制御装置であって、
 上記プロセッサは、上記第1画像情報に含まれる上記特定被写体と、上記第2画像情報に含まれる上記特定被写体以外の被写体(物体OB3)とに基づいて、上記複数の撮影装置のいずれかの制御を行う、
撮影制御装置。
(7)
 (1)から(6)のいずれかに記載の撮影制御装置であって、
 上記複数の撮影装置は撮影スタジオに設置され、
 上記基準状態は、撮影対象の特定被写体(人物H1、物体OB1、及び物体OB2)のみの撮影を開始した状態であり、
 上記非基準状態は、上記撮影対象の特定被写体の撮影開始後の状態である、
撮影制御装置。
(8)
 (2)に記載の撮影制御装置であって、
 上記非基準状態は、上記複数の撮影装置によって撮影される特定被写体の背景が、上記基準状態に対して変化した状態を含む、
撮影制御装置。
(9)
 (2)に記載の撮影制御装置であって、
 上記基準状態は、既定のパターンの被写体を画角に含む状態である、
撮影制御装置。
(10)
 (9)に記載の撮影制御装置であって、
 上記プロセッサは、上記第1画像情報に含まれる被写体のパターンと、上記第2画像情報に含まれる被写体のパターンとに基づいて、上記複数の撮影装置のいずれかの制御を行う、
撮影制御装置。
(11)
 (1)、(2)、(9)、又は(10)に記載の撮影制御装置であって、
 上記複数の撮影装置はイベント会場に設置され、
 上記基準状態は、イベントのリハーサルが行われている状態であり、
 上記非基準状態は、イベントの本番が行われている状態である、
撮影制御装置。
(12)
 (1)に記載の撮影制御装置であって、
 上記複数の撮影装置は、会場で行われるイベントを撮影し、
 上記基準状態と上記非基準状態は、上記イベントのスケジュールに基づき決定される、撮影制御装置。
(13)
 (1)又は(2)に記載の撮影制御装置であって、
 上記プロセッサは、上記第1画像情報に含まれる撮影設定と、上記第2画像情報に含まれる撮影設定との差に基づいて、上記複数の撮影装置のいずれかの制御を行う、
撮影制御装置。
(14)
 (1)又は(2)に記載の撮影制御装置であって、
 上記プロセッサは、上記第1画像情報と上記第2画像情報を撮影した撮影装置の撮影設定と、その撮影装置以外の他の撮影装置の撮影設定との差に基づいて、上記他の撮影装置の撮影設定を制御する、
撮影制御装置。
(15)
 (1)から(14)のいずれかに記載の撮影制御装置であって、
 上記第1画像情報を撮影した撮影装置と上記第2画像情報を撮影した撮影装置とが同一である、
撮影制御装置。
(16)
 (1)から(15)のいずれかに記載の撮影制御装置であって、
 上記第1画像情報と上記第2画像情報に基づいて制御が行われる撮影装置と、上記第1画像情報と上記第2画像情報を撮影した撮影装置とが異なる撮影制御装置。
(17)
 (1)から(16)のいずれかに記載の撮影制御装置であって、
 上記プロセッサが制御する上記撮影装置のパラメータは、上記撮影装置の撮影条件を含む、
撮影制御装置。
(18)
 (17)に記載の撮影制御装置であって、
 上記撮影条件は、撮影間隔、画角、撮影方向、露出、及び撮影モードのうち少なくとも1つを含む、
撮影制御装置。
(19)
 (1)から(18)のいずれかに記載の撮影制御装置であって、
 上記プロセッサは、上記複数の撮影装置とは別の手動で操作される撮影装置(撮影装置2)の撮影に関連した動作(撮影指示又はオートフォーカス指示)に基づいて、上記複数の撮影装置に撮影を実行させる、
撮影制御装置。
(20)
 (1)から(19)のいずれかに記載の撮影制御装置であって、
 上記第1画像情報を撮影する撮影装置(撮影装置1f)は、その撮影装置を除く全ての上記撮影装置の撮影領域(撮影領域Av)を撮影可能であり、
 上記プロセッサは、上記第1画像情報を撮影する上記撮影装置が撮影した画像情報に基づいて、その撮影装置以外の上記撮影装置の撮影設定を変更する、
撮影制御装置。
(21)
 プロセッサ(プロセッサ53)と、メモリ(メモリ52)とを備え、
 上記プロセッサは、複数の撮影装置(撮影装置1a、撮影装置1b、撮影装置1c、撮影装置1d、及び撮影装置1e)とは異なる他の撮影装置(撮影装置1f)により基準状態にて撮影された画像に関する情報である第1画像情報と、上記他の撮影装置により非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、上記複数の撮影装置のいずれかの制御を行う、
撮影制御装置。
(22)
 (21)に記載の撮影制御装置であって、
 上記他の撮影装置は、上記複数の撮影装置の撮影領域の少なくとも一部を含む包含撮影領域を撮影するものである、
撮影制御装置。
(23)
 (21)に記載の撮影制御装置であって、
 上記他の撮影装置は、上記複数の撮影装置よりも鉛直方向の位置が高い位置にあるものである、
撮影制御装置。
(24)
 複数の撮影装置を制御する撮影制御方法であって、
 上記複数の撮影装置のいずれかにより基準状態にて撮影された画像に関する情報である第1画像情報と、上記複数の撮影装置のいずれかにより非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、上記複数の撮影装置のいずれかの制御を行う、
撮影制御方法。
(25)
 複数の撮影装置を制御する撮影制御方法であって、
 上記複数の撮影装置とは異なる他の撮影装置により基準状態にて撮影された画像に関する情報である第1画像情報と、上記他の撮影装置により非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、上記複数の撮影装置のいずれかの制御を行う、
撮影制御方法。
(26)
 複数の撮影装置を制御する撮影制御プログラムであって、
 プロセッサに、上記複数の撮影装置のいずれかにより基準状態にて撮影された画像に関する情報である第1画像情報と、上記複数の撮影装置のいずれかにより非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、上記複数の撮影装置のいずれかの制御を行うステップを実行させる、
撮影制御プログラム。
(27)
 複数の撮影装置を制御する撮影制御プログラムであって、
 プロセッサに、上記複数の撮影装置とは異なる他の撮影装置により基準状態にて撮影された画像に関する情報である第1画像情報と、上記他の撮影装置により非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、上記複数の撮影装置のいずれかの制御を行うステップを実行させる、
撮影制御プログラム。
1a,1b,1c,1d,1e,1f,1,2 撮影装置
H1,H2,H3 人物
OB1,OB2,OB3,OB4 物体
P1,P2,P3,P4,P5,P6 画像
3 ネットワーク
4 画像保管サーバ
5 撮影制御装置
51 通信インタフェース
52 メモリ
53 プロセッサ
100 撮影システム

Claims (27)

  1.  プロセッサと、メモリとを備え、
     前記プロセッサは、複数の撮影装置のいずれかにより基準状態にて撮影された画像に関する情報である第1画像情報と、前記複数の撮影装置のいずれかにより非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、前記複数の撮影装置のいずれかの制御を行う、
    撮影制御装置。
  2.  請求項1に記載の撮影制御装置であって、
     前記基準状態は、予め決められた条件を満たした状態である、
    撮影制御装置。
  3.  請求項1又は2に記載の撮影制御装置であって、
     前記基準状態は、特定被写体のみを画角に含む状態である、
    撮影制御装置。
  4.  請求項3に記載の撮影制御装置であって、
     前記プロセッサは、前記第1画像情報に含まれる被写体の数と、前記第2画像情報に含まれる被写体の数とに基づいて、前記複数の撮影装置のいずれかの制御を行う、
    撮影制御装置。
  5.  請求項4に記載の撮影制御装置であって、
     前記プロセッサは、更に、前記第2画像情報に含まれる被写体間の距離に基づいて、前記複数の撮影装置のいずれかの制御を行う、
    撮影制御装置。
  6.  請求項3に記載の撮影制御装置であって、
     前記プロセッサは、前記第1画像情報に含まれる前記特定被写体と、前記第2画像情報に含まれる前記特定被写体以外の被写体とに基づいて、前記複数の撮影装置のいずれかの制御を行う、
    撮影制御装置。
  7.  請求項1から6のいずれか1項に記載の撮影制御装置であって、
     前記複数の撮影装置は撮影スタジオに設置され、
     前記基準状態は、撮影対象の特定被写体のみの撮影を開始した状態であり、
     前記非基準状態は、前記撮影対象の特定被写体の撮影開始後の状態である、
    撮影制御装置。
  8.  請求項2に記載の撮影制御装置であって、
     前記非基準状態は、前記複数の撮影装置によって撮影される特定被写体の背景が、前記基準状態に対して変化した状態を含む、
    撮影制御装置。
  9.  請求項2に記載の撮影制御装置であって、
     前記基準状態は、既定のパターンの被写体を画角に含む状態である、
    撮影制御装置。
  10.  請求項9に記載の撮影制御装置であって、
     前記プロセッサは、前記第1画像情報に含まれる被写体のパターンと、前記第2画像情報に含まれる被写体のパターンとに基づいて、前記複数の撮影装置のいずれかの制御を行う、
    撮影制御装置。
  11.  請求項1、2、9、又は10に記載の撮影制御装置であって、
     前記複数の撮影装置はイベント会場に設置され、
     前記基準状態は、イベントのリハーサルが行われている状態であり、
     前記非基準状態は、イベントの本番が行われている状態である、
    撮影制御装置。
  12.  請求項1に記載の撮影制御装置であって、
     前記複数の撮影装置は、会場で行われるイベントを撮影し、
     前記基準状態と前記非基準状態は、前記イベントのスケジュールに基づき決定される、撮影制御装置。
  13.  請求項1又は2に記載の撮影制御装置であって、
     前記プロセッサは、前記第1画像情報に含まれる撮影設定と、前記第2画像情報に含まれる撮影設定との差に基づいて、前記複数の撮影装置のいずれかの制御を行う、
    撮影制御装置。
  14.  請求項1又は2に記載の撮影制御装置であって、
     前記プロセッサは、前記第1画像情報と前記第2画像情報を撮影した撮影装置の撮影設定と、当該撮影装置以外の他の撮影装置の撮影設定との差に基づいて、前記他の撮影装置の撮影設定を制御する、
    撮影制御装置。
  15.  請求項1から14のいずれか1項に記載の撮影制御装置であって、
     前記第1画像情報を撮影した撮影装置と前記第2画像情報を撮影した撮影装置とが同一である、
    撮影制御装置。
  16.  請求項1から15のいずれか1項に記載の撮影制御装置であって、
     前記第1画像情報と前記第2画像情報に基づいて制御が行われる撮影装置と、前記第1画像情報と前記第2画像情報を撮影した撮影装置とが異なる
    撮影制御装置。
  17.  請求項1から16のいずれか1項に記載の撮影制御装置であって、
     前記プロセッサが制御する前記撮影装置のパラメータは、前記撮影装置の撮影条件を含む、
    撮影制御装置。
  18.  請求項17に記載の撮影制御装置であって、
     前記撮影条件は、撮影間隔、画角、撮影方向、露出、及び撮影モードのうち少なくとも1つを含む、
    撮影制御装置。
  19.  請求項1から18のいずれか1項に記載の撮影制御装置であって、
     前記プロセッサは、前記複数の撮影装置とは別の手動で操作される撮影装置の撮影に関連した動作に基づいて、前記複数の撮影装置に撮影を実行させる、
    撮影制御装置。
  20.  請求項1から19のいずれか1項に記載の撮影制御装置であって、
     前記第1画像情報を撮影する撮影装置は、当該撮影装置を除く全ての前記撮影装置の撮影領域を撮影可能であり、
     前記プロセッサは、前記第1画像情報を撮影する前記撮影装置が撮影した画像情報に基づいて、当該撮影装置以外の前記撮影装置の撮影設定を変更する、
    撮影制御装置。
  21.  プロセッサと、メモリとを備え、
     前記プロセッサは、複数の撮影装置とは異なる他の撮影装置により基準状態にて撮影された画像に関する情報である第1画像情報と、前記他の撮影装置により非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、前記複数の撮影装置のいずれかの制御を行う、
    撮影制御装置。
  22.  請求項21に記載の撮影制御装置であって、
     前記他の撮影装置は、前記複数の撮影装置の撮影領域の少なくとも一部を含む包含撮影領域を撮影するものである、
    撮影制御装置。
  23.  請求項21に記載の撮影制御装置であって、
     前記他の撮影装置は、前記複数の撮影装置よりも鉛直方向の位置が高い位置にあるものである、
    撮影制御装置。
  24.  複数の撮影装置を制御する撮影制御方法であって、
     前記複数の撮影装置のいずれかにより基準状態にて撮影された画像に関する情報である第1画像情報と、前記複数の撮影装置のいずれかにより非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、前記複数の撮影装置のいずれかの制御を行う、
    撮影制御方法。
  25.  複数の撮影装置を制御する撮影制御方法であって、
     前記複数の撮影装置とは異なる他の撮影装置により基準状態にて撮影された画像に関する情報である第1画像情報と、前記他の撮影装置により非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、前記複数の撮影装置のいずれかの制御を行う、
    撮影制御方法。
  26.  複数の撮影装置を制御する撮影制御プログラムであって、
     プロセッサに、前記複数の撮影装置のいずれかにより基準状態にて撮影された画像に関する情報である第1画像情報と、前記複数の撮影装置のいずれかにより非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、前記複数の撮影装置のいずれかの制御を行うステップを実行させる、
    撮影制御プログラム。
  27.  複数の撮影装置を制御する撮影制御プログラムであって、
     プロセッサに、前記複数の撮影装置とは異なる他の撮影装置により基準状態にて撮影された画像に関する情報である第1画像情報と、前記他の撮影装置により非基準状態にて撮影された画像に関する情報である第2画像情報とに基づき、前記複数の撮影装置のいずれかの制御を行うステップを実行させる、
    撮影制御プログラム。
PCT/JP2022/028856 2021-09-30 2022-07-27 撮影制御装置、撮影制御方法、及び撮影制御プログラム WO2023053698A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023550413A JPWO2023053698A1 (ja) 2021-09-30 2022-07-27

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021162016 2021-09-30
JP2021-162016 2021-09-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/618,573 Continuation US20240244339A1 (en) 2021-09-30 2024-03-27 Imaging control device, imaging control method, and imaging control program

Publications (1)

Publication Number Publication Date
WO2023053698A1 true WO2023053698A1 (ja) 2023-04-06

Family

ID=85782242

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/028856 WO2023053698A1 (ja) 2021-09-30 2022-07-27 撮影制御装置、撮影制御方法、及び撮影制御プログラム

Country Status (2)

Country Link
JP (1) JPWO2023053698A1 (ja)
WO (1) WO2023053698A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003348428A (ja) * 2002-05-24 2003-12-05 Sharp Corp 撮影システム、撮影方法、撮影プログラムおよび撮影プログラムを記録したコンピュ−タ読取可能な記録媒体
JP2010011223A (ja) * 2008-06-27 2010-01-14 Sony Corp 信号処理装置、信号処理方法、プログラム及び記録媒体
JP2011188210A (ja) * 2010-03-08 2011-09-22 Olympus Imaging Corp 撮影機器及び撮影システム
JP2018023683A (ja) * 2016-08-12 2018-02-15 辰巳電子工業株式会社 遊戯用撮影装置および遊戯用撮影方法
JP2019050523A (ja) * 2017-09-11 2019-03-28 キヤノン株式会社 生成装置、情報処理方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003348428A (ja) * 2002-05-24 2003-12-05 Sharp Corp 撮影システム、撮影方法、撮影プログラムおよび撮影プログラムを記録したコンピュ−タ読取可能な記録媒体
JP2010011223A (ja) * 2008-06-27 2010-01-14 Sony Corp 信号処理装置、信号処理方法、プログラム及び記録媒体
JP2011188210A (ja) * 2010-03-08 2011-09-22 Olympus Imaging Corp 撮影機器及び撮影システム
JP2018023683A (ja) * 2016-08-12 2018-02-15 辰巳電子工業株式会社 遊戯用撮影装置および遊戯用撮影方法
JP2019050523A (ja) * 2017-09-11 2019-03-28 キヤノン株式会社 生成装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JPWO2023053698A1 (ja) 2023-04-06

Similar Documents

Publication Publication Date Title
US7436438B2 (en) Digital still camera and method of forming a panoramic image
JP6401324B2 (ja) ダイナミックフォトの撮影方法及び装置
US9013589B2 (en) Digital image processing apparatus and digital image processing method capable of obtaining sensibility-based image
KR101776702B1 (ko) 3차원 영상을 생성하는 감시 카메라 및 그 방법
JP2010010936A (ja) 画像記録装置、画像記録方法、画像処理装置、画像処理方法、プログラム
JP2007081682A (ja) 画像処理装置、画像処理方法、及び、情報処理装置が実行可能なプログラム
US20100302428A1 (en) Imaging device
US10375298B2 (en) Imaging apparatus
JP2011182252A (ja) 撮像装置および画像撮影方法
JP2007324965A (ja) デジタルカメラ、撮影制御方法および画像出力システム
JP2003224761A (ja) 撮像装置
WO2016011861A1 (zh) 物体运动轨迹的拍摄方法及拍摄终端
US20070002463A1 (en) Image capturing apparatus
JP2019193209A (ja) 制御装置及び撮影方法
JP5423186B2 (ja) 撮像装置、領域検知方法、及びプログラム
WO2023053698A1 (ja) 撮影制御装置、撮影制御方法、及び撮影制御プログラム
JP2014068081A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2003060982A (ja) 撮像装置およびその制御方法
JP7383438B2 (ja) 撮像制御装置、撮像装置、及び撮像制御方法
JP3994469B2 (ja) 撮像装置、表示装置及び記録装置
US20240244339A1 (en) Imaging control device, imaging control method, and imaging control program
JP2007116372A (ja) デジタルカメラ
JP7451122B2 (ja) 撮像制御装置、撮像装置、及び撮像制御方法
JP2018093303A (ja) 撮像装置およびその制御方法およびそのプログラム
JP6296909B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22875575

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023550413

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE