WO2023190138A1 - 撮影連携システム、サーバ装置、撮影デバイス、撮影連携方法、及びプログラム - Google Patents

撮影連携システム、サーバ装置、撮影デバイス、撮影連携方法、及びプログラム Download PDF

Info

Publication number
WO2023190138A1
WO2023190138A1 PCT/JP2023/011776 JP2023011776W WO2023190138A1 WO 2023190138 A1 WO2023190138 A1 WO 2023190138A1 JP 2023011776 W JP2023011776 W JP 2023011776W WO 2023190138 A1 WO2023190138 A1 WO 2023190138A1
Authority
WO
WIPO (PCT)
Prior art keywords
photographing
instruction
target subject
processor
photography
Prior art date
Application number
PCT/JP2023/011776
Other languages
English (en)
French (fr)
Inventor
康一 田中
功 小泉
浩教 矢野
基格 大鶴
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2023190138A1 publication Critical patent/WO2023190138A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Definitions

  • the present invention relates to a photography cooperation system, a server device, a photography device, a photography cooperation method, and a program.
  • guardians try to get as good images of their children as possible by starting early in the day to reserve a good location, and by spending money preparing photographic equipment. There are cases where
  • Patent Document 1 proposes a method of supporting photographing of a specific subject such as a child at an event such as a sports day by transmitting photographing support information to a user camera using a network.
  • One embodiment of the technology of the present disclosure provides a photography cooperation system, a server device, a photography device, a photography cooperation method, and a program that identify a device capable of photography and transmit a photography instruction.
  • a photographing cooperation system that is one aspect of the present invention is a photographing cooperation system in which a photographing device photographs a target subject that transmits position information, and a first processor identifies a photographable device capable of photographing and Based on the position information of the subject, a photographing instruction of the target subject is transmitted to the photographing enabled device, and the second processor receives the photographing instruction.
  • a server device including a first processor is provided.
  • the first processor receives a request for photographing the target subject, acquires positional information of the target subject based on the transmitted signal, acquires positional information of the photographing device, and combines the positional information of the target subject and the photographing device. Based on the location information, a device capable of photographing is specified, and a photographing instruction is transmitted to the device capable of photographing.
  • the first processor identifies the photographing device as a photographable device based on the position information of the target subject and the position information and distance of the photographing device.
  • the shooting instruction is given to all or selectively to the plurality of second processors.
  • the photographing instruction includes a first photographing instruction and a second photographing instruction
  • the first processor transmits the second photographing instruction to a photographing enabled device that has not received the first photographing instruction. Send.
  • the photographing device has a refusal mode in which it does not accept a photographing instruction, and the first processor does not transmit a photographing instruction to a device capable of photographing that is set to the refusal mode.
  • the photographing device transmits the angle of view information to the first processor, and the first processor determines whether the target subject is included in the angle of view based on the position information of the target subject and the angle of view information of the device capable of photographing. Determine whether or not.
  • a photographing instruction is transmitted to the photographing-enabled device.
  • the first processor transmits an implicit shooting instruction in which the shooting instruction is not notified to the photographer to a device capable of shooting that is determined to include the target subject in the angle of view, and sends an implicit shooting instruction that does not notify the photographer that the shooting instruction is included in the angle of view.
  • An explicit photographing instruction that notifies the photographer of the photographing instruction is sent to the device that is determined to be capable of photographing.
  • the first processor obtains information regarding the moving distance of the target subject based on the position information of the target subject, and invalidates the photographing instruction to the photographing enabled device that has transmitted the photographing instruction based on the information on the moving distance.
  • the target subject includes a first target subject and a second target subject
  • the photographing instructions include a first photographing instruction regarding the first target subject and a second photographing instruction regarding the second target subject.
  • the first processor determines the distance between the first target subject and the second target subject based on the position information of the first target subject and the position information of the second target subject. is acquired, and based on the distance information, a second photographing instruction is transmitted to the photographing capable device that has received the first photographing instruction.
  • the photographing device transmits operation information indicating that it is photographing to the first processor, and the first processor transmits operation information indicating that the photographing device is photographing, and the first processor transmits operation information indicating that the photographing device is photographing, and the first processor transmits operation information indicating that the photographing device is photographing.
  • An explicit photographing instruction is transmitted, and to a device capable of photographing that is not currently photographing, an explicit photographing instruction is sent to notify the photographer of the photographing instruction.
  • the first processor terminates the processing of the photography coordination system if a time equal to or greater than a threshold has elapsed since receiving the photography request.
  • the first processor includes a memory storing personal recognition information for identifying the target subject, and the first processor or the second processor identifies the target in the captured image based on the personal recognition information. Provides notification display of the subject.
  • the first processor gives the photographing device that issued the photographing request authority to view the photographed image transmitted to the first processor.
  • the second processor receives a photographing instruction, receives an image acquisition instruction from a photographer in response to the photographing instruction, or receives an image acquisition instruction output in response to the photographing instruction, and receives an image acquisition instruction in response to the image acquisition instruction. Then, a photographed image of the target subject is acquired, and the photographed image is transmitted to the first processor together with information regarding the photographing request.
  • the first processor accepts evaluation of the captured image sent to the first processor.
  • a server device is a server device including a first processor constituting a photographing cooperation system in which photographing devices cooperate to photograph a target subject carrying a tracker, the server device comprising a first processor.
  • receives a request to photograph the target subject acquires the position information of the target subject based on the signal transmitted by the tracker, acquires the position information of the photographing device, and then acquires the position information of the target subject based on the position information of the target subject and the position information of the photographing device. Then, among the photographing devices, a photographing device capable of photographing the target subject is specified, and an instruction for photographing the target subject is transmitted to the photographing capable device.
  • Another aspect of the present invention is a photographing device that includes a second processor that cooperatively photographs a target subject that carries a tracker, and the second processor provides a photographing instruction for photographing the target subject. and receives an image acquisition instruction from the photographer in response to the photography instruction, or receives an image acquisition instruction output in response to the photography instruction, and acquires a photographed image of the target subject in response to the image acquisition instruction, Send the photographed image to the server device together with information regarding the photographing request.
  • Another aspect of the present invention is a photographing cooperation method in which a photographing device photographs a target subject that transmits position information, the method including the step of specifying, by a first processor, a photographing-enabled device capable of photographing. , transmitting a photographing instruction of the target subject to the photographing enabled device based on the position information of the target subject, and causing the second processor to perform a step of receiving the photographing instruction.
  • Another aspect of the present invention is a program that causes a first processor to execute a photographing cooperation method in which a photographing device photographs a target subject that transmits position information, and causes a first processor to specify a photographing-enabled device that is capable of photographing. and a step of transmitting a photographing instruction of the target subject to the photographing enabled device based on the position information of the target subject, and causing the second processor to execute a step of receiving the photographing instruction.
  • FIG. 1 is a conceptual diagram illustrating a case in which a photographic coordination system is used.
  • FIG. 2 is a functional block diagram illustrating the functions of the server device.
  • FIG. 3 is a diagram showing an example of a storage configuration of a database of a server device.
  • FIG. 4 is a functional block diagram illustrating the functions of the photographing device.
  • FIG. 5 is a diagram showing the operation flow of the photographing cooperation system.
  • FIG. 6 is a diagram illustrating calculating the relative distance between the subject and the photographing device.
  • FIG. 7 is a diagram showing the operation flow of the photographing cooperation system.
  • FIG. 8 is a diagram showing an operation flow of the photographing cooperation system.
  • FIG. 9 is a diagram showing an operation flow of the photographing coordination system.
  • FIG. 1 is a conceptual diagram illustrating a case in which a photographic coordination system is used.
  • FIG. 2 is a functional block diagram illustrating the functions of the server device.
  • FIG. 3 is a diagram showing an example of
  • FIG. 10 is a diagram showing an operation flow of the photographing cooperation system.
  • FIG. 11 is a diagram illustrating determining whether a subject exists within the photographing angle of view of the photographing device.
  • FIG. 12 is a diagram showing an operation flow of the photographing cooperation system.
  • FIG. 13 is a diagram showing the operation flow of the photographing cooperation system.
  • FIG. 1 is a conceptual diagram illustrating a case in which a photographic cooperation system 1 of the present invention is used.
  • the photography cooperation system 1 is composed of a server device 10 and a plurality of photography devices 100A to 100E.
  • photographers A to E who hold each of the photographing devices 100A to 100E are guardians (parents) who are trying to take pictures of their children at an event such as a sports day.
  • the subject Y and the subject X are participants in an event such as an athletic meet, and are, for example, children.
  • Photographers A to E are located at their respective photographing locations at an event venue such as a school grounds, and photograph subjects Y and X.
  • photographer A is the guardian of subject X, and is attempting to obtain a photographed image of subject X.
  • photographer A is not always located at the best photographing position of subject X. That is, other photographers B to E may be located at better photographing positions for photographing the subject X. Further, the photographer A may want to obtain a photographed image of the subject X from a viewpoint different from the photographing position of the photographer A.
  • the photographing cooperation system 1 of the present invention not only the photographing device 100A held by the photographer A but also the photographing devices 100B to 100E held by the photographers B to E are cooperated to capture the subject X. It is possible to obtain captured images.
  • the photographing devices 100A to 100E to be registered are held by each of the photographers A to E. It is not limited to what E holds.
  • multiple stationary type pan-tilt type cameras can be registered, and the photography instruction I, which will be explained later, can be sent to the stationary type. It is also possible to send the image to a pan-tilt camera to photograph the subject X.
  • the server device 10 and the photographing devices 100A to 100E that constitute the photographic cooperation system 1 will be explained.
  • the photographing devices 100A to 100E are described as representative photographing devices, the photographing devices 100A to 100E will be referred to as the photographing device 100.
  • the server device 10 of the present invention will be explained. As shown in FIG. 1, the server device 10 is provided, for example, on a cloud. The server device 10 receives the photographing request R via the network NW, and transmits the photographing instruction I to the photographing device 100 that is specified as a device capable of photographing among the photographing devices 100A to 100E. Note that in the case of FIG. 1, the photographing device 100D is specified as a device capable of photographing.
  • FIG. 2 is a functional block diagram illustrating the functions of the server device 10. Further, FIG. 3 is a diagram showing an example of the storage configuration of the database 18 of the server device 10.
  • the server device 10 includes a first processor 12, a communication interface 14, a computer readable medium 16, and a database 18.
  • target subject information, photographer information, and photographed image M are stored in association with each other. Note that the target subject information and the photographer information are stored before the photography coordination system 1 is used.
  • FIG. 3 shows a case where subject X (see FIG. 1) is registered for use as a target subject.
  • the target subject information includes the facial image FA (personal recognition information) of the subject X and information regarding the tracker P held by the subject X.
  • Subject X has a tracker P that transmits location information.
  • the tracker P is not particularly limited as long as it is a device that transmits position information of the subject X.
  • AirTag registered trademark
  • Apple registered trademark
  • GPS Global Positioning System
  • the tracker P may transmit the position information of the subject X to the server device 10 via the photographing devices 100A to 100E, or directly to the server device 10.
  • the face image FA of the subject X is used when the subject X is identified using personal recognition technology.
  • the subject X is recognized by the face image FA in the live view image acquired by the photographing device 100.
  • the target subject information is registered in the database 18 of the server device 10 via the network NW by a photographer A who is a guardian of the subject X, for example, using the photographing device 100A.
  • the photographer information includes information regarding the photographers A to E and the collaborating photographing devices 100A to 100E. Furthermore, if the photographers A to E hold other terminals such as smartphones, information on the terminals they hold is also included. In the case shown in FIG. 3, photographer A holds a photographing device 100A and a terminal 101A, and photographer D holds a photographing device 100D and a terminal 101D.
  • the photographer information is registered in the database 18 of the server device 10 via the network NW, for example, by each of the photographers A to E using the photographing devices 100A to 100E.
  • the database 18 stores photographed images M (see FIG. 1) taken by the linked photographing devices 100.
  • a photographer D obtains a photographed image M of a subject X using a photographing device 100D.
  • the photographed image M is transmitted to the server device 10 via the network NW and stored in the database 18.
  • the photographed image M is stored in the database 18 with accompanying information indicating that it is a photographed image M taken of the subject X in response to the photographing request R.
  • photographed image information N which is information regarding the photographed image M, is transmitted to the photographer A (photographing device 100A) that sent the photographing request R.
  • the photographer A obtains the authority to view and acquire the photographed images M stored in the database 18 using the photographing device 100A or the terminal 101A. Note that the photographer A can view and acquire only the photographed image M that was photographed based on the photographing request R, and cannot view and acquire other photographic images. Furthermore, the photographer A can assign evaluation points to the photographed image M, which is a product of the photographing request R. For a photographer who has taken a photographed image with a high evaluation score, the fee for using the photographing cooperation system 1 is reduced or a service for printing the photographed image is provided. Further, similar benefits may be given to photographers who have captured a large number of captured images. In this way, the photographer may be motivated to acquire the photographed image M in response to the photographing instruction I using various methods.
  • the first processor 12 is composed of a CPU (Central Processing Unit). Further, the first processor 12 may include a GPU (Graphics Processing Unit). The first processor 12 is connected via a bus 13 to a computer readable medium 16, a communication interface 14, and a database 18. The first processor 12 can implement various functions by executing a dedicated program stored in the computer readable medium 16.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the first processor 12 realizes the functions of a photographing request receiving section 12A, a position information acquiring section 12B, a device specifying section 12C, a photographing instruction transmitting section 12D, and a photographed image receiving section 12E.
  • the photographing request receiving unit 12A receives the photographing request R of the subject X, which is the target subject.
  • Photographer A transmits a photographing request R to the server device 10 via the network NW using the photographing device 100A or terminal 101A held by the photographer A, and the photographing request receiving unit 12A receives the photographing request R via the communication interface 14. do.
  • the position information acquisition unit 12B acquires the position information of the subject X based on the transmission signal transmitted by the tracker P held by the subject X.
  • the tracker P directly or via the photographing devices 100A to 100D transmits a transmission signal regarding the position information of the subject X to the server device 10, and the position information acquisition unit 12B receives the transmission signal regarding the position information of the subject Get the position of X.
  • the location information acquisition unit 12B also acquires location information of the registered photographing devices 100A to 100E.
  • the position information acquisition unit 12B acquires position information output from the position information output unit 122 (see FIG. 4) of the photographing device 100.
  • the device identifying unit 12C identifies a device capable of photographing the subject X.
  • the device specifying unit 12C specifies a device capable of photographing in various ways. The identification of the device capable of photographing by the device identification unit 12C will be described in detail later.
  • the photographing instruction sending unit 12D transmits the photographing instruction I to the photographing enabled device specified by the device specifying unit 12C.
  • the photographing instruction sending unit 12D transmits a photographing instruction I to all the photographing devices 100A to 100E, and transmits the photographing instruction I to all the registered photographing devices 100A to 100E.
  • a photographing instruction I is selectively transmitted.
  • the photographing instruction transmitting unit 12D transmits the photographing instruction I to the photographing-enabled device via the communication interface 114 and the network NW.
  • the photographing instruction I includes assistance in framing the subject X.
  • the server device 10 calculates the direction of the subject X with respect to the photographing device 100 at every minute time based on the position of the photographing device 100 and the position of the subject
  • the position and direction information of the subject X is acquired and displayed on the display unit 118 (see FIG. 4) of the photographing device 100 to assist in framing. Note that even if personal recognition is performed using the face image FA in the live view image acquired by the photographing device 100, the subject X is accurately specified, and a notification display such as a frame is displayed for the subject X on the display unit 118. good.
  • the photographed image receiving unit 12E receives the photographed image M acquired based on the photographing instruction I.
  • the photographed image receiving unit 12E receives the photographed image M via the communication interface 14. Further, the photographed image receiving unit 12E stores the received photographed image M in the database 18.
  • the computer readable medium 16 includes a memory that is a main storage device and a storage that is an auxiliary storage device.
  • the computer readable medium 16 may be, for example, a semiconductor memory, a hard disk drive (HDD) device, a solid state drive (SSD) device, or a combination of these.
  • the computer-readable medium 16 stores various programs and data, including a control program for controlling the server device 10 in an integrated manner.
  • the communication interface 14 is a communication unit that performs wireless communication with the imaging device 100.
  • the communication interface 14 sends and receives information to and from the photographing devices 100A to 100E via a network NW such as the Internet, for example.
  • NW such as the Internet
  • the photographing device will be explained. Note that, in the following, the photographing devices 100A to 100E will be described as a representative photographing device 100, but the photographing devices 100A to 100E have similar configurations.
  • FIG. 4 is a functional block diagram illustrating the functions of the photographing device 100A.
  • the photographing device 100A includes a second processor 112, a communication interface 114, a computer readable medium 116, a display section 118, a camera 120, and a position information output section 122.
  • the second processor 112 is composed of a CPU (Central Processing Unit). Further, the second processor 112 may include a GPU (Graphics Processing Unit). The second processor 112 is connected to a communication interface 114, a computer readable medium 116, a display 118, a camera 120, and a location information output 122 via a bus 113. The second processor 112 can implement various functions by executing a dedicated program stored in the computer-readable medium 116.
  • a dedicated program stored in the computer-readable medium 116.
  • the second processor 112 implements various functions by executing programs stored on the computer-readable medium 116.
  • the second processor 112 realizes the functions of a photographing request transmitting section 112A, a photographing instruction receiving section 112B, a photographing control section 112C, and an image transmitting section 112D.
  • the photography request transmitting unit 112A transmits the photography request R via the communication interface 114 over the network NW.
  • Photographer A transmits a photographing request R of subject X holding tracker P to server device 10 from registered photographing device 100A.
  • the photographing request R can also be transmitted, for example, by the terminal 101A in which a dedicated application is installed.
  • the photographing devices 100B to 100E held by the other registered photographers B to E are notified that the photographing request R has been transmitted.
  • the terminal 101D is also registered, the terminal 101D is also notified that the photographing request R has been sent.
  • the photographing instruction receiving unit 112B receives the photographing instruction I transmitted from the server device 10. As described above, the server device 10 transmits the photographing instruction I to the photographing device 100 that has been identified as a device capable of photographing. Then, the photographing instruction receiving unit 112B receives the photographing instruction I via the communication interface 114.
  • the photographing instruction I includes information that assists in framing for photographing the subject X, and information that assists in framing the subject X is displayed on the display unit 118.
  • the photographing control unit 112C acquires a photographed image M of the target subject in response to the image acquisition instruction.
  • the image acquisition instruction is transmitted to the photographing control unit 112C when the photographer presses a shutter button (not shown) provided on the photographing device 100. Further, the image acquisition instruction may be transmitted from the imaging instruction receiving section 112B to the imaging control section 112C in response to the imaging instruction receiving section 112B receiving the imaging instruction I.
  • the photography control unit 112C controls the camera 120 to cause the camera 120 to acquire a photographed image M of the target subject.
  • the camera 120 is composed of a known imaging device. A photographed image M is acquired under the control of the photographing control unit 112C. Note that the camera 120 can capture still images and moving images.
  • the image transmitting unit 112D transmits the photographed image M photographed according to the photographing instruction I to the server device 10.
  • the image transmitting unit 112D transmits the photographed image M to the server device 10 together with information indicating that the photographed image M to be transmitted is the photographed image M acquired in response to the photographing request R.
  • the communication interface 114 is a communication unit that performs wireless communication. For example, information is sent and received to and from the server device 10 via a network NW such as the Internet.
  • the computer-readable medium 116 includes memory, which is a main storage device, and storage, which is an auxiliary storage device.
  • Computer-readable medium 116 may be, for example, a semiconductor memory, a hard disk drive (HDD) device, a solid state drive (SSD) device, or a combination of these.
  • the display unit 118 is composed of, for example, a display. Furthermore, the display section 118 includes a touch panel and also functions as an input section. The display section 118 displays information that assists in framing the subject X included in the photographing instruction I received by the photographing instruction receiving section 112B.
  • the position information output unit 122 outputs information regarding the position and orientation of the imaging device 100A.
  • the position information output unit 122 includes, for example, a GPS (Global Positioning System) receiver, an acceleration sensor, a geomagnetic sensor, and a gyro sensor. Note that the device constituting the position information output unit 122 is not particularly limited, and a device that outputs information regarding the position and orientation of the imaging device 100A is used.
  • the hardware structure of the first processor 12 and second processor 112 in the server device 10 and photographing device 100 described above may be the following various processors.
  • Various types of processors include CPUs (Central Processing Units) and FPGAs (Field Programmable Gate Arrays), which are general-purpose processors that execute software (programs) and function as various processing units.
  • the circuit configuration can be changed after manufacturing.
  • PLDs programmable logic devices
  • ASICs Application Specific Integrated Circuits
  • One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types (for example, multiple FPGAs, or a combination of a CPU and FPGA). It's okay. Further, the plurality of processing units may be configured with one processor. As an example of configuring multiple processing units with one processor, first, one processor is configured with a combination of one or more CPUs and software, as typified by computers such as clients and servers. There is a form in which a processor functions as multiple processing units. Second, there are processors that use a single IC (Integrated Circuit) chip to implement the functions of the entire system, including multiple processing units, as typified by System On Chip (SoC). be. In this way, various processing units are configured using one or more of the various processors described above as a hardware structure.
  • SoC System On Chip
  • circuitry that is a combination of circuit elements such as semiconductor elements.
  • the photography cooperation system 1 is configured by the server device 10 and the photography device 100, and photographs the subject X, which is the target subject.
  • photography cooperation method is performed by the first processor 12 and the second processor 112 of the photography cooperation system 1 executing a program.
  • the relative distance between the photographing devices 100A to 100E and the subject X is calculated based on the position information of the photographing device and the position information of the subject X, and the photographing instruction I is notified according to the relative distance. Decide which device to use.
  • FIG. 5 is a diagram showing the operation flow of the photographing cooperation system 1 of this embodiment.
  • the photographer A transmits a photographing request R regarding the subject
  • the photographing request R is received (step S101).
  • the photographing request receiving unit 12A stores the time when the photographing request R is received. If a time equal to or longer than the threshold t (for example, 3 minutes) has elapsed since the time when the imaging request R was received (step S102), the imaging request receiving unit 12A regards the imaging request R as invalid and ends the process (step S110). ).
  • the threshold t for example, 3 minutes
  • the position information acquisition unit 12B acquires the position information of the subject X from the tracker P that the subject X holds. Acquire (step S103).
  • FIG. 6 is a diagram illustrating calculation of the relative distances ra to re between the subject X and the photographing devices 100A to 100E in the device identifying section 12C.
  • the device identifying unit 12C identifies the relationship between the photographing device 100A and the subject X based on the position information output from the tracker P held by the subject Relative distance ra, relative distance rb between the photographing device 100B and the subject X, relative distance rc between the photographing device 100C and the subject X, relative distance rd between the photographing device 100D and the subject X, and relative distance between the photographing device 100E and the subject X. Get the distance re. Note that in the case described with reference to FIG. 6, an example was described in which the relative distance ra between the photographing device 100A that transmitted the photographing request R and the subject X is also calculated, but the present invention is not limited to this. For example, without calculating the relative distance ra between the photographing device 100A that has issued the photographing request R and the subject You may calculate only .
  • the device specifying unit 12C determines whether the obtained relative distance r is less than or equal to R (step of specifying a device capable of photographing: step S106).
  • R is a relative distance threshold and is arbitrarily set.
  • the device specifying unit 12C specifies a photographing device whose relative distance r is equal to or less than R as a photographing-enabled device, and the photographing instruction transmitting unit 12D transmits a photographing instruction I to the photographing-enabled device (a step of transmitting a photographing instruction). :Step S107).
  • the photographing capable device receives the transmitted photographing instruction I (step of receiving the photographing instruction).
  • the photographing instruction transmitting unit 12D instructs the photographing device 100 with the k-th photographing device number to take a photograph. It is determined whether the instruction I has been sent (step S111). Then, if the photographing instruction sending unit 12D has already transmitted the photographing instruction I to the photographing device 100 with the k-th photographing device number, the photographing instruction transmitting unit 12D transmits a photographing instruction cancellation notification to the photographing device 100 with the k-th photographing device number ( Step S112).
  • the photographing instruction cancellation notification is a notification that invalidates the already transmitted photographing instruction I.
  • steps S102 to S109 and steps S111 to S112 are looped.
  • the device identifying unit 12C calculates the relative distances ra to re between the subject X and the photographing devices 100A to 100E, and identifies devices capable of photographing based on the relative distances ra to re. , a photographing instruction I is transmitted to the photographing-enabled device. Thereby, by transmitting the photographing instruction I to the photographing device 100 that is close to the subject X, it is possible to suppress missed photographs and distribute the load so that the photographing instruction I is not concentrated on a specific photographing device.
  • the photographing instruction I is transmitted with the photographing device whose relative distance r is equal to or less than R as the device capable of photographing.
  • all the relative distances r between the photographing devices 100A to 100E and the subject The device may be identified as a device capable of photographing, and the photographing instruction I may be transmitted to the device capable of photographing.
  • the number of devices capable of photographing may be always displayed on the photographing device 100A or terminal 101A of the photographer A who has issued the photographing request R. Thereby, the photographer A who has outputted the photographing request R can always grasp the number of devices capable of photographing.
  • a device capable of photographing is specified according to the operating status of the photographing device 100.
  • the operating status here indicates whether or not another photographing instruction Ia (corresponding to the first photographing instruction) is being handled.
  • FIG. 7 is a diagram showing the operation flow of the photographing cooperation system 1 of this embodiment.
  • Photographer A transmits a photographing request R regarding the subject X to the server device 10 using the photographing request transmitting unit 112A, and the photographing request receiving unit 12A receives the photographing request R regarding the subject X from the photographing device 100A (step S201 ).
  • the photography request receiving unit 12A calculates the time since the reception of the photography request R (step S202), and if the predetermined time has elapsed, the photography request R is invalidated and the process ends (step S210). On the other hand, if the predetermined time has not elapsed since receiving the photographing request R, the position information acquisition unit 12B acquires position information from the tracker P (step S203).
  • the device identification unit 12C acquires the operating status of the photographing device with the k-th photographing device number (step S205), and determines whether the photographing device with the k-th photographing device number is currently responding to another photographing instruction Ia. (Step S206).
  • the device specifying unit 12C acquires information as to whether or not a photographing instruction Ia based on another photographing request Ra has been received as the operation status of the photographing device. Note that if the imaging device 100 has already received the imaging instruction Ia by the imaging instruction receiving unit 112B, it transmits an operation signal to the server device 10 indicating that it is responding to another imaging instruction Ia.
  • the device identifying unit 12C transmits a photographing instruction I (second photographing instruction) to the photographing device with the k-th photographing device number. (Step S207).
  • the device identification unit 12C determines whether each of the photographing devices 100A to 100E is responding to another photographing instruction Ia, and depending on the operating status thereof, A device capable of photographing is specified, and a photographing instruction I is transmitted.
  • this embodiment it is possible to suppress concentration of shooting instructions on a specific device and reduce the burden on the photographer. Note that this embodiment may be implemented in combination with the first embodiment described above.
  • the shooting instruction I is not sent to the shooting device that is responding to another shooting instruction Ia, but in this embodiment, the shooting instruction I and the target subject of the shooting instruction Ia are transmitted. If the positions are close, a photographing instruction I is transmitted.
  • FIG. 8 is a diagram showing the operation flow of the photographing cooperation system 1 of this embodiment.
  • the photographing request receiving unit 12A receives a photographing request R regarding the subject X from the photographing device 100A (step S301).
  • the photographing request receiving unit 12A calculates the time since receiving the photographing request R (step S302), and if the predetermined time has elapsed, the photographing request R is invalidated and the process ends (step S310).
  • the position information acquisition unit 12B acquires position information from the tracker P (step S303).
  • the device identification unit 12C acquires the operating status of the photographing device 100 with the k-th photographing device number (step S305), and the photographing device with the k-th photographing device number is currently responding to another photographing instruction Ia (first photographing instruction). It is determined whether or not (step S306).
  • the device specifying section 12C identifies the target subject (first target subject) of the other photographing instruction Ia. ) and the subject X (second target subject) of the current shooting instruction I (second shooting instruction) (step S311). For example, if the distance between the target subject of shooting instruction Ia and the subject Step S307).
  • the device identifying unit 12C may identify the device as a device that can be photographed.
  • this function should be used supplementarily when identifying devices that can take pictures based on the distance between two target subjects. is desirable.
  • the device specifying unit 12C transmits the photographing instruction I to the photographing device with the k-th photographing device number (step S307).
  • the present embodiment can perform efficient photographing and suppress missed shots.
  • the photographer can select a "permission mode” in which the photographing instruction I is accepted and a "rejection mode” in which the photographing instruction I is not accepted on his or her photographing device 100, and the server device 10 can select the "permission mode” in which the photographing instruction I is not accepted.
  • a photographing device in "permission mode” is identified as a device capable of photographing, and a photographing instruction I is sent.
  • FIG. 9 is a diagram showing the operation flow of the photographing cooperation system 1 of this embodiment.
  • the photographing request receiving unit 12A receives a photographing request R regarding the subject X from the photographing device 100A (step S401).
  • the photographing request receiving unit 12A calculates the time since receiving the photographing request R (step S402), and if the predetermined time has elapsed, the photographing request R is invalidated and the process ends (step S410).
  • the position information acquisition unit 12B acquires position information from the tracker P (step S403).
  • the device identification unit 12C obtains the operating status of the photographing device with the k-th photographing device number (step S405).
  • the operating status here refers to the setting status of "permission mode” and "denial mode” in the photographing devices 100A to 100E.
  • the device specifying unit 12C determines whether the photographing device with the photographing device number k is set to "rejection mode” (step S406), and if it is not set to "rejection mode", it is possible to take a photograph.
  • the device is specified and a shooting instruction I is transmitted (step S407).
  • the photographer can select between a "permission mode” in which the photographing instruction I is accepted and a "rejection mode” in which the photographing instruction I is not accepted in the photographing device 100 of the photographer.
  • the server device 10 transmits the photographing instruction I only to the photographing device in the "permission mode". Therefore, in this embodiment, it is possible to select the photographing device to which the photographing instruction I is to be transmitted so as not to hinder the photographer's photographing activities. Note that this embodiment may be implemented in combination with the first embodiment described above.
  • the photographing device 100 when the photographing device 100 is photographing and the subject X exists within the photographing angle of view of the photographing device 100, the photographing device 100 is identified as a device capable of photographing.
  • FIG. 10 is a diagram showing the operation flow of the photographing cooperation system 1 of this embodiment.
  • the photographing request receiving unit 12A receives a photographing request R regarding the subject X from the photographing device 100A (step S501).
  • the photographing request receiving unit 12A calculates the time since receiving the photographing request R (step S502), and if the predetermined time has elapsed, the photographing request R is deemed invalid and the process ends (step S511).
  • the position information acquisition unit 12B acquires position information from the tracker P (step S503).
  • the device identification unit 12C obtains the operating status of the photographing device with the k-th photographing device number (step S505).
  • the operating status refers to whether or not the photographing devices 100A to 100E are photographing.
  • the device specifying unit 12C determines whether the subject X exists within the photographing angle of view of the photographing device with the k-th photographing device number. A judgment is made (step S507).
  • FIG. 11 is a diagram illustrating determining whether or not the subject X exists within the photographing angle of view of the photographing device 100.
  • the direction of the lens optical axis H1 of the photographing device 100D ((1) above) can be calculated from the information of the acceleration sensor and geomagnetic sensor provided in the photographing device 100D. Further, the direction H2 of the subject X with respect to the position of the photographing device 100D can be calculated based on the position information of the photographing device 100D and the position information of the subject X ((2) above). Then, the direction ⁇ 1 of the subject X with respect to the direction of the lens optical axis H1 is calculated. Furthermore, since the half value ⁇ 2 of the viewing angle can be obtained from the focal length ((3) above), if the absolute value of ⁇ 1 is less than or equal to ⁇ 2, the subject X exists within the shooting angle of view of the shooting device 100D. It turns out. Note that if even a part of the body of the subject X is included in the photographing angle of view, it is determined here that it is included.
  • the relative distance r (see the first embodiment) between the position of the subject X and the position of the photographing device 100D is long, the subject X will be photographed small. Even if the device exists within the device, it is preferable not to identify it as a device capable of taking pictures.
  • the subject X may be determined whether the subject X exists by performing personal recognition processing on the live view image of the photographing device 100 using the face image FA in the photographing device 100 or the server device 10.
  • the personal recognition process may not work well when the subject X is facing backwards, it may be necessary to perform it as a supplement to the above-mentioned method of checking whether the subject X exists within the shooting angle of view. desirable.
  • the device specifying unit 12C identifies the photographing device 100 with the photographing device number k as a device capable of photographing. Then, a photographing instruction I is transmitted to the photographing-enabled device (step S508).
  • the device identification unit 12C identifies the photographing device 100 when the photographing device 100 is photographing and the subject X exists within the photographing angle of view of the photographing device 100. Identify a device that can take pictures. As a result, in this embodiment, it is possible to distribute the load so that the shooting instructions I are not concentrated on a specific shooting device 100 while suppressing missed shots.
  • the mode of shooting instruction I includes an explicit shooting instruction and an implicit shooting instruction.
  • the explicit photographing instruction is a mode in which the photographer of the photographing device 100 is notified by, for example, displaying the photographing instruction I on the display section 118 of the photographing device.
  • the implicit shooting instruction is a mode in which the shooting instruction is not notified to the photographer, and the shooting device 100 automatically shoots according to the shooting instruction without the photographer being aware of the shooting instruction. It is. Note that when the photographing device 100 is not photographing or when the target subject does not exist within the photographing angle of view even during photographing, an explicit photographing instruction is issued; An unspecified shooting instruction is issued.
  • FIG. 12 is a diagram showing the operation flow of the photographing cooperation system 1 of this embodiment.
  • the photographing request receiving unit 12A receives a photographing request R regarding the subject X from the photographing device 100A (step S601).
  • the photographing request receiving unit 12A calculates the time since receiving the photographing request R (step S602), and if the predetermined time has elapsed, the photographing request R is invalidated and the process ends (step S611).
  • the position information acquisition unit 12B acquires position information from the tracker P (step S603).
  • the device identification unit 12C acquires the operating status (operation information) of the photographing device with the k-th photographing device number (step S605).
  • the operating status is information as to whether or not the photographing devices 100A to 100E are photographing.
  • step S606 it is determined whether the target subject exists within the photographing angle of view of the photographing device with the k-th photographing device number. .
  • the shooting control unit 112C receives the implicit shooting instruction, controls the camera 120 in response to receiving the implicit shooting instruction, and automatically shoots the captured image M. It will be photographed in On the other hand, if the photographing device 100 is not photographing and the target subject does not exist within the photographing angle of view of the photographing device, an explicit photographing instruction I is transmitted to the photographing device 100 with the k-th photographing device number (step S612 ).
  • the mode of shooting instruction I includes an explicit shooting instruction and an implicit shooting instruction.
  • an explicit shooting instruction in addition to the case where the photographer takes a picture according to an explicit photographing instruction, it is also possible to automatically take a photograph according to an implicit photographing instruction, thereby increasing the frequency of photographing and suppressing missed shots. can do.
  • a seventh embodiment will be described.
  • the position x1 of the subject X at the time when the shooting request R was issued is held, the subsequent position x2 of the subject For example, if the distance exceeds 50 m), the photographing request R is invalidated. Furthermore, when the photographing request R becomes invalid, the photographing device 100 that has previously transmitted the photographing instruction I is notified of the cancellation of the photographing instruction I, and the process ends.
  • FIG. 13 is a diagram showing the operation flow of the photographing cooperation system 1 of this embodiment.
  • Photographer A transmits the photographing request R regarding the subject X to the server device 10 using the photographing request transmitting unit 112A, and the photographing request receiving unit 12A receives the photographing request R regarding the subject X from the photographing device 100A (step S701 ).
  • the position information acquisition unit 12B acquires the position information x1 of the subject X output from the tracker P (step S702). Thereafter, the photographing request receiving unit 12A calculates the time since receiving the photographing request R (step S703), and if the predetermined time has elapsed, the photographing request R is invalidated and the process ends (step S713).
  • the position information acquisition unit 12B acquires the current position information x2 of the subject X from the tracker P (step S704).
  • step S705 the position information acquisition unit 12B notifies all photographing devices of cancellation of the photographing instruction (step S712), and ends the process. (Step S713).
  • steps S706 to S711 and steps S714 to S715 are performed as shown in FIG. Note that steps S706 to S711 and steps S714 to S715 are the same as steps S104 to S109 and steps S111 to S112 (see FIG. 5) described in the first embodiment, so their descriptions are omitted here. do.
  • a shooting instruction cancellation is sent to the shooting devices 100A to 100E.
  • the photographing request R can be canceled and efficient photographing can be performed.
  • FIG. 1 Shooting cooperation system 10: Server device 12: First processor 12A: Shooting request receiving section 12B: Location information acquiring section 12C: Device specifying section 12D: Shooting instruction transmitting section 12E: Photographed image receiving section 14: Communication interface 16: Computer-readable medium 18: Database 112: Second processor 112A: Photographing request transmitting section 112B: Photographing instruction receiving section 112C: Photographing control section 112D: Image transmitting section 114: Communication interface 116: Computer-readable medium 118: Display section 120: Camera 122: Location information output unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

撮影可能デバイスを特定して撮影指示を送信する撮影連携システム、サーバ装置、撮影デバイス、撮影連携方法、及びプログラムを提供する。撮影連携システム(1)は、位置情報を発信する対象被写体(X)を撮影デバイス(100A~100E)が撮影する撮影連携システム(1)であって、第1のプロセッサは、撮影可能な撮影可能デバイスを特定し、対象被写体の位置情報に基づいて、撮影可能デバイスに対象被写体の撮影指示(I)を送信し、第2のプロセッサは、撮影指示(I)を受信する。

Description

撮影連携システム、サーバ装置、撮影デバイス、撮影連携方法、及びプログラム
 本発明は、撮影連携システム、サーバ装置、撮影デバイス、撮影連携方法、及びプログラムに関する。
 一般に、運動会などのイベントでは、保護者(親)はできるだけ子供の良い撮影画像を取得しようと、早い時間から場所取りを行って良い撮影場所の確保や、費用をかけて撮影機材を準備したりする場合がある。
 しかしながら、折角確保した撮影場所であっても、被写体は移動することが多いので、常に良い撮影場所ではないことがある。また、撮影機材を使いこなせない場合がある。
 一方特許文献1では、運動会などのイベントにおいて、ネットワークを利用して撮影支援情報を利用者カメラに送信することにより、子供等の特定の被写体の撮影を支援する手法が提案されている。
特開2011-66768号公報
 本開示の技術にかかる一つの実施形態は、撮影可能デバイスを特定して撮影指示を送信する撮影連携システム、サーバ装置、撮影デバイス、撮影連携方法、及びプログラムを提供することである。
 本発明の一の態様である撮影連携システムは、位置情報を発信する対象被写体を撮影デバイスが撮影する撮影連携システムであって、第1のプロセッサは、撮影可能な撮影可能デバイスを特定し、対象被写体の位置情報に基づいて、撮影可能デバイスに対象被写体の撮影指示を送信し、第2のプロセッサは、撮影指示を受信する。
 好ましくは、第1のプロセッサを有するサーバ装置を備える。
 好ましくは、第1のプロセッサは、対象被写体の撮影要求を受信し、対象被写体の位置情報を発信信号に基づいて取得し、撮影デバイスの位置情報を取得し、対象被写体の位置情報と撮影デバイスの位置情報とに基づいて、撮影可能デバイスを特定し、撮影可能デバイスに、撮影指示を送信する。
 好ましくは、第1のプロセッサは、対象被写体の位置情報と撮影デバイスの位置情報と距離に基づいて、撮影デバイスを撮影可能デバイスとして特定する。
 好ましくは、撮影指示は、複数の第2のプロセッサに対して、全て又は選択的に行う。
 好ましくは、撮影指示は、第1の撮影指示と第2の撮影指示とで構成され、第1のプロセッサは、第1の撮影指示を受信していない撮影可能デバイスに、第2の撮影指示の送信を行う。
 好ましくは、撮影デバイスは、撮影指示を受け付けない拒否モードを備え、第1のプロセッサは、拒否モードに設定されている撮影可能デバイスには、撮影指示を送信しない。
 好ましくは、撮影デバイスは、画角情報を第1のプロセッサに送信し、第1のプロセッサは、対象被写体の位置情報及び撮影可能デバイスの画角情報に基づいて、対象被写体が画角に含まれるか否かを判定する。
 好ましくは、画角に対象被写体が含まれると判定された場合に、撮影可能デバイスに撮影指示を送信する。
 好ましくは、第1のプロセッサは、画角に対象被写体が含まれると判定された撮影可能デバイスに、撮影者に撮影指示が報知されない非明示の撮影指示を送信し、画角に対象被写体が含まれないと判定された撮影可能デバイスに、撮影者に撮影指示が報知される明示の撮影指示を送信する。
 好ましくは、第1のプロセッサは、対象被写体の位置情報に基づいて対象被写体の移動距離に関する情報を取得し、移動距離の情報に基づいて撮影指示を送信した撮影可能デバイスに撮影指示を無効とする撮影指示キャンセル通知を送信する。
 好ましくは、対象被写体は、第1の対象被写体と第2の対象被写体とで構成され、撮影指示は、第1の対象被写体に関しての第1の撮影指示と、第2の対象被写体に関しての第2の撮影指示とで構成され、第1のプロセッサは、第1の対象被写体の位置情報と第2の対象被写体の位置情報とに基づいて、第1の対象被写体と第2の対象被写体との距離を取得し、距離の情報に基づいて、第1の撮影指示を受信している撮影可能デバイスに、第2の撮影指示の送信を行う。
 好ましくは、撮影デバイスは、撮影中であることを示す動作情報を第1のプロセッサに送信し、第1のプロセッサは、撮影中である撮影可能デバイスには、撮影者に撮影指示が報知されない非明示の撮影指示を送信し、撮影中でない撮影可能デバイスには、撮影指示を撮影者に報知する明示の撮影指示を送信する。
 好ましくは、第1のプロセッサは、撮影要求を受信してから、閾値以上の時間が経過した場合には、撮影連携システムの処理を終了させる。
 好ましくは、第1のプロセッサは、対象被写体を特定するための個人認識情報が記憶されているメモリを備え、第1のプロセッサ又は第2のプロセッサは、個人認識情報に基づいて、撮影画像における対象被写体の報知表示を行う。
 好ましくは、第1のプロセッサは、第1のプロセッサに送信された撮影画像の閲覧の権限を、撮影要求を発信した撮影デバイスに与える。
 好ましくは、第2のプロセッサは、撮影指示を受信し、撮影指示に応じて撮影者からの画像取得指示を受け付け、又は撮影指示に応じて出力される画像取得指示を受け付け、画像取得指示に応じて、対象被写体の撮影画像を取得し、撮影画像を撮影要求に関する情報と共に第1のプロセッサに送信する。
 好ましくは、第1のプロセッサは、第1のプロセッサに送信された撮影画像に対しての評価を受け付ける。
 本発明の他の態様であるサーバ装置は、トラッカーを所持する対象被写体を撮影デバイスが連携して撮影する撮影連携システムを構成する、第1のプロセッサを備えるサーバ装置であって、第1のプロセッサは、対象被写体の撮影要求を受信し、対象被写体の位置情報をトラッカーの発信信号に基づいて取得し、撮影デバイスの位置情報を取得し、対象被写体の位置情報と撮影デバイスの位置情報とに基づいて、撮影デバイスのうち対象被写体を撮影可能な撮影可能デバイスを特定し、撮影可能デバイスに、対象被写体の撮影指示を送信する。
 本発明の他の態様である撮影デバイスは、トラッカーを所持する対象被写体を連携して撮影する、第2のプロセッサを備える撮影デバイスであって、第2のプロセッサは、対象被写体を撮影する撮影指示を受信し、撮影指示に応じて撮影者からの画像取得指示を受け付け、又は撮影指示に応じて出力される画像取得指示を受け付け、画像取得指示に応じて、対象被写体の撮影画像を取得し、撮影画像を撮影要求に関する情報と共にサーバ装置に送信する。
 本発明の他の態様である撮影連携方法は、位置情報を発信する対象被写体を撮影デバイスが撮影する撮影連携方法であって、第1のプロセッサにより、撮影可能な撮影可能デバイスを特定する工程と、対象被写体の位置情報に基づいて、撮影可能デバイスに対象被写体の撮影指示を送信する工程と、を行わせ、第2のプロセッサにより、撮影指示を受信する工程を行わせる。
 本発明の他の態様であるプログラムは、位置情報を発信する対象被写体を撮影デバイスが撮影する撮影連携方法を実行させるプログラムであって、第1のプロセッサに、撮影可能な撮影可能デバイスを特定する工程と、対象被写体の位置情報に基づいて、撮影可能デバイスに対象被写体の撮影指示を送信する工程と、を実行させ、第2のプロセッサに、撮影指示を受信する工程を実行させる。
図1は、撮影連携システムが利用される場合を説明する概念図である。 図2は、サーバ装置の機能を説明する機能ブロック図である。 図3は、サーバ装置のデータベースの記憶構成例を示す図である。 図4は、撮影デバイスの機能を説明する機能ブロック図である。 図5は、撮影連携システムの動作フロー示す図である。 図6は、被写体と撮影デバイスとの相対距離を算出することを説明する図である。 図7は、撮影連携システムの動作フローを示す図である。 図8は、撮影連携システムの動作フローを示す図である。 図9は、撮影連携システムの動作フローを示す図である。 図10は、撮影連携システムの動作フローを示す図である。 図11は、撮影デバイスの撮影画角中に被写体が存在するか否かを判定することを説明する図である。 図12は、撮影連携システムの動作フローを示す図である。 図13は、撮影連携システムの動作フローを示す図である。
 以下、添付図面にしたがって本発明にかかる撮影連携システム、サーバ装置、撮影デバイス、撮影連携方法、及びプログラムの好ましい実施の形態について説明する。
 <撮影支援システム>
 図1は、本発明の撮影連携システム1が利用される場合を説明する概念図である。
 撮影連携システム1はサーバ装置10及び複数の撮影デバイス100A~100Eで構成される。例えば、撮影デバイス100A~100Eの各々を保持する撮影者A~Eは、運動会などのイベントで子供の写真を撮影しようとしている保護者(親)である。また、被写体Y及び被写体Xは、運動会などのイベントの参加人であり、例えば子供である。撮影者A~Eは、例えば学校のグラウンドなどのイベント会場にて、それぞれの撮影場所に位置し、被写体Y及び被写体Xの撮影を行う。
 ここで、撮影者Aは被写体Xの保護者であり、被写体Xの撮影画像の取得を試みている。しかしながら、撮影者Aが常に被写体Xの最も良い撮影位置に位置するわけではない。すなわち、他の撮影者B~Eの方が被写体Xを撮影するのに良い撮影位置に位置する場合がある。また、撮影者Aは、撮影者Aの撮影位置とは異なる視点で被写体Xを撮影した撮影画像を取得したい場合がある。
 このような場合に、本発明の撮影連携システム1によれば、撮影者Aが保持する撮影デバイス100Aのみならず、撮影者B~Eが保持する撮影デバイス100B~100Eを連携させて、被写体Xの撮影画像を取得することができる。
 なお、上述した説明では、登録される撮影デバイス100A~100Eは、撮影者A~Eの各々が保持する撮影デバイスに関して説明したが、撮影連携システム1に登録される撮影デバイスは、撮影者A~Eが保持するものに限られない。例えば、撮影連携システム1には、据え置き型の自動撮影カメラを登録することも可能であり、例えば、据え置き型のパンチルト式のカメラを複数登録しておき、後で説明する撮影指示Iを据え置き型のパンチルト式のカメラに送信して、被写体Xを撮影することも可能である。
 以下に、撮影連携システム1を構成するサーバ装置10及び撮影デバイス100A~100Eに関して説明する。なお、以下の説明では、撮影デバイス100A~100Eについて代表的な撮影デバイスに関して説明する場合には撮影デバイス100と記載する。
 <サーバ装置>
 本発明のサーバ装置10に関して説明する。図1に示すように、サーバ装置10は、例えばクラウド上に設けられている。サーバ装置10は、ネットワークNWを介して、撮影要求Rを受信し、撮影デバイス100A~100Eのうち撮影可能デバイスに特定された撮影デバイス100に撮影指示Iを送信する。なお、図1の場合には、撮影デバイス100Dが撮影可能デバイスとして特定される。
 図2は、サーバ装置10の機能を説明する機能ブロック図である。また、図3は、サーバ装置10のデータベース18の記憶構成例を示す図である。
 サーバ装置10は、第1のプロセッサ12、通信インターフェイス14、コンピュータ可読媒体16、及びデータベース18を備える。
 先ず、撮影連携システム1を利用する際の、撮影連携システム1により撮影が行われる対象被写体、及び撮影デバイス100A~100Dの利用登録に関して説明する。対象被写体、及び撮影デバイス100A~100Dの利用登録は、サーバ装置10のデータベース18に記憶される。図3に示すように対象被写体情報、撮影者情報、及び撮影画像Mは関連付けられて記憶される。なお、対象被写体情報及び撮影者情報の記憶は、撮影連携システム1が使用される前に行われる。
 図3では、対象被写体として被写体X(図1参照)が利用登録される場合を示す。対象被写体情報は、被写体Xの顔画像FA(個人認識情報)と、被写体Xが保持するトラッカーPに関する情報が含まれる。被写体Xは、位置情報を発信するトラッカーPを所持する。なお、トラッカーPは、被写体Xの位置情報を発信するデバイスであれば、特に限定されるものではない。例えば、Apple(登録商標)社製のAirTag(登録商標)、GPS(Global Positioning System)装置などが、トラッカーPに使用されてもよい。なお、トラッカーPは、被写体Xの位置情報を撮影デバイス100A~100Eを介してサーバ装置10に送信してもよいし、直接サーバ装置10に送信してもよい。また、被写体Xの顔画像FAは、被写体Xを個人認識技術で特定する場合に使用される。例えば、サーバ装置10又は撮影デバイス100において、撮影デバイス100が取得するライブビュー画像において、顔画像FAにより被写体Xを認識する。これらの対象被写体情報は、例えば被写体Xの保護者である撮影者Aが撮影デバイス100Aを使用して、ネットワークNWを介してサーバ装置10のデータベース18に登録する。
 撮影者情報は、撮影者A~E、及び連携する撮影デバイス100A~100Eに関する情報が含まれる。また、撮影者A~Eがスマートフォンなどの端末を他に保持している場合には、その保持する端末の情報も含まれる。図3に示した場合では、撮影者Aは撮影デバイス100A及び端末101Aを保持し、撮影者Dは撮影デバイス100D及び端末101Dを保持する。撮影者情報は、例えば撮影者A~Eの各々が撮影デバイス100A~100Eを使用して、ネットワークNWを介してサーバ装置10のデータベース18に登録する。
 また、データベース18には、連携した撮影デバイス100で撮影された撮影画像M(図1参照)が記憶される。図3で示した場合では、撮影者Dが撮影デバイス100Dにより被写体Xの撮影画像Mが取得される。撮影画像Mは、ネットワークNWを介してサーバ装置10に送信されデータベース18に記憶される。なお、撮影画像Mは、データベース18に撮影要求Rに応じて被写体Xを撮影した撮影画像Mであることを示す付帯情報が付されて記憶される。なお、撮影画像Mがデータベース18に記憶されると、撮影要求Rを送信した撮影者A(撮影デバイス100A)に、撮影画像Mに関しての情報である撮影画像情報Nが送信される。
 撮影者Aは、撮影デバイス100A又は端末101Aにより、データベース18に記憶されている撮影画像Mを閲覧及び取得することができる権限を取得する。なお、撮影者Aは、撮影要求Rに基づいて撮影された撮影画像Mのみの閲覧及び取得が可能であり、他の撮影画像を閲覧及び取得することはできない。また、撮影者Aは、撮影要求Rに対する成果物である撮影画像Mに対して評価点を付与することができる。評価点の高い撮影画像を撮影した撮影者には、撮影連携システム1の利用料を安くしたり、撮影画像をプリントするサービスを付帯させたりする。また、撮影画像を数多く取得した撮影者に対しても、同様の特典を与えてもよい。このように、撮影者が撮影指示Iに対して撮影画像Mを取得する動機付けを、様々な手法により設けてもよい。
 図2に戻って、第1のプロセッサ12は、CPU(Central Processing Unit)で構成される。また、第1のプロセッサ12は、GPU(Graphics Processing Unit)を含んで構成されてもよい。第1のプロセッサ12は、バス13を介してコンピュータ可読媒体16、通信インターフェイス14、及びデータベース18と接続される。第1のプロセッサ12は、コンピュータ可読媒体16に記憶されている専用のプログラムを実行することにより、様々な機能を実現することができる。
 第1のプロセッサ12は、撮影要求受信部12A、位置情報取得部12B、デバイス特定部12C、撮影指示発信部12D、及び撮影画像受信部12Eの機能を実現する。
 撮影要求受信部12Aは、対象被写体である被写体Xの撮影要求Rを受信する。撮影者Aは、保持する撮影デバイス100A又は端末101Aにより、撮影要求Rを、ネットワークNWを介してサーバ装置10に送信し、撮影要求受信部12Aは、通信インターフェイス14を介して撮影要求Rを受信する。
 位置情報取得部12Bは、被写体Xが保持するトラッカーPが発信する発信信号に基づいて、被写体Xの位置情報を取得する。トラッカーPは、直接又は撮影デバイス100A~100Dを介して、被写体Xの位置情報に関する発信信号をサーバ装置10に送信し、位置情報取得部12Bは、被写体Xの位置情報に関する発信信号を受信し被写体Xの位置を取得する。また、位置情報取得部12Bは、登録されている撮影デバイス100A~100Eの位置情報も取得する。位置情報取得部12Bは、撮影デバイス100の位置情報出力部122(図4参照)から出力される位置情報を取得する。
 デバイス特定部12Cは、被写体Xの撮影可能な撮影可能デバイスを特定する。デバイス特定部12Cは、様々な態様により撮影可能デバイスを特定する。デバイス特定部12Cでの撮影可能デバイスの特定に関しては、後で詳しく説明する。
 撮影指示発信部12Dは、デバイス特定部12Cで特定された撮影可能デバイスに撮影指示Iを送信する。撮影指示発信部12Dは、登録されている撮影デバイス100A~100Eの全てが撮影可能デバイスに特定された場合には、全ての撮影デバイス100A~100Eに撮影指示Iを送信し、登録されている撮影デバイス100A~100Eのうち選択的に撮影可能デバイスが特定された場合には、選択的に撮影指示Iを送信する。撮影指示発信部12Dは、通信インターフェイス114を介して、ネットワークNWにより撮影可能デバイスに撮影指示Iを送信する。撮影指示Iは、被写体Xに対するフレーミングの補助を含む。サーバ装置10は、撮影デバイス100の位置、被写体Xの位置とから撮影デバイス100に対する被写体Xの方向を微小時間毎に演算し、また、撮影デバイス100の姿勢情報とに基づいて、被写体Xの位置や方向情報を取得し、撮影デバイス100の表示部118(図4参照)に被写体Xの位置や方向情報を表示して、フレーミングの補助を行う。なお、撮影デバイス100が取得したライブビュー画像において、顔画像FAを用いて個人認識を行い、被写体Xを精度良く特定し、表示部118に被写体Xに対して枠等の報知表示を行ってもよい。
 撮影画像受信部12Eは、撮影指示Iに基づいて取得された撮影画像Mを受信する。撮影画像受信部12Eは、通信インターフェイス14を介して、撮影画像Mを受信する。また、撮影画像受信部12Eは、受信した撮影画像Mをデータベース18に記憶させる。
 コンピュータ可読媒体16は、主記憶装置であるメモリ及び補助記憶装置であるストレージを含む。コンピュータ可読媒体16は、例えば、半導体メモリ、ハードディスク(HDD:Hard Disk Drive)装置、若しくはソリッドステートドライブ(SSD:Solid State Drive)装置又はこれらの複数の組み合わせであってよい。コンピュータ可読媒体16には、サーバ装置10を統括的に制御するための制御プログラムを含む各種のプログラム及びデータ等が記憶される。
 通信インターフェイス14は、撮影デバイス100との無線通信を行う通信部である。通信インターフェイス14は、例えばインターネットなどのネットワークNWにより、撮影デバイス100A~100Eと、情報の送受信を行う。
 <撮影デバイス>
 次に、撮影デバイスに関して説明する。なお、以下では、撮影デバイス100A~100Eを代表して撮影デバイス100として説明を行うが、撮影デバイス100A~100Eは同様の構成を有する。
 図4は、撮影デバイス100Aの機能を説明する機能ブロック図である。
 撮影デバイス100Aは、第2のプロセッサ112、通信インターフェイス114、コンピュータ可読媒体116、表示部118、カメラ120、及び位置情報出力部122を備える。
 第2のプロセッサ112は、CPU(Central Processing Unit)で構成される。また、第2のプロセッサ112は、GPU(Graphics Processing Unit)を含んで構成されてもよい。第2のプロセッサ112は、バス113を介して、通信インターフェイス114、コンピュータ可読媒体116、表示部118、カメラ120、及び位置情報出力部122に接続される。第2のプロセッサ112は、コンピュータ可読媒体116に記憶されている専用のプログラムを実行することにより、様々な機能を実現することができる。
 第2のプロセッサ112は、コンピュータ可読媒体116に記憶されているプログラムを実行することにより、様々な機能を実現する。第2のプロセッサ112は、撮影要求送信部112A、撮影指示受信部112B、撮影制御部112C、及び画像送信部112Dの機能を実現する。
 撮影要求送信部112Aは、撮影要求Rを、通信インターフェイス114を介してネットワークNWにより送信する。撮影者Aは、登録されている撮影デバイス100AからトラッカーPを保持する被写体Xの撮影要求Rをサーバ装置10に送信する。なお、撮影要求Rは、例えば専用のアプリケーションがインストールされている端末101Aにより、送信することもできる。撮影要求Rが送信されると、登録されている他の撮影者B~Eが保持する撮影デバイス100B~100Eに撮影要求Rが送信されたことが通知される。なお、撮影デバイス100Dのように、端末101Dも同様に登録されている場合には、端末101Dにも撮影要求Rが送信されたことが通知される。
 撮影指示受信部112Bは、サーバ装置10から送信される撮影指示Iを受信する。サーバ装置10は上述したように、撮影可能デバイスと特定された撮影デバイス100に撮影指示Iを送信する。そして、撮影指示受信部112Bは、通信インターフェイス114を介して、撮影指示Iを受信する。撮影指示Iは、被写体Xを撮影するためのフレーミングを補助する情報を含み、表示部118により被写体Xへのフレーミングを補助する情報が表示される。
 撮影制御部112Cは、画像取得指示に応じて、対象被写体の撮影画像Mを取得する。画像取得指示は、撮影者が撮影デバイス100に設けられるシャッターボタン(不図示)を押下することにより、撮影制御部112Cに送信される。また、画像取得指示は撮影指示受信部112Bが撮影指示Iを受信したのに応じて、撮影指示受信部112Bから撮影制御部112Cに送信されてもよい。撮影制御部112Cは、画像取得指示を受信するとカメラ120を制御して、カメラ120に対象被写体の撮影画像Mを取得させる。
 カメラ120は、公知の撮像装置で構成される。撮影制御部112Cの制御により撮影画像Mを取得する。なお、カメラ120は静止画及び動画を取得することができる。
 画像送信部112Dは、撮影指示Iに応じて撮影した撮影画像Mをサーバ装置10に送信する。画像送信部112Dは、撮影画像Mを送信する場合には、送信する撮影画像Mが撮影要求Rに応じて取得された撮影画像Mである事を示す情報と共にサーバ装置10に送信する。
 通信インターフェイス114は、無線通信を行う通信部である。例えばインターネットなどのネットワークNWにより、サーバ装置10と情報の送受信を行う。
 コンピュータ可読媒体116は、主記憶装置であるメモリ及び補助記憶装置であるストレージを含む。コンピュータ可読媒体116は、例えば、半導体メモリ、ハードディスク(HDD:Hard Disk Drive)装置、若しくはソリッドステートドライブ(SSD:Solid State Drive)装置又はこれらの複数の組み合わせであってよい。
 表示部118は、例えばディスプレイで構成される。また、表示部118はタッチパネルを備え、入力部としても機能する。表示部118は、撮影指示受信部112Bで受信した撮影指示Iに含まれる被写体Xへのフレーミングを補助する情報を表示したりする。
 位置情報出力部122は、撮影デバイス100Aの位置及び姿勢に関する情報を出力する。位置情報出力部122は、例えば、GPS(Global Positioning System)受信機、加速度センサ、地磁気センサ及びジャイロセンサで構成される。なお、位置情報出力部122を構成するデバイスは、特に限定されず、撮影デバイス100Aの位置及び姿勢に関する情報を出力するデバイスが使用される。
 以上で説明したサーバ装置10及び撮影デバイス100における第1のプロセッサ12及び第2のプロセッサ112のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)でもよい。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
 以上で説明したように、撮影連携システム1は、サーバ装置10及び撮影デバイス100により構成され、対象被写体である被写体Xの撮影を行う。
 次に、撮影連携システム1を使用した撮影連携方法の実施形態に関して説明する。なお、撮影連携方法は、撮影連携システム1の第1のプロセッサ12及び第2のプロセッサ112がプログラムを実施することにより行われる。
 <第1の実施形態>
 先ず、第1の実施形態に関して説明する。本実施形態では、撮影デバイスの位置情報と、被写体Xの位置情報とに基づいて、撮影デバイス100A~100Eと被写体Xとの相対距離が算出され、その相対距離に応じて、撮影指示Iを通知するデバイスを決定する。
 図5は、本実施形態の撮影連携システム1の動作フロー示す図である。
 先ず、撮影者Aは、撮影デバイス100Aの撮影要求送信部112Aにより被写体Xに関しての撮影要求Rをサーバ装置10に送信し、サーバ装置10の撮影要求受信部12Aは、撮影デバイス100Aから被写体Xに関しての撮影要求Rを受信する(ステップS101)。
 撮影要求受信部12Aは、撮影要求Rを受信した時刻を記憶する。撮影要求受信部12Aは、撮影要求Rを受信した時刻から閾値t以上の時間(例えば3分間)が経過した場合には(ステップS102)、撮影要求Rは無効として、処理を終了する(ステップS110)。
 一方、撮影要求受信部12Aが撮影要求Rを受信してから所定時間が経過していない場合には、位置情報取得部12Bは、被写体Xの位置情報を被写体Xが保持しているトラッカーPから取得する(ステップS103)。
 その後、デバイス特定部12Cは、撮影デバイス番号k=1と初期化する(ステップS104)。その後、デバイス特定部12Cは、登録されている撮影デバイス100A~100Eから任意に選択した撮影デバイスに対して撮影デバイス番号(k=1)を付与し、撮影デバイス番号が付与された撮影デバイスの位置情報を取得して、相対距離rを計算する(ステップS105)。なお、撮影デバイス番号kは、登録されている全ての撮影デバイス100に対して処理が行われるように、重複せず付与される。
 図6は、デバイス特定部12Cにおける被写体Xと撮影デバイス100A~100Eとの相対距離ra~reを算出することを説明する図である。
 デバイス特定部12Cは、被写体Xが保持するトラッカーPから出力される位置情報と、撮影デバイス100A~100Eの位置情報出力部122から出力される位置情報に基づいて、撮影デバイス100Aと被写体Xとの相対距離ra、撮影デバイス100Bと被写体Xとの相対距離rb、撮影デバイス100Cと被写体Xとの相対距離rc、撮影デバイス100Dと被写体Xとの相対距離rd、及び撮影デバイス100Eと被写体Xとの相対距離reを取得する。なお、図6で説明した場合では、撮影要求Rを発信した撮影デバイス100Aと被写体Xとの相対距離raも算出する例について説明したが、本発明はこれに限定されるものではない。例えば、撮影要求Rを発信した撮影デバイス100Aと被写体Xとの相対距離raの算出を行わずに、撮影要求Rを出していない他の撮影デバイス100B~100Eと被写体Xとの相対距離rb~reのみ算出を行ってもよい。
 図5に戻って、デバイス特定部12Cは、取得した相対距離rがR以下であるかを判定する(撮影可能デバイスを特定する工程:ステップS106)。ここでRは、相対距離の閾値であり任意に設定されるものである。そして、デバイス特定部12Cは、相対距離rがR以下である撮影デバイスを撮影可能デバイスに特定し、撮影指示発信部12Dは、撮影可能デバイスに撮影指示Iを送信する(撮影指示を送信する工程:ステップS107)。そして、撮影可能デバイスは、送信された撮影指示Iを受信する(撮影指示を受信する工程)。
 一方、デバイス特定部12Cは、撮影デバイス番号k番目の撮影デバイス100を撮影可能デバイスと特定しなかった場合には、撮影指示発信部12Dは、撮影デバイス番号k番目の撮影デバイス100に対して撮影指示Iが送信済みであるか否かの判定を行う(ステップS111)。そして、撮影指示発信部12Dは、撮影デバイス番号k番目の撮影デバイス100に既に撮影指示Iを送信している場合には、撮影デバイス番号k番目の撮影デバイス100に撮影指示キャンセル通知を送信する(ステップS112)。ここで、撮影指示キャンセル通知は、既に送信された撮影指示Iを無効とする通知である。
 その後、撮影デバイス番号kが、登録されている撮影デバイスの数を示すNよりも小さいか否かが、デバイス特定部12Cにより判定される(ステップS108)。撮影デバイス番号kがNより小さい場合には、デバイス特定部12Cは撮影デバイス番号kをインクリメント(k=k+1)とし(ステップS109)、ステップS105~ステップS108及びステップS111~ステップS112がループされる。
 一方、撮影デバイス番号kが、登録されている撮影デバイスの数を示すNよりも小さくない場合(k=Nの場合)には、ステップS102~ステップS109及びステップS111~ステップS112がループされる。
 以上で説明したように、本実施形態ではデバイス特定部12Cにより、被写体Xと撮影デバイス100A~100Eとの相対距離ra~reが算出され、相対距離ra~reに基づいて撮影可能デバイスが特定され、その撮影可能デバイスに撮影指示Iが送信される。これにより、被写体Xに近い撮影デバイス100に撮影指示Iを送信することで、撮り逃しが抑制され且つ特定の撮影デバイスへ撮影指示Iが集中しないように負荷を分散させることが可能となる。
 なお、上述した第1の実施形態では、相対距離rがR以下である撮影デバイスを撮影可能デバイスとして撮影指示Iを送信した。しかしながら、別の態様としては、撮影デバイス100A~100Eと被写体Xとの相対距離rを全て算出し、相対距離rを短い順に並べたときに上位Q番目(例えばQ=3)までの撮影デバイスを撮影可能デバイスとして特定し、撮影可能デバイスに撮影指示Iを送信してもよい。また、撮影可能デバイスの数を常時、撮影要求Rを出した撮影者Aの撮影デバイス100Aや端末101Aに表示してもよい。これにより、撮影要求Rを出力した撮影者Aは、撮影可能デバイスの数を常に把握することができる。
 <第2の実施形態>
 次に、第2の実施形態に関して説明する。本実施形態では、撮影デバイス100の稼働状況に応じて、撮影可能デバイスが特定される。なお、ここで稼働状況とは、他の撮影指示Ia(第1の撮影指示に相当)に対応中であるか否かを示す。
 図7は、本実施形態の撮影連携システム1の動作フローを示す図である。
 撮影者Aは、撮影要求送信部112Aにより被写体Xに関しての撮影要求Rをサーバ装置10に送信し、撮影要求受信部12Aは、撮影デバイス100Aから被写体Xに関しての撮影要求Rを受信する(ステップS201)。
 撮影要求受信部12Aは、撮影要求Rの受信からの時間を算出し(ステップS202)、所定時間が経過した場合には、撮影要求Rは無効として、処理を終了する(ステップS210)。一方、撮影要求Rを受信してから所定時間が経過していない場合には、位置情報取得部12Bは、位置情報をトラッカーPから取得する(ステップS203)。
 次に、デバイス特定部12Cは、撮影デバイス番号k=1と初期化設定(ステップS204)する。その後、デバイス特定部12Cは、任意に選択した撮影デバイスに対して撮影デバイス番号(k=1)を付与する。
 デバイス特定部12Cは、撮影デバイス番号k番目の撮影デバイスの稼働状況を取得し(ステップS205)、撮影デバイス番号k番目の撮影デバイスが別の撮影指示Iaに対応中であるか否かを判定する(ステップS206)。ここで、デバイス特定部12Cは、撮影デバイスの稼働状況として、他の撮影要求Raに基づく撮影指示Iaを受信しているか否かの情報を取得する。なお、撮影デバイス100は、撮影指示受信部112Bにより、既に撮影指示Iaを受信している場合には、別の撮影指示Iaに対応中であることを示す稼働信号をサーバ装置10に送信する。デバイス特定部12Cは、撮影デバイス番号k番目の撮影デバイスが別の撮影指示Iaに対応していない場合には、撮影デバイス番号k番目の撮影デバイスに撮影指示I(第2の撮影指示)を送信する(ステップS207)。
 その後、撮影デバイス番号kが、登録されている撮影デバイスの数を示すNよりも小さいか否かが、デバイス特定部12Cにより判定され(ステップS208)、撮影デバイス番号kがNより小さい場合には、デバイス特定部12Cは撮影デバイス番号kをインクリメント(k=k+1)とし(ステップS209)、ステップS205~ステップS209がループされる。また、撮影デバイス番号kが、登録されている撮影デバイスの数を示すNよりも小さくない場合(k=Nの場合)には、ステップS202~ステップS210がループされる。
 以上で説明したように、本実施形態ではデバイス特定部12Cが、各撮影デバイス100A~撮影デバイス100Eが他の撮影指示Iaに対応中であるか否かが判定され、その稼働状況に応じて、撮影可能デバイスが特定され、撮影指示Iが送信される。これにより、本実施形態では、撮影指示が特定のデバイスに集中することを抑制し、撮影者の負荷を軽減することができる。なお、本実施形態は、上述した第1の実施形態と組み合わされて実施されてもよい。
 <第3の実施形態>
 次に、第3の実施形態に関して説明する。上述した第2の実施形態では、他の撮影指示Iaに対応中の撮影デバイスには撮影指示Iを送信しないとしたが、本実施形態では、2つの撮影指示I及び撮影指示Iaの対象被写体の位置が近い場合には、撮影指示Iを送信する。
 図8は、本実施形態の撮影連携システム1の動作フロー示す図である。
 撮影要求受信部12Aは、撮影デバイス100Aから被写体Xに関しての撮影要求Rを受信する(ステップS301)。撮影要求受信部12Aは、撮影要求Rの受信からの時間を算出し(ステップS302)、所定時間が経過した場合には、撮影要求Rは無効として、処理を終了する(ステップS310)。
 一方、撮影要求Rを受信してから所定時間が経過していない場合には、位置情報取得部12Bは、位置情報をトラッカーPから取得する(ステップS303)。
 次に、デバイス特定部12Cは、撮影デバイス番号k=1と初期化設定(ステップS304)する。その後、デバイス特定部12Cは、任意に選択した撮影デバイスに対して撮影デバイス番号(k=1)を付与する。
 デバイス特定部12Cは、撮影デバイス番号k番目の撮影デバイス100の稼働状況を取得し(ステップS305)、撮影デバイス番号k番目の撮影デバイスが別の撮影指示Ia(第1の撮影指示)に対応中であるか否かが判定される(ステップS306)。デバイス特定部12Cは、撮影デバイス番号k番目の撮影デバイス100が別の撮影指示Iaに対応している場合には、デバイス特定部12Cは、別の撮影指示Iaの対象被写体(第1の対象被写体)と今回の撮影指示I(第2の撮影指示)の被写体X(第2の対象被写体)との距離の情報に基づいて判定する(ステップS311)。例えば、撮影指示Iaの対象被写体と今回の撮影指示Iの被写体Xとの距離が閾値S(例えば5m)の場合には、撮影デバイスが他の撮影指示Iaに対応中でも撮影指示Iを送信する(ステップS307)。
 なお、上述した説明のように撮影指示Iaの対象被写体と撮影指示Iの被写体Xとの距離だけでなく、撮影デバイス100のライブビュー画像に対して、撮影デバイス100又はサーバ装置10において、個人認識処理を行い、2つの対象被写体が画角内に存在するかを断定した上で、デバイス特定部12Cは、撮影可能デバイスと特定してもよい。ただし、対象被写体が後ろ向きに写っている場合などでは個人認識処理が上手く行うことができないため、本機能は2つの対象被写体の距離に基づいて撮影可能デバイスを特定する際に、補足的に用いることが望ましい。
 デバイス特定部12Cは、撮影デバイス番号k番目の撮影デバイスが別の撮影指示Iaに対応していない場合には、撮影デバイス番号k番目の撮影デバイスに撮影指示Iを送信する(ステップS307)。
 その後、撮影デバイス番号kが登録されている撮影デバイス100の数を示すNよりも小さいか否かが、デバイス特定部12Cにより判定され(ステップS308)、撮影デバイス番号kがNより小さい場合には、デバイス特定部12Cは撮影デバイス番号kをインクリメント(k=k+1)とし(ステップS309)、ステップS305~ステップS309がループされる。また、撮影デバイス番号kが、登録されている撮影デバイスの数を示すNよりも小さくない場合(k=Nの場合)には、ステップS302~ステップS310がループされる。
 以上で説明したように、本実施形態では、撮影デバイス100が既に別の撮影指示Iaに対応している場合であっても、撮影指示Iaの対象被写体と撮影指示Iの対象被写体(被写体X)との距離が近い場合には、撮影指示Iを送信する。これにより、本実施形態は、効率的な撮影を行い、撮り逃しを抑制することができる。
 <第4の実施形態>
 次に、第4の実施形態に関して説明する。本実施形態では、撮影者は自分の撮影デバイス100において、撮影指示Iを受け付ける「許可モード」と、撮影指示Iを受け付けない「拒否モード」とを選択することができ、サーバ装置10は、「許可モード」の撮影デバイスを撮影可能デバイスとして特定し、撮影指示Iを送付する。
 図9は、本実施形態の撮影連携システム1の動作フローを示す図である。
 撮影要求受信部12Aは、撮影デバイス100Aから被写体Xに関しての撮影要求Rを受信する(ステップS401)。撮影要求受信部12Aは、撮影要求Rの受信からの時間を算出し(ステップS402)、所定時間が経過した場合には、撮影要求Rは無効として、処理を終了する(ステップS410)。
 一方、撮影要求Rを受信してから所定時間が経過していない場合には、位置情報取得部12Bは、位置情報をトラッカーPから取得する(ステップS403)。
 次に、デバイス特定部12Cは、撮影デバイス番号k=1と初期化設定(ステップS404)する。その後、デバイス特定部12Cは、任意に選択した撮影デバイスに対して撮影デバイス番号(k=1)を付与する。
 デバイス特定部12Cは、撮影デバイス番号k番目の撮影デバイスの稼働状況を取得する(ステップS405)。ここで稼働状況とは、撮影デバイス100A~100Eにおいて「許可モード」及び「拒否モード」の設定状況を表す。そして、デバイス特定部12Cは、撮影デバイス番号kの撮影デバイスが「拒否モード」に設定されているか否かを判定し(ステップS406)、「拒否モード」に設定されていない場合には、撮影可能デバイスに特定し、撮影指示Iを送信する(ステップS407)。
 その後、撮影デバイス番号kが登録されている撮影デバイスの数を示すNよりも小さいか否かが、デバイス特定部12Cにより判定され(ステップS408)、撮影デバイス番号kがNより小さい場合には、デバイス特定部12Cは撮影デバイス番号kをインクリメント(k=k+1)とし(ステップS409)、ステップS405~ステップS409がループされる。また、撮影デバイス番号kが、登録されている撮影デバイスの数を示すNよりも小さくない場合(k=Nの場合)には、ステップS402~ステップS410がループされる。
 以上で説明したように、本実施形態では、撮影者は自分の撮影デバイス100において、撮影指示Iを受け付ける「許可モード」と、撮影指示Iを受け付けない「拒否モード」とを選択することができ、サーバ装置10は、「許可モード」の撮影デバイスにのみ撮影指示Iを送信する。したがって、本実施形態は、撮影者の撮影行為を阻害しないよう、撮影指示Iを送信する撮影デバイスを選択することができる。なお、本実施形態は、上述した第1の実施形態と組み合わされて実施されてもよい。
 <第5の実施形態>
 次に、第5の実施形態に関して説明する。本実施形態では、撮影デバイス100が撮影中であり、且つ撮影デバイス100の撮影画角内に被写体Xが存在する場合に、撮影デバイス100が撮影可能デバイスとして特定される。
 図10は、本実施形態の撮影連携システム1の動作フローを示す図である。
 撮影要求受信部12Aは、撮影デバイス100Aから被写体Xに関しての撮影要求Rを受信する(ステップS501)。撮影要求受信部12Aは、撮影要求Rの受信からの時間を算出し(ステップS502)、所定時間が経過した場合には、撮影要求Rは無効として、処理を終了する(ステップS511)。
 一方、撮影要求Rを受信してから所定時間が経過していない場合には、位置情報取得部12Bは、位置情報をトラッカーPから取得する(ステップS503)。
 次に、デバイス特定部12Cは、撮影デバイス番号k=1と初期化設定(ステップS504)する。その後、デバイス特定部12Cは、任意に選択した撮影デバイスに対して撮影デバイス番号(k=1)を付与する。
 デバイス特定部12Cは、撮影デバイス番号k番目の撮影デバイスの稼働状況を取得する(ステップS505)。ここで、稼働状況とは、撮影デバイス100A~100Eが撮影中であるか否かである。撮影デバイス100A~100Eは、撮影中である場合には、サーバ装置10に撮影中信号を送信する。そして、デバイス特定部12Cは、撮影デバイス番号k番目の撮影デバイスが撮影中である場合には(ステップS506)、撮影デバイス番号k番目の撮影デバイスの撮影画角内に被写体Xが存在するかを判断する(ステップS507)。
 図11は、撮影デバイス100の撮影画角中に被写体Xが存在するか否かを判定することを説明する図である。
 図11には、被写体X及び撮影デバイス番号k番目の撮影デバイス100Dの画角が示されている。被写体Xが撮影画角内に存在するかどうかは、(1)撮影デバイス100Dのレンズ光軸H1の方向(=カメラ姿勢)、(2)撮影デバイス100Dの位置に対する被写体Xの方向H2、(3)焦点距離から算出することが可能である。なお、レンズ光軸H1の方向および焦点距離は画角情報として、撮影制御部112Cからデバイス特定部12Cに送信される。
 撮影デバイス100Dのレンズ光軸H1の方向(上記(1))は、撮影デバイス100D内に備わる加速度センサや地磁気センサの情報から算出することができる。また、撮影デバイス100Dの位置に対する被写体Xの方向H2は、撮影デバイス100Dの位置情報及び被写体Xの位置情報に基づいて算出することができる(上記(2))。そして、レンズ光軸H1の方向を基準とした被写体Xの方向θ1が算出される。また、焦点距離(上記(3))から視野角の半値θ2を得ることができるので、θ1の絶対値がθ2以下である場合には、被写体Xが撮影デバイス100Dの撮影画角内に存在することになる。なお、被写体Xの体の一部でも撮影画角に含まれている場合には、ここでは含まれていると判断する。
 なお、被写体Xの位置と撮影デバイス100Dの位置の相対距離r(第1の実施形態を参照)が長い場合には、被写体Xが小さく撮影されてしまうので、被写体Xが撮影デバイス100Dの画角内に存在する場合であっても、撮影可能デバイスとして特定しないことが望ましい。
 さらに、撮影デバイス100のライブビュー画像に対して、撮影デバイス100又はサーバ装置10において顔画像FAを使用して個人認識処理を行い、被写体Xが存在するかを断定してもよい。ただし、個人認識処理は、被写体Xが後ろ向きに写っている場合など上手く行えない場合があるため、上述した撮影画角内に被写体Xが存在するかを確かめる手法に対して補足的に行うことが望ましい。
 そして、デバイス特定部12Cは、撮影デバイス番号kの撮影デバイス100の撮影画角内に被写体Xが存在していると判定した場合には、撮影デバイス番号kの撮影デバイス100を撮影可能デバイスとして特定し、撮影可能デバイスに撮影指示Iを送信する(ステップS508)。
 その後、撮影デバイス番号kが登録されている撮影デバイスの数を示すNよりも小さいか否かが、デバイス特定部12Cにより判定され(ステップS509)、撮影デバイス番号kがNより小さい場合には、デバイス特定部12Cは撮影デバイス番号kをインクリメント(k=k+1)とし(ステップS510)、ステップS505~ステップS510がループされる。また、撮影デバイス番号kが、登録されている撮影デバイスの数を示すNよりも小さくない場合(k=Nの場合)には、ステップS502~ステップS510がループされる。
 以上で説明したように、本実施形態では、デバイス特定部12Cが、撮影デバイス100が撮影中であり、且つ被写体Xがその撮影デバイス100の撮影画角内に存在する場合に、撮影デバイス100を撮影可能デバイスと特定する。これにより、本実施形態では、撮り逃しを抑制しつつ、特定の撮影デバイス100へ撮影指示Iが集中しないように負荷分散をすることができる。
 <第6の実施形態>
 次に、第6の実施形態に関して説明する。本実施形態では、撮影指示Iのモードに明示の撮影指示と、非明示の撮影指示を設ける。ここで、明示の撮影指示とは、撮影デバイス100の撮影者に、例えば、撮影デバイスの表示部118に撮影指示Iを表示して報知するモードである。また、非明示の撮影指示は、撮影者に対しては撮影指示を報知しないモードであり、撮影者が撮影指示を意識することなく、撮影デバイス100が自動で撮影指示に応じた撮影を行うモードである。なお、撮影デバイス100が撮影中でないときや、撮影中でも撮影画角内に対象被写体が存在しない場合には、明示の撮影指示が出され、撮影中且つ撮影画角内に対象被写体が存在する場合は、非明示の撮影指示が出される。
 図12は、本実施形態の撮影連携システム1の動作フロー示す図である。
 撮影要求受信部12Aは、撮影デバイス100Aから被写体Xに関しての撮影要求Rを受信する(ステップS601)。撮影要求受信部12Aは、撮影要求Rの受信からの時間を算出し(ステップS602)、所定時間が経過した場合には、撮影要求Rは無効として、処理を終了する(ステップS611)。
 一方、撮影要求Rを受信してから所定時間が経過していない場合には、位置情報取得部12Bは、位置情報をトラッカーPから取得する(ステップS603)。
 次に、デバイス特定部12Cは、撮影デバイス番号k=1と初期化設定(ステップS604)する。その後、デバイス特定部12Cは、任意に選択した撮影デバイスに対して撮影デバイス番号(k=1)を付与する。
 デバイス特定部12Cは、撮影デバイス番号k番目の撮影デバイスの稼働状況(動作情報)を取得する(ステップS605)。ここで、稼働状況とは、撮影デバイス100A~100Eが撮影中であるか否かの情報である。
 そして、撮影デバイス番号k番目の撮影デバイスが撮影中である場合には(ステップS606)、撮影デバイス番号k番目の撮影デバイスの撮影画角内に対象被写体が存在するかを判断する(ステップS607)。
 そして、デバイス特定部12Cは、撮影デバイス番号kの撮影デバイス100の撮影画角内に被写体Xが存在していると判定した場合には、その撮影デバイスに非明示の撮影指示を送信する(ステップS608)。なお、非明示の撮影指示が送信された場合には、非明示の撮影指示を撮影制御部112Cが受信し、非明示の撮影指示の受信に応じてカメラ120を制御して撮影画像Mが自動で撮影される。一方で、撮影デバイス100が撮影中でなく、撮影デバイスの撮影画角内に対象被写体が存在しない場合には、撮影デバイス番号k番目の撮影デバイス100に明示の撮影指示Iを送信する(ステップS612)。
 その後、撮影デバイス番号kが登録されている撮影デバイスの数を示すNよりも小さいか否かが、デバイス特定部12Cにより判定され(ステップS609)、撮影デバイス番号kがNより小さい場合には、デバイス特定部12Cは撮影デバイス番号kをインクリメント(k=k+1)とし(ステップS610)、ステップS605~ステップS610及びステップS612がループされる。また、撮影デバイス番号kが、登録されている撮影デバイスの数を示すNよりも小さくない場合(k=Nの場合)には、ステップS602~ステップS612がループされる。
 以上で説明したように、本実施形態では、撮影指示Iのモードに明示の撮影指示と、非明示の撮影指示を設ける。これにより、本実施形態は、明示の撮影指示で撮影者が撮影する場合に加えて、非明示の撮影指示により、自動での撮影も可能とすることで、撮影頻度を増やし、撮り逃しを抑制することができる。
 <第7の実施形態>
 次に、第7の実施形態に関して説明する。本実施形態では、撮影要求Rが出された時の被写体Xの位置x1を保持しておき、その後の被写体Xの位置x2を常時取得し、被写体Xの移動距離が所定の値(閾値L、例えば50m)を超えた場合には、撮影要求Rを無効とする。また、撮影要求Rが無効となった場合に、それまでに撮影指示Iを送信した撮影デバイス100に対して、撮影指示Iに対する撮影指示キャンセルを通知して、処理を終了する。
 図13は、本実施形態の撮影連携システム1の動作フローを示す図である。
 撮影者Aは、撮影要求送信部112Aにより被写体Xに関しての撮影要求Rをサーバ装置10に送信し、撮影要求受信部12Aは、撮影デバイス100Aから被写体Xに関しての撮影要求Rを受信する(ステップS701)。
 その後、位置情報取得部12Bは、トラッカーPから出力される被写体Xの位置情報x1を取得する(ステップS702)。その後、撮影要求受信部12Aは、撮影要求Rの受信からの時間を算出し(ステップS703)、所定時間が経過した場合には、撮影要求Rは無効として、処理を終了する(ステップS713)。
 一方、撮影要求Rを受信してから所定時間が経過していない場合には、位置情報取得部12Bは、現在の被写体Xの位置情報x2をトラッカーPから取得する(ステップS704)。
 そして、位置情報取得部12Bは、x1とx2との差が閾値L以上であった場合には(ステップS705)、全ての撮影デバイスに撮影指示キャンセル通知を行い(ステップS712)、処理を終了する(ステップS713)。
 一方、x1とx2との差が閾値L未満であった場合には、図13に示すようにステップS706~ステップS711及びステップS714~ステップS715が行われる。なお、ステップS706~ステップS711及びステップS714~ステップS715は、第1の実施形態で説明したステップS104~ステップS109及びステップS111~ステップS112(図5参照)と同様であるので、ここでは説明は省略する。
 以上で説明したように、本実施形態では、撮影要求Rを出した際の被写体Xの位置から閾値L以上移動した場合には、撮影デバイス100A~100Eに撮影指示キャンセルが送信される。これにより、本実施形態では、撮影要求Rを出し際の被写体Xの位置から大幅に被写体Xが移動した場合には、撮影要求Rをキャンセルし、効率的な撮影を行うことができる。
 以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の趣旨を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
1    :撮影連携システム
10   :サーバ装置
12   :第1のプロセッサ
12A  :撮影要求受信部
12B  :位置情報取得部
12C  :デバイス特定部
12D  :撮影指示発信部
12E  :撮影画像受信部
14   :通信インターフェイス
16   :コンピュータ可読媒体
18   :データベース
112  :第2のプロセッサ
112A :撮影要求送信部
112B :撮影指示受信部
112C :撮影制御部
112D :画像送信部
114  :通信インターフェイス
116  :コンピュータ可読媒体
118  :表示部
120  :カメラ
122  :位置情報出力部

Claims (23)

  1.  位置情報を発信する対象被写体を撮影デバイスが撮影する撮影連携システムであって、
     第1のプロセッサは、
     撮影可能な撮影可能デバイスを特定し、
     前記対象被写体の前記位置情報に基づいて、前記撮影可能デバイスに前記対象被写体の撮影指示を送信し、
     第2のプロセッサは、
     前記撮影指示を受信する、
     撮影連携システム。
  2.  前記第1のプロセッサを有するサーバ装置を備える請求項1に記載の撮影連携システム。
  3.  前記第1のプロセッサは、
     前記対象被写体の撮影要求を受信し、
     前記対象被写体の前記位置情報を発信信号に基づいて取得し、
     前記撮影デバイスの位置情報を取得し、
     前記対象被写体の前記位置情報と前記撮影デバイスの前記位置情報とに基づいて、前記撮影可能デバイスを特定し、
     前記撮影可能デバイスに、前記撮影指示を送信する、請求項1又は2に記載の撮影連携システム。
  4.  前記第1のプロセッサは、
     前記対象被写体の前記位置情報と前記撮影デバイスの前記位置情報との距離に基づいて、前記撮影デバイスを前記撮影可能デバイスとして特定する請求項1から3のいずれか1項に記載の撮影連携システム。
  5.  前記撮影指示は、複数の前記第2のプロセッサに対して、全て又は選択的に行う請求項1から4のいずれか1項に記載の撮影連携システム。
  6.  前記撮影指示は、第1の撮影指示と第2の撮影指示とで構成され、
     前記第1のプロセッサは、
     前記第1の撮影指示を受信していない前記撮影可能デバイスに、前記第2の撮影指示の送信を行う請求項1から5のいずれか1項に記載の撮影連携システム。
  7.  前記撮影デバイスは、前記撮影指示を受け付けない拒否モードを備え、
     前記第1のプロセッサは、
     前記拒否モードに設定されている前記撮影可能デバイスには、前記撮影指示を送信しない請求項1から6のいずれか1項に記載の撮影連携システム。
  8.  前記撮影デバイスは、画角情報を前記第1のプロセッサに送信し、
     前記第1のプロセッサは、
     前記対象被写体の前記位置情報及び前記撮影可能デバイスの前記画角情報に基づいて、前記対象被写体が画角に含まれるか否かを判定する請求項1から7のいずれか1項に記載の撮影連携システム。
  9.  前記画角に前記対象被写体が含まれると判定された場合に、前記撮影可能デバイスに前記撮影指示を送信する請求項8に記載の撮影連携システム。
  10.  前記第1のプロセッサは、
     前記画角に前記対象被写体が含まれると判定された前記撮影可能デバイスに、撮影者に前記撮影指示が報知されない非明示の撮影指示を送信し、
     前記画角に前記対象被写体が含まれないと判定された前記撮影可能デバイスに、撮影者に前記撮影指示が報知される明示の撮影指示を送信する請求項8に記載の撮影連携システム。
  11.  前記第1のプロセッサは、
     前記対象被写体の前記位置情報に基づいて前記対象被写体の移動距離に関する情報を取得し、前記移動距離の情報に基づいて前記撮影指示を送信した前記撮影可能デバイスに前記撮影指示を無効とする撮影指示キャンセル通知を送信する請求項1から10のいずれか1項に記載の撮影連携システム。
  12.  前記対象被写体は、第1の対象被写体と第2の対象被写体とで構成され、
     前記撮影指示は、前記第1の対象被写体に関しての第1の撮影指示と、前記第2の対象被写体に関しての第2の撮影指示とで構成され、
     前記第1のプロセッサは、
     前記第1の対象被写体の前記位置情報と前記第2の対象被写体の前記位置情報とに基づいて、前記第1の対象被写体と前記第2の対象被写体との距離を取得し、
     前記距離の情報に基づいて、前記第1の撮影指示を受信している前記撮影可能デバイスに、前記第2の撮影指示の送信を行う請求項1から11のいずれか1項に記載の撮影連携システム。
  13.  前記撮影デバイスは、撮影中であることを示す動作情報を前記第1のプロセッサに送信し、
     前記第1のプロセッサは、
     撮影中である前記撮影可能デバイスには、撮影者に前記撮影指示が報知されない非明示の撮影指示を送信し、撮影中でない前記撮影可能デバイスには、前記撮影指示を撮影者に報知する明示の撮影指示を送信する請求項1から12のいずれか1項に記載の撮影連携システム。
  14.  前記第1のプロセッサは、前記撮影要求を受信してから、閾値以上の時間が経過した場合には、前記撮影連携システムの処理を終了させる請求項3から13のいずれか1項に記載の撮影連携システム。
  15.  前記第1のプロセッサは、前記対象被写体を特定するための個人認識情報が記憶されているメモリを備え、
     前記第1のプロセッサ又は前記第2のプロセッサは、前記個人認識情報に基づいて、撮影画像における前記対象被写体の報知表示を行う請求項1から14のいずれか1項に記載の撮影連携システム。
  16.  前記第1のプロセッサは、
     前記第1のプロセッサに送信された前記撮影画像の閲覧の権限を、前記撮影要求を発信した前記撮影デバイスに与える請求項1から15のいずれか1項に記載の撮影連携システム。
  17.  前記第2のプロセッサは、
     前記撮影指示を受信し、
     前記撮影指示に応じて撮影者からの画像取得指示を受け付け、又は前記撮影指示に応じて出力される画像取得指示を受け付け、
     前記画像取得指示に応じて、前記対象被写体の撮影画像を取得し、
     前記撮影画像を前記撮影要求に関する情報と共に前記第1のプロセッサに送信する、
     請求項1から16のいずれか1項に記載の撮影連携システム。
  18.  前記第1のプロセッサは、
     前記第1のプロセッサに送信された前記撮影画像に対しての評価を受け付ける請求項1から17のいずれか1項に記載の撮影連携システム。
  19.  トラッカーを所持する対象被写体を撮影デバイスが連携して撮影する撮影連携システムを構成する、第1のプロセッサを備えるサーバ装置であって、
     前記第1のプロセッサは、
     前記対象被写体の撮影要求を受信し、
     前記対象被写体の位置情報を前記トラッカーの発信信号に基づいて取得し、
     前記撮影デバイスの位置情報を取得し、
     前記対象被写体の前記位置情報と前記撮影デバイスの前記位置情報とに基づいて、前記撮影デバイスのうち前記対象被写体を撮影可能な撮影可能デバイスを特定し、
     前記撮影可能デバイスに、前記対象被写体の撮影指示を送信する、
     サーバ装置。
  20.  トラッカーを所持する対象被写体を連携して撮影する、第2のプロセッサを備える撮影デバイスであって、
     前記第2のプロセッサは、
     前記対象被写体を撮影する撮影指示を受信し、
     前記撮影指示に応じて撮影者からの画像取得指示を受け付け、又は前記撮影指示に応じて出力される画像取得指示を受け付け、
     前記画像取得指示に応じて、前記対象被写体の撮影画像を取得し、
     前記撮影画像を撮影要求に関する情報と共にサーバ装置に送信する、
     撮影デバイス。
  21.  位置情報を発信する対象被写体を撮影デバイスが撮影する撮影連携方法であって、
     第1のプロセッサにより、
     撮影可能な撮影可能デバイスを特定する工程と、
     前記対象被写体の前記位置情報に基づいて、前記撮影可能デバイスに前記対象被写体の撮影指示を送信する工程と、
     を行わせ、
     第2のプロセッサにより、
     前記撮影指示を受信する工程を行わせる、
     撮影連携方法。
  22.  位置情報を発信する対象被写体を撮影デバイスが撮影する撮影連携方法を実行させるプログラムであって、
     第1のプロセッサに、
     撮影可能な撮影可能デバイスを特定する工程と、
     前記対象被写体の前記位置情報に基づいて、前記撮影可能デバイスに前記対象被写体の撮影指示を送信する工程と、
     を実行させ、
     第2のプロセッサに、
     前記撮影指示を受信する工程を実行させる、
     プログラム。
  23.  非一時的かつコンピュータ読取可能な記録媒体であって、請求項22に記載のプログラムが記録された記録媒体。
PCT/JP2023/011776 2022-03-31 2023-03-24 撮影連携システム、サーバ装置、撮影デバイス、撮影連携方法、及びプログラム WO2023190138A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022059378 2022-03-31
JP2022-059378 2022-03-31

Publications (1)

Publication Number Publication Date
WO2023190138A1 true WO2023190138A1 (ja) 2023-10-05

Family

ID=88201407

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/011776 WO2023190138A1 (ja) 2022-03-31 2023-03-24 撮影連携システム、サーバ装置、撮影デバイス、撮影連携方法、及びプログラム

Country Status (1)

Country Link
WO (1) WO2023190138A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010057057A (ja) * 2008-08-29 2010-03-11 Sony Corp 地名登録装置及び地名登録方法
JP2012050011A (ja) * 2010-08-30 2012-03-08 Canon Inc 撮影システム、撮影制御方法、撮影装置およびプログラム
JP2013138314A (ja) * 2011-12-28 2013-07-11 Canon Inc 撮像装置およびその制御方法
JP2016171382A (ja) * 2015-03-11 2016-09-23 パナソニックIpマネジメント株式会社 サーバ装置、自動撮影システム及び自動撮影方法
JP2017022650A (ja) * 2015-07-14 2017-01-26 カシオ計算機株式会社 撮影システム、携帯機器、撮像装置、カメラ選択方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010057057A (ja) * 2008-08-29 2010-03-11 Sony Corp 地名登録装置及び地名登録方法
JP2012050011A (ja) * 2010-08-30 2012-03-08 Canon Inc 撮影システム、撮影制御方法、撮影装置およびプログラム
JP2013138314A (ja) * 2011-12-28 2013-07-11 Canon Inc 撮像装置およびその制御方法
JP2016171382A (ja) * 2015-03-11 2016-09-23 パナソニックIpマネジメント株式会社 サーバ装置、自動撮影システム及び自動撮影方法
JP2017022650A (ja) * 2015-07-14 2017-01-26 カシオ計算機株式会社 撮影システム、携帯機器、撮像装置、カメラ選択方法及びプログラム

Similar Documents

Publication Publication Date Title
US9942455B2 (en) Timing system and method with integrated participant event image capture management services
JP6436398B2 (ja) 画像撮影方法
JP2024069305A (ja) 通信端末、画像通信システム、表示方法、及びプログラム
US20140267775A1 (en) Camera in a Headframe for Object Tracking
JP4419759B2 (ja) 電子カメラシステム
US10007476B1 (en) Sharing a host mobile camera with a remote mobile device
US8692666B2 (en) Communication system and communication terminal
JP2006338097A (ja) 撮影装置および管理センタ計算機
JP2012050011A (ja) 撮影システム、撮影制御方法、撮影装置およびプログラム
JP5854714B2 (ja) 表示制御装置、表示制御装置の制御方法、プログラム
JP6950793B2 (ja) 電子機器およびプログラム
WO2023190138A1 (ja) 撮影連携システム、サーバ装置、撮影デバイス、撮影連携方法、及びプログラム
JP2013021473A (ja) 情報処理装置、情報取得方法およびコンピュータプログラム
CN113302906B (zh) 图像处理设备、图像处理方法和存储介质
JP2012094979A (ja) 撮影支援システム、情報処理装置、プログラム、撮影支援方法
JP4206488B2 (ja) 画像処理装置、撮影システム、画像処理方法、画像処理プログラム、および、記録媒体
JP2012039468A (ja) 撮影装置システムおよび撮影装置
WO2015087315A1 (en) Methods and systems for remotely guiding a camera for self-taken photographs
JP7235098B2 (ja) 情報配信装置、情報配信方法、情報配信プログラム
JP2015055865A (ja) 撮影システム及び撮影方法
CN113194243A (zh) 自动拍摄图像的方法、执行该方法的图像处理设备和***
JP7081198B2 (ja) 撮影システム及び撮影制御装置
KR20170088623A (ko) 복수의 모바일 단말들을 이용한 다시점 영상 생성 방법
JP2003018070A (ja) 被撮影者に映像を送信するシステム
JP2021125789A (ja) 映像処理装置、映像処理システム、映像処理方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23780148

Country of ref document: EP

Kind code of ref document: A1