WO2017002821A1 - 映像処理装置、映像処理方法および記録媒体 - Google Patents

映像処理装置、映像処理方法および記録媒体 Download PDF

Info

Publication number
WO2017002821A1
WO2017002821A1 PCT/JP2016/069175 JP2016069175W WO2017002821A1 WO 2017002821 A1 WO2017002821 A1 WO 2017002821A1 JP 2016069175 W JP2016069175 W JP 2016069175W WO 2017002821 A1 WO2017002821 A1 WO 2017002821A1
Authority
WO
WIPO (PCT)
Prior art keywords
material data
recorded material
data
wireless communication
video processing
Prior art date
Application number
PCT/JP2016/069175
Other languages
English (en)
French (fr)
Inventor
祐 高橋
近藤 多伸
佳孝 浦谷
健一 山内
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Publication of WO2017002821A1 publication Critical patent/WO2017002821A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Definitions

  • the present invention relates to a technology for processing sound and moving images.
  • Patent Document 1 discloses a technique for generating a multi-angle video that can be played back by appropriately switching videos recorded at different positions.
  • Patent Document 1 requires a large-scale recording system in which a plurality of cameras and a plurality of microphones are connected to a video recording apparatus with cables, and there is a problem that handling such as transportation or arrangement is complicated.
  • an object of the present invention is to easily generate content using a plurality of recorded materials.
  • the video processing device of the present invention includes a wireless communication unit that receives recorded material data by wireless communication from each of a plurality of terminal devices that can generate recorded material data including sound and moving images, An editing processing unit that generates content by editing the plurality of recorded material data received by the wireless communication unit.
  • the content is generated by the editing process for the plurality of recorded material data received by the wireless communication unit from the plurality of terminal devices by wireless communication. Therefore, there is an advantage that content including a plurality of recording materials can be easily generated without requiring a large-scale recording system in which a plurality of cameras and a plurality of microphones are connected to the video recording apparatus by cables.
  • one content generated by the editing process for a plurality of recorded material data includes, for example, part or all of one or more recorded material data among the plurality of recorded material data.
  • FIG. 1 is a configuration diagram of a video processing system according to an embodiment of the present invention. It is a block diagram of a terminal device. It is explanatory drawing of several recording material data. It is a block diagram of a video processing apparatus. It is explanatory drawing of the process which mutually synchronizes several recording material data. It is a schematic diagram of control data. It is explanatory drawing of operation
  • FIG. 1 is a block diagram of a video processing system 100 according to a preferred aspect of the present invention.
  • the video processing system 100 is a computer system used for recording various events such as a concert or lecture, and includes a video processing device 12 and a plurality of terminal devices 14 as illustrated in FIG. .
  • Each of the plurality of terminal devices 14 is a portable communication terminal such as a mobile phone, a smartphone, a tablet terminal, or a personal computer.
  • the video processing device 12 collects and edits audio and video data (hereinafter referred to as “recorded material data”) recorded by each of the plurality of terminal devices 14 to generate one content.
  • FIG. 2 is a configuration diagram illustrating the configuration of one arbitrary terminal device 14.
  • the terminal device 14 includes a control device 20, a storage device 22, a communication device 24, a recording device 26, an operation device 28, and a playback device 30.
  • the control device 20 is an arithmetic processing device (for example, CPU) that comprehensively controls each element of the terminal device 14.
  • the storage device 22 is composed of a known recording medium such as a magnetic recording medium or a semiconductor recording medium, and stores a program executed by the control device 20 and various data used by the control device 20.
  • the playback device 30 is an output device that plays back the edited content.
  • the playback device 30 includes a display device 32 that displays a moving image of content in response to an instruction from the control device 20, and a sound emitting device 34 that emits sound of content in response to an instruction from the control device 20.
  • the operation device 28 is an input device that receives an instruction from a user of the terminal device 14. A plurality of operators that can be operated by the user or a touch panel that detects contact with the display surface of the display device 32 is used as the operation device 28.
  • the recording device 26 is a video device that generates recording material data D.
  • the recording device 26 according to the present embodiment includes a sound collecting device that collects sound and an imaging device that picks up a moving image, and recording material data that represents the sound collected by the sound collecting device and the moving image picked up by the imaging device. D is generated.
  • the file format of the recorded material data D is arbitrary.
  • a user of each terminal device 14 uses the recording device 26 of the terminal device 14 to record sound and moving images of a common recording target (for example, an event such as a concert) in parallel at different positions, for example.
  • the recording devices 26 of the terminal devices 14 are arranged at different points in a common acoustic space such as an acoustic hall, and each of them records, for example, the state of the stage or the audience from different angles to generate the recording material data D To do.
  • FIG. 3 illustrates recorded material data D (D1, D2, D3) generated by the recording device 26 of each terminal device 14.
  • any one recorded material data D includes sound and moving images recorded in parallel with each other.
  • the starting point of recording of sound and moving images may be different among a plurality of recorded material data D.
  • the plurality of recorded material data D contain sounds common to each other (however, sound characteristics such as volume may be different).
  • the communication device 24 in FIG. 2 is a communication device that communicates with the video processing device 12.
  • the communication device 24 according to the present embodiment communicates with the video processing device 12 by known short-range wireless communication such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).
  • Wi-Fi registered trademark
  • Bluetooth registered trademark
  • the communication device 24 of each terminal device 14 transmits the recording material data D generated by the recording device 26 of the terminal device to the video processing device 12 by short-range wireless communication.
  • the communication method between the terminal device 14 and the video processing device 12 is arbitrary.
  • FIG. 4 is a configuration diagram illustrating the configuration of the video processing device 12.
  • the video processing device 12 of this embodiment is a computer system that processes a plurality of recorded material data D generated by a plurality of terminal devices 14, and as illustrated in FIG. 4, a control device 40, a storage device 42, and a communication device. 44 and an operating device 46.
  • the control device 40, the storage device 42, and the communication device 44 are accommodated in the portable housing 120 of FIG. 1, and the operation device 46 is installed in the housing 120 (not shown in FIG. 1).
  • the video processing apparatus 12 according to the present embodiment is an integral portable apparatus that can be transported manually by, for example, an administrator (for example, an operator of an event to be recorded). Specifically, as illustrated in FIG.
  • a grip unit 122 (a handle) that can be gripped by the administrator is installed on the top surface of the housing 120, and the video processing apparatus holds the grip unit 122. It is possible to transport and place 12 at any location. Specifically, the video processing apparatus 12 is transported and arranged at a place where various events such as a concert or a lecture are held.
  • a communication device 44 communicates with each of the plurality of terminal devices 14. Specifically, the communication device 44 receives the recorded material data D from the plurality of terminal devices 14 by short-range wireless communication.
  • a communication network such as a mobile communication network or the Internet is not interposed between the devices. The distance wireless communication is illustrated.
  • the storage device 42 is configured by a known recording medium such as a magnetic recording medium or a semiconductor recording medium, and stores a program executed by the control device 40 and various data used by the control device 40.
  • the storage device 42 (that is, a cloud storage) can be installed in a server with which the video processing device 12 can communicate. That is, the storage device 42 can be omitted from the video processing device 12.
  • the storage device 42 stores a plurality of recorded material data D received by the communication device 44 from the plurality of terminal devices 14.
  • the control device 40 is an arithmetic processing device (for example, CPU) that comprehensively controls each element of the video processing device 12.
  • the control device 40 according to the present embodiment executes a program stored in the storage device 42 to thereby execute a plurality of functions (synchronization processing) for processing a plurality of recorded material data D received by the communication device 44 from the terminal device 14.
  • Unit 52 and edit processing unit 54 are accommodated in the housing 120.
  • a configuration in which a part of the function of the control device 40 is realized by an electronic circuit dedicated for sound processing or image processing, or a configuration in which the function of the control device 40 is distributed to a plurality of devices may be employed.
  • the synchronization of a plurality of recorded material data D means a state in which the sound and moving image time axes of the recorded material data D coincide with each other over the plurality of recorded material data D. That is, as illustrated in FIG. 5, the synchronization processing unit 52 has a specific time in each recording material data D (for example, a point in time when a specific sound is generated) over a plurality of recording material data D. The position on the time axis of each recorded material data D is adjusted so as to be the time.
  • a known technique can be arbitrarily employed for synchronizing a plurality of recorded material data D. For example, as understood from the example of FIG.
  • a plurality of recorded material data are analyzed by analyzing the sound of each recorded material data D.
  • a configuration in which Ds are synchronized with each other is preferable. That is, the position of each recorded material data D on the time axis is adjusted so that the time variation of the sound of each recorded material data D (that is, the sound pressure waveform) is consistent over the plurality of recorded material data D on the time axis.
  • the editing process includes an acoustic process for adjusting the sound of the recorded material data D and a moving image process for editing a moving image of the recorded material data D.
  • the acoustic processing includes processing such as mixing or mastering for the sound of the plurality of recorded material data D.
  • the moving image processing is processing for connecting a part of each moving image of the plurality of recorded material data D (hereinafter referred to as “selected section”) on the time axis.
  • the content generated by the editing processing unit 54 includes the sound after the sound processing exemplified above and the moving image after the moving image processing (that is, the moving image sequentially switched to any one of the plurality of recorded material data D). Note that any sound of the plurality of recorded material data D can be adjusted by sound processing and used for content.
  • the editing processing unit 54 of the present embodiment includes a first processing unit 541 and a second processing unit 542.
  • the first processing unit 541 generates control data C that is applied to editing processing of a plurality of recorded material data D.
  • FIG. 6 is a schematic diagram of the control data C.
  • the control data C includes acoustic control data C1 and moving image control data C2.
  • the acoustic control data C1 designates the numerical value of each variable applied to the above-described acoustic processing (mixing or mastering).
  • the first processing unit 541 generates initial acoustic control data C1 in which each variable of acoustic processing is set to an initial value.
  • the moving image control data C2 specifies the numerical value of each variable applied to the above-described moving image processing. Specifically, the moving image control data C2 designates a selection section (that is, a part constituting the content) for each of the plurality of recorded material data D. For example, as illustrated in FIG. 6, the moving image control data C2 includes a time series of a plurality of unit data U corresponding to different selection sections. The unit data U corresponding to any one selected section designates identification information of one recorded material data D including the selected section, and the start point and end point of the selected section.
  • the first processing unit 541 is an initial video control that designates a selection section randomly extracted from each recording material data D so that the selection sections do not overlap each other among the plurality of recording material data D after the synchronization processing. Data C2 is generated.
  • the switching point at which the recording scene is switched to another scene is estimated by analyzing each moving image of the plurality of recording material data D, and an initial stage for designating a selection section delimited by each switching point as a boundary. It is also possible for the first processing unit 541 to generate typical moving image control data C2.
  • the initial control data C (acoustic control data C1 and moving image control data C2) generated by the first processing unit 541 is updated in accordance with an instruction from the user to the terminal device 14.
  • the second processing unit 542 in FIG. 4 generates content (for example, a moving image file) by editing the plurality of recorded material data D to which the updated control data C is applied.
  • the content generated by the editing processing unit 54 (second processing unit 542) is transmitted, for example, from the communication device 44 to the terminal device 14 by short-range wireless communication and is played back by the playback device 30 of the terminal device 14.
  • FIG. 7 is an explanatory diagram of the operation of the video processing system 100.
  • a program application program stored in the storage device 22 of each terminal device 14 is activated in accordance with an instruction from the user
  • a predetermined operation operation from the administrator to the operation device 46 of the video processing device 12 is performed.
  • the process of FIG. 7 is started with a start instruction).
  • the communication device 44 of the video processing device 12 transmits the identification information X to the plurality of terminal devices 14 located around the video processing device 12 by short-range wireless communication (S1).
  • the identification information X is a code for identifying a series of operations of the current video processing device 12.
  • the common identification information X is transmitted to the plurality of terminal devices 14 around the video processing device 12 before the recording operation by the recording device 26 of each terminal device 14 is executed.
  • the identification information X is received by the communication device 24 of each terminal device 14 and then stored in the storage device 22 (S2).
  • the recording device 26 of each terminal device 14 generates recording material data D by executing a recording operation of sound and moving images in response to an operation from the user with respect to the operation device 28 (S3). For example, recording is started in parallel by a plurality of terminal devices 14 triggered by the start of an event to be recorded.
  • the recording material data D generated by the recording device 26 is stored in the storage device 22 with the identification information X received from the video processing device 12 added. That is, common identification information X is added to a plurality of recorded material data D recorded by a plurality of terminal devices 14.
  • the communication device 24 of each terminal device 14 transmits the recording material data D stored in the storage device 22 together with the identification information X to the video processing device 12 by short-range wireless communication (S4). ).
  • the recording material data D and the identification information X are transmitted from the communication device 24 to the video processing device 12 in response to an operation from the user (an instruction to end the recording operation) on the operation device 28.
  • the trigger for the end of the recording operation and the transmission of the recording material data D is not limited to the instruction from the user.
  • each terminal device 14 ends the recording operation and displays the recorded material data D as video. It is also possible to transmit to the processing device 12. It is also possible to start transmission of recorded material data D triggered by reception of an end instruction transmitted from the video processing device 12. A plurality of recorded material data D and identification information X transmitted from a plurality of terminal devices 14 in parallel or sequentially (that is, at different points in time) are received by the communication device 44 of the video processing device 12. It is stored in the storage device 42 (S5).
  • the recording material data D (for example, the recording material data D recorded irrespective of the event to be recorded at this time) of the plurality of recording material data D received by the communication device 44 is significantly different from the content of the sound or the moving image. It is also possible to exclude.
  • the synchronization processing unit 52 of the video processing device 12 synchronizes the plurality of recorded material data D with each other by collating the sounds represented by the plurality of recorded material data D received from the terminal device 14 (S6).
  • the first processing unit 541 of the editing processing unit 54 generates initial control data C (acoustic control data C1, moving image control data C2) for each recording material data D after the synchronization processing by the synchronization processing unit 52 ( S7).
  • a user who desires adjustment of the control data C (content editing) instructs the start of adjustment by operating the operation device 28 of the terminal device 14.
  • the communication device 24 of the terminal device 14 transmits an adjustment request to the video processing device 12 (S8).
  • the adjustment request includes identification information X.
  • the communication device 44 of the video processing device 12 includes the plurality of recorded material data D in the storage device 42 to which the identification information X in the adjustment request is added, and the first processing unit 541.
  • the generated initial control data C is transmitted to the requesting terminal device 14 (S9).
  • the plurality of recorded material data D and control data C transmitted from the video processing device 12 are received by the communication device 24 of the terminal device 14 and stored in the storage device 22 (S10). Note that it is also possible to perform processing for reducing the amount of data on a plurality of recorded material data D and transmit the data to the terminal device 14. In the first embodiment, the plurality of recorded material data D after the synchronization processing is transmitted from the video processing device 12 to the terminal device 14, but the synchronization processing is executed in the terminal device 12 that has received the plurality of recorded material data D. Is also possible.
  • FIG. 8 is a schematic diagram of a screen (hereinafter, referred to as “adjustment screen”) 322 displayed on the display device 32 of the terminal device 14 for adjustment of the control data C by the user.
  • adjustment screen For example, a general-purpose web browser is used to display the adjustment screen 322.
  • the adjustment screen 322 includes a plurality of unit images 324 representing moving images of different recorded material data D. Specifically, a time series of a plurality of images (capture images) included in the moving image of the recorded material data D is displayed as a unit image 324 of the recorded material data D. In the unit image 324 of any one recorded material data D, the start point TS and the end point TE of the selected section are displayed. The start point TS and the end point TE of the selection period are specified for the recording material data D by the moving image control data C2 of the control data C. By visually recognizing the adjustment screen 322, the user can confirm the outline of the moving image of each recorded material data D and the selected section used for the content in the recorded material data D.
  • the user can appropriately move the start point TS or the end point TE of the desired recorded material data D on the time axis by appropriately operating the operation device 28.
  • the end point TE of the selected section immediately before the other recorded material data D moves to select one of the selected recorded material data D.
  • the start point TS of the selected section immediately after the other recorded material data D is moved in conjunction with the movement of the end point TE of the section.
  • the user can arbitrarily change the display order (up and down) of the plurality of unit images 324 corresponding to each recorded material data D by operating the operation device 28.
  • a configuration in which the unit image 324 corresponding to the recording material data D being edited by the user is displayed in a mode (for example, gradation or color) different from the other unit images 324 is also employed.
  • the user can arbitrarily adjust the numerical value of each variable of the acoustic processing specified by the acoustic control data C1 by appropriately operating the operation device 28. Specifically, the sound level (mixing level) of each recorded material data D or the sound effect imparted to the sound is specified. In addition, the user can select a set value (preset) prepared in advance for each variable of the acoustic processing. By appropriately operating the operation device 28, the user can cause the playback device 30 to play back (preview) the sound and the moving image reflecting the adjustment content at that time.
  • the control device 20 of the terminal device 14 When the adjustment of the control data C is completed, the user instructs an editing process to which the adjusted control data C is applied by operating the operation device 28.
  • the control device 20 of the terminal device 14 generates control data C representing the adjustment content at the time of the instruction. Specifically, acoustic control data C1 that specifies the numerical value of each variable after adjustment by the user, and moving image control data C2 that specifies a selection section of each recording material data D after adjustment by the user are generated. .
  • the communication device 24 transmits the control data C generated by the control device 20 to the video processing device 12 (S12).
  • the control data C transmitted from the terminal device 14 is received by the communication device 44 of the video processing device 12 and stored in the storage device 42 (S13).
  • the initial control data C generated by the first processing unit 541 is updated in accordance with an instruction from the user of the terminal device 14, and the updated control data C is updated to the video processing device. 12 storage devices 42. It is also possible to store the initial control data C in the storage device 22 of the terminal device 14 in advance, adjust the control data C, and transmit the control data C from the terminal device 14 to the video processing device 12. That is, the generation of the control data C and the transmission to the terminal device 14 by the first processing unit 541 can be omitted.
  • the second processing unit 542 of the editing processing unit 54 in the video processing apparatus 12 executes editing processing to which the control data C after adjustment by the user is applied to a plurality of recorded material data D after the synchronization processing, so that the content is processed. Is generated (S14).
  • the second processing unit 542 executes an editing process for a plurality of recorded material data D having the same identification information X. Specifically, the second processing unit 542 generates the sound of the content by executing the sound process defined by the sound control data C1 on the sound of the recorded material data D. Further, the second processing unit 542 generates a moving image of the content by connecting the moving image selection sections of the respective recording material data D defined by the moving image control data C2 on the time axis.
  • the content generated by the video processing unit 54 is stored in the storage device 42.
  • the content generated by the editing processing unit 54 (second processing unit 542) is transmitted from the communication device 44 to the terminal device 14 by short-range wireless communication, for example, and is played back by the playback device 30 of the terminal device 14.
  • the content generated by the editing processing unit 54 can be uploaded to, for example, a video posting site and played back using an arbitrary information terminal.
  • a plurality of elements (the control device 40, the storage device 42, and the communication device 44) of the video processing device 12 are accommodated in the portable housing 120 and communicated from the plurality of terminal devices 14.
  • Content is generated by editing the plurality of recorded material data D received by the device 44 by wireless communication. That is, by acquiring and arranging the video processing device 12 at an appropriate position, acquisition of a plurality of recorded material data D and editing processing for the plurality of recorded material data D are realized. Therefore, there is an advantage that one content including sound and moving images recorded at different positions can be easily generated without requiring a large-scale recording system required by the technique of Patent Document 1.
  • the communication device 44 of the video processing device 12 receives the control data C corresponding to the instruction from the user to the terminal device 14, and the content is generated by the editing process to which the control data C is applied. Therefore, there is an advantage that content reflecting the intention of the user of the terminal device 14 can be generated. For example, it is possible to generate content that includes a specific subject (eg, your child or pet) that is of particular interest to individual users.
  • the plurality of recorded material data D are synchronized with each other before the editing process is performed, there is an advantage that it is possible to generate appropriate content by integrating a plurality of recorded material data D that coincide with each other in terms of time.
  • the video processing system 100 of the present embodiment is suitably used in the following scenes, for example.
  • Music Live The video processing device 12 is transported and arranged in a live venue where a plurality of performers appear. Each performer records his performance using the terminal device 14, and each spectator records his live performance from his spectator seat using his terminal device 14.
  • the video processing device 12 receives and edits a plurality of recorded material data D generated by the terminal device 14, thereby generating content that sequentially switches between a video focused on each performer and a video shot from a spectator seat. Is done.
  • the content can be uploaded to, for example, a video posting site and reproduced on any information terminal.
  • the video processing device 12 is transported and arranged at the venue of the demonstration.
  • the manager uses the terminal device 14 to record the overall state of the stage, and each viewer focuses on a specific performer (for example, his / her child in the case of a school party).
  • a specific performer for example, his / her child in the case of a school party.
  • content that sequentially switches between a video that focuses on a specific performer and a video that captures the entire stage.
  • the content is provided to the applicant for a fee or free of charge. For example, it is possible to generate content that contains street speeches by politicians.
  • the content generated by the above procedure can be uploaded to, for example, a video posting site and reproduced on any information terminal.
  • the video processing system 100 can be suitably used for recording, for example, dance (including any dance such as ballroom dance, street dance, Japanese dance, or ballet).
  • dance including any dance such as ballroom dance, street dance, Japanese dance, or ballet.
  • the video processing apparatus 12 receives and edits the recorded material data D of the above, so that it is possible to generate content that focuses on specific parts of the performer's body sequentially. Therefore, the practitioner can effectively learn the dance as compared with the case where only the moving image in which the performer's whole body is photographed is referred to.
  • the video processing device 12 is transported and arranged at a wedding or reception hall.
  • a manager such as a photographer records a wedding or reception using the terminal device 14, and each attendee records a desired scene on his / her terminal device 14.
  • a plurality of recorded material data D generated by the terminal device 14 is received and edited by the video processing device 12 to generate content in which videos recorded at various angles and ranges of weddings or receptions are sequentially switched. For example, it is replayed at any time during a wedding reception or when an attendee leaves.
  • the recording material data D including both the sound and the moving image is exemplified.
  • the recording material data D including only the sound and the moving image is combined with the recording material data D including both the sound and the moving image.
  • the sound of the content is generated by the sound processing for the recorded material data D including only the sound
  • the moving image of the content is generated by the moving image processing for the recorded material data D including only the moving image.
  • a sound collecting device for example, an IC recorder
  • each terminal device 14 The configuration for providing the identification information X to each terminal device 14 is not limited to the example in the above-described form.
  • NFC Near Field Communication
  • a configuration in which the terminal device 14 acquires the identification information X by reading a QR code (registered trademark) printed on a distribution material for a person may be employed.
  • the identification information X is transmitted to the terminal device 14 by wireless communication (for example, short-range wireless communication including short-range wireless communication) in the same manner as in the above-described example. It is also possible to send and receive between the video processing device 12 and the terminal device 14 by means of communication different from the sending and receiving (S4, S9 or S12). Even in the above configuration, the identification information X is provided only to the terminal devices 14 located around the video processing device 12 (and thus participating in a service for creating a desired video by editing a plurality of recorded material data D). It is possible to limit the number of users located around the video processing device 12. In order to exchange the recording material data D and the control data C between the video processing device 12 and the terminal device 14, communication via a communication network such as a mobile communication network or the Internet can be employed.
  • a communication network such as a mobile communication network or the Internet
  • the movement of the selected section (start point TS, end point TE) is exemplified as the work for the user to adjust the moving image.
  • the adjustment of the moving image according to the instruction from the user is limited to the above examples. Not. For example, it is possible to insert sound (for example, music) or a moving image held in the terminal device 14 into the content together with the sound or moving image of the recorded material data D.
  • the communication device 44 is accommodated in the housing 120, but the communication device 44 may be disposed outside the housing 120.
  • the communication device 44 transmits the recording material data D received wirelessly from the terminal device 14 to the control device 40 in the housing 120 by wire or wirelessly. According to the above configuration, since the communication device 44 can be installed at a position separated from the housing 120, the range of the terminal device 14 in which the video processing device 12 can collect the recording material data D is expanded. Is possible.
  • the video processing device 12 exemplified above is realized by the cooperation of the control device 40 and the program as described above.
  • the program may be provided in a form stored in a computer-readable recording medium and installed in the computer.
  • the recording medium is, for example, a non-transitory recording medium, and an optical recording medium (optical disk) such as a CD-ROM is a good example, but a known arbitrary one such as a semiconductor recording medium or a magnetic recording medium This type of recording medium can be included.
  • “non-transitory recording medium” includes all computer-readable recording media except for transient propagation signals (transitory, “propagating” signal), and does not exclude volatile recording media.
  • the program exemplified above can be provided in the form of distribution via a communication network and installed in a computer.
  • the present invention is also specified as an operation method (video processing method) of the video processing device 12 according to the above-described embodiment.
  • the recorded material data is wirelessly communicated from a plurality of terminal devices 14 capable of generating recorded material data D including sound and moving images.
  • a video processing device 12 including a wireless communication unit (communication device 44) that receives D and an editing processing unit 54 that generates content through editing processing on a plurality of recorded material data D received by the wireless communication unit is grasped. . It is also possible to grasp the following specific aspects.
  • the video processing apparatus 12 includes a portable housing 120 that houses the wireless communication unit and the editing processing unit 54.
  • the video processing device 12 can be acquired and acquired at a desired position by acquiring and recording a plurality of recorded material data D. Editing processing for a plurality of recorded material data D is realized. Therefore, the effect that it is possible to easily generate content including sound and moving images recorded at different positions is particularly remarkable.
  • the wireless communication unit uses a plurality of terminal devices to record common identification information X added to the recorded material data D by the terminal device 14 before recording the recorded material data D. 14 is transmitted by wireless communication, and the editing processing unit 54 executes editing processing for the recorded material data D to which the identification information X is added.
  • the common identification information X is transmitted to the plurality of terminal devices 14, and the editing processing is performed on the recording material data D to which the identification information X is added. Executed. Therefore, for example, it is possible to reduce the possibility that irrelevant sounds and moving images recorded in the past by the terminal device 14 are subject to editing processing.
  • the wireless communication unit receives control data C corresponding to an instruction from a user for any of the plurality of terminal devices 14 from the terminal device 14.
  • the editing processing unit 54 executes editing processing to which the control data C is applied.
  • the wireless communication unit transmits a plurality of recorded material data D received from a plurality of terminal devices 14 to any of the plurality of terminal devices 14, and the plurality of recorded material data.
  • Control data C applied to the editing process for D is received from the terminal device 14.
  • the plurality of recorded material data D received from the plurality of terminal devices 14 is transmitted to any of the plurality of terminal devices 14, the sound and moving images of the plurality of recorded material data D are confirmed in the terminal device 14
  • the video processing apparatus 12 can acquire appropriate control data C according to the instruction from the user. Although a plurality of recorded material data D is transmitted from the video processing device 12 to the terminal device 14, it is not necessary to return the plurality of recorded material data D from the terminal device 14 to the video processing device 12.
  • control data C includes a plurality of unit data U designating a selection section in any of the plurality of recorded material data D
  • the editing processing unit 54 includes a plurality of unit data U.
  • the content is generated by connecting the selected sections specified by the unit data U among the moving images of the recording material data D indicated by the identification information X included in each of the unit data U with respect to the plurality of unit data U.
  • each recorded material data D It is possible to generate suitable content in which selected sections are connected to each other on the time axis.
  • the video processing device 12 includes a synchronization processing unit that synchronizes a plurality of recorded material data D using the sound of the recorded material data D, and performs editing processing.
  • the unit 54 generates content by editing the plurality of recorded material data D after processing by the synchronization processing unit.
  • a preferred aspect (aspect 8) of the present invention is an operation method (video processing method) of the video processing apparatus 12 according to each embodiment exemplified above. Specifically, the video processing method according to the aspect 8 receives the recording material data D by wireless communication from the plurality of terminal devices 14 capable of generating the recording material data D including sound and moving images, and receives the plurality of received recording materials. Content is generated by editing the data D.
  • a preferred aspect (aspect 9) of the present invention is a computer-readable recording medium that records a program for causing a computer to function as the video processing apparatus 12 according to each of the embodiments exemplified above.
  • the recording medium according to aspect 9 includes a wireless communication unit that receives recorded material data D by wireless communication from a plurality of terminal devices 14 capable of generating recorded material data D including sound and moving images, and A program that functions as an editing processing unit 54 that generates content in editing processing on a plurality of recorded material data D received by the wireless communication unit is stored.
  • DESCRIPTION OF SYMBOLS 100 ... Video processing system, 12 ... Video processing apparatus, 120 ... Case, 122 ... Holding part, 14 ... Terminal device, 20 ... Control device, 22 ... Storage device, 24 ... Communication device ( Wireless communication unit), 26 ... recording device, 28 ... control device, 30 ... reproducing device, 32 ... display device, 34 ... sound emitting device, 40 ... control device, 42 ... storage device, 44 ... ... Communication device, 46 ... Operating device, 52 ... Synchronization processing unit, 54 ... Editing processing unit, 541 ... First processing unit, 542 ... Second processing unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

相異なる位置で収録された複数の素材を利用したコンテンツを簡便に生成する。映像処理装置は、音響および動画を含む収録素材データを生成可能な複数の端末装置の各々から無線通信により収録素材データを受信する通信装置と、通信装置が受信した複数の収録素材データに対する編集処理でコンテンツを生成する編集処理部とを具備する。

Description

映像処理装置、映像処理方法および記録媒体
 本発明は、音響および動画を処理する技術に関する。
 音響と動画とを含む素材を収録および編集する各種の技術が従来から提案されている。例えば特許文献1には、相異なる位置で収録された映像を適宜に切替えて再生可能なマルチアングルビデオを生成する技術が開示されている。
特開2002-135706号公報
 しかし、特許文献1の技術では、複数のカメラおよび複数のマイクをケーブルで映像記録装置に接続した大規模な収録システムが必要であり、運搬または配置等の取扱いが煩雑であるという問題がある。以上の事情を考慮して、本発明は、複数の収録素材を利用したコンテンツを簡便に生成することを目的とする。
 以上の課題を解決するために、本発明の映像処理装置は、音響および動画を含む収録素材データを生成可能な複数の端末装置の各々から無線通信により収録素材データを受信する無線通信部と、無線通信部が受信した複数の収録素材データに対する編集処理でコンテンツを生成する編集処理部とを具備する。以上の態様では、無線通信部が複数の端末装置から無線通信で受信した複数の収録素材データに対する編集処理でコンテンツが生成される。したがって、複数のカメラおよび複数のマイクが映像記録装置にケーブルで接続された大規模な収録システムを必要とせずに、複数の収録素材を含むコンテンツを簡便に生成できるという利点がある。なお、複数の収録素材データに対する編集処理で生成される1個のコンテンツは、例えば複数の収録素材データのうち1個以上の収録素材データの一部または全部を含む。
本発明の実施形態に係る映像処理システムの構成図である。 端末装置の構成図である。 複数の収録素材データの説明図である。 映像処理装置の構成図である。 複数の収録素材データを相互に同期させる処理の説明図である。 制御データの模式図である。 映像処理システムの動作の説明図である。 調整画面の模式図である。
 図1は、本発明の好適な態様に係る映像処理システム100の構成図である。映像処理システム100は、例えば演奏会または講演会等の種々のイベントの収録に利用されるコンピュータシステムであり、図1に例示される通り、映像処理装置12と複数の端末装置14とを具備する。複数の端末装置14の各々は、例えば携帯電話機、スマートフォン、タブレット端末、またはパーソナルコンピュータ等の可搬型の通信端末である。概略的には、複数の端末装置14の各々が収録した音響および動画のデータ(以下「収録素材データ」という)を映像処理装置12が収集および編集することで1個のコンテンツが生成される。
 図2は、任意の1個の端末装置14の構成を例示する構成図である。図2に例示される通り、端末装置14は、制御装置20と記憶装置22と通信装置24と収録装置26と操作装置28と再生装置30とを具備する。制御装置20は、端末装置14の各要素を統括的に制御する演算処理装置(例えばCPU)である。記憶装置22は、磁気記録媒体または半導体記録媒体等の公知の記録媒体で構成され、制御装置20が実行するプログラムと制御装置20が使用する各種のデータとを記憶する。
 再生装置30は、編集後のコンテンツを再生する出力機器である。具体的には、再生装置30は、制御装置20からの指示に応じてコンテンツの動画を表示する表示装置32と、制御装置20からの指示に応じてコンテンツの音響を放音する放音装置34とを包含する。操作装置28は、端末装置14の利用者からの指示を受付ける入力機器である。利用者が操作可能な複数の操作子、または、表示装置32の表示面に対する接触を検知するタッチパネルが操作装置28として利用される。
 収録装置26は、収録素材データDを生成する映像機器である。本実施形態の収録装置26は、音響を収音する収音装置と動画を撮像する撮像装置とを具備し、収音装置が収音した音響と撮像装置が撮像した動画とを表す収録素材データDを生成する。なお、収録素材データDのファイルの形式は任意である。各端末装置14の利用者は、当該端末装置14の収録装置26を利用して、例えば相異なる位置で共通の収録対象(例えば演奏会等のイベント)の音響および動画を並列に収録する。すなわち、各端末装置14の収録装置26は、音響ホール等の共通の音響空間の相異なる地点に配置され、各々が別個の角度から例えば舞台または観客の様子を収録して収録素材データDを生成する。
 図3には、各端末装置14の収録装置26が生成する収録素材データD(D1,D2,D3)が例示されている。図3に例示される通り、任意の1個の収録素材データDは、相互に並列に収録された音響および動画を包含する。音響および動画の収録の開始点は複数の収録素材データDの間で相違し得る。また、複数の収録素材データDは、相互に共通の音響(ただし音量等の音響特性は相違し得る)を含有する。
 図2の通信装置24は、映像処理装置12と通信する通信機器である。本実施形態の通信装置24は、例えばWi-Fi(登録商標)またはBluetooth(登録商標)等の公知の近距離無線通信により映像処理装置12と通信する。具体的には、各端末装置14の通信装置24は、当該端末装置の収録装置26が生成した収録素材データDを近距離無線通信により映像処理装置12に送信する。なお、端末装置14と映像処理装置12との間の通信方式は任意である。
 図4は、映像処理装置12の構成を例示する構成図である。本実施形態の映像処理装置12は、複数の端末装置14が生成した複数の収録素材データDを処理するコンピュータシステムであり、図4に例示される通り、制御装置40と記憶装置42と通信装置44と操作装置46とを具備する。制御装置40と記憶装置42と通信装置44とは図1の可搬型の筐体120に収容され、操作装置46は筐体120に設置される(図1では図示略)。本実施形態の映像処理装置12は、例えば管理者(例えば収録対象のイベントの運営者)が人力で運搬可能な一体の可搬型装置である。具体的には、図1に例示される通り、管理者が把持可能な把持部122(取っ手)が筐体120の頂面に設置され、管理者は把持部122を把持した状態で映像処理装置12を任意の位置に運搬および配置することが可能である。具体的には、演奏会または講演会等の種々のイベントが開催される場所に映像処理装置12が運搬および配置される。
 図4の操作装置46は、映像処理装置12に対する指示を映像処理装置12の管理者から受付ける入力機器である。なお、管理者が端末装置14を利用して映像処理装置12に各種の指示を遠隔で付与することも可能である。したがって、映像処理装置12から操作装置46は省略され得る。通信装置(無線通信部の例示)44は、複数の端末装置14の各々と通信する。具体的には、通信装置44は、複数の端末装置14から近距離無線通信により収録素材データDを受信する。以上の説明から理解される通り、本実施形態では、映像処理装置12と各端末装置14との間の無線通信の方式として、移動体通信網またはインターネット等の通信網が装置間に介在しない近距離無線通信を例示する。
 記憶装置42は、例えば磁気記録媒体または半導体記録媒体等の公知の記録媒体で構成され、制御装置40が実行するプログラムと制御装置40が使用する各種のデータとを記憶する。なお、映像処理装置12が通信可能なサーバに記憶装置42(すなわちクラウドストレージ)を設置することも可能である。すなわち、映像処理装置12から記憶装置42は省略され得る。記憶装置42は、通信装置44が複数の端末装置14から受信した複数の収録素材データDを記憶する。
 制御装置40は、映像処理装置12の各要素を統括的に制御する演算処理装置(例えばCPU)である。本実施形態の制御装置40は、記憶装置42に記憶されたプログラムを実行することで、通信装置44が端末装置14から受信した複数の収録素材データDを処理するための複数の機能(同期処理部52および編集処理部54)を実現する。前述の説明から理解される通り、同期処理部52および編集処理部54は筐体120に収容される。なお、制御装置40の一部の機能を音響処理または画像処理の専用の電子回路で実現した構成、または、制御装置40の機能を複数の装置に分散した構成も採用され得る。
 図4の同期処理部52は、複数の端末装置14から受信した複数の収録素材データDを相互に同期させる。複数の収録素材データDの同期とは、各収録素材データDの音響および動画の時間軸が複数の収録素材データDにわたり相互に合致する状態を意味する。すなわち、同期処理部52は、図5に例示される通り、各収録素材データDにおける特定の時刻(例えば特定の音響が発音された時点)が複数の収録素材データDにわたり時間軸上の共通の時点となるように各収録素材データDの時間軸上の位置を調整する。複数の収録素材データDの同期には公知の技術が任意に採用され得るが、例えば図5の例示からも理解される通り、各収録素材データDの音響を解析することで複数の収録素材データDを相互に同期させる構成が好適である。すなわち、各収録素材データDの音響の時間変動(すなわち音圧波形)が複数の収録素材データDにわたり時間軸上で整合するように各収録素材データDの時間軸上の位置が調整される。
 図4の編集処理部54は、同期処理部52による同期処理後の複数の収録素材データDに対する処理(以下「編集処理」という)でコンテンツを生成する。編集処理は、収録素材データDの音響を調整する音響処理と、収録素材データDの動画を編集する動画処理とを包含する。音響処理は、複数の収録素材データDの音響に対するミキシングまたはマスタリング等の処理を包含する。動画処理は、複数の収録素材データDの各々の動画の一部(以下「選択区間」という)を時間軸上で相互に連結する処理である。編集処理部54が生成するコンテンツは、以上に例示した音響処理後の音響と動画処理後の動画(すなわち、複数の収録素材データDの何れかに順次に切替わる動画)とを包含する。なお、複数の収録素材データDの何れかの音響を音響処理により調整してコンテンツに利用することも可能である。
 図4に例示される通り、本実施形態の編集処理部54は、第1処理部541と第2処理部542とを包含する。第1処理部541は、複数の収録素材データDの編集処理に適用される制御データCを生成する。図6は、制御データCの模式図である。図6に例示される通り、制御データCは、音響制御データC1と動画制御データC2とを包含する。音響制御データC1は、前述の音響処理(ミキシングまたはマスタリング)に適用される各変数の数値を指定する。第1処理部541は、例えば、音響処理の各変数が初期値に設定された初期的な音響制御データC1を生成する。
 他方、動画制御データC2は、前述の動画処理に適用される各変数の数値を指定する。具体的には、動画制御データC2は、複数の収録素材データDの各々について選択区間(すなわちコンテンツを構成する部分)を指定する。例えば、動画制御データC2は、図6に例示される通り、相異なる選択区間に対応する複数の単位データUの時系列で構成される。任意の1個の選択区間に対応する単位データUは、当該選択区間を含む1個の収録素材データDの識別情報と、当該選択区間の始点および終点とを指定する。第1処理部541は、同期処理後の複数の収録素材データDの間で選択区間が相互に重複しないように各収録素材データDからランダムに抽出された選択区間を指定する初期的な動画制御データC2を生成する。なお、収録素材データDにおいて収録シーンが他のシーンに切替わる切替点を複数の収録素材データDの各々の動画の解析により推定し、各切替点を境界として画定された選択区間を指定する初期的な動画制御データC2を第1処理部541が生成することも可能である。
 第1処理部541が生成した初期的な制御データC(音響制御データC1および動画制御データC2)は、端末装置14に対する利用者からの指示に応じて更新される。図4の第2処理部542は、更新後の制御データCを適用した複数の収録素材データDに対する編集処理でコンテンツ(例えば動画ファイル)を生成する。編集処理部54(第2処理部542)が生成したコンテンツが例えば通信装置44から端末装置14に近距離無線通信により送信されて当該端末装置14の再生装置30で再生される。
 図7は、映像処理システム100の動作の説明図である。各端末装置14の記憶装置22に記憶されたプログラム(アプリケーションプログラム)が利用者からの指示に応じて起動された状態で、映像処理装置12の操作装置46に対する管理者からの所定の操作(動作開始の指示)を契機として図7の処理が開始される。
 まず、映像処理装置12の通信装置44は、当該映像処理装置12の周囲に位置する複数の端末装置14に対して近距離無線通信で識別情報Xを送信する(S1)。識別情報Xは、今回の映像処理装置12の一連の動作を識別するための符号である。以上の説明から理解される通り、各端末装置14の収録装置26による収録動作の実行前に、映像処理装置12の周囲の複数の端末装置14に対して共通の識別情報Xが送信される。識別情報Xは、各端末装置14の通信装置24により受信されたうえで記憶装置22に格納される(S2)。
 各端末装置14の収録装置26は、操作装置28に対する利用者からの操作を契機として音響および動画の収録動作を実行して収録素材データDを生成する(S3)。例えば、収録対象のイベントの開始を契機として複数の端末装置14により並列に収録が開始される。収録装置26が生成した収録素材データDは、映像処理装置12から受信した識別情報Xが付加された状態で記憶装置22に格納される。すなわち、複数の端末装置14により収録される複数の収録素材データDに共通の識別情報Xが付加される。
 収録装置26による収録動作が終了すると、各端末装置14の通信装置24は、記憶装置22に記憶された収録素材データDを識別情報Xとともに近距離無線通信で映像処理装置12に送信する(S4)。例えば、操作装置28に対する利用者からの操作(収録動作の終了の指示)を契機として、収録素材データDと識別情報Xとが通信装置24から映像処理装置12に送信される。ただし、収録動作の終了および収録素材データDの送信の契機は、利用者からの指示に限定されない。例えば、識別情報Xの受信から所定の有効期間が経過した時点または所定の時刻(例えばイベントの終了時刻)が到来した時点で、各端末装置14が収録動作を終了して収録素材データDを映像処理装置12に送信することも可能である。また、映像処理装置12から送信された終了指示の受信を契機として収録素材データDの送信を開始することも可能である。複数の端末装置14から並列または順次に(すなわち時間軸上の相異なる時点で)送信された複数の収録素材データDおよび識別情報Xは、映像処理装置12の通信装置44により受信されたうえで記憶装置42に格納される(S5)。なお、通信装置44が受信した複数の収録素材データDのうち音響または動画の内容が顕著に相違する収録素材データD(例えば今回の収録対象のイベントとは無関係に収録された収録素材データD)を除外することも可能である。
 映像処理装置12の同期処理部52は、端末装置14から受信した複数の収録素材データDが表す音響を相互に照合することで複数の収録素材データDを相互に同期させる(S6)。また、編集処理部54の第1処理部541は、同期処理部52による同期処理後の各収録素材データDについて初期的な制御データC(音響制御データC1,動画制御データC2)を生成する(S7)。
 他方、制御データCの調整(コンテンツの編集)を所望する利用者(管理者を含む)は、端末装置14の操作装置28に対する操作で調整開始を指示する。調整開始が指示されると、端末装置14の通信装置24は、調整要求を映像処理装置12に送信する(S8)。調整要求には識別情報Xが含まれる。端末装置14から調整要求を受信すると、映像処理装置12の通信装置44は、調整要求内の識別情報Xが付加された記憶装置42内の複数の収録素材データDと、第1処理部541が生成した初期的な制御データCとを要求元の端末装置14に送信する(S9)。映像処理装置12から送信された複数の収録素材データDと制御データCとは、端末装置14の通信装置24により受信されて記憶装置22に格納される(S10)。なお、複数の収録素材データDに対してデータ量の削減のための処理を実行したうえで端末装置14に送信することも可能である。なお、第1実施形態では同期処理後の複数の収録素材データDを映像処理装置12から端末装置14に送信するが、複数の収録素材データDを受信した端末装置12において同期処理を実行することも可能である。
 端末装置14の制御装置20は、操作装置28に対する利用者からの指示に応じて制御データCを調整する(S11)。図8は、利用者による制御データCの調整のために端末装置14の表示装置32に表示される画面(以下「調整画面」という)322の模式図である。調整画面322の表示には、例えば汎用のウェブブラウザが利用される。
 図8に例示される通り、調整画面322は、相異なる収録素材データDの動画を表象する複数の単位画像324を包含する。具体的には、収録素材データDの動画に包含される複数の画像(キャプチャ画像)の時系列が、当該収録素材データDの単位画像324として表示される。任意の1個の収録素材データDの単位画像324には、選択区間の始点TSと終点TEとが表示される。選択期間の始点TSおよび終点TEは、制御データCの動画制御データC2により収録素材データDについて指定される。利用者は、調整画面322を視認することで、各収録素材データDの動画の概略と当該収録素材データDのうちコンテンツに使用される選択区間とを確認することが可能である。
 利用者は、操作装置28を適宜に操作することで、所望の収録素材データDの始点TSまたは終点TEを時間軸上で適宜に移動させることが可能である。任意の収録素材データDの1個の選択区間の始点TSの移動に連動して他の収録素材データDの直前の選択区間の終点TEが移動し、任意の収録素材データDの1個の選択区間の終点TEの移動に連動して他の収録素材データDの直後の選択区間の始点TSが移動する。また、利用者は、各収録素材データDに対応する複数の単位画像324の表示の順序(上下)を、操作装置28に対する操作で任意に変更することが可能である。なお、利用者による編集中の収録素材データDに対応する単位画像324を他の単位画像324とは別個の態様(例えば階調または色彩)で表示する構成も採用される。
 また、利用者は、操作装置28を適宜に操作することで、音響制御データC1が指定する音響処理の各変数の数値を任意に調整することが可能である。具体的には、各収録素材データDの音響のレベル(ミキシングレベル)または当該音響に付与される音響効果等が指定される。また、音響処理の各変数について事前に用意された設定値(プリセット)を利用者が選択することも可能である。利用者は、操作装置28を適宜に操作することで、当該時点での調整内容を反映した音響および動画を再生装置30に再生(プレビュー)させることが可能である。
 制御データCの調整が完了すると、利用者は、調整後の制御データCを適用した編集処理を操作装置28に対する操作で指示する。端末装置14の制御装置20は、当該指示の時点での調整内容を表す制御データCを生成する。具体的には、利用者による調整後の各変数の数値を指定する音響制御データC1と、利用者による調整後の各収録素材データDの選択区間を指定する動画制御データC2とが生成される。通信装置24は、制御装置20が生成した制御データCを映像処理装置12に送信する(S12)。端末装置14から送信された制御データCは、映像処理装置12の通信装置44により受信されて記憶装置42に格納される(S13)。以上の説明から理解される通り、第1処理部541が生成した初期的な制御データCが端末装置14の利用者からの指示に応じて更新され、当該更新後の制御データCが映像処理装置12の記憶装置42に格納される。なお、初期的な制御データCを端末装置14の記憶装置22に事前に記憶し、当該制御データCを調整して端末装置14から映像処理装置12に送信することも可能である。すなわち、第1処理部541による制御データCの生成および端末装置14への送信は省略され得る。
 映像処理装置12における編集処理部54の第2処理部542は、利用者による調整後の制御データCを適用した編集処理を同期処理後の複数の収録素材データDに対して実行することでコンテンツを生成する(S14)。第2処理部542は、識別情報Xが共通する複数の収録素材データDについて編集処理を実行する。具体的には、第2処理部542は、音響制御データC1で規定される音響処理を収録素材データDの音響に対して実行することでコンテンツの音響を生成する。また、第2処理部542は、動画制御データC2で規定される各収録素材データDの動画の選択区間を時間軸上で相互に連結することでコンテンツの動画を生成する。映像処理部54が生成したコンテンツは記憶装置42に記憶される。
 編集処理部54(第2処理部542)が生成したコンテンツは、例えば通信装置44から近距離無線通信で端末装置14に送信されて当該端末装置14の再生装置30で再生される。また、編集処理部54が生成したコンテンツを例えば動画投稿サイトにアップロードし、任意の情報端末を利用して再生することも可能である。
 以上に説明した通り、本実施形態では、映像処理装置12の複数の要素(制御装置40,記憶装置42および通信装置44)が可搬型の筐体120に収容され、複数の端末装置14から通信装置44が無線通信で受信した複数の収録素材データDに対する編集処理でコンテンツが生成される。すなわち、映像処理装置12を適切な位置に運搬および配置することで、複数の収録素材データDの取得と複数の収録素材データDに対する編集処理とが実現される。したがって、特許文献1の技術で必要となる大規模な収録システムを必要とせずに、相異なる位置で収録された音響および動画を含む1個のコンテンツを簡便に生成できるという利点がある。
 各端末装置14による収録素材データDの収録前に複数の端末装置14に共通の識別情報Xが送信され、当該識別情報Xが付加された収録素材データDを対象として編集処理が実行される。すなわち、識別情報Xが相違する収録素材データDまたは識別情報Xが付加されていない収録素材データDは編集処理の対象から除外される。したがって、例えば端末装置14で過去に収録された無関係な音響または動画が編集処理の対象とされてコンテンツに含められる可能性を低減できるという利点がある。
 端末装置14に対する利用者からの指示に応じた制御データCを映像処理装置12の通信装置44が受信し、当該制御データCを適用した編集処理でコンテンツが生成される。したがって、端末装置14の利用者の意図を反映したコンテンツを生成できるという利点がある。例えば、個々の利用者が特に注目する特定の被写体(例えば自分の子供またはペット)を含むコンテンツを生成することが可能である。また、編集処理の実行前に複数の収録素材データDを相互に同期させるから、時間的に相互に一致した複数の収録素材データDを統合した適切なコンテンツを生成できるという利点がある。
 本実施形態の映像処理システム100は、例えば以下の場面で好適に利用される。
(1)音楽ライブ
 複数の演奏者が出演するライブの会場に映像処理装置12が運搬および配置される。各演奏者は端末装置14を利用して自身の演奏の様子を収録し、各観客は自身の端末装置14を利用して自分の観客席からライブの様子を収録する。端末装置14が生成した複数の収録素材データDを映像処理装置12にて受信および編集することで、各演奏者に注目した動画と観客席から撮影された動画とが順次に切替わるコンテンツが生成される。当該コンテンツは、例えば動画投稿サイトにアップロードされて任意の情報端末で再生することが可能である。
(2)実演会(例えば学芸会または演奏会)および講演会
 映像処理装置12が実演会の会場に運搬および配置される。管理者は端末装置14を利用して舞台の全体的な様子を収録し、各観覧者は特定の出演者(例えば学芸会ならば自分の子供)を重点的に収録する。端末装置14が生成した複数の収録素材データDを映像処理装置12にて受信および編集することで、特定の出演者に注目した動画と舞台の全体を撮影した動画とが順次に切替わるコンテンツが生成される。当該コンテンツは有料または無料で希望者に提供される。例えば政治家による街頭演説を収録したコンテンツを生成することも可能である。以上の手順で生成されたコンテンツは、例えば動画投稿サイトにアップロードされて任意の情報端末で再生され得る。
 また、例えばダンス(社交ダンス,ストリートダンス,日本舞踊,またはバレエ等の任意の舞踊を含む)の収録にも映像処理システム100が好適に利用され得る。例えば、模範的な実演者が舞踊する舞台の全体的な様子と実演者の身体の特定の部位(例えば手足等)の動作とを複数の端末装置14で多面的に収録し、収録後の複数の収録素材データDを映像処理装置12にて受信および編集することで、実演者の身体の特定の部位に順次に着目したコンテンツを生成することが可能である。したがって、実演者の全身を撮影した動画のみを参照する場合と比較して練習者がダンスを効果的に習得できる。
(3)結婚式(冠婚葬祭の一例)
 映像処理装置12が結婚式または披露宴の会場に運搬および配置される。撮影業者等の管理者は端末装置14を利用して結婚式または披露宴の様子を収録し、各出席者は所望の場面を自身の端末装置14で収録する。端末装置14が生成した複数の収録素材データDを映像処理装置12にて受信および編集することで、結婚式または披露宴の様子を多様な角度および範囲で収録した動画が順次に切替わるコンテンツが生成され、例えば披露宴の歓談時または出席者の退席時に随時に再生される。
<変形例>
 以上に例示した形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
(1)前述の形態では、音響および動画の双方を含む収録素材データDを例示したが、音響および動画の一方のみを含む収録素材データDを、音響および動画の双方を含む収録素材データDとともに利用してコンテンツを生成することも可能である。音響のみを含む収録素材データDに対する音響処理でコンテンツの音響が生成され、動画のみを含む収録素材データDに対する動画処理でコンテンツの動画が生成される。映像処理装置12に接続または装着された収音装置(例えばICレコーダ)を利用して、音響のみを含む収録素材データDを生成することも可能である。
(2)識別情報Xを各端末装置14に提供するための構成は、前述の形態での例示に限定されない。例えば、映像処理装置12に近接(タッチ)した端末装置14と通信する短距離無線通信(NFC:Near Field Communication)を利用して端末装置14に識別情報Xを送信する構成、または、例えば各利用者に対する頒布物に印刷されたQRコード(登録商標)の読取により端末装置14が識別情報Xを取得する構成も採用され得る。
 なお、識別情報Xを前述の例示と同様に無線通信(例えば短距離無線通信を含む近距離無線通信)で端末装置14に送信する一方、収録素材データDまたは制御データCについては、識別情報Xの授受とは別方式の通信により映像処理装置12と端末装置14との間で授受する(S4,S9またはS12)ことも可能である。以上の構成でも、映像処理装置12の周囲に位置する端末装置14に限定して識別情報Xを提供する(ひいては複数の収録素材データDの編集で所望の映像を作成するサービスに参加することを、映像処理装置12の周囲に位置する利用者に制限する)ことが可能である。なお、映像処理装置12と端末装置14との間における収録素材データDおよび制御データCの授受には、移動体通信網またはインターネット等の通信網を介した通信が採用され得る。
(3)前述の形態では、利用者が動画を調整する作業として選択区間(始点TS,終点TE)の移動を例示したが、利用者からの指示に応じた動画の調整は以上の例示に限定されない。例えば、端末装置14に保持された音響(例えば音楽)または動画を、収録素材データDの音響または動画とともにコンテンツに挿入することも可能である。
(4)前述の形態では、通信装置44を筐体120に収容したが、通信装置44を筐体120の外部に配置することも可能である。通信装置44は、端末装置14から無線で受信した収録素材データDを、有線または無線により筐体120内の制御装置40に送信する。以上の構成によれば、筐体120から離間した位置に通信装置44を設置することが可能であるから、映像処理装置12が収録素材データDを収集可能な端末装置14の範囲を拡大することが可能である。
(5)以上に例示した映像処理装置12は、前述の通り制御装置40とプログラムとの協働で実現される。プログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。なお、「非一過性の記録媒体」とは、一過性の伝搬信号(transitory, propagating signal)を除く全てのコンピュータ読み取り可能な記録媒体を含み、揮発性の記録媒体を除外するものではない。また、以上に例示したプログラムは、通信網を介した配信の形態で提供されてコンピュータにインストールされ得る。また、前述の形態に係る映像処理装置12の動作方法(映像処理方法)としても本発明は特定される。
(6)以上に例示した具体的な形態から、本発明の好適な形態(態様1)として、音響および動画を含む収録素材データDを生成可能な複数の端末装置14から無線通信により収録素材データDを受信する無線通信部(通信装置44)と、無線通信部が受信した複数の収録素材データDに対する編集処理でコンテンツを生成する編集処理部54とを具備する映像処理装置12が把握される。また、以下の具体的な態様を把握することも可能である。
<態様2>
 態様2に係る映像処理装置12は、無線通信部および編集処理部54を収容する可搬型の筐体120を具備する。態様2では、無線通信部および編集処理部54が可搬型の筐体120に収容されるから、映像処理装置12を所望の位置に運搬および配置することで、複数の収録素材データDの取得と複数の収録素材データDに対する編集処理とが実現される。したがって、相異なる位置で収録された音響および動画を含むコンテンツを簡便に生成できるという効果は格別に顕著である。
<態様3>
 態様1または態様2の好適例(態様3)において、無線通信部は、端末装置14にて収録素材データDに付加される共通の識別情報Xを収録素材データDの収録前に複数の端末装置14に無線通信で送信し、編集処理部54は、識別情報Xが付加された収録素材データDを対象として編集処理を実行する。態様3では、各端末装置14による収録素材データDの収録前に複数の端末装置14に共通の識別情報Xが送信され、当該識別情報Xが付加された収録素材データDを対象として編集処理が実行される。したがって、例えば端末装置14で過去に収録された無関係な音響および動画が編集処理の対象とされる可能性を低減できる。
<態様4>
 態様1から態様3の何れかの好適例(態様4)において、無線通信部は、複数の端末装置14の何れかに対する利用者からの指示に応じた制御データCを当該端末装置14から受信し、編集処理部54は、制御データCを適用した編集処理を実行する。以上の態様では、端末装置14に対する利用者からの指示に応じた制御データCが編集処理に適用されるから、端末装置14の利用者の意図を反映したコンテンツを生成できるという利点がある。
<態様5>
 態様4の好適例(態様5)において、無線通信部は、複数の端末装置14から受信した複数の収録素材データDを当該複数の端末装置14の何れかに送信し、当該複数の収録素材データDに対する編集処理に適用される制御データCを当該端末装置14から受信する。態様5では、複数の端末装置14から受信した複数の収録素材データDが複数の端末装置14の何れかに送信されるから、当該端末装置14において複数の収録素材データDの音響および動画を確認した利用者からの指示に応じた適切な制御データCを映像処理装置12が取得できるという利点がある。なお、映像処理装置12から端末装置14には複数の収録素材データDが送信されるが、端末装置14から映像処理装置12には複数の収録素材データDを返送する必要はない。
<態様6>
 態様4または態様5の好適例(態様6)において、制御データCは、複数の収録素材データDの何れかにおける選択区間を指定する複数の単位データUを含み、編集処理部54は、複数の単位データUの各々に含まれる識別情報Xが示す収録素材データDの動画のうち当該単位データUが指定する選択区間を、複数の単位データUについて相互に連結することでコンテンツを生成する。態様6では、複数の収録素材データDの何れかの識別情報Xと当該収録素材データDの選択区間の指定とを含む複数の単位データUが制御データCに含まれるから、各収録素材データDの選択区間を時間軸上で相互に連結した好適なコンテンツを生成できる。
<態様7>
 態様1から態様6の好適例(態様7)に係る映像処理装置12は、収録素材データDの音響を利用して複数の収録素材データDを相互に同期させる同期処理部を具備し、編集処理部54は、同期処理部による処理後の複数の収録素材データDに対する編集処理でコンテンツを生成する。以上の態様では、編集処理の実行前に複数の収録素材データDを相互に同期させるから、時間的に相互に一致した複数の収録素材データDを統合した適切なコンテンツを生成できるという利点がある。
<態様8>
 本発明の好適な態様(態様8)は、以上に例示した各形態に係る映像処理装置12の動作方法(映像処理方法)である。具体的には、態様8に係る映像処理方法は、音響および動画を含む収録素材データDを生成可能な複数の端末装置14から無線通信により収録素材データDを受信し、受信した複数の収録素材データDに対する編集処理でコンテンツを生成する。
<態様9>
 本発明の好適な態様(態様9)は、以上に例示した各形態に係る映像処理装置12としてコンピュータを機能させるためのプログラムを記録したコンピュータ読取可能な記録媒体である。具体的には、態様9に係る記録媒体は、コンピュータを、音響および動画を含む収録素材データDを生成可能な複数の端末装置14から無線通信により収録素材データDを受信する無線通信部、および、無線通信部が受信した複数の収録素材データDに対する編集処理でコンテンツを生成する編集処理部54として機能させるプログラムを記憶する。
100……映像処理システム、12……映像処理装置、120……筐体、122……把持部、14……端末装置、20……制御装置、22……記憶装置、24……通信装置(無線通信部)、26……収録装置、28……操作装置、30……再生装置、32……表示装置、34……放音装置、40……制御装置、42……記憶装置、44……通信装置、46……操作装置、52……同期処理部、54……編集処理部、541……第1処理部、542……第2処理部。
 

Claims (9)

  1.  音響および動画を含む収録素材データを生成可能な複数の端末装置の各々から無線通信により前記収録素材データを受信する無線通信部と、
     前記無線通信部が受信した複数の収録素材データに対する編集処理でコンテンツを生成する編集処理部と
     を具備する映像処理装置。
  2.  前記無線通信部および前記編集処理部を収容する可搬型の筐体
     を具備する請求項1の映像処理装置。
  3.  前記無線通信部は、前記端末装置にて前記収録素材データに付加される共通の識別情報を前記収録素材データの収録前に前記複数の端末装置に無線通信で送信し、
     前記編集処理部は、前記識別情報が付加された収録素材データを対象として前記編集処理を実行する
     請求項1または請求項2の映像処理装置。
  4.  前記無線通信部は、前記複数の端末装置の何れかに対する利用者からの指示に応じた制御データを当該端末装置から受信し、
     前記編集処理部は、前記制御データを適用した前記編集処理を実行する
     請求項1から請求項3の何れかの映像処理装置。
  5.  前記無線通信部は、前記複数の端末装置から受信した前記複数の収録素材データを端末装置に送信し、当該複数の収録素材データに対する編集処理に適用される制御データを当該端末装置から受信する
     請求項4の映像処理装置。
  6.  前記制御データは、前記複数の収録素材データの何れかにおける選択区間を指定する複数の単位データを含み、
     前記編集処理部は、前記複数の単位データの各々に含まれる識別情報が示す収録素材データの動画のうち当該単位データが指定する選択区間を、前記複数の単位データについて相互に連結することで前記コンテンツを生成する
     請求項4または請求項5の映像処理装置。
  7.  前記収録素材データの音響を利用して前記複数の収録素材データを相互に同期させる同期処理部を具備し、
     前記編集処理部は、前記同期処理部による処理後の複数の収録素材データに対する編集処理でコンテンツを生成する
     請求項1から請求項6の何れかの映像処理装置。
  8.  音響および動画を含む収録素材データを生成可能な複数の端末装置から無線通信により前記収録素材データを受信し、
     前記受信した複数の収録素材データに対する編集処理でコンテンツを生成する
     映像処理方法。
  9.  コンピュータを、
     音響および動画を含む収録素材データを生成可能な複数の端末装置から無線通信により前記収録素材データを受信する無線通信部、および、
     前記無線通信部が受信した複数の収録素材データに対する編集処理でコンテンツを生成する編集処理部
     として機能させるプログラムを記録した記録媒体。
     
PCT/JP2016/069175 2015-06-29 2016-06-28 映像処理装置、映像処理方法および記録媒体 WO2017002821A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015129970A JP6610030B2 (ja) 2015-06-29 2015-06-29 映像処理装置および映像処理方法
JP2015-129970 2015-06-29

Publications (1)

Publication Number Publication Date
WO2017002821A1 true WO2017002821A1 (ja) 2017-01-05

Family

ID=57608668

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/069175 WO2017002821A1 (ja) 2015-06-29 2016-06-28 映像処理装置、映像処理方法および記録媒体

Country Status (2)

Country Link
JP (1) JP6610030B2 (ja)
WO (1) WO2017002821A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022209648A1 (ja) * 2021-03-31 2022-10-06 ソニーグループ株式会社 情報処理装置、情報処理方法および非一時的なコンピュータ可読記憶媒体

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003078864A (ja) * 2001-08-30 2003-03-14 Nec Corp カメラ映像提供システム及びカメラ映像の時刻補正方法
JP2004134862A (ja) * 2002-10-08 2004-04-30 Bunkyo Studio:Kk 画像配布システム及び画像配布方法
JP2006197223A (ja) * 2005-01-13 2006-07-27 Mitsubishi Electric Corp 映像監視システム及び映像監視方法
JP2009267773A (ja) * 2008-04-25 2009-11-12 Hitachi Ltd 映像編集装置、撮影装置および映像編集方法
JP2013080989A (ja) * 2011-09-30 2013-05-02 Jvc Kenwood Corp 動画編集装置、動画編集方法およびコンピュータプログラム
JP2013131871A (ja) * 2011-12-20 2013-07-04 Sharp Corp 編集装置、遠隔制御装置、テレビジョン受像機、特定音声信号、編集システム、編集方法、プログラム、および、記録媒体
JP2014233007A (ja) * 2013-05-29 2014-12-11 カシオ計算機株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2015046756A (ja) * 2013-08-28 2015-03-12 株式会社ニコン システム、サーバ、電子機器およびプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0970009A (ja) * 1995-09-04 1997-03-11 Nippon Telegr & Teleph Corp <Ntt> 動画番組編集方法
JP2004247937A (ja) * 2003-02-13 2004-09-02 Canon Inc 画像撮影装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003078864A (ja) * 2001-08-30 2003-03-14 Nec Corp カメラ映像提供システム及びカメラ映像の時刻補正方法
JP2004134862A (ja) * 2002-10-08 2004-04-30 Bunkyo Studio:Kk 画像配布システム及び画像配布方法
JP2006197223A (ja) * 2005-01-13 2006-07-27 Mitsubishi Electric Corp 映像監視システム及び映像監視方法
JP2009267773A (ja) * 2008-04-25 2009-11-12 Hitachi Ltd 映像編集装置、撮影装置および映像編集方法
JP2013080989A (ja) * 2011-09-30 2013-05-02 Jvc Kenwood Corp 動画編集装置、動画編集方法およびコンピュータプログラム
JP2013131871A (ja) * 2011-12-20 2013-07-04 Sharp Corp 編集装置、遠隔制御装置、テレビジョン受像機、特定音声信号、編集システム、編集方法、プログラム、および、記録媒体
JP2014233007A (ja) * 2013-05-29 2014-12-11 カシオ計算機株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2015046756A (ja) * 2013-08-28 2015-03-12 株式会社ニコン システム、サーバ、電子機器およびプログラム

Also Published As

Publication number Publication date
JP2017017423A (ja) 2017-01-19
JP6610030B2 (ja) 2019-11-27

Similar Documents

Publication Publication Date Title
JP6662063B2 (ja) 収録データ処理方法
US10887673B2 (en) Method and system for associating recorded videos with highlight and event tags to facilitate replay services
JP2005341064A (ja) 情報送出装置、情報送出方法、プログラム及び記録媒体並びに表示制御装置及び表示方法
US10205969B2 (en) 360 degree space image reproduction method and system therefor
JP2006501744A5 (ja)
KR102078136B1 (ko) 오디오 데이터를 가지는 이미지를 촬영하기 위한 장치 및 방법
JP2009003446A (ja) コンテンツ生成システム、コンテンツ生成装置およびコンテンツ生成プログラム
JP2008286912A (ja) カラオケシステム
WO2017002821A1 (ja) 映像処理装置、映像処理方法および記録媒体
JP2016063477A (ja) 会議システム、情報処理方法、及びプログラム
US20160133243A1 (en) Musical performance system, musical performance method and musical performance program
JP5310682B2 (ja) カラオケ装置
WO2016184193A1 (zh) 媒体文件生成方法和装置
JP2018074337A (ja) 動画処理装置、動画処理方法およびプログラム
JP2006279294A (ja) コンテンツ再生システム、コンテンツ再生方法、およびコンピュータプログラム
JP2020071519A (ja) 案内装置及びガイドシステム
JP7118379B1 (ja) 映像編集装置、映像編集方法、及びコンピュータプログラム
JP2017038152A (ja) 映像処理装置および映像処理方法
JP2015179377A (ja) 撮影画像編集装置、撮影画像編集方法、プログラム、および撮影画像編集システム
US11131697B2 (en) System and method for combining a remote audio source with an animatronically controlled puppet
JP2004228803A (ja) 撮影装置
JP2023138200A (ja) カラオケシステム
JP2017017387A (ja) 映像処理装置および映像処理方法
JP6242083B2 (ja) 背景映像表示システム
JP2017183883A (ja) 端末装置および編集データ生成方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16817929

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16817929

Country of ref document: EP

Kind code of ref document: A1