WO2017179593A1 - Avサーバおよびavサーバシステム - Google Patents

Avサーバおよびavサーバシステム Download PDF

Info

Publication number
WO2017179593A1
WO2017179593A1 PCT/JP2017/014882 JP2017014882W WO2017179593A1 WO 2017179593 A1 WO2017179593 A1 WO 2017179593A1 JP 2017014882 W JP2017014882 W JP 2017014882W WO 2017179593 A1 WO2017179593 A1 WO 2017179593A1
Authority
WO
WIPO (PCT)
Prior art keywords
server
data
clip
clip data
storage
Prior art date
Application number
PCT/JP2017/014882
Other languages
English (en)
French (fr)
Inventor
秀喜 新井
後田 薫
衛 水上
康公 市中
伊藤 明
健太 安部
吉秀 藤本
孝 星
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2018512032A priority Critical patent/JP6922897B2/ja
Priority to US16/068,403 priority patent/US10897655B2/en
Publication of WO2017179593A1 publication Critical patent/WO2017179593A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/10Program control for peripheral devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234381Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction

Definitions

  • the present technology relates to an AV server and an AV server system, and more particularly to an AV server system configured by connecting a plurality of AV servers to a network.
  • Patent Document 1 describes a technique for expanding the number of IO ports of an AV server.
  • the number of IO ports is expanded by separating the AV storage unit and the input / output devices and increasing only the input / output devices.
  • An object of the present technology is to easily use video data related to high-frame-rate RAW data input from a single-panel camera in another server system different from the AV server system in which the video data is included.
  • a first processing unit that performs compression encoding processing on high-frame-rate RAW data input from a single-panel camera to obtain first AV clip data, and writes the first AV clip data to a storage;
  • the first AV clip data is read from the storage, and the first AV clip data is compressed and decoded to obtain the high frame rate RAW data, and the high frame rate RAW data is demosaiced.
  • the first processing unit performs compression encoding processing on the high-frame-rate RAW data input from the single panel camera to obtain first AV clip data, and the first AV clip data Is written to storage.
  • the second processing unit reads the first AV clip data from the storage, and the first AV clip data is subjected to compression decoding processing to obtain RAW data with a high frame rate.
  • the high frame rate The RAW data is demosaiced to obtain high frame rate video data.
  • the second processing unit performs compression encoding processing on the high frame rate video data to obtain second AV clip data, and the second AV clip data is written to the storage.
  • the third processing unit reads the second AV clip data from the storage, and transmits the second AV clip data to a second AV server system different from the first AV server system including the second AV clip data. Is done.
  • the processing by the first processing unit and the processing by the second processing unit and the third processing unit may be performed in parallel.
  • the second AV clip data corresponding to the high frame rate RAW data input from the single-panel camera can be immediately transmitted to the second AV server system.
  • the third processing unit may be configured to asynchronously transmit the second AV clip data to the second AV server system.
  • the second processing unit may transmit the AV clip data to the second AV server system using the FTP file transfer protocol.
  • the second processing unit may be configured to read and process the range indicated by the IN point and OUT point from the first AV clip data written in the storage.
  • the in point and the out point are instructed from the client controller in the first AV server system, or instructed from the second AV server system through the client controller in the second AV server system. It may be done.
  • the second processing unit uses the in point and the out point in the output request of the first AV clip data in the first AV server system as the in point and the out point. Also good. Further, for example, the second processing unit places the IN point and OUT point in the output request of the first AV clip data in the first AV server system as the IN point and OUT point so that the reading range is expanded. It is also possible to use in and out points shifted by a fixed amount.
  • the demosaic process is performed to obtain the video data, and the compressed encoded data of the video data is converted into the second AV server system.
  • the second AV server system even if RAW data cannot be handled, video data related to high frame rate RAW data input from a single-panel camera can be easily used. It becomes.
  • the third processing unit selectively reads out the first AV clip data from the storage and transmits the first AV clip data to the second AV server system. May be.
  • the compressed encoded data of the RAW data is transmitted to another AV server system (second AV server system)
  • this RAW data Image processing using can be performed.
  • a plurality of AV servers having IP (Internet Protocol) input / output ports for connecting to other AV servers independent of the input / output ports with the outside of the system;
  • a client controller for controlling the plurality of AV servers;
  • a manager that stores AV clip data recorded in the plurality of AV servers and information related to AV clip data input to the plurality of AV servers;
  • An AV server system comprising a frame synchronization unit that performs frame synchronization of the plurality of AV servers,
  • the plurality of AV servers include at least a predetermined AV server to which high frame rate RAW data is input from a single-panel camera,
  • the predetermined AV server is A first processing unit that performs compression encoding processing on the high-frame-rate RAW data to obtain first AV clip data, and writes the first AV clip data to a storage;
  • the first AV clip data is read from the storage, and the first AV clip data is compressed and decoded to obtain the high frame rate RAW data, and the high frame
  • the AV server system includes a plurality of AV servers, a client controller, a manager, and a frame synchronization unit.
  • the AV server has an IP input / output port for connecting to another AV server independent of the input / output port with the outside of the system.
  • the plurality of AV servers use IP input / output ports and are connected to each other by an IP network (IP switch).
  • IP network IP switch
  • the AV server is controlled by the client controller.
  • Information on AV clip data recorded in a plurality of AV servers and AV clip data input to the plurality of AV servers is stored by the manager.
  • the client controller can grasp the contents of the AV clip in each AV server based on the storage information of the manager, and controls the AV server based on the grasped contents.
  • the plurality of AV servers include at least a predetermined AV server to which high frame rate RAW data is input from a single-panel camera. This predetermined server. It is assumed to have first to third processing units.
  • the first processing unit performs compression coding processing on the high frame rate RAW data to obtain first AV clip data, and the first AV clip data is written to the storage.
  • the second processing unit reads the first AV clip data from the storage, and the first AV clip data is subjected to compression decoding processing to obtain RAW data with a high frame rate.
  • the high frame rate The RAW data is demosaiced to obtain high frame rate video data.
  • the second processing unit performs compression encoding processing on the high frame rate video data to obtain second AV clip data, and the second AV clip data is written to the storage.
  • the third processing unit reads the second AV clip data from the storage, and transmits the second AV clip data to a second AV server system different from the first AV server system including the second AV clip data. Is done.
  • a plurality of AV servers are connected by an IP network, and the number of IO ports and the storage amount can be easily expanded.
  • the predetermined AV server decodes the compression encoded data of the RAW data written in the storage and then performs demosaic processing to obtain video data, and the compression encoded data of the video data is converted into the second AV server system. To send to. For this reason, in other AV server systems (second AV server system), even if RAW data cannot be handled, video data related to high frame rate RAW data input from a single-panel camera can be easily used. It becomes.
  • the video data related to the high frame rate RAW data input from the single-panel camera can be easily used in another server system different from the AV server system in which the video data is included.
  • the effects described in the present specification are merely examples and are not limited, and may have additional effects.
  • FIG. 1 shows a configuration example of an AV server system 10 according to the first embodiment.
  • the AV server system 10 includes N (N is a plurality) AV servers 100-1, 100-2,..., 100-N, and M client controllers 200-1, 200-2,. , 200-M, a manager 300, and a time synchronization server 400.
  • M is usually the same as N, but may be different.
  • the AV servers 100-1, 100-2,..., 100-N have input / output ports (external IO) to the outside of the system and IP (Internet Protocol) input / output for connecting to other AV servers. Has a port.
  • AV servers 100-1, 100-2,..., 100-N are connected to a dedicated IP network (hereinafter referred to as “inter-server network” as appropriate) 500 using IP input / output ports. .
  • the client controllers 200-1, 200-2, ..., 200-M control the AV servers 100-1, 100-2, ..., 100-N based on the operation of the operator.
  • the client controllers 200-1, 200-2,..., 200-M are connected to the AV servers 100-1, 100-2,..., 100-N via the controller / server network 600, respectively. Has been.
  • the client controllers 200-1, 200-2,..., 200-M for example, grasp AV clip data stored in or input to each AV server, play request, JOG / SHUTTLE / shifted playback operation. Used to perform operations such as editing playlists.
  • the manager 300 performs database management (DB management) of AV clip data stored or input to the entire system, management of bandwidth guarantee when performing data transmission, and management of usage status of each AV server.
  • the manager 300 is connected to the AV servers 100-1, 100-2,..., 100-N and the client controllers 200-1, 200-2,. It is connected to the.
  • the time synchronization server 400 is connected to the AV servers 100-1, 100-2,..., 100-N and the client controllers 200-1, 200-2,. Connected to M.
  • the time synchronization server 400 is connected to the AV servers 100-1, 100-2,..., 100-N via the inter-server network 500.
  • the time synchronization server 400 operates as a master according to IEEE 1588 or JP 2010-190653 A and JP 2010-197320 A, so that the AV servers 100-1, 100-2,.
  • the time is synchronized within a predetermined error range.
  • the time synchronization server 400 constitutes a frame synchronization unit that performs frame synchronization of each AV server.
  • each AV server can be achieved using a house sync supplied to the place where each AV server is installed.
  • the house sync is a frame signal that is supplied everywhere in a broadcasting station or the like to synchronize the devices in the station.
  • the time synchronization server 400 measures the amount of transmission delay between arbitrary nodes by periodically measuring the transmission delay between nodes. Considering the JOG / SHUTTLE response, it is desirable that the inter-node transmission delay amount be suppressed to 1 frame or less. If the system is built on the assumption that the inter-node transmission delay amount is suppressed to 1 frame or less, the inter-node data transmission delay amount measurement by the time synchronization server 400 is not necessary. In addition, it is not necessary to measure the inter-node data transmission delay amount as described above, and if the frame synchronization of each AV server is obtained by the input of the house sync, the time synchronization server 400 is not necessary.
  • server-to-server network 500 to which the AV servers 100-1, 100-2,..., 100-N are connected, data transmission is mainly performed, and the AV servers 100-1, 100-2,. -N, in the controller / server network 600 to which the client controllers 200-1, 200-2,..., 200-M and the manager 300 are connected, command transmission, storage in each AV server, or input Information transmission of AV clip data is performed.
  • FIG. 2 shows a configuration example of the AV server 100 that can be used as the AV servers 100-1, 100-2,..., 100-N.
  • the AV server 100 includes an input / output IO (external IO) for the outside of the AV server system 10.
  • input / output IO external IO
  • only SDI input / output is shown as the external IO, but IP input / output, HDMI input / output, or other various IOs may coexist.
  • HDMI is a registered trademark.
  • the AV server 100 includes a system controller 101, an encoder 102, a storage 103, a decoder 104, an IP output unit 105, and an IP input unit 106.
  • the system controller 101 controls the operation of each unit of the AV server 100.
  • the system controller 101 is connected to a controller / server network 600.
  • the IP output unit 105 configures an IP output port for connecting to the inter-server network 500.
  • the IP input unit 106 constitutes an IP input port for connecting to the server-to-server network 500.
  • the encoder 102 performs an encoding process using a predetermined codec (Codec) on the AV clip data input to the external IO to generate compressed AV clip data.
  • the storage 103 stores the compressed AV clip data obtained by the encoder 102.
  • the decoder 104 decodes the compressed AV clip data read from the storage 103 or input to the IP input unit 106 from another AV server to generate uncompressed AV clip data, and sends it to the external IO. Output.
  • FIG. 3 shows a configuration example of the decoder 104.
  • the decoder 104 is capable of decoding H.264 so that various codecs can be decoded.
  • H.264 decoder H.264 A plurality of types of decoders such as a 262 decoder are provided.
  • the use decoder is selected by the demultiplexer and the multiplexer.
  • the demodulated data is subjected to demosaic processing to obtain a normal video data decoder output.
  • the encoder 102 also includes a plurality of types of encoders, like the decoder 104.
  • AV clip data input to the external IO is supplied to the encoder 102.
  • the AV clip data is encoded and compressed, and compressed AV clip data is generated. This compressed AV clip data is stored in the storage 103.
  • the compressed AV clip data stored in the storage 103 is read from the storage 103 and supplied to the decoder 104 in accordance with the reproduction request.
  • the decoder 104 the compressed AV clip data is subjected to a decoding process corresponding to the codec and decompressed to generate AV clip data.
  • This AV clip data is output from the external IO.
  • JOG / SHUTTLE if the system is a 60P system, 60 frames of AV clip data per second is subjected to processing such as thinning according to the commanded speed when read from the storage 103, for example, from an external IO. Is output.
  • the compressed AV clip data stored in the storage 103 is read from the storage 103 in accordance with a playback request from another AV server, and is output from the IP output unit (IP output port) 105 to the server-to-server network 500.
  • IP output unit IP output port
  • JOG / SHUTTLE if the system is a 60P system, 60 frames per second of AV clip data is read out from the storage 103 and subjected to processing such as thinning according to the commanded speed, so that other AV servers Is transmitted.
  • Compressed AV clip data input from another AV server to the IP input unit (IP input port) 106 via the inter-server network 500 is supplied to the decoder 104.
  • JOG / SHUTTLE in JOG / SHUTTLE, in a 60P system, AV clip data of 60 frames per second is subjected to processing such as thinning out according to the speed commanded from another AV server and transmitted.
  • the decoder 104 the compressed AV clip data is subjected to a decoding process corresponding to the codec and decompressed to generate AV clip data. This AV clip data is output to the external IO.
  • FIG. 4 shows a data flow in broken lines when data is transmitted from the AV server 100 of “B” to the AV server 100 of “A”.
  • the frame buffer 107 is actually provided before the encoder 102 and after the decoder 104, that is, between the external IO and the encoder 102 and decoder 104.
  • a bank 108 exists between the storage 103, the encoder 102, and the decoder 104.
  • an output interface for outputting AV clip data in a predetermined interface format that is, an SDI formatter 109 in the illustrated example, is present at the subsequent stage of the frame buffer 107.
  • both AV servers 100 of “A” and “B” operate as follows.
  • AV clip data is input to SDIin, compressed by the encoder 102 via the frame buffer 107, and stored in the storage 103 via the bank 108.
  • the data is read from the storage 103 to the bank 108, decompressed by the decoder 104, and then output to the SDIout via the frame buffer 107.
  • the urgent replay operation is looped back at the bank 108 or looped back at the frame buffer 107, and so-called “shooting out” is performed.
  • the compressed AV clip data read from the storage 103 of the “B” AV server 100 is read to the bank 108, and the server-to-server network (IP switch) 500 through the IP output unit (IP output port) 105. Is output. Then, it is input from the server-to-server network (IP switch) 500 to the IP input unit (IP input port) 105 of the AV server 100 of “A”, decompressed by the decoder 104, and then to the SDIout via the frame buffer 107. Is output.
  • IP switch IP input unit
  • AV clip data passes through a route of a, b, c.
  • the transmission delay amount of a and c is a predetermined value
  • the transmission delay amount of b is the configuration of the network 500 between servers and the distance on the network between the “A” and “B” AV servers 100.
  • the traffic on the server-to-server network will have a different value.
  • the time synchronization server 400 periodically measures the amount of transmission delay between the nodes to output it at a predetermined time, it is necessary to start reading compressed clip data from the storage 103 In some cases, it is possible to know that the data cannot be output at a predetermined time. As described above, if the system configuration is such that the transmission delay amount between the nodes is always within a predetermined value, for example, within one frame, the transmission delay amount measurement by the time synchronization server 400 is not necessary.
  • the data transmission delay relating to the file sharing reproduction between arbitrary nodes is determined by the transmission delay amount of the routes a and c in the AV server 100 and the transmission delay of the route b measured by the time synchronization server 400.
  • the reading time from the storage 103 for outputting AV clip data to the outside of the system at the correct time is determined.
  • the AV server 100 supports various image frames and various codecs.
  • the transmission delay amount of the path c is a constant value for all supported image frames and codecs.
  • the decoder 104 is configured such that the delay time from the decoder input to the decoder output (see FIG. 3) is constant for all codecs. In this case, in the case of a codec that finishes decoding in a short time, it is realized by delaying output.
  • the data path when it is desired to output the compressed AV clip data currently recorded in the storage instead of the compressed AV clip data stored in the storage 103 of the AV server 100 from another AV server by file sharing is as follows:
  • the route is SDIin ⁇ frame buffer 107 ⁇ encoder 102 ⁇ bank 108 ⁇ IP output unit (IP output port) 105 ⁇ inter-server network (IP switch) 500.
  • FIG. 5 shows a special configuration example of the AV server 100. 5, parts corresponding to those in FIG. 2 are denoted by the same reference numerals, and detailed description thereof will be omitted as appropriate.
  • the AV server 100 is a baseband processor unit (BPU) connected to the rear stage of the system camera.
  • the BPU is normally used for demosaicing RAW data from a single-panel camera to convert it into normal video data, or storing high-speed image data from a high-frequency frame (HFR) camera for slow playback.
  • HFR high-frequency frame
  • the return video input for operating the system camera is omitted. If a three-panel camera is connected, the AV clip data input from the outside is normal video data, and thus the operation is the same as that of the AV server 100 of FIG.
  • the RAW data is encoded by the encoder 102 and compressed, and then stored (recorded) in the storage 103 as compressed AV clip data. Since RAW data does not become normal video data unless it is demosaiced, the decoder 104 performs demosaicing in addition to decompression by decoding processing.
  • the decoder 104 in the AV server 100 as the BPU in FIG. 5 has the same configuration as the decoder 104 in the AV server 100 in FIG. 2 (see FIG. 3).
  • the paint information added thereto is also read at the same time, and is sent to its own decoder 104 in a single operation, and the shared reproduction operation is performed via another network 500 between servers. It is sent to the decoder 104 of the AV server 100.
  • the decoder 104 performs demosaicing in addition to decompression by decoding processing, and further performs processing such as gamma correction and white balance adjustment based on the paint information.
  • FIG. 6 shows a configuration example of the AV server 100 for connecting clips during playback of a playlist. 6, parts corresponding to those in FIG. 2 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • two systems of decoders 104 a and 104 b, two systems of IP input units (IP input ports) 106 a and 106 b, and an effector 110 are provided.
  • the system controller 101 is not shown.
  • Play list playback is playback that performs playback according to a playlist that describes the editing procedure for cut editing and applying effects. It is necessary to switch AV clip data by switching or applying an effect appropriately on the AV server 100 that performs simple output in combination with simple reproduction.
  • compressed AV clip data before and after linking is read from the storage 103 of a predetermined AV server 100 stored at an appropriate timing, and both are sent to the AV server 100 designated as an output port via the inter-server network 500. , And the AV server 100 performs switching / effecting by the effector 110 after decoding.
  • FIG. 6 shows a configuration for switching from AV clip data ⁇ to AV clip data ⁇ .
  • Two IP input units (IP input ports) 106a and 106b are prepared for the inter-server network 500, and transmission between the inter-server network 500 is performed so that AV clip data ⁇ and ⁇ are input respectively.
  • the AV clip data ⁇ and ⁇ are appropriately switched by the effector 110 after being decoded by the decoders 104a and 104b, respectively.
  • the paint information includes white balance setting information, white balance offset setting information, black setting information, flare correction setting information, gain setting information, electronic shutter operating condition setting information, and slow shutter setting information.
  • Setting information iris control setting information, slow & quick motion setting information, flicker correction setting information, gamma correction setting information, black gamma setting information, knee correction setting information, white clip setting information, detail adjustment
  • setting information for aperture correction setting information for skin detail correction
  • setting information for matrix correction setting information for multi-matrix correction, etc.
  • the HFR camera is a camera capable of shooting at a frame rate larger than the normal frame rate, that is, a high frame rate. For example, when the normal frame rate is 60P (shooting 60 frames per second), the high frame rate is 120P or more.
  • Slow playback is possible by reading frame data captured at high speed with an HFR camera at a normal frame rate. For example, if data shot at 480P is read at a rate of 60P, slow playback is performed at a speed of 1/8 speed.
  • FIG. 7 shows a configuration example of the decoder 104 including an addition processing unit that adds consecutive k frames and multiplies the result by 1 / k. In this case, slow reproduction at various rates is possible depending on n at the time of shooting and k at the time of reproduction.
  • FIG. 8 shows a configuration example of the AV server 100 in that case. 8, parts corresponding to those in FIG. 5 are denoted by the same reference numerals, and detailed description thereof will be omitted as appropriate.
  • N-times high-speed RAW data input from a single-panel camera is encoded by the encoder 102 (compression encoding process) to obtain compressed RAW data, and paint information is added to the compressed RAW data. It is stored (recorded) in the storage 103 as compressed AV clip data (first AV clip data).
  • compressed AV clip data first AV clip data
  • N frames of consecutive N frames are added to the RAW data of N-times high speed frame rate input from the single-panel camera, and the result is further multiplied by 1 / N to obtain a normal frame of 1-times speed.
  • Rate RAW data is obtained.
  • the demosaic unit 118 performs demosaic processing on the RAW data at the normal frame rate, thereby obtaining video data (normal speed video data) at the normal frame rate.
  • This normal frame rate video data is encoded (compressed and encoded) by an encoder 119 to obtain compressed video data.
  • This compressed video data is stored as compressed AV clip data (second AV clip data) 103. Stored (recorded).
  • the storage 103 stores video data as if it were shot at the normal frame rate, along with the high-frame-rate RAW data.
  • This normal frame rate video data is frequently used, and recording it in the storage 103 in advance reduces the load on the system.
  • FIG. 9 shows the connection between the AV server 100 and the IP switches constituting the inter-server network 500.
  • one AV server 100 is connected to the inter-server network 500 with four IO ports, and two inputs and two outputs are set. Further, in the illustrated example, there are a total of four input / output IOs to the outside of the system, and two inputs and two outputs.
  • the AV server 100 outputs compressed AV clip data for a predetermined number of frames with a predetermined number of frame periods, in this embodiment, for one frame with one frame period, from one IP output port. . Further, in this embodiment, the AV server 100 processes the compressed AV clip data input at a predetermined number of frame periods to one IP input port as compressed AV clip data for a predetermined frame. Compressed AV clip data input at a cycle of one frame is processed as compressed AV clip data for one frame. This facilitates bandwidth management in the inter-server network 500 of the AV server system 10 and facilitates implementation.
  • the AV server 100 processes the compressed AV clip data input in a period of one frame or less from the frame start time, for example, a period of 0.5 frame as compressed AV clip data for one frame.
  • the response of JOG / SHUTTLE can be enhanced.
  • the response can be improved as the period is shortened, but the number of unreceived IP packets increases accordingly.
  • the compressed AV clip data that is insufficient due to the unreceived IP packet is reproduced by forward error correction (FEC: ForwardForError Correction) processing.
  • FEC ForwardForError Correction
  • the manager 300 has a database of information related to AV clip data stored in all AV servers 100.
  • This information includes, for example, a storage ID (Storage ID), clip ID (Clip ID), clip name (Clip Name), start time code (Start Time Code), duration, video format / codec (Video Format / Codec), keywords, etc. are included.
  • the contents of the manager 300 database are updated based on commands from the client controller 200.
  • the client controller 200 has the same database as the manager 300. Each time the manager 300 is updated, the manager 300 distributes the update data to the client controller 200, whereby the database in the client controller 200 is also updated.
  • the operator grasps the contents of the database on a monitor screen (not shown) connected to the client controller 200 and inputs a command using a keyboard, mouse, JOG dial, or the like.
  • a monitor screen (not shown) connected to the client controller 200 and inputs a command using a keyboard, mouse, JOG dial, or the like.
  • a clip is selected from a plurality of clips displayed on the monitor screen
  • a list of names assigned to characteristic scenes in the clip is displayed.
  • thumbnails corresponding to the scene are displayed.
  • the operator inputs to the client controller 200 a playback request indicating which AV clip from which to where is output to which output port of the AV server 100 and at which time.
  • the time is based on a time code based on a frame rate defined in the operation of the AV server system 10.
  • the reproduction request input to the client controller 200 is transmitted to the manager 300.
  • the manager 300 schedules to execute the playback request. That is, the manager 300 is requested to use a device in the AV server 100 storing AV clip data, to use a bandwidth in the inter-server network 500, and to use a device in the AV server 100 having an output port. Allocate playback output to the specified output port at the specified time.
  • the band utilization schedule and the device utilization schedule are hereinafter referred to as “bandwidth reservation” and “device reservation” as appropriate.
  • the manager 300 confirms the availability of the reservation made as described above. That is, the manager 300 confirms whether a necessary device can be used for the AV server 100 and whether a bandwidth can be guaranteed for the inter-server network 500 based on the schedule set up as described above.
  • the bandwidth of the inter-server network 500 is usually determined by the capability of the IP switch that forms the network.
  • the manager 300 confirms whether or not the bandwidth used in the reproduction request is over all the moments during the data transmission period on the network 500 between servers required for the reproduction request. That is, the manager 300 subtracts the current used bandwidth from the remaining bandwidth consumed by the network 500 between the servers during the current data transmission period, which is scheduled before the current reproduction request, to obtain a predetermined bandwidth amount. To see if it remains.
  • the server-to-server network 500 and the controller / server network 600 are integrated without using a V-LAN, it is considered necessary to reduce the bandwidth used for the communication between the controller / server network 600.
  • the communication data amount of the controller / server network 600 is very small compared to the data amount of the compressed AV clip data, and can be ignored.
  • the manager 300 performs the device availability check in the same manner as the bandwidth guarantee check. That is, the manager 300 confirms whether or not the device related to the current reproduction request can be used for all the moments during the data transmission period.
  • the device means an inter-server network IO, a system external IO, a decoder, and the like.
  • the manager 300 When the manager 300 confirms that the reservation of this time can be used in the presence of the reservation of the previous time, the manager 300 sends an external output port to the AV server 100 that stores the AV clip to be reproduced according to the reservation. A command is transmitted so as to transfer data to the AV server 100 designated by. Thus, data transmission from the AV server 100 that stores the AV clip to be played back to the AV server 100 designated as the external output port is started.
  • the manager 300 when the manager 300 confirms that there is no availability of the current reservation in the presence of the previous reservation, the manager 300 notifies the operator of the rejection of the reproduction request through the client controller 200.
  • the manager 300 schedules the playback request from the client controller 200, confirms the availability of the schedule, and sends a command to the AV server 100 according to the schedule.
  • the client controller 200 has a database that is updated at any time in the same manner as the manager 300. Therefore, the client controller 200 is responsible for making a schedule for a reproduction request and confirming the availability of the schedule. It is possible to do it.
  • the client controller 200 sends the schedule of finally confirmed availability to the AV server 100 designated as the external output port through the manager 300. Then, in accordance with the reservation, the AV server 100 sends a command to the AV server 100 that stores the AV clip to be reproduced so as to transfer data to the AV server 100 designated as the external output port. Thus, data transmission from the AV server 100 that stores the AV clip to be played back to the AV server 100 designated as the external output port is started.
  • forward error correction (Forward Error Correction) is performed for data transmission between the AV servers 100, and the transmission data can be received with sufficient redundancy. Provide a function to reproduce the part that could not be received from the data.
  • the IP output unit (IP output port) 105 in FIGS. 2, 4, 5, 6, and 8 has a function of providing redundancy for forward error correction, and an IP input unit (IP input port) 106, 106a and 106b have a function of reproducing by forward error correction when there is an insufficient part in the transmitted data.
  • FIG. 10 shows an example of a playlist creation screen in the client controller 200.
  • the operator creates a playlist using the playlist creation screen based on the clip information displayed on the monitor screen. Select the clip you want to play along the timeline showing the playback time, enter the clip name, specify the timecode of the time you want to start the clip as the timecode you want to play, the screen thumbnail at the start will appear, When the time code to be ended is designated, a screen thumbnail at the end point and a display indicating the playback period appear on the timeline.
  • a rectangle written with “A”, a start thumbnail, and an end thumbnail are displayed for the clip with the clip name A.
  • an example in which a clip with the clip name B, a clip with the clip name C, and a clip with the clip name B is designated is shown.
  • “B ′” is written in the rectangle corresponding to the designation of the clip with the clip name B for the second time.
  • it is defined as a playlist that playback continues as A ⁇ B ⁇ C ⁇ B ′.
  • effect name The part of the clip that overlaps in time indicates that there is an effect in switching screens.
  • the effect name By specifying the effect name, the effect is selected (indicated by effect names 1 and 3 in the figure). ing).
  • effect name 2 On the other hand, if the clips do not overlap in time, it is a simple scene change (shown as effect name 2 in the figure).
  • the playlist is defined in this way, and its reproduction is requested to the manager 300.
  • the manager 300 Upon receiving the request, the manager 300 performs bandwidth reservation and device reservation along the playlist and confirms the availability. Note that it is also conceivable that the client controller 200 itself makes a bandwidth reservation and a device reservation for the playlist created in this way instead of the manager 300 and confirms its availability.
  • FIG. 11 shows an example in which the device can be used by dynamically setting IN / OUT reversely if possible when there are not enough IO ports with the inter-server network 500 as devices to be used. .
  • the IO ports of the three AV servers 100-1, 100-2 and AV server 100-3 with the inter-server network 500 have two inputs and two outputs.
  • This playback request is a request to externally output the AV clip data stored in the AV server 100-1 from the AV server 100-2.
  • the AV server 100-1 has already received a request from the AV server 100-1. It is assumed that two inter-server network output ports and two inter-server network input ports to the AV server 100-2 have been reserved.
  • the manager 300 sets the respective ports in the reverse direction so as to execute the reproduction request.
  • the IO port with the outside of the system has two inputs and two outputs, but the input port of the AV server 100-2 is changed to one output port. Yes.
  • Playlist playback In the playlist reproduction, the reproduction request itself is reserved for a plurality of reproduction requests.
  • the manager 300 performs scheduling for special operations such as scene changes due to frame breaks or scene changes with effects.
  • a reproduction request that does not define an end time (end frame) can be considered.
  • the bandwidth reservation and device reservation are determined based on the assumption that the bandwidth and device will continue to be used until the playback end command is received, and the playback possibility is determined by considering the bandwidth and device schedule. If so, both the bandwidth and the device will continue to be reserved until a playback end command is received. This is the same even with a playback request accompanied by an arbitrary command of the operator such as JOG or SHUTTLE.
  • FIG. 12 shows an example of playlist reproduction.
  • the AV clip [ ⁇ ] stored in the storage of the AV server 100-1 is output to the AV server 100-3 from time t2 to time t4, and the AV clip stored in the storage of the AV server 100-2 at time t4.
  • the playlist that switches to [ ⁇ ] and outputs until time t7 for example, the following device reservation and bandwidth reservation are performed.
  • the network output port between servers of the AV server 100-1 is from t1 to t5.
  • AV server 100-2 inter-server network output port from t3t3 to t7,
  • One of the server-to-server network output ports of the AV server 100-3 is set from t1 to t5.
  • One of the server-to-server network output ports of the AV server 100-3 is set from t3 to t7.
  • the output port to the outside of the AV server 100-3 is from t2 to t7. (Other necessary decoders in the server) Make a reservation.
  • the bandwidth of the network 500 between servers for sending the compressed data of the AV clip [ ⁇ ] and AV clip [ ⁇ ] is reserved in a corresponding time zone.
  • the AV server system 10 shown in FIG. 1 is configured by connecting a plurality of AV servers 100 via an IP network, and can easily expand the number of IO ports and the storage amount. Become.
  • the server-to-server network 500 between the AV servers 100 can be configured with a general-purpose IP switch and is not specialized for AV products, not only is it easy to obtain in the future, but also high performance is expected. Therefore, it is possible to establish a connection that can satisfy a higher reproduction request.
  • FIG. 13 shows an example of the configuration of an AV server system 10A as the second embodiment. 13, parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted as appropriate.
  • the AV server system 10A includes N (N is a plurality) AV servers 100-1, 100-2,..., 100-N and M client controllers. 200-1, 200-2,..., 200 -M, a manager 300, and a time synchronization server 400.
  • the AV server system (first AV server system) 10A is connected to another AV server system (second AV server system) 20. That is, the AV server system 20 is connected to the network 700 outside the system, and the inter-server network 500 of the AV server system 10A is connected to the AV server system 20.
  • the AV servers 100-1, 100-2,..., 100-N of the AV server system 10A are connected to the network 700 outside the system in addition to being connected to the inter-server network 500.
  • AV servers 100-1, 100-2,..., 100-N of the AV server system 10A are connected to other AV servers through the inter-server network 500 in the same manner as the AV server system 10 shown in FIG. Clip data can be transmitted.
  • the AV servers 100-1, 100-2,..., 100-N of the AV server system 10A can transmit AV clip data to / from each AV server of the AV server system 20 through the network 700 outside the system. It is possible. AV clip data is asynchronously transmitted between the AV servers 100-1, 100-2,..., 100-N of the AV server system 10A and the AV servers of the AV server system 20. In this case, for example, asynchronous transfer is performed by the FTP file transfer protocol.
  • FIG. 14 shows a configuration example of an AV server 100A that can be used as the AV servers 100-1, 100-2,..., 100-N of the AV server system 10A. 14, parts corresponding to those in FIG. 2 are denoted by the same reference numerals, and detailed description thereof will be omitted as appropriate.
  • the AV server 100A includes a system controller 101, an encoder 102, a storage 103, a decoder 104, an IP output unit 105, an IP input unit 106, an IP output unit 120, and an IP input unit 121. .
  • the system controller 101 controls the operation of each unit of the AV server 100A.
  • the system controller 101 is connected to a controller / server network 600.
  • the IP output unit 120 configures an IP output port for connecting to the network 700 outside the system.
  • the IP input unit 121 configures an IP input port for connecting to the network 700 outside the system.
  • the AV servers 100-1, 100-2,..., 100-N of the AV server system 10A include at least an AV server 100B to which high frame rate RAW data is input from a single-panel camera.
  • FIG. 15 shows a configuration example of the AV server 100B.
  • portions corresponding to those in FIG. 8 are denoted by the same reference numerals, and detailed description thereof will be omitted as appropriate.
  • the AV server 100B includes a system controller 101, an encoder 102B, a storage 103, a decoder 104B, an IP output unit 105, an IP input unit 106, an IP output unit 120, and an IP input unit 121. . Further, the AV server 100B includes an addition processing unit 117, a demosaic unit 118, and an encoder 119.
  • the system controller 101 controls the operation of each unit of the AV server 100B.
  • the system controller 101 is connected to a controller / server network 600.
  • the IP output unit 120 configures an IP output port for connecting to the network 700 outside the system.
  • the IP input unit 121 configures an IP input port for connecting to the network 700 outside the system.
  • the addition processing unit 117 performs addition for each consecutive N frames to N-times high-speed RAW data input from a single-panel camera, and further multiplies the result by 1 / N-times to obtain 1-times normal speed.
  • the demosaic unit 118 performs demosaic processing (development processing) on the RAW data at the normal frame rate obtained by the addition processing unit 117, and obtains normal frame rate video data (single-speed video data).
  • the encoder 119 performs encoding processing (compression encoding processing) on the normal frame rate video data obtained by the demosaic unit 118 to obtain compressed video data at the normal frame rate (single-speed compressed video data).
  • the compressed video data Are written and stored (recorded) in the storage 103 as compressed AV clip data.
  • the encoder 102B performs an encoding process (compression encoding process) on N-times high-speed RAW data input from a single-panel camera to obtain compressed RAW video data, and adds paint information to the compressed RAW data.
  • the compressed AV clip data is written into the storage 103 and stored (recorded).
  • the decoder 104B decodes the compressed AV clip data read from the storage 103 or input to the IP input unit 106 from another AV server to generate uncompressed AV clip data, and sends it to the external IO. Output.
  • the decoder 104B transmits video data related to high frame rate RAW data to a predetermined AV server of the external AV server system 20, the high frame rate compressed RAW data written in the storage 103 as described above.
  • the high frame rate video data (N-times video data) corresponding to the above is obtained and sent to the encoder 102B.
  • the decoder 104B reads high frame rate compressed RAW data from the storage 103, performs decoding processing (compression decoding processing) on the compressed RAW data, obtains high frame rate RAW data, and stores the RAW data in the RAW data.
  • decoding processing compression decoding processing
  • a demosaic process is performed to obtain high frame rate video data, which is supplied to the encoder 102B.
  • the decoder 104B performs processes such as gamma correction and white balance adjustment according to the paint information added to the compressed RAW data.
  • the encoder 102B When transmitting video data related to high frame rate RAW data to a predetermined AV server of the external AV server system 20, the encoder 102B, as described above, transmits high frame rate video data (N Double-speed video data) is encoded (compressed and encoded) to obtain high-frame-rate compressed video data, and this compressed video data is written and stored (recorded) in the storage 103 as compressed AV clip data.
  • high frame rate video data N Double-speed video data
  • this compressed video data is written and stored (recorded) in the storage 103 as compressed AV clip data.
  • FIG. 16 shows a configuration example of the decoder 104B.
  • the decoder 104B is capable of decoding H.264 so that various codecs can be decoded.
  • H.264 decoder 104a H.264.
  • a plurality of types of decoders such as the 262 decoder 104b are provided.
  • the decoder 104B includes a RAW decoder 104c and a demosaic unit 104d, and is capable of decoding compressed RAW data at an N-times high frame rate.
  • the decoder 104B adds to the N-times high-speed video data obtained at the demosaic unit 104d for each successive k frames and can perform a process of multiplying the result by 1 / k. 104e. In this case, slow playback at various rates is possible with N at the time of shooting and k at the time of playback.
  • the use decoder is selected by the demultiplexer 104f and the multiplexer 104g.
  • the decoder 104 ⁇ / b> B reads N-times high-speed compressed RAW data (N-times compression) read from the storage 103. (RAW data), the path of the RAW decoder 104c and the demosaic unit 104d is selected, and high frame rate video data (N-times video data) obtained by the mosaic unit is sent to the encoder 102B as it is.
  • FIG. 17 shows a configuration example of the encoder 102B.
  • the decoder 104B is capable of encoding H.264 so that various codecs can be encoded.
  • H.264 encoder 102a H.264.
  • a plurality of types of decoders such as a 262 encoder 102b and a RAW encoder 102c are provided.
  • the encoder to be used is selected by the demultiplexer 102d and the multiplexer 104e.
  • the high frame rate video data (N-times video data) sent from the decoder 104B the H.264 standard is used.
  • the H.262 encoder 102 b or the like is selected, and high frame rate compressed video data (N-times compressed video data) obtained by the encoder is sent to the storage 103.
  • the IP output unit 120 configures an IP output port for connecting to the network 700 outside the system.
  • the IP input unit 121 configures an IP input port for connecting to the network 700 outside the system.
  • the IP output unit 120 When transmitting video data related to high frame rate RAW data to a predetermined AV server of the external AV server system 20, the IP output unit 120 sends high frame rate compressed video data (N-times compressed video data) from the storage 103. Is transmitted to a predetermined AV server of the AV server system 20 via the network 700 outside the system.
  • the AV server 100B shown in FIG. 15 is configured so that a quick slow motion replay operation during a live operation can be linked with a predetermined AV server of the AV server system 20 outside the system.
  • the range defined by the in (IN) point and the out (OUT) point is read from the compressed RAW data (N-times compressed RAW data) written at the high frame rate and processed, and the compressed video data ( The operation of transmitting N-times compressed video data) to a predetermined AV server of the AV server system 20 is performed as a background.
  • the AV server 100B processes the high frame rate RAW data input from the single-panel camera, and the compressed AV clip data corresponding to the 1 ⁇ speed compressed video data or the compressed AV data corresponding to the N ⁇ speed compressed RAW data in the storage 103. While the clip data is being written to the storage 103, the compressed AV clip data is read within the range defined by the in and out points, decoded and demosaiced by the decoder 104B, and further encoded by the encoder 102B. Then, the data is transmitted from the IP output unit 120 to a predetermined AV server of the AV server system 20.
  • the AV server 100B compresses the compressed AV clip data corresponding to the 1 ⁇ speed compressed video data with respect to other AV servers in the AV server system 10A during the processing of the high frame rate RAW data input from the single-panel camera.
  • N-times-compressed compressed RAW data is read from the storage 103 within the range defined by the in and out points, decoded and demosaiced by the decoder 104B, and further encoded by the encoder 102B.
  • the data is transmitted from the output unit 120 to a predetermined AV server of the AV server system 20.
  • N-times-compressed compressed video data corresponding to RAW data at an N-times frame rate
  • a throw to an AV server inside the AV server system 10A Motion replay playback requests may overlap.
  • the AV server 100B in addition to the transmission operation of the compressed video data (N-times compressed video data) to the predetermined AV server of the AV server system 20 described above, N-times compressed RAW by the editing point requested from the storage 103. Data is read out and transmitted from the IP output unit 105 to the AV server in the AV server system 10A.
  • the editing point of the replay playback request to the predetermined AV server of the AV server system 20 which is an external system and the editing point of the replay playback request to the AV server inside the AV server system 10A are independent and different.
  • the same replay playback request to the AV server inside the AV server system 10A may be automatically transferred to the AV server system 20 which is an external system.
  • the slow motion replay playback request is made not only within the AV server system 10A but also from the AV server system 20 which is an external system.
  • the replay playback request from the AV server system 20 is made to the client controller in the AV server system 10A.
  • the AV server system 20 designates an edit point and a transfer destination AV server for the client controller in the AV server system 10A, and the client controller designates the client controller in the system.
  • a replay playback request from the system 20 can be made.
  • AV server 100-2 (corresponding to AV server 100B shown in FIG. 15) shares a file with AV server 100-1 (corresponding to AV server 100A shown in FIG. 14) while in the background.
  • An operation of sending AV clip data to a predetermined AV server of the AV server system 20 that is an external system will be described.
  • AV clip data is input to the AV server 100-1 from the SDI input / output, compressed by the encoder 102-1, recorded in the storage 103-1, and information on the recorded compressed AV clip data is sent to the manager 300. It is done.
  • the compressed AV clip data is also sent from the non-system network 700 by asynchronous transfer such as FTP, recorded in the storage 103-1, and information related to the recorded compressed AV clip data is sent to the manager 300.
  • the AV server 100-2 receives high frame rate RAW data taken at a high speed from a high frame rate (HFR) camera, is compressed by the encoder 102-2, and is stored in the storage 103 as compressed AV clip data corresponding to the RAW data. -2 is recorded, and information related to the recorded compressed AV clip data is sent to the manager 300.
  • the compressed AV clip data is also sent from the non-system network 700 by asynchronous transfer such as FTP, recorded in the storage 103-2, and information related to the recorded compressed AV clip data is sent to the manager 300.
  • the slow motion operator 130-2 determines an AV clip for slow motion replay from the compressed AV clip data photographed by the HFR camera. That is, a certain compressed AV clip data recorded in the storage 103-2 is designated, and an IN point and an OUT point indicating the start and end of a certain portion of the AV clip data are determined. Such information is sent to the manager 300.
  • the playlist operator 130-2 creates a playlist output from the SDI input / output of the AV server 100-1.
  • the slow motion operator 130-2 is dedicated to setting the AV clip data for the slow motion replay
  • the playlist operator 130-1 is the storage 103-1 or 103-2 of the AV server 100-1 or 100-2. Is received from the manager 300, a playlist is created, and output from the SDI input / output of the AV server 100-1.
  • the material clips of the playlist are already in 103-1 and 103-2, but in this example, clips by HFR shooting from the HFR camera are added to the storage 103-2 every moment.
  • High frame rate RAW data is input to the encoder 102-2 from the HFR camera.
  • the input high frame rate RAW data is compressed by the RAW encoder in the encoder 102-2 and recorded as compressed AV clip data corresponding to the compressed RAW data in the storage 103-2.
  • RAW data at a high frame rate from the HFR camera is also input to the addition processing unit 117-2, added and converted to 1 ⁇ speed RAW data, and developed into baseband video data by the demosaic unit 118-2. Then, it is compressed again by the encoder 119-2, and is recorded in the storage 103-2 as compressed AV clip data corresponding to the compressed video data of normal frame rate (single-speed compressed video).
  • the addition conversion to 1 ⁇ speed is, for example, RAW data obtained by high frame rate shooting at N ⁇ speed, adding data for every N consecutive frames, and dividing by N to convert to 1 ⁇ speed. Point to. For every N frames, it may be set to 1 ⁇ speed by thinning processing for leaving only one frame.
  • the AV server 100-2 For example, in the case of a sports broadcast, several cameras are shooting the game from various positions. In FIG. 18, only one camera is connected to one AV server 100-2. However, if the AV server has a plurality of inputs, a plurality of cameras can be connected. In the AV server system 10A, Since a plurality of AV servers can be connected, a large number of cameras can be connected to the AV server system 10A. Since the AV server 100-1 supports only a 1 ⁇ speed camera, the storage 103-1 records 1 ⁇ speed compressed AV clip data, and the AV server 100-2 supports an HFR camera. The compressed AV clip data corresponding to the HFR RAW data and the compressed clip data corresponding to the 1 ⁇ speed RAW data are recorded in the storage 103-2.
  • the playlist operator 130-1 creates playlists by connecting the 1x clips taken from various positions, and compresses corresponding to the HFR RAW data set by the slow motion operator 130-2 at important points.
  • the AV clip data is inserted into the playlist, and a playlist that causes the slow motion replay to be output from the SDI input / output is created.
  • This operation can be executed in real time.
  • the playlist is executed while the playlist is created on the playlist creation screen shown in FIG. In FIG. 10, ABCB ′ and the clip are connected, but it is only necessary to set the playlist ahead of B ′ while outputting the SDI in this playlist.
  • clip A in FIG. 10 is a 1 ⁇ speed video by the HFR camera. It is assumed that the state of outputting from the SDI input / output of the AV server 100-1 continues with a delay of several frames from the shooting by the file sharing operation. Therefore, AV clip B by HFR shooting set by slow motion operator 130-2 is selected and added to the playlist, and AV clip C from another 1x camera is added to the playlist before AV clip B ends. For example, it is possible to insert a slow motion video in the middle while outputting a real time video with a delay of several frames for the file sharing operation.
  • the slow motion operator 130-2 sets the AV clip B for replay
  • the information is reflected on the client controller 200-1 operated by the playlist operator 130-1 via the manager 300, and the playlist operator 130- 1 can use the AV clip B.
  • the transfer operation of the AV server system 20 to a predetermined AV server must be executed in the background of the operation in the system of the AV server system 10A.
  • the compressed AV clip data recorded in the storage 103-2 of the AV server 100-2 is converted into the IP output unit 120- connected to the network 700 outside the system.
  • FTP transfer from 2 to a predetermined AV server of the AV server system 20 may be performed.
  • RAW data generally has a different format for each camera. Therefore, demosaicing is not always possible with other AV server systems. Therefore, a path of storage 103-2 ⁇ decoder 104-2 ⁇ encoder 102-2 is required.
  • FIG. 19 is a detailed diagram showing only the data path of the AV server 100-2 in FIG. 18 by replacing the encoder 102-2 and the decoder 104-2 with FIG. 17 and FIG. 16, respectively. This shows that data can be transferred outside the system in the background of data transfer.
  • FIG. 19 will be described.
  • the compressed AV clip data corresponding to the normal video recorded in the storage 103-2 is 1 ⁇ speed data or high frame rate data, it is based on a general compression method for baseband video. Even if it is transferred to another AV server system by FTP as it is, there is no problem.
  • the input to the AV server 100-2 is RAW data will be described.
  • the AV server 100-2 can cope with normal video that is not RAW data input from the camera.
  • RAW data input from the HFR camera is recorded in the storage 103-2 as compressed AV clip data corresponding to high frame rate RAW data by the RAW encoder in the encoder 102-2 (path ⁇ ).
  • the addition processing unit 117-2, demosaic unit 118-2, and encoder (baseband video encoder) 119-2 are also recorded in the storage 103-2 as compressed AV clip data corresponding to normal video data at 1 ⁇ speed ( Both of the paths ⁇ ) are transferred to the other AV servers in the AV server system 10A via the inter-server network 500 as they are for the file sharing.
  • the compressed AV clip data corresponding to HFR or 1 ⁇ speed RAW data is decompressed by the RAW decoder of the decoder 104-2, developed into baseband video data by the demosaic unit, and encoded by the encoder 102-2.
  • RAW decoder of the decoder 104-2 developed into baseband video data by the demosaic unit, and encoded by the encoder 102-2.
  • a plurality of AV servers 100 are connected via an IP network, and the number of IO ports and the storage amount can be easily expanded. Become.
  • the server-to-server network 500 between the AV servers 100 can be configured with a general-purpose IP switch and is not specialized for AV products, not only is it easy to obtain in the future, but also high performance is expected. Therefore, it is possible to establish a connection that can satisfy a higher reproduction request.
  • the AV server 100B obtains video data by performing demosaic processing after decoding the compressed encoded data of the RAW data written in the storage 103.
  • the compressed encoded data of the video data is transmitted to the AV server system 20 as an external system. Therefore, the AV server system 20 can easily use video data related to high frame rate RAW data input from a single-panel camera even if the RAW data cannot be handled.
  • the compressed video data corresponding to the RAW data is read from the storage 103 and transmitted from the AV server 100B (see FIG. 15) to the AV server system 20 as an external system is shown.
  • the compressed encoded data of the RAW data is transmitted to the AV server system 20, when the AV server system 20 can handle the RAW data, image processing using the RAW data can be performed. It becomes possible.
  • time synchronization server 400 the manager 300, and the client controllers 200-1, 200-2,..., 200-M are provided independently.
  • these do not need to exist physically independently, and other functions may exist on the AV servers 100-1, 100-2,..., 100-N.
  • each AV server may have a client controller function, any one AV server may have a manager function, and any AV server also serves as a time synchronization server. It doesn't matter.
  • this technique can also take the following structures.
  • the AV server according to (1) wherein the processing by the first processing unit and the processing by the second processing unit and the third processing unit are performed in parallel.
  • the third processing unit is The AV server according to (1) or (2), wherein the second AV clip data is asynchronously transmitted to the second AV server system.
  • the second processing unit is The AV server according to (3), wherein the AV clip data is transmitted to the second AV server system by an FTP file transfer protocol.
  • the second processing unit includes: The AV server according to any one of (1) to (4), wherein a range indicated by an IN point and an OUT point is read from the first AV clip data written in the storage and processed.
  • the in point and the out point are instructed from a client controller in the first AV server system, or from the second AV server system via a client controller in the first AV server system.
  • the AV server according to (5).
  • the second processing unit is The AV server according to (5), wherein the IN point and the OUT point in the output request for the first AV clip data in the first AV server system are used as the IN point and the OUT point.
  • the second processing unit is As the IN point and OUT point, the IN point and OUT point in the output request for the first AV clip data in the first AV server system are shifted by a predetermined amount so that the reading range is widened.
  • the third processing unit is The first AV clip data is selectively read from the storage, and the first AV clip data is transmitted to the second AV server system.
  • the method according to any one of (1) to (8), AV server.
  • a plurality of AV servers having IP (Internet Protocol) input / output ports for connecting to other AV servers independent of input / output ports to / from the outside of the system;
  • a client controller for controlling the plurality of AV servers;
  • a manager that stores AV clip data recorded in the plurality of AV servers and information related to AV clip data input to the plurality of AV servers;
  • An AV server system comprising a frame synchronization unit that performs frame synchronization of the plurality of AV servers,
  • the plurality of AV servers include at least a predetermined AV server to which high frame rate RAW data is input from a single-panel camera,
  • the predetermined AV server is A first processing unit that performs compression encoding processing on the high-frame-rate RAW data to obtain first AV clip data, and writes the first AV clip data to a storage;
  • the first AV clip data is read from the storage, and the first AV clip data is compressed and decoded to obtain the high frame rate RAW data, and the

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

単板カメラから入力されるハイフレームレートのRAWデータに係るビデオデータの利用を自身が含まれるAVサーバシステムとは異なる他のサーバシステムにおいて容易に可能とする。 単板カメラから入力されるハイフレームレートのRAWデータに圧縮符号化処理を行って第1のAVクリップデータを得てストレージに書き込む。ストレージから第1のAVクリップデータを読み出し、この第1のAVクリップデータに圧縮復号化処理を行ってハイフレームレートのRAWデータを得、このRAWデータにデモザイク処理を行ってハイフレームレートのビデオデータを得、このビデオデータに圧縮符号化処理を行って第2のAVクリップデータを得てストレージに書き込む。ストレージから第2のAVクリップデータを読み出し、自身が含まれる第1のAVサーバシステムとは異なる第2のAVサーバシステムに送信する。

Description

AVサーバおよびAVサーバシステム
 本技術は、AVサーバおよびAVサーバシステムに関し、詳しくは、複数のAVサーバがネットワーク接続されて構成されるAVサーバシステム等に関する。
 例えば、特許文献1には、AVサーバのIOポート数を拡張する技術が記載されている。ここでは、AVのストレージ部と入出力装置を分離し、入出力装置のみを増やすことで、IOポート数を拡張する。
特開2005-063122号公報
 本技術の目的は、単板カメラから入力されるハイフレームレートのRAWデータに係るビデオデータの利用を自身が含まれるAVサーバシステムとは異なる他のサーバシステムにおいて容易に可能とすることにある。
 本技術の概念は、
 単板カメラから入力されるハイフレームレートのRAWデータに圧縮符号化処理を行って第1のAVクリップデータを得、該第1のAVクリップデータをストレージに書き込む第1の処理部と、
 上記ストレージから上記第1のAVクリップデータを読み出し、該第1のAVクリップデータに圧縮復号化処理を行って上記ハイフレームレートのRAWデータを得、該ハイフレームレートのRAWデータにデモザイク処理を行ってハイフレームレートのビデオデータを得、該ハイフレームレートのビデオデータに圧縮符号化処理を行って第2のAVクリップデータを得、該第2のAVクリップデータを上記ストレージに書き込む第2の処理部と、
 上記ストレージから上記第2のAVクリップデータを読み出し、該第2のAVクリップデータを、自身が含まれる第1のAVサーバシステムとは異なる第2のAVサーバシステムに送信する第3の処理部を備える
 AVサーバにある。
 本技術において、第1の処理部により、単板カメラから入力されるハイフレームレートのRAWデータに圧縮符号化処理が行われて第1のAVクリップデータが得られ、この第1のAVクリップデータがストレージに書き込まれる。第2の処理部により、ストレージから第1のAVクリップデータが読み出され、この第1のAVクリップデータに圧縮復号化処理が行われてハイフレームレートのRAWデータが得られ、このハイフレームレートのRAWデータにデモザイク処理が行われてハイフレームレートのビデオデータが得られる。そして、この第2の処理部により、このハイフレームレートのビデオデータに圧縮符号化処理が行われて第2のAVクリップデータが得られ、この第2のAVクリップデータがストレージに書き込まれる。
 第3の処理部により、ストレージから第2のAVクリップデータが読み出され、この第2のAVクリップデータが、自身が含まれる第1のAVサーバシステムとは異なる第2のAVサーバシステムに送信される。例えば、第1の処理部による処理と第2の処理部および第3の処理部による処理は並行して行われる、ようにされてもよい。この場合、単板カメラから入力されるハイフレームレートのRAWデータに対応する第2のAVクリップデータを第2のAVサーバシステムに直ちに送信可能となる。
 例えば、第3の処理部は、第2のAVクリップデータを第2のAVサーバシステムに非同期で送信する、ようにされてもよい。そして、この場合、例えば、第2の処理部は、AVクリップデータを第2のAVサーバシステムにFTPファイル転送プロトコルで送信する、ようにされてもよい。
 また、例えば、第2の処理部は、ストレージに書き込まれた第1のAVクリップデータからイン点およびアウト点で示される範囲を読み出して処理する、ようにされてもよい。この場合、例えば、イン点およびアウト点は、第1のAVサーバシステム内のクライアントコントローラから指示されるか、あるいは第2のAVサーバシステムから第2のAVサーバシステム内のクライアントコントローラを介して指示される、ようにされてもよい。
 また、例えば、第2の処理部は、イン点およびアウト点として、第1のAVサーバシステム内での第1のAVクリップデータの出力要求におけるイン点およびアウト点を使用する、ようにされてもよい。また、例えば、第2の処理部は、イン点およびアウト点として、第1のAVサーバシステム内での第1のAVクリップデータの出力要求におけるイン点およびアウト点を読み出し範囲が広がるように所定量だけずらしたイン点およびアウト点を使用する、ようにされてもよい。
 このように本技術においては、ストレージに書き込まれたRAWデータの圧縮符号化データを復号化した後にデモザイク処理をしてビデオデータを得、このビデオデータの圧縮符号化データを第2のAVサーバシステムに送信するものである。そのため、他のAVサーバシステム(第2のAVサーバシステム)では、RAWデータの取り扱いができなくても、単板カメラから入力されるハイフレームレートのRAWデータに係るビデオデータの利用が容易に可能となる。
 なお、本技術において、例えば、第3の処理部は、選択的に、ストレージから、第1のAVクリップデータを読み出し、この第1のAVクリップデータを第2のAVサーバシステムに送信する、ようにされてもよい。この場合、他のAVサーバシステム(第2のAVサーバシステム)にRAWデータの圧縮符号化データが送信されることから、他のAVサーバシステムがRAWデータの取り扱いが可能である場合、このRAWデータを用いた画像処理を行うことが可能となる。
 また、本技術の他の概念は、
 システム外部との入出力ポートとは独立した、他のAVサーバと接続するためのIP(Internet Protocol)入出力ポートを有する複数のAVサーバと、
 上記複数のAVサーバをコントロールするクライアントコントローラと、
 上記複数のAVサーバに記録されているAVクリップデータおよび上記複数のAVサーバに入力するAVクリップデータに関する情報を記憶しているマネージャと、
 上記複数のAVサーバのフレーム同期をとるフレーム同期部を備えるAVサーバシステムであって、
 上記複数のAVサーバには、少なくとも、単板カメラからハイフレームレートのRAWデータが入力される所定のAVサーバが含まれ、
 上記所定のAVサーバは、
 上記ハイフレームレートのRAWデータに圧縮符号化処理を行って第1のAVクリップデータを得、該第1のAVクリップデータをストレージに書き込む第1の処理部と、
 上記ストレージから上記第1のAVクリップデータを読み出し、該第1のAVクリップデータに圧縮復号化処理を行って上記ハイフレームレートのRAWデータを得、該ハイフレームレートのRAWデータにデモザイク処理を行ってハイフレームレートのビデオデータを得、該ハイフレームレートのビデオデータに圧縮符号化処理を行って第2のAVクリップデータを得、該第2のAVクリップデータを上記ストレージに書き込む第2の処理部と、
 上記ストレージから上記第2のAVクリップデータを読み出し、該第2のAVクリップデータを自身が含まれる第1のAVサーバシステムとは異なる第2のAVサーバシステムに送信する第3の処理部を有する
 AVサーバシステムにある。
 本技術におけるAVサーバシステムは、複数のAVサーバと、クライアントコントローラと、マネージャと、フレーム同期部からなる。AVサーバは、システム外部との入出力ポートとは独立した、他のAVサーバと接続するためのIP入出力ポートを有する。複数のAVサーバは、IP入出力ポートが使用され、互いに、IPネットワーク(IPスイッチ)により接続される。フレーム同期部により、複数のAVサーバのフレーム同期がとられる。
 クライアントコントローラにより、AVサーバがコントロールされる。マネージャにより、複数のAVサーバに記録されているAVクリップデータおよび複数のAVサーバに入力するAVクリップデータに関する情報が記憶されている。クライアントコントローラでは、マネージャの記憶情報に基づき各AVサーバにおけるAVクリップの内容把握が可能とされ、その把握内容に基づいてAVサーバのコントロールが行われる。
 複数のAVサーバには、少なくとも、単板カメラからハイフレームレートのRAWデータが入力される所定のAVサーバが含まれる。この所定のサーバは。第1から第3の処理部を有するものとされる。第1の処理部により、ハイフレームレートのRAWデータに圧縮符号化処理が行われて第1のAVクリップデータが得られ、この第1のAVクリップデータがストレージに書き込まれる。
 第2の処理部により、ストレージから第1のAVクリップデータが読み出され、この第1のAVクリップデータに圧縮復号化処理が行われてハイフレームレートのRAWデータが得られ、このハイフレームレートのRAWデータにデモザイク処理が行われてハイフレームレートのビデオデータが得られる。そして、この第2の処理部により、このハイフレームレートのビデオデータに圧縮符号化処理が行われて第2のAVクリップデータが得られ、この第2のAVクリップデータがストレージに書き込まれる。
 第3の処理部により、ストレージから第2のAVクリップデータが読み出され、この第2のAVクリップデータが、自身が含まれる第1のAVサーバシステムとは異なる第2のAVサーバシステムに送信される。
 このように本技術においては、複数のAVサーバがIPネットワークで接続されて構成されるものであり、IOポート数の拡張およびストレージ量の拡張が容易に可能となる。また、所定のAVサーバは、ストレージに書き込まれたRAWデータの圧縮符号化データを復号化した後にデモザイク処理をしてビデオデータを得、このビデオデータの圧縮符号化データを第2のAVサーバシステムに送信するものである。そのため、他のAVサーバシステム(第2のAVサーバシステム)では、RAWデータの取り扱いができなくても、単板カメラから入力されるハイフレームレートのRAWデータに係るビデオデータの利用が容易に可能となる。
 本技術によれば、単板カメラから入力されるハイフレームレートのRAWデータに係るビデオデータの利用を自身が含まれるAVサーバシステムとは異なる他のサーバシステムにおいて容易に可能となる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
第1の実施の形態としてのAVサーバシステムの構成例を示すブロック図である。 AVサーバの構成例を示すブロック図である。 デコーダの構成例を示すブロック図である。 AVサーバ間でデータ伝送をする場合のデータの流れを説明するための図である。 AVサーバの特殊な構成例を示すブロック図である。 プレイイリスト再生時のクリップつなぎを行なうためのAVサーバの構成例を示すブロック図である。 デコーダの他の構成例を示すブロック図である。 AVサーバの他の構成例を示すブロック図である。 AVサーバとサーバ間ネットワークを構成するIPスイッチとの接続を示す図である。 クライアントコントローラにおけるプレイリスト作成画面例を示す図である。 AVサーバのIOポートのIN/OUTを動的に変更する例を示す図である。 プレイリスト再生の一例を説明するための図である。 第2の実施の形態としてのAVサーバシステムの構成例を示す図である。 AVサーバの構成例を示すブロック図である。 単板カメラからハイフレームレートのRAWデータが入力されるAVサーバの構成例を示すブロック図である。 デコーダの構成例を示すブロック図である。 エンコーダの構成例を示すブロック図である。 バックグラウンドでAVクリップデータを外部システムの所定のAVサーバに送る動作を説明するための図である。 バックグラウンドで処理するデータの流れを説明するための図である。
 以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
 1.第1の実施の形態
 2.第2の実施の形態
 3.変形例
 <1.第1の実施の形態>
 [AVサーバシステムの構成例]
 図1は、第1の実施の形態としてのAVサーバシステム10の構成例を示している。このAVサーバシステム10は、N個(Nは複数)のAVサーバ100-1,100-2,・・・,100-Nと、M個のクライアントコントローラ200-1,200-2,・・・,200-Mと、マネージャ300と、時刻同期サーバ400を有している。なお、Mは、通常はNと同じであるが、異なっていてもよい。
 AVサーバ100-1,100-2,・・・,100-Nは、システム外部との入出力ポート(外部IO)を有すると共に、他のAVサーバと接続するためのIP(Internet Protocol)入出力ポートを有している。AVサーバ100-1,100-2,・・・,100-Nは、IP入出力ポートを利用して専用のIPネットワーク(以下、適宜、「サーバ間ネットワーク」と呼ぶ)500に接続されている。
 クライアントコントローラ200-1,200-2,・・・,200-Mは、オペレータの操作に基づき、AVサーバ100-1,100-2,・・・,100-Nをコントロールする。クライアントコントローラ200-1,200-2,・・・,200-Mは、コントローラ/サーバ間ネットワーク600を介して、それぞれ、AVサーバ100-1,100-2,・・・,100-Nに接続されている。
 クライアントコントローラ200-1,200-2,・・・,200-Mは、例えば、各AVサーバにストレージされている、あるいは入力するAVクリップデータの把握、再生要求、JOG/SHUTTLE/変速再生の操作、プレイリストの編集等の作業を行なうために使用される。
 マネージャ300は、システム全体にストレージされている、あるいは入力するAVクリップデータのデータベース管理(DB管理)、データ伝送を行なう際の帯域保証の管理、各AVサーバの利用状況の管理を行なう。このマネージャ300は、コントローラ/サーバ間ネットワーク600を介して、AVサーバ100-1,100-2,・・・,100-N、クライアントコントローラ200-1,200-2,・・・,200-Mに接続されている。
 時刻同期サーバ400は、コントローラ/サーバ間ネットワーク600を介して、AVサーバ100-1,100-2,・・・,100-N、クライアントコントローラ200-1,200-2,・・・,200-Mに接続されている。また、時刻同期サーバ400は、サーバ間ネットワーク500を介して、AVサーバ100-1,100-2,・・・,100-Nに接続されている。
 時刻同期サーバ400は、IEEE1588、あるいは特開2010-190653号公報、特開2010-197320号公報によるマスターとして動作することで、AVサーバ100-1,100-2,・・・,100-Nの時刻を所定の誤差範囲内で同期させる。この意味で、時刻同期サーバ400は、各AVサーバのフレーム同期をとるフレーム同期部を構成している。
 なお、各AVサーバが設置されている場所に供給されているハウスシンクを用いても各AVサーバのフレーム同期をとることができる。ハウスシンクとは、放送局等の至るところに供給されている、局内の機器をフレーム同期させるためのフレーム信号のことである。
 また、時刻同期サーバ400は、定期的に行なうノード間伝送遅延測定によって、任意のノード間の伝送遅延量を測定する。JOG/SHUTTLEのレスポンスを考慮するならば、ノード間伝送遅延量は1フレーム以下に抑えられるのが望ましい。また、ノード間伝送遅延量が1フレーム以下に抑えられていることが前提でシステムが組まれるならば、時刻同期サーバ400によるノード間データ伝送遅延量測定は必要ない。また、このようにノード間データ伝送遅延量測定が必要なく、加えて各AVサーバのフレーム同期がハウスシンクの入力によりとられるならば、時刻同期サーバ400は必要なくなる。
 AVサーバ100-1,100-2,・・・,100-Nが接続されているサーバ間ネットワーク500では主にデータ伝送が行われ、AVサーバ100-1,100-2,・・・,100-N、クライアントコントローラ200-1,200-2,・・・,200-Mおよびマネージャ300が接続されているコントローラ/サーバ間ネットワーク600ではコマンド伝送、各AVサーバにストレージされている、あるいは入力するAVクリップデータの情報伝送などが行われる。
 図2は、AVサーバ100-1,100-2,・・・,100-Nとして使用し得るAVサーバ100の構成例を示している。このAVサーバ100は、AVサーバシステム10の外部に対する入出力IO(外部IO)を備えている。図示の例では、外部IOとしてSDI入出力のみを示しているが、IP入出力、HDMI入出力、あるいはその他の種々のIOが併存していても構わない。なお、「HDMI」は登録商標である。
 また、AVサーバ100は、システムコントローラ101と、エンコーダ102と、ストレージ103と、デコーダ104と、IP出力部105と、IP入力部106を有している。システムコントローラ101は、AVサーバ100の各部の動作を制御する。このシステムコントローラ101は、コントローラ/サーバ間ネットワーク600に接続される。
 IP出力部105は、サーバ間ネットワーク500に接続するためのIP出力ポートを構成する。IP入力部106は、サーバ間ネットワーク500に接続するためのIP入力ポートを構成する。エンコーダ102は、外部IOに入力されるAVクリップデータに所定のコーデック(Codec)によるエンコード処理を施して圧縮AVクリップデータを生成する。ストレージ103は、エンコーダ102で得られた圧縮AVクリップデータを格納する。デコーダ104は、ストレージ103から読み出された、あるいは他のAVサーバからIP入力部106に入力された圧縮AVクリップデータにデコード処理を施して非圧縮のAVクリップデータを生成して、外部IOに出力する。
 図3は、デコーダ104の構成例を示している。デコーダ104は、種々のコーデックのデコードが可能なように、H.264デコーダ、H.262デコーダなど、複数種類のデコーダを備えている。なお、単板カメラで撮像して得られたRAWデータが圧縮された圧縮RAWデータのデコードも可能とされている。デマルチプレクサとマルチプレクサにより、利用デコーダが選択される。圧縮RAWデータのデコードに当たっては、デコード後のデータにデモザイク処理が施されて、通常のビデオデータのデコーダ出力とされる。なお、デモザイク処理時には、圧縮RAWデータに付加されているペイント情報によって、ガンマ補正、ホワイトバランス調整等の処理が行われる。なお、詳細説明は省略するが、エンコーダ102も、デコーダ104と同様に、複数種類のエンコーダを備えている。
 単体動作について説明する。外部IOに入力されたAVクリップデータはエンコーダ102に供給される。エンコーダ102では、AVクリップデータにエンコード処理が施されて圧縮され、圧縮AVクリップデータが生成される。この圧縮AVクリップデータはストレージ103に格納される。
 また、ストレージ103に格納されている圧縮AVクリップデータは、再生要求に従って、ストレージ103から読み出されて、デコーダ104に供給される。デコーダ104では圧縮AVクリップデータにコーデックに応じたデコード処理が施されて伸長され、AVクリップデータが生成される。このAVクリップデータは外部IOから出力される。JOG/SHUTTLEでは、60Pのシステムであれば、1秒当たり60フレームのAVクリップデータが、例えばストレージ103からの読み出し時に、命令された速度に応じて間引き等の処理を加えられて、外部IOから出力される。
 他のAVサーバとの間の動作(ファイル共有動作)について説明する。ストレージ103に格納されている圧縮AVクリップデータは、他のAVサーバからの再生要求に従って、ストレージ103から読み出され、IP出力部(IP出力ポート)105からサーバ間ネットワーク500に出力されて、他のAVサーバに伝送される。JOG/SHUTTLEでは、60Pのシステムであれば、1秒当たり60フレームのAVクリップデータが、ストレージ103からの読み出し時に、命令された速度に応じて間引き等の処理を加えられて、他のAVサーバに伝送される。
 また、他のAVサーバからサーバ間ネットワーク500を介してIP入力部(IP入力ポート)106に入力された圧縮AVクリップデータは、デコーダ104に供給される。JOG/SHUTTLEでは、60Pのシステムであれば、1秒当たり60フレームのAVクリップデータが、他のAVサーバから命令した速度に応じて間引き等の処理が加えられて、伝送されてくる。デコーダ104では圧縮AVクリップデータにコーデックに応じたデコード処理が施されて伸長され、AVクリップデータが生成される。このAVクリップデータは外部IOに出力される。
 図4は、“B”のAVサーバ100から“A”のAVサーバ100にデータ伝送をする場合のデータの流れを破線で示している。なお、図2に示すAVサーバ100の構成例では示していないが、実際には、エンコーダ102の前段およびデコーダ104の後段、つまり外部IOとエンコーダ102、デコーダ104との間には、フレームバッファ107が存在する。また、ストレージ103とエンコーダ102、デコーダ104との間には、バンク108が存在する。また、フレームバッファ107の後段には、AVクリップデータを所定のインタフェース形式で出力するための出力インタフェース、図示の例ではSDIフォーマッタ109が存在する。
 単体動作では、“A”, “B”のいずれのAVサーバ100も以下のような動作となる。格納時には、SDIinにAVクリップデータが入力され、フレームバッファ107を経由してエンコーダ102で圧縮され、バンク108を経由してストレージ103に格納される。再生時には、ストレージ103からバンク108に読み出され、デコーダ104で伸長された後、フレームバッファ107を経由して、SDIoutに出力される。なお、急ぎのリプレイ動作は、バンク108で折り返えされ、あるいはフレームバッファ107で折り返えされ、いわゆる“撮って出し”が行われる。
 ファイル共有再生時には、“B”のAVサーバ100のストレージ103から読み出された圧縮AVクリップデータはバンク108に読み出され、IP出力部(IP出力ポート)105を通じてサーバ間ネットワーク(IPスイッチ)500に出力される。そして、サーバ間ネットワーク(IPスイッチ)500から“A”のAVサーバ100のIP入力部(IP入力ポート)105に入力され、デコーダ104で伸長された後、フレームバッファ107を経由して、SDIoutに出力される。上述の単体動作の再生時とは、途中にサーバ間ネットワーク500が介在されるだけで、他が変わらない。従って、JOG/SHUTTLE/変速再生も基本的に動作は単体動作と変わらず、違いは途中にサーバ間ネットワーク500が介在されるだけである。
 ファイル共有再生では、AVクリップデータは、a,b,cという順の経路を通る。aとcの伝送遅延量が予め決まった値であるのに対し、bの伝送遅延量はサーバ間ネットワーク500の構成や“A”と“B”のAVサーバ100との間のネットワーク上の距離、場合によっては、サーバ間ネットワーク上のトラフィックで、異なる値になる。
 時刻同期サーバ400が定期的に各ノード間の伝送遅延量を測ることで、所定の時刻に出力するためには、どれだけ前にストレージ103から圧縮クリップデータの読みだしを開始しなければならないか、場合によっては、所定の時刻に出力できない、ということを知ることができる。なお、上述したように、予め各ノード間の伝送遅延量が所定の値、例えば1フレーム以内に必ず収まる様なシステム構成であるならば、時刻同期サーバ400による伝送遅延量測定は必要ない。
 このように、任意のノード間に跨るファイル共有再生に関するデータ伝送遅延は予め決まっているAVサーバ100内のa,cの経路の伝送遅延量と、時刻同期サーバ400によって測られる経路bの伝送遅延量とで決まり、正しい時刻にシステム外部にAVクリップデータを出力させるためのストレージ103からの読みだし時刻が定まる。
 AVサーバ100は、種々の画枠、種々のコーデックをサポートしている。この実施の形態において、経路cの伝送遅延量は、サポートする全ての画枠、コーデックについて、一定値とされる。例えば、デコーダ104は、デコーダ入力からデコーダ出力までの遅延時間(図3参照)が全てのコーデックに関して一定となるように構成される。この場合、短時間でデコード処理が終ってしまうコーデックの場合に、出力を遅らせることで実現される。
 また、AVサーバ100のストレージ103に格納されている圧縮AVクリップデータではなく、現在ストレージに記録中の圧縮AVクリップデータを、ファイル共有によって、他のAVサーバから出力させたい場合のデータ経路は、図4の“B”のAVサーバ100において、SDIin→フレームバッファ107→エンコーダ102→バンク108→IP出力部(IP出力ポート)105→サーバ間ネットワーク(IPスイッチ)500の経路となる。
 図5は、AVサーバ100の特殊な構成例を示している。この図5において、図2と対応する部分には、同一符号を付し、適宜、その詳細説明は省略する。このAVサーバ100は、システムカメラの後段に接続するベースバンド・プロセッサ・ユニット(BPU:Baseband Processor Unit)である。BPUは、通常、単板カメラによるRAWデータをデモザイクして通常のビデオデータに変換したり、HFR(High Frame Rate)カメラによる高速撮像データをストレージして、スロー再生したりするのに使われる。なお、図示においては、システムカメラ運用時のためのリターンビデオ入力については、省略している。なお、3板カメラが接続されていれば、外部から入力されるAVクリップデータは通常のビデデータであるため、図2のAVサーバ100と同じ動作となる。
 単板カメラによるRAWデータが入力されたとき、このRAWデータにエンコーダ102でエンコード処理が施されて圧縮された後にストレージ103に圧縮AVクリップデータとして格納(記録)される。RAWデータはデモザイクしなければ通常のビデオデータとはならないので、デコーダ104では、デコード処理による伸長の他にデモザイクが行われる。この図5のBPUとしてのAVサーバ100におけるデコーダ104も、図2のAVサーバ100におけるデコーダ104と同様の構成とされている(図3参照)。
 単板カメラは、映画やドラマの撮影で使われることが多い。その場合、デモザイクと同時にカラーリング等の絵作りの専門が時間を掛けてビデオ信号化するため、必ずしもデモザイクに関するメタデータを必要としない。しかし、この実施の形態においては、自動的なデモザイクを行なうため、RAWデータの他に、適切なペイント情報(メタデータ)が必要となる。そこで、カメラから入力されたRAWデータがエンコーダ102で圧縮された後、圧縮RAWデータにペイント情報が付加されてストレージ103に格納される。なお、このペイント情報は、ガンマ補正、ホワイトバランス調整等の処理を行うための情報であり、カメラから供給される。
 ストレージ103から圧縮RAWデータが読み出される際に、それに付加されているペイント情報も同時に読み出され、単体動作では自身のデコーダ104に送られ、共有再生動作は、サーバ間ネットワーク500を介して他のAVサーバ100のデコーダ104に送られる。そして、デコーダ104では、デコード処理による伸長の他にデモザイクが行われ、さらにペイント情報に基づいてガンマ補正、ホワイトバランス調整等の処理が行われる。
 図6は、プレイイリスト再生時のクリップつなぎを行なうためのAVサーバ100の構成例を示している。この図6において、図2と対応する部分には、同一符号を付し、その詳細説明は省略する。図示の例においては、2系統のデコーダ104a,104bと、2系統のIP入力部(IP入力ポート)106a,106bと、エフェクタ110を有している。なお、この図6においては、システムコントローラ101の図示は省略している。
 プレイリスト再生とは、カット編集したりエフェクトを掛けたりする編集手順を記したプレイリストの通りに再生を行なう再生である。単純な再生を組み合わせ、外部出力を行なうAVサーバ100上で適切にスイッチング、あるいはエフェクトを掛けてAVクリップデータを切り替えることが必要となる。
 クリップつなぎでは、つなぎ前後の圧縮AVクリップデータをそれぞれ適切なタイミングで格納された所定のAVサーバ100のストレージ103から読みだし、サーバ間ネットワーク500を経由して出力ポート指定されたAVサーバ100に両者を入力し、当該AVサーバ100においてデコード後にエフェクタ110で切り替え/エフェクトを掛けることを行なう。
 図6の例では、AVクリップデータαからAVクリップデータβへの切り替えを行なう構成を示している。サーバ間ネットワーク500に対して2つのIP入力部(IP入力ポート)106a,106bが用意され、それぞれ、AVクリップデータα,βが入力されるように、サーバ間ネットワーク500の伝送が行われる。そして、AVクリップデータα,βに対して、それぞれデコーダ104a,104bでデコード処理が行われた後に、エフェクタ110で適切に切り替えが行われる。
 なお、このペイント情報としては、ホワイトバランスの設定情報、ホワイトバランスのオフセットの設定情報、ブラックの設定情報、フレア補正の設定情報、ゲインの設定情報、電子シャッターの動作条件の設定情報、スローシャッターの設定情報、アイリスの制御設定情報、スロー&クイックモーションの設定情報、フリッカー補正の設定情報、ガンマ補正の設定情報、ブラックガンマの設定情報、ニー補正の設定情報、ホワイトクリップの設定情報、ディテール調整の設定情報、アパーチャー補正の設定情報、スキンディテール補正の設定情報、マトリックス補正の設置情報、マルチマトリックス補正の設定情報、等があり、カメラから供給され、RAWデータに付加された状態でストレージ103に格納される。
 「スロー再生」
 BPU(図5のAVサーバ100参照)にHFR(High Frame Rate)カメラを接続するケースについて説明する。HFRカメラとは、通常フレームレートよりも大きなフレームレート、つまりハイフレームレートでの撮影が可能なカメラのことである。例えば、通常フレームレートが60P(1秒間に60フレームの撮影)であるとき、ハイフレームレートは120P以上である。HFRカメラで高速撮影をしたフレームデータを、通常フレームレートで読み出すことで、スロー再生が可能になる。例えば、480Pで撮影したデータを60Pのレートで読み出せば、1/8倍速という速度でのスロー再生となる。
 n×60Pで撮影したデータを、60Pで出力すれば1/n倍速でのスロー再生になるが、再生時に、連続するkフレームを加算し、その結果を1/k倍して60pで出力すれば、k/n倍速でのスロー再生になる。図7は、連続するkフレームを加算し、その結果を1/k倍する加算処理部を含めたデコーダ104の構成例を示している。この場合、撮影時のnと再生時のkとで、様々なレートでのスロー再生が可能となる。
 この加算処理を行なわずに、k枚おきに再生出力を1フレーム出力するといった間引きをすることで、k/n倍速再生を行なう方法もあり、その場合、サーバ間ネットワークの負荷は軽くなるが、連続フレームを全て送り、加算処理をした方が、再生出力の動きは滑らかとなる。
 また、HFRカメラで高速撮影をしたときには、通常フレームレートのデータも記録しておくとでデータの使い勝手が良くなる。図8は、その場合におけるAVサーバ100の構成例を示している。この図8において、図5と対応する部分には同一符号を付して示し、適宜、その詳細説明は省略する。
 単板カメラから入力されるN倍速のハイフレームレートのRAWデータにエンコーダ102でエンコード処理(圧縮符号化処理)が施されて圧縮RAWデータが得られ、この圧縮RAWデータにペイント情報が付加されて圧縮AVクリップデータ(第1のAVクリップデータ)としてストレージ103に格納(記録)される。このように単板カメラから入力されるRAWデータをデモザイク処理せずにストレージ103に記録することで、N倍速のハイフレームレートのRAWデータのストレージ103への記録をスムーズに行うことが可能となると共に、階調や色合いなどの加工の自由度を持たせることが可能となる。
 また、単板カメラから入力されるN倍速のハイフレームレートのRAWデータに対し、加算処理部117で連続するNフレームが加算され、さらにその結果が1/N倍されて、1倍速の通常フレームレートのRAWデータが得られる。この通常フレームレートのRAWデータにデモザイク部118でデモザイク処理が施されて、通常フレームレートのビデオデータ(1倍速ビデオデータ)が得られる。
 この通常フレームレートのビデオデータにエンコーダ119でエンコード処理(圧縮符号化処理)が施されて圧縮ビデオデータが得られ、この圧縮ビデオデータが圧縮AVクリップデータ(第2のAVクリップデータ)としてストレージ103に格納(記録)される。これにより、ストレージ103には、ハイフレームレートのRAWデータと共に、あたかも通常フレームレートで撮影したかのようなビデオデータも格納される。この通常フレームレートのビデオデータの使用頻度は高く、ストレージ103に予め記録しておくことで、システムに対する負荷が少なくて済む。
 スポーツ映像などでは、1倍速再生をしておいて、ある時点からスロー再生を行なう、というカットの要求が多く、それは、1倍速ビデオデータと、N倍速記録を行なったRAWデータとをある時刻で切り替えて再生する、といった、2つの圧縮AVクリップを同期的に切り替える方法で実現することができる。例えば、図6に示したAVサーバに、クリップデータαとして1倍速ビデオデータを、クリップデータβとしてN倍速RAWデータを入力し、撮影同時刻のある時刻にて切り替えることで、実現することができる。
 なお、上記で説明した圧縮1倍速ビデオデータの代わりに、連続するNフレームを加算し、その結果を1/N倍した1倍速RAWデータ作成し、それを圧縮したデータをペイント情報とともにストレージ103に格納し、それを利用することも考えられる。
 図9は、AVサーバ100とサーバ間ネットワーク500を構成するIPスイッチとの接続を示す。図示の例では、1つのAVサーバ100がサーバ間ネットワーク500に4つのIOポートで接続され、入力と出力がそれぞれ2つずつという設定とされている。また、図示の例では、システム外部に対する入出力IOも合計4つ、入力、出力がそれぞれ2つという構成とされている。
 ここで、AVサーバ100は、1つのIP出力ポートから、所定数のフレーム周期で予め決められたフレーム分、この実施の形態においては、1フレーム周期で1フレーム分の圧縮AVクリップデータを出力する。また、AVサーバ100は、1つのIP入力ポートに、所定数のフレーム周期で入力された圧縮AVクリップデータを予め決められたフレーム分の圧縮AVクリップデータとして処理する、この実施の形態においては、1フレーム周期で入力された圧縮AVクリップデータを1フレーム分の圧縮AVクリップデータとして処理する。これにより、AVサーバシステム10のサーバ間ネットワーク500における帯域管理がし易くなり、実装が容易となる。
 この場合、AVサーバ100は、フレーム開始時点から1フレーム以下の期間、例えば0.5フレームの期間で入力された圧縮AVクリップデータを1フレーム分の圧縮AVクリップデータとして処理する。これにより、JOG/SHUTTLEのレスポンスを高めることが可能となる。なお、この場合、期間を短くするほどレスポンスを高めることが可能となるが、その分だけIPケットの未受信の個数が増加する。IPケットの未受信のために不足する圧縮AVクリップデータは、前方誤り訂正(FEC:Forward Error Correction)処理により再現される。
 「サーバ間ネットワークの帯域保証」
 次に、サーバ間ネットワーク500の帯域保証に関する説明をする。図1に示すAVサーバシステム10において、あるオペレータがクライアントコントローラ200(200-1,200-2,・・・,200-M)を操作して、対応するAVサーバ100(100-1,100-2,・・・,100-N)からシステム外部にAVクリップデータを出力させることを考える。
 マネージャ300は全てのAVサーバ100に格納されているAVクリップデータに関する情報のデータベースを持っている。この情報には、例えば、ストレージID(Storage ID)、クリップID(Clip ID)、クリップネーム(Clip Name)、スタートタイムコード(Start Time Code)、デュレーション(Duration)、ビデオフォーマット/コーデック(Video Format/Codec)、キーワード(Keyword)などが含まれている。
 マネージャ300のデータベースは、クライアントコントローラ200からのコマンドに基づいて内容が更新されていく。クライアントコントローラ200は、マネージャ300と同様のデータベースを持っている。マネージャ300は、自身のデータベースが更新される毎に、更新データをクライアントコントローラ200に配信する、これにより、クライアントコントローラ200におけるデータベースも更新される。
 オペレータはクライアントコントローラ200に接続された図示しないモニタの画面で、データベースの内容を把握し、キーボード、マウス、あるいはJOGダイヤル等でコマンドを入力する。この場合、モニタ画面に表示された複数のクリップからあるクリップが選択されると、そのクリップの中の特徴的な場面について付けられた名称のリストが表示される。さらに、その名称のリストからある名称が選択されると、その場面に対応するサムネイルが表示される。
 オペレータは、モニタ画面の表示を参照して、どのAVクリップのどこからどこまでを、AVサーバ100のどの出力ポートに、どの時刻に出力するかという再生要求を、クライアントコントローラ200に入力する。ここでの時刻は、AVサーバシステム10に動作規定されているフレームレートによるタイムコードを基軸とする。
 クライアントコントローラ200に入力された再生要求は、マネージャ300に伝えられる。マネージャ300は、再生要求を実行するための予定を組む。すなわち、マネージャ300は、AVクリップデータを格納しているAVサーバ100内のデバイスの利用予定、サーバ間ネットワーク500の帯域利用予定、出力ポートのあるAVサーバ100内のデバイスの利用予定を、要求された時刻に指定された出力ポートに再生出力を出せるように割り付ける。ここで、帯域利用予定やデバイス利用予定を、以下、適宜、「帯域予約」、「デバイス予約」呼ぶ。
 マネージャ300は、上述のように組んだ予約の利用可能性を確認する。すなわち、マネージャ300は、上述のように組んだ予定に基づいて、AVサーバ100に関しては必要なデバイスが利用できるかどうか、サーバ間ネットワーク500に関しては帯域の保証ができるかどうかを確認する。
 サーバ間ネットワーク500の帯域は、通常は、ネットワークを形成するIPスイッチの能力によって決まる。マネージャ300は、帯域保証の確認においては、再生要求で使う帯域分が、再生要求で必要とするサーバ間ネットワーク500上のデータ伝送期間中の全ての瞬間に亘ってあるかどうかを確認する。すなわち、マネージャ300は、今回の再生要求よりも以前に予定された、今回のデータ伝送期間中のサーバ間ネットワーク500の帯域消費分の残りから、今回の使用帯域分を引いて、所定の帯域量が残るかどうか、を確認する。
 サーバ間ネットワーク500とコントローラ/サーバ間ネットワーク600をV-LANとせずに統合した場合には、コントローラ/サーバ間ネットワーク600の通信に使う帯域分を減じておくことが必要と思われる。しかし、コントローラ/サーバ間ネットワーク600の通信のデータ量は、圧縮AVクリップデータのデータ量に比べて非常に小さく、無視することも考えられる。
 また、マネージャ300は、デバイス利用可能性の確認においても、帯域保証の確認と同様に行う。すなわち、マネージャ300は、今回の再生要求に係るデバイスが、データ伝送期間中の全ての瞬間に亘って利用可能かどうかを確認する。ここで、デバイスとは、サーバ間ネットワークIO、システム外部IO、デコーダ等を意味する。
 マネージャ300は、以前からの予約の存在の上で、今回の予約の利用可能性があることを確認したとき、その予約に従って、再生対象のAVクリップの格納元のAVサーバ100に、外部出力ポートに指定されたAVサーバ100へのデータ転送を行なうようにコマンドを送る。これにより、再生対象のAVクリップの格納元のAVサーバ100から外部出力ポートに指定されたAVサーバ100へのデータ伝送が開始される。
 また、マネージャ300は、以前からの予約の存在の上で、今回の予約の利用可能性がないことを確認したとき、クライアントコントローラ200を通じて、オペレータに再生要求の拒否を通知する。
 なお、上述では、クライアントコントローラ200からの再生要求に対して、マネージャ300が予定を組み、その予定の利用可能性を確認し、その予定に従ってAVサーバ100にコマンドを送る旨を説明した。しかし、クライアントコントローラ200は、上述したようにマネージャ300と同様に随時更新されるデータベースを持っているので、再生要求に対して予定を組むこと、その予定の利用可能性を確認することを自身で行うことも考えられる。
 その場合には、例えば、クライアントコントローラ200は、利用可能性が最終的に確認された予定を、マネージャ300を通じて外部出力ポートに指定されたAVサーバ100に送る。そして、このAVサーバ100が、その予約に従って、再生対象のAVクリップの格納元のAVサーバ100に、外部出力ポートに指定されたAVサーバ100へのデータ転送を行なうようにコマンドを送る。これにより、再生対象のAVクリップの格納元のAVサーバ100から外部出力ポートに指定されたAVサーバ100へのデータ伝送が開始される。
 再生対象のAVクリップの格納元のAVサーバ100から外部出力ポートに指定されたAVサーバ100へのデータ伝送において、場合によってはデータパケットをロストすることが考えられる。そうした場合、再送要求で対処しようとすると、設定された帯域予約やデバイス予約を崩すことになる。
 予約通りに進めようとすると、来るはずのデータを伝送先サーバは受け取れないことになる。その場合に備え、この実施の形態では、AVサーバ100間のデータ伝送に関し、前方誤り訂正(Forward Error Correction)を行うこととし、伝送データには十分な冗長性を持たせ、受け取ることができたデータから、受け取れなかった部分を再現する機能を持たせる。
 図2、図4、図5、図6、図8におけるIP出力部(IP出力ポート)105は前方誤り訂正のための冗長性を持たせる機能を持ち、IP入力部(IP入力ポート)106、106a,106bは伝送されたデータに足りない部分があった場合に前方誤り訂正によって再現させる機能を持つ。
 「プレイリスト作成」
 図10は、クライアントコントローラ200におけるプレイリスト作成画面例を示す。オペレータは、モニタ画面に表示されるクリップ情報に基づき、プレイリスト作成画面を使って
プレイリストを作成する。再生時刻を示すタイムラインに沿って、再生したいクリップを選んで、クリップ名称を入力し、そのクリップの開始したい時刻のタイムコードを再生したいタイムコードに指定すると、開始時点での画面サムネイルが現れ、終了したいタイムコードを指定すると、終了時点での画面サムネイルと、再生期間を示す表示がタイムライン上に、現れる。
 例えば、図示の例において、クリップ名称Aのクリップに関して、示のように、“A”と書かれた長方形と、開始サムネイル、終了サムネイルが表示されている。図示の例においては、クリップ名称Aのクリップの指定に続き、クリップ名称Bのクリップ、クリップ名称Cのクリップ、クリップ名称Bのクリップが指定された場合の例を示している。なお、二度目のクリップ名称Bのクリップの指定に対応した長方形には、“B´”と書いている。図示の例は、A→B→C→B‘と再生が続くことがプレイリストとして定義されたものである。
 クリップに時間的な重なりがある部分は、画面の切り替わりにエフェクトがあることを示しており、エフェクト名を指定することで、エフェクトが選択される(図中では、エフェクト名称1,3で示されている)。一方、クリップに時間的な重なりがなければ、単純なシーンチェンジということである(図中では、エフェクト名称2として示している)。
 クライアントコントローラ200では、このようにしてプレイリストが定義され、その再生がマネージャ300に対して要求される。要求を受けたマネージャ300は、プレイリストに沿って、帯域予約とデバイス予約を行うと共に、その利用可能性を確認する。なお、このように作成されたプレイリストに対して、マネージャ300ではなく、クライアントコントローラ200自身が帯域予約とデバイス予約を行うと共に、その利用可能性を確認することも考えられる。
 「入出力ポートの向きの変更」
 図11は、利用デバイスとしてサーバ間ネットワーク500とのIOポートが足りなかった場合に、可能であれば、動的にIN/OUTを逆に設定してデバイスを利用可能とする例を示している。例えば、初期状態に於いて、3個のAVサーバ100-1,100-2,AVサーバ100-3のそれぞれのサーバ間ネットワーク500とのIOポートは入力2個、出力2個であったとする。
 今回の再生要求が、AVサーバ100-1に格納されているAVクリップデータをAVサーバ100-2から外部出力するという要求であって、その再生期間中には、既にAVサーバ100-1から   の2つのサーバ間ネットワーク出力ポートと、AVサーバ100-2への2つのサーバ間ネットワーク入力ポートが予約されてしまっていた、とする。
 この場合、AVサーバ100-1へのサーバ間ネットワーク入力ポートが1個、AVサーバ100-2からのサーバ間ネットワーク出力ポートが1個、再生要求期間に亘って予約されていなかったならば、例えば、マネージャ300は、図示のように、それぞれのポートを逆向きに設定して、再生要求を実行可能とする。
 因みに、システム外部とのIOポートを逆転することも考えられる。例えば、図示の例においては、初期状態に於いて、システム外部とのIOポートはそれぞれ入力2個、出力2個であるのを、AVサーバ100-2の入力ポートを1個出力ポートに変えている。
 なお、システムが稼働中でなく、初期状態で入出力ポートを任意の組み合わせにすることも可能である。
 「プレイリスト再生」
 プレイリスト再生は、その再生要求自体が、複数再生要求の予約になっている、ということになる。加えて、フレーム切れ目によるシーンチェンジ、あるいはエフェクトを伴うシーンチェンジ等の特殊動作のためのスケジューリングをマネージャ300は行なうことになる。ここで、特殊な再生要求としては、終了時刻(終了フレーム)を定めない再生要求が考えられる。
 この場合における帯域予約、デバイス予約は、再生終了命令が来るまで、延々と帯域なりデバイスなりを使い続けることを前提に、帯域とデバイスの予定を考慮して再生可能性を判断し、再生が開始されたならば、再生終了命令が来るまで、帯域もデバイスも予約し続けることになる。このことは、JOGやSHUTTLE等の、オペレータの時間的に任意な命令を伴う再生要求であっても同じである。
 図12は、プレイリスト再生の一例を示している。AVサーバ100-1のストレージに格納されているAVクリップ[α]を時刻t2から時刻t4までAVサーバ100-3に出力し、時刻t4でAVサーバ100-2のストレージに格納されているAVクリップ[β]に切り替えて時刻t7まで出力する、というプレイリストに関しては、例えば、以下のデバイス予約、帯域予約が行われる。
 すなわち、デバイス予約に関しては、
   AVサーバ100-1のサーバ間ネットワーク出力ポートをt1からt5まで、
   AVサーバ100-2のサーバ間ネットワーク出力ポートをt3t3からt7まで、
   AVサーバ100-3のサーバ間ネットワーク出力ポートの1個をt1からt5まで、
   AVサーバ100-3のサーバ間ネットワーク出力ポートの1個をt3からt7まで、
   AVサーバ100-3の外部への出力ポートをt2からt7まで、
   (その他、サーバ内部の必要なデコーダ等)
を予約する。
 また、帯域予約に関しては、
   AVクリップ[α]、AVクリップ[β]のそれぞれの圧縮データを送るためのサーバ間ネットワーク500の帯域を相応の時間帯で予約する。
 このような予約が行われて実行されれば、t7までで、全てのデバイスと帯域を開放できる。しかし、このプレイリストに沿っての再生に関して、JOGとかSHUTTLEを任意に行なうならば、上記したデバイスや帯域の予約は延々続けなければならない。なぜならば、伝送の経路と、AVクリップの切り替えのデータ位置は決まっているが、再生箇所や再生終了については何も決まっていないからである。
 例えば、図12の下部に記載されるように、SHUTTLEで飛ばして、JOGで細かく動いて、またSHUTTLEで戻す、などの任意な動きを許すには、デバイスも帯域もいつまでも必要であるからである。
 上述したように、図1に示すAVサーバシステム10においては、複数のAVサーバ100がIPネットワークで接続されて構成されるものであり、IOポート数の拡張およびストレージ量の拡張が容易に可能となる。また、AVサーバ100同士のサーバ間ネットワーク500を汎用的なIPスイッチで構成でき、AV系製品に特化したものではないため、将来的に入手が容易であるばかりでなく、高性能化も見込め、より高度な再生要求に応えられる可能性がある接続が可能となる。
 <2.第2の実施の形態>
 [AVサーバシステムの構成例]
 図13は、第2の実施の形態としてのAVサーバシステム10Aの構成例を示している。この図13において、図1と対応する部分には同一符号を付し、適宜、その詳細説明は省略する。AVサーバシステム10Aは、図1に示すAVサーバシステム10と同様に、N個(Nは複数)のAVサーバ100-1,100-2,・・・,100-Nと、M個のクライアントコントローラ200-1,200-2,・・・,200-Mと、マネージャ300と、時刻同期サーバ400を有している。
 AVサーバシステム(第1のAVサーバシステム)10Aは、他のAVサーバシステム(第2のAVサーバシステム)20と接続されている。すなわち、AVサーバシステム20はシステム外ネットワーク700に接続されており、AVサーバシステム10Aのサーバ間ネットワーク500はAVサーバシステム20に接続されている。
 また、AVサーバシステム10AのAVサーバ100-1,100-2,・・・,100-Nは、サーバ間ネットワーク500に接続されている他に、システム外ネットワーク700にも接続されている。AVサーバシステム10AのAVサーバ100-1,100-2,・・・,100-Nは、図1に示すAVサーバシステム10と同様に、サーバ間ネットワーク500を通じて他のAVサーバとの間でAVクリップデータの伝送が可能とされる。
 また、AVサーバシステム10AのAVサーバ100-1,100-2,・・・,100-Nは、システム外ネットワーク700を通じて、AVサーバシステム20の各AVサーバとの間でもAVクリップデータの伝送が可能とされる。AVサーバシステム10AのAVサーバ100-1,100-2,・・・,100-NとAVサーバシステム20の各AVサーバとの間では、AVクリップデータの伝送が非同期で行われる。この場合、例えば、FTPファイル転送プロトコルによる非同期転送が行われる。
 図14は、AVサーバシステム10AのAVサーバ100-1,100-2,・・・,100-Nとして使用し得るAVサーバ100Aの構成例を示している。この図14において、図2と対応する部分には、同一符号を付し、適宜、その詳細説明は省略する。
 このAVサーバ100Aは、システムコントローラ101と、エンコーダ102と、ストレージ103と、デコーダ104と、IP出力部105と、IP入力部106と、IP出力部120と、IP入力部121を有している。システムコントローラ101は、AVサーバ100Aの各部の動作を制御する。このシステムコントローラ101は、コントローラ/サーバ間ネットワーク600に接続される。
 IP出力部120は、システム外ネットワーク700に接続するためのIP出力ポートを構成する。IP入力部121は、システム外ネットワーク700に接続するためのIP入力ポートを構成する。このIP出力部120およびIP入力部121により、AVサーバシステム20の各AVサーバとの間でAVクリップデータを非同期で伝送(送信、受信)することが行われる。
 AVサーバシステム10AのAVサーバ100-1,100-2,・・・,100-Nには、少なくとも、単板カメラからハイフレームレートのRAWデータが入力されるAVサーバ100Bも含まれている。図15は、AVサーバ100Bの構成例を示している。この図15において、図8と対応する部分には、同一符号を付し、適宜、その詳細説明は省略する。
 このAVサーバ100Bは、システムコントローラ101と、エンコーダ102Bと、ストレージ103と、デコーダ104Bと、IP出力部105と、IP入力部106と、IP出力部120と、IP入力部121を有している。また、このAVサーバ100Bは、加算処理部117と、デモザイク部118と、エンコーダ119を有している。システムコントローラ101は、AVサーバ100Bの各部の動作を制御する。このシステムコントローラ101は、コントローラ/サーバ間ネットワーク600に接続される。
 IP出力部120は、システム外ネットワーク700に接続するためのIP出力ポートを構成する。IP入力部121は、システム外ネットワーク700に接続するためのIP入力ポートを構成する。このIP出力部120およびIP入力部121により、AVサーバシステム20の各AVサーバとの間でAVクリップデータを非同期で伝送(送信、受信)することが行われる。
 加算処理部117は、単板カメラから入力されるN倍速のハイフレームレートのRAWデータに対し、連続するNフレーム毎の加算を行うと共に、さらにその結果を1/N倍として、1倍速の通常フレームレートのRAWデータを得る。デモザイク部118は、加算処理部117で得られた通常フレームレートのRAWデータにデモザイク処理(現像処理)を施し、通常フレームレートのビデオデータ(1倍速ビデオデータ)を得る。エンコーダ119は、デモザイク部118で得られた通常フレームレートのビデオデータにエンコード処理(圧縮符号化処理)を施して通常フレームレートの圧縮ビデオデータを(1倍速圧縮ビデオデータ)得、この圧縮ビデオデータを圧縮AVクリップデータとしてストレージ103に書き込んで格納(記録)する。
 エンコーダ102Bは、単板カメラから入力されるN倍速のハイフレームレートのRAWデータにエンコード処理(圧縮符号化処理)を施して圧縮RAWビデオデータを得、この圧縮RAWデータにペイント情報を付加し、圧縮AVクリップデータとしてストレージ103に書き込んで格納(記録)する。このように単板カメラから入力されるRAWデータをデモザイク処理せずにストレージ103に記録することで、ハイフレームレートのRAWデータのストレージ103への記録をスムーズに行うことが可能となると共に、階調や色合いなどの加工の自由度を持たせることが可能となる。
 デコーダ104Bは、ストレージ103から読み出された、あるいは他のAVサーバからIP入力部106に入力された圧縮AVクリップデータにデコード処理を施して非圧縮のAVクリップデータを生成して、外部IOに出力する。
 また、デコーダ104Bは、ハイフレームレートのRAWデータに係るビデオデータを外部のAVサーバシステム20の所定のAVサーバに送信する場合、ストレージ103に上述したように書き込まれたハイフレームレートの圧縮RAWデータに対応したハイフレームレートのビデオデータ(N倍速ビデオデータ)を得、エンコーダ102Bに送る。
 この場合、デコーダ104Bは、ストレージ103から、ハイフレームレートの圧縮RAWデータを読み出し、この圧縮RAWデータにデコード処理(圧縮復号化処理)を行ってハイフレームレートのRAWデータを得、このRAWデータにデモザイク処理を行ってハイフレームレートのビデオデータを得てエンコーダ102Bに供給する。なお、デコーダ104Bは、デモザイク処理時には、圧縮RAWデータに付加されているペイント情報によって、ガンマ補正、ホワイトバランス調整等の処理をする。
 エンコーダ102Bは、ハイフレームレートのRAWデータに係るビデオデータを外部のAVサーバシステム20の所定のAVサーバに送信する場合、上述したようにデコーダ104Bから送られてくるハイフレームレートのビデオデータ(N倍速ビデオデータ)にエンコード処理(圧縮符号化処理)を施してハイフレームレートの圧縮ビデオデータを得、この圧縮ビデオデータを圧縮AVクリップデータとしてストレージ103に書き込んで格納(記録)する。
 図16は、デコーダ104Bの構成例を示している。デコーダ104Bは、種々のコーデックのデコードが可能なように、H.264デコーダ104a、H.262デコーダ104bなど、複数種類のデコーダを備えている。また、デコーダ104Bは、RAWデコーダ104cおよびデモザイク部104dを備え、N倍速のハイフレームレートの圧縮RAWデータのデコードも可能とされている。
 また、デコーダ104Bは、デモザイク部104dで得られたN倍速のハイフレームレートのビデオデータに対して、連続するkフレーム毎に加算し、その結果を1/k倍する処理を行い得る加算処理部104eを備えている。この場合、撮影時のNと再生時のkとで、様々なレートでのスロー再生が可能となる。
 デマルチプレクサ104fとマルチプレクサ104gにより、利用デコーダが選択される。ハイフレームレートのRAWデータに係るビデオデータを外部のAVサーバシステム20の所定のAVサーバに送信する場合、デコーダ104Bでは、ストレージ103から読み出されるN倍速のハイフレームレートの圧縮RAWデータ(N倍速圧縮RAWデータ)に関しては、RAWデコーダ104cおよびデモザイク部104dの経路が選択され、このモザイク部で得られたハイフレームレートのビデオデータ(N倍速ビデオデータ)がそのままエンコーダ102Bに送られる。
 図17は、エンコーダ102Bの構成例を示している。デコーダ104Bは、種々のコーデックのエンコードが可能なように、H.264エンコーダ102a、H.262エンコーダ102b、RAWエンコーダ102cなど、複数種類のデコーダを備えている。デマルチプレクサ102dとマルチプレクサ104eにより、利用エンコーダが選択される。デコーダ104Bから送られてくるハイフレームレートのビデオデータ(N倍速ビデオデータ)に関しては、H.264エンコーダ102a、H.262エンコーダ102bなどが選択され、そのエンコーダで得られたハイフレームレートの圧縮ビデオデータ(N倍速圧縮ビデオデータ)がストレージ103に送られる。
 図15に戻って、IP出力部120は、システム外ネットワーク700に接続するためのIP出力ポートを構成する。IP入力部121は、システム外ネットワーク700に接続するためのIP入力ポートを構成する。このIP出力部120およびIP入力部121により、AVサーバシステム20の各AVサーバとの間でAVクリップデータを非同期で伝送(送信、受信)することが行われる。
 ハイフレームレートのRAWデータに係るビデオデータを外部のAVサーバシステム20の所定のAVサーバに送信する場合、IP出力部120は、ストレージ103からハイフレームレートの圧縮ビデオデータ(N倍速圧縮ビデオデータ)を読み出し、システム外ネットワーク700を介して、AVサーバシステム20の所定のAVサーバに、送信する。
 図15に示すAVサーバ100Bにおいて、ハイフレームレートのRAWデータに係るビデオデータを外部のAVサーバシステム20の所定のAVサーバに送信する場合についてさらに説明する。
 図15に示すAVサーバ100Bは、ライブ運用中の迅速なスローモーションリプレイ運用をシステム外部のAVサーバシステム20の所定のAVサーバと連携可能とするため、AVサーバシステム10Aの稼働中に、ストレージ103に書き込まれたハイフレームレートの圧縮RAWデータ(N倍速圧縮RAWデータ)からイン(IN)点、アウト(OUT)点で規定される範囲を読み出して処理し、その範囲に対応した圧縮ビデオデータ(N倍速圧縮ビデオデータ)をAVサーバシステム20の所定のAVサーバに送信する動作をバックグラントで行う。
 すなわち、AVサーバ100Bは、単板カメラから入力されるハイフレームレートのRAWデータを処理してストレージ103に1倍速圧縮ビデオデータに対応した圧縮AVクリップデータやN倍速圧縮RAWデータに対応した圧縮AVクリップデータをストレージ103に書き込む処理をしながら、当該圧縮AVクリップデータをイン点、アウト点で規定される範囲で読み出し、デコーダ104Bでデコード処理、デモザイク処理をし、さらにエンコーダ102Bでエンコード処理をし、IP出力部120からAVサーバシステム20の所定のAVサーバに送信する。
 また、AVサーバ100Bは、単板カメラから入力されるハイフレームレートのRAWデータの処理中に、AVサーバシステム10A内の他のAVサーバに対して1倍速圧縮ビデオデータに対応した圧縮AVクリップデータを送信しながら、同時に、ストレージ103からN倍速圧縮RAWデータをイン点、アウト点で規定される範囲で読み出し、デコーダ104Bでデコード処理、デモザイク処理をし、さらにエンコーダ102Bでエンコード処理をし、IP出力部120からAVサーバシステム20の所定のAVサーバに送信する。
 上述のAVサーバシステム20の所定のAVサーバへのN倍速のフレームレートのRAWデータに対応した圧縮ビデオデータ(N倍速圧縮ビデオデータ)の送信と、AVサーバシステム10Aの内部のAVサーバへのスローモーションリプレイ再生要求が重なる場合もある。
 その場合、AVサーバ100Bは、上述したAVサーバシステム20の所定のAVサーバへの圧縮ビデオデータ(N倍速圧縮ビデオデータ)の送信動作に加え、ストレージ103から要求された編集点によるN倍速圧縮RAWデータの読み出しを行って、IP出力部105からAVサーバシステム10Aの内部のAVサーバに送信する。
 ここで、外部システムであるAVサーバシステム20の所定のAVサーバへのリプレイ再生要求の編集点とAVサーバシステム10Aの内部のAVサーバへのリプレイ再生要求の編集点は独立した異なるものであってもよいし、AVサーバシステム10Aの内部のAVサーバへのリプレイ再生要求と同じものを自動的に外部システムであるAVサーバシステム20へ転送するようにしてもよい。
 また、AVサーバシステム10Aの内部のAVサーバへのリプレイ再生要求と同じものを自動的にAVサーバシステム20の所定のAVサーバへ転送する場合、AVサーバシステム20の所定のAVサーバでの多少の編集が可能であるように、予め決めたフレーム数だけ、イン点、アウト点を移動させるようにしてもよい。
 スローモーションリプレイ再生要求は、AVサーバシステム10Aの内部で行われる他、外部システムであるAVサーバシステム20からも可能である。AVサーバシステム20からのリプレイ再生要求は、AVサーバシステム10A内のクライアントコントローラに対して行われる。この場合、AVサーバシステム20から、AVサーバシステム10A内のクライアントコントローラに対して編集点指定と転送先AVサーバの指定が行われ、当該クライアントコントローラがシステム内での指定を行うことで、AVサーバシステム20からのリプレイ再生要求が可能となる。
 図18を参照して、AVサーバ100-2(図15に示すAVサーバ100Bに対応)がAVサーバ100-1(図14に示すAVサーバ100Aに対応)とファイル共有をしながら、バックグラウンドでAVクリップデータを、外部システムであるAVサーバシステム20の所定のAVサーバに送る動作を説明する。
 AVサーバ100-1にはSDI入出力から様々なAVクリップデータが入力され、エンコーダ102-1で圧縮されてストレージ103-1に記録され、記録された圧縮AVクリップデータに関する情報がマネージャ300に送られる。システム外ネットワーク700からもFTPの様な非同期転送で圧縮AVクリップデータが送られ、ストレージ103-1に記録され、記録された圧縮AVクリップデータに関する情報がマネージャ300に送られる。
 AVサーバ100-2では、ハイフレームレート(HFR)カメラから高速度撮影されたハイフレームレートのRAWデータが入力され、エンコーダ102-2で圧縮され、RAWデータに対応した圧縮AVクリップデータとしてストレージ103-2に記録され、記録された圧縮AVクリップデータに関する情報がマネージャ300に送られる。システム外ネットワーク700からもFTPの様な非同期転送で圧縮AVクリップデータが送られ、ストレージ103-2に記録され、記録された圧縮AVクリップデータに関する情報がマネージャ300に送られる。
 スローモーションオペレータ130-2は、HFRカメラが撮影した圧縮AVクリップデータから、スローモーションリプレイするためのAVクリップを決める。すなわち、ストレージ103-2に記録されているある圧縮AVクリップデータを指定し、そのAVクリップデータのある部分の始まりと終わりを示すイン点とアウト点を決めていく。それらの情報はマネージャ300に送られる。
 プレイリストオペレータ130-2は、AVサーバ100-1のSDI入出力からの出力のプレイリストを作成する。この例ではスローモーションオペレータ130-2はスローモーションリプレイのAVクリップデータを設定することに専念し、プレイリストオペレータ130-1はAVサーバ100-1,100-2のストレージ103-1,103-2に記録されているAVクリップデータの情報をマネージャ300から受け、プレイリストを作成し、AVサーバ100-1のSDI入出力から出力させる。
 プレイリストの素材クリップは、すでに103-1,103-2にあるものであるが、この例ではHFRカメラからのHFR撮影によるクリップが時々刻々ストレージ103-2に追加される。
 HFRカメラからはエンコーダ102-2へハイフレームレートのRAWデータが入力される。入力されたハイフレームレートのRAWデータは、エンコーダ102-2内のRAWエンコーダで圧縮され、ストレージ103-2に圧縮RAWデータに対応した圧縮AVクリップデータとして記録されていく。
 それと同時に、HFRカメラからのハイフレームレートのRAWデータは、加算処理部117-2にも入力され、1倍速のRAWデータに加算変換され、デモザイク部118-2でベースバンドのビデオデータに現像され、エンコーダ119-2で改めて圧縮されて、通常フレームレートの圧縮ビデオデータ(1倍速圧縮ビデオ)に対応した圧縮AVクリップデータとしてストレージ103-2に記録される。ここで、1倍速への加算変換とは、例えばN倍速のハイフレームレート撮影によるRAWデータであるならば、連続するNフレーム毎のデータを加算し、Nで割って1倍速に変換することを指す。Nフレーム毎に、1フレームだけ残す間引き処理で1倍速にしても構わない。
 例えば、スポーツ中継であれば、いくつものカメラがゲームを様々な位置から撮影をしている。図18では、ひとつのAVサーバ100-2に1台のカメラしか接続していないが、AVサーバが複数の入力を備えていれば、複数のカメラを接続可能であるし、AVサーバシステム10Aでは複数のAVサーバを接続可能であるので、多数のカメラをAVサーバシステム10Aに接続が可能である。AVサーバ100-1は1倍速のカメラしか対応していないので、ストレージ103-1には1倍速の圧縮AVクリップデータが記録され、AVサーバ100-2はHFRのカメラに対応しているので、HFRのRAWデータに対応した圧縮AVクリップデータと1倍速のRAWデータに対応した圧縮クリップデータをストレージ103-2に記録していく。
 プレイリストオペレータ130-1は、プレイリストを様々な位置から撮影した1倍速クリップをつないで作成していき、要所要所で、スローモーションオペレータ130-2が設定したHFRのRAWデータに対応した圧縮AVクリップデータをプレイリストに挿入して、スローモーションリプレイをSDI入出力から出力させるプレイリストを作成していく。
 この操作は、リアルタイムに実行可能である。上述の図10に示すプレイリスト作成画面でプレイリストを作成しながら、そのプレイリストを実行させてしまうのである。図10ではABCB´とクリップがつなげられているが、このプレイリストでSDI出力させつつ、B´から先のプレイリストを設定していけばよい。
 例えば、図10のクリップAはHFRカメラによる1倍速映像とする。ファイル共有動作によって、撮影から数フレームの遅れでAVサーバ100-1のSDI入出力から出力される状態が続いているとする。そこで、スローモーションオペレータ130-2が設定したHFR撮影によるAVクリップBを選んでプレイリストに加え、別の1倍速カメラからのAVクリップCをAVクリップBが終了する前にプレイリストに加えてしまえば、ファイル共有動作分の数フレームの遅れでリアルタイムの映像を出力しつつ、途中にスローモーション映像を挿入することができる。
 スローモーションオペレータ130-2がリプレイのためのAVクリップBを設定するやいなや、その情報はマネージャ300を介してプレイリストオペレータ130-1が操作するクライアントコントローラ200-1に反映され、プレイリストオペレータ130-1はAVクリップBを利用可能となる。
 この様に次々と作成されるAVクリップを、即座に外部システムである他のAVサーバシステム20にも利用可能とするために、AVサーバシステム10AのAVサーバのストレージに記録されていく圧縮AVクリップのAVサーバシステム20の所定のAVサーバへの転送動作を、上述のAVサーバシステム10Aのシステム内の動作のバックグラウンドで実行させる必要がある。
 ビデオデータに対応した圧縮AVクリップデータであれば、例えば、AVサーバ100-2のストレージ103-2に記録されている圧縮AVクリップデータを、システム外ネットワーク700に接続されているIP出力部120-2からAVサーバシステム20の所定のAVサーバにFTP転送すればよい。
 RAWデータは、一般に、カメラ毎に異なるフォーマットである。そのため、必ずしも他のAVサーバシステムでデモザイクが可能とは限らない。そこで、ストレージ103-2→デコーダ104-2→エンコーダ102-2の経路が必要となる。
 図19を参照して、バックグラウンドで処理するデータの流れを説明する。この図19は、図18のAVサーバ100-2のデータ経路のみ、エンコーダ102-2とデコーダ104-2とを、それぞれ、図17と図16で置き換えて詳しく描いたものであり、ファイル共有動作のデータ転送のバックグラウンドでシステム外へデータ転送が可能であることを示したものである。
 以下、図19を説明する。ストレージ103-2内に記録されている通常ビデオに対応する圧縮AVクリップデータは、1倍速データであろうと、ハイフレームレートデータであろうと、ベースバンドビデオに対する一般的な圧縮方式によるものである限り、そのままFTPで他のAVサーバシステムに転送しても問題にはならない。ここでは、AVサーバ100-2への入力がRAWデータである場合についてのみ説明する。ちなみに、AVサーバ100-2はカメラからの入力がRAWデータではない通常のビデオであっても対応可能である。
 HFRカメラからのRAWデータ入力は、エンコーダ102-2内のRAWエンコーダによって、ハイフレームレートのRAWデータに対応した圧縮AVクリップデータとしてストレージ103-2に記録される(経路α)。同時に加算処理部117-2、デモザイク部118-2、エンコーダ(ベースバンドビデオエンコーダ)119-2によって、1倍速の通常のビデオデータに対応した圧縮AVクリップデータとしてもストレージ103-2に記録され(経路β)、どちらもファイル共有のための転送には、そのままの形で、サーバ間ネットワーク500を経由して、AVサーバシステム10A内の他のAVサーバに転送される。
 この動作を実行しながら、HFR、あるいは1倍速のRAWデータに対応した圧縮AVクリップデータは、デコーダ104-2のRAWデコーダで解凍され、デモザイク部でベースバンドビデオデータに現像され、エンコーダ102-2のエンコーダ(ベースバンドビデオエンコーダ)で通常のビデオデータに対応した圧縮AVクリップデータに変換された後に、システム外ネットワーク700で他のシステムへFTP転送される(経路γ)。経路α、経路β、経路γは重ならないので、経路γの処理はバックグラウンドで動作可能である。
 上述したように、図13に示すAVサーバシステム10Aにおいては、複数のAVサーバ100がIPネットワークで接続されて構成されるものであり、IOポート数の拡張およびストレージ量の拡張が容易に可能となる。また、AVサーバ100同士のサーバ間ネットワーク500を汎用的なIPスイッチで構成でき、AV系製品に特化したものではないため、将来的に入手が容易であるばかりでなく、高性能化も見込め、より高度な再生要求に応えられる可能性がある接続が可能となる。
 また、図13に示すAVサーバシステム10Aにおいては、AVサーバ100B(図15参照)は、ストレージ103に書き込まれたRAWデータの圧縮符号化データを復号化した後にデモザイク処理をしてビデオデータを得、このビデオデータの圧縮符号化データを、外部システムとしてのAVサーバシステム20に送信する。そのため、AVサーバシステム20では、RAWデータの取り扱いができなくても、単板カメラから入力されるハイフレームレートのRAWデータに係るビデオデータの利用が容易に可能となる。
 なお、上述では、AVサーバ100B(図15参照)から外部システムとしてAVサーバシステム20には、ストレージ103からRAWデータに対応した圧縮ビデオデータを読み出して送信する例を示した。しかし、選択的に、ストレージ103から圧縮RAWデータを読み出し、当該圧縮RAWデータを外部システムとしてAVサーバシステム20に送信することも可能である。この場合、AVサーバシステム20にRAWデータの圧縮符号化データが送信されることから、このAVサーバシステム20がRAWデータの取り扱いが可能である場合、このRAWデータを用いた画像処理を行うことが可能となる。
 <3.変形例>
 なお、上述実施の形態においては、サーバ間ネットワーク500とコントローラ/サーバ間ネットワーク600が独立している例を示したが、V-LANを形成して、物理的には同じIPネットワークであっても構わない。また、システム外部のIPネットワークとも、V-LANによる独立性が保たれている限り、物理的に同じネットワークであって構わない。
 また、上述実施の形態においては、時刻同期サーバ400、マネージャ300、クライアントコントローラ200-1,200-2,・・・,200-Mがそれぞれ独立して設けられている例を示した。しかし、これらは、物理的に独立に存在する必要はなく、AVサーバ100-1,100-2,・・・,100-N上に他の機能があっても構わない。例えば、個々のAVサーバ上にクライアントコントローラ機能があってもよいし、どれかひとつのAVサーバ上にマネージャ機能があってもよいし、時刻同期サーバも同様に、どれかのAVサーバが兼ねていても構わない。
 また、上述実施の形態においては、マネージャ300が1個である例を示した。しかし、マネージャを複数個接続し、通常はそのうちの1個のみが動作し、他は予備とし、動作している1個のマネージャに送られる情報は他の予備のマネージャにも送られ、把握している情報は常に更新していくこととして、動作中のマネージャがダウンした時に、予備のマネージャのうちのひとつを新マネージャとして動作させてもよい。
 また、本技術は、以下のような構成を取ることもできる。
 (1)単板カメラから入力されるハイフレームレートのRAWデータに圧縮符号化処理を行って第1のAVクリップデータを得、該第1のAVクリップデータをストレージに書き込む第1の処理部と、
 上記ストレージから上記第1のAVクリップデータを読み出し、該第1のAVクリップデータに圧縮復号化処理を行って上記ハイフレームレートのRAWデータを得、該ハイフレームレートのRAWデータにデモザイク処理を行ってハイフレームレートのビデオデータを得、該ハイフレームレートのビデオデータに圧縮符号化処理を行って第2のAVクリップデータを得、該第2のAVクリップデータを上記ストレージに書き込む第2の処理部と、
 上記ストレージから上記第2のAVクリップデータを読み出し、該第2のAVクリップデータを、自身が含まれる第1のAVサーバシステムとは異なる第2のAVサーバシステムに送信する第3の処理部を備える
 AVサーバ。
 (2)上記第1の処理部による処理と上記第2の処理部および上記第3の処理部による処理は並行して行われる
 前記(1)に記載のAVサーバ。
 (3)上記第3の処理部は、
 上記第2のAVクリップデータを上記第2のAVサーバシステムに非同期で送信する
 前記(1)または(2)に記載のAVサーバ。
 (4)上記第2の処理部は、
 上記AVクリップデータを上記第2のAVサーバシステムにFTPファイル転送プロトコルで送信する
 前記(3)に記載のAVサーバ。
 (5)上記第2の処理部は、
 上記ストレージに書き込まれた第1のAVクリップデータからイン点およびアウト点で示される範囲を読み出して処理する
 前記(1)から(4)のいずれかに記載のAVサーバ。
 (6)上記イン点およびアウト点は、上記第1のAVサーバシステム内のクライアントコントローラから指示されるか、あるいは上記第2のAVサーバシステムから上記第1のAVサーバシステム内のクライアントコントローラを介して指示される
 前記(5)に記載のAVサーバ。
 (7)上記第2の処理部は、
 上記イン点およびアウト点として、上記第1のAVサーバシステム内での上記第1のAVクリップデータの出力要求におけるイン点およびアウト点を使用する
 前記(5)に記載のAVサーバ。
 (8)上記第2の処理部は、
 上記イン点およびアウト点として、上記第1のAVサーバシステム内での上記第1のAVクリップデータの出力要求におけるイン点およびアウト点を読み出し範囲が広がるように所定量だけずらしたイン点およびアウト点を使用する
 前記(5)に記載のAVサーバ。
 (9)上記第3の処理部は、
 選択的に、上記ストレージから、上記第1のAVクリップデータを読み出し、該第1のAVクリップデータを上記第2のAVサーバシステムに送信する
 前記(1)から(8)のいずれかに記載のAVサーバ。
 (10)システム外部との入出力ポートとは独立した、他のAVサーバと接続するためのIP(Internet Protocol)入出力ポートを有する複数のAVサーバと、
 上記複数のAVサーバをコントロールするクライアントコントローラと、
 上記複数のAVサーバに記録されているAVクリップデータおよび上記複数のAVサーバに入力するAVクリップデータに関する情報を記憶しているマネージャと、
 上記複数のAVサーバのフレーム同期をとるフレーム同期部を備えるAVサーバシステムであって、
 上記複数のAVサーバには、少なくとも、単板カメラからハイフレームレートのRAWデータが入力される所定のAVサーバが含まれ、
 上記所定のAVサーバは、
 上記ハイフレームレートのRAWデータに圧縮符号化処理を行って第1のAVクリップデータを得、該第1のAVクリップデータをストレージに書き込む第1の処理部と、
 上記ストレージから上記第1のAVクリップデータを読み出し、該第1のAVクリップデータに圧縮復号化処理を行って上記ハイフレームレートのRAWデータを得、該ハイフレームレートのRAWデータにデモザイク処理を行ってハイフレームレートのビデオデータを得、該ハイフレームレートのビデオデータに圧縮符号化処理を行って第2のAVクリップデータを得、該第2のAVクリップデータを上記ストレージに書き込む第2の処理部と、
 上記ストレージから上記第2のAVクリップデータを読み出し、該第2のAVクリップデータを自身が含まれる第1のAVサーバシステムとは異なる第2のAVサーバシステムに送信する第3の処理部を有する
 AVサーバシステム。
 10,10A,20・・・AVサーバシステム
 100,100A,100B,100-1,100-2,・・・,100-N・・・AVサーバ
 101・・・システムコントローラ
 102,102B・・・エンコーダ
 103・・・ストレージ
 104,104B,104a,104b・・・デコーダ
 105・・・IP出力部(IP出力ポート)
 106,106a,106b・・・IP入力部(IP入力ポート)
 107・・・フレームバッファ
 108・・・バンク
 109・・・SDIフォーマッタ
 110・・・エフェクタ
 117・・・加算処理部
 118・・・デモザイク部
 119・・・エンコーダ
 120・・・IP出力部(IP出力ポート)
 121・・・IP入力部(IP入力ポート)
 200,200-1,200-2,・・・,200-M・・・クライアントコントローラ
 300・・・マネージャ
 400・・・時刻同期サーバ
 500・・・サーバ間ネットワーク
 600・・・コントローラ/サーバ間ネットワーク
 700・・・システム外ネットワーク

Claims (10)

  1.  単板カメラから入力されるハイフレームレートのRAWデータに圧縮符号化処理を行って第1のAVクリップデータを得、該第1のAVクリップデータをストレージに書き込む第1の処理部と、
     上記ストレージから上記第1のAVクリップデータを読み出し、該第1のAVクリップデータに圧縮復号化処理を行って上記ハイフレームレートのRAWデータを得、該ハイフレームレートのRAWデータにデモザイク処理を行ってハイフレームレートのビデオデータを得、該ハイフレームレートのビデオデータに圧縮符号化処理を行って第2のAVクリップデータを得、該第2のAVクリップデータを上記ストレージに書き込む第2の処理部と、
     上記ストレージから上記第2のAVクリップデータを読み出し、該第2のAVクリップデータを、自身が含まれる第1のAVサーバシステムとは異なる第2のAVサーバシステムに送信する第3の処理部を備える
     AVサーバ。
  2.  上記第1の処理部による処理と上記第2の処理部および上記第3の処理部による処理は並行して行われる
     請求項1に記載のAVサーバ。
  3.  上記第3の処理部は、
     上記第2のAVクリップデータを上記第2のAVサーバシステムに非同期で送信する
     請求項1に記載のAVサーバ。
  4.  上記第2の処理部は、
     上記AVクリップデータを上記第2のAVサーバシステムにFTPファイル転送プロトコルで送信する
     請求項3に記載のAVサーバ。
  5.  上記第2の処理部は、
     上記ストレージに書き込まれた第1のAVクリップデータからイン点およびアウト点で示される範囲を読み出して処理する
     請求項1に記載のAVサーバ。
  6.  上記イン点およびアウト点は、上記第1のAVサーバシステム内のクライアントコントローラから指示されるか、あるいは上記第2のAVサーバシステムから上記第1のAVサーバシステム内のクライアントコントローラを介して指示される
     請求項5に記載のAVサーバ。
  7.  上記第2の処理部は、
     上記イン点およびアウト点として、上記第1のAVサーバシステム内での上記第1のAVクリップデータの出力要求におけるイン点およびアウト点を使用する
     請求項5に記載のAVサーバ。
  8.  上記第2の処理部は、
     上記イン点およびアウト点として、上記第1のAVサーバシステム内での上記第1のAVクリップデータの出力要求におけるイン点およびアウト点を読み出し範囲が広がるように所定量だけずらしたイン点およびアウト点を使用する
     請求項5に記載のAVサーバ。
  9.  上記第3の処理部は、
     選択的に、上記ストレージから、上記第1のAVクリップデータを読み出し、該第1のAVクリップデータを上記第2のAVサーバシステムに送信する
     請求項1に記載のAVサーバ。
  10.  システム外部との入出力ポートとは独立した、他のAVサーバと接続するためのIP(Internet Protocol)入出力ポートを有する複数のAVサーバと、
     上記複数のAVサーバをコントロールするクライアントコントローラと、
     上記複数のAVサーバに記録されているAVクリップデータおよび上記複数のAVサーバに入力するAVクリップデータに関する情報を記憶しているマネージャと、
     上記複数のAVサーバのフレーム同期をとるフレーム同期部を備えるAVサーバシステムであって、
     上記複数のAVサーバには、少なくとも、単板カメラからハイフレームレートのRAWデータが入力される所定のAVサーバが含まれ、
     上記所定のAVサーバは、
     上記ハイフレームレートのRAWデータに圧縮符号化処理を行って第1のAVクリップデータを得、該第1のAVクリップデータをストレージに書き込む第1の処理部と、
     上記ストレージから上記第1のAVクリップデータを読み出し、該第1のAVクリップデータに圧縮復号化処理を行って上記ハイフレームレートのRAWデータを得、該ハイフレームレートのRAWデータにデモザイク処理を行ってハイフレームレートのビデオデータを得、該ハイフレームレートのビデオデータに圧縮符号化処理を行って第2のAVクリップデータを得、該第2のAVクリップデータを上記ストレージに書き込む第2の処理部と、
     上記ストレージから上記第2のAVクリップデータを読み出し、該第2のAVクリップデータを自身が含まれる第1のAVサーバシステムとは異なる第2のAVサーバシステムに送信する第3の処理部を有する
     AVサーバシステム。
PCT/JP2017/014882 2016-04-13 2017-04-11 Avサーバおよびavサーバシステム WO2017179593A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018512032A JP6922897B2 (ja) 2016-04-13 2017-04-11 Avサーバおよびavサーバシステム
US16/068,403 US10897655B2 (en) 2016-04-13 2017-04-11 AV server and AV server system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-079939 2016-04-13
JP2016079939 2016-04-13

Publications (1)

Publication Number Publication Date
WO2017179593A1 true WO2017179593A1 (ja) 2017-10-19

Family

ID=60042506

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/014882 WO2017179593A1 (ja) 2016-04-13 2017-04-11 Avサーバおよびavサーバシステム

Country Status (3)

Country Link
US (1) US10897655B2 (ja)
JP (1) JP6922897B2 (ja)
WO (1) WO2017179593A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10715871B1 (en) 2019-03-27 2020-07-14 Verizon Patent And Licensing, Inc. Determining an end screen time for displaying an end screen user interface
CN111208960B (zh) * 2019-12-26 2023-05-09 杭州顺网科技股份有限公司 基于抽帧控制和时间同步算法的远程显示降延迟方法
CA3154155A1 (en) * 2021-03-23 2022-09-23 Evertz Microsystems Inc. A system and method for routing a serial digital interface (sdi) signal

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002064772A (ja) * 2000-08-15 2002-02-28 Sony Corp ビデオ転送システムおよびビデオ転送方法、ならびに、ビデオサーバ
WO2009005034A1 (ja) * 2007-06-29 2009-01-08 Sony Corporation 撮像装置および撮像方法、記録媒体、並びに、プログラム
JP2012075071A (ja) * 2009-10-28 2012-04-12 Sony Corp 信号処理装置、画像処理装置、並びに撮影装置
JP2012095351A (ja) * 2012-01-12 2012-05-17 Olympus Corp 撮像システム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6173329B1 (en) * 1997-02-19 2001-01-09 Nippon Telegraph And Telephone Corporation Distributed multimedia server device and distributed multimedia server data access method
JP3461278B2 (ja) * 1997-02-19 2003-10-27 日本電信電話株式会社 分散マルチメディアサーバ装置,分散マルチメディアサーバ情報アクセス方法およびこの方法を実現するプログラムを記録した記録媒体
US6697103B1 (en) * 1998-03-19 2004-02-24 Dennis Sunga Fernandez Integrated network for monitoring remote objects
US6604158B1 (en) * 1999-03-11 2003-08-05 Realtime Data, Llc System and methods for accelerated data storage and retrieval
ATE300835T1 (de) * 2001-05-17 2005-08-15 Optibase Verfahren und vorrichtung für videorundfunk von mehrfach angereicherten medienformaten
JP5193931B2 (ja) * 2009-04-20 2013-05-08 富士フイルム株式会社 画像処理装置、画像処理方法およびプログラム
US20130294526A1 (en) * 2012-05-01 2013-11-07 Kevin Thornberry Smooth reverse video playback on low-cost current generation set-top box hardware
EP2739049A1 (en) * 2012-11-29 2014-06-04 Axis AB Method and system for generating real-time motion video
US9167033B2 (en) * 2013-03-14 2015-10-20 Comcast Cable Holdings, Llc Transmission device load balancing
JP2014200076A (ja) * 2013-03-15 2014-10-23 株式会社リコー 配信制御システム、配信制御方法、及びプログラム
JP6512916B2 (ja) * 2014-06-16 2019-05-15 キヤノン株式会社 撮像装置およびその制御方法ならびにプログラム
US9516197B2 (en) * 2014-10-21 2016-12-06 Pixspan, Inc. Apparatus and method for lossless compression of raw color sensor data from a color array filtered image sensor
US9837127B2 (en) * 2014-12-29 2017-12-05 Mkues, Inc. Method and apparatus for the insertion of audio cues in media files by post-production audio and video editing systems
KR101804364B1 (ko) * 2014-12-30 2017-12-04 한국전자통신연구원 초다시점 영상 시스템 및 이의 구동방법
US9729911B2 (en) * 2015-12-09 2017-08-08 Ericsson Ab Recording multicast adaptive bitrate (MABR) streaming content based on schedule
US10032481B2 (en) * 2016-03-22 2018-07-24 Verizon Digital Media Services Inc. Speedy clipping

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002064772A (ja) * 2000-08-15 2002-02-28 Sony Corp ビデオ転送システムおよびビデオ転送方法、ならびに、ビデオサーバ
WO2009005034A1 (ja) * 2007-06-29 2009-01-08 Sony Corporation 撮像装置および撮像方法、記録媒体、並びに、プログラム
JP2012075071A (ja) * 2009-10-28 2012-04-12 Sony Corp 信号処理装置、画像処理装置、並びに撮影装置
JP2012095351A (ja) * 2012-01-12 2012-05-17 Olympus Corp 撮像システム

Also Published As

Publication number Publication date
US10897655B2 (en) 2021-01-19
JP6922897B2 (ja) 2021-08-18
US20190028776A1 (en) 2019-01-24
JPWO2017179593A1 (ja) 2019-02-21

Similar Documents

Publication Publication Date Title
JP4977950B2 (ja) マルチ画面映像再生システム、映像再生方法及び表示装置
US7777692B2 (en) Multi-screen video reproducing system
US9462195B2 (en) System and method for distributed video and or audio production
US9398315B2 (en) Multi-source video clip online assembly
WO2017179593A1 (ja) Avサーバおよびavサーバシステム
US8509605B2 (en) Synchronized reproduction system and synchronized reproduction method
JP5619355B2 (ja) 画像を処理する方法及び装置
Shirai et al. Real time switching and streaming transmission of uncompressed 4K motion pictures
JP2013532432A (ja) 単一の復号器でチャンネル変更を可能にする受信機および該受信機での方法
JP2012147107A (ja) データ転送システム及び転送方法
JP2005303925A (ja) ストリームデータ送信装置、ストリームデータ受信装置およびそれらの処理をコンピュータに実行させるための処理プログラムを記録した記録媒体
JP2007158432A (ja) 映像記録装置
JP4295079B2 (ja) 特殊映像データ処理方法及び特殊映像データ処理装置及び特殊映像データ処理システム
JP6128329B2 (ja) 映像記録装置およびカメラデコーダ
WO2017043501A1 (ja) Avサーバシステムおよびavサーバ
JP6819041B2 (ja) サーバシステムおよびサーバ
JP3749715B2 (ja) 画像データ送出装置および画像データ送出方法
JP3891035B2 (ja) メディア多重装置およびこれを用いる符号化装置
WO2020170659A1 (ja) 編集システム
WO2022269723A1 (ja) 同期制御を行う通信システム、その同期制御方法、受信サーバ及び同期制御プログラム
JP4892541B2 (ja) 画像伝送方法および画像伝送システム
Devlin et al. Nuggets and MXF: Making the networked studio a reality
JP2001111983A (ja) データ処理装置およびデータ処理方法ならびに情報記録媒体
JP3897753B2 (ja) 記憶出力装置
JP2005217609A (ja) 映像情報再生装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018512032

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17782406

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17782406

Country of ref document: EP

Kind code of ref document: A1