WO2011004598A1 - 動画像符号化方法、装置、プログラム、および集積回路 - Google Patents

動画像符号化方法、装置、プログラム、および集積回路 Download PDF

Info

Publication number
WO2011004598A1
WO2011004598A1 PCT/JP2010/004431 JP2010004431W WO2011004598A1 WO 2011004598 A1 WO2011004598 A1 WO 2011004598A1 JP 2010004431 W JP2010004431 W JP 2010004431W WO 2011004598 A1 WO2011004598 A1 WO 2011004598A1
Authority
WO
WIPO (PCT)
Prior art keywords
slice
picture
encoding
region
inter
Prior art date
Application number
PCT/JP2010/004431
Other languages
English (en)
French (fr)
Inventor
角野眞也
尾関英克
間宮靖裕
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2010548973A priority Critical patent/JPWO2011004598A1/ja
Priority to CN2010800019898A priority patent/CN102077597A/zh
Priority to US13/001,072 priority patent/US20120275518A1/en
Publication of WO2011004598A1 publication Critical patent/WO2011004598A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • the present invention relates to a moving picture coding method and a moving picture coding apparatus.
  • an MPEG (Moving Picture Experts Group) -4 AVC method also known as ITU-T H.264 method
  • the present invention relates to a moving picture coding method and a moving picture coding apparatus.
  • multimedia In recent years, a multimedia era has been reached in which voice, images, and other pixel values are handled in an integrated manner.
  • Conventional information media such as newspapers, magazines, televisions, radios, and telephones, have a means for transmitting information to people. , Has been picked up as a multimedia subject.
  • multimedia refers to not only characters but also figures or sounds, particularly images, etc., being simultaneously associated with each other.
  • it is an essential condition to represent the information in a digital format.
  • the information amount of each information medium is estimated as a digital information amount
  • the information amount per character is 1 to 2 bytes.
  • an amount of information of 64 Kbits (telephone quality) per second is required for audio, and 100 Mbits (current television reception quality) per second is required for moving images. Therefore, it is not realistic to handle the enormous amount of information in digital form as it is with the information media.
  • videophones have been put into practical use by an integrated services digital network (ISDN) having a transmission rate of 64 Kbit / s to 1.5 Mbit / s.
  • ISDN integrated services digital network
  • MPEG Motion Picture Experts Group
  • ISO / IEC International Electrotechnical Commission, International Electrotechnical Commission
  • MPEG-1 is a standard for compressing a moving picture signal to 1.5 Mbit / s, that is, information of a television signal to about 1/100.
  • the target quality is a medium quality, that is, a quality that can be realized at a transmission speed of mainly about 1.5 Mbit / s, so that the demand for higher image quality is satisfied. Therefore, MPEG-2 was standardized. In MPEG-2, moving picture signals are compressed at 2 to 15 Mbit / s to realize TV broadcast quality.
  • MPEG-4 has been standardized by a working group (ISO / IEC JTC1 / SC29 / WG11) that has been standardizing with MPEG-1 and MPEG-2.
  • This MPEG-4 achieves a compression ratio higher than that of MPEG-1 and MPEG-2, and enables encoding / decoding / operation in units of objects, thereby realizing new functions necessary in the multimedia era.
  • MPEG-4 achieves higher compression ratios than MPEG-1 and MPEG-2, and enables encoding, decoding and manipulation on an object basis.
  • the image signal can be considered as a series of pictures (also referred to as frames or fields) that are sets of pixels at the same time.
  • the pixels have a strong correlation with neighboring pixels in the picture
  • compression using the correlation of the pixels in the picture is performed.
  • the correlation between pixels is strong between two (a plurality of) consecutive pictures
  • compression using the correlation between pixels is also performed between these pictures.
  • inter coding compression using the correlation of pixels between a plurality of pictures and the correlation of pixels within a picture
  • Compression using the correlation of pixels is called intra coding. Since this inter coding uses correlation between pictures, a compression rate higher than the compression rate in intra coding can be realized.
  • a block (or a higher-level conceptual block in which a plurality of blocks are combined) is a set of pixels in a two-dimensional rectangular area. Macro block), and intra coding and inter coding can be switched in units of blocks.
  • a slice which is a coding unit in which a plurality of blocks are grouped, is defined.
  • a slice is the smallest unit that can be independently encoded and decoded, and can be decoded in units of slices even if a part of the stream is lost.
  • FIG. 22 is a diagram for explaining the relationship between a slice S and a block MB (macroblock) when the MPEG standard slice division method is used.
  • a picture P (one frame) shown in FIG. 22 is composed of a plurality of blocks MB (macroblocks).
  • the blocks MB in the same row constitute one slice S. That is, the slice S is composed of a plurality of blocks MB included in the row of the slice S.
  • the picture P has a plurality of rows each composed of one slice S.
  • the hatched slice S is an I slice IS
  • each other slice is a P slice PSm.
  • the I slice IS is a slice composed of only intra-coded blocks.
  • the P slice PSm is a slice composed of inter-coded blocks.
  • the slice S must be composed of only blocks in the same row (only blocks in one row).
  • the slice S can be configured with a plurality of rows.
  • one picture can include two types of slices of an I slice and a P slice at the same time.
  • an I slice refers to a slice that is encoded using only the correlation of pixels in the slice.
  • the P slice means a slice that is encoded using the pixel correlation in the slice and the pixel correlation between the slices.
  • “between slices” means between the slice and another slice other than the slice.
  • the slice other than the slice may be a slice included in another picture different from the picture including the slice.
  • an I slice contains only slices that do not use predictive coding (based on the image signal) from the surrounding (outside of the slice) image, that is, intra macroblocks that are intra-coded. It is a collected slice.
  • the P slice is a slice in which compression efficiency is improved by predictive coding, that is, a slice configured by mixing inter macroblocks that are inter-coded and intra macroblocks.
  • the I slice in this specification includes the following slices. That is, in this specification, a special P slice intentionally coded using only the correlation of pixels in the slice is also referred to as an I slice for convenience.
  • FIG. 23 is a diagram for explaining the coding order of a plurality of blocks in the picture P.
  • the blocks MB in the picture P shown in FIG. 22 are encoded in the order shown in FIG. 23, that is, in the picture P from left to right in the slice unit and from top to bottom in the slice unit. A stream is generated.
  • the decoded pixel of the picture may not be correctly decoded. For example, even if an erasure occurs in the stream, when the next picture of the picture that has been lost and the image quality has deteriorated is decoded, if the next picture is intra-encoded, it is intra-encoded. Only a stream of slices that are present (based only on) can correctly decode the pixels. However, if the next picture is inter-coded when decoding the picture following the picture whose image quality has deteriorated due to loss, the next picture is the picture that was decoded immediately before, that is, the loss of the stream.
  • the decoding is performed using the correlation with the picture with degraded image quality (refer to the picture decoded immediately before), the decoding process is correctly performed on all slices in the next picture of the lost stream. Even so, the original pixel value cannot be correctly decoded.
  • the transmission delay time of the transmission bit rate smoothing apparatus is as long as several pictures to ten or more pictures, and it is appropriate to use the transmission bit rate smoothing apparatus for the purpose of transmitting an image signal with a low delay time. Absent. Therefore, by performing the encoding that makes the number of bits in units of pictures substantially constant by the method described below, low delay is realized and image quality degradation is prevented from recursively propagating.
  • FIG. 24 is a diagram showing an example of slice division of pictures ((a) to (l)) that are continuous in time order.
  • the hatched slice is the I slice IS as in FIG. 22, and the other slices are the P slice PSm.
  • slices are in units of rows, as in the previous example.
  • (a) to (l) in FIG. 24 are a plurality of pictures that are continuous in time order. That is, in FIG. 24, (a) is the first picture in time order, and (l) is the last picture in time order. In FIG. 24, the position of the I slice IS moves down one row in the next picture in time order, and returns to the highest row after moving to the lowest row (from (j) in FIG. 24 ( k)).
  • a picture P is composed of an I slice IS that is strong against stream loss and a P slice PSm that is weak against stream loss but includes inter coding with a good compression rate, and the position of I slice IS (set position). )
  • the picture P in time order.
  • the slice at the position of the P slice PSm where the stream disappeared becomes the I slice IS in the subsequent picture in time order.
  • the picture P is correctly decoded. That is, a stream with image degradation can be recovered. Therefore, it is possible to prevent indefinite propagation of image quality degradation.
  • FIG. 25 is a diagram for explaining the conventional image quality degradation that occurs when the motion search range is not restricted.
  • the I slice IS circulates to stop the propagation of the image quality deterioration (the picture is refreshed). Since the I slice IS is moving from top to bottom, the pictures are refreshed in order from the top slice.
  • the picture can be correctly decoded at the position of the I slice IS and the pixel above the I slice IS.
  • image quality degradation in the pixels below the I slice IS. That is, it is assumed that there is image quality deterioration in a pixel below the I slice IS in the picture N in which the I slice IS has not been decoded yet after the image quality deterioration caused by the transmission error.
  • This area where the propagation of image quality degradation due to the I slice stops is called a refresh completion area RR (see FIG. 25), and an area that has not been encoded (decoded) in the I slice yet has image quality degradation is an unrefreshed area.
  • the refresh completion area RR is an area composed of an I slice IS and each slice above the I slice IS.
  • “above the I slice IS” is a position in the direction opposite to the traveling direction of the position encoded with the I slice IS (position where the I slice IS is set) with respect to the I slice IS.
  • the unrefreshed area NR is an area composed of each slice below the I slice IS.
  • below the I slice IS is a position in the advancing direction of the position encoded by the I slice IS with respect to the I slice IS.
  • an encoding target block C (picture N + 1 in FIG. 25) and a comparison target picture (picture N in FIG. 25) are encoded.
  • the pixel block is compared, and the difference from the pixel value at the position where the correlation between the pixels is the largest is encoded in block units. Searching for a position where the correlation between the pixels is large is called motion search.
  • motion search in the reference destination picture (picture N), the range of the position of the block searched for is called a motion search range.
  • the decoding device refers to the pixel value without image quality degradation due to a transmission error, and therefore decodes the inter-coded pixel. There is no degradation in image quality even when decoding.
  • the encoding target block of the picture N + 1 is a block (encoding target block C1) in the refresh completion area RR
  • encoding is performed with reference to the unrefreshed area NR of the picture N. That is, in this case, since the decoding apparatus cannot decode the block in the subsequent picture (see picture N + 2) by I slice (intra coding), a transmission error occurs in the decoding of the block and the block. This does not solve the image quality degradation caused by the problem. That is, when a reference picture (picture N) is referred to a block in an unrefreshed area NR from a block in the refresh completion area RR of the picture to be encoded (picture N + 1), the image quality deterioration is propagated. Occurs.
  • FIG. 26 is a diagram showing processing when the search range is restricted.
  • Patent Document 1 As such a conventional technique, for example, one described in Patent Document 1 is known.
  • the motion search range is dynamically limited so that the motion search range does not include the unrefreshed region NR in the motion search in the coding of the block of the refresh completion region RR.
  • the conventional encoding method has a problem that the control becomes complicated. For example, the size of the motion search range changes depending on the position, and the time for the motion search process changes. This complicates the control of the pipeline processing for motion search and requires a complicated circuit. As a result, the processing speed decreases and high-resolution data cannot be processed at a necessary speed. For example, high definition data cannot be processed properly.
  • the present invention solves the above-described conventional problems, and provides a moving image encoding apparatus, method, and the like that prevent error propagation without dynamically limiting a motion search range and without referring to an unrefreshed area.
  • the purpose is to provide.
  • prevention of error propagation from the unrefreshed area to the refreshed area can be realized by a simple process, and thus can be realized by an apparatus having a simple configuration.
  • an object of the present invention is to provide a device that can appropriately process even high-resolution data such as high-definition data.
  • the encoding method of the present invention includes an I slice and a P slice in one picture, and the position of the included I slice in the picture is in the vertical direction of the picture for each picture.
  • a moving image coding method for moving wherein the first P slice is included in a first region adjacent to the I slice, the first region being adjacent to the vertical direction of movement.
  • a first encoding step for inter-encoding the image without using a motion vector and a second P slice included in a second region other than the first region are encoded using a motion vector.
  • a second encoding step are encoded using a motion vector.
  • including an I slice and a P slice in one picture means that the same picture includes an I slice and a P slice, and the picture including the I slice is the same as the picture including the P slice. Means that.
  • the motion search function is prohibited in the P slice at the position above the I slice as shown in FIG. 5 without performing complicated processing of dynamically limiting the motion search range.
  • the first P slice area is the lowermost part of the refresh completion area adjacent to the I slice in the direction opposite to the movement direction.
  • a motion vector is not used, and an image at the same position that does not take motion into consideration is used. This prevents a reference to an unrefreshed region (region adjacent to the I slice from the direction of movement) in the reference destination picture.
  • FIG. 1 is a block diagram of a moving picture coding apparatus according to the first embodiment.
  • FIG. 2 is an explanatory diagram of the relationship between the slice division method and the reference in the first embodiment.
  • FIG. 3 is an operation explanatory diagram of slice division and slice type determination in the first embodiment.
  • FIG. 4 is a flowchart for explaining the operation in the first embodiment.
  • FIG. 5 is a diagram for explaining restrictions on the motion search range of the present invention.
  • FIG. 6 is a flowchart of processing according to the type of slice.
  • FIG. 7 is a block diagram of the moving picture coding apparatus according to the second embodiment.
  • FIG. 8 is a diagram illustrating an example of a difference in the number of I slice insertions according to the second embodiment.
  • FIG. 9 is a flowchart of the video encoding apparatus 1A.
  • FIG. 10 is a flowchart of the slice insertion number setting unit in the second embodiment.
  • FIG. 11 is an explanatory diagram of the relationship between the slice division method and the reference according to the third embodiment.
  • FIG. 12 is an explanatory diagram of operations for slice division and slice type determination in the third exemplary embodiment.
  • FIG. 13 is a diagram for explaining the limitation of the motion search range in the third embodiment.
  • FIG. 14 is an explanatory diagram of a recording medium for storing a program for realizing the moving picture coding apparatus according to each embodiment by a computer system.
  • FIG. 15 is an explanatory diagram of a recording medium for storing a program for realizing the moving picture coding apparatus according to each embodiment by a computer system.
  • FIG. 16 is an explanatory diagram of a recording medium for storing a program for realizing the moving picture coding apparatus according to each embodiment by a computer system.
  • FIG. 17 is a diagram illustrating a plurality of pictures.
  • FIG. 18 is a diagram illustrating a plurality of pictures.
  • FIG. 19 is a diagram illustrating a plurality of NoMC-P slices.
  • FIG. 20 is a diagram illustrating a plurality of pictures.
  • FIG. 21 is a diagram illustrating a plurality of pictures.
  • FIG. 22 is an explanatory diagram of the relationship between MPEG slices and blocks.
  • FIG. 23 is an explanatory diagram of the coding order of a plurality of blocks in a picture.
  • FIG. 24 is a diagram illustrating an example of slice division of pictures that are temporally consecutive.
  • FIG. 25 is a diagram for explaining a case where the conventional motion search range is not restricted.
  • FIG. 26 is a diagram for explaining the limitation of the conventional motion search range.
  • FIG. 27 is a block diagram of a video encoding apparatus.
  • FIG. 28 is a block diagram of the video encoding apparatus.
  • FIG. 29 is a flowchart of the video encoding apparatus.
  • FIG. 30 is a flowchart of the video encoding apparatus.
  • the moving image encoding method includes an I slice (I slice PR2, I slice of FIG. 2) in one picture (picture PS to be encoded in FIG. 5, reference picture PR, subsequent picture PT, and the like). 41) and a P slice (a slice of the encoding target area PSA, the NoMC-P slice 42 and the MC-P slice 43 in FIG. 2), and the position (I slice is set in the picture) of the included I slice.
  • the first P slice (NoMC-P slice 42) included in the first region R1 that overlaps the unrefreshed region PR3 is used without using a motion vector.
  • First encoding step (inter-screen encoding) (step S3001: NoMC-P) and second region (second region) other than the first region (first P slice region) R2, second P slice area, MC-P slice
  • step S3001: NoMC-P inter-screen encoding
  • step S3001: NoMC-P second region
  • step S3001: NoMC-P second region
  • step S3001: NoMC-P second region
  • step S3001: NoMC-P slice second region
  • second region other than the first region (first P slice region) R2
  • second P slice area MC-P slice
  • the second P slice (MC-P slice 44, MC-P slice 43) included in the SC 44 and the MC-P slice 43 (MC-P slice 43x)) using the motion vector.
  • a second encoding step (S3001: MC ⁇ ) (inter-screen encoding is performed with reference to the second predicted image searched from the search range (at the position specified by the motion vector obtained by the search)) (P1) is a moving picture encoding method (A1).
  • first region R1 is also referred to as a first P slice region as appropriate
  • second region R2 is also referred to as a second P slice region as appropriate.
  • the first region R1 is a region formed of a predetermined range above the I slice 41 of the picture PS to be encoded (for example, (e) in FIG. 2). . This range will be described in more detail later.
  • a reference destination picture (FIG. 2D, picture) is compared with a block included in a picture PS to be encoded (for example, FIG. 2E). Encoding is performed with reference to an image (second predicted image) searched from the search range of (PR).
  • the encoding is performed only when the block is not a block of the NoMC-P slice 42 in the first region R1, and the NoMC-P slice 42 If it is a block, it is not performed (first inter-frame encoding unit 191 in FIG. 27, step Sa1 in FIG. 29).
  • an image (first predicted image) at the same position as that block position in the reference picture PR ((d) in FIG. 2). ) Is referred to.
  • the encoding is not performed and the NoMC Only when the block is the block of the -P slice 42, the encoding is performed (first inter-frame encoding unit 191, step Sa1).
  • the first predicted image at the same position is simply used for a plurality of different blocks (blocks B1, B2, etc. in FIG. 5) in the first region.
  • the search is avoided.
  • a search in a plurality of different search ranges can be avoided, and a complicated circuit is not required, so that the configuration can be simplified and the processing can be performed at high speed.
  • the first P slice area is a specific area described later.
  • the specific area starts from an unrefreshed area (unrefreshed area PR3) in a reference picture (referenced picture PR) among refresh completed areas (refresh completed area PS1) in the target picture (target picture PS).
  • the vertical width of the first P slice region has a predetermined size greater than zero.
  • the direction of movement in the vertical direction and the opposite direction are directions from the I slice (I slice PR2) to the refresh completion region. Adjacent in the reverse direction is adjacent to the I slice from the side in that direction.
  • the slice image of that area is displayed between screens without using motion vectors. Encoded.
  • the image encoding method specifically includes, for example, a third code that inter-codes a P slice included in the first area (first P slice area) using a motion vector. Further when the I slice is repeatedly inserted (S41: YES, S4000: YES, S2005A, S2005C, a predetermined number of times (predetermined number) or more) ), When the P slice included in the first region (first P slice region) is inter-coded using a motion vector and an I slice is inserted only a predetermined number of times (a predetermined number of times) (S41).
  • P slices included in the first area are motion vectors It is not inter-picture encoding or the moving picture coding method of performing.
  • repeatedly inserting means to insert a number greater than or equal to the threshold value, and inserting only (only) a predetermined number of times means inserting only a number less than the threshold value.
  • a video encoding apparatus is an apparatus that executes the above-described video encoding method.
  • One picture includes an I slice and a P slice, and the position of the included I slice in the picture is:
  • a moving picture coding apparatus (moving picture coding apparatus 1) that moves in the vertical direction of a picture for each picture, the first area adjacent to the I slice, and the direction of movement in the vertical direction
  • the first P slice included in the first region adjacent in the reverse direction is inter-coded without using a motion vector, and the second P slice included in the second region other than the first region is encoded.
  • a slice type determination unit (slice type setting unit 103, setting unit 103a, Sa0b) that determines a slice type so as to perform inter-frame coding using a motion vector, and a first P slice of the first region
  • a first inter-frame coding unit (reference image duplicating unit 2003) that performs inter-frame coding without using a motion vector, and a second P slice in the second region by using a motion vector.
  • This is a moving picture encoding apparatus including a second inter-screen encoding unit (search unit 2002a).
  • the block may be determined whether the block is a block of the NoMC-P slice 42 in the first region R1.
  • the second screen encoding unit is controlled to encode the block, and when the block is determined to be the block of the NoMC-P slice 42 May be controlled to be encoded by the first screen encoding unit (setting unit 103a, step Sa0b in FIG. 30).
  • the moving picture encoding apparatus includes a slice insertion number setting unit (slice insertion number setting unit 105, Sa0a) that determines whether or not the number of insertions of an I slice is a predetermined value or more, and the slice type determination unit includes: When it is determined that the number of insertions is less than a predetermined value based on the setting of the number of slice insertions (S41: NO, S4000: NO, if less than the predetermined number in S2005C), the first area (first P slice area) , And the second area (second P slice area) are used, and when it is determined to be equal to or greater than a predetermined value (S41: YES, S4000: YES, S2005C if S2005C is equal to or greater than the predetermined number) Only the second area (second P slice area) may be used.
  • a slice insertion number setting unit slice insertion number setting unit 105, Sa0a
  • the slice type determination unit includes: When it is determined that the number of insertions
  • the above-described A1 moving picture encoding method being executed until the number of insertions of the I slice is greater than or equal to a predetermined value.
  • the number of insertions is large, even if improper propagation of image quality degradation occurs, the insertion after the occurrence usually suppresses the influence of propagation, and the image quality degradation due to propagation occurs within a short time. Disappear. For this reason, even if the method A1 is not executed, the image quality is hardly deteriorated.
  • the method A1 is not executed, inter-frame encoding using a motion vector can be performed, and the amount of data after encoding can be reduced. That is, the amount of data after encoding can be further reduced while maintaining high image quality.
  • FIG. 1 is a block diagram showing a configuration of a moving image encoding apparatus 1 according to the first embodiment of the present invention.
  • the picture number counter unit 100 measures the number of pictures to be encoded. In addition, the picture number counter unit 100 notifies the slice type setting unit 103 of the number of pictures.
  • the block number counter unit 102 measures the number of blocks in the picture to be encoded. Further, the block number counter unit 102 notifies the slice type setting unit 103 of the number of blocks.
  • the motion search determination unit 104 receives a slice type notification from the slice type setting unit 103.
  • the motion search determination unit 104 determines whether the encoding target slice is an MC-P slice (first P slice) that is a P slice for performing motion prediction, or a motion search. It is determined whether it is a NoMC-P slice (second P slice) that is a P slice that is not subjected to the above.
  • the motion search determination unit 104 notifies the slice type setting unit 103 of the identification of the I slice, MC-P slice, and NoMC-P slice.
  • the slice type setting unit 103 determines whether the encoding target slice to be encoded by the encoding unit 200 is an I slice or a P slice from the number of blocks notified from the block number counter unit 102. The slice type setting unit 103 notifies the motion search determination unit 104 of the determined slice type.
  • the slice type setting unit 103 receives an identification from the motion search determination unit 104 as an MC-P slice or a NoMC-P slice.
  • the slice type setting unit 103 determines the position of the I slice, the position of the NoMC-P slice, the position of the picture within the picture from the height of the image, the height of the I slice, the height of the P slice, and the height of the search range for motion search.
  • the P slice division position and height are determined respectively.
  • the slice type setting unit 103 determines the slice division position where the position of the set I slice has moved down by the height of the I slice. To do.
  • the slice type determined by the slice type setting unit 103 is determined by the slice type setting unit 103 using a motion search unit 2001, a motion compensation unit 2002, a reference image duplication unit 2003, an intra-screen prediction unit 2004, and a selector unit in the encoding unit 200. Each is notified to 2005. Note that the entire motion search unit 2001 and motion compensation unit 2002 are called a search unit 2002a.
  • the intra-screen prediction unit 2004 predicts an input image signal (pixel value) from an already encoded pixel (not shown) in the same picture, and uses the predicted pixel value as a predicted image (third predicted image).
  • the data is output to the selector unit 2005.
  • the intra-screen prediction unit 2004 may perform prediction from only the pixel of the slice at the position of the predicted image among the pixels in the same picture, for example.
  • the intra-screen prediction unit 2004 identifies an image closest to the position of the predicted image among images at a plurality of positions suitable as the predicted image included in the slice, for example, The third predicted image may be specified.
  • the motion search unit 2001 searches for a pixel position having the highest correlation with the input image signal, and notifies the motion compensation unit 2002 of the position (motion vector).
  • the motion compensation unit 2002 reads out the pixel value at the position of the motion vector notified from the motion search unit 2001 from the reference image held by the reference image holding unit 2011, and selects it as a predicted image (second predicted image) as a selector unit 2005. Output to.
  • the reference image duplication unit 2003 outputs the image at the block position held by the reference image holding unit 2011 to the selector unit 2005 as a predicted image (first predicted image).
  • the reference image duplication unit 2003 outputs the first predicted image
  • the motion compensation unit 2002 outputs the second predicted image
  • the in-screen prediction unit 2004 outputs the third predicted image. Also good.
  • the third predicted image is a predicted image for the moving image coding apparatus 1 to perform only spatial compression among spatial compression and temporal compression.
  • the second predicted image is a predicted image for performing both compressions.
  • the first predicted image is a predicted image for performing temporal compression only.
  • the third predicted image is, for example, a predicted image for intra-coding the image.
  • the second predicted image is a predicted image for inter-coding the image, for example.
  • the selector unit 2005 is notified of the slice type (I slice, MC-P slice, NoMC-P slice) from the slice type setting unit 103. If the notified slice type is an I slice, the selector unit 2005 selects the predicted image (third predicted image) generated by the intra-screen prediction unit 2004.
  • the selector unit 2005 encodes the predicted images (third predicted image and second predicted image) generated by the intra-screen prediction unit 2004 and the motion compensation unit 2002. Select one with a small number of bits.
  • the selector unit 2005 uses the code among the prediction images (third prediction image and first prediction image) generated by the intra-screen prediction unit 2004 and the reference image replication unit 2003.
  • the prediction image with the smaller number of quantization bits is selected.
  • selection may be made from three of a first predicted image, a second predicted image, and a third predicted image.
  • the subtractor 2006 performs subtraction between the input image and the predicted image (selected predicted image) selected by the selector unit 2005, and outputs a prediction error (subtracted image).
  • the DCT / quantization unit 2007 performs transformation (orthogonal transformation) and quantization from the time domain to the frequency domain with respect to the prediction error (subtracted image), and the quantized value is compared with the entropy coding unit 2012 and the inverse quantum. To the conversion / inverse DCT unit 2008, respectively.
  • the inverse quantization / inverse DCT unit 2008 performs inverse quantization and inverse transformation from the frequency domain to the time domain (inverse orthogonal transformation) on the quantization value output from the DCT / quantization unit 2007, Output the difference image.
  • the adder 2009 adds the predicted image (selected predicted image) output from the selector unit 2005 and the difference image output from the inverse quantization / inverse DCT unit 2008 to generate a reconstructed image.
  • the filter unit 2010 applies a deblocking filter for removing block distortion to the reconstructed image output from the adder 2009.
  • the reference image holding unit 2011 holds the image output from the filter unit 2010 in a memory such as a memory that is at least a part of the reference image holding unit 2011, for example. Then, the held image to be held is referred to as a reference image from the motion search unit 2001, the motion compensation unit 2002, and the reference image duplication unit 2003, respectively.
  • the filter unit 2010 is H.264. It is necessary for H.264, but is not necessary for image encoding such as MPEG-1, MPEG-2, and MPEG-4.
  • the entropy encoding unit 2012 converts the quantized value, which is the output of the DCT / quantization unit 2007, into a bit string by variable-length encoding or arithmetic encoding, and converts the converted bit string to the packetizing unit 300 Output.
  • the packetization unit 300 configures the bit string that is the output of the entropy encoding unit 2012 into packets that are divided into predetermined bit number units.
  • the configured packet is transmitted to the image decoding apparatus via the network.
  • FIG. 2 is a diagram illustrating data in the slice division method performed by the video encoding device 1.
  • the picture (one frame) shown in FIG. 2 is composed of a plurality of blocks.
  • a shaded block area (I slice 41) is an I slice.
  • An area with vertical lines (NoMC-P slice 42) and a white area (area without hatching, MC-P slice 44) are refreshed P slices, and areas with horizontal lines (MC-P).
  • the P slice 43) is a P slice including image quality deterioration due to a transmission error.
  • the I slice 41, the NoMC-P slice 42, and the MC-P slice 44 constitute a refresh completion region PR4 (FIG. 5). Further, the MC-P slice 43 forms an unrefreshed region PR3 (FIG. 5).
  • the other P slices are MC-P slices.
  • the slice division determination unit may be, for example, at least a part of the slice type setting unit 103 (setting unit 103a) in FIG.
  • (A) to (p) in FIG. 2 are a plurality of pictures that are consecutive in this order in time order.
  • the slice type setting unit 103 sets the position of the I slice 41 in the picture by the height of the I slice 41 (this In the embodiment, the slice division is performed so that the line moves down L).
  • the slice type setting unit 103 determines a P slice, which is a region with a vertical line directly above the I slice 41, as a NoMC-P slice (NoMC-P slice 42).
  • the slice type setting unit 103 displays the screen until the NoMC-P slice 42 can secure the height W block line (while it cannot be secured).
  • the area from the upper end to the I slice 41 (all areas) is determined as the NoMC-P slice 42.
  • the slice type setting unit 103 divides the remaining area into P slices and cannot secure the height M block lines of the P slice at the uppermost end and the lowermost end of the screen.
  • the height of the P slice at the screen edge is made smaller than the M block line.
  • slices smaller than the M block line are exemplified by the uppermost MC-P slice 44 in (e) and the lowermost MC-P slice 43 in (d), for example.
  • the search range of the block (block 44x) of slice #slc_n in (n) in FIG. 2 is the P slice (MC-P slice 43, (Unrefreshed area) is not included.
  • error propagation can be prevented.
  • the block of #slc_n (block 44x) is decoded by the decoder, the decoded image of the block of #slc_n is an area refreshed in the past (refresh completed area PR4 in FIG. 5: (( This is because the image is generated by the decoder by referring only to the m) I slice 41, NoMC-P slice 42, and MC-P slice 44 areas.
  • FIG. 3 is a diagram illustrating operations of slice division and slice type determination.
  • FIG. 4 is a flowchart of the moving picture encoding apparatus 1.
  • FIG. 3 illustrates slice division and slice type determination operations of the slice type setting unit 103 and the motion search determination unit 104
  • FIG. 4 illustrates a flowchart of the video encoding device 1.
  • the height L 1 of the I slice 41
  • the height M 4 of the MC-P slice (MC-P slice 43, MC-P slice 44)
  • the slice division determination unit obtains the division size of a slice of one picture from the size of the I slice line, the MC-P slice line, the NoMC-P slice line, and the height of the screen. Keep it in memory.
  • the slice division determination unit updates the slice division position and size. Specifically, as illustrated in FIG. 3, the slice division determination unit stores an array and the size of each slice. Then, the number of each slice between the start pointer and the end pointer is the number of macroblock lines of that slice constituting the picture. Each slice is associated with the slice type of the slice. Each time the number of pictures increases by 1, the content of data stored in the slice division determination unit 101 changes in the order of (a) to (j) in FIG. 3A to 3J correspond to FIGS. 2A to 2J, respectively.
  • the slice division determination unit increments the value stored in the array at the position pointed to by the first pointer and decrements the value stored in the array at the position pointed to by the end pointer.
  • the slice division determining unit determines that the height of the slice (the slice pointed to by the head pointer) is the maximum slice type of the slice (the slice pointed to by the head pointer) with respect to the head pointer (M-No slice is MC-P slice)
  • M-No slice is MC-P slice
  • the slice division determination unit moves one pointer when the value of the end pointer becomes 0 (that is, the height of the slice pointed to by the end pointer becomes 0). That is, the pointed slice is changed to a slice that has been moved by one.
  • the slice division determination unit determines the slice height and the slice type while shifting the positions of the head pointer and the terminal pointer, respectively (S1001). Note that the data shown in FIG. 3 is stored, for example, by the slice division determination unit.
  • the block number counter unit 102 sets the block number counter (value measured by the block number counter unit 102) to 0 (S1002).
  • the slice type setting unit 103 reads out the slice type of the slice to be encoded and the size of the slice (number of macroblock lines) from the array in FIG. 3 (S1003).
  • the product of the number of macroblock lines and the number of macroblocks in one line (one row) is the maximum number of blocks in the slice.
  • the selector unit 2005 switches the predicted image creation method according to the slice type read from the array (S1004). That is, which predicted image is selected as the selected predicted image is changed.
  • the selector unit 2005 sets the output (third predicted image) of the intra prediction unit 2004 of the encoding unit 200 as a candidate for a selected predicted image (S1005). .
  • the selector unit 2005 sets the output (first predicted image) of the reference image duplicating unit 2003 as a candidate for a selected predicted image (S1006).
  • the selector unit 2005 sets the second predicted image created by the motion search unit 2001 and the motion compensation unit 2002 of the encoding unit 200 as a candidate for a selected predicted image (S1007). ).
  • the selector unit 2005 selects one of the predicted images in S1005, S1006, and S1007. In other words, among them, the number of bits that encoded the error with the encoding target block is (the smallest), or the number of bits that encoded the error is predicted to be small, or the size of the error One (smallest) is selected as the selected predicted image.
  • the selector unit 2005 encodes the error (subtracted image) by the DCT / quantization unit 2007 and the entropy encoding unit 2012 (the subsequent stage unit 200a) (S1008).
  • the block number counter unit 102 increments the block number by 1 when the encoding unit 200 completes the encoding in block units (S1009). Further, when the setting unit 103a or the like determines that the number of blocks after being incremented by 1 is not the maximum number of blocks of the slice, that is, the encoded block is not the last block of the slice (“No” in S1010) ) In steps S1004 to S1010, the moving image encoding apparatus 1 encodes the next block. If the number of blocks is the maximum number of blocks in the slice, the moving image encoding apparatus 1 encodes the next slice (“Yes” in S1010).
  • the setting unit 103a and the like determine whether or not encoding of all slices of the picture has been completed (S1011).
  • the slice division determination unit updates the reading position of the array in FIG. 3 (S1013).
  • the slice type setting unit 103 or the like reads the array of the next slice (S1003).
  • the picture number counter unit 100 increases the number of pictures by 1 (S1012).
  • the setting unit 103a or the like determines whether or not encoding of all the pictures has been completed (S1014). If there is a picture that has not been coded, the moving picture coding apparatus 1 codes the next picture in S1001 to S1011.
  • all or part of the P slices (MC-P slices, NoMC-P slices) in the description of the embodiments may not refer to only past images. That is, all or a part may be a slice (B slice) that refers to a past image and also refers to a future image.
  • the image quality deterioration is infinite when one I-slice received later is received ( Propagation can be prevented for a long time). This can be prevented without dynamically changing the motion search range.
  • FIG. 5 is a diagram showing a relationship between a picture PS to be encoded, a reference picture PR, and a subsequent picture PT after the target picture PS.
  • the reference destination picture PR is a picture encoded by the encoding unit 200 before the encoding target picture PS is encoded. That is, the reference picture PR is a picture that is encoded with reference to the picture for the target picture PS.
  • the reference picture PR has a refresh completion area PR4 and an unrefreshed area PR3.
  • the refresh completion region PR4 has an I slice PR2 at the last part in the traveling direction (downward) of the I slice.
  • the unrefreshed region PR3 has a region PR31 that may cause error propagation by being referenced at the forefront of the I slice in the traveling direction.
  • the target picture PS has a refresh completion area PS1 and an unrefreshed area PS3.
  • the I slice PR2 is included in the refresh completion area PS1.
  • the subsequent picture PT in FIG. 5 is, for example, a picture next to the target picture PS.
  • the motion compensation unit 2002 performs encoding using the first predicted image.
  • a predicted image to be used is selected with sufficient freedom while avoiding that encoding with reference to the image in the unrefreshed region PR3 is performed on the image in the refresh completed region PS1.
  • the data is sufficiently compressed while preventing the image quality degradation from propagating from the unrefreshed region PR3 to the refresh completed region PS1.
  • the block to be encoded is a block of NoMC-P slice (block of the encoding target area PSA2)
  • encoding by the second predicted image by the motion compensation unit 2002 is not performed, and the reference image Only the encoding by the 1st prediction image by the duplication part 2003 is performed.
  • propagation of image quality degradation from the unrefreshed region PR3 to the refresh completed region PS1 is prevented while encoding is performed by a simple process using the first predicted image.
  • the first predicted image is appropriately used. Encoding or encoding by the second predicted image may be performed. Further, when the block to be encoded is a block of a NoMC-P slice, encoding with the second predicted image may be performed as appropriate. As a result, the data can be more fully compressed.
  • a region where the distance from the unrefreshed region PR3 in the I slice PR2 is equal to or smaller than a predetermined distance may be a margin region that is not referred to in the encoding by the first predicted image. preferable.
  • a deblocking filter process and a decimal precision motion compensation process are performed.
  • a predetermined first distance for example, 2 pixels
  • the processing of decimal precision motion compensation of pixels is performed in the moving image coding apparatus 1, the distance from one pixel is determined in advance.
  • the other pixel that is less than or equal to a predetermined second distance affects that one pixel.
  • such an area of a predetermined distance (5 pixels) or less is a margin area that is not referred to in encoding by the first predicted image. That is, the width of the NoMC-P slice 42 (FIG. 2) is sufficiently large so that the region (paste margin region) that is equal to or smaller than the predetermined distance is not referred to in the encoding by the first predicted image. It is preferable that the width is very large.
  • the moving image encoding method is a moving image encoding method for solving the following problem.
  • the moving image coding method for this problem stops the motion search of the slice (NoMC-P slice 42) located above the I slice to be refreshed without dynamically limiting the motion search range. This is a method of preventing error propagation without referring to an unrefreshed area.
  • FIG. 6 is a flowchart of processing according to the type of slice (slice type). In the process of FIG. 4, more specifically, for example, the operation shown in FIG. 6 may be performed.
  • the selector unit 2005 selects the second predicted image (S3004C) by the motion compensation unit 2002. It selects as a prediction image (S3005C). Note that even if the MC-P slice is specified, the selector unit 2005 selects the first predicted image (S3003C) by the reference image duplicating unit 2003 or performs intra-screen prediction in a certain exception. The third predicted image (S3002C) by the unit 2004 may be selected. In this exception, only the third predicted image may be selected.
  • the selector unit 2005 selects the first predicted image (S3003B) when the slice type setting unit 103 identifies the NoMC-P slice as the slice type (S3001: NoMC-P) (S3005B). Note that the selector unit 2005 may select the third predicted image (S3002B) in the case of a certain exception even if the NoMC-P slice is specified.
  • the selector unit 2005 selects the third predicted image (S3002A) when the slice type setting unit 103 identifies the I slice as the slice type (S3001: I) (S3005A).
  • the three processes of the process by the in-screen prediction unit 2004, the process by the reference image duplicating unit 2003, and the process by the motion search unit 2001 and the motion compensation unit 2002 are specifically performed in parallel with each other, for example. May be.
  • the moving image encoding apparatus includes a slice type setting unit (slice type setting unit 103 and setting unit 103a), a selector unit (selector unit 2005), and a difference processing unit (following stage). Part 200a).
  • the rear stage unit 200a includes a subtracter 2006, a DCT / quantization unit 2007, an entropy encoding unit 2012, and the like.
  • each of the slice type setting units 103 and the like may specifically be function blocks of functions realized by a circuit, for example.
  • the slice type setting unit determines the position of the I slice (I slice PR2, I slice PS2, I slice PT1) in the picture (reference destination picture PR, target picture PS, and subsequent picture PT).
  • the slice type setting unit determines different positions as the positions of the I slices in a plurality of pictures.
  • the difference processing unit encodes the moving image by encoding the difference between the block and the selected predicted image of the block for each block of the moving image picture.
  • the selector unit selects the selected predicted image and causes the difference processing unit to use the selected selected predicted image.
  • the selector unit selects the predicted image as the selected predicted image, and the reference destination encoded before the encoding target picture (target picture PS) is encoded.
  • a past image that is an image of the current picture (reference destination picture PR) is selected as follows.
  • the selector unit performs selection as follows according to a specific area (area of the NoMC-P slice 42 (first area R1)) described in detail later in the picture to be encoded.
  • the specific area is an area (NoMC-P slice 42) that may refer to the unrefreshed area PR3 of the reference destination picture (reference destination picture PR) in the refresh completion area PS1 of the target picture PS. Area).
  • the refresh completion area PS1 is an area where the positions of the I slices 41 (I slice PR2) in each picture before the picture (target picture PS) are gathered.
  • the unrefreshed area PR3 is an area where the positions of the I slices 41 (I slice PT1) in each picture after the picture (reference destination picture PR) are gathered.
  • the selector unit uses a block (second predicted image) at a position other than the position of the block in the reference destination picture as a selected predicted image. select.
  • the selector unit does not select the block at the other position (second predicted image) among the blocks in the reference destination picture for the block in the specific area (the block of the NoMC-P slice 42).
  • a selector part selects the block (1st prediction image) of the position same as the position of the block about a block of a specific area as a selection prediction image.
  • the use of the first predicted image prevents the image quality degradation from propagating from the non-refresh area PR3 to the refresh completion area PS1.
  • the propagation of image quality deterioration can be prevented simply by using the second predicted image at the same position, and both propagation prevention and processing simplicity can be achieved.
  • processing can be performed at high speed, and both prevention of propagation and high-resolution data such as high-definition data can be processed.
  • an exception to the second predicted image may be exceptionally selected for blocks in other regions.
  • an exception to the first predicted image may be exceptionally selected for the block in the specific region.
  • the slice type setting unit holds, for example, data (FIG. 3) for specifying the type of each slice included in the picture. Then, for example, the slice type setting unit changes the content of the data to be held to the content that specifies the type of the slice in the specific region as the NoMC-P slice 42. Then, the selector unit may perform the above-described processing based on, for example, the content of data held.
  • the content of the held data includes, for example, information for specifying the position, range, and type of each slice of the picture, and information for specifying the first picture and the last picture of the picture. May be.
  • the moving image encoding apparatus 1 may be provided in a video conference system that transmits a video image of a video conference between, for example, a first site and a second site. . Then, the moving image encoding apparatus 1 may encode the transmitted video image of the video conference. That is, for example, the moving image may be a full high definition (full high definition) moving image in a video conference, for example.
  • the transmission delay is avoided and the display of the transmitted moving image is delayed.
  • the display may be interrupted. Thereby, the realistic feeling of the video conference by the displayed moving image can be improved.
  • processing according to the first region R1 (FIG. 5) and the second region R2 may be performed.
  • the following processing is merely an example. The following processing may be performed only in a certain aspect.
  • the picture ((c)) before the picture (for example, (d)) is set.
  • the I slice 41 of the picture ((d)) may be set by the setting unit 103a at a position next to the position of the I slice 41.
  • the next position is a position adjacent to the position of the I-slice 41 of the previous picture on the side in the traveling direction of the I-slice 41 (lower side in FIG. 2) than the position of the previous picture. is there.
  • the position where the I slice 41 is set may be moved by the setting unit 103a in the direction of the traveling direction for each picture.
  • a block (block of MC-P slices 43 and 44) of a picture PS to be encoded (blocks of MC-P slices 43 and 44) in a reference picture PR within a search range (search range SA) of that block ( It may be encoded by the second inter-screen encoding unit 192 using the second predicted image).
  • the predicted image may be, for example, the second predicted image at a position searched from the search range in the reference picture PR.
  • the second inter-frame encoding unit 192 may be, for example, part or all of the functions of the rear-stage unit 200a.
  • the search range in the block of the second region R2 (FIG. 5) (see the search range Sx2 in FIG. 25) does not have to overlap with the unrefreshed region PR3.
  • the search range (see search range Sx1 in FIG. 25) in the block of the first region R1 may have an overlap with the unrefreshed region PR3.
  • the first predicted image (by the reference image copying unit 2003) for the block (blocks B1 and B2) in the first region R1 is an image at the same position as the position of the block in the reference picture PR. It is.
  • the position of the first region R1 is within the refresh completion region PS1 in the target picture PS. For this reason, the same position as the position of the first region R1 in the reference picture PR is in the refresh completion region PR4.
  • the position of the first predicted image for the block at the position of the region R1 is within the refresh completion region PS1 in the target picture PS.
  • the second predicted image is used only in the coding of the block in the second region R2 (second inter-screen coding unit 192), and in the coding of the block in the first region R1, the first A predicted image may be used (first inter-screen encoding unit 191).
  • the second inter-frame encoding unit 192 performs encoding using the second predicted image only on the blocks in the second region R2, and the blocks in the first region R1 It does not have to be done. Then, the first inter-frame encoding unit 191 does not perform the encoding using the first predicted image on the block in the second region R2, but only on the block in the first region R1. It may be done.
  • the prediction image (first prediction image) in the refresh completion region PR4 in the reference destination picture PR is used so that the propagation of deterioration does not occur. it can.
  • the NoMC-P slice 42 may be set in the first region R1 by the setting unit 103a. And other P slices (MC-P slice 43x) other than the set NoMC-P slice 42 are encoded with the second predicted image, and the set NoMC-P slice 42 is the first predicted image. May be encoded.
  • FIG. 7 is a block diagram showing a configuration of a moving picture coding apparatus 1A according to Embodiment 2 of the present invention.
  • the description of the same configuration as that of the moving image encoding apparatus 1 of Embodiment 1 will be omitted as appropriate.
  • the slice insertion count setting unit 105 (for example, a part of the selection unit 105x (FIG. 28)) performs screen refresh for preventing image quality degradation propagation in the moving image coding apparatus 1A when a transmission error occurs.
  • the number of insertions of the I slice by the moving picture coding apparatus 1A is determined.
  • the slice insertion number setting unit 105 notifies the determined insertion number to the slice type setting unit 103 and the motion search determination unit 104, respectively.
  • the determination of the number of insertions is based on the encoding result transmission method (S2001 in FIG. 10), the bit rate of the network to be transmitted (S2002), the presence or absence of a notification that a transmission error has occurred on the receiving side (S2003), and the like.
  • the slice insertion number setting unit 105 This is performed by the slice insertion number setting unit 105. Specifically, in this determination process, it is selected whether the I slice is repeatedly inserted an infinite number of times (S2005A in FIG. 10) or a predetermined number of times (S2005B). In addition, specify the number of insertions. As will be described in detail later, in this process, in a fixed case (S2004: NO), the number of insertions may be designated as 0 and it may be selected not to be inserted.
  • FIG. 8 is a diagram showing an example of the difference in the number of I slice insertions.
  • FIG. 8A shows a case where an infinite number of times are inserted
  • FIG. 8B shows a case where an I slice is inserted only once.
  • FIG. 9 is a flowchart showing processing according to the number of insertions by the moving image encoding apparatus 1A.
  • the motion search determination unit 104 determines whether the insertion method is an infinite number of insertions, or even if the insertion method is a predetermined number of insertions. If the insertion is an insertion with the number of insertions greater than or equal to the predetermined number, or any of them (S41 in FIG. 8: YES, S41a), the following processing is performed. That is, the process to be performed is a process in which the slice immediately above the I slice is the MC-P slice (S4000: YES, S4001 in FIG. 9).
  • the motion search determination unit 104 directly above the I slice. Are determined as NoMC-P slices (S4000 in FIG. 9: NO, S4002).
  • the circulation method notified from the slice insertion number setting unit 105 is a finite number of insertions (S2005C in FIG. 10)
  • the motion search determination unit 104 every time the slice at the lowest position of a picture becomes an I slice.
  • the retained number of circulations is decreased by 1 and the retained number of circulations becomes 0, all slices are set as MC-P slices.
  • predetermined value (predetermined number) for determining the number of insertions of the I slice may be a fixed value that depends on the size of the picture (number of vertical lines), for example.
  • the frequency of refresh by inserting an I slice is equal to or higher than a predetermined value (including infinite times) (S4000 in FIG. 9: YES)
  • the P slice Are all MC-P slices (S4001), and if it is less than a predetermined value (S4000: NO)
  • the NoMC-P slice and the MC-P slice are used together as in the first embodiment (S4002).
  • the insertion method for inserting the I slice may be selected from the first insertion method for repeatedly inserting the I slice and the second insertion method for inserting only a predetermined number of times (a predetermined number of times). Good.
  • the main video encoding method includes a setting step of setting the insertion method selected in this way, and in the third encoding step, when the set insertion method is the first insertion method, Inter-screen coding may be performed. In the fourth encoding step, the inter-frame encoding may be performed when the set insertion method is the second insertion method.
  • the predetermined insertion method when the set insertion method is the second insertion method, the predetermined insertion method (the number of insertions is a predetermined number or more). In the case of a large number), processing may be performed.
  • the fourth encoding step only when the set insertion method is the second insertion method and not the above-described predetermined case (the number of insertions is less than the predetermined number). Case).
  • FIG. 10 is a flowchart of the slice insertion number setting unit 105.
  • the slice insertion count setting unit 105 determines to insert an I slice an infinite number of times in the following cases (S2005A, S4000: YES in FIG. 9, S41: YES in FIG. 8).
  • the slice insertion number setting unit 105 notifies the determination to the slice type setting unit 103 and the motion search determination unit 104.
  • the slice insertion number setting unit 105 performs finite insertion of the I slice. The number of times (described as 1 in the present embodiment) is determined (S2005C). The slice insertion count setting unit 105 notifies the motion search determination unit 104 of the determination. When there is no packet loss in the network, the slice insertion count setting unit 105 does not notify the motion search determination unit 104 of the insertion of the I slice (“No” in S2004). When the network is NGN (Next Generation Network), it is guaranteed by the network provider that there is no packet loss. The slice insertion count setting unit 105 may perform the process of S2005B when the network is NGN.
  • NGN Next Generation Network
  • the moving picture coding apparatus 1A determines the insertion frequency of the I slice. That is, the number of image decoding devices to be distributed (S2001), the bit rate (S2002), the availability of notification of whether or not stream packets have been lost by the connected image decoding device (S2003), and the status of packet loss on the network (S2004) The decision is made accordingly. Thereby, the method of inserting the I slice is changed, and the moving picture coding apparatus 1A that performs coding in consideration of deterioration of the compression rate is configured.
  • Each of the P slices 42Aa and 42Ab) (NoMC-P slice 42A) is inter-coded without using a motion vector, and among the plurality of first P slices included (NoMC-P slices 42Aa and 42Ab).
  • the maximum value of the size of the first P slice (for example, the size of the NoMC-P slice 42Aa) is the maximum size of the second P slice (MC-P slices 43 and 44 in FIG. 19). This is a moving image encoding method smaller than the value (the size of the MC-P slice 43 in FIG. 19).
  • the maximum value of the size of the first P slice (for example, the size of the NoMC-P slice 42Aa) is the first P slice having the maximum value. It may be larger than the size of the I slice (I slice 41 in FIG. 19) in the picture (picture PS in FIG. 19) including (NoMC-P slices 42Aa, 42Ab).
  • 11 to 13 are diagrams for explaining the third embodiment.
  • the moving picture encoding apparatus may have, for example, the same configuration as in FIG. Then, for example, processing similar to the processing of the flowchart of FIG. 4 may be performed, or processing similar to the processing of FIG. 6 may be performed.
  • the difference value between the input image signal and the pixel position having the highest correlation may be encoded using motion search.
  • the difference value is larger when encoding is performed without motion search. Since the size of the difference value is increased, the number of bits required for encoding increases. This means that the number of encoded bits of a slice in the no motion search range (NoMC-P slice) increases.
  • the size (number of blocks) of the slice without motion search (NoMC-P slice), which is a slice in which the number of encoded bits increases, is the same as that of the slice using motion search (MC-P slice). Make it smaller than the size (number of blocks). In this way, the number of coded bits of the slice should be made constant. If the range in which motion search should not be performed (first region R1) is larger than the size of the slice without motion search (NoMC-P slice), the number of slices without motion search is set to a plurality. Thus, a range (first region R1) of a necessary size that should not be subjected to motion search is realized.
  • the following operation may be performed.
  • FIG. 13 shows the encoding target area PSA2.
  • FIG. 11 shows a plurality of NoMC-P slices 42A.
  • the encoding target area PSA2 includes a first encoding target area PSAa, a second encoding target area PSA2b, and (two or more portions).
  • the first encoding target area PSAa is an area in which the first NoMC-P slice 42Aa (FIGS. 11 and 19) is set.
  • the second encoding target area PSAb is an area in which the second NoMC-P slice 42Ab (FIGS. 11 and 19) is set.
  • the NoMC-P slice (NoMC-P slice 42, 42A) is encoded without using the second predicted image. For this reason, the data amount of the encoded data in which the NoMC-P slice 42 is encoded is relatively large. That is, for example, such a large amount of data is obtained by encoding a slice other than the NoMC-P slice 42 (for example, the MC-P slice) using the second predicted image. It is conceivable that the amount of data is 10 times the amount of data.
  • one slice is one transmission unit.
  • the amount of data in the transmission unit of the NoMC-P slice 42 becomes a large amount of data such as 10 times the amount of data, and there is a risk that the fluctuation range of the data amount in each transmission unit will increase. is there.
  • Such a relatively small size may be, for example, about 1 ⁇ 2 of the size of the NoMC-P slice 42 of FIG.
  • the data structure of FIG. 12 may be used. That is, for example, the height of the first NoMC-P slice 42Aa (first row data in each of (a) to (j)) and the height of the second NoMC-P slice 42Ab (second row). Data) may be stored.
  • the type of the NoMC-P slice 42A is NoMC-P. It may be determined (S3001: NoMC-P, S1004: NoMC-P).
  • S3002B to S3005B may be performed for each NoMC-P slice 42A.
  • the moving picture coding method according to the fourth embodiment is the first picture including the I slice and the P slice at the first time (for example, the time (i) in FIG. 17) ((i in FIG. 17). ) And a second picture (of (k) in FIG. 17) including an I slice and a P slice at a second time (time (k)) later than the first time. And a third picture (not including an I slice) at an intermediate time (time (j)) between the first time and the second time.
  • This is a moving image encoding method for encoding (j) in FIG.
  • the third picture ((j) in FIG. 17) is the first area (FIG. 17) in the first picture ((i) in FIG. 17).
  • the first encoding step first inter-frame encoding unit 191, Sa1
  • the first P slice NoMC-P slice in the region R3 of the third picture ((j) of FIG. 17).
  • the third picture ((j) in FIG. 18) is the first area (the area of the I slice 41) in the second picture ((k) in FIG. 18). ) In the same region R3 of the third picture ((j) in FIG. 18) in the first encoding step (the region R3 in FIG. 18). (P slice) 42N is inter-coded without using a motion vector, and in the second encoding step, in the third picture ((j) of FIG. 18) of other areas other than the same area R3.
  • the second P slice PNx may be inter-coded using a motion vector.
  • the maximum value of the size of the first P slice 42B may be smaller than the maximum value of the size of the second P slice PMx included in the third picture ((j) in FIG. 20).
  • Each of the P slices) 42C is inter-coded without using a motion vector, and among the plurality of first P slices 42C included in the third picture ((j) of FIG. 21), The maximum value of the size of the first P slice 42C may be smaller than the maximum value of the size of the second P slice PNx included in the third picture ((j) in FIG. 21).
  • FIG. 17 is a diagram showing the NoMC-P slice 42M and the like.
  • FIG. 17 there may be a picture PM in which no I slice is set.
  • the picture PM is, for example, a picture at an intermediate time.
  • the intermediate time is the earlier time of the picture PR (I) of FIG. 17 in which the I slice PR2 is set and the later time of the picture PS (K of FIG. 17) in which the I slice PS2 is set. It is an intermediate time between Specifically, the picture PM at the intermediate time is a picture immediately after the picture PR and a picture immediately before the picture PS. That is, the picture PR may be a picture before the picture PM, and the picture PS may be a next picture.
  • the early-time picture PR may be, for example, the latest and latest-time picture among the pictures for which I slices have been set in the past when the intermediate picture PM is processed.
  • the NoMC-P slice 42M may be set by the setting unit 103a in the picture PM at the intermediate time (step Sa0b).
  • the NoMC-P slice 42M to be set is, for example, as shown in FIG. 17, a slice of a region R3 composed of both the region of the NoMC-P slice 42 and the region of the I slice PR2 in the picture PR at an early time. It is.
  • the refresh completion area (NoMC-P slice 42M and the intermediate MCMC) from the unrefresh area (the I slice PR2, the NoMC-P slice 42, and the MC-P slice 44 area) of the picture PR at the earlier time.
  • the propagation of deterioration to the MC-P slice 44 region may be eliminated.
  • the deterioration in the refresh completion area of the picture PM at the intermediate time is eliminated, so that the refresh completion area of the picture PS at the later time is changed from the refresh completion area in the picture PM at the intermediate time (see FIG. 5 and the like). Propagation of degradation to) is reliably avoided. As a result, the deterioration that propagates to the refresh completion region of the late-time picture PS can be reliably eliminated.
  • a picture PR at an early time includes one or more MC-P slices PRx (MC ⁇ ) in addition to the NoMC-P slice 42 and the I slice PR2.
  • P slices 44 and 43) may be set by the setting unit 103a.
  • the MC-P slice PMx having the same width as that of the MC-P slice PRx is located at the same position as the position of each MC-P slice PRx. It may be set. That is, the MC-P slice PMx in the same area as the area of each MC-P slice PRx may be set in the picture PM at the intermediate time.
  • the slice division which is the same as the slice division in the picture PR at the early time, is performed by the setting unit 103a in the area other than the area of the NoMC-P slice 42M. Good.
  • the division of the slice in the intermediate time picture PM may be a division corresponding to (similar to) the division of the slice in the early time picture PR.
  • FIG. 17 there may be a plurality of intermediate time picture PMs (FIG. 17). That is, there may be an intermediate picture PM at each of two or more times between the early time of the picture PR and the late time of the picture PS. Then, the same processing as described above may be performed for each intermediate picture PM.
  • the picture PR in which the I slice (I slice PS2) is set immediately before the intermediate time picture PM the picture PR in which the I slice (I slice PS2) is set immediately before the intermediate time picture PM.
  • FIG. 18 is a diagram showing the NoMC-P slice 42N and the like.
  • the NoMC-P slice 42N may be set in the picture PN at the intermediate time.
  • the NoMC-P slice 42N to be set is a slice in the same area as the area of the NoMC-P slice 42 in the picture PS at a later time.
  • the MC-P slice PNy having the same area as the area of the I slice 41 in the late-time picture PS may be set in the intermediate time picture PN.
  • a normal MC-P slice (MC-P slice PNy) may be set in the same area.
  • the MC-P slice PNx having the same area as that of each MC-P slice PSx in the late-time picture PS may be set in the intermediate-time picture PN.
  • the division of the slice in the intermediate time picture PN is performed later in the area other than the area of the MC-P slice PNy (the area of the I slice 41 in the late-time picture PS). It may be the same as the division by the picture PS in FIG.
  • the MC-P slice PNy area may be different only in the type of slice (MC-P slice, I slice).
  • the division of the slice in the picture PN at the intermediate time may be a division corresponding to (similar to) the division in the picture PS at the later time.
  • the NoMC-P slice 42N in FIG. 18 is smaller than the NoMC-P slice 42M in FIG. That is, for example, the NoMC-P slice 42N in FIG. 18 is the width of the movement of the I slice from the position of the I slice 41 in the early time picture PR to the position in the I slice PS2 in the late time picture PS. Therefore, it may be smaller than the NoMC-P slice 42M in FIG.
  • the first predicted image is not used, and the data amount of the encoded data becomes relatively large.
  • FIG. 20 is a diagram showing a picture PMB or the like at an intermediate time.
  • the division corresponding to the division at the picture PR at the early time is performed in the same manner as the example in FIG. 17 described above.
  • the number of NoMC-P slices 42B included in the plurality of NoMC-P slices 42B may be two, three, or other numbers, for example.
  • FIG. 21 is a diagram showing a picture PMC and the like at an intermediate time.
  • the division corresponding to the division at the late-time picture PS is performed in the same manner as the example in FIG. 18 described above.
  • the number of NoMC-P slices 42B included in the plurality of NoMC-P slices 42B may be two, three, or any other number.
  • the number of blocks in the NoMC-P slice may be smaller than the number of blocks in the normal P slice (MC-P slice 43).
  • the number of bits after encoding of the NoMC-P slice can be avoided and reduced.
  • packet loss in the transmission path through which the encoded data is transmitted can be prevented.
  • one slice is one transmission unit (may be one packet). If the size of one transmission unit exceeds a certain size, packet loss is likely to occur.
  • FIG. 14 to FIG. 16 are explanatory diagrams when the moving picture coding apparatus according to each of the above embodiments is implemented by a computer system using a program recorded on a recording medium such as a flexible disk.
  • FIG. 14 is a diagram showing an example of a physical format of a disk FD of a flexible disk (see FIG. 15) which is a recording medium body.
  • FIG. 15 is an external view (left figure) of the flexible disk, a sectional structure of the flexible disk (middle figure), and a diagram (right figure) showing the disk FD.
  • the flexible disk includes a case F and a disk FD built in the case F.
  • a plurality of tracks Tr are formed concentrically from the outer periphery toward the inner periphery.
  • Each track Tr is divided into 16 sectors Se in the angular direction. Therefore, the program is recorded in an area allocated on the disk FD.
  • FIG. 16 is a diagram showing a configuration of a computer system Cs that records the program on the flexible disk, and reads and reproduces the program from the flexible disk. For example, when recording the program for realizing the moving image encoding apparatus on a flexible disk, the computer system Cs writes the program on the flexible disk (the disk FD thereof) via the flexible disk drive FDD.
  • the computer system Cs may execute the program in the flexible disk.
  • the program is read from the flexible disk by the flexible disk drive FDD, and the read program is read from the flexible disk drive FDD to the computer. Transfer to system Cs.
  • the computer system Cs implements the functions of the above-described moving picture coding apparatus by executing the transferred program.
  • a disk (flexible disk) FD has been described as an example of a recording medium, but the same can be done using an optical disk.
  • the recording medium is not limited to this, and can be similarly implemented as long as it can record a program such as an IC card, a ROM cassette, a USB (Universal Serial Bus) memory, a memory card (Memory Card), and the like.
  • the program recorded in the HDD (hard disk drive), nonvolatile memory, RAM and ROM, SDD (Solid State Drive), etc. included in the computer system Cs is not limited to a recording medium removable from the computer system Cs.
  • the computer system Cs may execute.
  • the computer system Cs may execute a program acquired from the outside of the computer system Cs via a wired or wireless communication network.
  • the moving picture encoding apparatuses shown in the first to fourth embodiments can be realized by the computer system Cs.
  • each functional block included in the moving picture coding apparatus may be realized as an LSI which is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them.
  • the functional blocks other than the memory may be integrated into one chip.
  • the name used here is LSI, but it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.
  • the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • only the means for storing the data to be encoded may be configured separately instead of being integrated into one chip.
  • the vertical width of the first P slice region (the vertical width of the NoMC-P slice 42) is “a search range for motion detection in the second encoding step”. It may be equal to or greater than “ ⁇ I slice width”.
  • the insertion method for inserting the I slice is the first insertion method for repeatedly inserting the I slice (S2005A), and a predetermined number of times.
  • a moving image coding method including a second insertion method of inserting only (a predetermined number of times) and a selection step of selecting from (S2005C) may be constructed.
  • an I slice is inserted based on whether or not the receiving side that receives the transmitted data notifies the encoding device that performs encoding that a decoding error has occurred on the receiving side (S2003). Even if a moving image coding method including a selection step of selecting an insertion method from a first insertion method of repeatedly inserting an I slice and a second insertion method of inserting only a predetermined number of times (only a predetermined number of times) is constructed. Good.
  • the insertion method for inserting I slices is the same as the first insertion method for repeatedly inserting I slices and only a predetermined number of times (only a predetermined number of times).
  • a moving picture coding method including a selection step of selecting from the second insertion method to be inserted may be constructed.
  • the image processing method further includes a filtering step for performing deblocking filter processing (filter unit 2010, Sa4), and the vertical width of the first P slice region is determined so that one pixel is the other pixel in the deblocking filter processing.
  • a moving picture encoding method may be constructed that is larger than the maximum distance (for example, a distance of two pixels) of the distance between two pixels that affects the two.
  • the motion vector is detected in a unit smaller than a pixel (decimal motion compensation processing is performed), and the vertical width of the first P slice region is the motion compensation processing by the motion vector.
  • one pixel may be larger than the maximum distance (for example, a distance of three pixels) between two pixels that affects the other pixel.
  • the vertical width is, for example, refresh completion from the unrefreshed area (unrefreshed area PR3) to the blank area from the sum of the two maximum values of the filtering step and the decimal precision process. You may have the magnitude
  • the width in the vertical direction is not limited to the width considering only the influence in the filter process or the like, but the width in consideration of the influence of the filter process or the like is further added. It may be more than the specified width.
  • the vertical width of the first P slice region may be greater than or equal to the motion detection search range in the second encoding step.
  • the lower end of the search range is above the upper end of the I slice of the picture to be encoded (target picture PS). That is, when the position of the upper end of the I slice of the target picture is the same as the position of the lower end of the I slice of the reference destination picture (reference destination picture PR), the lower end of the I slice of the reference destination picture.
  • the lower end of the search range is the upper side. That is, the lower end of the search range is above the upper end of the non-refresh area of the reference picture.
  • the search range for motion detection in the second encoding step the width of the I slice.
  • the width of the NoMC-P slice 42 in (n) of FIG. 2 may be the same as the search range size W shown in (m), for example. That is, this width may be the same as W, or may be equal to or greater than W, or may be smaller than W.
  • W search range size
  • W the search range size
  • the width of the NoMC-P slice 42 is relatively reduced, and the encoded data after the NoMC-P slice 42 is encoded is reduced. Thereby, avoidance of propagation and the smallness of the data after encoding can be compatible.
  • the width of the search range is, for example, the downward direction in FIG. 2, that is, the width (W) in the traveling direction of the I slice, and may be the maximum value of the distance searched in the traveling direction.
  • the width of the first P slice region may be, for example, equal to or greater than the search range (maximum value of the search distance). As a result, it is possible to avoid a sufficiently inappropriate propagation of image quality degradation. Furthermore, more specifically, the width of the first P slice region may be equal to or greater than the sum of the maximum value of the search distance and the above distance of the maximum value of the deblocking filter. Specifically, the width of the first P slice region may be equal to or greater than the sum of the maximum value of the search distance and the above distance of the maximum value of the motion compensation processing with decimal precision. Specifically, the width of the first P slice region may be equal to or greater than the sum of the three lengths.
  • the first slice ((0) to [6] in FIG. 3) is selected from the plurality of slices ([0] to [6] in FIG. 3). And the ending slice) may be selected.
  • the position of each slice eg, [0] NoMC-P slice
  • the slice [0] NoMC-P slice
  • the position at which the I slice ([1]) is set at each time (for example, time (d)) is set to the position next to the position at the immediately preceding time (time (c)).
  • time (d) the position at which the I slice is set may be moved.
  • the present invention can be used for a moving image encoding device, and in particular, can be used for a communication device or a set device that encodes a moving image, such as moving image bidirectional communication using a network, moving image distribution, or a monitoring camera. it can.
  • DESCRIPTION OF SYMBOLS 100 Picture number counter part 102 Block number counter part 103 Slice type setting part 104 Motion search determination part 105 Slice insertion frequency setting part 200 Coding part 300 Packetization part 2001 Motion search part 2002 Motion compensation part 2003 Reference image duplication part 2004 In screen Prediction unit 2005 Selector unit 2006 Subtractor 2007 DCT / quantization unit 2008 Inverse quantization / inverse DCT unit 2009 Adder 2010 Filter unit 2011 Reference image holding unit 2012 Entropy encoding unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 ピクチャに含まれるIスライスの位置が垂直方向に移動する動画像符号化方法において、前記Iスライスに隣接する第1の領域であって、前記垂直方向の移動の向きと逆向きに隣接する第1の領域に含まれる第1のPスライスを、動きベクトルを用いずに画面間符号化し(Sa1)、前記第1の領域以外の第2の領域に含まれる第2のPスライスを、動きベクトルを用いて画面間符号化する(Sa2)。

Description

動画像符号化方法、装置、プログラム、および集積回路
 本発明は、動画像符号化方法および動画像符号化装置に関する。特に、MPEG(Moving Picture Experts Group)-4 AVC方式(別名ITU-T H.264方式)を用いて、画像信号を、複数ブロックからなるスライスに分割し、各スライスを、ブロック単位で符号化する動画像符号化方法および動画像符号化装置に関する。
 近年、音声、画像、および、その他の画素値を、統合的に扱うマルチメディア時代を迎え、従来の情報メディア、つまり新聞、雑誌、テレビ、ラジオおよび電話等の、情報を人に伝達する手段が、マルチメディアの対象として取り上げられるようになってきた。一般に、マルチメディアとは、文字だけでなく、図形あるいは、音声、特に画像等を、同時に、互いに関連づけて表すことをいう。上記、従来の情報メディアを、マルチメディアの対象とするには、その情報を、デジタル形式にして表すことが必須条件となる。
 ところが、上記各情報メディアの持つ情報量を、デジタル情報量として見積もってみると、文字の場合、1文字当たりの情報量は、1~2バイトである。それに対し、音声の場合には、1秒当たり64Kbits(電話品質)、さらに、動画の場合については、1秒当たり100Mbits(現行テレビ受信品質)以上の情報量が必要となる。それ故、上記情報メディアで、その膨大な情報をデジタル形式で、そのまま扱うことは現実的ではない。例えば、テレビ電話は、64Kbit/s~1.5Mbit/sの伝送速度を持つサービス総合デジタル網(ISDN:Integrated Services Digital Network)によって実用化されている。しかし、テレビ・カメラの映像を、そのままのデジタル情報量、つまり圧縮しない場合の情報量で、ISDNにて送ることは不可能である。
 そこで、必要となってくるのが、情報の圧縮技術である。例えば、テレビ電話の場合、ITU-T(国際電気通信連合 電気通信標準化部門)によって勧告された、H.261あるいはH.263規格の動画圧縮技術が用いられている。また、MPEG-1規格の情報圧縮技術では、通常の音楽用CD(コンパクト・ディスク)に、音声情報と共に、画像情報を入れることも可能となる。
 ここで、MPEG(Moving Picture Experts Group)とは、ISO/IEC(国際標準化機構 国際電気標準会議)によって標準化された、動画像信号圧縮の国際規格である。MPEG-1は、動画像信号を、1.5Mbit/sまで、つまりテレビ信号の情報を、約100分の1にまで圧縮する規格である。また、MPEG-1規格では、対象とする品質を、中程度の品質、すなわち、伝送速度が主として約1.5Mbit/sで実現できる程度の品質としたことから、さらに高画質化の要求を満たすべく、MPEG-2が規格化された。MPEG-2では、動画像信号を2~15Mbit/sで圧縮し、TV放送品質を実現する。
 さらに、現状では、MPEG-1、MPEG-2と標準化を進めてきた作業グループ(ISO/IEC JTC1/SC29/WG11)によって、MPEG-4が規格化された。このMPEG-4では、MPEG-1、MPEG-2を上回る圧縮率を達成し、さらに、物体単位で符号化・復号化・操作を可能とし、マルチメディア時代に必要な新しい機能を実現する。MPEG-4は、MPEG-1、およびMPEG-2を上回る圧縮率を達成し、さらに物体単位で符号化、復号化および操作を可能とする。
 このMPEG-4の規格を決める作業では、当初、低ビットレートの符号化方法の標準化を目指して、作業が進められたが、インタレース画像も含む高ビットレートの符号化方法も含む、より汎用的な符号化に、規格の内容が拡張された。さらに、現在は、ISO/IECと、ITU-Tとによって、共同で、より高圧縮率の画像符号化方式として、MPEG-4 AVC(ITU-T H.264)が規格化された。
 ここで、画像信号は、同じ時刻の画素の集合であるピクチャ(フレームまたはフィールドとも呼ばれる)が連続したものであると考えることができる。また、画素は、ピクチャ内での近傍画素との相関が強いことから、ピクチャ内の画素の相関を利用した圧縮が行われる。さらに、連続する2個(複数の)ピクチャ間では、画素の相関も強いことから、それらのピクチャ間での、画素の相関を利用した圧縮も行われる。ここで、複数のピクチャ間の、画素の相関と、ピクチャ内の、画素の相関とを利用した圧縮を、インター符号化と呼び、ピクチャ間の、画素の相関を用いないが、ピクチャ内の、画素の相関を利用した圧縮を、イントラ符号化と呼ぶ。このインター符号化は、ピクチャ間の相関を利用しているので、イントラ符号化での圧縮率よりも高い圧縮率を実現できる。
 また、MPEG-1、MPEG-2、MPEG-4、MPEG-4 AVC(H.264)では、2次元の矩形領域の画素の集合であるブロック(もしくは複数のブロックをまとめた上位概念ブロックであるマクロブロック)を構成し、ブロック単位で、イントラ符号化とインター符号化を切り替えることができる。
 一方、ADSLまたは光ファイバを用いた高速ネットワーク環境が普及しており、これにより、一般家庭でも、数Mbit/sを越えるビットレートで、送受信が可能となっている。さらに、今後数年で、数十Mbit/sでの送受信が可能になる見込みである。それにより、上記の画像符号化技術を用いることで、専用回線を用いた企業だけでなく、一般家庭でも、TV放送品質およびHDTV放送品質での、TV電話およびTV会議システムの導入が進むと予想される。
 ところで、ネットワークを介して、符号化した画像データ、すなわちストリームを伝送する際には、ネットワーク輻輳などで、ストリームの一部が消失する可能性がある。ストリームの一部が消失した場合には、受信側で、消失したストリーム(の一部)に対応する箇所の画像を正しく復号できないので、画質劣化が発生する。そこで、ブロックを複数まとめた符号化単位であるスライスが定義された。スライスは、独立に符号化および復号処理が可能な最小単位であり、ストリームの一部が消失しても、スライス単位で復号処理ができる。
 図22は、MPEG規格のスライス分割方法を用いた場合における、スライスSとブロックMB(マクロブロック)との関係を説明する図である。
 図22に示すピクチャP(1フレーム)は、複数のブロックMB(マクロブロック)で構成されている。また、ピクチャPを構成するブロックMBの中で、同じ行のブロックMBは、1つのスライスSを構成している。つまり、スライスSは、そのスライスSの行に含まれる複数のブロックMBによって構成される。ピクチャPは、それぞれの行が、1つのスライスSにより構成される複数の行を有する。例えば、斜線をつけたスライスSは、IスライスISであり、その他の各スライスは、PスライスPSmである。IスライスISは、イントラ符号化のブロックのみで構成されるスライスである。PスライスPSmは、インター符号化のブロックで構成されるスライスである。なお、MPEG-2では、スライスSを、同じ行のブロックのみ(1つの行のブロックのみ)で構成しないといけないが、MPEG-4やH.264では、スライスSを、複数行で構成することも可能な拡張が行われた。
 また、H.264規格では、1つのピクチャ(ピクチャP)に、IスライスとPスライスとの2種類のスライスを同時に含むことができる。一般に、Iスライスは、スライス内の画素の相関のみを利用して符号化されるスライスを意味する。Pスライスは、スライス内の画素相関と、スライス間の画素相関とを利用して符号化されるスライスを意味する。ここで、スライス間とは、当該スライスと、当該スライス以外の他のスライスとの間のことである。当該スライス以外の他のスライスは、当該スライスを含むピクチャとは異なる他のピクチャに含まれるスライスであってもよい。別の言い方をすると、Iスライスは、周囲(当該スライスの外側)の画像信号からの(当該画像信号に基づいた)予測符号化を用いないスライス、すなわちイントラ符号化されるイントラ・マクロブロックのみを集めたスライスである。そして、Pスライスは、予測符号化によって圧縮効率を高めたスライス、すなわちインター符号化されるインター・マクロブロックと、イントラ・マクロブロックとが混在して構成されるスライスである。
 なお、H.264規格でも、アプリケーション運用規格での制限や、MPEG-2など、1つのピクチャ内で、IスライスとPスライスとの混在を禁止するものも存在する。そこで、本明細書のIスライスとは、次のスライスも含まれるものとする。すなわち、本明細書では、意図的に、スライス内の、画素の相関のみを利用して符号化した、特殊なPスライスも、便宜上、Iスライスと呼ぶことにする。
 図23は、ピクチャPにおける、複数のブロックの符号化順を説明するための図である。
 図22に示すピクチャPにおけるブロックMBは、図23で示す順序、すなわち、ピクチャP内において、スライス単位内では左から右へ、かつ、スライス単位で、上から下への順序で符号化されて、ストリームが生成される。
 しかし、たとえ、あるピクチャの全てのスライス単位で復号処理が正しく行われたとしても、そのピクチャの、復号処理された画素が正しく復号できるとは限らない。例えば、ストリームに、消失が発生したとしても、消失で、画質劣化が生じたピクチャの次のピクチャを復号する際に、次のピクチャが、イントラ符号化されている場合には、イントラ符号化されているスライスのストリームのみで(のみに基づいて)、画素を正しく復号できる。しかし、消失で画質劣化が生じたピクチャの次のピクチャを復号する際に、次のピクチャがインター符号化されている場合には、次のピクチャは、直前に復号したピクチャ、すなわち、ストリームの消失によって画質劣化があるピクチャとの相関を利用して(直前に復号したピクチャを参照して)、復号を行うので、消失したストリームの次のピクチャにおいては、全てのスライスで復号処理が正しく行われたとしても、本来の画素値を正しく復号できない。
 このように、ストリームが消失した場合に、消失で画質劣化が生じたピクチャの次のピクチャが、インター符号化されていると、次のピクチャを正しく復号できず、さらに再帰的に、次のピクチャよりもさらに後の、後続のピクチャも正しく復号できなくなる課題がある。
 MPEG-2では、Pピクチャを、一定数符号化する毎に、イントラ符号化のみのブロックを含むIピクチャを符号化することにより、ストリーム消失による画質劣化の影響が伝播することを防止していた。しかしながら、Iピクチャを符号化した、符号化後のデータのビット数は、Pピクチャを符号化した、符号化後のデータのビット数の、数倍から十数倍のビット数となる。このため、一定のビットレートしか伝送できない伝送路で伝送するためには、大きなバッファを有する伝送ビットレート平滑装置を介して、伝送することになる。ここで、伝送ビットレート平滑装置の伝送遅延時間は、数ピクチャ~十数ピクチャ分の時間と大きく、低遅延時間で、画像信号を伝送する目的には、伝送ビットレート平滑装置を用いることは適さない。そこで、以下に説明する方法で、ピクチャ単位のビット数をほぼ一定にする符号化を行うことで、低遅延を実現し、かつ、画質劣化が再帰的に伝播することを防止する。
 図24は、時間順に連続するピクチャ((a)~(l))のスライス分割例を示す図である。
 ここで、斜線をつけたスライスは、図22と同様に、IスライスISであり、その他のスライスは、PスライスPSmである。ここで、スライスは、先述の例と同様、行単位である。また、図24の(a)~(l)は、時間順に連続する複数のピクチャである。すなわち、図24では、(a)が、時間順に最初のピクチャであり、(l)が、時間順に最後のピクチャである。図24において、IスライスISの位置は、時間順に次のピクチャでは、1行下に移動し、最下位行に移動した次では、最上位行に戻っている(図24の(j)から(k))。
 このように、ストリーム消失に強いIスライスISと、ストリーム消失には弱いが、圧縮率の良いインター符号化を含むPスライスPSmで、ピクチャPを構成し、IスライスISの位置(設定される位置)を、時間順に、ピクチャP内で循環する。それにより、ある時点で、ストリームが消失して、PスライスPSmの画質が劣化しても、ストリームが消失したPスライスPSmの位置のスライスが、時間順に後のピクチャで、IスライスISとなった際に、ピクチャPが正しく復号される。すなわち、画像劣化のあったストリームを回復できる。それ故、画質劣化が、無限に伝播することを防止できる。
 しかしながら、IスライスISを周期的に挿入するだけでは、画質劣化が伝播することを防止できない。
 図25は、従来の、動き探索範囲を制約しない場合に生じる画質劣化を説明するための図である。
 ストリームの消失により画質劣化が生じても、IスライスISが循環することで、画質劣化の伝播が停止される(ピクチャがリフレッシュされる)。IスライスISは、上から下へ移動しているので、ピクチャは、上のスライスから順にリフレッシュされる。
 ピクチャNでは、IスライスISの位置と、IスライスISより上の位置の画素では、ピクチャが正しく復号できている。しかし、IスライスISより下の位置の画素では、画質劣化がある。つまり、伝送エラーによって発生した画質劣化があった後に、まだ、IスライスISを復号していない、ピクチャNにおける、IスライスISより下の位置の画素には、画質劣化があるとする。この、Iスライスによる画質劣化の伝播が停止する領域を、リフレッシュ完了領域RR(図25参照)と呼び、まだIスライスで符号化(復号)されておらず、画質劣化がある領域を未リフレッシュ領域NRと呼ぶ。
 リフレッシュ完了領域RRは、IスライスISと、IスライスISよりも上のそれぞれのスライスとからなる領域である。ここで、IスライスISよりも上とは、IスライスISに対して、IスライスISで符号化する位置(IスライスISが設定される位置)の進行方向とは逆の方向の位置である。
 未リフレッシュ領域NRは、IスライスISよりも下のそれぞれのスライスからなる領域である。ここで、IスライスISよりも下とは、IスライスISに対して、IスライスISで符号化する位置の進行方向における位置である。
 ここで、インター符号化では、ブロック単位で、相関の高い画素との差を符号化するため、符号化対象ブロックC(図25のピクチャN+1)と、比較対象ピクチャ(図25のピクチャN)の画素ブロックとを比較し、最も画素の相関が大きい位置の画素値との差を、ブロック単位で符号化する。この画素の相関が大きい位置を探索することを、動き探索と呼ぶ。参照先のピクチャ(ピクチャN)における、この動き探索において、探索されるブロックの位置の範囲は、動き探索範囲と呼ばれる。
 そして、この動き探索範囲が、参照先のピクチャにおけるリフレッシュ完了領域RR内であれば、復号化装置では、伝送エラーによる画質劣化のない画素値を参照して復号するため、インター符号化した画素を復号しても、画質劣化はない。
 また、動き探索範囲が、未リフレッシュ領域NR内であっても、ピクチャN+1の符号化対象ブロックCが、未リフレッシュ領域NR内であれば(符号化対象ブロックC3)、問題ない。なぜならば、復号化装置では、後続のピクチャ(ピクチャN+2等を参照)で、その符号化対象ブロックC3の位置のスライスを、Iスライスとして復号したときに、伝送エラーによる画質劣化がなくなるためである。
 一方、ピクチャN+1の符号化対象ブロックが、リフレッシュ完了領域RRのブロック(符号化対象ブロックC1)でありながら、ピクチャNの未リフレッシュ領域NRを参照して符号化する場合、問題になる。つまり、この場合、復号化装置では、そのブロックが後続のピクチャ(ピクチャN+2参照)において、Iスライス(イントラ符号化)で復号できないために、そのブロックと、そのブロックを参照した復号では、伝送エラーによる画質劣化が解消せず、問題となる。すなわち、符号化の対象のピクチャ(ピクチャN+1)の、リフレッシュ完了領域RRのブロックから、参照先のピクチャ(ピクチャN)の、未リフレッシュ領域NRのブロックへの参照がされると、画質劣化の伝播が生じる。
 図26は、探索範囲を制約する場合の処理を示す図である。
 これを防ぐための一方法として、図26のように、ピクチャN+1のリフレッシュ完了領域RRのブロック(符号化対象ブロックC1、C2)の符号化では、ピクチャNのリフレッシュ完了領域RR(Iスライスでの符号化が済んだ領域)までを、動き探索範囲とし、伝送エラーによる画質劣化の伝播を停止する方法が知られている。
 このような従来の技術としては、例えば特許文献1に記載されたものが知られている。
特開2008-258953号公報
 しかしながら、上述した、従来の符号化方法では、リフレッシュ完了領域RRのブロックの符号化における動き探索で、動き探索範囲が、未リフレッシュ領域NRを含まないよう、動き探索範囲を、動的に制限する必要がある。つまり、符号化している位置(符号化対象ブロックCの位置)に応じて、動き探索範囲の大きさを変更して、動き探索を行う必要がある。つまり、例えば、図26のブロックB1での動き探索において、ブロックB2の動き探索での動き探索範囲とは異なる動き探索範囲での処理がされる。このため、従来の符号化方法では、制御が複雑になるという課題がある。例えば、位置により、動き探索範囲の大きさが変化して、動き探索の処理の時間が変化する。これにより、動き探索のパイプライン処理の制御が複雑になり、複雑な回路が必要になる。これにより、処理の速度が低下して、高解像度のデータなどについては、必要な速度で、処理ができなくなる。例えば、ハイビジョンのデータが適切に処理できなくなる。
 本発明は、上記従来の課題を解決するものであり、動き探索範囲を動的に制限することなく、未リフレッシュ領域の参照を行わずに、エラー伝播を防ぐ動画像符号化装置、方法等を提供することを目的とする。すなわち、未リフレッシュ領域からリフレッシュ領域へのエラー伝播を防ぐことを、簡単な処理で実現し、ひいては、簡単な構成の装置で実現できるようにする。そして、これにより、ひいては、ハイビジョンのデータなどの、高解像度のデータでも、適切に処理できるようにする装置等を提供することを目的とする。
 上記目的を達成するため、本発明の符号化方法は、1つのピクチャにIスライスとPスライスとを含み、含まれる前記Iスライスの前記ピクチャ内の位置が、ピクチャ毎に、ピクチャの垂直方向に移動する動画像符号化方法であって、前記Iスライスに隣接する第1の領域であって、前記垂直方向の移動の向きと逆向きに隣接する第1の領域に含まれる第1のPスライスを、動きベクトルを用いずに画面間符号化する第1の符号化工程と、前記第1の領域以外の第2の領域に含まれる第2のPスライスを、動きベクトルを用いて画面間符号化する第2の符号化工程とを含む動画像符号化方法である。
 なお、1つのピクチャにIスライスとPスライスとを含むとは、同一ピクチャにIスライスとPスライスとを含むことをいい、Iスライスが含まれるピクチャが、Pスライスが含まれるピクチャと同一であることを意味する。
 なお、こうして、リフレッシュを行うIスライスの上の位置のスライスの動き探索を停止してもよい。
 本発明によれば、動き探索範囲を動的に制限するという複雑な処理を行うことなく、図5に示すように、Iスライスの上の位置のPスライスでは、動き探索機能を禁止する。このような単純な処理のみで、ネットワーク伝送時にストリームが消失しても、後続のピクチャで、Iスライスを復号することで、画質劣化のないピクチャに正しく復号することができる。すなわち、第1のPスライス領域は、上記移動の向きと逆向きにIスライスに隣接するリフレッシュ完了領域の最下部である。この最下部の画面間符号化では、動きベクトルが用いられず、動きを勘案しない同じ位置での画像が利用される。これにより、参照先のピクチャにおける未リフレッシュ領域(Iスライスに対して上記移動の向きから隣接する領域)への参照が防がれる。これにより、未リフレッシュ領域から、リフレッシュ完了領域への、画質劣化の伝播が防がれる。しかも、単に、同じ位置での画像が利用されるだけであり、行われる処理が簡単である。つまり、不適切な、画質劣化の伝播の防止と、行われる処理の簡単さとが両立できる。
図1は、実施の形態1における動画像符号化装置のブロック図である。 図2は、実施の形態1における、スライス分割方法と参照の関係の説明図である。 図3は、実施の形態1における、スライス分割およびスライスタイプ判定の動作説明図である。 図4は、実施の形態1における動作説明のためのフローチャートである。 図5は、本発明の動き探索範囲の制約を説明するための図である。 図6は、スライスの種類に応じた処理のフローチャートである。 図7は、実施の形態2における動画像符号化装置のブロック図である。 図8は、実施の形態2におけるIスライス挿入回数の違いの例を示す図である。 図9は、動画像符号化装置1Aのフローチャートである。 図10は、実施の形態2におけるスライス挿入回数設定部のフローチャートである。 図11は、実施の形態3における、スライス分割方法と参照の関係の説明図である。 図12は、実施の形態3おける、スライス分割およびスライスタイプ判定の動作説明図である。 図13は、実施の形態3での、動き探索範囲の制約を説明するための図である。 図14は、各実施の形態の動画像符号化装置をコンピュータシステムにより実現するためのプログラムを格納するための記録媒体についての説明図である。 図15は、各実施の形態の動画像符号化装置をコンピュータシステムにより実現するためのプログラムを格納するための記録媒体についての説明図である。 図16は、各実施の形態の動画像符号化装置をコンピュータシステムにより実現するためのプログラムを格納するための記録媒体についての説明図である。 図17は、複数のピクチャを示す図である。 図18は、複数のピクチャを示す図である。 図19は、複数のNoMC-Pスライスを示す図である。 図20は、複数のピクチャを示す図である。 図21は、複数のピクチャを示す図である。 図22は、MPEGのスライスとブロックの関係の説明図である。 図23は、ピクチャにおける複数のブロックの符号化順の説明図である。 図24は、時間順に連続するピクチャのスライス分割例を示す図である。 図25は、従来の動き探索範囲を制約しない場合を説明するための図である。 図26は、従来の動き探索範囲の制約を説明するための図である。 図27は、動画像符号化装置のブロック図である。 図28は、動画像符号化装置のブロック図である。 図29は、動画像符号化装置のフローチャートである。 図30は、動画像符号化装置のフローチャートである。
 以下、図面が参照されつつ、本発明を実施する形態が説明される。
 実施形態の動画像符号化方法は、1つのピクチャ(図5の符号化の対象のピクチャPS、参照先のピクチャPR、後続のピクチャPTなど)にIスライス(IスライスPR2、図2のIスライス41)とPスライス(符号化対象領域PSAのスライス、図2のNoMC-Pスライス42、MC-Pスライス43)とを含み、含まれる前記Iスライスの前記ピクチャ内の位置(Iスライスが設定される位置)が、ピクチャ毎に、ピクチャの垂直方向(図5の下向きの方向)に移動する動画像符号化方法であって、前記Iスライスに隣接する第1の領域(第1のPスライス領域)であって、前記垂直方向の移動の向きと逆向きに隣接する(IスライスPS2に対して、リフレッシュ完了領域PS1の内部側(図5の上部側)から隣接する)第1の領域(第1の領域R1(図5)、第1のPスライス領域、NoMC-Pスライス42の領域、符号化対象領域PSA2)に含まれる(リフレッシュ完了領域PS1に含まれ、かつ、当該第1の領域のブロックについての探索範囲(図25の探索範囲Sx1を参照)が、未リフレッシュ領域PR3と重なる第1の領域R1に含まれる)第1のPスライス(NoMC-Pスライス42)を、動きベクトルを用いずに画面間符号化する(符号化がされるブロックの位置と同じ位置を有する第2の予測画像を参照した符号化(当該第2の予測画像との間の差分の符号化)をすることで、画面間符号化する)第1の符号化工程(S3001:NoMC-Pのときの工程)と、前記第1の領域(前記第1のPスライス領域)以外の第2の領域(第2の領域R2、第2のPスライス領域、MC-Pスライス44およびMC-Pスライス43(MC-Pスライス43x)の領域)に含まれる第2のPスライス(MC-Pスライス44、MC-Pスライス43)を、動きベクトルを用いて画面間符号化する(探索範囲から探索された(、探索で得られる動きベクトルにより特定される位置の)第2の予測画像を参照して、画面間符号化する)第2の符号化工程(S3001:MC-Pのときの工程)とを含む動画像符号化方法(A1)である。
 なお、第1の領域(第1の領域R1)は、適宜、第1のPスライス領域とも呼ばれ、第2の領域(第2の領域R2)は、適宜、第2のPスライス領域とも呼ばれる。
 なお、つまり、第1の領域R1は、符号化がされる対象のピクチャPS(例えば、図2の(e))の、Iスライス41よりも上部の、予め定められた範囲よりなる領域である。なお、この範囲については、後で更に詳しく述べられる。
 そして、第2の符号化工程では、符号化がされる対象のピクチャPS(例えば、図2の(e))に含まれるブロックに対して、参照先のピクチャ(図2の(d)、ピクチャPR)の探索範囲から探索される画像(第2の予測画像)を参照した符号化を行う。
 そして、第2の符号化工程では、具体的には、そのブロックが、第1の領域R1のNoMC-Pスライス42のブロックではない場合にのみ、その符号化を行い、NoMC-Pスライス42のブロックである場合には、行わない(図27の第1の画面間符号化部191、図29のステップSa1)。
 そして、第1の符号化工程では、対象のピクチャPSのブロックに対して、参照先のピクチャPR(図2の(d))における、そのブロックの位置と同じ位置の画像(第1の予測画像)を参照した符号化を行う。
 そして、第1の符号化工程では、具体的には、そのブロックが、第1の領域R1のMC-Pスライス43x(図2)のブロックではない場合には、その符号化を行わず、NoMC-Pスライス42のブロックである場合にのみ、その符号化を行う(第1の画面間符号化部191、ステップSa1)。
 つまり、従来例では、第1の領域における、互いに異なる複数のブロック(図26のブロックB1、B2など)について、互いに異なる探索範囲(図26の探索範囲Sx2aを参照)での探索がされてしまう。このため、複雑な回路が必要になるなどして、構成が複雑になったり、処理が遅くがなったりしてしまう。
 これに対して、本動画像符号化方法では、第1の領域の互いに異なる複数のブロック(図5のブロックB1、B2など)について、単に、同じ位置の第1の予測画像が用いられるだけにされて、探索がされることが回避される。これにより、ひいては、互いに異なる複数の探索範囲での探索がされることが回避され、複雑な回路が不要になるなどして、構成が簡単にできたり、処理が高速にできる。
 これにより、未リフレッシュ領域からリフレッシュ領域への、画質劣化の伝播が回避されるのと共に、構成の簡単さ(処理の速さ)が両立できる。
 ここで、Iスライスの位置が移動するので、複数のピクチャにおけるIスライスの位置が、互いに異なる位置である。そして、第1のPスライス領域は、後述の特定領域である。特定領域は、対象のピクチャ(対象のピクチャPS)における、リフレッシュ完了領域(リフレッシュ完了領域PS1)のうちで、参照先のピクチャ(参照先のピクチャPR)における未リフレッシュ領域(未リフレッシュ領域PR3)からの距離が、予め定められた距離以下の領域である。つまり、この領域は、上記予め定められた距離以下の領域うち、対象のピクチャのIスライス以外の他の領域(後述の特定領域、NoMC-Pスライス42の領域)である。第1のPスライス領域の垂直方向の幅は、0よりも大きい予め定められた大きさを有する。そして、前記垂直方向の移動の向きと逆向きとは、Iスライス(IスライスPR2)から、リフレッシュ完了領域への方向である。逆向きに隣接するとは、その方向の側から、Iスライスへと隣接することである。
 こうして、この構成により、未リフレッシュ領域からリフレッシュ領域への、画質劣化の伝播を生じさせる恐れがある上記領域(特定領域)に関しては、その領域のスライスの画像が、動きベクトルを用いずに画面間符号化される。
 実施形態の画像符号化方法は、具体的には、例えば、前記第1の領域(第1のPスライス領域)に含まれるPスライスを、動きベクトルを用いて画面間符号化する第3の符号化工程(Sa3、第3の画面間符号化部193)をさらに含み、Iスライスを繰り返し挿入する場合に(S41:YES、S4000:YES、S2005A、S2005Cで、所定回数(所定の回数)以上の場合)、前記第1の領域(第1のPスライス領域)に含まれるPスライスを、動きベクトルを用いて画面間符号化し、Iスライスを所定回数のみ(所定回数だけ)挿入する場合に(S41:NO、S4000:NO、S2005A、S2005Cで所定回数未満の場合)、前記第1の領域(第1のPスライス領域)に含まれるPスライスを、動きベクトルを用いないで画面間符号化を行う動画像符号化方法でもよい。
 つまり、例えば、繰り返し挿入するとは、閾値以上の個数だけ、挿入することをいい、所定回数だけ(のみ)挿入するとは、当該閾値未満の個数だけ、挿入することをいう。
 実施形態の動画像符号化装置は、上記の動画像符号化方法を実行する装置であり、1つのピクチャにIスライスとPスライスとを含み、含まれる前記Iスライスの前記ピクチャ内の位置が、ピクチャ毎に、ピクチャの垂直方向に移動する動画像符号化装置(動画像符号化装置1)であって、前記Iスライスに隣接する第1の領域であって、前記垂直方向の移動の向きと逆向きに隣接する第1の領域に含まれる第1のPスライスを、動きベクトルを用いずに画面間符号化し、前記第1の領域以外の第2の領域に含まれる第2のPスライスを、動きベクトルを用いて画面間符号化するように、スライスタイプを決定するスライスタイプ決定部(スライスタイプ設定部103、設定部103a、Sa0b)と、前記第1の領域の第1のPスライスを、動きベクトルを用いずに画面間符号化する第1の画面間符号化部(参照画像複製部2003)と、前記第2の領域の第2のPスライスを、動きベクトルを用いて画面間符号化する第2の画面間符号化部(探索部2002a)とを備えた動画像符号化装置である。
 これにより、上記の動画像符号化方法が実行されて、行われる処理の簡単さと、不適切な画質劣化の伝播の防止とが両立できる。
 なお、例えば、ブロックが、第1の領域R1のNoMC-Pスライス42のブロックか否かが判定されてもよい。そして、NoMC-Pスライス42のブロックでないと判定された場合には、そのブロックを、第2の画面符号化部に符号化させる制御がされ、NoMC-Pスライス42のブロックと判定された場合には、第1の画面符号化部に符号化させる制御がされてもよい(設定部103a、図30のステップSa0b)。
 実施形態の動画像符号化装置は、Iスライスの挿入回数が所定値以上かどうかを判定するスライス挿入回数設定部(スライス挿入回数設定部105、Sa0a)を備え、前記スライスタイプ決定部は、前記挿入回数が所定値未満と前記スライス挿入回数設定により判定された場合には(S41:NO、S4000:NO、S2005Cで所定回数未満の場合)、前記第1の領域(第1のPスライス領域)、および前記第2の領域(第2のPスライス領域)の両方を使用し、所定値以上と判定された場合には(S41:YES、S4000:YES、S2005Cで所定回数以上の場合、S2005A)、前記第2の領域(第2のPスライス領域)のみを使用してもよい。
 これにより、Iスライスの挿入回数が所定値以上に多い場合にまで、上記のA1の動画像符号化方法が実行されてしまうのが回避できる。ここで、挿入回数が多い場合、不適切な、画質劣化の伝播が生じても、生じた後の挿入で、通常は、伝播による影響が抑制され、伝播による画質劣化が、短い時間のうちに消える。このため、A1の方法が実行されなくても、画質の低下が生じ難い。一方で、A1の方法が実行されなければ、動きベクトルを用いた画面間符号化ができて、符号化後のデータのデータ量を小さくできる。つまり、高い画質を維持しつつ、符号化後のデータのデータ量をより小さくできる。
 (実施の形態1)
 (構成)
 図1は、本発明の実施形態1の動画像符号化装置1の構成を示すブロック図である。
 ピクチャ数カウンタ部100は、符号化するピクチャ数を計測する。また、ピクチャ数カウンタ部100は、ピクチャ数をスライスタイプ設定部103に通知する。
 ブロック数カウンタ部102は、符号化するピクチャにおけるブロック数を計測する。また、ブロック数カウンタ部102は、ブロック数をスライスタイプ設定部103に通知する。
 動き探索判定部104は、スライスタイプ設定部103からスライスタイプの通知を受ける。動き探索判定部104は、通知を受けたスライスタイプが、Pスライスの場合に、符号化対象スライスが、動き予測を行うPスライスであるMC-Pスライス(第1のPスライス)か、動き探索を行わないPスライスであるNoMC-Pスライス(第2のPスライス)であるかを決定する。動き探索判定部104は、Iスライス、MC-Pスライス、NoMC-Pスライスの識別を、スライスタイプ設定部103に通知する。
 スライスタイプ設定部103は、ブロック数カウンタ部102から通知されるブロック数から、符号化部200が符号化する、符号化対象のスライスが、IスライスかPスライスかを決定する。スライスタイプ設定部103は、動き探索判定部104に対して、決定されたスライスタイプを通知する。
 また、スライスタイプ設定部103は、決定されたスライスタイプが、Pスライスの場合には、動き探索判定部104から、MC-Pスライスか、NoMC-Pスライスかの識別を受ける。
 また、スライスタイプ設定部103は、画像の高さと、Iスライスの高さと、Pスライスの高さと、動き探索の探索範囲の高さとから、Iスライスの位置、NoMC-Pスライスの位置、ピクチャ内のPスライス分割位置と高さとを、それぞれ決定する。
 さらに、スライスタイプ設定部103は、ピクチャ数カウンタ部100から通知されるピクチャ数が更新されると、Iスライスの高さだけ、設定されるIスライスの位置が下に移動したスライス分割位置を決定する。
 スライスタイプ設定部103により決定されたスライスタイプは、スライスタイプ設定部103によって、符号化部200内の動き探索部2001、動き補償部2002、参照画像複製部2003、画面内予測部2004、セレクタ部2005にそれぞれ通知される。なお、動き探索部2001および動き補償部2002の全体は、探索部2002aと呼ばれる。
 画面内予測部2004は、同一ピクチャ内の、既に符号化した画素(図示せず)から、入力画像信号(画素値)を予測し、予測した画素値を予測画像(第3の予測画像)としてセレクタ部2005に出力する。
 なお、画面内予測部2004は、例えば、同一ピクチャ内の各画素のうちで、予測画像の位置のスライスの画素のみから予測を行ってもよい。また、画面内予測部2004は、例えば、そのスライスに含まれる、予測画像として適切な、複数の位置の画像のうちで、予測画像の位置に最も近い画像を特定し、特定された画像を、第3の予測画像と特定してもよい。
 動き探索部2001は、入力画像信号と最も相関の高い画素位置を探索し、その位置(動きベクトル)を動き補償部2002に通知する。
 動き補償部2002は、動き探索部2001から通知された動きベクトルの位置の画素値を、参照画像保持部2011が保持する参照画像から読み出し、予測画像(第2の予測画像)として、セレクタ部2005に出力する。
 参照画像複製部2003は、参照画像保持部2011が保持する、当該ブロック位置の画像を、予測画像(第1の予測画像)としてセレクタ部2005に出力する。
 なお、こうして、例えば、参照画像複製部2003により第1の予測画像が出力され、動き補償部2002により第2の予測画像が出力され、画面内予測部2004により第3の予測画像が出力されてもよい。
 なお、換言すれば、例えば、第3の予測画像は、空間的な圧縮と、時間的な圧縮とのうちで、空間的な圧縮のみを動画像符号化装置1が行うための予測画像である。また、第2の予測画像は、両方の圧縮をするための予測画像である。また、第1の予測画像は、時間的な圧縮のみをするための予測画像である。なお、第3の予測画像は、例えば、画像をイントラ符号化するための予測画像である。また、第2の予測画像は、例えば、画像をインター符号化するための予測画像である。
 セレクタ部2005は、スライスタイプ設定部103からスライスタイプ(Iスライス、MC-Pスライス、NoMC-Pスライス)を通知される。通知されたスライスタイプが、Iスライスであれば、セレクタ部2005は、画面内予測部2004が生成した予測画像(第3の予測画像)を選択する。
 また、MC-Pスライスであれば、セレクタ部2005は、画面内予測部2004と動き補償部2002とが生成した予測画像(第3の予測画像、第2の予測画像)のうちで、符号化ビット数の少ないものを選択する。
 また、NoMC-Pスライスであれば、セレクタ部2005は、画面内予測部2004と参照画像複製部2003とが生成した予測画像(第3の予測画像、第1の予測画像)のうちで、符号化ビット数が少ない方の予測画像を選択する。なお、MC-Pスライスであれば、例えば、第1の予測画像、第2の予測画像、第3の予測画像の3つから、選択がされてもよい。
 減算器2006は、入力画像と、セレクタ部2005が選択した予測画像(選択予測画像)との間での減算を行い、予測誤差(減算後画像)を出力する。
 DCT/量子化部2007は、予測誤差(減算後画像)に対して、時間領域から周波数領域への変換(直交変換)および量子化を行い、量子化値を、エントロピー符号化部2012と逆量子化/逆DCT部2008とに、それぞれ出力する。
 逆量子化/逆DCT部2008は、DCT/量子化部2007から出力される量子化値に対して、逆量子化、および、周波数領域から時間領域への逆変換(逆直交変換)を行い、差分画像を出力する。
 加算器2009は、セレクタ部2005から出力される予測画像(選択予測画像)と、逆量子化/逆DCT部2008から出力される差分画像とを加算して、再構成画像を生成する。
 フィルタ部2010は、加算器2009から出力される再構成画像に対して、ブロック歪除去のデブロッキング・フィルタをかける。
 参照画像保持部2011は、フィルタ部2010から出力される画像を、例えば、参照画像保持部2011の少なくとも一部であるメモリなどのメモリに保持する。そして、保持する保持画像が、参照画像として、動き探索部2001、動き補償部2002、および参照画像複製部2003からそれぞれ参照される。
 なお、フィルタ部2010は、H.264では必要であるが、MPEG-1、MPEG-2、MPEG-4などの画像符号化では不要である。
 エントロピー符号化部2012は、DCT/量子化部2007の出力である量子化値を、可変長符号化または算術符号化で、ビット列に変換し、変換された後のビット列を、パケット化部300に出力する。
 パケット化部300は、エントロピー符号化部2012の出力であるビット列を、所定のビット数単位に分割したパケットに構成する。構成されたパケットは、ネットワーク経由で画像復号装置に伝送される。
 (方法)
 図2は、動画像符号化装置1が行うスライス分割方法におけるデータを示す図である。
 図2を用いて、スライス分割方法を説明する。
 図2に示すピクチャ(1フレーム)は、複数のブロックで構成されている。ピクチャを構成する複数のブロックの中で、斜線をつけたブロックの領域(Iスライス41)は、Iスライスである。そして、縦線をつけた領域(NoMC-Pスライス42)と、白い領域(ハッチングのない領域、MC-Pスライス44)とは、リフレッシュ完了したPスライスであり、横線をつけた領域(MC-Pスライス43)は、伝送エラーによる画質劣化を含むPスライスである。
 なお、Iスライス41と、NoMC-Pスライス42と、MC-Pスライス44とにより、リフレッシュ完了領域PR4(図5)が構成される。また、MC-Pスライス43により、未リフレッシュ領域PR3(図5)が構成される。
 いま、スライス分割決定部に対して、画面の高さをYブロックライン、Iスライス41の高さをLブロックライン、Pスライスの高さをMブロックライン、動き探索の垂直方向の探索範囲を、±w画素(-w画素~+w画素)と設定する。すると、スライス分割決定部は、w画素を含むことができるWブロックラインを、NoMC-Pスライスラインと決定する。つまり、スライス分割決定部は、NoMC-Pスライス42の領域として、Wブロックラインの高さの領域を特定する。例えば、1ブロックライン=16画素の場合、Wは、w/16以上の正数である。それ以外のPスライス(白い領域のスライス(MC-Pスライス44)、横線をつけた領域のスライス(MC-Pスライス43))は、MC-Pスライスである。なお、ここで、スライス分割決定部は、例えば、図1のスライスタイプ設定部103(設定部103a)の少なくとも一部であってもよい。
 図2の(a)から(p)は、この順で時間順に連続する複数のピクチャである。
 スライスタイプ設定部103は、ピクチャ数カウンタ部100からスライスタイプ設定部103に通知されるピクチャ数が、1増える毎に、ピクチャにおける、Iスライス41の位置を、Iスライス41の高さ分(本実施の形態ではL行)、下に移動するように、スライス分割を行う。スライスタイプ設定部103は、Iスライス41の真上の、縦線をつけた領域であるPスライスを、NoMC-Pスライス(NoMC-Pスライス42)と決定する。
 なお、スライスタイプ設定部103は、図2の(b)~(d)のように、NoMC-Pスライス42が、高さWブロックラインを確保できるまでの間(確保できない間)は、画面の上端からIスライス41までの間(の全ての領域)を、NoMC-Pスライス42と決定する。また、スライスタイプ設定部103は、Iスライス41の移動に伴い、残りの領域を、Pスライスで分割し、画面の最上端および最下端で、Pスライスの高さMブロックライン分を確保できないときには、画面端のPスライスの高さを、Mブロックラインよりも小さくする。なお、Mブロックラインよりも小さいスライスは、例えば、(e)の最上端のMC-Pスライス44、および(d)の最下端のMC-Pスライス43などにより例示される。
 これにより、図2の(n)のスライス#slc_nのブロック(ブロック44x)の探索範囲は、(m)の、横線をつけた、伝送エラーによる画質劣化を含むPスライス(MC-Pスライス43、未リフレッシュ領域)を含まないことになる。これにより、エラー伝播を防止できる。なぜなら、#slc_nのブロック(ブロック44x)が復号器により復号される際に、復号された#slc_nのブロックの画像は、過去にリフレッシュされた領域(図5におけるリフレッシュ完了領域PR4:図2の(m)のIスライス41、NoMC-Pスライス42、MC-Pスライス44の領域)のみを参照することで、復号器が生成した画像であるからである。
 (動作)
 図3は、スライス分割、および、スライスタイプ判定の動作を示す図である。
 図4は、動画像符号化装置1のフローチャートである。
 図3で、スライスタイプ設定部103、動き探索判定部104の、スライス分割およびスライスタイプ判定動作を説明し、図4で、動画像符号化装置1のフローチャートを説明する。
 以下の例では、Iスライス41の高さL=1、MC-Pスライス(MC-Pスライス43、MC-Pスライス44)の高さM=4、NoMC-Pスライス42の高さW=3として説明する。
 スライス分割決定部(例えば、スライスタイプ設定部103)は、Iスライスライン、MC-Pスライスライン、NoMC-Pスライスラインの大きさと、画面の高さとから、1ピクチャのスライスの分割サイズを求め、メモリに保持しておく。
 そして、ピクチャ数カウンタ部100から通知されるピクチャ数が1増加すると、スライス分割決定部は、スライスの分割位置とサイズとを更新する。具体的には、図3に示すように、スライス分割決定部は、配列と、各スライスの大きさとを格納する。そして、先頭ポインタから終端ポインタまでの間のそれぞれのスライスの数字が、ピクチャを構成する、そのスライスのマクロブロックライン数になる。また、各スライスに、そのスライスのスライスタイプが関連づけられている。そして、ピクチャ数が1つ増える毎に、図3における(a)~(j)の順番に、スライス分割決定部101に格納されるデータの内容が、遷移する。なお、図3(a)~(j)は、それぞれ、図2の(a)~(j)に対応する。
 スライス分割決定部は、ピクチャ番号が1つ増えると、先頭ポインタが指す位置の配列に格納される値を+1し、終端ポインタが指す位置の配列に格納される値を-1する。スライス分割決定部は、先頭ポインタに関しては、そのスライス(先頭ポインタが指すスライス)の高さが、そのスライス(先頭ポインタが指すスライス)のスライスタイプの最大値(MC-PスライスはM、NoMC-PスライスはW)になると、1つ、ポインタを移動する。つまり、先頭ポインタが指すスライスを、現在指されるスライスの次のスライスに変更する。
 また、スライス分割決定部は、終端ポインタに関しては、値が0になる(つまり、終端ポインタの指すスライスの高さが0になる)と、1つポインタを移動する。つまり、指されるスライスを、1つ移動したスライスに変更する。
 スライス分割決定部は、このようにして、先頭ポインタと終端ポインタとの位置をそれぞれずらしながら、スライスの高さと、スライスタイプとを決定する(S1001)。なお、図3により示されるデータは、例えばスライス分割決定部により記憶される。
 まず、ブロック数カウンタ部102が、ブロック数カウンタ(ブロック数カウンタ部102により計測される値)を0にする(S1002)。そして、スライスタイプ設定部103が、符号化対象スライスのスライスタイプと、スライスの大きさ(マクロブロックライン数)とを、図3の配列から読み出す(S1003)。マクロブロックライン数と、1ライン(1行)のマクロブロック数の積が、当該スライスの最大ブロック数になる。
 配列から読み出したスライスタイプにより、予測画像作成方法を、セレクタ部2005が切り替える(S1004)。つまり、何れの予測画像が、選択予測画像として選択されるかが変更される。
 セレクタ部2005は、符号化対象スライスが、IスライスまたはPスライスの場合、符号化部200の画面内予測部2004の出力(第3の予測画像)を、選択予測画像の候補とする(S1005)。
 また、セレクタ部2005は、符号化対象スライスがNoMC-Pスライスの場合、参照画像複製部2003の出力(第1の予測画像)を、選択予測画像の候補とする(S1006)。
 セレクタ部2005は、符号化対象スライスがMC-Pスライスの場合、符号化部200の動き探索部2001、動き補償部2002で作成した第2の予測画像を、選択予測画像の候補とする(S1007)。
 なお、第1の予測画像を特定する処理と、第2の予測画像を特定する処理と、第3の予測画像を特定する処理との全てが、読み出されたスライスタイプが、何れのタイプでも、行われるものとしてもよい。そして、3つの処理のうちで、タイプに対応する1または2以上の処理の結果のみが、セレクタ部2005により選択予測画像の候補とされ、他の処理の結果は、セレクタ部2005により候補とはされないものとしてもよい。
 そして、セレクタ部2005は、より具体的には、S1005、S1006、S1007での予測画像の中から、1つを選択する。つまり、それらの中から、符号化対象ブロックとの誤差を符号化したビット数が(最も)少ないもの、もしくは、誤差を符号化したビット数が少ないと予測されるもの、もしくは、誤差の大きさが(最も)小さいものを、1つ、選択予測画像として選択する。そして、セレクタ部2005は、その誤差(減算後画像)を、DCT/量子化部2007、およびエントロピー符号化部2012(後段部200a)で符号化する(S1008)。
 ブロック数カウンタ部102は、符号化部200においての、ブロック単位の符号化が完了すると、ブロック数を1増加する(S1009)。さらに、1増加された後のブロック数が、当該スライスの最大ブロック数でなければ、すなわち、符号化ブロックが、スライスの最後のブロックでないと設定部103a等が判断した場合(S1010の「いいえ」)、S1004~S1010で、動画像符号化装置1が、次のブロックを符号化する。ブロック数が、当該スライスの最大ブロック数であれば、動画像符号化装置1が、次のスライスの符号化を行う(S1010の「はい」)。
 設定部103a等は、ピクチャの全てのスライスの符号化が完了したかどうかを判定する(S1011)。ピクチャに、未符号化スライスがあると判断した場合、スライス分割決定部(スライスタイプ設定部103)は、図3の配列の読み出し位置を更新する(S1013)。そして、スライスタイプ設定部103等が、次のスライスの配列の読み出しを行う(S1003)。一方、ピクチャの全てのスライスの符号化が完了したと設定部103a等が判断したときには(S1011の「はい」)、ピクチャ数カウンタ部100は、ピクチャ数を1増加する(S1012)。そして、例えば、設定部103a等が、全ピクチャの符号化が完了したかどうかを判定する(S1014)。符号化が完了していないピクチャがあれば、動画像符号化装置1は、S1001~S1011で、次のピクチャを符号化する。
 なお、実施形態の説明におけるPスライス(MC-Pスライス、NoMC-Pスライス)の全部または一部は、過去の画像のみを参照するのではなくともよい。すなわち、全部または一部は、過去の画像を参照するのと共に、未来の画像も参照するスライス(Bスライス)であってもよい。
 以上のように、実施の形態1によれば、ネットワーク伝送時にストリームが消失して、画質が劣化しても、後に受信したIスライスを、1ピクチャ分受信した時点で、画質劣化が無限に(長い時間)伝播することを防止できる。そして、動き探索の範囲を、動的に変更することなく、この防止ができる。
 図5は、符号化の対象のピクチャPS、参照先のピクチャPR、対象のピクチャPSよりも後における、後続のピクチャPTの間の関係を示す図である。
 参照先のピクチャPRは、符号化の対象のピクチャPSが符号化されるよりも先に符号化部200により符号化されたピクチャである。つまり、参照先のピクチャPRは、そのピクチャへの参照をした符号化が、対象のピクチャPSに対して行われるピクチャである。
 参照先のピクチャPRは、リフレッシュ完了領域PR4と、未リフレッシュ領域PR3とを有する。リフレッシュ完了領域PR4は、Iスライスの進行方向(下方向)の最後部に、IスライスPR2を有する。未リフレッシュ領域PR3は、Iスライスの進行方向の最前部に、参照されることで、エラー伝播を生じさせる可能性がある領域PR31を有する。
 対象のピクチャPSは、リフレッシュ完了領域PS1と、未リフレッシュ領域PS3とを有する。なお、IスライスPR2は、リフレッシュ完了領域PS1の方に含まれる。
 なお、図5の、後続のピクチャPTは、例えば、対象のピクチャPSの次のピクチャである。
 そして、符号化の対象のブロックが、NoMC-Pスライスのブロック(符号化対象領域PSA2のブロック)ではない場合には、動き補償部2002による第1の予測画像による符号化が行われる。これにより、未リフレッシュ領域PR3の画像を参照した符号化が、リフレッシュ完了領域PS1の画像に行われるのは回避しつつも、十分に自由に、利用される予測画像が選択される。これにより、未リフレッシュ領域PR3から、リフレッシュ完了領域PS1への、画質劣化の伝播は防ぎつつも、十分にデータが圧縮される。
 他方、符号化の対象のブロックが、NoMC-Pスライスのブロック(符号化対象領域PSA2のブロック)である場合には、動き補償部2002による第2の予測画像による符号化は行われず、参照画像複製部2003による第1の予測画像による符号化のみが行われる。これにより、第1の予測画像による簡単な処理で、符号化が行われつつも、未リフレッシュ領域PR3からリフレッシュ完了領域PS1への、画質劣化の伝播が防がれる。
 これにより、十分にデータが圧縮される。しかも、処理の簡単さと、未リフレッシュ領域PR3からリフレッシュ完了領域PS1への、画質劣化の伝播の回避とが両立できる。
 なお、ここで、先述のように、符号化の対象のブロックが、NoMC-Pスライスのブロックでない場合において、上記の、ビット数の条件が満たされる場合には、適宜、第1の予測画像による符号化、または第2の予測画像による符号化が行われてもよい。また、符号化の対象のブロックが、NoMC-Pスライスのブロックである場合に、適宜、第2の予測画像による符号化が行われてもよい。これにより、より十分にデータが圧縮されるようにできる。
 なお、IスライスPR2における、未リフレッシュ領域PR3からの距離が、予め定められた距離(例えば5画素)以下の領域は、第1の予測画像による符号化で参照されない、のり代領域であることが好ましい。
 ここで、動画像符号化装置1においては、例えば、デブロックフィルタの処理、および、小数精度の動き補償の処理が行われる。
 IスライスPR2における、未リフレッシュ領域PR3からの距離が、予め定められた第1の距離(例えば2画素)以下の領域は、未リフレッシュ領域PR3の画素に基づいた、デブロックフィルタの処理による影響を受ける画素を有する領域である。
 また、画素の小数精度動き補償(画素よりも小さい単位で検出した動きベクトルを用いた動き補償)の処理が、動画像符号化装置1において行われることにより、一方の画素からの距離が、予め定められた第2の距離(例えば3画素)以下である他方の画素は、その一方の画素へと影響を与える。
 よって、IスライスPR2における、未リフレッシュ領域PR3からの距離が、3+2=5画素の距離(予め定められた距離)以下の領域は、未リフレッシュ領域PR3の画素の影響を受ける画素を有する領域である。
 このような、予め定められた距離(5画素)以下の領域は、第1の予測画像による符号化で参照されない、のり代領域であることが好ましい。すなわち、NoMC-Pスライス42(図2)の幅は、上記の予め定められた距離以下の領域(のり代領域)には、第1の予測画像による符号化での参照をさせない程度に、十分に大きい幅であることが好ましい。
 なお、このように、次に示す動画像符号化方法が示される。その動画像符号化方法は、次の課題を解決するための動画像符号化方法である。つまり、Iスライスを用いて、伝送エラーによるストリーム消失による画質劣化伝播を防止するには、リフレッシュ完了領域における動き探索で、未リフレッシュ領域を含まないよう、動き探索範囲を動的に制限する必要がある。すなわち、符号化している位置に応じて、探索範囲の大きさを変更して、動き探索を行う必要がある。このため、制御が複雑であるという課題がある。この課題のための動画像符号化方法は、リフレッシュを行うIスライスの上の位置のスライス(NoMC-Pスライス42)の動き探索を停止することで、動き探索範囲を動的に制限することなく、未リフレッシュ領域の参照を行わず、エラー伝播を防ぐ方法である。
 続けて、さらに説明される。ただし、次の説明は、単なる一例である。
 図6は、スライスの種類(スライスタイプ)に応じた処理のフローチャートである。図4の処理では、より詳細には、例えば、この図6で示される動作がされてもよい。
 セレクタ部2005は、スライスタイプ設定部103によって、スライスの種類として、MC-Pスライスが特定されたときには(S3001:MC-P)、動き補償部2002による第2の予測画像(S3004C)を、選択予測画像として選択する(S3005C)。なお、セレクタ部2005は、MC-Pスライスが特定されたとしても、一定の例外の場合においては、参照画像複製部2003による第1の予測画像(S3003C)を選択するか、または、画面内予測部2004による第3の予測画像(S3002C)を選択してもよい。なお、この例外の場合においては、第3の予測画像のみが選択されてもよい。
 セレクタ部2005は、スライスタイプ設定部103によって、スライスの種類として、NoMC-Pスライスが特定されたときには(S3001:NoMC-P)、第1の予測画像(S3003B)を選択する(S3005B)。なお、セレクタ部2005は、NoMC-Pスライスが特定されたとしても、一定の例外の場合においては、第3の予測画像(S3002B)を選択してもよい。
 セレクタ部2005は、スライスタイプ設定部103によって、スライスの種類として、Iスライスが特定されたときには(S3001:I)、第3の予測画像(S3002A)を選択する(S3005A)。
 そして、画面内予測部2004による処理と、参照画像複製部2003による処理と、動き探索部2001および動き補償部2002による処理との3つの処理は、具体的には、例えば、互いに並列に行われてもよい。
 ここで、スライスの種類が特定された際には(S3001)、特定された種類に関わらず、3つの処理が、全て行われるものとしてもよい。例えば、MC-Pスライスが特定されたときには(S3001:MC-P)、3つの処理の全てが行われてもよい(S3002C(S1005)、S3003C(S1006)、S3004C(S1007))。他方、NoMC-Pスライスが特定されたときには(S3001:NoMC-P)、画面内予測部2004による処理と、参照画像複製部2003による処理との2つの処理のみが行われ(S3002B(S1005)、S3003B(S1006))、動き補償部2002による処理(S1007)はされないものとしてもよい。同様に、Iスライスが特定されたときには(S3001:I)、画面内予測部2004による処理のみが行われ(S3002A(S1005))、他の2つの処理(S1006、S1007)はされないものとしてもよい。
 続けて、より細かい説明が行われる。ただし、次の説明も、単なる一例である。
 このように、動画像符号化装置(動画像符号化装置1)は、スライスタイプ設定部(スライスタイプ設定部103、設定部103a)と、セレクタ部(セレクタ部2005)と、差分処理部(後段部200a)とを備える。そして、後段部200aは、減算器2006と、DCT/量子化部2007と、エントロピー符号化部2012などを備える。なお、スライスタイプ設定部103等のそれぞれは、具体的には、例えば、回路により実現された機能の機能ブロックであってもよい。
 スライスタイプ設定部は、ピクチャ(参照先のピクチャPR、対象のピクチャPS、より後続のピクチャPTなど)におけるIスライス(IスライスPR2、IスライスPS2、IスライスPT1)の位置を決定する。スライスタイプ設定部は、複数のピクチャでの、Iスライスの位置として、互いに異なる位置を決定する。
 差分処理部は、動画像のピクチャのそれぞれのブロックについて、当該ブロックと、当該ブロックについての選択予測画像との差分を符号化することにより、動画像を符号化する。
 セレクタ部は、選択予測画像を選択して、選択された選択予測画像を、差分処理部に利用させる。
 そして、具体的には、セレクタ部は、予測画像を、選択予測画像として選択するのに際して、符号化対象のピクチャ(対象のピクチャPS)が符号化されるよりも前に符号化された参照先のピクチャ(参照先のピクチャPR)の画像である過去画像を、次のように選択する。
 すなわち、セレクタ部は、符号化対象のピクチャにおける、後で詳しく述べられる特定領域(NoMC-Pスライス42の領域(第1の領域R1))に応じて、次のようにして、選択を行う。
 ここで、特定領域は、対象のピクチャPSのリフレッシュ完了領域PS1における、参照先のピクチャ(参照先のピクチャPR)の未リフレッシュ領域PR3を参照する可能性がある部分の領域(NoMC-Pスライス42の領域)である。
 ここで、リフレッシュ完了領域PS1は、そのピクチャ(対象のピクチャPS)以前の各ピクチャでのIスライス41(IスライスPR2)の位置が集まってなる領域である。また、未リフレッシュ領域PR3は、そのピクチャ(参照先のピクチャPR)よりも後の各ピクチャでのIスライス41(IスライスPT1)の位置が集まってなる領域である。
 そして、セレクタ部は、特定領域以外の他の領域のスライスのブロックについては、前記参照先のピクチャにおけるそのブロックの位置以外の他の位置のブロック(第2の予測画像)を選択予測画像として、選択する。他方、セレクタ部は、特定領域のブロック(NoMC-Pスライス42のブロック)については、前記参照先のピクチャにおける各ブロックのうちで、上記他の位置のブロック(第2の予測画像)は選択しない。そして、セレクタ部は、特定領域のブロックについては、そのブロックの位置と同じ位置のブロック(第1の予測画像)を選択予測画像として、選択する。
 これにより、Iスライスの挿入により、一部のピクチャのデータ量が極端に大きくなるのを避けつつも、画質の向上が図られる。そして、特定領域については、第1の予測画像が利用されることで、未リフレッシュ領域PR3からリフレッシュ完了領域PS1への、画質劣化の伝播が防がれる。これにより、単に、同じ位置である第2の予測画像が利用されるだけで、画質劣化の伝播が防がれて、伝播の防止と、処理の簡単さとが両立できる。これにより、処理が高速にできて、伝播の防止と、ハイビジョンのデータなどの、高解像度のデータが処理できることとが両立できる。
 なお、他の領域のブロックについて、例外的に、第2の予測画像以外(例えば第1の予測画像など)が選択されることがあってもよい。同様に、特定領域のブロックについて、例外的に、第1の予測画像以外が選択されることがあってもよい。なお、スライスタイプ設定部は、例えば、ピクチャに含まれるそれぞれのスライスの種類を特定するデータ(図3)を保持する。そして、例えば、スライスタイプ設定部は、前記特定領域のスライスの種類を、NoMC-Pスライス42と特定する内容へと、保持するデータの内容を変更する。そして、セレクタ部は、例えば、保持されるデータの内容に基づいて、上記の処理を行うものとしてもよい。なお、ここで、保持されるデータの内容は、例えば、ピクチャのそれぞれのスライスの位置、範囲、および種類を特定する情報と、ピクチャの先頭のピクチャおよび終端のピクチャを特定する情報とが含まれてもよい。
 なお、動画像符号化装置1は、より具体的には、例えば、第1の拠点と、第2の拠点との間で、テレビ会議の動画像を伝送するテレビ会議システムに設けられてもよい。そして、動画像符号化装置1は、伝送される、テレビ会議の動画像を符号化してもよい。つまり、例えば、当該動画像は、例えば、テレビ会議での、フルハイビジョン(full high definition)の動画像でもよい。
 すなわち、例えば、上述のようにして、伝送されるデータの、伝送単位毎のデータ量の変動幅が小さくされることにより、伝送の遅延が回避されて、伝送される動画像の表示が遅延したり、表示が途切れたりすることが回避されてもよい。これにより、表示される当該動画像によるテレビ会議の臨場感が向上できる。
 このようにして、例えば、第1の領域R1(図5)、第2の領域R2に応じた処理がされてもよい。なお、以下の処理は、単なる一例である。また、以下の処理は、ある局面のみで行われてもよい。
 つまり、複数のピクチャのうちのそれぞれのピクチャ(例えば、図2の(a)~(p)のピクチャ)において、そのピクチャ(例えば(d))の前のピクチャ((c))で設定されたIスライス41の位置の次の位置に、そのピクチャ((d))のIスライス41が、設定部103aにより設定されてもよい。
 ここで、例えば、次の位置は、前のピクチャでの位置よりも、Iスライス41の進行方向の側(図2の下側)で、前のピクチャのIスライス41の位置に隣接する位置である。
 つまり、Iスライス41が設定される位置が、ピクチャ毎に、その進行方向の向きに、設定部103aにより移動されてもよい。
 そして、符号化の対象のピクチャPS(図5)のブロック(MC-Pスライス43、44のブロック)が、参照先のピクチャPRにおける、そのブロックの探索範囲(探索範囲SA)内の予測画像(第2の予測画像)を利用して、第2の画面間符号化部192により符号化されてもよい。
 具体的には、符号化に際しては、符号化がされるブロックと、予測画像との間の差分が生成されて、生成された差分が符号化されることにより、そのブロックが符号化されてもよい。
 そして、さらに具体的には、予測画像は、例えば、参照先のピクチャPRにおける、探索範囲から探索された位置での第2の予測画像でもよい。
 なお、第2の画面間符号化部192は、例えば、後段部200aの機能の一部または全部でもよい。
 そして、第2の領域R2(図5)のブロックでの探索範囲(図25の探索範囲Sx2参照)は、未リフレッシュ領域PR3との重なりを有さなくてもよい。他方、第1の領域R1のブロックでの探索範囲(図25の探索範囲Sx1参照)は、未リフレッシュ領域PR3との重なりを有してもよい。
 このため、第2の領域R2のブロックの符号化で、第2の予測画像が利用されても、劣化の伝搬は生じない。一方で、第1の領域R1のブロックの符号化で、第2の予測画像が利用されてしまえば、劣化の伝搬が生じてしまう。
 ここで、第1の領域R1のブロック(ブロックB1、B2)についての、(参照画像複製部2003による)第1の予測画像は、参照先のピクチャPRにおける、そのブロックの位置と同じ位置の画像である。
 そして、第1の領域R1の位置は、対象のピクチャPSにおけるリフレッシュ完了領域PS1内である。このため、参照先のピクチャPRにおける、第1の領域R1の位置と同じ位置は、リフレッシュ完了領域PR4内である。
 つまり、領域R1の位置のブロックについての第1の予測画像の位置は、対象のピクチャPSにおけるリフレッシュ完了領域PS1内である。
 そこで、第2の領域R2のブロックの符号化でのみ、第2の予測画像が利用され(第2の画面間符号化部192)、第1の領域R1のブロックの符号化では、第1の予測画像が利用されてもよい(第1の画面間符号化部191)。
 換言すれば、第2の画面間符号化部192により、第2の予測画像を利用する符号化が、第2の領域R2のブロックに対してのみ行われ、第1の領域R1のブロックにはされなくてもよい。そして、第1の画面間符号化部191により、第1の予測画像を利用する符号化が、第2の領域R2のブロックに対しては行われず、第1の領域R1のブロックに対してのみ行われてもよい。
 これにより、第1の領域R1のブロックの符号化において、参照先のピクチャPRにおける、リフレッシュ完了領域PR4での予測画像(第1の予測画像)が利用されて、劣化の伝搬が生じないようにできる。
 しかも、第1の領域R1における、何れのブロック(ブロックB1、B2:図5)の符号化の処理でも、第1の予測画像が利用されて、互いに大きく異なる処理がされない。
 これにより、例えば、それらのブロックの符号化の処理をする回路(ハードウェア)として、複雑な回路が不要で、利用される回路がシンプルにできるなどして、構成が簡単にできたり、処理が速くできたりする。
 なお、従来例では、第1の領域R1の2つのブロック(ブロックB1、B2:図26を参照)の符号化の処理において、互いに異なる2つの探索範囲での処理がされて、探索範囲が動的に変更されてしまう(先述)。このため、従来例では、複雑な回路が必要になるなどして、構成が複雑になったり、処理が遅くなったりしてしまう。
 なお、先述のように、設定部103aにより、第1の領域R1に、NoMC-Pスライス42が設定されてもよい。そして、設定されたNoMC-Pスライス42以外の他のPスライス(MC-Pスライス43x)は、第2の予測画像で符号化され、設定されたNoMC-Pスライス42は、第1の予測画像で符号化されてもよい。
 (実施の形態2)
 (構成)
 図7は、本発明の実施の形態2の動画像符号化装置1Aの構成を示すブロック図である。以下の説明では、実施の形態1の動画像符号化装置1の構成と同じ構成については、説明を適宜省略する。
 スライス挿入回数設定部105(例えば、選択部105x(図28)の一部)は、伝送エラーが発生した場合に、動画像符号化装置1Aで、画質劣化伝播防止のための画面リフレッシュを行うための、Iスライスの、動画像符号化装置1Aによる挿入の挿入回数を決定する。そして、スライス挿入回数設定部105は、決定された挿入回数を、スライスタイプ設定部103と、動き探索判定部104とにそれぞれ通知する。挿入回数の決定は、符号化結果の送信方法(図10のS2001)、送信するネットワークのビットレート(S2002)、受信側で、伝送エラーが発生したことの通知の有無(S2003)などに基づいて、スライス挿入回数設定部105によって行われる。具体的には、この決定の処理においては、Iスライスを無限回数、繰り返し挿入するか(図10のS2005A)、所定回数だけ挿入するか(S2005B)を選択し、所定回数だけの場合には、合わせて、挿入回数を指定する。なお、後で詳しく説明されるように、この処理では、一定の場合に(S2004:NO)、挿入回数が、0回と指定され、挿入されないことが選択されてもよい。
 図8は、Iスライス挿入回数の違いの例を示す図である。図8の(a)は、無限回数挿入した場合を示し、(b)は、1回だけIスライスを挿入した場合を示す。
 図9は、動画像符号化装置1Aによる、挿入回数に応じた処理を示すフローチャートである。
 動き探索判定部104は、スライス挿入回数設定部105から通知された、挿入方法および挿入回数から、挿入方法が無限回数挿入である場合か、もしくは、挿入方法が、所定回数の挿入であってでも、その挿入が、挿入回数が所定回数以上の挿入である場合か、何れかの場合であれば(図8のS41:YES、S41a)、次の処理を行う。つまり、行われる処理は、Iスライスの真上のスライスを、MC-Pスライスとする(図9のS4000:YES、S4001)処理である。そして、動き探索判定部104は、挿入方法が、所定回数の挿入であり、かつ、挿入回数が、所定回数(閾値の回数)未満であれば(S41:NO、S41b)、Iスライスの真上のスライスを、NoMC-Pスライスと決定する(図9のS4000:NO、S4002)。また、動き探索判定部104は、スライス挿入回数設定部105から通知された循環方法が、有限回数挿入の場合(図10のS2005C)、ピクチャの最下位位置のスライスがIスライスになる毎に、保持した循環回数を1減少させ、保持した循環回数が0になると、全てのスライスをMC-Pスライスとする。
 なお、Iスライスの挿入回数の判定の所定値(所定回数)は、例えば、ピクチャの大きさ(垂直ライン数)に依存する固定値であってもよい。
 (動作)
 動き探索を行わずにインター符号化を行うと、動き探索を行ってインター符号化を行う場合よりも、符号化したデータのビット数が増加する。なぜならば、動き探索とは、符号化対象画像と、予測画像との間の差分値の大きさが小さくなるように探索することであるからである。つまり、動き探索を行わないということは、動き探索を行う場合のインター符号化より、大きさの大きな差分値を符号化することに相当するためである。
 一方、動き探索を伴うインター符号化を行うと、ネットワークでのパケット消失による画質劣化の伝播を、Iスライスの挿入によるリフレッシュで停止することが保証できない。しかしながら、Iスライスの挿入によるリフレッシュを頻繁に実施する場合には(図8のS41:YES,図9のS4000:YES)、MC-Pスライスで符号化しても、リフレッシュ完了領域(図5のリフレッシュ完了領域PR4)のみから予測することが、少なくとも1回発生する可能性が高い。1回でも、リフレッシュ完了領域のみから予測すれば、エラー伝播は停止するため、Iスライスの挿入によるリフレッシュを頻繁に実施する場合には(図8のS41:YES、図9のS4000:YES)、NoMC-Pスライスではなく、MC-Pスライスのみを用いて、符号化したビット数を少なくする(図9のS4001)ことが望ましい。
 そこで、実施の形態2の動画像符号化装置1Aにおいては、Iスライスの挿入によるリフレッシュの頻度が、所定値以上(無限回を含む)の場合には(図9のS4000:YES)、Pスライスを全てMC-Pスライスとし(S4001)、所定値未満の場合には(S4000:NO)、実施の形態1のように、NoMC-PスライスとMC-Pスライスを併用する(S4002)。
 このように、本動画像符号化装置においては、Iフレームの挿入が、無限回行われる(周期的に挿入がされる)場合に(S4000:YES)、S4001の処理がされる。また、パケット消失が生じた場合などに、予め定められた回数だけ、挿入がされるものの、その回数が多いときにも(周期性による効果が大きいときにも)、S4001の処理がされる。他方、予め定められた回数だけ、挿入がされる(単に、非周期的に挿入がされるのに止まり、周期性による効果が小さい)ときには(S4000:NO)、S4002の処理がされる。すなわち、仮に、未リフレッシュ領域PR3からリフレッシュ完了領域PS1への、画質劣化の伝播が生じても、対象のピクチャPSより後のピクチャで、多くのIスライスが挿入される場合(S4000:YES)、その伝播の影響が、短い時間しか継続しない。そこで、この場合、NoMC-Pスライスの利用がされず、第2の予測画像が利用されて、データが、より小さく圧縮される。他方、挿入されるIスライスが少ない場合(S400:NO)、伝播の影響が長く継続する。そこで、NoMC-Pスライスの利用がされて、伝播を防ぐ。これにより、伝播による画質劣化の抑制と、小さなデータ量とが両立できる。すなわち、多い場合には挿入され、少ない場合には挿入されず、Iスライスが挿入されるか否かに合わせて、行われる処理が変更される。
 このようにして、ピクチャが符号化されたデータが送信されるネットワークの帯域と、送信されたデータが受信される受信側で、復号エラーが発生したことの、前記受信側から、符号化を行う符号化装置への通知の有無と、他の受信機に一度に配信を行う送信方法とに依存した処理がされてもよい。これらに依存して、Iスライスを挿入する挿入方法を、Iスライスを繰り返し挿入する第1の挿入方法と、所定回数のみ(所定の回数だけ)挿入する第2の挿入方法とから選択してもよい。そして、本動画像符号化方法は、こうして選択した挿入方法を設定する設定工程を含み、第3の符号化工程では、設定された挿入方法が、前記第1の挿入方法である場合に、前記画面間符号化を行ってもよい。そして、第4の符号化工程では、設定された挿入方法が、前記第2の挿入方法である場合に、前記画面間符号化を行ってもよい。
 なお、例えば、より詳細には、第3の符号化工程では、設定された挿入方法が、前記第2の挿入方法である場合のうちで、予め定められた場合(挿入回数が所定数以上の多さの場合)にも、処理をしてもよい。そして、第4の符号化工程では、設定された挿入方法が、前記第2の挿入方法である場合のうちで、上記の予め定められた場合ではない場合にのみ(挿入回数が所定数未満の場合)、処理をしてもよい。
 図10は、スライス挿入回数設定部105のフローチャートである。
 図3のスライスタイプ設定部103の動作説明図、図4の動画像符号化装置(動画像符号化装置1A)のフローチャート、図10のスライス挿入回数設定部105のフローチャートを用いて説明する。
 スライス挿入回数設定部105は、図10のように、下記の場合に、Iスライスを無限回数挿入すると決定する(S2005A、図9のS4000:YES、図8のS41:YES)。スライス挿入回数設定部105は、その決定を、スライスタイプ設定部103と、動き探索判定部104に通知する。
(1)多くの(予め定められた個数より多い)画像復号装置に、一斉に配信を行い(S2001の配信)、個々の画像復号装置から、パケット消失情報を受信したリフレッシュ動作の実現が困難な場合(S2001の「はい」)。
(2)送信するネットワークのビットレートが低く、圧縮率が低い(ビットレートが高い)Iスライスを頻繁に挿入すると(挿入し、かつ、誤り制御を行うと)、ネットワークで送信されるデータのデータ量が大きくて、画質劣化が著しい場合(S2002の「いいえ」)。
(3)通信路でパケット消失が起こったことを、動画像符号化装置1Aに通知することができない画像復号装置と、動画像符号化装置1Aが接続する場合(S2003の「いいえ」)。
 また、パケット消失を通知することができる画像復号装置と接続して、伝送ネットワークでパケット消失が起こった場合(S2004の「はい」)、スライス挿入回数設定部105が、Iスライスの挿入を、有限回数(本実施の形態では1として説明する)と決定する(S2005C)。スライス挿入回数設定部105は、その決定を、動き探索判定部104に通知する。ネットワークで、パケット消失がない場合には、Iスライスの挿入を、スライス挿入回数設定部105は、動き探索判定部104に通知しない(S2004の「いいえ」)。なお、ネットワークが、NGN(Next Generation Network)である場合、パケット消失がないことが、ネットワークの提供者により保証される。スライス挿入回数設定部105は、ネットワークがNGNである場合に、S2005Bの処理をしてもよい。
 以上のように、実施の形態2によれば、Iスライスの挿入頻度を、動画像符号化装置1Aが決定する。つまり、配信する画像復号装置の数(S2001)、ビットレート(S2002)、接続する画像復号装置による、ストリーム・パケットの消失有無の通知可否(S2003)、ネットワークでのパケット消失有無の状態(S2004)に応じて、決定がされる。これにより、Iスライスの挿入の仕方が変更されて、圧縮率の劣化が考慮された符号化を行う動画像符号化装置1Aが構成される。
 (実施の形態3)
 実施の形態3の動画像符号化方法は、前記第1の符号化工程では、前記第1の領域(図19の第1のR1)に含まれる、複数の前記第1のPスライス(NoMC-Pスライス42Aa、42Ab)のそれぞれ(NoMC-Pスライス42A)を、動きベクトルを用いずに画面間符号化し、含まれる複数の前記第1のPスライス(NoMC-Pスライス42Aa、42Ab)のうちでの、前記第1のPスライスの大きさの最大値(例えばNoMC-Pスライス42Aaの大きさ)は、前記第2のPスライス(図19のMC-Pスライス43、44)の大きさの最大値(図19のMC-Pスライス43の大きさ)よりも小さい動画像符号化方法である。
 ここで、前記第1のPスライス(NoMC-Pスライス42A)の大きさの前記最大値(例えばNoMC-Pスライス42Aaの大きさ)は、当該最大値の大きさを有する前記第1のPスライス(NoMC-Pスライス42Aa、42Ab)が含まれる前記ピクチャ(図19のピクチャPS)における前記Iスライス(図19のIスライス41)の大きさ以上でもよい。
 図11~図13は、実施の形態3を説明するための図である。
 なお、実施の形態の動画像符号化装置は、例えば、図1の構成と同様を有してもよい。そして、例えば、図4のフローチャートの処理と同様の処理がされてもよいし、図6の処理と同様の処理がされてもよい。
 先述のように、動き探索を用いて、入力画像信号と、最も相関の高い画素位置との間の差分値が符号化されてもよい。このような、動き探索を用いて符号化する場合と比べて、動き探索なしで符号化がされる場合では、差分値の大きさが、大きくなる。そして、差分値の大きさが、大きくなることから、符号化で必要なビット数が多くなる。これは、動き探索なし範囲(NoMC-Pスライス)のスライスの符号化ビット数が多くなることを意味する。
 そして、ビット数の大きなスライスは、消失しやすい。すなわち、スライスの符号化ビット数の大きさを一定値にすることで(ビット数の変動幅(バラツキ)を小さくすることで)、ネットワーク伝送での、消失の頻度を小さくすることができる。さらに、ネットワークの容量に応じて、一定のビットレートで、ネットワークに伝送をする場合には、スライスの符号化ビット数の大きさが一定であれば、一定の時間間隔で、スライスのストリームを伝送すればよいので、ネットワーク制御も簡単になる。
 そこで、符号化ビット数が多くなるスライスである、動き探索なしの際のスライス(NoMC-Pスライス)の大きさ(ブロック数)を、動き探索を用いた際のスライス(MC-Pスライス)の大きさ(ブロック数)よりも小さくする。このことにより、スライスの符号化ビット数を、一定にするのがよい。そして、動き探索なしとすべき範囲(第1の領域R1)が、動き探索なしのスライス(NoMC-Pスライス)の大きさよりも大きい場合には、動き探索なしのスライスの個数を、複数にすることで、必要な大きさの、動き探索なしとすべき範囲(第1の領域R1)を実現する。
 つまり、例えば、次の動作がされてもよい。
 図13により、符号化対象領域PSA2が示される。
 図11により、複数のNoMC-Pスライス42Aが示される。
 符号化対象領域PSA2は、第1の符号化対象領域PSAaと、第2の符号化対象領域PSA2bと(2以上の部分)とからなる。
 第1の符号化対象領域PSAaは、第1のNoMC-Pスライス42Aa(図11、図19)が設定される領域である。
 第2の符号化対象領域PSAbは、第2のNoMC-Pスライス42Ab(図11、図19)が設定される領域である。
 ここで、NoMC-Pスライス(NoMC-Pスライス42、42A)は、第2の予測画像を利用せずに、符号化される。このため、NoMC-Pスライス42が符号化された、符号化後のデータのデータ量は比較的大きい。つまり、例えば、そのような、大きなデータ量は、NoMC-Pスライス42以外の他のスライス(例えばMC-Pスライス)が、第2の予測画像を利用して符号化された、符号化後のデータのデータ量の10倍のデータ量などであることなどが考えられる。
 ここで、多くの場合においては、1つのスライスは、1つの伝送単位である。
 このため、NoMC-Pスライス42の伝送単位でのデータ量が、10倍のデータ量など、大きなデータ量になってしまい、伝送単位毎での、データ量の変動幅が大きくってしまう恐れがある。
 つまり、こうして、伝送単位毎の変動幅が大きくなった場合には、例えば、伝送がされるネットワークにおいて、データのロスが生じやすくなってしまうことなどが考えられる。
 そこで、図11に示されるように、それぞれのNoMC-Pスライス42Aが比較的小さいサイズである複数のNoMC-Pスライス42Aが、第1の領域R1に、スライスタイプ設定部103により設定されてもよい(S1001)。
 なお、このような、比較的小さいサイズは、例えば、実施形態1の、図2のNoMC-Pスライス42のサイズの約1/2などでもよい。
 これにより、伝送単位毎の、データ量の変動幅が大きくなるのが抑制され、より適切に伝送ができる。
 そして、具体的には、例えば、図12のデータ構造が用いられてもよい。つまり、例えば、第1のNoMC-Pスライス42Aaの高さ((a)~(j)のそれぞれにおける、第1行のデータ)と、第2のNoMC-Pスライス42Abの高さ(第2行のデータ)とがそれぞれ記憶されてもよい。
 そして、第1のNoMC-Pスライス42Aaと、第2のNoMC-Pスライス42Abとの2つのNoMC-Pスライス42Aのそれぞれについて、そのNoMC-Pスライス42Aの種類が、NoMC-Pであることが判定されてもよい(S3001:NoMC-P、S1004:NoMC-P)。
 そして、これにより、それぞれのNoMC-Pスライス42Aについて、S3002B~S3005B(S1006)の処理がされてもよい。
 (実施の形態4)
 実施の形態4の動画像符号化方法は、第1の時刻(例えば、図17の(i)の時刻)における、IスライスとPスライスとが含まれる第1の前記ピクチャ(図17の(i)のピクチャ)と、前記第1の時刻よりも遅い第2の時刻((k)の時刻)での、IスライスとPスライスとが含まれる第2の前記ピクチャ(図17の(k)のピクチャ)とをそれぞれ符号化し、さらに、前記第1の時刻と、前記第2の時刻との間の中間の時刻((j)の時刻)での、Iスライスが含まれない第3のピクチャ(図17の(j))を符号化する動画像符号化方法である。
 ここで、例えば、当該動画像符号化方法において、前記第3のピクチャ(図17の(j))は、前記第1のピクチャ(図17の(i))における、前記第1の領域(図17(i)のNoMC-Pスライス42の領域、第1の領域R1)と、前記Iスライス(図17の(i)のIスライスPR2)の領域との両方で構成される領域R3を含み、前記第1の符号化工程(第1の画面間符号化部191、Sa1)では、前記第3のピクチャ(図17の(j))の当該領域R3における第1のPスライス(NoMC-Pスライス)42Mを、動きベクトルを用いずに画面間符号化し、前記2の符号化工程(第2の画面間符号化部192、Sa2)では、前記第3のピクチャ((j)のピクチャ)における、当該領域R3以外の他の領域の第2のPスライスPMxを、動きベクトルを用いて画面間符号化してもよい。
 また、当該動画像符号化方法において、前記第3のピクチャ(図18の(j))は、前記第2のピクチャ(図18の(k))における前記第1の領域(Iスライス41の領域)と同じ領域(図18の領域R3)を含み、前記第1の符号化工程では、前記第3のピクチャ(図18の(j))の当該同じ領域R3における第1のPスライス(NoMC-Pスライス)42Nを、動きベクトルを用いずに画面間符号化し、前記2の符号化工程では、前記第3のピクチャ(図18の(j))の、当該同じ領域R3以外の他の領域の第2のPスライスPNxを、動きベクトルを用いて画面間符号化してもよい。
 また、当該動画像符号化方法において、前記第1の符号化工程では、前記第3のピクチャ(図20の(j))に含まれる前記領域R3の複数の前記第1のPスライス(NoMC-Pスライス)42Bのそれぞれを、動きベクトルを用いずに画面間符号化し、前記第3のピクチャ(図20の(j))に含まれる複数の前記第1のPスライス42Bのうちでの、前記第1のPスライス42Bの大きさの最大値は、当該第3のピクチャ(図20の(j))に含まれる前記第2のPスライスPMxの大きさの最大値よりも小さくてもよい。
 また、当該動画像符号化方法において、前記第1の符号化工程では、前記第3のピクチャ(図21の(j))に含まれる前記領域R3の複数の前記第1のPスライス(NoMC-Pスライス)42Cのそれぞれを、動きベクトルを用いずに画面間符号化し、前記第3のピクチャ(図21の(j))に含まれる複数の前記第1のPスライス42Cのうちでの、前記第1のPスライス42Cの大きさの最大値は、当該第3のピクチャ(図21の(j))に含まれる前記第2のPスライスPNxの大きさの最大値よりも小さくてもよい。
 以下、詳しく説明される。
 図17は、NoMC-Pスライス42Mなどを示す図である。
 具体的には、例えば、図17に示されるように、Iスライスが設定されないピクチャPMがあってもよい。
 ピクチャPMは、例えば、中間の時刻のピクチャである。中間の時刻とは、IスライスPR2が設定されるピクチャPR(図17の(i))の、早い時刻と、IスライスPS2が設定されるピクチャPS(図17の(k))の、遅い時刻との間における、中間の時刻である。具体的には、中間の時刻のピクチャPMは、ピクチャPRの直後のピクチャであり、かつ、ピクチャPSの直前のピクチャなどである。つまり、ピクチャPRは、ピクチャPMの前のピクチャでもよく、ピクチャPSは、次のピクチャでもよい。
 なお、早い時刻のピクチャPRは、例えば、中間のピクチャPMが処理される際における、過去に、Iスライスが設定された各ピクチャのうちの、最新の、最も遅い時刻のピクチャでもよい。
 そして、中間の時刻のピクチャPMには、NoMC-Pスライス42Mが、設定部103aにより設定されてもよい(ステップSa0b)。
 設定されるNoMC-Pスライス42Mは、例えば、図17に示されるように、早い時刻のピクチャPRにおける、NoMC-Pスライス42の領域と、IスライスPR2の領域との両方からなる領域R3のスライスである。
 これにより、早い時刻のピクチャPRの未リフレッシュ領域(IスライスPR2、NoMC-Pスライス42およびMC-Pスライス44の領域)から、中間の時刻のピクチャPMのリフレッシュ完了領域(NoMC-Pスライス42MおよびMC-Pスライス44の領域)への、劣化の伝搬がなくされてもよい。
 そして、こうして、中間の時刻のピクチャPMのリフレッシュ完了領域での劣化がなくなることにより、中間の時刻のピクチャPMでのリフレッシュ完了領域から、遅い時刻のピクチャPSのリフレッシュ完了領域(図5等を参照)への劣化の伝搬が生じるのが、確実に回避される。これにより、遅い時刻のピクチャPSのリフレッシュ完了領域へ伝搬する劣化が、確実になくせる。
 そして、さらに具体的には、例えば、図17に示されるように、早い時刻のピクチャPRは、NoMC-Pスライス42と、IスライスPR2と以外に、1以上のMC-PスライスPRx(MC-Pスライス44、43)が設定部103aにより設定されてもよい。
 そして、中間の時刻のピクチャPMでは、図17に示されるように、それぞれのMC-PスライスPRxの位置と同じ位置に、そのMC-PスライスPRxの幅と同じ幅のMC-PスライスPMxが設定されてもよい。つまり、中間の時刻のピクチャPMには、それぞれのMC-PスライスPRxの領域と同じ領域のMC-PスライスPMxが設定されてもよい。
 つまり、中間の時刻のピクチャPMにおいては、NoMC-Pスライス42Mの領域以外の他の領域について、早い時刻のピクチャPRにおける、スライスの分割と同じ、スライスの分割が、設定部103aによってされてもよい。
 このように、中間の時刻のピクチャPMでの、スライスの分割が、早い時刻のピクチャPRでの、スライスの分割に対応する(類似する)分割でもよい。
 これにより、スライスの分割の処理が、簡単にできる。
 なお、中間の時刻のピクチャPM(図17)が、複数あってもよい。つまり、ピクチャPRの早い時刻と、ピクチャPSの遅い時刻との間における、2以上の時刻のそれぞれについて、その時刻での中間のピクチャPMがあってもよい。そして、それぞれの中間のピクチャPMについて、上述された処理と同様の処理がされてもよい。
 なお、こうして、例えば、中間の時刻のピクチャPMにおける、NoMC-Pスライス42Mが設定される領域R3は、中間の時刻のピクチャPMの直前の、Iスライス(IスライスPS2)が設定されたピクチャPRにおける、Iスライスの領域と、NoMC-Pスライス42との領域とから構成されてもよい。
 図18は、NoMC-Pスライス42Nなどを示す図である。
 他方、図18に示されるように、中間の時刻のピクチャPNにおいては、NoMC-Pスライス42Nが設定されてもよい。
 設定されるNoMC-Pスライス42Nは、遅い時刻のピクチャPSでのNoMC-Pスライス42の領域と同じ領域でのスライスである。
 そして、中間の時刻のピクチャPNには、遅い時刻のピクチャPSでのIスライス41の領域と同じ領域を有する、MC-PスライスPNyが設定されてもよい。
 なお、こうして、例えば、当該同じ領域は、通常のMC-Pスライス(MC-PスライスPNy)が設定されてもよい。
 そして、中間の時刻のピクチャPNには、遅い時刻のピクチャPSでの、それぞれのMC-PスライスPSxの領域と同じ領域を有するMC-PスライスPNxが設定されてもよい。
 つまり、こうして、中間の時刻のピクチャPNでの、スライスの分割は、MC-PスライスPNyの領域(遅い時刻のピクチャPSでの、Iスライス41の領域)以外の他の領域については、遅い時刻でのピクチャPSでの分割と同じでもよい。
 そして、このように、MC-PスライスPNyの領域についても、スライスの種類(MC-Pスライス、Iスライス)が違うだけでもよい。
 こうして、中間の時刻のピクチャPNでの、スライスの分割は、遅い時刻でのピクチャPSでの分割に対応する(類似する)分割でもよい。
 これにより、スライスの分割の処理が、簡単にできる。
 しかも、図18のNoMC-Pスライス42Nは、図17でのNoMC-Pスライス42Mよりも小さい。つまり、例えば、図18のNoMC-Pスライス42Nは、早い時刻のピクチャPRでのIスライス41の位置から、遅い時刻のピクチャPSでのIスライスPS2での位置への、Iスライスの移動の幅の分だけ、図17のNoMC-Pスライス42Mよりも小さくてもよい。
 そして、NoMC-Pスライス42Nのブロックの符号化では、第1の予測画像が利用されず、符号化後のデータのデータ量が比較的大きくなる。
 つまり、こうして、NoMC-Pスライス42Nが比較的小さくされることにより、符号化後のデータ量が大きくなるスライスが小さくされて、符号化効率が向上できる。
 図20は、中間の時刻のピクチャPMB等を示す図である。
 中間の時刻のピクチャPMBでは、先述された、図17での例と同様に、早い時刻のピクチャPRでの分割に対応する分割がされる。
 そして、図11などでの例など同様に、複数のNoMC-Pスライス42Bが設定される。
 これにより、設定されるそれぞれのNoMC-Pスライス42Bのサイズが小さくできる。これにより、ひいては、図11での例などと同様に、より適切に伝送ができる。
 なお、複数のNoMC-Pスライス42Bのうちに含まれる、NoMC-Pスライス42Bの個数は、例えば、2個でもよいし、3個でもよいし、その他の個数でもよい。
 図21は、中間の時刻のピクチャPMC等を示す図である。
 中間の時刻のピクチャPMCでは、先述された、図18での例と同様に、遅い時刻のピクチャPSでの分割に対応する分割がされる。
 そして、図11などでの例など同様に、複数のNoMC-Pスライス42Cが設定される。
 これにより、より適切に伝送ができる。
 なお、複数のNoMC-Pスライス42Bに含まれる、NoMC-Pスライス42Bの個数は、2個でもよいし、3個でもよいし、その他の個数でもよい。
 なお、図19で説明されるように、次の通りでもよい。
 つまり、NoMC-Pスライスの符号化では、動き補償がされず、符号化後のビット数が、符号化がされる当該NoMC-Pスライスのブロック数と同じブロック数の他のスライスの符号化での、符号化後のビット数よりも、増えてしまう恐れがある。
 そこで、NoMC-Pスライス(NoMC-Pスライス42A)のブロック数を、通常のPスライス(MC-Pスライス43)でのブロック数よりも小さいブロック数にしてもよい。これにより、NoMC-Pスライスの、符号化後のビット数が特に大きくなってしまうことが回避され、小さくできる。そして、これにより、ひいては、符号化後のデータが伝送される伝送路でのパケットロスが発生し難くできる。
 なお、ここで、例えば、標準的な伝送規格では、1スライスが、1伝送単位(1つのパケットでもよい)である。そして、1伝送単位の大きさが、一定の大きさを超えると、パケットロスが発生し易くなる。
 つまり、上述のように、NoMC-Pスライス42Aのブロック数を小さくすることにより、例えば、1伝送単位の大きさが、当該一定の大きさを超えてしまうことが回避され(少なくされ)ることにより、パケットロスが発生し難くできてもよい。
 (実施の形態5)
 本発明の実施の形態5では、上記実施の形態1~4で示した動画像符号化装置(動画像符号化装置1、動画像符号化装置1A)を実現するためのプログラムを、フレキシブルディスク等の記録媒体に記録する。そして、これにより、上記実施の形態1~4で示した処理を、独立したコンピュータシステムにおいて実施する。このような実施を行う例を説明する。
 図14~図16は、上記各実施の形態の動画像符号化装置を、フレキシブルディスク等の記録媒体に記録されたプログラムを用いて、コンピュータシステムにより実施する場合の説明図である。
 図14は、記録媒体本体である、フレキシブルディスク(図15参照)のディスクFDの物理フォーマットの例を示す図である。
 図15は、フレキシブルディスクを正面からみた外観(左図)、フレキシブルディスクの断面構造(中央図)、およびディスクFDを示す図(右図)である。
 フレキシブルディスクは、ケースFと、ケースF内に内蔵されるディスクFDとを備える。ディスクFDの表面には、同心円状に外周から内周に向かって複数のトラックTrが形成される。各トラックTrは、角度方向に16のセクタSeに分割される。従って、ディスクFD上に割り当てられた領域に、上記プログラムが記録されている。
 また、図16は、フレキシブルディスクへの上記プログラムの記録、およびフレキシブルディスクからの上記プログラムの読み出しおよび再生を行うコンピュータシステムCsの構成を示す図である。例えば、動画像符号化装置を実現する上記プログラムをフレキシブルディスクに記録する場合は、コンピュータシステムCsは、上記プログラムを、フレキシブルディスクドライブFDDを介してフレキシブルディスク(のディスクFD)に書き込む。
 また、フレキシブルディスク内のプログラムをコンピュータシステムCsが実行してもよい。そして、これにより、動画像符号化装置の機能を、コンピュータシステムCs中に構築する場合には、フレキシブルディスクドライブFDDによりプログラムをフレキシブルディスクから読み出し、読み出されたプログラムを、フレキシブルディスクドライブFDDからコンピュータシステムCsに転送する。コンピュータシステムCsは、転送されたプログラムを実行することにより、上述した動画像符号化装置の機能を実現する。
 なお、上記説明では、記録媒体としてディスク(フレキシブルディスク)FDを例に説明を行ったが、光ディスクを用いても同様に行うことができる。また、記録媒体はこれに限らず、ICカード、ROMカセット、USB(Universal Serial Bus)メモリ、メモリーカード(Memory Card)等、プログラムを記録できるものであれば同様に実施することができる。また、コンピュータシステムCsに着脱可能な記録媒体に限らず、コンピュータシステムCsが備えるHDD(ハードディスク・ドライブ)、不揮発性メモリ、RAMおよびROM、SDD(Solid State Drive)、などに記録されるプログラムを、コンピュータシステムCsが実行してもよい。さらに、コンピュータシステムCsは、有線または無線の通信網を介して、コンピュータシステムCsの外部から取得したプログラムを、実行してもよい。
 また、上述した実施の形態1~4に示す動画像符号化装置に関しても、同様に、コンピュータシステムCsで実現可能である。
 なお、動画像符号化装置に含まれる各機能ブロックは集積回路であるLSIとして実現されてもよい。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。例えばメモリ以外の機能ブロックが1チップ化されていてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、またはLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 さらに、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
 また、各機能ブロックのうち、符号化の対象となるデータを格納する手段だけ1チップ化せずに別構成としてもよい。
 なお、上記のように、例えば、前記第1のPスライス領域の前記垂直方向の幅(NoMC-Pスライス42の垂直方向の幅)は、「前記第2の符号化工程における動き検出の探索範囲-Iスライスの幅」以上であってもよい。
 これにより、リフレッシュ領域からの参照の参照先の範囲のより広い部分が、参照先のピクチャ(参照先のピクチャPR)の未リフレッシュ領域を外れるようにできる。
 そして、ピクチャが符号化されたデータが送信されるネットワークの帯域に基づいて(S2002)、Iスライスを挿入する挿入方法を、Iスライスを繰り返し挿入する第1の挿入方法と(S2005A)、所定回数のみ(所定の回数だけ)挿入する第2の挿入方法と(S2005C)から選択する選択工程を含む動画像符号化方法が構築されてもよい。
 また、送信されたデータが受信される受信側から符号化を行う符号化装置へ、前記受信側で復号エラーが発生したことを通知するか否かに基づいて(S2003)、Iスライスを挿入する挿入方法を、Iスライスを繰り返し挿入する第1の挿入方法と、所定回数のみ(所定回数だけ)挿入する第2の挿入方法とから選択する選択工程を含む動画像符号化方法が構築されてもよい。
 また、他の受信機に一度に配信を行う送信方法に基づいて(S2001)、Iスライスを挿入する挿入方法を、Iスライスを繰り返し挿入する第1の挿入方法と、所定回数のみ(所定回数だけ)挿入する第2の挿入方法とから選択する選択工程を含む動画像符号化方法が構築されてもよい。
 また、デブロックフィルタ処理を行うフィルタ工程をさらに含み(フィルタ部2010、Sa4)、前記第1のPスライス領域の前記垂直方向の幅は、前記デブロックフィルタ処理において、一方の画素が他方の画素に影響を与える2つの画素の距離の最大値の距離(例えば2画素の距離)より大きい動画像符号化方法が構築されてもよい。
 また、前記動きベクトルは画素よりも小さい単位で検出され(小数精度の動き補償の処理が行われ)、前記第1のPスライス領域の前記垂直方向の幅は、前記動きベクトルによる動き補償の処理において、一方の画素が他方の画素に影響を与える2つの画素の距離の最大値の距離(例えば3画素の距離)より大きくてもよい。なお、前記垂直方向の幅は、例えば、未リフレッシュ領域(未リフレッシュ領域PR3)から、上記フィルタ工程および上記小数精度の処理の2つの上記最大値の合計の距離までの余白領域への、リフレッシュ完了領域(リフレッシュ完了領域PS1)からの参照が防がれる最低の大きさ以上の大きさを有してもよい。
 なお、つまり、具体的には、例えば、垂直方向の幅が、これらフィルタ工程等での影響以外のみが考慮された幅に対して、さらに、これらフィルタ工程等の影響が考慮された幅が加えられた幅以上でもよい。
 なお、前記第1のPスライス領域の前記垂直方向の幅は、前記第2の符号化工程における動き検出の探索範囲以上であってもよい。
 これにより、探索範囲の下端は、符号化の対象のピクチャ(対象のピクチャPS)のIスライスの上端より上側である。つまり、対象のピクチャのIスライスの上端の位置が、参照先のピクチャ(参照先のピクチャPR)のIスライスの下端の位置と同じである際などにおいて、参照先のピクチャのIスライスの下端より、探索範囲の下端が上側である。つまり、探索範囲の下端が、参照先のピクチャの未リフレッシュ領域の上端より上側である。これにより、より十分に、不適切な、画質劣化の伝播が回避できる。
 なお、上記において、「前記第2の符号化工程における動き検出の探索範囲-Iスライスの幅」とある。一方で、図2の(n)のNoMC-Pスライス42の幅は、例えば、(m)に示される、探索範囲の大きさWと同じでもよい。つまり、この幅は、Wと同じ、または、W以上でもよいし、Wより小さくてもよい。このように、Wより小さいことにより、未リフレッシュ領域PR3から、リフレッシュ完了領域PS1への複数の、劣化の伝搬のうちの、一部の伝搬のみが回避されてもよい。これにより、伝搬の回避がされる一方で、NoMC-Pスライス42の幅が比較的小さくされて、NoMC-Pスライス42が符号化された後の、符号化後のデータが小さくされる。これにより、伝搬の回避と、符号化後のデータの小ささとが両立できる。
 なお、探索範囲の幅とは、例えば、図2の下方向、つまり、Iスライスの進行方向への幅(W)であり、進行方向への探索がされる距離の最大値でもよい。
 また、第1のPスライス領域の幅は、具体的には、例えば、上記探索範囲(探索の距離の最大値)以上であってもよい。これにより、十分に、不適切な、画質劣化の伝播が回避できる。さらに、第1のPスライス領域の幅は、より具体的には、探索の距離の上記最大値と、デブロックフィルタの距離の最大値の上記距離との合計以上であってもよい。前記第1のPスライス領域の幅は、具体的には、探索の距離の上記最大値と、小数精度の動き補償の処理の距離の最大値の上記距離との合計以上であってもよい。第1のPスライス領域の幅は、具体的には、上記3つの長さの合計以上であってもよい。
 なお、こうして、例えば、図3の「先頭」、「終端」の文字に示されるように、複数のスライス(図3の[0]~[6])のなかから、ピクチャにおける、先頭のスライス(および終端のスライス)が選択されてもよい。そして、これにより、それぞれのスライス(例えば、[0]のNoMC-Pスライス)の、ピクチャのなかでの位置が特定されてもよい。これにより、特定される位置に、当該スライス([0]のNoMC-Pスライス)が設定されてもよい。
 そして、これにより、それぞれの時刻(例えば(d)の時刻)における、Iスライス([1])が設定される位置が、直前の時刻((c)の時刻)における位置の次の位置にされて、Iスライスが設定される位置が移動されてもよい。
 なお、単なる細部については、例えば、公知の技術を適用された形態を有してもよいし、更なる改良発明が施された形態などの、他の形態を有してもよい。
 以上、本発明の動画像符号化方法および動画像符号化装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものあるいは、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
 本発明は、動画像符号化装置に利用でき、特に、ネットワークを利用した動画像双方向通信あるいは、動画像配信、監視カメラなど、動画像を符号化する通信機器あるいはセット機器に利用することができる。
 100  ピクチャ数カウンタ部
 102  ブロック数カウンタ部
 103  スライスタイプ設定部
 104  動き探索判定部
 105  スライス挿入回数設定部
 200  符号化部
 300  パケット化部
 2001 動き探索部
 2002 動き補償部
 2003 参照画像複製部
 2004 画面内予測部
 2005 セレクタ部
 2006 減算器
 2007 DCT/量子化部
 2008 逆量子化/逆DCT部
 2009 加算器
 2010 フィルタ部
 2011 参照画像保持部
 2012 エントロピー符号化部

Claims (19)

  1.  1つのピクチャにIスライスとPスライスとを含み、含まれる前記Iスライスの前記ピクチャ内の位置が、ピクチャ毎に、ピクチャの垂直方向に移動する動画像符号化方法であって、
     前記Iスライスに隣接する第1の領域であって、前記垂直方向の移動の向きと逆向きに隣接する第1の領域に含まれる第1のPスライスを、動きベクトルを用いずに画面間符号化する第1の符号化工程と、
     前記第1の領域以外の第2の領域に含まれる第2のPスライスを、動きベクトルを用いて画面間符号化する第2の符号化工程とを含む動画像符号化方法。
  2.  前記第1の領域の前記垂直方向の幅は、「前記第2の符号化工程における動き検出の探索範囲-Iスライスの幅」以上である、請求項1記載の動画像符号化方法。
  3.  前記第1の領域に含まれる前記第1のPスライスを、動きベクトルを用いて画面間符号化する第3の符号化工程をさらに含み、
     前記第3の符号化工程では、Iスライスを繰り返し挿入する場合に、前記第1の領域に含まれる前記第1のPスライスを、動きベクトルを用いて画面間符号化し、
     前記第1の符号化工程では、Iスライスを所定の回数だけ挿入する場合に、前記第1の領域に含まれる前記第1のPスライスを、動きベクトルを用いないで画面間符号化する請求項1記載の動画像符号化方法。
  4.  ピクチャが符号化されたデータが送信されるネットワークの帯域に基づいて、Iスライスを挿入する挿入方法を、Iスライスを繰り返し挿入する第1の挿入方法と、所定の回数だけ挿入する第2の挿入方法とから選択する選択工程を含む請求項3記載の動画像符号化方法。
  5.  送信されたデータが受信される受信側から、符号化を行う符号化装置へ、前記受信側で復号エラーが発生したことを通知するか否かに基づいて、Iスライスを挿入する挿入方法を、Iスライスを繰り返し挿入する第1の挿入方法と、所定の回数だけ挿入する第2の挿入方法とから選択する選択工程を含む請求項3記載の動画像符号化方法。
  6.  他の受信機に一度に配信を行う送信方法に基づいて、Iスライスを挿入する挿入方法を、Iスライスを繰り返し挿入する第1の挿入方法と、所定の回数だけ挿入する第2の挿入方法とから選択する選択工程を含む請求項3記載の動画像符号化方法。
  7.  デブロックフィルタ処理を行うフィルタ工程をさらに含み、
     前記第1の領域の前記垂直方向の幅は、前記デブロックフィルタ処理において、一方の画素が他方の画素に影響を与える2つの画素の距離の最大値の距離より大きい請求項1記載の動画像符号化方法。
  8.  前記動きベクトルは、画素よりも小さい単位で検出され、
     前記第1の領域の前記垂直方向の幅は、前記動きベクトルによる動き補償の処理において、一方の画素が、他方の画素に影響を与える2つの画素の距離の最大値の距離より大きい請求項1記載の動画像符号化方法。
  9.  前記第1の符号化工程では、前記第1の領域に含まれる、複数の前記第1のPスライスのそれぞれを、動きベクトルを用いずに画面間符号化し、
     含まれる複数の前記第1のPスライスのうちでの、前記第1のPスライスの大きさの最大値は、前記第2のPスライスの大きさの最大値よりも小さい請求項1記載の動画像符号化方法。
  10.  前記第1のPスライスの大きさの前記最大値は、当該最大値の大きさを有する前記第1のPスライスが含まれる前記ピクチャにおける前記Iスライスの大きさ以上である請求項9記載の動画像符号化方法。
  11.  当該動画像符号化方法では、
     第1の時刻における、IスライスとPスライスとが含まれる第1の前記ピクチャと、前記第1の時刻よりも遅い第2の時刻での、IスライスとPスライスとが含まれる第2の前記ピクチャとをそれぞれ符号化し、
     さらに、前記第1の時刻と、前記第2の時刻との間の中間の時刻での、Iスライスが含まれない第3のピクチャを符号化する請求項1記載の動画像符号化方法。
  12.  前記第3のピクチャは、前記第1のピクチャにおける、前記第1の領域と、前記Iスライスの領域との両方で構成される領域を含み、
     前記第1の符号化工程では、前記第3のピクチャの当該領域における第1のPスライスを、動きベクトルを用いずに画面間符号化し、
     前記2の符号化工程では、前記第3のピクチャにおける、当該領域以外の他の領域の第2のPスライスを、動きベクトルを用いて画面間符号化する請求項11記載の動画像符号化方法。
  13.  前記第3のピクチャは、前記第2のピクチャにおける前記第1の領域と同じ領域を含み、
     前記第1の符号化工程では、前記第3のピクチャの当該同じ領域における第1のPスライスを、動きベクトルを用いずに画面間符号化し、
     前記2の符号化工程では、前記第3のピクチャの、当該同じ領域以外の他の領域の第2のPスライスを、動きベクトルを用いて画面間符号化する請求項11記載の動画像符号化方法。
  14.  前記第1の符号化工程では、前記第3のピクチャに含まれる前記領域の複数の前記第1のPスライスのそれぞれを、動きベクトルを用いずに画面間符号化し、
     前記第3のピクチャに含まれる複数の前記第1のPスライスのうちでの、前記第1のPスライスの大きさの最大値は、当該第3のピクチャに含まれる前記第2のPスライスの大きさの最大値よりも小さい請求項12記載の動画像符号化方法。
  15.  前記第1の符号化工程では、前記第3のピクチャに含まれる前記領域の複数の前記第1のPスライスのそれぞれを、動きベクトルを用いずに画面間符号化し、
     前記第3のピクチャに含まれる複数の前記第1のPスライスのうちでの、前記第1のPスライスの大きさの最大値は、当該第3のピクチャに含まれる前記第2のPスライスの大きさの最大値よりも小さい請求項13記載の動画像符号化方法。
  16.  1つのピクチャにIスライスとPスライスとを含み、含まれる前記Iスライスの前記ピクチャ内の位置が、ピクチャ毎に、ピクチャの垂直方向に移動する動画像符号化装置であって、
     前記Iスライスに隣接する第1の領域であって、前記垂直方向の移動の向きと逆向きに隣接する第1の領域に含まれる第1のPスライスを、動きベクトルを用いずに画面間符号化し、前記第1の領域以外の第2の領域に含まれる第2のPスライスを、動きベクトルを用いて画面間符号化するように、スライスタイプを決定するスライスタイプ決定部と、
     前記第1の領域の前記第1のPスライスを、動きベクトルを用いずに画面間符号化する第1の画面間符号化部と、
     前記第2の領域の前記第2のPスライスを、動きベクトルを用いて画面間符号化する第2の画面間符号化部とを備えた動画像符号化装置。
  17.  Iスライスの挿入回数が所定値以上かどうかを判定するスライス挿入回数設定部を備え、
     前記スライスタイプ決定部は、前記挿入回数が所定値未満であると、前記スライス挿入回数設定部により判定された場合には、前記第1の領域、および前記第2の領域の両方を使用し、所定値以上であると判定された場合には、前記第2の領域のみを使用する請求項16記載の動画像符号化装置。
  18.  1つのピクチャにIスライスとPスライスとを含み、含まれる前記Iスライスの前記ピクチャ内の位置が、ピクチャ毎に、ピクチャの垂直方向に移動する際において、コンピュータが、複数のピクチャを符号化するためのコンピュータプログラムであって、
     前記Iスライスに隣接する第1の領域であって、前記垂直方向の移動の向きと逆向きに隣接する第1の領域に含まれる第1のPスライスを、動きベクトルを用いずに画面間符号化する第1の符号化工程と、
     前記第1の領域以外の第2の領域に含まれる第2のPスライスを、動きベクトルを用いて画面間符号化する第2の符号化工程とを前記コンピュータに実行させるためのコンピュータプログラム。
  19.  1つのピクチャにIスライスとPスライスとを含み、含まれる前記Iスライスの前記ピクチャ内の位置が、ピクチャ毎に、ピクチャの垂直方向に移動して、複数のピクチャを符号化する集積回路であって、
     前記Iスライスに隣接する第1の領域であって、前記垂直方向の移動の向きと逆向きに隣接する第1の領域に含まれる第1のPスライスを、動きベクトルを用いずに画面間符号化する第1の符号化部と、
     前記第1の領域以外の第2の領域に含まれる第2のPスライスを、動きベクトルを用いて画面間符号化する第2の符号化部とを備える集積回路。
PCT/JP2010/004431 2009-07-10 2010-07-07 動画像符号化方法、装置、プログラム、および集積回路 WO2011004598A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010548973A JPWO2011004598A1 (ja) 2009-07-10 2010-07-07 動画像符号化方法、装置、プログラム、および集積回路
CN2010800019898A CN102077597A (zh) 2009-07-10 2010-07-07 运动图像编码方法、装置、程序、以及集成电路
US13/001,072 US20120275518A1 (en) 2009-07-10 2010-07-07 Moving picture coding method, apparatus, program, and integrated circuit

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-163843 2009-07-10
JP2009163843 2009-07-10

Publications (1)

Publication Number Publication Date
WO2011004598A1 true WO2011004598A1 (ja) 2011-01-13

Family

ID=43429026

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/004431 WO2011004598A1 (ja) 2009-07-10 2010-07-07 動画像符号化方法、装置、プログラム、および集積回路

Country Status (4)

Country Link
US (1) US20120275518A1 (ja)
JP (1) JPWO2011004598A1 (ja)
CN (1) CN102077597A (ja)
WO (1) WO2011004598A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10390076B2 (en) 2016-03-29 2019-08-20 Mitsubishi Electric Corporation Image receiving/reproducing device, image generating/transmitting device, display system, image receiving/reproducing method, image generating/transmitting method, and computer readable medium
US10674172B2 (en) 2016-04-19 2020-06-02 Mitsubishi Electric Corporation Image processing apparatus, image processing method, and computer-readable recording medium

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106851306B (zh) 2011-01-12 2020-08-04 太阳专利托管公司 动态图像解码方法和动态图像解码装置
US10404998B2 (en) * 2011-02-22 2019-09-03 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, and moving picture decoding apparatus
MX2013009864A (es) 2011-03-03 2013-10-25 Panasonic Corp Metodo de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
JP2013247651A (ja) * 2012-05-29 2013-12-09 Canon Inc 符号化装置、符号化方法およびプログラム
JP6019797B2 (ja) * 2012-06-22 2016-11-02 富士通株式会社 動画像符号化装置、動画像符号化方法、及びプログラム
US11109036B2 (en) 2013-10-14 2021-08-31 Microsoft Technology Licensing, Llc Encoder-side options for intra block copy prediction mode for video and image coding
US20150103909A1 (en) * 2013-10-14 2015-04-16 Qualcomm Incorporated Multi-threaded video encoder
AU2013403224B2 (en) 2013-10-14 2018-10-18 Microsoft Technology Licensing, Llc Features of intra block copy prediction mode for video and image coding and decoding
US10390034B2 (en) 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
KR102353787B1 (ko) 2014-01-03 2022-01-19 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 비디오 및 이미지 코딩/디코딩에서의 블록 벡터 예측
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
KR102401946B1 (ko) 2014-03-04 2022-05-24 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 인트라 블록 카피 예측에서의 스킵 모드 및 블록 플립핑
KR102311815B1 (ko) 2014-06-19 2021-10-13 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 통합된 인트라 블록 카피 및 인터 예측 모드
JP2017535145A (ja) 2014-09-30 2017-11-24 マイクロソフト テクノロジー ライセンシング,エルエルシー 波面並列処理が可能にされた場合のピクチャ内予測モードに関する規則
JP2017069866A (ja) * 2015-10-01 2017-04-06 富士通株式会社 動画像符号化装置、動画像符号化方法及び動画像符号化用コンピュータプログラム
US10621731B1 (en) * 2016-05-31 2020-04-14 NGCodec Inc. Apparatus and method for efficient motion estimation for different block sizes
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60146588A (ja) * 1984-01-11 1985-08-02 Nec Corp 動画像信号の符号化方式およびその装置
JPH04286489A (ja) * 1990-11-16 1992-10-12 General Instr Corp 動作補償を伴った連続ビデオ影像をリフレッシュする方法とその装置
JP2008258953A (ja) * 2007-04-05 2008-10-23 Ibex Technology Co Ltd 符号化装置、符号化プログラムおよび符号化方法
JP2009021907A (ja) * 2007-07-13 2009-01-29 Fujitsu Ltd 動画像符号化装置及び動画像符号化方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002043385A2 (en) * 2000-10-10 2002-05-30 Broadcom Corporation System and method for special reproduction modes of a digitally encoded video data stream
DE102005029127A1 (de) * 2005-06-23 2007-04-19 On Demand Microelectronics Ag Verfahren und Vorrichtung zur optimierten prädiktiven Videocodierung
CN101309405B (zh) * 2007-05-14 2011-04-20 华为技术有限公司 参考数据载入的方法及装置
JP4821723B2 (ja) * 2007-07-13 2011-11-24 富士通株式会社 動画像符号化装置及びプログラム
JP5050964B2 (ja) * 2008-03-31 2012-10-17 富士通株式会社 復号装置,復号方法および復号プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60146588A (ja) * 1984-01-11 1985-08-02 Nec Corp 動画像信号の符号化方式およびその装置
JPH04286489A (ja) * 1990-11-16 1992-10-12 General Instr Corp 動作補償を伴った連続ビデオ影像をリフレッシュする方法とその装置
JP2008258953A (ja) * 2007-04-05 2008-10-23 Ibex Technology Co Ltd 符号化装置、符号化プログラムおよび符号化方法
JP2009021907A (ja) * 2007-07-13 2009-01-29 Fujitsu Ltd 動画像符号化装置及び動画像符号化方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10390076B2 (en) 2016-03-29 2019-08-20 Mitsubishi Electric Corporation Image receiving/reproducing device, image generating/transmitting device, display system, image receiving/reproducing method, image generating/transmitting method, and computer readable medium
US10674172B2 (en) 2016-04-19 2020-06-02 Mitsubishi Electric Corporation Image processing apparatus, image processing method, and computer-readable recording medium

Also Published As

Publication number Publication date
US20120275518A1 (en) 2012-11-01
JPWO2011004598A1 (ja) 2012-12-20
CN102077597A (zh) 2011-05-25

Similar Documents

Publication Publication Date Title
WO2011004598A1 (ja) 動画像符号化方法、装置、プログラム、および集積回路
JP5417402B2 (ja) 画像符号化方法および画像符号化装置
JP5232114B2 (ja) 画像符号化装置、及び画像符号化方法
JP4570532B2 (ja) 動き検出装置、動き検出方法、集積回路およびプログラム
JP4769717B2 (ja) 画像復号化方法
KR100628494B1 (ko) 화상복호화방법 및 장치와 기록매체
JP4884290B2 (ja) 動画像復号化集積回路、動画像復号化方法、動画像復号化装置及び動画像復号化プログラム
JP4838253B2 (ja) 画像符号化装置、画像符号化方法、画像復号化装置、画像復号化方法、および記録方法
JP4755093B2 (ja) 画像符号化方法および画像符号化装置
EP2141930A1 (en) Motion detection apparatus, motion detection method, and motion detection program
US8948255B2 (en) Moving picture coding method for quantizing a plurality of pictures using a quantization step and a small quantization step having a size smaller than a size of the quantization step
US20120307896A1 (en) Moving picture coding method, moving picture decoding method, and apparatuses of the same
JP4534935B2 (ja) トランスコーダ、記録装置及びトランスコード方法
US5706053A (en) Compressed motion video code processor
US20070171977A1 (en) Moving picture coding method and moving picture coding device
JP4440863B2 (ja) 符号化復号化装置、符号化復号化方法、符号化復号化集積回路、および符号化復号化プログラム
JP2008011117A (ja) 画像符号化におけるインターレース符号化時の参照ピクチャ決定方法
JP2007228560A (ja) 動画像符号化方法および動画像符号化装置
TW201440500A (zh) 影像處理裝置及方法
JP2008072182A (ja) 動画像復号化装置、動画像復号化方法、動画像復号化プログラム、動画像符号化装置、動画像符号化方法、動画像符号化プログラム、及び動画像符号化復号化装置
JP4892450B2 (ja) 画像符号化装置および画像符号化方法
JP5240230B2 (ja) トランスコーダ、記録装置及びトランスコード方法
JP2007020123A (ja) 動き検出装置、および動き検出方法
JP2007151163A (ja) 画像復号化方法及び装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080001989.8

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2010548973

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13001072

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10796909

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10796909

Country of ref document: EP

Kind code of ref document: A1