WO2012134085A2 - 인트라 예측 모드에서의 영상 복호화 방법 - Google Patents

인트라 예측 모드에서의 영상 복호화 방법 Download PDF

Info

Publication number
WO2012134085A2
WO2012134085A2 PCT/KR2012/001923 KR2012001923W WO2012134085A2 WO 2012134085 A2 WO2012134085 A2 WO 2012134085A2 KR 2012001923 W KR2012001923 W KR 2012001923W WO 2012134085 A2 WO2012134085 A2 WO 2012134085A2
Authority
WO
WIPO (PCT)
Prior art keywords
current block
block
intra prediction
pixel
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2012/001923
Other languages
English (en)
French (fr)
Other versions
WO2012134085A3 (ko
Inventor
김광제
오현오
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ibex PT Holdings Co Ltd
Original Assignee
Ibex PT Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to MX2013011427A priority Critical patent/MX2013011427A/es
Priority to JP2014502448A priority patent/JP5889392B2/ja
Priority to CN201280017441.1A priority patent/CN103460700B/zh
Priority to EP21160619.9A priority patent/EP3869804A1/en
Priority to EP21160616.5A priority patent/EP3852365A1/en
Priority to EP21160613.2A priority patent/EP3852364A1/en
Priority to EP12764505.9A priority patent/EP2696583A4/en
Priority to EP21160617.3A priority patent/EP3852366A1/en
Priority to EP21160620.7A priority patent/EP3852367A1/en
Application filed by Ibex PT Holdings Co Ltd filed Critical Ibex PT Holdings Co Ltd
Priority to BR112013025398-3A priority patent/BR112013025398B1/pt
Publication of WO2012134085A2 publication Critical patent/WO2012134085A2/ko
Publication of WO2012134085A3 publication Critical patent/WO2012134085A3/ko
Priority to US13/743,161 priority patent/US9445127B2/en
Anticipated expiration legal-status Critical
Priority to US14/591,477 priority patent/US9788016B2/en
Priority to US14/591,639 priority patent/US9615110B2/en
Priority to US15/596,865 priority patent/US9854273B2/en
Priority to US15/596,927 priority patent/US10123049B2/en
Priority to US15/699,455 priority patent/US10142658B2/en
Priority to US16/149,491 priority patent/US10735772B2/en
Priority to US16/918,262 priority patent/US11272215B2/en
Priority to US16/918,627 priority patent/US11272216B2/en
Priority to US17/162,146 priority patent/US11272217B2/en
Priority to US17/162,155 priority patent/US11272219B2/en
Priority to US17/162,152 priority patent/US11272218B2/en
Priority to US17/587,701 priority patent/US20220150549A1/en
Priority to US18/417,091 priority patent/US12301887B2/en
Priority to US18/941,836 priority patent/US20250071340A1/en
Priority to US18/941,867 priority patent/US20250071343A1/en
Priority to US18/941,857 priority patent/US12581130B2/en
Priority to US18/941,848 priority patent/US12581129B2/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Definitions

  • the present invention relates to an image decoding method in an intra prediction mode, and more particularly, to an image decoding method of generating a prediction block close to an original image by adaptively generating and filtering reference pixels of a current block.
  • Video compression techniques have been proposed to efficiently transmit video signals at low data rates while maintaining high image quality.
  • video compression techniques include H.261, MPEG-2 / H.262, H.263, MPEG-4, and AVC / H.264.
  • the compression technique includes a Discrete CosineTransform (DCT) technique, a Motion Compensation (MC) technique, a Quantization technique, an Entropy coding technique, and the like.
  • DCT Discrete CosineTransform
  • MC Motion Compensation
  • Quantization technique an Entropy coding technique, and the like.
  • CBR constant bit rate
  • the H.264 / AVC standard performs intra prediction encoding in a spatial domain by using neighboring pixel values during intra encoding. Determining which pixel value to use is important for improving coding efficiency. For this purpose, an optimal intra prediction direction is determined and the prediction value of the pixel to be encoded is calculated using the neighboring pixel values corresponding to the direction.
  • a step may occur between the reference pixels positioned at both boundaries of the reference blocks.
  • the residual blocks after generating the predictive block are likely to contain a large amount of high frequency components, thereby reducing coding efficiency.
  • An object of the present invention is to provide a method for reconstructing an intra prediction block close to an original image. Accordingly, the present invention provides a method of reducing data amount while minimizing an encoding amount of a residual signal to be restored when generating a reconstruction block in an intra prediction mode.
  • a method of decoding an image in an intra prediction mode which includes reconstructing an intra prediction mode of a current block, and wherein there are reference pixels that are not available in the current block.
  • Generating reference pixels that are not available using the available reference pixels adaptively filtering the reference pixels based on the reconstructed intra prediction mode of the current block and the size of the current block, and Generating a prediction block of the current block using the intra prediction mode of the block and the reference pixel or the filtered reference pixel, wherein the available location of the nearest position in a predetermined direction from the location of the unavailable reference pixel is available.
  • the pixel value of the reference pixel is not available.
  • the present invention provides that the available reference of the nearest position in the opposite direction if there is no available reference pixel of the position nearest to the predetermined direction from the position of the non-use reference pixel
  • the pixel value of the pixel is set to the pixel value of the reference pixel that is not available.
  • the present invention sets the number of intra prediction modes to filter the reference pixel as the size of the current block is larger than or equal to.
  • a prediction similar to the original image is generated by generating a reference block after generating a reference pixel that is not available from the available reference pixels, and adaptively filtering the reference pixel according to the size of the current block and the intra prediction mode. It has the effect of generating blocks.
  • the residual signal at the time of encoding and decoding is minimized to increase the compression performance of the image, but the coding and decoding efficiency can be maximized.
  • FIG. 1 is a block diagram illustrating a video encoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating an operation of an intra predictor according to an exemplary embodiment of the present invention.
  • 3 is a diagram for describing planner mode prediction according to an embodiment of the present invention.
  • FIG. 4 is a block diagram illustrating a video decoding apparatus according to an embodiment of the present invention.
  • FIG. 5 is a flowchart for reconstructing an intra block according to an embodiment of the present invention.
  • FIG. 1 is a block diagram illustrating a video encoding apparatus according to an embodiment of the present invention.
  • a video encoding apparatus includes an encoding mode determiner 110, an intra predictor 120, a motion compensator 130, a motion estimator 131, a transform encoder / quantizer 140, and an entropy encoding.
  • the unit 150 includes a quantization / transform / decoding unit 141, a deblocking filtering unit 160, a picture storage unit 170, a subtraction unit 180, and an adder 190.
  • the encoding mode determiner 110 analyzes the input video signal, divides the picture into coding blocks having a predetermined size, and determines an encoding mode for the divided coding blocks having a predetermined size.
  • the encoding mode includes intra prediction encoding and inter prediction encoding.
  • the picture is composed of a plurality of slices, and the slice is composed of a plurality of largest coding units (LCUs).
  • the LCU may be divided into a plurality of coding units (CUs), and the encoder may add information (flag) indicating whether to divide the bitstream.
  • the decoder can recognize the location of the LCU using the address LcuAddr.
  • the coding unit (CU) in the case where splitting is not allowed is regarded as a prediction unit (PU), and the decoder may recognize the location of the PU using a PU index.
  • the prediction unit PU may be divided into a plurality of partitions.
  • the prediction unit PU may include a plurality of transform units (TUs).
  • the encoding mode determiner 110 transmits the image data to the subtractor 180 in a block unit (eg, PU unit or TU unit) having a predetermined size according to the determined encoding mode.
  • a block unit eg, PU unit or TU unit
  • the transform encoding / quantization unit 140 converts the residual block calculated by the subtractor 180 from the spatial domain to the frequency domain. For example, two-dimensional discrete cosine transform (DCT) or discrete sine transform (DST) based transforms are performed on the residual block.
  • the transform encoding / quantization unit 140 determines a quantization step size for quantizing the transform coefficient, and quantizes the transform coefficient using the determined quantization step size.
  • the quantization matrix may be determined according to the determined quantization step size and the encoding mode.
  • the quantized two-dimensional transform coefficients are transformed into one-dimensional quantized transform coefficients by one of a predetermined scanning method.
  • the transformed sequence of one-dimensional quantized transform coefficients is supplied to the entropy encoder 150.
  • the inverse quantization / transform decoding unit 141 inverse quantizes the quantization coefficients quantized by the transform encoding / quantization unit 140. Furthermore, the inverse quantization coefficient obtained by inverse quantization is inversely transformed. Accordingly, the residual block transformed into the frequency domain may be restored to the residual block in the spatial domain.
  • the deblocking filtering unit 160 receives the inverse quantized and inverse transformed image data from the inverse quantization / inverse transform encoding unit 141 and performs filtering to remove a blocking effect.
  • the picture storage unit 170 receives the filtered image data from the deblocking filtering unit 160 and restores and stores the image in picture units.
  • the picture may be an image in a frame unit or an image in a field unit.
  • the picture storage unit 170 includes a buffer (not shown) that can store a plurality of pictures. A number of pictures stored in the buffer are provided for intra prediction and motion estimation. The pictures provided for intra prediction or motion estimation are called reference pictures.
  • the motion estimator 131 receives at least one reference picture stored in the picture storage unit 170 and performs motion estimation to output motion data including a motion vector, an index indicating a reference picture, and a block mode. do.
  • the motion vector is determined with fractional pixel precision, for example 1/2 or 1/4 pixel precision. Since the motion vector may have a fractional pixel precision, the motion compensation unit 130 applies an interpolation filter for calculating the pixel value of the fractional pixel position to the reference picture, whereby the pixel value of the fractional pixel position from the pixel value of the integer pixel position. To calculate.
  • the motion compensator 130 corresponds to a block to be encoded from a reference picture used for motion estimation among a plurality of reference pictures stored in the picture reconstruction unit 135 according to the motion data input from the motion estimator 131.
  • the prediction block is extracted and output.
  • the motion compensator 130 determines the filter characteristics of the adaptive interpolation filter required for the motion compensation with decimal precision.
  • the filter characteristics are, for example, information indicating the filter type of the adaptive interpolation filter, information indicating the size of the adaptive interpolation filter, and the like.
  • the size of the filter is, for example, the number of taps that is the number of filter coefficients of the adaptive interpolation filter.
  • the motion compensator 130 may determine one of a split type and a non split type adaptive filter as the adaptive interpolation filter. The determined number of taps of the adaptive interpolation filter, and the value of each filter coefficient are then determined. The value of the filter coefficient may be determined differently for each position of the decimal pixel relative to the integer pixel.
  • the motion compensation unit 160 may use a plurality of non-adaptive interpolation filters having a fixed filter coefficient.
  • the motion compensator 130 may set the characteristics of the interpolation filter in a predetermined processing unit. For example, it can be set in a decimal pixel unit, a coding basic unit (encoding unit), a slice unit, a picture unit, or a sequence unit. In addition, one characteristic may be set for one video data. Therefore, since the same filter characteristic is used in the predetermined processing unit, the motion compensator 130 includes a memory for temporarily holding the filter characteristic. This memory retains filter characteristics, filter coefficients, and the like as necessary. For example, the motion compensator 130 may determine filter characteristics for each I picture and determine filter coefficients in units of slices.
  • the motion compensator 130 receives the reference picture from the picture storage unit 170 and applies a filter process using the determined adaptive interpolation filter to generate a predictive reference image with a small precision.
  • the prediction block is generated by performing motion compensation with decimal pixel precision based on the generated reference image and the motion vector determined by the motion estimation unit 131.
  • the subtractor 180 receives a block in a reference picture corresponding to the input block from the motion compensation predictor 137 and performs a difference operation with the input macroblock when inter prediction coding the input block to be encoded. Output a signal.
  • the intra predictor 120 performs intra prediction encoding by using the reconstructed pixel value inside the picture on which the prediction is performed.
  • the intra prediction unit receives the current block to be predictively encoded and selects one of a plurality of preset intra prediction modes according to the size of the current block to perform intra prediction.
  • the intra predictor 120 determines an intra prediction mode of the current block by using previously encoded pixels adjacent to the current block, and generates a prediction block corresponding to the determined mode.
  • the previously encoded region of the region included in the current picture is decoded again for use by the intra prediction unit 120 and stored in the picture storage unit 170.
  • the intra predictor 120 generates a prediction block of the current block by using pixels adjacent to the current block or non-adjacent but applicable pixels in a previously encoded region of the current picture stored in the picture storage unit 170.
  • the intra predictor 120 may adaptively filter adjacent pixels to predict an intra block.
  • the encoder may transmit information indicating whether to filter.
  • filtering may be determined based on the intra prediction mode of the current block and the size information of the current block.
  • the prediction type used by the image encoding apparatus depends on whether the input block is encoded in the intra mode or the inter mode by the encoding mode determiner.
  • the switching between the intra mode and the inter mode is controlled by the intra / inter switch.
  • the entropy encoder 150 entropy encodes the quantization coefficient quantized by the transform / quantizer 140 and the motion information generated by the motion estimator 131.
  • intra prediction mode, control data eg, quantization step size, etc.
  • the filter coefficients determined by the motion compensator 130 are also encoded and output as a bit stream.
  • FIG. 2 is a block diagram showing the operation of the intra predictor 120 according to the present invention.
  • the encoding mode determiner 110 receives the prediction mode information and the size of the prediction block (S110).
  • the prediction mode information represents an intra mode.
  • the size of the prediction block may be square, such as 64x64, 32x32, 16x16, 8x8, 4x4, but is not limited thereto. That is, the size of the prediction block may be non-square rather than square.
  • the reference pixel is read from the picture storage unit 170 to determine the intra prediction mode of the prediction block.
  • operation S120 it is determined whether a reference pixel is generated by examining whether there is a reference pixel that is not available. The reference pixels are used to determine the intra prediction mode of the current block.
  • pixels adjacent to the upper side of the current block are not defined.
  • pixels adjacent to the left side of the current block are not defined. It is determined that these pixels are not available pixels.
  • the current block is located at the slice boundary and pixels adjacent to the upper or left side of the slice are not pixels that are first encoded and reconstructed, it is determined that the pixels are not usable pixels.
  • the intra prediction mode of the current block may be determined using only the available pixels.
  • reference pixels of positions not available may be generated using the available reference pixels of the current block (S130). For example, if the pixels of the upper block are not available, some or all of the left pixels may be used to generate the upper pixels, and vice versa. That is, the available reference pixels of the nearest position in the predetermined direction can be copied to the reference pixels from the reference pixels of the unavailable positions. If there are no reference pixels available in the predetermined direction, the available reference pixels in the closest positions in the opposite direction may be copied and generated as reference pixels.
  • the pixels of the current block may be determined as a reference pixel that is not available according to the encoding mode of the block to which the pixels belong. For example, when a block to which a reference pixel adjacent to an upper side of the current block belongs is a block that is inter-coded and reconstructed, the pixels may be determined as unavailable pixels. In this case, a block adjacent to the current block may be intra-encoded to generate usable reference pixels using pixels belonging to the reconstructed block. In this case, information indicating that the encoder determines available reference pixels according to the encoding mode should be transmitted to the decoder.
  • the intra prediction mode of the current block is determined using the reference pixels (S140).
  • the number of intra prediction modes allowable for the current block may vary depending on the size of the block. For example, if the size of the current block is 8x8, 16x16, 32x32, there may be 34 intra prediction modes. If the size of the current block is 4x4, there may be 17 intra prediction modes.
  • the 34 or 17 intra prediction modes may include at least one non-directional mode and a plurality of directional modes. One or more non-directional modes may be DC mode and / or planar mode. When the DC mode and the planner mode are included in the non-directional mode, there may be 35 intra prediction modes regardless of the size of the current block. At this time, it may include two non-directional modes (DC mode and planner mode) and 33 directional modes.
  • the planner mode generates a prediction block of the current block by using at least one pixel value (or a prediction value of the pixel value, hereinafter referred to as a first reference value) and reference pixels positioned at the bottom-right side of the current block. .
  • a planner mode will be described with reference to FIG. 3.
  • 3 is a diagram for describing planner mode prediction when a current block is an 8x8 block.
  • Pixels positioned between the first reference value D located at the bottom-right of the current block and the pixel value C adjacent to the bottom pixel of the current block adjacent to the left of the current block To generate prediction pixels corresponding to them.
  • prediction pixels corresponding to pixels positioned between the first reference value D and the pixel value B adjacent to the rightmost pixel of the current block among the pixels adjacent to the current block are selected.
  • Create Linear combination may be used to generate the prediction pixel.
  • the prediction pixels may be generated by a predetermined nonlinear combination.
  • the generated prediction pixels ie, pixels between pixels C and D and pixels between pixels B and D
  • pixels adjacent to the current block ie, pixels between A and B and A and C. Pixels in between
  • the prediction pixels may be generated by linearly combining two pixels adjacent to the upper side and the left side and two pixels generated at the lower side and the right side.
  • the combination does not necessarily need to be linear, but may also be a nonlinear combination considering the distribution of pixels.
  • the number of reference pixels used to generate the prediction pixel may vary depending on the position of the prediction pixel.
  • the upper reference pixels may be generated using the first reference value or one of the left reference pixels. That is, when only the left reference pixels are available, the upper reference pixels may be generated by copying the reference pixels positioned at the uppermost of the left reference pixels, and the reference pixels located closest to the first reference value and the upper pixel may be generated. Can be used to generate predictive pixels between B and D.
  • the left reference pixel may be generated by copying the reference pixel located at the leftmost of the upper reference pixels, and referring to the left reference pixel. Prediction pixels between C and D may be generated using the pixel and the first reference value.
  • the first reference value or information indicating the same may be added to the bitstream and transmitted to the decoder, or the decoder may derive the first reference value.
  • a predicted value of the first reference value using at least one or more of the encoded and reconstructed pixels adjacent to the current block and the difference value between the first reference value are transmitted.
  • the predicted value of the first reference value may be any one of (1) an average value of reference pixels adjacent to the current block, (2) an average value of A, B, and C, and (3) an average value of B and C.
  • the difference between A and C and the difference between A and B may be compared to determine either B or C indicating the direction in which the difference is small.
  • the encoder and the decoder should be able to derive the same reference value.
  • the encoder may use reference pixels A, B, and C to generate a first reference value. Assuming that the screen is flat, (1) the difference between B and A plus C or the difference between C and A plus B (B + CA), (2) the average of B and C Any one may be set as the first reference value. In this case, instead of B and C, adjacent reference pixels of B and adjacent reference pixels of C may be used.
  • the encoder and the decoder can restore the first reference value in the same manner, it is not necessary to transmit the first reference value or information indicating the same to the decoder, thereby reducing the number of transmission bits.
  • a prediction block is generated (S150).
  • the prediction block is generated using a reference pixel (including generated pixels) or a linear combination thereof based on the intra prediction mode of the current block.
  • the DC mode generates a prediction block of the current block by using an average value of reference pixels adjacent to the current block.
  • the reference pixels may include both available reference pixels and generated reference pixels.
  • the intra prediction mode of the current block is determined, the intra prediction mode is encoded (S160).
  • the intra prediction mode may be encoded by the intra predictor 120 or may be performed by a separate intra prediction mode encoder (not shown) or the entropy encoder 150.
  • one method for overcoming the above problem is to adaptively filter the reference pixels to generate new reference pixels. This may be done before determining the intra prediction mode.
  • the reference pixels may be adaptively filtered in advance according to the intra prediction mode and the size of the prediction block to generate new reference pixels, and the intra prediction mode of the current block may be determined using the original reference pixel and the generated new reference pixels. have.
  • the method may be performed after determining the intra prediction mode of the current block.
  • the problem of blocking artifacts is that the larger the block size, the larger the block size. Therefore, as the size of the block increases, the number of prediction modes for filtering the reference pixels may be equal to or larger than the size of the block.
  • two or more filters may be adaptively applied according to the degree of difference of the steps between the reference pixels.
  • the filter is preferably a low pass filter.
  • the first filter may be a 3-tap filter and the second filter may be a 5-tap filter.
  • the second filter may be a filter applying the first filter twice.
  • the filter coefficient of the filter is preferably symmetrical. Alternatively, only one filter may be used to reduce complexity.
  • the above-described filter is adaptively applied according to the size of the current block (block in which intra prediction is to be performed). That is, when the filter is applied, when the size of the current block is smaller than the first size, a narrow bandwidth filter or a filter may not be applied, and the filter is applied to the current block of the first size to the second size. It is desirable to increase the number of intra prediction modes.
  • the current block on which the intra prediction is to be performed may be the size of a transform block.
  • the reference pixel may be adaptively filtered based on the intra prediction mode of the current block and the size of the block on which the intra prediction is to be performed.
  • the reference pixel is not filtered.
  • the reference pixel may not be filtered even if the size is larger than the predetermined size to reduce the complexity.
  • a predetermined size e.g, 4x4
  • the reference pixel is filtered in one mode, the reference pixel is filtered in the directional modes between the mode and the diagonal intra prediction mode.
  • Another method for overcoming the above problem is to adaptively filter some pixels of the prediction block generated using the reference pixels to generate a new prediction block.
  • prediction pixels in contact with reference pixels among prediction pixels of the prediction block may be corrected using at least one reference pixel. This may be applied together in generating the prediction block.
  • the predicted pixel in contact with the reference pixels among the predicted pixels is filtered using the reference pixel in contact with the predicted pixel. Therefore, the prediction pixel is filtered using one or two reference pixels according to the position of the prediction pixel. Prediction pixel filtering in DC mode can be applied to prediction blocks of all sizes.
  • prediction pixels in contact with the left reference pixel among the prediction pixels of the prediction block may be changed using reference pixels other than the upper pixel used to generate the prediction block.
  • prediction pixels in contact with the upper reference pixels among the generated prediction pixels may be changed using reference pixels other than the left pixel used to generate the prediction block.
  • the residual block of the current block and the prediction block generated by the intra predictor 120 is encoded by the transform encoder / quantizer 140 and the entropy encoder 150.
  • the residual block is first transform coded.
  • the size of a transform block for transform encoding to be applied to the residual block is first determined and transform-coded in units of blocks of the determined size.
  • the size of the transform may be predetermined.
  • the size of the current block for performing intra prediction may be the size of the transform block.
  • Different transform coding schemes may be applied according to an intra prediction mode value. For example, integer-based discrete cosine transform (DCT) in horizontal and vertical directions may be applied to residual blocks intra-predicted in DC mode, and integer-based discrete transform (DST) may be applied in horizontal and vertical directions in planar mode. . This may be applied to blocks smaller than or equal to a predetermined size. However, only integer-based DCT may be applied to a transform block larger than a predetermined size regardless of the intra prediction mode. Horizontal and vertical DCT schemes and DST schemes may be adaptively applied according to prediction modes.
  • DCT discrete cosine transform
  • DST integer-based discrete transform
  • the transform-coded residual block is quantized. Different quantization matrices are applied according to the size of the residual block. Also, different quantization matrices may be applied to residual blocks of the same size. That is, the most effective quantization matrix of at least two or more quantization matrices may be applied based on the distribution of coefficients of the transform-coded residual block. In this case, information indicating the quantization matrix is transmitted to the decoder. In addition, different quantization matrices may be applied to the transform-coded residual block according to the intra prediction mode.
  • the two-dimensional quantized coefficients are selected from one of a plurality of predetermined scan patterns, changed into a one-dimensional quantized coefficient sequence, and then entropy encoded.
  • the scan pattern may be determined according to the intra prediction mode, or may be determined according to the intra prediction mode and the size of the transform block.
  • FIG. 4 is a block diagram illustrating a video decoding apparatus according to an embodiment of the present invention.
  • the video decoding apparatus includes an entropy decoding unit 210, an inverse quantization / inverse transform unit 220, an adder 270, a deblocking filter unit 250, and a picture storage unit 260. , An intra predictor 230, a motion compensation predictor 240, and an intra / inter switch 280.
  • the entropy decoding unit 210 decodes the encoded bitstream transmitted from the video encoding apparatus and separates the encoded bitstream into an intra prediction mode index, motion information, a quantization coefficient sequence, and the like.
  • the entropy decoder 210 supplies the decoded motion information to the motion compensation predictor 240.
  • the entropy decoding unit 210 supplies the intra prediction mode index to the intra prediction unit 230 and the inverse quantization / inverse transform unit 220.
  • the decoding 210 supplies the inverse quantization coefficient sequence to the inverse quantization / inverse transform unit 220.
  • the inverse quantization / inverse transform unit 220 converts the quantization coefficient sequence into inverse quantization coefficients of a two-dimensional array.
  • One of the plurality of scanning patterns is selected for the conversion.
  • One of a plurality of scanning patterns is selected based on the prediction mode of the current block (ie, one of intra prediction and inter prediction), the intra prediction mode, and the size of the transform block.
  • the intra prediction mode is received from an intra predictor or an entropy decoder.
  • the inverse quantization / inverse transform unit 220 restores the quantization coefficients by using a quantization matrix selected from a plurality of quantization matrices for the inverse quantization coefficients of the two-dimensional array.
  • the quantization matrix may be determined using the information received from the encoder. Different quantization matrices are applied according to the size of the current block (transform block) to be reconstructed, and a quantization matrix can be selected based on at least one of the prediction mode and the intra prediction mode of the current block for the same size block.
  • the residual block is reconstructed by inversely transforming the reconstructed quantization coefficients.
  • the adder 270 reconstructs the image block by adding the residual block reconstructed by the inverse quantization / inverse transform unit 220 and the prediction block generated by the intra predictor 230 or the motion compensation predictor 240.
  • the deblocking filter 250 performs deblocking filter processing on the reconstructed image generated by the adder 270. Accordingly, it is possible to reduce the deblocking artifacts caused by the image loss due to the quantization process.
  • the picture storage unit 260 is a frame memory that holds a local decoded image on which the deblocking filter process is performed by the deblocking filter 250.
  • the intra predictor 230 restores the intra prediction mode of the current block based on the intra prediction mode index received from the entropy decoder 210.
  • the prediction block is generated according to the reconstructed intra prediction mode.
  • the motion compensation predictor 240 generates a predicted block for the current block from the picture stored in the picture storage 240 based on the motion vector information.
  • the prediction block is generated by applying the selected interpolation filter.
  • the intra / inter switch 280 provides the adder 235 with the prediction block generated by either the intra predictor 250 or the motion compensation predictor 260 based on the encoding mode.
  • FIG. 4 is a flowchart for reconstructing an intra block according to an embodiment of the present invention.
  • the intra prediction mode of the current block is decoded from the received bitstream (S310).
  • the entropy decoder 210 reconstructs the first intra prediction mode index of the current block by referring to one of the plurality of intra prediction mode tables.
  • the plurality of intra prediction mode tables are tables shared by an encoder and a decoder, and any one table selected according to the distribution of intra prediction modes of a plurality of blocks adjacent to the current block may be applied. For example, if the intra prediction mode of the left block of the current block and the intra prediction mode of the upper block of the current block are the same, the first intra prediction mode index of the current block is restored by applying the first intra prediction mode table, The first intra prediction mode index of the current block may be restored by applying the second intra prediction mode table. As another example, when the intra prediction modes of the upper block and the left block of the current block are both directional intra prediction modes, the direction of the intra prediction mode of the upper block and the intra prediction mode of the left block may be determined.
  • the first intra prediction mode index is applied to restore the first intra prediction mode index of the current block. If the direction is out of the predetermined angle, the first intra prediction mode table is applied to the second intra prediction mode table. You can also restore the mode index.
  • the entropy decoder 210 transmits the first intra prediction mode index of the reconstructed current block to the intra predictor 230.
  • the intra prediction unit 230 that receives the index of the first intra prediction mode determines the maximum possible mode of the current block as the intra prediction mode of the current block when the index has the minimum value (ie, 0). However, when the index has a value other than 0, the index indicated by the maximum possible mode of the current block is compared with the first intra prediction mode index. As a result of the comparison, if the first intra prediction mode index is not smaller than the index indicated by the maximum possible mode of the current block, the intra prediction mode corresponding to the second intra prediction mode index obtained by adding 1 to the first intra prediction mode index is present. Determine the intra prediction mode of the block, otherwise determine the intra prediction mode of the current block to the intra prediction mode corresponding to the first intra prediction mode index.
  • the intra prediction mode allowable for the current block may consist of at least one non-directional mode and a plurality of directional modes.
  • One or more non-directional modes may be DC mode and / or planar mode.
  • either DC mode or planner mode may be adaptively included in the allowable intra prediction mode set.
  • information specifying the non-directional mode included in the allowable intra prediction mode set may be included in the picture header or the slice header.
  • the intra predictor 230 reads reference pixels from the picture storage unit 260 to generate an intra prediction block, and determines whether there is a reference pixel that is not available (S320). The determination may be performed according to the presence or absence of reference pixels used to generate the intra prediction block by applying the decoded intra prediction mode of the current block.
  • the intra predictor 230 when it is necessary to generate the reference pixel, the intra predictor 230 generates reference pixels at positions not available using the available reference pixels reconstructed in advance (S325). Definition of a reference pixel that is not available and a method of generating the reference pixel are the same as those of the intra predictor 120 of FIG. 2. However, only reference pixels used to generate an intra prediction block may be selectively reconstructed according to the decoded intra prediction mode of the current block.
  • the intra predictor 230 determines whether to apply a filter to the reference pixels in order to generate the prediction block (S330). That is, the intra prediction unit 230 determines whether filtering is applied to the reference pixels to generate the intra prediction block of the current block based on the decoded intra prediction mode and the size of the current prediction block.
  • the problem of blocking artifacts is that the larger the block size, the larger the block size, so that the number of prediction modes for filtering the reference pixels can be increased as the block size increases.
  • the block when the block is larger than a predetermined size, the block may be viewed as a flat area, and thus the reference pixel may not be filtered to reduce the complexity.
  • the reference pixels are filtered using a filter (S335).
  • At least two or more filters may be adaptively applied according to the degree of difference between the steps between the reference pixels.
  • the filter coefficient of the filter is preferably symmetrical.
  • the above two or more filters may be adaptively applied according to the size of the current block. That is, when the filter is applied, a narrow bandwidth filter may be applied to a small block, and a wide bandwidth filter may be applied to a large block.
  • the reference pixel may be adaptively filtered based on the intra prediction mode of the current block and the size of the prediction block.
  • a prediction block is generated using the reference pixel or the filtered reference pixels (S340).
  • the generation of the prediction block is omitted because it is the same as the operation in the encoder of FIG.
  • the planner mode is also omitted since it is the same as the operation in the encoder of FIG.
  • the determination of the filtering may use information included in a slice header or a coding unit header. It may also be determined according to the intra prediction mode of the current block.
  • the generated prediction block is filtered (S335). Specifically, a new pixel is generated by filtering pixels at a specific position of the prediction block generated by using available reference pixels adjacent to the current block. This may be applied together in generating the prediction block. For example, in the DC mode, the predicted pixel in contact with the reference pixels among the predicted pixels is filtered using the reference pixel in contact with the predicted pixel. Therefore, the prediction pixel is filtered using one or two reference pixels according to the position of the prediction pixel. Prediction pixel filtering in DC mode can be applied to prediction blocks of all sizes.
  • prediction pixels in contact with the left reference pixel among the prediction pixels of the prediction block may be changed using reference pixels other than the upper pixel used to generate the prediction block.
  • prediction pixels in contact with the upper reference pixels among the generated prediction pixels may be changed using reference pixels other than the left pixel used to generate the prediction block.
  • the current block is reconstructed using the prediction block of the current block reconstructed in this manner and the residual block of the decoded current block.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

높은 영상 품질을 유지하면서 낮은 데이터 레이트로 동영상 신호를 부호화하기 위한 동영상 부호화 방법이 개시된다. 잔차 블록에 소요되는 비트수를 최소화하기 위해 현재 블록에 인접한 유효하지 않은 참조 화소들을 상기 현재 블록에 인접한 복원된 유효한 적어도 하나 이상의 참조 화소들을 이용하여 생성한다. 또한, 상기 현재 블록의 상기 현재 블록에 인접한 유효한 참조 화소들과, 상기 생성된 참조화소들을 필터링한 후에 상기 필터링된 참조 화소들을 이용하여 현재 블록의 인트라 예측 모드를 결정한다. 따라서, 현재 블록과 가장 유사한 참조 블록을 생성함으로써, 현재 블록의 잔차 블록에 소요되는 데이터량을 최소화할 수 있는 효과가 있다.

Description

인트라 예측 모드에서의 영상 복호화 방법
본 발명은 인트라 예측 모드에서의 영상 복호화 방법에 관한 것으로, 더욱 상세하게는 현재 블록의 참조화소들을 적응적으로 생성하고 필터링하여 원본 영상에 가까운 예측 블록을 생성하는 영상 복호화 방법에 관한 것이다.
높은 영상 품질을 유지하면서 낮은 데이터 레이트로 동영상 신호를 효율적으로 전송하기 위해 다양한 디지털 동영상 압축 기술이 제안되어 왔다. 이러한 동영상 압축 기술로는 H.261, MPEG-2/H.262, H.263, MPEG-4, AVC/H.264등이 있다. 상기한 압축 기술은 이산 코사인 변환(DCT: Discrete CosineTransform) 기법, 움직임 보상(MC: Motion Compensation) 기법, 양자화(Quantization) 기법, 엔트로피 부호화(Entropy coding) 기법 등을 포함하고 있다.
높은 영상 품질을 유지하기 위해서는, 동영상 부호화시 많은 양의 데이터를 요구하게 된다. 그러나, 동영상 데이터를 전달하기 위해 허용되는 대역폭은 한정되어 있어, 부호화 데이터 전송시에 적용할 수 있는 데이터 레이트를 제한할 수 있다. 예를 들어, 위성방송 시스템의 데이터 채널이나 디지털 케이블 텔레비전 네트워크의 데이터 채널은 일반적으로 고정 비트 레이트(CBR: Constant Bit Rate)로 데이터를 보내고 있다.
따라서, 동영상 부호화는 되도록이면 처리 방식의 복잡도와 전송 데이터율을 줄이면서도 고화질을 얻도록 하기 위한 동영상 부호화 방식이 제안되고 있다.
예를 들어, H.264/AVC 표준은 인트라 부호화시 주변 화소값들을 이용하여 공간영역에서의 인트라 예측 부호화를 수행한다. 주변의 어떤 화소값을 이용할지 결정하는 것이 부호화 효율 향상에 중요한데, 이를 위해 최적의 인트라 예측 방향을 정하고 이 방향에 해당하는 주변 화소값들을 사용하여 부호화할 화소의 예측값을 계산한다.
그러나, 예측 블록의 크기가 커지고 다양해지면, 현재 블록에 인접한 참조 블록들의 수가 복수개가 존재할 가능성이 높아지게 된다. 이 경우에는 상기 참조 블록들의 양쪽 경계에 위치하는 참조 화소들 사이에는 단차가 발생할 수 있게 된다. 단차가 발생할 경우, 상기 참조 화소들을 이용하여 인트라 예측을 수행할 경우, 예측 블록 생성 후의 잔차 블록들은 고주파 성분을 많이 함유할 가능성이 높게 되어 부호화 효율을 떨어트리게 되는 문제점이 있다.
본 발명이 이루고자 하는 기술적 과제는 원본 영상에 가까운 인트라 예측 블록을 복원하는 방법을 제공하는데 있다. 이에 따라 인트라 예측 모드에서의 복원블록 생성시의 복원해야 할 잔차 신호의 부호화량을 최소화하여 영상의 화질을 높이면서 데이터량을 줄이는 방법을 제공하는데 있다.
상기 기술적 과제를 해결하기 위한 본 발명의 목적을 달성하기 위한 본 발명에 따른 인트라 예측 모드에서의 영상 복호화 방법은 현재 블록의 인트라 예측 모드를 복원하는 단계, 현재 블록의 이용 가능하지 않은 참조화소가 존재하면, 이용 가능한 참조화소를 이용하여 이용 가능하지 않은 참조화소를 생성하는 단계, 현재 블록의 상기 복원된 인트라 예측 모드 및 현재 블록의 크기에 기초하여 상기 참조화소를 적응적으로 필터링하는 단계, 및 현재 블록의 인트라 예측 모드 및 상기 참조화소 또는 필터링된 참조화소를 이용하여 현재 블록의 예측블록을 생성하는 단계를 포함하고, 상기 이용 가능하지 않은 참조화소의 위치로부터 미리 정해진 방향으로 가장 가까운 위치의 이용 가능한 참조화소의 화소값을 이용 가능하지 않은 참조화소의 화소값으로 설정한다.
또한, 상기 기술적 과제를 해결하기 위하여, 본 발명은 상기 이용 가능하지 않은 참조화소의 위치로부터 미리 정해진 방향으로 가장 가까운 위치의 이용 가능한 참조화소가 존재하지 않으면, 반대방향의 가장 가까운 위치의 이용 가능한 참조화소의 화소값을 이용 가능하지 않은 참조화소의 화소값으로 설정한다.
또한, 상기 기술적 과제를 해결하기 위하여, 본 발명은 현재 블록의 크기가 커질수록 참조화소를 필터링하는 인트라 예측 모드의 수를 같거나 크게 설정한다.
본 발명에 따르면, 이용 가능하지 않은 참조화소를 이용 가능한 참조화소로부터 생성하고, 참조 화소를 현재 블록의 크기 및 인트라 예측 모드에 따라서 적응적으로 필터링한 후에 예측 블록을 생성함으로써, 원본 영상과 유사한 예측 블록을 생성할 수 있는 효과가 있다. 또한, 예측 블록을 원본 영상과 유사하게 예측함으로써, 부호화 및 복호화시의 잔차신호를 최소화하여 영상의 압축성능을 높일 뿐 아리나, 부호화 및 복호화 효율을 극대화할 수 있는 효과가 있다.
도 1은 본 발명의 실시예에 따른 동영상 부호화 장치를 나타내는 블록도이다.
도 2는 본 발명의 실시예에 따른 인트라 예측부의 동작을 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 플래너 모드 예측을 설명하기 위한 도면이다.
도 4는 본 발명의 실시예에 따른 동영상 복호화 장치를 나타내는 블록도이다.
도 5는 본 발명의 실시예에 따른 인트라 블록을 복원하기 위한 순서도이다.
이하, 본 발명의 여러가지 실시예들을 예시적인 도면을 통해 상세히 설명한다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
도 1은 본 발명의 실시예에 따른 동영상 부호화 장치를 나타내는 블록도이다.
도 1를 참조하면, 동영상 부호화 장치는 부호화 모드 결정부(110), 인트라 예측부(120), 움직임 보상부(130), 움직임 추정부(131), 변환부호화/양자화부(140), 엔트로피 부호화부(150), 양자화/변환복호화부(141), 디블록킹 필터링부(160), 픽쳐 저장부(170), 감산부(180) 및 가산부(190)를 포함한다.
부호화 모드 결정부(110)는 입력되는 비디오 신호를 분석하여 픽쳐를 소정 크기의 부호화 블록으로 분할하고, 분할된 소정 크기의 부호화 블록에 대한 부호화 모드를 결정한다. 상기 부호화 모드는 인트라 예측 부호화 및 인터 예측 부호화를 포함한다.
픽쳐는 복수의 슬라이스로 구성되고, 슬라이스는 복수개의 최대 부호화 단위(Largest coding unit: LCU)로 구성된다. 상기 LCU는 복수개의 부호화 단위(CU)로 분할될 수 있고, 부호기는 분할여부를 나타내는 정보(flag)를 비트스트림에 추가할 수 있다. 복호기는 LCU의 위치를 어드레스(LcuAddr)를 이용하여 인식할 수 있다. 분할이 허용되지 않는 경우의 부호화 단위(CU)는 예측 단위(Prediction unit: PU)로 간주되고, 복호기는 PU의 위치를 PU 인덱스를 이용하여 인식할 수 있다.
예측 단위(PU)는 복수개의 파티션으로 나뉠 수 있다. 또한 예측 단위(PU)는 복수개의 변환 단위(Transform unit: TU)로 구성될 수 있다.
부호화 모드 결정부(110)는 결정된 부호화 모드에 따른 소정 크기의 블록 단위(예를 들면, PU 단위 또는 TU 단위)로 영상 데이터를 감산기(180)로 보낸다.
변환부호화/양자화부(140)는 감산기(180)에 의해 산출된 잔차 블록을 공간 영역으로부터 주파수 영역으로 변환한다. 예를 들면, 잔차 블록에 대해서 2차원의 이산 코사인 변환(DCT) 또는 이산 사인 변환(DST) 기반의 변환을 실행한다. 또한, 변환부호화/양자화부(140)는 변환 계수를 양자화하기 위한 양자화 스텝 사이즈를 결정하고, 결정된 양자화 스텝 사이즈를 이용하여 변환 계수를 양자화한다. 결정된 양자화 스텝 사이즈 및 부호화 모드에 따라 양자화 매트릭스가 결정될 수 있다.
양자화된 2차원의 변환 계수는 미리 정해진 스캐닝 방법 중 하나에 의해 1차원의 양자화 변환 계수로 변환된다. 상기 변환된 1차원의 양자화 변환 계수의 시퀀스는 엔트로피 부호화부(150)로 공급된다.
역양자화/변환복호화부(141)는 변환부호화/양자화부(140)에 의해 양자화된 양자화 계수를 역양자화한다. 또한, 역양자화에 의해 얻어지는 역양자화 계수를 역변환한다. 이에 따라, 주파수 영역으로 변환된 잔차 블록을 공간 영역의 잔차 블록으로 복원할 수 있다.
디블록킹 필터링부(160)는 역양자화/역변환부호화부(141)로부터 역양자화 및 역변환된 영상 데이터를 입력 받아 블록킹(blocking) 효과를 제거하기 위한 필터링을 수행한다.
픽쳐 저장부(170)는 필터링된 영상 데이터를 디블록킹 필터링부(160)로부터 입력 받아 픽쳐(picture) 단위로 영상을 복원하여 저장한다. 픽쳐는 프레임 단위의 영상이거나 필드 단위의 영상일 수 있다. 픽쳐 저장부(170)는 다수의 픽쳐를 저장할 수 있는 버퍼(도시되지 않음)를 구비한다. 버퍼에 저장된 다수의 픽쳐는 인트라 예측 및 움직임 추정을 위해 제공된다. 인트라 예측 또는 움직임 추정을 위해 제공되는 상기 픽쳐들은 참조 픽쳐로 불리운다.
움직임 추정부(131)는 상기 픽쳐 저장부(170)에 저장된 적어도 하나의 참조 픽쳐를 제공받아 움직임 추정을 수행하여 움직임 벡터, 참조 픽쳐를 나타내는 인덱스 및 블록 모드를 포함한 모션 데이터(Motion Data)를 출력한다.
예측 정밀도를 최적화하기 위해서, 소수 화소 정밀도, 예를 들면, 1/2 또는 1/4 화소 정밀도로 움직임 벡터를 결정한다. 움직임 벡터가 소수 화소 정밀도를 가질 수 있으므로, 움직임 보상부(130)는 소수 화소 위치의 화소값을 산출하기 위한 보간 필터를 참조 픽쳐에 적용함으로써, 정수 화소 위치의 화소값으로부터 소수 화소 위치의 화소값을 산출한다.
움직임 보상부(130)는 움직임 추정부(131)로부터 입력된 모션 데이터에 따라, 픽쳐 복원부(135)에 저장된 다수의 참조 픽쳐들 중 움직임 추정에 이용된 참조 픽쳐로부터, 부호화하고자 하는 블록에 대응하는 예측 블록을 추출하여 출력한다.
움직임 보상부(130)는 소수 정밀도의 움직임 보상에 필요한 적응적 보간 필터의 필터 특성을 결정한다. 필터 특성은, 예를 들면, 적응적 보간 필터의 필터 타입을 나타내는 정보, 및, 적응적 보간 필터의 사이즈를 나타내는 정보 등이다. 필터의 사이즈는, 예를 들면, 적응적 보간 필터의 필터 계수의 수인 탭 수 등이다.
구체적으로, 움직임 보상부(130)는 적응적 보간 필터로서, 분리형 및 비분리형 적응적 필터 중 어느 하나를 결정할 수 있다. 그리고 나서, 결정된 적응적 보간 필터의 탭 수, 및, 각 필터 계수의 값을 결정한다. 필터 계수의 값은, 정수 화소와의 상대적인 소수 화소의 위치마다 다르게 결정될 수 있다. 또한, 움직임 보상부(160)는, 필터 계수가 고정인 복수개의 비적응적 보간 필터를 이용할 수도 있다.
움직임 보상부(130)는, 보간 필터의 특성을 소정의 처리 단위로 설정할 수 있다. 예를 들면, 소수 화소 단위, 부호화 기본 단위(부호화 유닛), 슬라이스 단위, 픽쳐 단위, 또는, 시퀀스 단위로 설정할 수 있다. 또한, 1개의 영상 데이터에 대해서, 1개의 특성을 설정해도 된다. 따라서, 소정의 처리 단위 내에서는, 동일한 필터 특성을 이용하므로, 움직임 보상부(130)는 필터 특성을 일시적으로 유지하는 메모리를 구비한다. 이 메모리는 필요에 따라, 필터 특성 및 필터 계수 등을 유지한다. 예를 들면, 움직임 보상부(130)는, I픽쳐마다 필터 특성을 결정하고, 슬라이스 단위로 필터 계수를 결정할 수 있다.
움직임 보상부(130)는, 픽쳐 저장부(170)로부터 참조 픽쳐를 수신하고, 결정된 적응적 보간 필터를 이용하여 필터 처리를 적용함으로써, 소수 정밀도의 예측 참조 화상을 생성한다.
그리고, 생성된 참조 화상과, 움직임 추정부(131)에 의해 결정된 움직임 벡터에 의거하여 소수 화소 정밀도의 움직임 보상을 행함으로써, 예측 블록을 생성한다.
감산부(180)는 부호화하고자 하는 입력 블록을 픽쳐 간 예측 부호화하는 경우, 움직임 보상 예측부(137)로부터 입력 블록에 대응하는 참조 픽쳐 내의 블록을 입력받아 입력 매크로 블록과의 차분 연산을 수행하여 잔차 신호(residue signal)를 출력한다.
인트라 예측부(120)는 예측이 수행되는 픽처 내부의 재구성된 화소값을 이용하여 인트라 예측 부호화를 수행한다. 인트라 예측부는 예측 부호화할 현재 블록을 입력 받아 현재 블록의 크기에 따라 미리 설정된 복수개의 인트라 예측 모드 중에 하나를 선택하여 인트라 예측을 수행한다. 인트라 예측부(120)는 현재 블록에 인접한 이전에 부호화된 화소들을 이용해 현재 블록의 인트라 예측 모드를 결정하고, 상기 결정된 모드에 대응하는 예측 블록을 생성한다.
현재 픽처에 포함된 영역 중에서 이전에 부호화된 영역은 인트라 예측부(120)가 이용할 수 있도록 다시 복호화되어 픽쳐 저장부(170) 에 저장되어 있다. 인트라 예측부(120)는 픽쳐 저장부(170)에 저장되어 있는 현재 픽처의 이전에 부호화된 영역에서 현재 블록에 인접한 화소 또는 인접하지 않지만 적용 가능한 화소들을 이용하여 현재 블록의 예측 블록을 생성한다.
인트라 예측부(120)는 인트라 블록을 예측하기 위하여 인접 화소를 적응적으로 필터링할 수 있다. 복호기에서의 동일한 동작을 위해 부호기에서 필터링 여부를 알려주는 정보를 전송할 수 있다. 또는 현재 블록의 인트라 예측 모드 및 현재 블록의 크기 정보에 기초하여 필터링 여부를 결정할 수 있다.
영상 부호화 장치에 의해 사용되는 예측 타입은 상기 부호화 모드 결정부에 의해 입력 블록이 인트라 모드 또는 인터 모드로 부호화되는지 여부에 의존한다.
인트라 모드와 인터 모드의 전환은, 인트라/인터 전환 스위치에 의해 제어된다.
엔트로피 부호화부(150)는 변환/양자화부(140)에 의해 양자화된 양자화 계수와 움직임 추정부(131)에 의해 생성된 움직임 정보를 엔트로피 부호화한다. 또한, 인트라 예측 모드, 제어 데이터(예를 들면, 양자화 스텝 사이즈 등) 등도 부호화될 수 있다. 또한, 움직임 보상부(130)에 의해 결정된 필터 계수도 부호화되어 비트 스트림으로서 출력한다.
도 2는 본 발명에 따른 인트라 예측부(120)의 동작을 나타내는 블록도이다.
먼저, 부호화 모드 결정부(110)에 의해 예측 모드 정보 및 예측 블록의 크기를 수신한다(S110). 예측 모드 정보는 인트라 모드를 나타낸다. 예측 블록의 크기는 64x64, 32x32, 16x16, 8x8, 4x4등의 정방형일 수 있으나, 이에 한정하지 않는다. 즉, 상기 예측 블록의 크기가 정방형이 아닌 비정방형일 수도 있다.
다음으로, 예측 블록의 인트라 예측 모드를 결정하기 위해 참조 화소를 픽쳐 저장부(170)로부터 읽어 들인다. 상기 이용 가능하지 않은 참조화소가 존재하는지 여부를 검토하여 참조 화소 생성 여부를 판단한다(S120). 상기 참조 화소들은 현재 블록의 인트라 예측 모드를 결정하는데 사용된다.
현재 블록이 현재 픽쳐의 상측 경계에 위치하는 경우에는 현재 블록의 상측에 인접한 화소들이 정의되지 않는다. 또한, 현재 블록이 현재 픽쳐의 좌측 경계에 위치하는 경우에는 현재 블록의 좌측에 인접한 화소들이 정의되지 않는다. 이러한 화소들은 이용 가능한 화소들이 아닌 것으로 판단한다. 또한, 현재 블록이 슬라이스 경계에 위치하여 슬라이스의 상측 또는 좌측에 인접하는 화소들이 먼저 부호화되어 복원되는 화소들이 아닌 경우에도 이용 가능한 화소들이 아닌 것으로 판단한다.
상기와 같이 현재 블록의 좌측 또는 상측에 인접한 화소들이 존재하지 않거나, 미리 부호화되어 복원된 화소들이 존재하지 않는 경우에는 이용 가능한 화소들만을 이용하여 현재 블록의 인트라 예측 모드를 결정할 수도 있다.
그러나, 현재 블록의 이용 가능한 참조화소들을 이용하여 이용 가능하지 않은 위치의 참조화소들을 생성할 수도 있다(S130). 예를 들어, 상측 블록의 화소들이 이용 가능하지 않은 경우에는 좌측 화소들의 일부 또는 전부를 이용하여 상측 화소들을 생성할 수 있고, 그 역으로도 가능하다. 즉, 이용 가능하지 않은 위치의 참조화소로부터 미리 정해진 방향으로 가장 가까운 위치의 이용 가능한 참조화소를 복사하여 참조화소로 생성할 수 있다. 미리 정해진 방향에 이용 가능한 참조화소가 존재하지 않는 경우에는 반대 방향의 가장 가까운 위치의 이용 가능한 참조화소를 복사하여 참조화소로 생성할 수 있다.
한편, 현재 블록의 상측 또는 좌측 화소들이 존재하는 경우에도 상기 화소들이 속하는 블록의 부호화 모드에 따라 이용 가능하지 않은 참조 화소로 결정될 수 있다. 예를 들어, 현재 블록의 상측에 인접한 참조 화소가 속하는 블록이 인터 부호화되어 복원된 블록일 경우에는 상기 화소들을 이용 가능하지 않은 화소들로 판단할 수 있다. 이 경우에는 현재 블록에 인접한 블록이 인트라 부호화되어 복원된 블록에 속하는 화소들을 이용하여 이용 가능한 참조 화소들을 생성할 수 있다. 이 경우에는 부호기에서 부호화 모드에 따라 이용 가능한 참조 화소를 판단한다는 정보를 복호기로 전송해야 한다.
다음으로, 상기 참조 화소들을 이용하여 현재 블록의 인트라 예측 모드를 결정한다(S140). 현재 블록에 허용 가능한 인트라 예측 모드의 수는 블록의 크기에 따라 달라질 수 있다. 예를 들어, 현재 블록의 크기가 8x8, 16x16, 32x32인 경우에는 34개의 인트라 예측 모드가 존재할 수 있고, 현재 블록의 크기가 4x4인 경우에는 17개의 인트라 예측 모드가 존재할 수 있다. 상기 34개 또는 17개의 인트라 예측 모드는 적어도 하나 이상의 비방향성 모드(non-directional mode)와 복수개의 방향성 모드들(directional modes)로 구성될 수 있다. 하나 이상의 비방향성 모드는 DC 모드 및/또는 플래너(planar) 모드일수 있다. DC 모드 및 플래너모드가 비방향성 모드로 포함되는 경우에는, 현재 블록의 크기에 관계없이 35개의 인트라 예측 모드가 존재할 수도 있다. 이때에는 2개의 비방향성 모드(DC 모드 및 플래너 모드)와 33개의 방향성 모드를 포함할 수 있다.
플래너 모드는 현재 블록의 우하측(bottom-right)에 위치하는 적어도 하나의 화소값(또는 상기 화소값의 예측값, 이하 제1 참조값이라 함)과 참조화소들을 이용하여 현재 블록의 예측 블록을 생성한다.
도 3을 참조하여 플래너 모드를 설명한다. 도 3은 현재 블록이 8x8 블록일 경우의 플래너 모드 예측을 설명하기 위한 도면이다.
현재 블록의 우하측(bottom-right)에 위치하는 제 1 참조값(D)과 현재 블록의 좌측에 인접하는 현재 블록의 가장 아래쪽 화소에 인접하는 화소값(C)을 이용하여 그 사이에 위치하는 화소들에 대응하는 예측 화소들을 생성한다. 마찬가지로 상기 제1참조값(D)과 현재 블록의 상측에 인접하는 화소들 중 현재 블록의 가장 우측의 화소와 인접하는 화소값(B)을 이용하여 그 사이에 위치하는 화소들에 대응하는 예측 화소들을 생성한다. 상기 예측 화소를 생성하기 위해서 선형결합을 사용할 수 있다. 그러나, 화소들의 배치가 선형이 아닌 경우에는 미리 정해진 비선형 결합으로 상기 예측 화소들을 생성할 수 있다.
다음으로, 생성된 예측 화소들(즉, 화소 C와 D 사이의 화소들 및 화소 B와 D 사이의 화소들)과 현재 블록에 인접한 화소들(즉, A와 B 사이의 화소들 및 A와 C 사이의 화소들)을 이용하여 나머지 예측 화소들을 생성한다. 상기 예측 화소들은 상측 및 좌측에 인접한 2개의 화소 및 하측 및 우측에 생성된 2개의 화소들을 선형결합하여 생성할 수 있다. 또한, 상기 결합은 반드시 선형일 필요는 없으며, 화소들의 분포를 고려한 비선형 결합일 수도 있다. 이와 같이, 플래너 모드에서는 예측 화소를 생성하기 위해 사용되는 참조화소들의 수가 예측 화소의 위치에 따라 달라질 수 있다.
한편, 현재 블록의 좌측 참조화소들은 이용 가능하나, 상측 참조화소들이 이용 가능하지 않는 경우가 발생할 수 있다. 이때에는, 상기 제1 참조값 또는 상기 좌측 참조화소들 중 하나를 이용하여 상기 상측 참조화소들을 생성할 수 있다. 즉, 좌측 참조화소들만 이용 가능할 경우에는 좌측 참조화소들 중 최상측에 위치한 참조화소를 복사하여 상측 참조화소들을 생성할 수 있고, 상기 제1 참조값과 상기 상측 화소에 가장 근접한 위치에 있는 참조화소를 이용하여 B와 D 사이의 예측화소들을 생성할 수 있다.
마찬가지로, 현재 블록의 상측 참조화소들은 이용 가능하나, 좌측 참조화소들이 이용 가능하지 않은 경우에는 상기 상측 참조화소들 중 최좌측에 위치한 참조화소를 복사하여 좌측 참조화소를 생성할 수 있고, 상기 좌측 참조화소와 제1 참조값을 이용하여 C와 D 사이의 예측화소들을 생성할 수 있다.
한편, 상기 제1 참조값 또는 이를 나타내는 정보는 비트스트림에 추가되어 복호기로 전송되거나, 복호기가 상기 제1 참조값을 유도할 수도 있다.
상기 제1 참조값 또는 이를 나타내는 정보를 복호기로 전송하는 방법을 사용할 경우에는 현재 블록에 인접한 부호화되어 복원된 화소들 중 적어도 하나 이상을 이용한 제1 참조값의 예측값과 상기 제1 참조값과의 차이값을 전송하는 것이 비트수를 줄일 수 있다. 이를 위해 상기 제1 참조값의 예측값은 (1) 현재 블록에 인접한 참조 화소들의 평균값, (2) A, B, C의 평균값, (3) B와 C의 평균값 중 어느 하나일 수 있다. 또 다른 방법으로는, A와 C의 차이값과 A와 B의 차이값을 비교하여 차이값이 작은 방향을 나타내는 어느 하나(B또는 C)로 결정할 수도 있다.
상기 제1 참조값을 부호기와 복호기가 유도할 경우에는 부호기와 복호기가 동일한 참조값을 유도할 수 있어야 한다. 이를 위해 부호기에서는 제1 참조값을 생성하기 위해 참조 화소 A, B, C를 이용할 수 있다. 화면이 평탄하게 변한다는 가정 하에서는 (1) B와 A의 차이값을 C에 더한 값 또는 C와 A의 차이값을 B에 더한 값, 즉 (B+C-A), (2) B와 C의 평균값 중 어느 하나를 제1 참조값으로 설정할 수 있다. 이 경우, B, C 대신에 B의 인접 참조화소 및 C의 인접 참조화소를 이용할 수도 있다. 이와 같이, 부호기와 복호기가 동일하게 제1 참조값을 복원할 수 있으므로, 제1 참조값 또는 이를 나타내는 정보를 복호기로 전송할 필요가 없어 전송 비트 수를 줄일 수 있다.
다음으로, 현재 블록의 인트라 예측 모드가 결정되면, 예측 블록을 생성한다(S150). 상기 예측 블록은 현재 블록의 인트라 예측 모드에 기초하여 참조 화소(생성된 화소 포함) 또는 이들의 선형결합을 이용하여 생성한다. DC 모드는 현재 블록에 인접한 참조 화소들의 평균값을 이용하여 현재 블록의 예측 블록을 생성한다. 상기 참조화소들은 이용 가능한 참조화소 및 생성된 참조화소를 모두 포함할 수 있다.
다음으로, 현재 블록의 인트라 예측 모드가 결정되면 상기 인트라 예측 모드를 부호화한다(S160). 상기 인트라 예측 모드의 부호화는 인트라 예측부(120)에서 행해질 수도 있고, 별도의 인트라 예측 모드 부호화 장치(미도시) 또는 엔트로피 부호화부(150)에서 행해질 수도 있다.
한편, 현재 블록에 인접한 참조 블록들의 수가 다양한 경우에는 상기 참조 블록들의 경계에 위치하는 참조 화소들 간에 단차가 발생할 수 있다. 이 경우, 예측 블록 생성 후의 잔차 블록들은 고주파 성분을 많이 함유할 가능성이 높게 된다. 따라서, 참조 블록들 사이의 블록킹 아티펙트(blocking artifact)가 현재의 블록에도 영향을 미치는 문제가 발생한다. 이러한 문제점은 현재 블록의 크기가 클수록 빈도수가 높아지게 된다. 반대로, 참조 블록의 사이즈가 현재 블록의 사이즈보다 클 경우에는 이러한 문제가 발생하지 않을 수 있다.
따라서, 상기의 문제점을 극복하기 위한 하나의 방법은 상기 참조 화소들을 적응적으로 필터링하여 새로운 참조 화소들을 생성하는 것이다. 이는 인트라 예측 모드를 결정하기 전에 수행할 수도 있다. 인트라 예측 모드 및 예측 블록의 크기에 따라 미리 상기 참조 화소들을 적응적으로 필터링하여 새로운 참조 화소들을 생성하고, 원래의 참조화소 및 상기 생성된 새로운 참조 화소들을 이용하여 현재 블록의 인트라 예측 모드를 결정할 수도 있다. 그러나, 현재 블록의 인트라 예측 모드를 결정한 후에 상기 방법을 수행할 수도 있다. 블록킹 아티펙트의 문제는 블록의 크기가 커질수록 커지므로, 특정 크기의 블록의 범위에서는 블록의 크기가 커질수록 참조화소를 필터링하는 예측모드의 수를 같거나 크게 할 수 있다.
상기 이용 가능한 참조 화소의 필터링이 필요한 경우에는, 상기한 참조 화소들 간의 단차의 차이 정도에 따라 2개 이상의 필터를 적응적으로 적용할 수도 있다. 상기 필터는 저역 통과 필터인 것이 바람직하다. 예를 들어, 2개의 필터를 이용할 경우, 제1 필터는 3-tap 필터, 제2 필터는 5-tap 필터일 수 있다. 제2 필터는 제1 필터를 2번 적용하는 필터일수도 있다. 상기 필터의 필터계수는 대칭적인 것이 바람직하다. 또는 복잡도 감소를 위해 1개의 필터만을 사용할 수도 있다.
또한, 상기한 필터가 현재 블록(인트라 예측이 수행될 블록)의 크기에 따라 적응적으로 적용되는 것이 바람직하다. 즉, 필터를 적용할 경우, 현재 블록의 크기가 제1 크기보다 작을 경우에는 대역폭이 좁은 필터를 적용하거나 필터를 적용하지 않을 수 있으며, 제1 크기~제2 크기의 현재 블록에 대해서는 필터를 적용하는 인트라 예측 모드의 수를 증가시키는 것이 바람직하다. 상기 인트라 예측이 수행될 현재 블록은 변환블록의 크기일 수 있다.
DC 모드의 경우에는 참조 화소들의 평균값으로 예측 블록이 생성되므로, 필터를 적용할 필요가 없다. 즉, 필터를 적용할 경우 불필요한 연산량만이 많아지게 된다. 또한, 영상이 수직 방향으로 연관성(correlation)이 있는 수직 모드에서는 참조화소에 필터를 적용할 필요가 없다. 영상이 수평 방향으로 연관성이 있는 수평 모드에서도 참조화소에 필터를 적용할 필요가 없다. 이와 같이, 필터링의 적용 여부는 현재 블록의 인트라 예측 모드와도 연관성이 있으므로, 현재 블록의 인트라 예측 모드 및 인트라 예측이 수행될 블록의 크기에 기초하여 참조화소를 적응적으로 필터링할 수 있다. 인트라 예측이 수행될 블록의 크기가 미리 정해진 크기(예를 들어, 4x4)보다 작은 경우에는 참조화소를 필터링하지 않는다. 또는 복잡도 감소를 위해 미리 정해진 크기보다 큰 경우에도 참조화소를 필터링하지 않을 수도 있다. 상기 블록의 크기가 미리 정해진 크기 범위 내에 속하는 경우에는, 대각선 방향의 인트라 예측 모드(수평 또는 수직 모드와 45도 각도의 방향성을 갖는 모드)와 수평 방향의 인트라 예측 모드 사이의 인트라 예측 모드들 중 어느 하나의 모드에서 참조화소가 필터링되면, 상기 모드와 대각선 방향의 인트라 예측 모드 사이의 방향성 모드들에서는 참조화소를 필터링한다.
상기의 문제점을 극복하기 위한 또 다른 방법은 상기 참조 화소들을 이용하여 생성된 예측 블록의 일부 화소들을 적응적으로 필터링하여 새로운 예측 블록을 생성하는 것이다. 현재 블록의 인트라 예측 모드에 따라 예측 블록의 예측 화소들 중 참조화소들과 접하는 예측 화소들을 적어도 하나 이상의 참조 화소들을 이용하여 보정할 수 있다. 이는 예측 블록 생성시에 함께 적용될 수도 있다.
예를 들어, DC 모드에서는 예측 화소들 중 참조화소들과 접하는 예측 화소는 상기 예측 화소와 접하는 참조화소를 이용하여 필터링한다. 따라서, 예측 화소의 위치에 따라 1개 또는 2개의 참조화소를 이용하여 예측 화소를 필터링한다. DC 모드에서의 예측화소의 필터링은 모든 크기의 예측 블록에 적용할 수 있다.
수직 모드에서는 예측 블록의 예측 화소들 중 좌측 참조화소와 접하는 예측화소들은 상기 예측블록을 생성하는데 이용되는 상측화소 이외의 참조화소들을 이용하여 변경될 수 있다. 마찬가지로, 수평 모드에서는 생성된 예측 화소들 중 상측 참조화소와 접하는 예측화소들은 상기 예측블록을 생성하는데 이용되는 좌측화소 이외의 참조화소들을 이용하여 변경될 수 있다.
한편, 현재 블록과 상기 인트라 예측부(120)에 의해 생성된 예측 블록의 잔차 블록은 변환부호화/양자화부(140) 및 엔트로피 부호화부(150)를 통해 부호화된다.
상기 잔차 블록은 먼저 변환 부호화된다. 효과적인 에너지 압축을 위해, 상기 잔차 블록에 적용할 변환 부호화를 위한 변환 블록의 크기를 먼저 결정하고, 결정된 크기의 블록 단위로 변환 부호화한다. 또는 변환 변환의 크기는 미리 결정되어 있을 수도 있다. 이 경우, 인트라 예측을 수행하는 현재 블록의 크기가 변환블록의 크기일 수도 있다. 인트라 예측 모드 값에 따라 서로 다른 변환 부호화 방식이 적용될 수 있다. 예를 들어, DC mode로 인트라 예측된 잔차 블록에 대해서는 수평 및 수직방향으로 정수기반 DCT(Discrete cosinetransform)를, planar mode에 대해서는 수평 및 수직 방향으로 정수기반 DST(Discrete sine transform)을 적용할 수도 있다. 이는 소정크기보다 작거나 같은 블록에 대해서 적용할 수 있다. 그러나, 소정 크기보다 큰 변환블록에 대해서는 인트라 예측 모드에 관계없이 정수기반 DCT만을 적용할 수도 있다. 수평 및 수직 방향 DCT 방식과 DST 방식이 예측 모드에 따라 적응적으로 적용될 수도 있다.
다음으로, 변환 부호화된 잔차 블록이 양자화한다. 잔차 블록의 크기에 따라 서로 다른 양자화 매트릭스가 적용된다. 또한, 동일한 크기의 잔차 블록의 경우에도 서로 다른 양자화 매트릭스가 적용될 수 있다. 즉, 변환 부호화된 잔차 블록의 계수들의 분포에 기초하여 적어도 2개 이상의 양자화 매트릭스 중 가장 효과적인 양자화 매트릭스를 적용할 수 있다. 이 경우에는 상기 양자화 매트릭스를 나타내는 정보를 복호기로 전송한다. 또한, 인트라 예측 모드에 따라 서로 다른 양자화 매트릭스를 변환 부호화된 잔차 블록에 적용할 수도 있다.
다음으로, 상기 2차원의 양자화된 계수들을 미리 정해진 복수개의 스캔 패턴 중 하나를 선택하여 1차원의 양자화 계수 시퀀스로 변경한 후에 엔트로피 부호화한다. 상기 스캔 패턴은 인트라 예측 모드에 따라 결정될 수도 있고, 인트라 예측 모드와 변환블록의 크기에 따라 결정될 수도 있다.
도 4는 본 발명의 실시예에 따른 동영상 복호화 장치를 나타내는 블록도이다.
도 4를 참조하면, 본 발명에 따른 동영상 복호화 장치는, 엔트로피 복호부(210), 역양자화/역변환부(220), 가산기(270), 디블록킹 필터부(250), 픽쳐 저장부(260), 인트라 예측부(230), 움직임 보상 예측부(240) 및 인트라/인터전환 스위치(280)를 구비한다.
엔트로피 복호부(210)는, 동영상 부호화 장치로부터 전송되는 부호화 비트스트림을 복호하여, 인트라 예측 모드 인덱스, 움직임 정보, 양자화 계수 시퀀스 등으로 분리한다. 엔트로피 복호부(210)는 복호된 움직임 정보를 움직임 보상 예측부(240)에 공급한다. 엔트로피 복호부(210)는 상기 인트라 예측 모드 인덱스를 상기 인트라 예측부(230), 역양자화/역변환부(220)로 공급한다. 또한, 상기 엔트로피
복호화(210)는 상기 역양자화 계수 시퀀스를 역양자화/역변환부(220)로 공급한다.
역양자화/역변환부(220)는 상기 양자화 계수 시퀀스를 2차원 배열의 역양자화 계수로 변환한다. 상기 변환을 위해 복수개의 스캐닝 패턴 중에 하나를 선택한다. 현재 블록의 예측모드(즉, 인트라 예측 및 인터 예측 중의 어느 하나)와 인트라 예측 모드 및 변환 블록의 크기에 기초하여 복수개의 스캐닝 패턴 중 하나를 선택한다. 상기 인트라 예측 모드는 인트라 예측부 또는 엔트로피 복호화부로부터 수신한다.
역양자화/역변환부(220)는 상기 2차원 배열의 역양자화 계수에 복수개의 양자화 매트릭스 중 선택된 양자화 매트릭스를 이용하여 양자화 계수를 복원한다. 상기 양자화 매트릭스는 부호기로부터 수신된 정보를 이용하여 결정될 수도 있다. 복원하고자 하는 현재 블록(변환 블록)의 크기에 따라 서로 다른 양자화 매트릭스가 적용되며, 동일 크기의 블록에 대해서도 상기 현재 블록의 예측 모드 및 인트라 예측 모드 중 적어도 하나에 기초하여 양자화 매트릭스를 선택할 수 있다. 그리고, 상기 복원된 양자화 계수를 역변환하여 잔차 블록을 복원한다.
가산기(270)는 역양자화/역변환부(220)에 의해 복원된 잔차 블록과 인트라 예측부(230) 또는 움직임 보상 예측부(240)에 의해 생성되는 예측 블록을 가산함으로써, 영상 블록을 복원한다.
디블록킹 필터(250)는 가산기(270)에 의해 생성된 복원 영상에 디블록킹 필터 처리를 실행한다. 이에 따라, 양자화 과정에 따른 영상 손실에 기인하는 디블록킹 아티펙트를 줄일 수 있다.
픽쳐 저장부(260)는 디블록킹 필터(250)에 의해 디블록킹 필터 처리가 실행된 로컬 복호 영상을 유지하는 프레임 메모리이다.
인트라 예측부(230)는 엔트로피 복호화부(210)로부터 수신된 인트라 예측 모드 인덱스에 기초하여 현재 블록의 인트라 예측 모드를 복원한다. 그리고, 복원된 인트라 예측 모드에 따라 예측 블록을 생성한다.
움직임 보상 예측부(240)는 움직임 벡터 정보에 기초하여 픽쳐 저장부(240)에 저장된 픽쳐로부터 현재 블록에 대한 예측 블록을 생성한다. 소수 정밀도의 움직임 보상이 적용될 경우에는 선택된 보간 필터를 적용하여 예측 블록을 생성한다.
인트라/인터 전환 스위치(280)는 부호화 모드에 기초하여 인트라 예측부(250)와 움직임 보상 예측부(260)의 어느 하나에서 생성된 예측 블록을 가산기(235)에 제공한다.
이하, 상기 도 4를 참조하여, 현재 블록을 인트라 예측을 통해 복원하는 과정을 설명한다. 도 5는 본 발명의 실시예에 따른 인트라 블록을 복원하기 위한 순서도이다.
먼저, 수신된 비트스트림으로부터 현재 블록의 인트라 예측 모드를 복호한다(S310).
이를 위해, 엔트로피 복호부(210)는 복수개의 인트라 예측 모드 테이블 중 하나를 참조하여 현재 블록의 제1 인트라 예측 모드 인덱스를 복원한다.
상기 복수개의 인트라 예측 모드 테이블은 부호기와 복호기가 공유하는 테이블로서, 현재 블록에 인접한 복수개의 블록들의 인트라 예측 모드의 분포에 따라 선택된 어느 하나의 테이블이 적용될 수 있다. 일예로써, 현재 블록의 좌측 블록의 인트라 예측 모드와 현재 블록의 상측 블록의 인트라 예측 모드가 동일하면 제1 인트라 예측 모드 테이블을 적용하여 현재 블록의 제 1 인트라 예측 모드 인덱스를 복원하고, 동일하지 않으면 제2 인트라 예측 모드 테이블을 적용하여 현재 블록의 제 1 인트라 예측 모드 인덱스를 복원할 수 있다. 또 다른 예로써, 현재 블록의 상측 블록과 좌측 블록의 인트라 예측 모드가 모두 방향성 예측 모드(directional intra prediction mode)일 경우에는, 상기 상측 블록의 인트라 예측 모드의 방향과 상기 좌측 블록의 인트라 예측 모드의 방향이 소정 각도 이내이면, 제 1 인트라 예측 모드 테이블을 적용하여 현재 블록의 제 1 인트라 예측 모드 인덱스를 복원하고, 소정 각도를 벗어나면 제2 인트라 예측 모드 테이블을 적용하여 현재 블록의 제 1 인트라 예측 모드 인덱스를 복원할 수도 있다.
엔트로피 복호부(210)는 복원된 현재 블록의 제1 인트라 예측 모드 인덱스를 인트라 예측부(230)로 전송한다. 상기 제1 인트라 예측 모드를 인덱스를 수신한 인트라 예측부(230)는 상기 상기 인덱스가 최소값을 가질 경우(즉, 0)에는 현재 블록의 최대가능모드를 현재 블록의 인트라 예측 모드로 결정한다. 그러나, 상기 인덱스가 0 이외의 값을 가질 경우에는 현재 블록의 최대가능모드가 나타내는 인덱스와 상기 제1 인트라 예측 모드 인덱스를 비교한다. 비교 결과, 상기 제1 인트라 예측 모드 인덱스가 상기 현재 블록의 최대가능모드가 나타내는 인덱스보다 작지 않으면, 상기 제 1 인트라 예측 모드 인덱스에 1을 더한 제2 인트라 예측 모드 인덱스에 대응하는 인트라 예측 모드를 현재 블록의 인트라 예측 모드로 결정하고, 그렇지 않으면 상기 제 1 인트라 예측 모드 인덱스에 대응하는 인트라 예측 모드를 현재 블록의 인트라 예측 모드를 결정한다.
현재 블록에 허용 가능한 인트라 예측 모드는 적어도 하나 이상의 비방향성 모드(non-directional mode)와 복수개의 방향성 모드들(directional modes)로 구성될 수 있다. 하나 이상의 비방향성 모드는 DC 모드 및/또는 플래너(planar) 모드일수 있다. 또한, DC 모드와 플래너 모드 중 어느 하나가 적응적으로 상기 허용 가능한 인트라 예측 모드 셋에 포함될 수 있다. 이를 위해, 픽쳐 헤더 또는 슬라이스 헤더에 상기 허용 가능한 인트라 예측 모드 셋에 포함되는 비방향성 모드를 특정하는 정보가 포함될 수 있다.
다음으로, 인트라 예측부(230)는 인트라 예측 블록을 생성하기 위해, 참조 화소들을 픽쳐 저장부(260)부로터 읽어 들이고, 이용 가능하지 않은 참조 화소가 존재하는지 여부를 판단한다(S320). 상기 판단은 현재 블록의 복호된 인트라 예측 모드를 적용하여 인트라 예측 블록을 생성하는데 이용되는 참조 화소들의 존재 여부에 따라 행해질 수도 있다.
다음으로, 인트라 예측부(230)는 참조 화소를 생성할 필요가 있을 경우에는 미리 복원된 이용 가능한 참조 화소들을 이용하여 이용 가능하지 않은 위치의 참조화소들을 생성한다(S325). 이용 가능하지 않은 참조 화소에 대한 정의 및 참조 화소의 생성 방법은 도 2에 따른 인트라 예측부(120)에서의 동작과 동일하다. 다만, 현재 블록의 복호된 인트라 예측 모드에 따라 인트라 예측 블록을 생성하는데 이용되는 참조 화소만들을 선택적으로 복원할 수도 있다.
다음으로, 인트라 예측부(230)는 예측 블록을 생성하기 위하여, 참조 화소들에 필터를 적용할지 여부를 판단한다(S330). 즉, 인트라 예측부(230)는 현재 블록의 인트라 예측 블록을 생성하기 위하여 참조 화소들에 대해 필터링을 적용할지 여부를 상기 복호된 인트라 예측 모드 및 현재 예측 블록의 크기에 기초하여 결정한다. 블록킹 아티펙트의 문제는 블록의 크기가 커질수록 커지므로, 블록의 크기가 커질수록 참조화소를 필터링하는 예측모드의 수를 증가시킬 수 있다. 그러나, 블록이 소정 크기보다 커지는 경우에는 평탄한 영역으로 볼 수 있으므로 복잡도 감소를 위해 참조화소를 필터링하지 않을 수 있다.
상기 참조 화소에 필터 적용이 필요하다고 판단된 경우에는 필터를 이용하여 상기 참조 화소들을 필터링한다(S335).
상기한 참조 화소들 간의 단차의 차이 정도에 따라 적어도 2개 이상의 필터를 적응적으로 적용할 수도 있다. 상기 필터의 필터계수는 대칭적인 것이 바람직하다.
또한, 상기한 2개 이상의 필터가 현재 블록의 크기에 따라 적응적으로 적용될 수도 있다. 즉, 필터를 적용할 경우, 크기가 작은 블록에 대해서는 대역폭이 좁은 필터를, 크기가 큰 블록들에 대해서는 대역폭이 넓은 필터를 적용할 수도 있다.
DC 모드의 경우에는 참조 화소들의 평균값으로 예측 블록이 생성되므로, 필터를 적용할 필요가 없다. 즉, 필터를 적용할 경우 불필요한 연산량만이 많아지게 된다. 또한, 영상이 수직 방향으로 연관성(correlation)이 있는 수직 모드에서는 참조화소에 필터를 적용할 필요가 없다. 영상이 수평 방향으로 연관성이 있는 수평 모드에서도 참조화소에 필터를 적용할 필요가 없다. 이와 같이, 필터링의 적용 여부는 현재 블록의 인트라 예측 모드와도 연관성이 있으므로, 현재 블록의 인트라 예측 모드 및 예측 블록의 크기에 기초하여 참조화소를 적응적으로 필터링할 수 있다.
다음으로, 상기 복원된 인트라 예측 모드에 따라, 상기 참조 화소 또는 상기 필터링된 참조 화소들을 이용하여 예측 블록을 생성한다(S340). 상기 예측 블록의 생성은 도 2의 부호기에서의 동작과 동일하므로 생략한다. 플래너 모드의 경우에도 도 2의 부호기에서의 동작과 동일하므로 생략한다.
다음으로, 상기 생성된 예측 블록을 필터링할지 여부를 판단한다(S350). 상기 필터링 여부의 판단은 슬라이스 헤더 또는 부호화 유닛 헤더에 포함된 정보를 이용할 수 있다. 또한, 현재 블록의 인트라 예측 모드에 따라 결정될 수도 있다.
상기 생성된 예측 블록을 필터링할 것으로 판단할 경우, 생성된 예측 블록을 필터링한다(S335). 구체적으로, 현재 블록에 인접한 이용 가능한 참조 화소들을 이용하여 생성된 예측 블록의 특정 위치의 화소를 필터링하여 새로운 화소를 생성한다. 이는 예측 블록 생성시에 함께 적용될 수도 있다. 예를 들어, DC 모드에서는 예측 화소들 중 참조화소들과 접하는 예측 화소는 상기 예측 화소와 접하는 참조화소를 이용하여 필터링한다. 따라서, 예측 화소의 위치에 따라 1개 또는 2개의 참조화소를 이용하여 예측 화소를 필터링한다. DC 모드에서의 예측화소의 필터링은 모든 크기의 예측 블록에 적용할 수 있다. 수직 모드에서는 예측 블록의 예측 화소들 중 좌측 참조화소와 접하는 예측화소들은 상기 예측블록을 생성하는데 이용되는 상측화소 이외의 참조화소들을 이용하여 변경될 수 있다. 마찬가지로, 수평 모드에서는 생성된 예측 화소들 중 상측 참조화소와 접하는 예측화소들은 상기 예측블록을 생성하는데 이용되는 좌측화소 이외의 참조화소들을 이용하여 변경될 수 있다.
이와 같은 방식으로 복원된 현재 블록의 예측 블록과 복호화한 현재 블록의 잔차 블록을 이용하여 현재 블록이 복원된다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (9)

  1. 인트라 예측 모드에서의 영상 복호화 방법에 있어서,
    현재 블록의 인트라 예측 모드를 복원하는 단계;
    현재 블록의 이용 가능하지 않은 참조화소가 존재하면, 이용 가능한 참조화소를 이용하여 참조화소를 생성하는 단계;
    현재 블록의 상기 복원된 인트라 예측 모드 및 현재 블록의 크기에 기초하여 상기 참조화소를 적응적으로 필터링하는 단계; 및
    현재 블록의 인트라 예측 모드 및 상기 참조화소를 이용하여 현재 블록의 예측블록을 생성하는 단계를 포함하고,
    상기 참조화소를 생성하는 단계는 상기 이용 가능하지 않은 참조화소의 위치로부터 미리 정해진 방향으로 가장 가까운 위치의 이용 가능한 참조화소의 화소값을 이용 가능하지 않은 참조화소의 화소값으로 설정하는 것을 특징으로 하는 영상 복호화 방법.
  2. 상기 제1항에 있어서, 상기 이용 가능하지 않은 참조화소의 위치로부터 미리 정해진 방향으로 이용 가능한 참조화소가 존재하지 않으면, 반대 방향의 가장 가까운 위치의 이용 가능한 참조화소의 화소값을 이용 가능하지 않은 참조화소의 화소값으로 설정하는 것을 특징으로 하는 영상 복호화 방법.
  3. 제1항에 있어서, 현재 블록의 잔차 블록을 역양자화하고 역변환하는 과정을 더 포함하고, 상기 역양자화를 위하여 부호기로부터 수신된 정보에 따라 결정되는 양자화 매트릭스를 이용하여 상기 잔차블록을 역양자화하는 것을 특징으로 하는 영상 복호화 방법.
  4. 제1항에 있어서, 상기 참조화소를 적응적으로 필터링하는 단계는 현재 블록의 인트라 예측모드가 수평 또는 수직 모드이면, 참조화소를 필터링하지 않는 것을 특징으로 하는 영상 복호화 방법.
  5. 제1항에 있어서, 수평 모드와 대각선 방향의 인트라 예측 모드 사이의 특정 방향을 갖는 인트라 예측 모드에서 참조화소가 필터링되면, 상기 특정 방향의 인트라 예측 모드와 상기 대각선 방향의 인트라 예측 모드 사이의 방향성 모드에서는 참조화소를 필터링하는 것을 특징으로 하는 영상 복호화 방법.
  6. 제1항에 있어서, 현재 블록의 인트라 예측모드가 수직 모드이면, 예측 블록의 좌측 경계 예측 화소들은 예측 블록 생성에 이용되는 상측 화소 이외의 참조화소들을 이용하여 변경되는 것을 특징으로 하는 영상 복호화 방법.
  7. 제1항에 있어서, 현재 블록의 인트라 예측 모드가 플래너 모드이면, 현재 블록의 제1 참조값, 현재 블록의 우상측 코너 참조 화소와 접하는 참조화소 및 현재 블록의 좌하측 코너화소와 접하는 참조화소를 이용하여 예측 블록의 우측 경계 및 아래쪽 경계에 위치하는 예측화소를 생성하는 것을 특징으로 하는 영상 복호화 방법.
  8. 제7항에 있어서, 상기 제1 참조값은 현재 블록의 2개의 미리 정해진 위치의 화소의 화소값의 평균값을 이용하여 생성하는 것을 특징으로 하는 영상 복호화 방법.
  9. 제1항에 있어서, 현재 블록의 예측 모드가 DC 모드이면, 현재 블록의 크기에 관계없이 예측 블록의 예측 화소들 중 참조화소들과 접하는 예측 화소들을 상기 적어도 하나 이상의 참조화소들을 이용하여 필터링하는 것을 특징으로 하는 영상 복호화 방법.
PCT/KR2012/001923 2011-04-01 2012-03-16 인트라 예측 모드에서의 영상 복호화 방법 Ceased WO2012134085A2 (ko)

Priority Applications (28)

Application Number Priority Date Filing Date Title
EP21160620.7A EP3852367A1 (en) 2011-04-01 2012-03-16 Method for decoding image in intra prediction mode
CN201280017441.1A CN103460700B (zh) 2011-04-01 2012-03-16 以帧内预测模式解码图像的方法
BR112013025398-3A BR112013025398B1 (pt) 2011-04-01 2012-03-16 Método para decodificar uma imagem em modo de intrapredição
EP21160616.5A EP3852365A1 (en) 2011-04-01 2012-03-16 Method for decoding image in intra prediction mode
EP21160613.2A EP3852364A1 (en) 2011-04-01 2012-03-16 Method for decoding image in intra prediction mode
EP12764505.9A EP2696583A4 (en) 2011-04-01 2012-03-16 METHOD FOR DECODING IMAGES IN THE INTRAPREDICTION MODE
EP21160617.3A EP3852366A1 (en) 2011-04-01 2012-03-16 Method for decoding image in intra prediction mode
MX2013011427A MX2013011427A (es) 2011-04-01 2012-03-16 Método para la decodificación de imágenes en el modo de intrapredicción.
EP21160619.9A EP3869804A1 (en) 2011-04-01 2012-03-16 Method for decoding image in intra prediction mode
JP2014502448A JP5889392B2 (ja) 2011-04-01 2012-03-16 イントラ予測モードにおける映像復号化方法
US13/743,161 US9445127B2 (en) 2011-04-01 2013-01-16 Method of decoding moving pictures in intra prediction
US14/591,477 US9788016B2 (en) 2011-04-01 2015-01-07 Method of decoding moving pictures in intra prediction
US14/591,639 US9615110B2 (en) 2011-04-01 2015-01-07 Method of decoding moving pictures in intra prediction
US15/596,865 US9854273B2 (en) 2011-04-01 2017-05-16 Method of decoding moving pictures in intra prediction
US15/596,927 US10123049B2 (en) 2011-04-01 2017-05-16 Method of decoding moving pictures in intra prediction
US15/699,455 US10142658B2 (en) 2011-04-01 2017-09-08 Method of decoding moving pictures in intra prediction
US16/149,491 US10735772B2 (en) 2011-04-01 2018-10-02 Method of decoding moving pictures in intra prediction
US16/918,627 US11272216B2 (en) 2011-04-01 2020-07-01 Method of decoding moving pictures in intra prediction
US16/918,262 US11272215B2 (en) 2011-04-01 2020-07-01 Method of decoding moving pictures in intra prediction
US17/162,152 US11272218B2 (en) 2011-04-01 2021-01-29 Method of decoding moving pictures in intra prediction
US17/162,146 US11272217B2 (en) 2011-04-01 2021-01-29 Method of decoding moving pictures in intra prediction
US17/162,155 US11272219B2 (en) 2011-04-01 2021-01-29 Method of decoding moving pictures in intra prediction
US17/587,701 US20220150549A1 (en) 2011-04-01 2022-01-28 Method of decoding moving pictures in intra prediction
US18/417,091 US12301887B2 (en) 2011-04-01 2024-01-19 Method of decoding moving pictures in intra prediction
US18/941,848 US12581129B2 (en) 2011-04-01 2024-11-08 Method of decoding moving pictures in intra prediction
US18/941,857 US12581130B2 (en) 2011-04-01 2024-11-08 Method of decoding moving pictures in intra prediction
US18/941,836 US20250071340A1 (en) 2011-04-01 2024-11-08 Method of decoding moving pictures in intra prediction
US18/941,867 US20250071343A1 (en) 2011-04-01 2024-11-08 Method of decoding moving pictures in intra prediction

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0030294 2011-04-01
KR20110030294 2011-04-01

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/743,161 Continuation US9445127B2 (en) 2011-04-01 2013-01-16 Method of decoding moving pictures in intra prediction
US13/743,161 Division US9445127B2 (en) 2011-04-01 2013-01-16 Method of decoding moving pictures in intra prediction

Publications (2)

Publication Number Publication Date
WO2012134085A2 true WO2012134085A2 (ko) 2012-10-04
WO2012134085A3 WO2012134085A3 (ko) 2013-01-03

Family

ID=46932027

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/KR2012/000513 Ceased WO2012134046A2 (ko) 2011-04-01 2012-01-19 동영상의 부호화 방법
PCT/KR2012/001923 Ceased WO2012134085A2 (ko) 2011-04-01 2012-03-16 인트라 예측 모드에서의 영상 복호화 방법

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/000513 Ceased WO2012134046A2 (ko) 2011-04-01 2012-01-19 동영상의 부호화 방법

Country Status (7)

Country Link
US (18) US9445127B2 (ko)
EP (6) EP3852365A1 (ko)
JP (6) JP5889392B2 (ko)
CN (2) CN104702950B (ko)
BR (1) BR112013025398B1 (ko)
MX (1) MX2013011427A (ko)
WO (2) WO2012134046A2 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014207683A (ja) * 2010-04-09 2014-10-30 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 適応的フィルタを用いたイントラ予測実行方法及び装置
AU2015202343B2 (en) * 2011-10-28 2016-09-22 Samsung Electronics Co., Ltd. Method and apparatus for intra prediction of video
US9621918B2 (en) 2011-10-28 2017-04-11 Samsung Electronics Co., Ltd. Method and device for intra prediction video
CN106604028A (zh) * 2015-10-16 2017-04-26 中兴通讯股份有限公司 编码处理、解码处理方法及装置、编码器及解码器
AU2018200540B2 (en) * 2011-10-28 2018-11-15 Samsung Electronics Co., Ltd. Method and apparatus for intra prediction of video
JP2025081630A (ja) * 2011-06-20 2025-05-27 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 映像符号化/復号化方法及びその装置

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110123651A (ko) 2010-05-07 2011-11-15 한국전자통신연구원 생략 부호화를 이용한 영상 부호화 및 복호화 장치 및 그 방법
CN107197257B (zh) * 2010-12-08 2020-09-08 Lg 电子株式会社 由编码装置和解码装置执行的内预测方法
WO2012134046A2 (ko) * 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
JP6261372B2 (ja) * 2014-02-20 2018-01-17 オリンパス株式会社 固体撮像装置および撮像システム
KR20170082528A (ko) 2014-11-05 2017-07-14 삼성전자주식회사 블록과 관련하여 결정된 적어도 하나의 샘플값 및 적어도 하나의 패턴에 기초한 인트라 예측을 수행하는 영상 부호화 방법 및 장치또는 영상 복호화 방법 및 장치
CN105791865B (zh) * 2014-12-22 2020-01-17 江苏省电力公司南京供电公司 帧内预测及去块滤波方法
JP6383327B2 (ja) * 2015-06-10 2018-08-29 日本電信電話株式会社 イントラ予測処理装置、イントラ予測処理方法、イントラ予測処理プログラム、画像符号化装置及び画像復号装置
EP3598760A1 (en) * 2015-06-11 2020-01-22 Intellectual Discovery Co., Ltd. Method for encoding and decoding image using adaptive deblocking filtering, and apparatus therfor
ES2677193B1 (es) 2015-08-28 2019-06-19 Kt Corp Procedimiento y dispositivo para procesar señales de vídeo
JP6599552B2 (ja) * 2015-09-10 2019-10-30 エルジー エレクトロニクス インコーポレイティド ビデオコーディングシステムにおけるイントラ予測方法及び装置
WO2017082698A1 (ko) * 2015-11-11 2017-05-18 삼성전자 주식회사 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치
KR102345475B1 (ko) * 2016-01-05 2022-01-03 한국전자통신연구원 잔차 신호에 대한 예측 방법 및 장치
CN115733978A (zh) * 2016-01-27 2023-03-03 韩国电子通信研究院 通过使用预测对视频进行编码和解码的方法和装置
WO2017138393A1 (en) 2016-02-08 2017-08-17 Sharp Kabushiki Kaisha Systems and methods for intra prediction coding
EP3396960A4 (en) * 2016-02-16 2019-04-10 Samsung Electronics Co., Ltd. METHOD AND DEVICE FOR VIDEO CODING AND METHOD AND DEVICE FOR VIDEO DECODING
JP2019508944A (ja) * 2016-02-16 2019-03-28 サムスン エレクトロニクス カンパニー リミテッド イントラ予測誤差低減のためのイントラ予測方法及びその装置
KR102465914B1 (ko) * 2016-03-04 2022-11-14 한국전자통신연구원 영상 부호화 장치의 부호화 방법
KR20180131570A (ko) * 2016-04-29 2018-12-10 인텔렉추얼디스커버리 주식회사 영상 신호 부호화/복호화 방법 및 장치
EP3972256B1 (en) * 2016-06-24 2024-01-03 KT Corporation Adaptive reference sample filtering for intra prediction using distant pixel lines
KR20180014675A (ko) * 2016-08-01 2018-02-09 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN116684579A (zh) * 2016-08-03 2023-09-01 株式会社Kt 用于对视频进行编码和解码的方法和装置
CN116939200A (zh) * 2016-08-31 2023-10-24 株式会社Kt 用于处理视频信号的方法和设备
CN114339225B (zh) * 2016-09-05 2024-06-04 罗斯德尔动力有限责任公司 图像编码和解码装置及比特流存储介质和发送装置
CN117201777A (zh) * 2016-09-13 2023-12-08 韩国电子通信研究院 视频编码/解码方法和装置以及存储比特流的记录介质
EP3300362A1 (en) 2016-09-27 2018-03-28 Thomson Licensing Method for improved intra prediction when reference samples are missing
WO2018066958A1 (ko) * 2016-10-04 2018-04-12 주식회사 케이티 비디오 신호 처리 방법 및 장치
CN120602675A (zh) 2016-10-11 2025-09-05 Oppo广东移动通信有限公司 依赖于图像编译系统中的帧内预测的图像解码方法和装置
WO2018097700A1 (ko) 2016-11-28 2018-05-31 한국전자통신연구원 필터링을 위한 방법 및 장치
US20200092550A1 (en) * 2016-12-27 2020-03-19 Samsung Electronics Co., Ltd. Method and device for filtering reference sample in intra-prediction
EP4258657A1 (en) 2017-01-04 2023-10-11 Samsung Electronics Co., Ltd. Video decoding method and apparatus and video encoding method and apparatus
KR102528387B1 (ko) * 2017-01-09 2023-05-03 에스케이텔레콤 주식회사 영상 부호화 또는 복호화하기 위한 장치 및 방법
KR102511546B1 (ko) * 2017-02-24 2023-03-17 주식회사 케이티 비디오 신호 처리 방법 및 장치
JP7036628B2 (ja) * 2017-03-10 2022-03-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
US10992939B2 (en) * 2017-10-23 2021-04-27 Google Llc Directional intra-prediction coding
US10225578B2 (en) 2017-05-09 2019-03-05 Google Llc Intra-prediction edge filtering
WO2018216862A1 (ko) * 2017-05-24 2018-11-29 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
WO2018221554A1 (ja) * 2017-06-01 2018-12-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、符号化方法、復号装置及び復号方法
US11172221B2 (en) 2017-06-26 2021-11-09 Interdigital Madison Patent Holdings, Sas Method and apparatus for intra prediction with multiple weighted references
WO2019009491A1 (ko) * 2017-07-06 2019-01-10 삼성전자 주식회사 영상을 부호화 또는 복호화하는 방법 및 장치
US11064201B2 (en) * 2017-09-06 2021-07-13 Kaonmedia Co., Ltd. Method and device for image encoding/decoding based on effective transmission of differential quantization parameter
WO2019059107A1 (ja) * 2017-09-20 2019-03-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
US11695930B2 (en) 2017-09-28 2023-07-04 Samsung Electronics Co., Ltd. Image encoding method and apparatus, and image decoding method and apparatus
CN111247799B (zh) * 2017-10-18 2022-08-09 韩国电子通信研究院 图像编码/解码方法和装置以及存储有比特流的记录介质
CN118337988A (zh) * 2017-11-22 2024-07-12 英迪股份有限公司 用于解码图像的方法、用于编码图像的方法和非暂态存储介质
CN116471404A (zh) * 2017-12-22 2023-07-21 数码士有限公司 视频信号处理方法和设备
CN116366845A (zh) * 2018-03-09 2023-06-30 韩国电子通信研究院 使用样点滤波的图像编码/解码方法和设备
CN118250461A (zh) 2018-03-25 2024-06-25 有限公司B1影像技术研究所 图像编码/解码方法、记录介质和传输比特流的方法
JP7382951B2 (ja) * 2018-03-30 2023-11-17 シャープ株式会社 復元されたビデオデータにデブロッキングフィルタを適用するためのシステム及び方法
US10728542B2 (en) * 2018-04-09 2020-07-28 Tencent America LLC Methods and apparatuses for sub-block motion vector prediction
EP3554071A1 (en) * 2018-04-12 2019-10-16 InterDigital VC Holdings, Inc. Method and apparatus for intra prediction using a composite reference array
CN118200524A (zh) * 2018-05-10 2024-06-14 三星电子株式会社 视频解码方法和装置以及视频编码方法和装置
CN118869989A (zh) 2018-06-21 2024-10-29 株式会社Kt 对图像进行解码和编码的方法以及用于发送压缩视频数据的设备
CN110650337B (zh) * 2018-06-26 2022-04-01 中兴通讯股份有限公司 一种图像编码方法、解码方法、编码器、解码器及存储介质
FR3081656A1 (fr) * 2018-06-27 2019-11-29 Orange Procedes et dispositifs de codage et de decodage d'un flux de donnees representatif d'au moins une image.
BR112020026248A2 (pt) * 2018-06-29 2021-04-06 Huawei Technologies Co., Ltd. Dispositivo e método para intrapredição de um bloco de predição de uma imagem de vídeo, e meio de armazenamento
US10284844B1 (en) * 2018-07-02 2019-05-07 Tencent America LLC Method and apparatus for video coding
CN112352434B (zh) * 2018-07-11 2022-06-07 华为技术有限公司 用于帧内预测的基于宽高比滤波的方法和装置
BR112021000651A2 (pt) * 2018-07-30 2021-04-13 Samsung Electronics Co., Ltd. Método de decodificação de imagem, aparelho de decodificação de imagem, método de codificação de imagem, e meio de gravação legível por computador
ES2944839T3 (es) * 2018-09-02 2023-06-26 Lg Electronics Inc Método para procesar señales de imágenes y medio de almacenamiento legible por ordenador que almacena un flujo de bits generado mediante dicho método
GB2577056B (en) * 2018-09-11 2022-12-14 British Broadcasting Corp Bitstream decoder
FR3086487A1 (fr) * 2018-09-21 2020-03-27 Orange Procedes et dispositifs de codage et de decodage d'un flux de donnees representatif d'au moins une image.
IL305173B1 (en) * 2018-10-12 2026-01-01 Guangdong Oppo Mobile Telecommunications Corp Ltd Method for encoding/decoding an image signal and apparatus therefor
EP3888368A4 (en) * 2018-11-27 2022-03-02 OP Solutions, LLC ADAPTIVE TIME FILTER FOR AN UNAVAILABLE REFERENCE IMAGE
CN115348442B (zh) * 2018-11-30 2024-09-24 杭州海康威视数字技术股份有限公司 一种运动信息确定方法、装置及其设备
EP3697094A1 (en) 2019-02-13 2020-08-19 InterDigital VC Holdings, Inc. Intra prediction mode extension
CN112135130B (zh) * 2019-06-24 2024-03-22 财团法人工业技术研究院 视频编译码方法及其图像处理装置
CN116389725B (zh) 2019-07-10 2025-06-10 Oppo广东移动通信有限公司 图像分量预测方法、编码器、解码器以及存储介质
WO2021056224A1 (zh) * 2019-09-24 2021-04-01 Oppo广东移动通信有限公司 预测值的确定方法、编码器、解码器以及存储介质
CN112582063A (zh) * 2019-09-30 2021-03-30 长沙昱旻信息科技有限公司 Bmi预测方法、装置、系统及计算机存储介质、电子设备
CN112616057B (zh) 2019-10-04 2024-08-23 Oppo广东移动通信有限公司 图像预测方法、编码器、解码器以及存储介质
CN118828018B (zh) * 2019-10-04 2025-09-16 Oppo广东移动通信有限公司 图像预测方法、编码器、解码器以及存储介质
CN110944211B (zh) * 2019-11-15 2022-07-08 腾讯科技(深圳)有限公司 用于帧内预测的插值滤波方法、装置、介质及电子设备
CN111050171B (zh) * 2019-12-18 2022-10-11 腾讯科技(深圳)有限公司 视频解码方法、装置、设备及存储介质
CN113068037B (zh) 2021-03-17 2022-12-06 上海哔哩哔哩科技有限公司 用于样点自适应补偿的方法及装置、设备和介质
CN116055747A (zh) * 2022-12-19 2023-05-02 重庆中星微人工智能芯片技术有限公司 基于编码端及基于解码端的帧内预测方法、装置

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6320905B1 (en) * 1998-07-08 2001-11-20 Stream Machine Company Postprocessing system for removing blocking artifacts in block-based codecs
CN1298171C (zh) * 2001-09-18 2007-01-31 松下电器产业株式会社 图像的编码方法和图像的译码方法
EP2938071B1 (en) * 2001-11-29 2017-11-15 Godo Kaisha IP Bridge 1 Coding distortion removal method
DE10158658A1 (de) * 2001-11-30 2003-06-12 Bosch Gmbh Robert Verfahren zur gerichteten Prädiktion eines Bildblockes
JP4102973B2 (ja) * 2002-04-24 2008-06-18 日本電気株式会社 動画像の符号化方法および復号化方法、これを用いた装置とプログラム
US6646578B1 (en) * 2002-11-22 2003-11-11 Ub Video Inc. Context adaptive variable length decoding system and method
KR20050090451A (ko) * 2003-01-10 2005-09-13 톰슨 라이센싱 에스.에이. 부호화된 화상에서 오류 은닉을 위한 보간필터 정의
JP4324844B2 (ja) * 2003-04-25 2009-09-02 ソニー株式会社 画像復号化装置及び画像復号化方法
US7627040B2 (en) * 2003-06-10 2009-12-01 Rensselaer Polytechnic Institute (Rpi) Method for processing I-blocks used with motion compensated temporal filtering
US7653133B2 (en) * 2003-06-10 2010-01-26 Rensselaer Polytechnic Institute (Rpi) Overlapped block motion compression for variable size blocks in the context of MCTF scalable video coders
US8107535B2 (en) * 2003-06-10 2012-01-31 Rensselaer Polytechnic Institute (Rpi) Method and apparatus for scalable motion vector coding
CN1589028B (zh) * 2004-07-29 2010-05-05 展讯通信(上海)有限公司 基于像素流水的帧内预测装置及预测方法
CN100426868C (zh) * 2005-01-25 2008-10-15 中国科学院计算技术研究所 一种帧内图像的亮度预测编码方法
US8885707B2 (en) * 2005-04-01 2014-11-11 Panasonic Corporation Image decoding apparatus and image decoding method
US20090028239A1 (en) * 2005-05-03 2009-01-29 Bernhard Schuur Moving picture encoding method, moving picture decoding method and apparatuses using the methods
US7991237B2 (en) * 2007-06-28 2011-08-02 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method and image decoding method
EP2193663B1 (en) * 2007-09-28 2017-11-08 Dolby Laboratories Licensing Corporation Treating video information
WO2009051419A2 (en) * 2007-10-16 2009-04-23 Lg Electronics Inc. A method and an apparatus for processing a video signal
JP2009111691A (ja) * 2007-10-30 2009-05-21 Hitachi Ltd 画像符号化装置及び符号化方法、画像復号化装置及び復号化方法
US8576906B2 (en) * 2008-01-08 2013-11-05 Telefonaktiebolaget L M Ericsson (Publ) Adaptive filtering
JP5111127B2 (ja) * 2008-01-22 2012-12-26 キヤノン株式会社 動画像符号化装置及びその制御方法、並びに、コンピュータプログラム
WO2009115901A2 (en) * 2008-03-19 2009-09-24 Nokia Corporation Combined motion vector and reference index prediction for video coding
EP2263381A1 (en) * 2008-04-11 2010-12-22 Thomson Licensing Deblocking filtering for displaced intra prediction and template matching
EP2266321B1 (en) * 2008-04-23 2017-12-13 Telefonaktiebolaget LM Ericsson (publ) Template-based pixel block processing
KR20090129926A (ko) * 2008-06-13 2009-12-17 삼성전자주식회사 영상 부호화 방법 및 그 장치, 영상 복호화 방법 및 그 장치
US8687692B2 (en) * 2008-08-12 2014-04-01 Lg Electronics Inc. Method of processing a video signal
US20110170793A1 (en) * 2008-09-24 2011-07-14 Kazushi Sato Image processing apparatus and method
US8660176B2 (en) * 2008-09-26 2014-02-25 Qualcomm Incorporated Resolving geometric relationships among video data units
KR101590500B1 (ko) * 2008-10-23 2016-02-01 에스케이텔레콤 주식회사 동영상 부호화/복호화 장치, 이를 위한 인트라 예측 방향에기반한 디블록킹 필터링 장치 및 필터링 방법, 및 기록 매체
JP2010232734A (ja) * 2009-03-25 2010-10-14 Panasonic Corp 画像符号化装置及び画像符号化方法
EP2237557A1 (en) * 2009-04-03 2010-10-06 Panasonic Corporation Coding for filter coefficients
JP2010258741A (ja) * 2009-04-24 2010-11-11 Sony Corp 画像処理装置および方法、並びにプログラム
JP5169978B2 (ja) * 2009-04-24 2013-03-27 ソニー株式会社 画像処理装置および方法
US9113168B2 (en) * 2009-05-12 2015-08-18 Lg Electronics Inc. Method and apparatus of processing a video signal
EP2262267A1 (en) * 2009-06-10 2010-12-15 Panasonic Corporation Filter coefficient coding scheme for video coding
JP5597968B2 (ja) * 2009-07-01 2014-10-01 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
KR101510108B1 (ko) * 2009-08-17 2015-04-10 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
JP2011151682A (ja) * 2010-01-22 2011-08-04 Sony Corp 画像処理装置および方法
JP2011166326A (ja) * 2010-02-05 2011-08-25 Sony Corp 画像処理装置および方法
JP5368631B2 (ja) * 2010-04-08 2013-12-18 株式会社東芝 画像符号化方法、装置、及びプログラム
JP2011223337A (ja) * 2010-04-09 2011-11-04 Sony Corp 画像処理装置および方法
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
KR101772459B1 (ko) * 2010-05-17 2017-08-30 엘지전자 주식회사 신규한 인트라 예측 모드
US8805100B2 (en) * 2010-06-03 2014-08-12 Sharp Kabushiki Kaisha Filter device, image decoding device, image encoding device, and filter parameter data structure
KR20120012385A (ko) * 2010-07-31 2012-02-09 오수미 인트라 예측 부호화 장치
KR101373814B1 (ko) * 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
SMT201800312T1 (it) * 2010-08-17 2018-07-17 M&K Holdings Inc Metodo per codificare una modalita' di predizione intra
US20120063515A1 (en) * 2010-09-09 2012-03-15 Qualcomm Incorporated Efficient Coding of Video Parameters for Weighted Motion Compensated Prediction in Video Coding
PL3849194T3 (pl) * 2010-09-27 2022-10-31 Lg Electronics, Inc. Sposób podziału bloku oraz urządzenie do dekodowania
KR20120035096A (ko) * 2010-10-04 2012-04-13 한국전자통신연구원 쿼드 트리 변환 구조에서 부가 정보의 시그널링 방법 및 장치
EP3748962A1 (en) * 2010-12-07 2020-12-09 Sony Corporation Image processing device and image processing method
BR122020013150B1 (pt) * 2010-12-07 2021-09-28 Sony Corporation Dispositivo e método de processamento de imagem
CN107197257B (zh) * 2010-12-08 2020-09-08 Lg 电子株式会社 由编码装置和解码装置执行的内预测方法
WO2012077719A1 (ja) * 2010-12-09 2012-06-14 シャープ株式会社 画像復号装置、および画像符号化装置
JP5551274B2 (ja) * 2010-12-14 2014-07-16 シャープ株式会社 画像フィルタ装置
US20120163457A1 (en) * 2010-12-28 2012-06-28 Viktor Wahadaniah Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus
WO2012096622A1 (en) * 2011-01-14 2012-07-19 Telefonaktiebolaget Lm Ericsson (Publ) Methods and devices for intra coding of video
US9420294B2 (en) * 2011-02-23 2016-08-16 Lg Electronics Inc. Intra-prediction method using filtering, and apparatus using the method
US20120230423A1 (en) * 2011-03-10 2012-09-13 Esenlik Semih Line memory reduction for video coding and decoding
US8861593B2 (en) * 2011-03-15 2014-10-14 Sony Corporation Context adaptation within video coding modules
EP2500614B1 (de) 2011-03-17 2013-01-23 Martin Schwalm Kamera bestücktes selbstfahrendes Fahrzeug
WO2012134046A2 (ko) * 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
KR20120140181A (ko) * 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
EP2764694B1 (en) * 2011-10-07 2025-12-17 Dolby Laboratories Licensing Corporation Method for decoding an intra prediction mode using candidate intra prediction modes
US20130089136A1 (en) * 2011-10-10 2013-04-11 Texas Instruments Incorporated Spatial Intra Prediction Estimation Based on Mode Suppression in Macroblocks of a Video Frame
US9154796B2 (en) * 2011-11-04 2015-10-06 Qualcomm Incorporated Intra-mode video coding

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
None

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7111859B2 (ja) 2010-04-09 2022-08-02 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 映像デコード方法、映像エンコード方法および記録媒体
JP2018137781A (ja) * 2010-04-09 2018-08-30 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute ビデオデコーディング装置
JP7751147B2 (ja) 2010-04-09 2025-10-07 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 映像デコード方法、映像エンコード方法および記録媒体
US9549204B2 (en) 2010-04-09 2017-01-17 Electronics And Telecommunications Research Instit Method and apparatus for performing intra-prediction using adaptive filter
JP2025081705A (ja) * 2010-04-09 2025-05-27 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 映像デコード方法、映像エンコード方法および記録媒体
JP7644860B2 (ja) 2010-04-09 2025-03-12 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 映像デコード方法、映像エンコード方法および記録媒体
US9661345B2 (en) 2010-04-09 2017-05-23 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP2017143542A (ja) * 2010-04-09 2017-08-17 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute ビデオデコーディング装置
US9781448B2 (en) 2010-04-09 2017-10-03 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US9838711B2 (en) 2010-04-09 2017-12-05 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US12075090B2 (en) 2010-04-09 2024-08-27 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP2018137782A (ja) * 2010-04-09 2018-08-30 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute ビデオデコーディング装置
JP2018137783A (ja) * 2010-04-09 2018-08-30 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute ビデオデコーディング装置
JP2018137779A (ja) * 2010-04-09 2018-08-30 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute ビデオデコーディング装置
JP2018137780A (ja) * 2010-04-09 2018-08-30 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute ビデオデコーディング装置
JP2020005277A (ja) * 2010-04-09 2020-01-09 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 映像デコード方法、映像エンコード方法および記録媒体
US10075734B2 (en) 2010-04-09 2018-09-11 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP2024099848A (ja) * 2010-04-09 2024-07-25 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 映像デコード方法、映像エンコード方法および記録媒体
US10560721B2 (en) 2010-04-09 2020-02-11 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10432968B2 (en) 2010-04-09 2019-10-01 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10440392B2 (en) 2010-04-09 2019-10-08 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10440393B2 (en) 2010-04-09 2019-10-08 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP2016140090A (ja) * 2010-04-09 2016-08-04 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 適応的フィルタを用いたイントラ予測実行方法及び装置
JP2023139224A (ja) * 2010-04-09 2023-10-03 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 映像デコード方法、映像エンコード方法および記録媒体
JP7488947B2 (ja) 2010-04-09 2024-05-22 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 映像デコード方法、映像エンコード方法および記録媒体
US10560722B2 (en) 2010-04-09 2020-02-11 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10623769B2 (en) 2010-04-09 2020-04-14 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10623770B2 (en) 2010-04-09 2020-04-14 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10623771B2 (en) 2010-04-09 2020-04-14 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP7324909B2 (ja) 2010-04-09 2023-08-10 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 映像デコード方法および映像エンコード方法
US10951917B2 (en) 2010-04-09 2021-03-16 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP2021106403A (ja) * 2010-04-09 2021-07-26 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 映像デコード方法、映像エンコード方法および記録媒体
US11601673B2 (en) 2010-04-09 2023-03-07 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP2014207683A (ja) * 2010-04-09 2014-10-30 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 適応的フィルタを用いたイントラ予測実行方法及び装置
JP2022141850A (ja) * 2010-04-09 2022-09-29 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 映像デコード方法、映像エンコード方法および記録媒体
JP2025081630A (ja) * 2011-06-20 2025-05-27 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 映像符号化/復号化方法及びその装置
JP7818727B2 (ja) 2011-06-20 2026-02-20 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 映像符号化/復号化方法及びその装置
US10893277B2 (en) 2011-10-28 2021-01-12 Samsung Electronics Co., Ltd. Method and device for intra prediction video
US10506239B2 (en) 2011-10-28 2019-12-10 Samsung Electronics Co., Ltd. Method and device for intra prediction video
US10291919B2 (en) 2011-10-28 2019-05-14 Samsung Electronics Co., Ltd. Method and device for intra prediction video
AU2018200540B2 (en) * 2011-10-28 2018-11-15 Samsung Electronics Co., Ltd. Method and apparatus for intra prediction of video
US9883191B2 (en) 2011-10-28 2018-01-30 Samsung Electronics Co., Ltd. Method and device for intra prediction video
US9621918B2 (en) 2011-10-28 2017-04-11 Samsung Electronics Co., Ltd. Method and device for intra prediction video
AU2015202343B2 (en) * 2011-10-28 2016-09-22 Samsung Electronics Co., Ltd. Method and apparatus for intra prediction of video
US11272176B2 (en) 2015-10-16 2022-03-08 Zte Corporation Encoding processing method and device, decoding processing method and device, encoder, and decoder
CN106604028A (zh) * 2015-10-16 2017-04-26 中兴通讯股份有限公司 编码处理、解码处理方法及装置、编码器及解码器

Also Published As

Publication number Publication date
EP2696583A2 (en) 2014-02-12
US20240163487A1 (en) 2024-05-16
JP6417022B2 (ja) 2018-10-31
EP3852365A1 (en) 2021-07-21
EP3852367A1 (en) 2021-07-21
US20190037243A1 (en) 2019-01-31
US11272219B2 (en) 2022-03-08
US20170280164A1 (en) 2017-09-28
US20210152851A1 (en) 2021-05-20
US20170251228A1 (en) 2017-08-31
US20250071340A1 (en) 2025-02-27
US9445127B2 (en) 2016-09-13
US20150117531A1 (en) 2015-04-30
US20220150549A1 (en) 2022-05-12
US11272216B2 (en) 2022-03-08
JP6417021B2 (ja) 2018-10-31
JP2017085592A (ja) 2017-05-18
US11272217B2 (en) 2022-03-08
MX2013011427A (es) 2014-05-28
US11272218B2 (en) 2022-03-08
US20150124880A1 (en) 2015-05-07
JP6254668B2 (ja) 2017-12-27
CN103460700A (zh) 2013-12-18
JP6074082B2 (ja) 2017-02-01
US12301887B2 (en) 2025-05-13
WO2012134046A2 (ko) 2012-10-04
US20210160543A1 (en) 2021-05-27
BR112013025398B1 (pt) 2023-01-31
US10142658B2 (en) 2018-11-27
US12581129B2 (en) 2026-03-17
WO2012134085A3 (ko) 2013-01-03
US20170374389A1 (en) 2017-12-28
CN104702950A (zh) 2015-06-10
JP2016123118A (ja) 2016-07-07
EP3852364A1 (en) 2021-07-21
JP2018057030A (ja) 2018-04-05
US9788016B2 (en) 2017-10-10
CN104702950B (zh) 2018-06-01
US20130128961A1 (en) 2013-05-23
JP6621511B2 (ja) 2019-12-18
BR112013025398A2 (pt) 2016-12-20
EP3852366A1 (en) 2021-07-21
US20200336767A1 (en) 2020-10-22
JP2014512129A (ja) 2014-05-19
US10735772B2 (en) 2020-08-04
US20250071341A1 (en) 2025-02-27
US20250071343A1 (en) 2025-02-27
CN103460700B (zh) 2017-07-28
US9854273B2 (en) 2017-12-26
US20210152850A1 (en) 2021-05-20
US9615110B2 (en) 2017-04-04
JP2018057029A (ja) 2018-04-05
WO2012134046A3 (ko) 2012-12-06
US20200336766A1 (en) 2020-10-22
EP2696583A4 (en) 2014-09-10
JP2019033516A (ja) 2019-02-28
US12581130B2 (en) 2026-03-17
JP5889392B2 (ja) 2016-03-22
US20250071342A1 (en) 2025-02-27
US10123049B2 (en) 2018-11-06
EP3869804A1 (en) 2021-08-25
US11272215B2 (en) 2022-03-08

Similar Documents

Publication Publication Date Title
WO2012134085A2 (ko) 인트라 예측 모드에서의 영상 복호화 방법
WO2013062197A1 (ko) 영상 복호화 장치
WO2010087620A2 (ko) 보간 필터를 적응적으로 사용하여 영상을 부호화 및 복호화하는 방법 및 장치
WO2013062195A1 (ko) 인트라 예측 모드 복호화 방법 및 장치
WO2013062196A1 (ko) 영상 복호화 장치
WO2012018197A2 (ko) 인트라 예측 복호화 장치
WO2012018198A2 (ko) 예측 블록 생성 장치
KR20130105114A (ko) 인트라 예측 모드에서의 영상 복호화 방법
WO2011133002A2 (ko) 영상 부호화 장치 및 방법
WO2013062198A1 (ko) 영상 복호화 장치
WO2013062194A1 (ko) 복원 블록을 생성하는 방법 및 장치
KR101204385B1 (ko) 인트라 예측 모드에서의 영상 복호화 방법
WO2011068332A2 (ko) 공간적 예측장치 및 그 예측방법, 그것을 이용한 영상 부호화 장치 및 방법, 및 영상 복호화 장치 및 방법
KR20180111378A (ko) 병렬 처리를 위한 움직임 정보를 처리하는 영상 처리 방법, 그를 이용한 영상 복호화, 부호화 방법 및 그 장치
KR20140057519A (ko) 영상 부호화 방법
WO2010147429A2 (ko) 의사 난수 필터를 이용한 영상 필터링 방법 및 장치
WO2014084671A2 (ko) 트랜스폼을 이용한 영상 부호화/복호화 방법 및 장치
KR20140057518A (ko) 영상 복호화 방법
KR20140057516A (ko) 예측 블록 생성 방법
WO2025154921A1 (ko) 영상 부/복호화 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체
WO2018174371A1 (ko) 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12764505

Country of ref document: EP

Kind code of ref document: A2

ENP Entry into the national phase

Ref document number: 2014502448

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: MX/A/2013/011427

Country of ref document: MX

WWE Wipo information: entry into national phase

Ref document number: 2012764505

Country of ref document: EP

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112013025398

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112013025398

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20131001

WWG Wipo information: grant in national office

Ref document number: 201838050001

Country of ref document: IN