JP7320573B2 - Image decoding device, image decoding method and program - Google Patents

Image decoding device, image decoding method and program Download PDF

Info

Publication number
JP7320573B2
JP7320573B2 JP2021144756A JP2021144756A JP7320573B2 JP 7320573 B2 JP7320573 B2 JP 7320573B2 JP 2021144756 A JP2021144756 A JP 2021144756A JP 2021144756 A JP2021144756 A JP 2021144756A JP 7320573 B2 JP7320573 B2 JP 7320573B2
Authority
JP
Japan
Prior art keywords
filter
decoded signal
threshold
signal
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021144756A
Other languages
Japanese (ja)
Other versions
JP2022008331A (en
Inventor
恭平 海野
圭 河村
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020191512A external-priority patent/JP6912642B2/en
Priority claimed from JP2021112920A external-priority patent/JP6941752B1/en
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2021144756A priority Critical patent/JP7320573B2/en
Publication of JP2022008331A publication Critical patent/JP2022008331A/en
Priority to JP2023120159A priority patent/JP7485838B2/en
Application granted granted Critical
Publication of JP7320573B2 publication Critical patent/JP7320573B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、画像復号装置、画像復号方法及びプログラムに関する。 The present invention relates to an image decoding device, an image decoding method and a program.

従来、「ALF(Adaptive Loop Filter:適応ループフィルタ) )」への入力信号を閾値でクリッピングすることで、非線形なフィルタ処理を実現する技術が知られている(例えば、非特許文献1参照)。 Conventionally, there is known a technique of realizing non-linear filtering by clipping an input signal to an "ALF (Adaptive Loop Filter)" with a threshold value (see Non-Patent Document 1, for example).

ここで、かかる閾値は、数式で定義されており、内部ビット深度の設定値等に応じて、最終的な値が導出される。かかる閾値は、輝度信号及び色差信号に対してそれぞれ定義されている。 Here, the threshold is defined by a formula, and the final value is derived according to the set value of the internal bit depth and the like. Such thresholds are defined respectively for the luminance signal and the color difference signal.

Versatile Video Coding (Draft 5)、JVET-N1001Versatile Video Coding (Draft 5), JVET-N1001

しかしながら、上述の従来技術では、内部ビット深度によって、輝度信号の閾値と色差信号の閾値との大小関係が反転してしまう。これにより、同一の入力信号に対しても、内部ビット深度の設定によって、復号画像の特性が変化し、主観画質に影響を与える可能性があるという問題点があった。 However, in the above-described conventional technology, the magnitude relationship between the threshold value of the luminance signal and the threshold value of the color difference signal is reversed depending on the internal bit depth. As a result, even for the same input signal, there is a problem that the characteristics of the decoded image may change depending on the setting of the internal bit depth, which may affect the subjective image quality.

そこで、本発明は、上述の課題に鑑みてなされたものであり、復号画像の特性が変化し、主観画質に影響を与えてしまうという事態を防ぐことができる画像復号装置、画像復号方法及びプログラムを提供することを目的とする。 Accordingly, the present invention has been made in view of the above problems, and provides an image decoding device, an image decoding method, and a program capable of preventing a situation in which the characteristics of a decoded image change and affect the subjective image quality. intended to provide

本発明の第1の特徴は、画像復号装置であって、フィルタ処理前復号信号を入力とし、フィルタ処理後復号信号を出力するように構成されているフィルタ部を備え、前記フィルタ部は、参照画素値と前記フィルタ処理前復号信号の画素値との差分値の絶対値が予め定義した閾値以下となるように、前記フィルタ処理前復号信号に対するクリッピング処理を施し、前記クリッピング処理が施された後の値と前記フィルタ処理前復号信号の画素値との線形加重和によって前記フィルタ処理後復号信号を生成するように構成されており、内部ビット深度が変化しても、輝度信号用の前記閾値と色差信号用の前記閾値との大小関係が保存されるように定義されていることを要旨とする。 A first feature of the present invention is an image decoding device, comprising a filter unit configured to receive a pre-filtering decoded signal and output a post-filtering decoded signal, the filter unit comprising: clipping the pre-filtering decoded signal such that the absolute value of the difference between the pixel value and the pixel value of the pre-filtering decoded signal is equal to or less than a predefined threshold; and pixel values of the pre-filtering decoded signal to generate the post-filtering decoded signal, and even if the internal bit depth changes, the threshold value for the luminance signal and The gist is that it is defined so that the magnitude relationship with the threshold value for the color difference signal is preserved.

本発明の第2の特徴は、フィルタ処理前復号信号を入力とし、フィルタ処理後復号信号を出力する工程を有する画像復号方法であって、前記工程において、参照画素値と前記フィルタ処理前復号信号の画素値との差分値の絶対値が予め定義した閾値以下となるように、前記フィルタ処理前復号信号に対するクリッピング処理を施し、前記クリッピング処理が施された後の値と前記フィルタ処理前復号信号の画素値との線形加重和によって前記フィルタ処理後復号信号を生成し、内部ビット深度が変化しても、輝度信号用の前記閾値と色差信号用の前記閾値との大小関係が保存されるように定義されていることを要旨とする。 A second feature of the present invention is an image decoding method having a step of inputting a pre-filtering decoded signal and outputting a post-filtering decoded signal, wherein in the step, a reference pixel value and the pre-filtering decoded signal Clipping processing is performed on the pre-filtered decoded signal so that the absolute value of the difference between the pixel value of so that even if the internal bit depth changes, the magnitude relationship between the threshold for the luminance signal and the threshold for the color difference signal is preserved. The gist is that it is defined in

本発明の第3の特徴は、画像復号装置で用いるプログラムであって、コンピュータに、フィルタ処理前復号信号を入力とし、フィルタ処理後復号信号を出力する工程を実行させ、前記工程において、参照画素値と前記フィルタ処理前復号信号の画素値との差分値の絶対値が予め定義した閾値以下となるように、前記フィルタ処理前復号信号に対するクリッピング処理を施し、前記クリッピング処理が施された後の値と前記フィルタ処理前復号信号の画素値との線形加重和によって前記フィルタ処理後復号信号を生成し、内部ビット深度が変化しても、輝度信号用の前記閾値と色差信号用の前記閾値との大小関係が保存されるように定義されていることを要旨とする。 A third feature of the present invention is a program for use in an image decoding device, which causes a computer to execute a step of inputting a pre-filtering decoded signal and outputting a post-filtering decoded signal; Clipping processing is performed on the pre-filtering decoded signal so that an absolute value of a difference value between the pixel value of the pre-filtering decoded signal and the pixel value of the pre-filtering decoded signal is equal to or less than a predetermined threshold value, and after the clipping processing is performed, The filtered decoded signal is generated by a linearly weighted sum of the pixel values of the unfiltered decoded signal and the threshold for the luminance signal and the threshold for the chrominance signal even if the internal bit depth changes. The gist is that it is defined so that the magnitude relationship between is preserved.

本発明によれば、復号画像の特性が変化し、主観画質に影響を与えてしまうという事態を防ぐことができる画像復号装置、画像復号方法及びプログラムを提供することができる。 Advantageous Effects of Invention According to the present invention, it is possible to provide an image decoding device, an image decoding method, and a program that can prevent a situation in which the characteristics of a decoded image change and affect the subjective image quality.

一実施形態に係る画像処理システム10の構成の一例を示す図である。It is a figure showing an example of composition of image processing system 10 concerning one embodiment. 一実施形態に係る画像符号化装置100の機能ブロックの一例を示す図である。1 is a diagram showing an example of functional blocks of an image encoding device 100 according to an embodiment; FIG. 一実施形態に係る画像符号化装置100のインループフィルタ処理部150の機能ブロックの一例を示す図である。4 is a diagram showing an example of functional blocks of an in-loop filtering unit 150 of the image encoding device 100 according to one embodiment; FIG. 一実施形態に係る画像符号化装置100のインループフィルタ処理部150のフィルタ部150Bの機能の一例を説明するための図である。FIG. 4 is a diagram for explaining an example of the function of a filter section 150B of an in-loop filtering section 150 of the image encoding device 100 according to one embodiment; 一実施形態に係る画像符号化装置100のインループフィルタ処理部150のフィルタ部150Bの機能の一例を説明するための図である。FIG. 4 is a diagram for explaining an example of the function of a filter section 150B of an in-loop filtering section 150 of the image encoding device 100 according to one embodiment; 一実施形態に係る画像符号化装置100のインループフィルタ処理部150のフィルタ部150Bの機能の一例を説明するための図である。FIG. 4 is a diagram for explaining an example of the function of a filter section 150B of an in-loop filtering section 150 of the image encoding device 100 according to one embodiment; 一実施形態に係る画像符号化装置100のインループフィルタ処理部150のフィルタ部150Bの機能の一例を説明するための図である。FIG. 4 is a diagram for explaining an example of the function of a filter section 150B of an in-loop filtering section 150 of the image encoding device 100 according to one embodiment; 一実施形態に係る画像復号装置200の機能ブロックの一例を示す図である。2 is a diagram showing an example of functional blocks of an image decoding device 200 according to one embodiment; FIG. 一実施形態に係る画像復号装置200のインループフィルタ処理部250の機能ブロックの一例を示す図である。4 is a diagram showing an example of functional blocks of an in-loop filtering unit 250 of the image decoding device 200 according to one embodiment; FIG. 一実施形態に係る画像復号装置200のインループフィルタ処理部250の処理手順の一例を示すフローチャートである。4 is a flowchart showing an example of a processing procedure of an in-loop filtering unit 250 of the image decoding device 200 according to one embodiment;

以下、本発明の実施の形態について、図面を参照しながら説明する。なお、以下の実施形態における構成要素は、適宜、既存の構成要素等との置き換えが可能であり、また、他の既存の構成要素との組み合わせを含む様々なバリエーションが可能である。したがって、以下の実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that constituent elements in the following embodiments can be appropriately replaced with existing constituent elements and the like, and various variations including combinations with other existing constituent elements are possible. Therefore, the following description of the embodiments is not intended to limit the scope of the invention described in the claims.

(第1実施形態)
以下、図1~図10を参照して、本発明の第1実施形態に係る画像処理システム10について説明する。図1は、本実施形態に係る実施形態に係る画像処理システム10を示す図である。
(First embodiment)
An image processing system 10 according to a first embodiment of the present invention will be described below with reference to FIGS. 1 to 10. FIG. FIG. 1 is a diagram showing an image processing system 10 according to an embodiment according to this embodiment.

図1に示すように、画像処理システム10は、画像符号化装置100及び画像復号装置200を有する。 As shown in FIG. 1 , the image processing system 10 has an image encoding device 100 and an image decoding device 200 .

画像符号化装置100は、入力画像信号を符号化することによって符号化データを生成するように構成されている。画像復号装置200は、符号化データを復号することによって出力画像信号を生成するように構成されている。 The image encoding device 100 is configured to generate encoded data by encoding an input image signal. The image decoding device 200 is configured to generate an output image signal by decoding encoded data.

ここで、かかる符号化データは、画像符号化装置100から画像復号装置200に対して伝送路を介して送信されてもよい。また、符号化データは、記憶媒体に格納された上で、画像符号化装置100から画像復号装置200に提供されてもよい。 Here, such encoded data may be transmitted from the image encoding device 100 to the image decoding device 200 via a transmission path. Also, the encoded data may be stored in a storage medium and then provided from the image encoding device 100 to the image decoding device 200 .

(画像符号化装置100)
以下、図2を参照して、本実施形態に係る画像符号化装置100について説明する。図2は、本実施形態に係る画像符号化装置100の機能ブロックの一例について示す図である。
(Image encoding device 100)
The image coding apparatus 100 according to this embodiment will be described below with reference to FIG. FIG. 2 is a diagram showing an example of functional blocks of the image encoding device 100 according to this embodiment.

図2に示すように、画像符号化装置100は、インター予測部111と、イントラ予測部112と、減算器121と、加算器122と、変換・量子化部131と、逆変換・逆量子化部132と、符号化部140と、インループフィルタ処理部150と、フレームバッファ160とを有する。 As shown in FIG. 2, the image coding apparatus 100 includes an inter prediction unit 111, an intra prediction unit 112, a subtractor 121, an adder 122, a transform/quantization unit 131, an inverse transform/inverse quantization It has a section 132 , an encoding section 140 , an in-loop filtering section 150 and a frame buffer 160 .

インター予測部111は、インター予測(フレーム間予測)によって予測信号を生成するように構成されている。 The inter prediction unit 111 is configured to generate a prediction signal by inter prediction (inter-frame prediction).

具体的には、インター予測部111は、符号化対象のフレーム(以下、対象フレーム)とフレームバッファ160に格納される参照フレームとの比較によって、参照フレームに含まれる参照ブロックを特定し、特定された参照ブロックに対する動きベクトルを決定するように構成されている。 Specifically, the inter prediction unit 111 identifies a reference block included in the reference frame by comparing a frame to be encoded (hereinafter referred to as a target frame) and a reference frame stored in the frame buffer 160, and identifies a reference block included in the reference frame. It is configured to determine a motion vector for the reference block.

また、インター予測部111は、参照ブロック及び動きベクトルに基づいて予測ブロックに含まれる予測信号を予測ブロック毎に生成するように構成されている。インター予測部111は、予測信号を減算器121及び加算器122に出力するように構成されている。ここで、参照フレームは、対象フレームとは異なるフレームである。 Also, the inter prediction unit 111 is configured to generate, for each prediction block, a prediction signal included in the prediction block based on the reference block and motion vector. The inter prediction section 111 is configured to output the prediction signal to the subtractor 121 and the adder 122 . Here, the reference frame is a frame different from the target frame.

イントラ予測部112は、イントラ予測(フレーム内予測)によって予測信号を生成するように構成されている。 The intra prediction unit 112 is configured to generate a prediction signal by intra prediction (intra-frame prediction).

具体的には、イントラ予測部112は、対象フレームに含まれる参照ブロックを特定し、特定された参照ブロックに基づいて予測信号を予測ブロック毎に生成するように構成されている。また、イントラ予測部112は、予測信号を減算器121及び加算器122に出力するように構成されている。 Specifically, the intra prediction unit 112 is configured to identify a reference block included in the target frame and generate a prediction signal for each prediction block based on the identified reference block. Also, the intra prediction unit 112 is configured to output the prediction signal to the subtractor 121 and the adder 122 .

ここで、参照ブロックは、予測対象のブロック(以下、対象ブロック)について参照されるブロックである。例えば、参照ブロックは、対象ブロックに隣接するブロックである。 Here, the reference block is a block that is referred to for a prediction target block (hereinafter referred to as target block). For example, the reference block is a block adjacent to the target block.

減算器121は、入力画像信号から予測信号を減算し、予測残差信号を変換・量子化部131に出力するように構成されている。ここで、減算器121は、イントラ予測又はインター予測によって生成される予測信号と入力画像信号との差分である予測残差信号を生成するように構成されている。 The subtractor 121 is configured to subtract the prediction signal from the input image signal and output the prediction residual signal to the transform/quantization section 131 . Here, the subtractor 121 is configured to generate a prediction residual signal that is a difference between a prediction signal generated by intra prediction or inter prediction and an input image signal.

加算器122は、逆変換・逆量子化部132から出力される予測残差信号に予測信号を加算してフィルタ処理前復号信号を生成し、かかるフィルタ処理前復号信号をイントラ予測部112及びインループフィルタ処理部150に出力するように構成されている。 The adder 122 adds the prediction signal to the prediction residual signal output from the inverse transform/inverse quantization unit 132 to generate a pre-filtering decoded signal. It is configured to output to the loop filter processing unit 150 .

ここで、フィルタ処理前復号信号は、イントラ予測部112で用いる参照ブロックを構成する。 Here, the unfiltered decoded signal constitutes a reference block used in intra prediction section 112 .

変換・量子化部131は、予測残差信号の変換処理を行うとともに、係数レベル値を取得するように構成されている。さらに、変換・量子化部131は、係数レベル値の量子化を行うように構成されていてもよい。 The transform/quantization unit 131 is configured to perform transform processing on the prediction residual signal and to obtain coefficient level values. Further, the transform/quantization unit 131 may be configured to quantize the coefficient level values.

ここで、変換処理は、予測残差信号を周波数成分信号に変換する処理である。かかる変換処理では、離散コサイン変換(DCT;Discrete Cosine Transform)に対応する基底パターン(変換行列)が用いられてもよく、離散サイン変換(DST;Discrete Sine Transform)に対応する基底パターン(変換行列)が用いられてもよい。 Here, transform processing is processing for transforming a prediction residual signal into a frequency component signal. In such transformation processing, a basis pattern (transformation matrix) corresponding to discrete cosine transform (DCT) may be used, and a basis pattern (transformation matrix) corresponding to discrete sine transform (DST) may be used. may be used.

逆変換・逆量子化部132は、変換・量子化部131から出力される係数レベル値の逆変換処理を行うように構成されている。ここで、逆変換・逆量子化部132は、逆変換処理に先立って、係数レベル値の逆量子化を行うように構成されていてもよい。 The inverse transform/inverse quantization unit 132 is configured to perform inverse transform processing on the coefficient level values output from the transform/quantization unit 131 . Here, the inverse transform/inverse quantization unit 132 may be configured to perform inverse quantization of the coefficient level values prior to the inverse transform processing.

ここで、逆変換処理及び逆量子化は、変換・量子化部131で行われる変換処理及び量子化とは逆の手順で行われる。 Here, the inverse transform processing and inverse quantization are performed in the reverse order of the transform processing and quantization performed by the transform/quantization unit 131 .

符号化部140は、変換・量子化部131から出力された係数レベル値を符号化し、符号化データを出力するように構成されている。 The encoding unit 140 is configured to encode the coefficient level values output from the transform/quantization unit 131 and output encoded data.

ここで、例えば、符号化は、係数レベル値の発生確率に基づいて異なる長さの符号を割り当てるエントロピー符号化である。 Here, for example, the coding is entropy coding that assigns codes of different lengths based on the probability of occurrence of coefficient level values.

また、符号化部140は、係数レベル値に加えて、復号処理で用いる制御データを符号化するように構成されている。 In addition to the coefficient level values, the encoding unit 140 is also configured to encode control data used in the decoding process.

ここで、制御データは、符号化ブロック(CU:Coding Unit)サイズ、予測ブロック(PU:Prediction Unit)サイズ、変換ブロック(TU:Transform Unit)サイズ等のサイズデータを含んでもよい。 Here, the control data may include size data such as a coding block (CU: Coding Unit) size, a prediction block (PU: Prediction Unit) size, a transform block (TU: Transform Unit) size, and the like.

インループフィルタ処理部150は、加算器122から出力されるフィルタ処理前復号信号に対してフィルタ処理を行うとともに、フィルタ処理後復号信号をフレームバッファ160に出力するように構成されている。 The in-loop filtering section 150 is configured to perform filtering on the unfiltered decoded signal output from the adder 122 and output the filtered decoded signal to the frame buffer 160 .

また、インループフィルタ処理部150は、入力画像信号とフィルタ処理前復号信号を入力としてフィルタ処理に関するパラメータを決定し、かかるパラメータを符号化部140に出力するように構成されていてもよい。符号化部140は、かかるパラメータを、符号化して画像復号装置200に付加情報として伝送するように構成されていてもよい。 Also, the in-loop filtering unit 150 may be configured to receive the input image signal and the decoded signal before filtering, determine parameters related to filtering, and output the parameters to the encoding unit 140 . The encoding unit 140 may be configured to encode such parameters and transmit them to the image decoding device 200 as additional information.

ここで、例えば、フィルタ処理は、復号画像の符号化歪みを減少する適応ループフィルタ処理である。 Here, for example, the filter processing is adaptive loop filter processing that reduces encoding distortion of a decoded image.

フレームバッファ160は、インター予測部111で用いる参照フレームを蓄積するように構成されている。 The frame buffer 160 is configured to accumulate reference frames used by the inter prediction section 111 .

ここで、フィルタ処理後復号信号は、インター予測部111で用いる参照フレームを構成する。 Here, the filtered decoded signal constitutes a reference frame used in inter prediction section 111 .

(インループフィルタ処理部150)
以下において、本実施形態に係るインループフィルタ処理部150について説明する。図3は、本実施形態に係るインループフィルタ処理部150を示す図である。
(In-loop filtering unit 150)
The in-loop filtering unit 150 according to this embodiment will be described below. FIG. 3 is a diagram showing the in-loop filtering unit 150 according to this embodiment.

図3に示すように、インループフィルタ処理部150は、クラス判定部150Aと、フィルタ部150Bと、パラメータ決定部150Cとを有する。 As shown in FIG. 3, the in-loop filtering unit 150 has a class determining unit 150A, a filtering unit 150B, and a parameter determining unit 150C.

インループフィルタ処理部150は、符号化ツリーブロック(CTU:Coding Tree Unit)単位で、適応ループフィルタ処理の適用又は非適用のいずれかを選択することができる。また、適応ループフィルタ処理が適用される場合は、インループフィルタ処理部150は、複数のフィルタセットのうち、どのフィルタセットを用いるかについて選択することができる。 The in-loop filtering unit 150 can select either application or non-application of adaptive loop filtering for each coding tree block (CTU: Coding Tree Unit). Also, when adaptive loop filtering is applied, in-loop filtering section 150 can select which filter set to use from among a plurality of filter sets.

各フィルタセットは、最大で25種類(クラス)の輝度信号用のフィルタと、1クラスの色差信号用のフィルタとを含む。 Each filter set includes up to 25 types (classes) of luminance signal filters and one class of color difference signal filters.

かかる適応ループフィルタ処理の適用又は非適用に係る情報や適応ループフィルタ処理において用いられるべきフィルタセットに係る情報等を含むパラメータは、後述のように、付加情報としてCTU毎に符号化され、画像復号装置200に伝送される。なお、かかるパラメータは、後述のように、パラメータ決定部150Cによって決定される。 Parameters including information related to application or non-application of adaptive loop filtering, information related to filter sets to be used in adaptive loop filtering, etc. are encoded for each CTU as additional information as described later, and are used for image decoding. It is transmitted to the device 200 . Note that such parameters are determined by the parameter determination unit 150C as described later.

ここで、例えば、入力信号が、「YCbCr4:2:0フォーマット」である場合、CTUは、例えば、輝度(Y)信号を128×128画素サイズ、色差信号(Cb、Cr)を64×64画素サイズにそれぞれ区切った各ブロックと定義してもよい。 Here, for example, when the input signal is in the "YCbCr4:2:0 format", the CTU, for example, has a luminance (Y) signal of 128×128 pixel size and a color difference signal (Cb, Cr) of 64×64 pixel size. You may define it as each block divided into each size.

なお、適応ループフィルタ処理を適用しないと判断されたCTUに属する輝度信号及び色差信号の画素については、後述するクラス判定部150Aによる判定処理及びフィルタ部150Bによるフィルタ処理を省略することができる。 For pixels of luminance signals and color difference signals belonging to CTUs determined not to apply adaptive loop filtering, determination processing by the class determination unit 150A and filtering by the filter unit 150B, which will be described later, can be omitted.

クラス判定部150Aは、フィルタ処理前復号信号を入力として、予め定められた複数種類のフィルタ(適応ループフィルタ)の中から、どの種類(クラス)のフィルタを用いるかについて示すクラス判定情報を出力するように構成されている。 Class determination section 150A receives the unfiltered decoded signal as input, and outputs class determination information indicating which type (class) of filters (adaptive loop filters) is to be used from a plurality of types of predetermined filters (adaptive loop filters). is configured as

ここで、クラス判定部150Aは、フィルタ処理前復号信号を小さなブロックに分割し、かかるブロック毎に、用いるべきクラスを判定するように構成されている。例えば、クラス判定部150Aは、4×4画素ブロックごとに、25種類あるうちのどのクラスのフィルタを用いるべきかについて決定することができる。 Here, the class determining section 150A is configured to divide the unfiltered decoded signal into small blocks and determine the class to be used for each block. For example, the class determination unit 150A can determine which class of 25 types of filters should be used for each 4×4 pixel block.

ここで、クラスの判定方法としては、画像符号化装置100側と画像復号装置200側の両方で得られる情報のみを入力として判定することができる方法で有れば、任意の判定方法を用いることができる。 Here, as a class determination method, any determination method may be used as long as it is a method that can make a determination using only information obtained on both the image encoding device 100 side and the image decoding device 200 side as input. can be done.

例えば、非特許文献1では、フィルタ処理前復号信号の画素値の勾配を用いて、上述のクラスの判定が行われている。画像符号化装置100側と画像復号装置200側の両方で得られる情報のみを用いることで、画像復号装置200側でも画像符号化装置100側と同様なクラスの判定が可能になるため、クラス判定情報を画像符号化装置100側から画像復号装置200側に伝送する必要がなくなる。 For example, in Non-Patent Document 1, the above class determination is performed using the gradient of the pixel values of the pre-filtering decoded signal. By using only the information obtained on both the image encoding device 100 side and the image decoding device 200 side, the image decoding device 200 side can make the same class determination as the image encoding device 100 side. This eliminates the need to transmit information from the image encoding device 100 side to the image decoding device 200 side.

フィルタ部150Bは、フィルタ処理前復号信号を入力とし、フィルタ処理後復号信号を出力するように構成されている。 Filter section 150B is configured to receive the pre-filtering decoded signal and output the post-filtering decoded signal.

具体的には、フィルタ部150Bは、フィルタ処理前復号信号とクラス判定部150Aから出力されるクラス判定情報とパラメータ決定部150Cから入力されるパラメータ(ループフィルタ処理のパラメータ群)とを入力として、フィルタ処理を行い、フィルタ処理後復号信号を出力するように構成されている。 Specifically, the filter unit 150B receives as input the unfiltered decoded signal, the class determination information output from the class determination unit 150A, and the parameters input from the parameter determination unit 150C (parameter group for loop filtering), It is configured to perform filtering and output a filtered decoded signal.

フィルタ処理後復号信号の各画素の値は、例えば、以下の式で算出することができる。 The value of each pixel of the filtered decoded signal can be calculated, for example, by the following equation.

ここで、I(x,y)は、(x,y)の座標にあるフィルタ処理前復号信号の画素値であり、O(x,y)は、(x,y)の座標にあるフィルタ処理後復号信号の画素値であり、(i,j)は、(x,y)の座標にある画素に対する参照画素の相対位置を示す座標(参照画素位置)であり、C(i,j)は、参照画素位置(i,j)に対応するフィルタ係数であり、K()は、以下に示すクリッピング処理であり、k(i,j)は、クリッピング処理で用いられる閾値である。 where I(x,y) is the pixel value of the unfiltered decoded signal at coordinates (x,y), and O(x,y) is the filtered pixel value at coordinates (x,y). is the pixel value of the post-decoded signal, (i, j) is the coordinates (reference pixel position) indicating the relative position of the reference pixel with respect to the pixel at the coordinates (x, y), and C(i, j) is , is the filter coefficient corresponding to the reference pixel position (i,j), K( ) is the clipping process described below, and k(i,j) is the threshold used in the clipping process.

K(I,k)=min(k,max(-k,I))
ここで、min()は、引数内の最小値を返す関数であり、max()は、引数内の最大値を返す関数である。したがって、K()は、入力値Iが-kより小さい場合は-kを返し、入力値Iがkより大きい場合はkを返し、それ以外は入力値Iをそのまま返す処理である。
K(I,k)=min(k,max(-k,I))
Here, min() is a function that returns the minimum value in its arguments, and max() is a function that returns the maximum value in its arguments. Therefore, K( ) is a process that returns -k if the input value I is less than -k, returns k if the input value I is greater than k, and returns the input value I as is otherwise.

すなわち、フィルタ部150Bは、参照画素値I(x+i,y+j)とフィルタ処理前復号信号の画素値I(x,y)との差分値の絶対値が予め定義した閾値k(i,j)以下となるように、フィルタ処理前復号信号に対するクリッピング処理を施すように構成されている。 That is, the filter unit 150B sets the absolute value of the difference between the reference pixel value I(x+i, y+j) and the pixel value I(x, y) of the decoded signal before filtering to a predetermined threshold value k(i, j) or less. The clipping process is applied to the pre-filtering decoded signal so that

また、フィルタ部150Bは、クリッピング処理が施された後の値とフィルタ処理前復号信号の画素値I(x,y)との線形加重和によってフィルタ処理後復号信号を生成するように構成されている。 Further, the filter unit 150B is configured to generate the post-filtering decoded signal by linearly weighting the sum of the value after the clipping process and the pixel value I(x, y) of the pre-filtering decoded signal. there is

フィルタ係数Cは、パラメータ決定部150Cで決定され、画像復号装置200側に伝送される。フィルタ係数Cに係る情報の符号量を削減するため、複数の画素に同一のフィルタ係数Cを適用することとして、フィルタ係数Cの数を削減することができる。図4に、具体例を示す。 The filter coefficient C is determined by the parameter determination unit 150C and transmitted to the image decoding device 200 side. In order to reduce the code amount of information related to the filter coefficients C, the number of filter coefficients C can be reduced by applying the same filter coefficients C to a plurality of pixels. FIG. 4 shows a specific example.

図4(a)は、輝度信号のフィルタ処理におけるフィルタ係数Cの配置の例を示し、図4(b)は、色差信号のフィルタ処理におけるフィルタ係数Cの配置の例を示す。 FIG. 4(a) shows an example of the arrangement of filter coefficients C in the luminance signal filtering process, and FIG. 4(b) shows an example of the arrangement of the filter coefficients C in the color difference signal filtering process.

図4(a)に示すように、例えば、輝度信号では、12種類のフィルタ係数C0~C11が用いられる。図4(a)において、Xと記載された画素は、かかるフィルタ処理によって画素値が補正される画素位置(x,y)である。画素位置(x,y)を中心にして、同一のフィルタ係数Cが適用される画素が点対称に配置されている。 As shown in FIG. 4A, for example, the luminance signal uses 12 types of filter coefficients C0 to C11. In FIG. 4(a), pixels marked with X are pixel positions (x, y) whose pixel values are corrected by such filtering. Pixels to which the same filter coefficient C is applied are arranged point-symmetrically around the pixel position (x, y).

図4(b)に示すように、色差信号についても、同様に、Xと記載された画素を中心に、その他のフィルタ係数が点対称に配置されている。 As shown in FIG. 4B, for the color difference signal, similarly, the other filter coefficients are arranged point-symmetrically around the pixel marked with X. As shown in FIG.

例えば、参照画素がピクチャ外の画素である場合、ピクチャ境界に位置するフィルタ処理前復号信号の画素値をコピー(パディングと呼ぶ)することで、フィルタ処理を実現できる。 For example, when the reference pixel is a pixel outside the picture, the filtering process can be realized by copying (referred to as padding) the pixel value of the pre-filtering decoded signal positioned at the picture boundary.

ここで、図5に、ピクチャの下端(ピクチャ境界)におけるフィルタ処理の一例について示す。 Here, FIG. 5 shows an example of filtering at the bottom end of a picture (picture boundary).

図5(a)において、グレーアウトされているフィルタ係数C0~C3は、ピクチャ外の画素を参照している。この時、グレーアウトされているフィルタ係数C2及びC0への入力としては、図5(a)においてフィルタ係数C2の直上に配置されているフィルタ係数C6に対応する画素値と同じ画素値が用いられる。 In FIG. 5(a), the grayed out filter coefficients C0 to C3 refer to pixels outside the picture. At this time, as inputs to the grayed-out filter coefficients C2 and C0, the same pixel value as the pixel value corresponding to the filter coefficient C6 arranged immediately above the filter coefficient C2 in FIG. 5A is used.

同様に、グレーアウトされているフィルタ係数C3への入力としては、図5(a)においてフィルタ係数C3の直上に配置されているフィルタ係数C7に対応する画素値と同じ画素値が用いられ、グレーアウトされているフィルタ係数C1への入力としては、図5(a)においてフィルタ係数C1の直上に配置されているフィルタ係数C5に対応する画素値と同じ画素値が用いられる。 Similarly, as an input to the grayed out filter coefficient C3, the same pixel value as the pixel value corresponding to the filter coefficient C7 arranged immediately above the filter coefficient C3 in FIG. As an input to the filter coefficient C1, the same pixel value as the pixel value corresponding to the filter coefficient C5 arranged immediately above the filter coefficient C1 in FIG. 5A is used.

また、上述したフィルタ係数Cの点対称性を考慮して、参照画素の一部にパディングした値が用いられる場合、かかる参照画素に対応する位置のフィルタ係数Cへの入力としてパディングした値を用いることもできる。 Further, in consideration of the point symmetry of the filter coefficient C described above, when a padded value is used for a part of the reference pixel, the padded value is used as an input to the filter coefficient C at the position corresponding to the reference pixel. can also

図5(b)の例では、図5(a)の例で説明したピクチャの下端におけるフィルタ処理に加えて、グレーアウトされているフィルタ係数C0~C3についてもパディングした値を入力としてもよい。 In the example of FIG. 5B, in addition to the filtering process at the bottom end of the picture described in the example of FIG.

例えば、図5(b)におけるフィルタ係数C0及びC2への入力としては、フィルタ係数C2の直下のフィルタ係数C6に対応する画素値をパディングして用いてもよい。 For example, as inputs to the filter coefficients C0 and C2 in FIG. 5B, the pixel value corresponding to the filter coefficient C6 immediately below the filter coefficient C2 may be padded and used.

同様に、フィルタ係数C1及びC3の入力についても、それぞれフィルタ係数C1及びC3の直下のフィルタ係数C5及びC7に対応する画素値をパディングして用いてもよい。 Similarly, for the input of the filter coefficients C1 and C3, pixel values corresponding to the filter coefficients C5 and C7 immediately below the filter coefficients C1 and C3 may be padded and used.

上述の例では、ピクチャの下端におけるフィルタ処理について説明したが、同様のフィルタ処理について、ピクチャの上端及び左右端で適用することが可能である。 Although the above example describes filtering at the bottom edge of the picture, similar filtering can be applied at the top and left and right edges of the picture.

また、ピクチャ境界のみでなく、スライスやタイルと呼ばれる符号化の並列処理単位の境界や、仮想境界と呼ばれるパイプライン処理上の境界等、境界の先の画素値が参照できない状況であれば、上述のフィルタ処理の方法を適用して同様に対処することができる。 In addition to picture boundaries, if the pixel values beyond the boundaries cannot be referenced, such as the boundaries of parallel processing units for encoding called slices and tiles, and the boundaries of pipeline processing called virtual boundaries, can be similarly addressed by applying the filtering method of .

なお、上述のピクチャ境界やタイル境界やスライス境界や仮想境界等の境界におけるフィルタ処理を同一の処理としておくことで、各境界に対して処理が異なる場合と比較して実装が簡素化できる。 By performing the same filter processing on boundaries such as picture boundaries, tile boundaries, slice boundaries, virtual boundaries, etc., the implementation can be simplified compared to the case where each boundary is processed differently.

また、クリッピング処理で用いられる閾値は、フィルタのクラス毎及びフィルタ係数C毎に、それぞれ設定される。 Also, the threshold used in the clipping process is set for each filter class and for each filter coefficient C, respectively.

例えば、輝度信号用のフィルタが25クラスあり、上述のように、各クラスのフィルタ係数Cが12種類ある場合、最大で25×12=300のフィルタ係数に対する閾値をそれぞれ設定する必要がある。かかる閾値は、後述するパラメータ決定部150Cで決定され、付加情報として画像復号装置200側に伝送される。 For example, if there are 25 classes of luminance signal filters and 12 types of filter coefficients C for each class as described above, it is necessary to set threshold values for 25×12=300 filter coefficients at maximum. Such a threshold value is determined by a parameter determination unit 150C, which will be described later, and transmitted to the image decoding device 200 side as additional information.

ここで、かかる閾値に係る情報に係る符号量を低減するために、かかる閾値に係る情報として、閾値そのものを伝送するのではなく、予め定めておいた数種類の閾値のうち、フィルタ係数毎にどの閾値を用いるかを示すインデックス(index)情報のみを符号化することもできる。 Here, in order to reduce the code amount related to the information related to the threshold, instead of transmitting the threshold itself as the information related to the threshold, which of several types of predetermined thresholds is selected for each filter coefficient. It is also possible to encode only index information indicating whether to use a threshold.

また、輝度信号用の閾値及び色差信号用の閾値をそれぞれ予め4種類用意しておく場合、輝度信号用の閾値及び色差信号用の閾値は、例えば、図6(a)のように定義することができる。 Further, when four types of threshold values for the luminance signal and four types of threshold values for the color difference signals are prepared in advance, the threshold values for the luminance signal and the threshold values for the color difference signals are defined as shown in FIG. 6A, for example. can be done.

輝度信号の分散は、色差信号の分散よりも大きくなる傾向があるため、図6(a)に示すように、輝度信号用の閾値が色差信号用の閾値以上になるように設定することで、各信号の特性を考慮したクリッピング処理が可能となる。 Since the variance of the luminance signal tends to be larger than the variance of the color difference signal, as shown in FIG. Clipping processing can be performed in consideration of the characteristics of each signal.

すなわち、図6(a)のように、内部ビット深度(図6内の「bitdepth」)が変化しても、輝度信号用の閾値と色差信号用の閾値との大小関係(例えば、輝度信号用の閾値が色差信号用の閾値以上である関係)が保存されるように定義されている。 That is, as shown in FIG. 6A, even if the internal bit depth ("bitdepth" in FIG. 6) changes, the magnitude relationship between the threshold for the luminance signal and the threshold for the color difference signal (for example, is greater than or equal to the threshold for the color difference signal) is preserved.

また、図6(a)のように、輝度信号用の閾値と色差信号用の閾値は、内部ビット深度の変化に応じて、それぞれ同じ倍率の値を掛けることで算出されるように定義されていてもよい。かかる構成によれば、内部ビット深度が変化しても輝度信号用の閾値と色差信号用の閾値との大小関係を保存し、内部ビット深度に関わらずに同様のクリッピング処理を行うことができる。 Also, as shown in FIG. 6A, the threshold for the luminance signal and the threshold for the color difference signal are defined to be calculated by multiplying each by the same multiplying value according to the change in the internal bit depth. may According to such a configuration, even if the internal bit depth changes, the magnitude relationship between the luminance signal threshold and the color difference signal threshold can be preserved, and similar clipping processing can be performed regardless of the internal bit depth.

ここで、内部ビット深度は、符号化処理及び復号処理中に輝度信号及び色差信号の画素値を演算する際のビット精度を意味している。かかる内部ビット深度は、例えば、8~16ビットの整数値を取り、画像符号化装置100側から付加情報として画像復号装置200側に伝送される。 Here, the internal bit depth means the bit precision when calculating the pixel values of the luminance signal and the color difference signal during the encoding process and the decoding process. Such internal bit depth takes an integer value of 8 to 16 bits, for example, and is transmitted from the image encoding device 100 side to the image decoding device 200 side as additional information.

また、図6(a)のように、内部ビット深度に関連する倍率を2のべき乗で定義しておくことで、かかるクリッピング処理を、図6(b)のようにビットシフトのみで実現でき、ハードウェアやソフトウェアにおける処理負荷が軽減できる。 Also, as shown in FIG. 6(a), by defining the scaling factor related to the internal bit depth as a power of 2, such clipping processing can be realized only by bit shifting as shown in FIG. 6(b). The processing load on hardware and software can be reduced.

すなわち、輝度信号用の閾値及び色差信号用の閾値は、内部ビット深度の変化に応じて、それぞれビットシフトされることで算出されるように定義されていてもよい。 That is, the threshold for luminance signal and the threshold for color difference signal may be defined so as to be calculated by bit-shifting according to changes in the internal bit depth.

なお、図6(a)及び図6(b)におけるインデックス0に対応する閾値は、対応する内部ビット深度で表現できる最大値と同じ値である。よって、かかる閾値を選択することにより、かかる閾値に対応するフィルタ係数Cでは、実質、クリッピング処理を行わないことと等価になる。 Note that the threshold value corresponding to index 0 in FIGS. 6A and 6B is the same value as the maximum value that can be represented by the corresponding internal bit depth. Therefore, by selecting such a threshold, the filter coefficient C corresponding to such a threshold is substantially equivalent to not performing clipping processing.

上述の例と同様な効果を得るには、上述のように、全ての閾値に対する倍率を同じ値にする必要はない。予め定められた内部ビット深度の定義域(例えば、8~16ビット)において、輝度信号内及び色差信号内では、それぞれ各インデックスに対応する閾値の大小関係が逆転せず、また、輝度信号と色差信号との間では、同一のインデックスに対応する閾値の大小関係が逆転しないことが保証される形であれば、各閾値に対する倍率をそれぞれ違う値としても問題ない。 In order to obtain the same effect as the above example, it is not necessary to set the same value for all thresholds as described above. In a predetermined internal bit depth domain (for example, 8 to 16 bits), the magnitude relationship of the thresholds corresponding to each index is not reversed in the luminance signal and the color difference signal, and the luminance signal and the color difference signal are not reversed. As long as it is guaranteed that the magnitude relationship of the thresholds corresponding to the same index is not reversed between the signals, there is no problem even if the magnification for each threshold is set to a different value.

なお、それぞれ0~N-1のインデックスが割り当てられたN種類(Nは、1以上の自然数)の輝度信号用の閾値及び色差信号用の閾値が設けられている場合、同一のインデックスを有する輝度信号用の閾値及び色差信号用の閾値は、内部ビット深度に応じて同じ倍率を掛けすることによって算出されるように定義されていてもよい。 When there are N kinds of luminance signal thresholds and chrominance signal thresholds (N is a natural number equal to or greater than 1) each assigned an index of 0 to N-1, luminance having the same index The threshold for the signal and the threshold for the color difference signal may be defined to be calculated by multiplying the same scale factor according to the internal bit depth.

また、上述の例では、内部ビット深度に応じて閾値に倍率を掛ける場合について説明したが、倍率ではなくオフセット値を加算する処理であってもよい。 Also, in the above example, the case where the threshold value is multiplied by the scaling factor according to the internal bit depth has been described, but processing may be performed in which an offset value is added instead of the scaling factor.

なお、輝度信号の内部ビット深度と色差信号の内部ビット深度とが異なる場合においても、図6のように、輝度信号用の閾値及び色差信号用の閾値をそれぞれ定義しておくことで、輝度信号及び色差信号のダイナミックレンジが同じになるように換算した場合に、輝度信号と色差信号との間でのクリッピング処理において用いられる閾値の大小関係が常に変わらないように定義することができる。 Note that even when the internal bit depth of the luminance signal and the internal bit depth of the color difference signal are different, by defining the threshold for the luminance signal and the threshold for the color difference signal as shown in FIG. And when converted so that the dynamic ranges of the color difference signals are the same, the magnitude relationship of the thresholds used in the clipping process between the luminance signal and the color difference signal can be defined so as not to always change.

また、上述の例では、クラス毎及びフィルタ係数C毎に閾値を設定する場合について説明したが、例えば、クラス毎に全てのフィルタ係数Cに同じ閾値を設定する、すなわち、クラス毎に閾値を1つずつ設定するという方法も可能である。この場合、伝送すべき閾値の数が減るため、閾値のインデックスに関する符号量を削減できる。 Further, in the above example, the case where the threshold is set for each class and for each filter coefficient C has been described. A method of setting them one by one is also possible. In this case, since the number of thresholds to be transmitted is reduced, the amount of code associated with the threshold index can be reduced.

また、後述するように、クラス毎にクリッピング処理を施すか否かについて示すフラグを、閾値のインデックスに先立って伝送するため、クラス毎に閾値が一種類しかない場合は、上述のインデックス0に対応する閾値(クリッピング処理無しと等価)を定義する必要がなくなる。よって、上述の例では、閾値の取り得るパターンを4種類から3種類に低減することができるため、閾値のインデックスに関する符号量の更なる低減が見込める。 In addition, as will be described later, a flag indicating whether or not clipping processing is to be performed for each class is transmitted prior to the threshold index. It is no longer necessary to define a threshold value (equivalent to no clipping processing). Therefore, in the above-described example, the number of patterns that the threshold can take can be reduced from four to three, so that a further reduction in the amount of code associated with the index of the threshold can be expected.

上述の例では、輝度信号用の閾値及び色差信号用の閾値に異なる値を設定する場合を説明したが、両者を同じ値とすることもできる。これにより、例えば、ハードウェアにおいて輝度信号及び色差信号のクリッピング処理に関する回路を共通化することができ、回路規模を削減できる。 In the above example, the case where different values are set for the threshold value for the luminance signal and the threshold value for the color difference signal has been described, but both may be set to the same value. As a result, for example, a circuit related to clipping processing of the luminance signal and the color difference signal can be shared in hardware, and the circuit scale can be reduced.

また、輝度信号用の閾値及び色差信号用の閾値は、内部ビット深度が10ビットの場合を基準として、現在の内部ビット深度に応じて演算を行うことによって算出されるように定義されていてもよい。 Further, even if the threshold value for the luminance signal and the threshold value for the color difference signal are defined to be calculated by performing calculations according to the current internal bit depth based on the case where the internal bit depth is 10 bits, good.

例えば、図6(a)では、輝度信号の10ビット時の閾値が1024、181、32、6の4種類であり、色差信号の10ビット時の閾値が1024、161、25、4の4種類であった場合を基準に、現在の内部ビット深度(図6におけるbitdepth)の値に応じて2のべき乗を乗じて最終的な閾値を得る場合の例が示されている。 For example, in FIG. 6A, there are four thresholds of 1024, 181, 32, and 6 when the luminance signal is 10 bits, and four thresholds of 1024, 161, 25, and 4 when the color difference signal is 10 bits. An example of obtaining the final threshold value by multiplying the value of the current internal bit depth (bitdepth in FIG. 6) by a power of 2 is shown.

ここで、図6では、10ビット時の閾値を具体的な数値(1024、181…等)で表しているが、これは、数式の形で定義されていてもよい。 Here, in FIG. 6, the threshold value for 10 bits is represented by a specific numerical value (1024, 181, etc.), but this may be defined in the form of a formula.

例えば、図7に示すように、輝度信号の10ビット時の閾値を「2^(10(10×(4-index)/4) (ここで、index=0,1,2,3))として、それに「2^(bitdepth-10)」を乗じることで、現在の内部ビット深度に応じた最終的な閾値を得るように定義されていてもよい。 For example, as shown in FIG. 7, the threshold for 10-bit luminance signal is set to "2^(10(10×(4-index)/4) (here, index=0, 1, 2, 3)). , and multiplied by "2^(bitdepth-10)" to obtain a final threshold according to the current internal bit depth.

図7に示す色差信号の定義も同様に、「2^(8×(3-index)/4)×2^(2)」が10ビット時の閾値であり、それに「2^(bitdepth-10)」を乗じることで、現在の内部ビット深度に応じた閾値を算出していると考えることができる。 Similarly, the definition of the color difference signal shown in FIG. )”, it can be considered that the threshold corresponding to the current internal bit depth is calculated.

パラメータ決定部150Cは、入力画像信号及びフィルタ処理前復号信号を入力とし、適応ループフィルタに関するパラメータを決定して符号化部140に付加情報として出力するとともに、決定したパラメータをフィルタ部150Bへ出力するように構成されている。 The parameter determination unit 150C receives the input image signal and the pre-filtering decoded signal, determines parameters related to the adaptive loop filter, and outputs them as additional information to the encoding unit 140, and outputs the determined parameters to the filter unit 150B. is configured as

パラメータ決定部150Cによって決定されるパラメータには、例えば、以下のものが含まれる。 Parameters determined by the parameter determination unit 150C include, for example, the following.

第1に、かかるパラメータとして、フレーム単位でのフィルタセットが挙げられる。ここで、1つのフィルタセットには、最大25クラス分の輝度信号用のフィルタ及び1クラス分の色差信号用のフィルタが含まれる。各クラスのフィルタについて、フィルタ係数の値や、クリッピング処理を施すか否について示すフラグや、かかるクラスでクリッピング処理を施す場合に各フィルタ係数におけるクリッピング処理で用いられる閾値のインデックス等が決定される。 First, such parameters include filter sets on a per-frame basis. Here, one filter set includes a maximum of 25 classes of luminance signal filters and one class of color difference signal filters. For each class of filter, a filter coefficient value, a flag indicating whether clipping processing is to be performed, a threshold index used in clipping processing for each filter coefficient when clipping processing is performed in this class, and the like are determined.

パラメータ決定部150Cは、あるフレームに対して複数のフィルタセットを持っておき、後述のように、領域毎にどのフィルタセットを用いるかについて選択することができる。 The parameter determination unit 150C can prepare a plurality of filter sets for a certain frame and select which filter set to use for each region as described later.

第2に、かかるパラメータとして、例えば、CTU毎の適応ループフィルタを適用するか否かについて示すフラグが挙げられる。なお、パラメータ決定部150Cは、適応ループフィルタが適用される場合は、複数のフィルタセットの中のどれを用いるかについて示すインデックス情報を設定することができる。 Secondly, such parameters include, for example, a flag indicating whether to apply an adaptive loop filter for each CTU. Note that, when an adaptive loop filter is applied, parameter determination section 150C can set index information indicating which of the plurality of filter sets is to be used.

なお、かかるパラメータの決定方法については、公知の方法を用いることができるため、詳細は省略する。 Note that a known method can be used as a method for determining such parameters, so details thereof will be omitted.

また、図3には図示していないが、パラメータ決定部150Cは、パラメータの決定に、クラス判定部150Aによる判定結果や、仮のパラメータ設定で実施したフィルタ部150Bの結果を用いてもよい。 Although not shown in FIG. 3, the parameter determination unit 150C may use the determination result of the class determination unit 150A or the result of the filter unit 150B performed with provisional parameter settings to determine the parameters.

(画像復号装置200)
以下、図7を参照して、本実施形態に係る画像復号装置200について説明する。図7は、本実施形態に係る画像復号装置200の機能ブロックの一例について示す図である。
(Image decoding device 200)
The image decoding device 200 according to this embodiment will be described below with reference to FIG. FIG. 7 is a diagram showing an example of functional blocks of the image decoding device 200 according to this embodiment.

図7に示すように、画像復号装置200は、復号部210と、逆変換・逆量子化部220と、加算器230と、インター予測部241と、イントラ予測部242と、インループフィルタ処理部250と、フレームバッファ260とを有する。 As shown in FIG. 7, the image decoding device 200 includes a decoding unit 210, an inverse transform/inverse quantization unit 220, an adder 230, an inter prediction unit 241, an intra prediction unit 242, and an in-loop filtering unit. 250 and a frame buffer 260 .

復号部210は、画像符号化装置100によって生成される符号化データを復号し、係数レベル値を復号するように構成されている。 The decoding unit 210 is configured to decode the encoded data generated by the image encoding device 100 and decode the coefficient level values.

ここで、例えば、復号は、符号化部140で行われるエントロピー符号化とは逆の手順のエントロピー復号である。 Here, for example, the decoding is entropy decoding in a procedure opposite to the entropy encoding performed by the encoding unit 140 .

また、復号部210は、符号化データの復号処理によって制御データを取得するように構成されていてもよい。 Further, the decoding unit 210 may be configured to acquire the control data by decoding the encoded data.

なお、上述したように、制御データは、符号化ブロックサイズ、予測ブロックサイズ、変換ブロックサイズ等のサイズデータを含んでもよい。 Note that, as described above, the control data may include size data such as the encoding block size, prediction block size, transform block size, and the like.

逆変換・逆量子化部220は、復号部210から出力される係数レベル値の逆変換処理を行うように構成されている。ここで、逆変換・逆量子化部220は、逆変換処理に先立って、係数レベル値の逆量子化を行うように構成されていてもよい。 The inverse transform/inverse quantization unit 220 is configured to perform inverse transform processing on the coefficient level values output from the decoding unit 210 . Here, the inverse transform/inverse quantization unit 220 may be configured to perform inverse quantization of the coefficient level values prior to the inverse transform processing.

ここで、逆変換処理及び逆量子化は、変換・量子化部131で行われる変換処理及び量子化とは逆の手順で行われる。 Here, the inverse transform processing and inverse quantization are performed in the reverse order of the transform processing and quantization performed by the transform/quantization unit 131 .

加算器230は、逆変換・逆量子化部220から出力される予測残差信号に予測信号を加算してフィルタ処理前復号信号を生成し、フィルタ処理前復号信号をイントラ予測部242及びインループフィルタ処理部250に出力するように構成されている。 The adder 230 adds the prediction signal to the prediction residual signal output from the inverse transform/inverse quantization unit 220 to generate a pre-filtering decoded signal. It is configured to output to the filter processing unit 250 .

ここで、フィルタ処理前復号信号は、イントラ予測部242で用いる参照ブロックを構成する。 Here, the unfiltered decoded signal constitutes a reference block used in intra prediction section 242 .

インター予測部241は、インター予測部111と同様に、インター予測(フレーム間予測)によって予測信号を生成するように構成されている。 Like the inter prediction section 111, the inter prediction section 241 is configured to generate a prediction signal by inter prediction (inter-frame prediction).

具体的には、インター予測部241は、符号化データから復号した動きベクトルと参照フレームに含まれる参照信号とに基づいて予測信号を予測ブロック毎に生成するように構成されている。インター予測部241は、予測信号を加算器230に出力するように構成されている。 Specifically, the inter prediction unit 241 is configured to generate a prediction signal for each prediction block based on a motion vector decoded from encoded data and a reference signal included in a reference frame. The inter prediction section 241 is configured to output a prediction signal to the adder 230 .

イントラ予測部242は、イントラ予測部112と同様に、イントラ予測(フレーム内予測)によって予測信号を生成するように構成されている。 The intra prediction unit 242, like the intra prediction unit 112, is configured to generate a prediction signal by intra prediction (intra-frame prediction).

具体的には、イントラ予測部242は、対象フレームに含まれる参照ブロックを特定し、特定された参照ブロックに基づいて予測信号を予測ブロック毎に生成するように構成されている。イントラ予測部242は、予測信号を加算器230に出力するように構成されている。 Specifically, the intra prediction unit 242 is configured to identify a reference block included in the target frame and generate a prediction signal for each prediction block based on the identified reference block. The intra prediction section 242 is configured to output the prediction signal to the adder 230 .

インループフィルタ処理部250は、インループフィルタ処理部150と同様に、加算器230から出力されるフィルタ処理前復号信号に対してフィルタ処理を行うとともに、フィルタ処理後復号信号をフレームバッファ260に出力するように構成されている。 Similar to in-loop filtering section 150, in-loop filtering section 250 performs filtering on the unfiltered decoded signal output from adder 230, and outputs the filtered decoded signal to frame buffer 260. is configured to

ここで、例えば、フィルタ処理は、復号画像の符号化歪みを減少する適応ループフィルタ処理である。 Here, for example, the filter processing is adaptive loop filter processing that reduces encoding distortion of a decoded image.

フレームバッファ260は、フレームバッファ160と同様に、インター予測部241で用いる参照フレームを蓄積するように構成されている。 The frame buffer 260, like the frame buffer 160, is configured to accumulate reference frames used by the inter prediction section 241. FIG.

ここで、フィルタ処理後復号信号は、インター予測部241で用いる参照フレームを構成する。 Here, the decoded signal after filtering constitutes a reference frame used in the inter prediction section 241 .

(インループフィルタ処理部250)
以下において、本実施形態に係るインループフィルタ処理部250について説明する。図9は、本実施形態に係るインループフィルタ処理部250を示す図である。
(In-loop filtering unit 250)
The in-loop filtering unit 250 according to this embodiment will be described below. FIG. 9 is a diagram showing the in-loop filtering unit 250 according to this embodiment.

図9に示すように、インループフィルタ処理部250は、クラス判定部250Aと、フィルタ部250Bとを有する。 As shown in FIG. 9, the in-loop filtering section 250 has a class determining section 250A and a filtering section 250B.

クラス判定部250Aは、クラス判定部150Aと同様に、フィルタ処理前復号信号を入力とし、予め定められた複数種類のインループフィルタの中から、どのクラスのフィルタを用いるかというクラス判定情報を出力するように構成されている。 Class determination section 250A, like class determination section 150A, receives the unfiltered decoded signal as input, and outputs class determination information indicating which class of in-loop filter is to be used from among a plurality of types of predetermined in-loop filters. is configured to

フィルタ部250Bは、フィルタ部150Bと同様に、フィルタ処理前復号信号とクラス判定部250Aで決定されたクラス判定情報と画像符号化装置100側から付加情報として伝送されてくるパラメータとに基づいて、フィルタ処理を実行し、フィルタ処理後復号信号を出力するように構成されている。 Similar to the filter unit 150B, the filter unit 250B, based on the unfiltered decoded signal, the class determination information determined by the class determination unit 250A, and the parameters transmitted as additional information from the image coding apparatus 100 side, It is configured to perform filtering and output a filtered decoded signal.

図10は、本実施形態に係る画像復号装置200のインループフィルタ処理部250の処理手順の一例を示すフローチャートである。 FIG. 10 is a flowchart showing an example of the processing procedure of the in-loop filtering unit 250 of the image decoding device 200 according to this embodiment.

図10に示すように、ステップS101において、インループフィルタ処理部250は、フィルタ処理前復号信号を入力とし、予め定められた複数種類のインループフィルタの中から、どのクラスのフィルタを用いるかというクラス判定情報を出力する。 As shown in FIG. 10, in step S101, the in-loop filtering unit 250 receives the pre-filtering decoded signal, and selects which class of filter to use from among a plurality of types of predetermined in-loop filters. Output class determination information.

ステップS102において、インループフィルタ処理部250は、フィルタ処理前復号信号とクラス判定部250Aで決定されたクラス判定情報と画像符号化装置100側から付加情報として伝送されてくるパラメータとに基づいて、フィルタ処理を実行し、フィルタ処理後復号信号を出力する。 In step S102, the in-loop filtering unit 250, based on the unfiltered decoded signal, the class determination information determined by the class determination unit 250A, and the parameter transmitted as additional information from the image coding apparatus 100 side, Filter processing is performed, and a filtered decoded signal is output.

本実施形態に係る画像符号化装置100及び画像復号装置200によれば、適応内挿フィルタの入力信号の閾値処理に関して、内部ビット深度の設定に関わらず、輝度信号及び色差信号のダイナミックレンジが同じになるように換算した際に、輝度信号用の閾値と色差信号用の閾値との大小関係が不変になるため、意図せず主観画質の特性が変化してしまうことを防ぐことができる。 According to the image encoding device 100 and the image decoding device 200 according to the present embodiment, regarding the threshold processing of the input signal of the adaptive interpolation filter, the dynamic range of the luminance signal and the color difference signal is the same regardless of the setting of the internal bit depth. , the magnitude relationship between the threshold value for the luminance signal and the threshold value for the color difference signal is unchanged, so that it is possible to prevent the characteristics of the subjective image quality from changing unintentionally.

なお、上述の画像符号化装置100及び画像復号装置200は、コンピュータに各機能(各工程)を実行させるプログラムであって実現されていてもよい。 Note that the image encoding device 100 and the image decoding device 200 described above may be implemented as a program that causes a computer to execute each function (each process).

なお、上述の実施形態では、本発明を画像符号化装置100及び画像復号装置200への適用を例にして説明したが、本発明は、かかる例に限定されるものではなく、画像符号化装置100及び画像復号装置200の各機能を備えた画像符号化/復号システムにも同様に適用できる。 In the above-described embodiment, the present invention is applied to the image encoding device 100 and the image decoding device 200 as examples, but the present invention is not limited to such an example, and can be applied to the image encoding device. 100 and an image encoding/decoding system having each function of the image decoding apparatus 200.

10…画像処理システム
100…画像符号化装置
111、241…インター予測部
112、242…イントラ予測部
121…減算器
122、230…加算器
131…変換・量子化部
132、220…逆変換・逆量子化部
140…符号化部
150、250…インループフィルタ処理部
150A、250A…クラス判定部
150B、250B…フィルタ部
150C…パラメータ決定部
160、260…フレームバッファ
200…画像復号装置
210…復号部
DESCRIPTION OF SYMBOLS 10... Image processing system 100... Image encoding apparatus 111, 241... Inter prediction part 112, 242... Intra prediction part 121... Subtractor 122, 230... Adder 131... Transform/quantization part 132, 220... Inverse transform/inverse Quantization unit 140 Encoding units 150, 250 In-loop filtering units 150A, 250A Class determination units 150B, 250B Filter unit 150C Parameter determination units 160, 260 Frame buffer 200 Image decoding device 210 Decoding unit

Claims (3)

画像復号装置であって、
フィルタ処理前復号信号を入力として、どのクラスのフィルタを用いるかについて判定するように構成されているクラス判定部と、
前記クラス毎にフィルタ係数を決定するように構成されているパラメータ決定部と、
前記フィルタ処理前復号信号を入力とし、フィルタ処理後復号信号を出力するように構成されているフィルタ部を備え、
前記フィルタ部は、参照画素値と前記フィルタ処理前復号信号の画素値との差分値の絶対値が予め定義した閾値以下となるように、前記参照画素値と前記フィルタ処理前復号信号の画素値との差分値に対するクリッピング処理を施し、前記クリッピング処理が施された後の値と前記フィルタ係数と前記フィルタ処理前復号信号の画素値との線形加重和によって前記フィルタ処理後復号信号を生成するように構成されており、
前記閾値は、前記クラス毎及び前記フィルタ係数毎に設定され、
内部ビット深度が変化しても、輝度信号用の前記閾値と色差信号用の前記閾値との大小関係が保存されるように定義されており、
内部ビット深度が1だけ大きくなると、前記閾値は2倍となるように定義されていることを特徴とする画像復号装置。
An image decoding device,
a class determination unit configured to determine which class of filter to use based on the unfiltered decoded signal;
a parameter determination unit configured to determine a filter coefficient for each class;
A filter unit configured to receive the pre-filtering decoded signal as an input and output a post-filtering decoded signal,
The filter section controls the reference pixel value and the pixel value of the pre-filter decoded signal so that an absolute value of a difference value between the reference pixel value and the pixel value of the pre-filter decoded signal is equal to or less than a predetermined threshold value. and generating the post-filter decoded signal by linearly weighting the sum of the value after the clipping, the filter coefficient, and the pixel value of the pre-filter decoded signal. is configured to
The threshold is set for each class and each filter coefficient,
is defined so that the magnitude relationship between the threshold for the luminance signal and the threshold for the color difference signal is preserved even if the internal bit depth changes,
An image decoding apparatus, wherein the threshold is doubled when the internal bit depth is increased by one.
画像復号方法であって、
フィルタ処理前復号信号を入力として、どのクラスのフィルタを用いるかについて判定する工程Aと、
前記クラス毎にフィルタ係数を決定する工程Bと、
前記フィルタ処理前復号信号を入力とし、フィルタ処理後復号信号を出力する工程Cとを有し、
前記工程Cにおいて、参照画素値と前記フィルタ処理前復号信号の画素値との差分値の絶対値が予め定義した閾値以下となるように、前記参照画素値と前記フィルタ処理前復号信号の画素値との差分値に対するクリッピング処理を施し、前記クリッピング処理が施された後の値と前記フィルタ係数と前記フィルタ処理前復号信号の画素値との線形加重和によって前記フィルタ処理後復号信号を生成し、
前記閾値は、前記クラス毎及び前記フィルタ係数毎に設定され、
内部ビット深度が変化しても、輝度信号用の前記閾値と色差信号用の前記閾値との大小関係が保存されるように定義されており、
内部ビット深度が1だけ大きくなると、前記閾値は2倍となるように定義されていることを特徴とする画像復号方法。
An image decoding method comprising:
A step A of determining which class of filter to use with the unfiltered decoded signal as an input;
A step B of determining filter coefficients for each class;
a step C of inputting the unfiltered decoded signal and outputting a filtered decoded signal;
In step C, pixel values of the reference pixel value and the pre-filter decoded signal are adjusted so that an absolute value of a difference value between the reference pixel value and the pre-filter decoded signal is equal to or less than a predetermined threshold value. performing clipping processing on the difference value between and generating the filtered decoded signal by a linearly weighted sum of the value after the clipping processing, the filter coefficient, and the pixel value of the pre-filtered decoded signal;
The threshold is set for each class and each filter coefficient,
is defined so that the magnitude relationship between the threshold for the luminance signal and the threshold for the color difference signal is preserved even if the internal bit depth changes,
An image decoding method, wherein the threshold is defined to be doubled when the internal bit depth is increased by one.
コンピュータを、画像復号装置として機能させるプログラムであって、
フィルタ処理前復号信号を入力として、どのクラスのフィルタを用いるかについて判定するように構成されているクラス判定部と、
前記クラス毎にフィルタ係数を決定するように構成されているパラメータ決定部と、
前記フィルタ処理前復号信号を入力とし、フィルタ処理後復号信号を出力するように構成されているフィルタ部を備え、
前記フィルタ部は、参照画素値と前記フィルタ処理前復号信号の画素値との差分値の絶対値が予め定義した閾値以下となるように、前記参照画素値と前記フィルタ処理前復号信号の画素値との差分値に対するクリッピング処理を施し、前記クリッピング処理が施された後の値と前記フィルタ係数と前記フィルタ処理前復号信号の画素値との線形加重和によって前記フィルタ処理後復号信号を生成するように構成されており、
前記閾値は、前記クラス毎及び前記フィルタ係数毎に設定され、
内部ビット深度が変化しても、輝度信号用の前記閾値と色差信号用の前記閾値との大小関係が保存されるように定義されており、
内部ビット深度が1だけ大きくなると、前記閾値は2倍となるように定義されていることを特徴とするプログラム。
A program that causes a computer to function as an image decoding device,
a class determination unit configured to determine which class of filter to use based on the unfiltered decoded signal;
a parameter determination unit configured to determine a filter coefficient for each class;
A filter unit configured to receive the pre-filtering decoded signal as an input and output a post-filtering decoded signal,
The filter section controls the reference pixel value and the pixel value of the pre-filter decoded signal so that an absolute value of a difference value between the reference pixel value and the pixel value of the pre-filter decoded signal is equal to or less than a predetermined threshold value. and generating the post-filter decoded signal by linearly weighting the sum of the value after the clipping, the filter coefficient, and the pixel value of the pre-filter decoded signal. is configured to
The threshold is set for each class and each filter coefficient,
is defined so that the magnitude relationship between the threshold for the luminance signal and the threshold for the color difference signal is preserved even if the internal bit depth changes,
A program, wherein the threshold is defined to be doubled when the internal bit depth is increased by one.
JP2021144756A 2020-11-18 2021-09-06 Image decoding device, image decoding method and program Active JP7320573B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021144756A JP7320573B2 (en) 2020-11-18 2021-09-06 Image decoding device, image decoding method and program
JP2023120159A JP7485838B2 (en) 2020-11-18 2023-07-24 Image decoding device, image decoding method, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020191512A JP6912642B2 (en) 2019-06-20 2020-11-18 Image decoding device, image decoding method and program
JP2021112920A JP6941752B1 (en) 2020-11-18 2021-07-07 Image decoding device, image decoding method and program
JP2021144756A JP7320573B2 (en) 2020-11-18 2021-09-06 Image decoding device, image decoding method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021112920A Division JP6941752B1 (en) 2020-11-18 2021-07-07 Image decoding device, image decoding method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023120159A Division JP7485838B2 (en) 2020-11-18 2023-07-24 Image decoding device, image decoding method, and program

Publications (2)

Publication Number Publication Date
JP2022008331A JP2022008331A (en) 2022-01-13
JP7320573B2 true JP7320573B2 (en) 2023-08-03

Family

ID=87805532

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021144756A Active JP7320573B2 (en) 2020-11-18 2021-09-06 Image decoding device, image decoding method and program
JP2023120159A Active JP7485838B2 (en) 2020-11-18 2023-07-24 Image decoding device, image decoding method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023120159A Active JP7485838B2 (en) 2020-11-18 2023-07-24 Image decoding device, image decoding method, and program

Country Status (1)

Country Link
JP (2) JP7320573B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7800762B2 (en) 2023-08-08 2026-01-16 Agc株式会社 Method for producing fluorine-containing polymer, aqueous dispersion, particles and composition

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020126411A1 (en) 2018-12-21 2020-06-25 Canon Kabushiki Kaisha Adaptive loop filtering (alf) with non-linear clipping

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020126411A1 (en) 2018-12-21 2020-06-25 Canon Kabushiki Kaisha Adaptive loop filtering (alf) with non-linear clipping

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Benjamin Bross, Jianle Chen and Shan Liu,Versatile Video Coding (Draft 5),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N1001 (version 7),14th Meeting: Geneva, CH,2019年05月29日,pp.45-46, 97-101, 284-291
Jonathan Taquet et al.,CE5: Results of tests CE5-3.1 to CE5-3.4 on Non-Linear Adaptive Loop Filter.,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0242,14th Meeting: Geneva, CH,2019年03月,pp.1-10
Kyohei Unno, Kei Kawamura and Sei Naito,Non-CE5: A simplification of clipping thresholds for Non-Linear ALF,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-O0386-v2,15th Meeting: Gothenburg, SE,2019年07月,pp.1-6
Nan Hu, Vadim Seregin and Marta Karczewicz,Non-CE5: Simplification on clipping value calculation for adaptive loop filter,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-O0532-v1,15th Meeting: Gothenburg, SE,2019年06月,pp.1-4

Also Published As

Publication number Publication date
JP7485838B2 (en) 2024-05-16
JP2022008331A (en) 2022-01-13
JP2023129555A (en) 2023-09-14

Similar Documents

Publication Publication Date Title
KR102192778B1 (en) Video motion compensation apparatus and method with selectable interpolation filter
CN110024387B (en) Encoding device, decoding device, encoding method, and decoding method
JP6159376B2 (en) Image filter and decoding device
CN110050466B (en) Device and method for decoding/encoding a block of a current frame of video from a code stream
JP2007166522A (en) Decoding device, decoding method, and program
CN112262579B (en) Intra-frame sharpening and/or de-ringing filter for video coding based on bit stream flags
CN110063059B (en) Video coding and decoding method, related coder and decoder and computer readable storage medium
JP7485838B2 (en) Image decoding device, image decoding method, and program
JP6811931B2 (en) Image decoding device, image decoding method and program
US20250159155A1 (en) Image decoding device, image decoding method, and program
CN111886863A (en) Moving image decoding device, moving image decoding method, and program
CN112272951B (en) Intra-frame sharpening filter and/or de-ringing filter for video coding
JP2024107426A (en) Decoding device and decoding method
JP7357721B2 (en) Deblocking filter control device and program
JP6941752B1 (en) Image decoding device, image decoding method and program
WO2021045059A1 (en) Encoding device, decoding device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230724

R150 Certificate of patent or registration of utility model

Ref document number: 7320573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150