JPH104555A - Motion vector detector - Google Patents

Motion vector detector

Info

Publication number
JPH104555A
JPH104555A JP15510296A JP15510296A JPH104555A JP H104555 A JPH104555 A JP H104555A JP 15510296 A JP15510296 A JP 15510296A JP 15510296 A JP15510296 A JP 15510296A JP H104555 A JPH104555 A JP H104555A
Authority
JP
Japan
Prior art keywords
pixel
vector
motion vector
motion
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP15510296A
Other languages
Japanese (ja)
Inventor
Masahito Nonaka
雅人 野中
Akihiko Matsuo
明彦 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP15510296A priority Critical patent/JPH104555A/en
Publication of JPH104555A publication Critical patent/JPH104555A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Color Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce an arithmetic quantity required for vector detection and to improve the detection accuracy by placing a heavier weight onto an evaluation value of a vector detection object picture element more than the weight of the evaluation value of picture elements around the object. SOLUTION: Current frame data are distributed into three systems, data of a vector detection object picture element are written as they are in a memory 106 as Xm, n, data of four picture elements located upper/lower/left/right of the object picture element are averaged by a mean value calculation device 102 and the resulting data are written in the memory 106 as Xm, n', data of four picture elements located in oblique directions of the object picture element are processed by the mean value calculation device 103 and the resulting data are written in the memory 106 as Xm, n". Evaluation computing elements 108-110 obtain differential absolute values of data of each group, multiply coefficients α, β, γ, outputs of them are added by an adder 111 and the sum is used for an evaluation value to a trial vector.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、動画像圧縮におけ
る動き補償のベクトルを検出する動きベクトル検出装置
に係り、特に、動き補償フレーム間予測、フレーム内挿
における動き推定のための画素単位の動きベクトル検出
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion vector detecting apparatus for detecting a motion compensation vector in moving picture compression, and more particularly, to a motion compensation in pixel unit for motion estimation between motion compensated inter-frame prediction and frame interpolation. It relates to a vector detection device.

【0002】[0002]

【従来の技術】画像圧縮の国際標準としてJPEG(Jo
int Photograghic Expert Group)やMPEG(Moving
Picture Expert Group)がある。
2. Description of the Related Art JPEG (Jo
int Photograghic Expert Group) or MPEG (Moving
Picture Expert Group).

【0003】MPEGは、MPEGI,MPEGII,M
PEGIVの3レベルの規格案が検討されている。MPE
GIでは、1.5Mbpsの通信回線で伝送できる動画
像圧縮を目的としており、おもにテレビ電話やテレビ会
議などで使用することが考えられている。MPEGIで
は、現行のNTSC方式のビデオ画像を320×240
ピクセルの解像度として扱い、1フレームを構成する2
フィールドのうち1フィールドのみのデータを用いる。
MPEGIIでは、10Mbpsを超える通信回線で伝送
できる圧縮が目標で、ISDNなどによる動画像伝送や
ディジタル・ビデオがターゲットとされている。そし
て、MPEGIVは、低ビットレートを対象としている。
[0003] MPEG is MPEGI, MPEGII, M
Three levels of PEGIV standards are being considered. MPE
The purpose of GI is to compress moving images that can be transmitted through a 1.5 Mbps communication line, and is considered to be mainly used for videophones, videoconferencing, and the like. In MPEGI, the current NTSC video image is 320 × 240
Treat as pixel resolution and make up one frame 2
Data of only one of the fields is used.
MPEG II aims at compression that can be transmitted over a communication line exceeding 10 Mbps, and targets moving picture transmission by ISDN or the like and digital video. MPEG IV is intended for low bit rates.

【0004】MPEGの特徴は、DCT(Discrete Cos
ine Transform:離散コサイン変換)による静止画像圧
縮に加えて、時間軸方向の圧縮のためのフレーム間予測
処理を行なうことであるが、動画像圧縮の前提条件とし
てフレームのランダム・アクセスができること、早送り
による再生や巻戻し再生(逆方向)ができることがあげ
られている。したがって、MPEGにおけるフレーム間
予測は、前向きと後向きの両方向を採用している。MP
EGにあっても、基本的にはMC(動き補償)+DCT
を用いる。動き補償を行なうブロックサイズは16×1
6(但し8×8のモードもある)、DCTは8×8ブロ
ックに対して行なう。また、この動き補償は1/2画素
精度で行なう。1/2画素精度の動き補償は、予測に用
いる参照フレーム上において画素単位でずらした位置を
調べるのみならず、画素と画素の間の位置を補間によっ
て生成し、マッチングをとることによって行なう。
The feature of MPEG is that DCT (Discrete Cos
ine Transform (discrete cosine transform) is to perform inter-frame prediction processing for compression in the time axis direction in addition to still image compression, but random access to frames is required as a precondition for moving image compression, and fast forward. Playback and rewind playback (reverse direction). Therefore, inter-frame prediction in MPEG employs both forward and backward directions. MP
Even in EG, basically MC (motion compensation) + DCT
Is used. The block size for motion compensation is 16 × 1
6 (however, there is also an 8 × 8 mode), DCT is performed on 8 × 8 blocks. This motion compensation is performed with half-pixel accuracy. Motion compensation with half-pixel accuracy is performed not only by examining a position shifted in pixel units on a reference frame used for prediction, but also by generating a position between pixels by interpolation and performing matching.

【0005】時間方向の予測を伴う動画像圧縮装置で
は、カメラのPANや被写体の移動による予測効率の低
下を軽減させるために、動き補償による予測を行なって
いる。この動き補償は、着目フレーム(符号化対象フレ
ーム)と参照フレーム(例えば、前フレーム)間で対象
領域の動きベクトルを検出し、参照フレームにおいて動
きベクトル分だけずらした位置を参照画素とし、これを
予測値として着目画素との差分(予測誤差)を伝送する
方法である。例えば、動き補償予測は予測元画像の動き
ベクトルを基に移動体の動きを予測し、原画像において
その動きを補償している。動き補償は16×16画素の
ブロック単位で前画像のそのブロックの位置の近傍で一
番差分が少ないところを探索し、それとの差分をとるこ
とによりさらに送らなければならないデータを削減する
という手法であり、動きベクトルを検出する手段として
一般に動き補償の対象となる部分画像の元の場所から一
定の範囲内をサーチし、最も誤差の少ない(すなわち、
最も近似度が高い)場所を検出し、これを予測信号とし
て用いるものである。
[0005] In a moving image compression apparatus that involves prediction in the time direction, prediction is performed by motion compensation in order to reduce a reduction in prediction efficiency due to movement of a camera PAN or a subject. This motion compensation detects a motion vector of a target region between a frame of interest (encoding target frame) and a reference frame (for example, a previous frame), and sets a position shifted by the motion vector in the reference frame as a reference pixel. This is a method of transmitting a difference (prediction error) from a target pixel as a prediction value. For example, in motion compensation prediction, the motion of a moving object is predicted based on the motion vector of the prediction source image, and the motion is compensated for in the original image. The motion compensation is a method of searching for a place having the smallest difference in the vicinity of the position of the block in the previous image in units of 16 × 16 pixels, and taking the difference therefrom, thereby reducing the data to be sent further. Yes, as a means for detecting a motion vector, generally, a search is performed within a certain range from the original position of a partial image to be subjected to motion compensation, and the error is minimized (ie,
A place where the degree of approximation is the highest) is detected, and this is used as a prediction signal.

【0006】また、時間方向の予測を伴う通常の動画像
圧縮装置(CCITT H.261やMPEG.Vid
eo等)では、生成された動きベクトルを符号化する場
合、その付近の部分画像(通常は、1つ前に処理された
部分画像)の持つ動きベクトルとの差分をとり、その差
分のみを符号化している。
[0006] In addition, a conventional moving picture compression apparatus (CCITT H.261 or MPEG.
eo), when encoding the generated motion vector, the difference between the generated motion vector and the motion vector of a nearby partial image (usually, the partial image processed immediately before) is calculated, and only the difference is encoded. Is becoming

【0007】従来のこの種の動画像圧縮装置におけるM
C(動き補償)検出方法としては、例えば「一画素マッ
チングに基づく動き推定の基礎検討」(テレビ学技報I
CS94−38(1994.2)に記載されたものがあ
る。
[0007] In conventional moving image compression apparatus of this kind, M
As a C (motion compensation) detection method, for example, “Basic study of motion estimation based on one-pixel matching” (TV Engineering Report I
CS94-38 (1994.2).

【0008】動画像の高能率符号化技術の一つに、上述
したフレーム間予測がある。フレーム間予測は、時間的
に接近した画像間には高い相関があるという性質を利用
した圧縮方法で、前画像と現画像の差分を伝送する方法
である。静止している画像の場合、前画像と現画像の差
分はほとんどないため符号化効率は非常に高くなるが、
動きのある画像では相関が少なくなり符号化効率は低下
する。このため、動き量及び方向(動きベクトル)を検
出し、これを用いて画像の一部または全部を動かすこと
で、2枚の画像間の相関を高くする方法が用いられてい
る。
One of the high-efficiency video coding techniques is the above-described inter-frame prediction. The inter-frame prediction is a method of transmitting a difference between a previous image and a current image by a compression method using a property that there is a high correlation between temporally close images. In the case of a still image, the coding efficiency is very high because there is almost no difference between the previous image and the current image,
In a moving image, the correlation decreases and the coding efficiency decreases. For this reason, a method has been used in which the amount of motion and the direction (motion vector) are detected, and a part or the whole of the image is moved using the detected amount and direction to increase the correlation between two images.

【0009】動きベクトルの検出は、ブロックマッチン
グで行う方法が一般的である。ブロックマッチング方法
とは、現画像1フレームを複数のブロックに分割し、各
ブロックと前画像の同じ大きさのブロックとの類似性を
調べ、最も類似性の高いブロックとの位置関係を動きベ
クトルとして出力する方法である。ある1つの位置関係
に対する評価演算は、2つのブロック間で同じ位置にあ
る画素同士の差分の絶対値または自乗値をブロック内の
全ての画素に対し求め、これを累計することで行う。ブ
ロックサイズがΜライン×N画素の時、1本の試行ベク
トル(i,j)の演算は数1で示される。
The detection of a motion vector is generally performed by block matching. The block matching method divides one frame of the current image into a plurality of blocks, examines the similarity between each block and a block of the same size in the previous image, and determines a positional relationship with a block having the highest similarity as a motion vector. This is the output method. The evaluation operation for a certain positional relationship is performed by calculating the absolute value or the square value of the difference between the pixels located at the same position in two blocks for all the pixels in the block, and accumulating the obtained values. When the block size is Μ lines × N pixels, the operation of one trial vector (i, j) is represented by Expression 1.

【0010】[0010]

【数1】 (Equation 1)

【0011】この評価を、探索範囲内に存在する評価を
行うべき全てのベクトル(以下、試行ベクトルという)
について行い、最終的に数1に示す式のDi,jを最も小
さくする(i,j)を動きベクトルにしている。このよ
うに、ブロックマッチング法ではブロック単位にベクト
ル検出を行うため、求まる動きベクトルはブロックの動
きを表すものになる。
[0011] This evaluation is performed by using all vectors existing in the search range to be evaluated (hereinafter referred to as trial vectors).
(I, j) that finally makes Di, j in the expression shown in Equation 1 the smallest is used as the motion vector. Thus, in the block matching method, since the vector detection is performed on a block basis, the motion vector to be obtained represents the motion of the block.

【0012】一方、動画像中に頻繁に現われる移動する
物体に着目すると、物体の輪郭部には物体と背景の2種
類の動きが存在する。このような一つのブロック内での
複数の異なる動きを、ブロックマッチング法では1個の
ベクトルで代表して表現するため、実際の動きとの対応
がとれないという問題があった。この問題は、画素単位
に動きベクトルを検出することで解決できる。
On the other hand, when attention is paid to a moving object that frequently appears in a moving image, there are two types of movements of the object and the background in the outline of the object. In the block matching method, since a plurality of different motions in one block are represented by one vector, there is a problem that a correspondence with an actual motion cannot be obtained. This problem can be solved by detecting a motion vector for each pixel.

【0013】上記文献では、ブロックマッチング法での
ブロックの大きさを1×1にした画素マッチングをもと
にして、画素単位の動きベクトルを検出している。この
方法の評価式を数2に示す式で表す。
In the above document, a motion vector for each pixel is detected based on pixel matching in which a block size is set to 1 × 1 by a block matching method. The evaluation formula of this method is represented by the formula shown in Expression 2.

【0014】[0014]

【数2】 (Equation 2)

【0015】ここで、Di,jを最小にするi,jを画素
単位の動きベクトルの候補としている。実際には雑音な
どの影響を考慮して、Di,jがある閾値以下のi,jを
動きベクトル候補としている。画素マッチンクでは、候
補に選ばれるi,jの組が多数存在するため、これらの
組に対し別の評価関数を用いて実際の動きに対応したベ
クトルi,jを抽出している。新たな評価関数として
は、具体的には「ブロックマッチング法」、「非線形加
重和による手法」、「多数決演算による手法」が挙げら
れている。
Here, i, j that minimizes Di, j is a candidate for a motion vector in pixel units. In practice, i, j below Di, j, which is a certain threshold, are considered as motion vector candidates in consideration of the influence of noise or the like. In the pixel matching, since there are many pairs of i and j selected as candidates, vectors i and j corresponding to actual motions are extracted by using another evaluation function for these pairs. Specific examples of the new evaluation function include a “block matching method”, a “method using a nonlinear weighted sum”, and a “method using a majority operation”.

【0016】「ブロックマッチング法」は、ベクトル検
出対象画素を中心にしたブロックについて、ブロックマ
ッチング法で検出する方式である。上述したブロックマ
ッチング法では求まったベクトルはブロック内の全画素
についてのベクトルとしていたが、ここではブロックの
中心画素だけのベクトルとして扱う。
The "block matching method" is a method in which a block around a pixel to be detected is detected by the block matching method. In the above-described block matching method, the vector obtained is a vector for all pixels in the block, but here, it is handled as a vector of only the center pixel of the block.

【0017】「非線形加重和による手法」は、ベクトル
検出対象画素の近くに位置し、かつ似た値をとる画素を
一つのグループとし、このグループ内の全ての画素につ
いて前記数2に示す式で与えられる評価値を累計し、評
価累計値を最小にするi,jを動きベクトルとする方式
である。
In the "method based on non-linear weighted sum", pixels located near a pixel to be detected and having similar values are grouped into one group, and all the pixels in this group are expressed by the above-mentioned equation (2). In this method, given evaluation values are accumulated, and i and j that minimize the accumulated evaluation value are used as motion vectors.

【0018】「多数決演算による手法」は、前記数2に
示す式で得られる評価値がある一定レベル以下か否かを
判別し、一定レベル以下、すなわちマッチングがとれて
いる画素の数を数え、その数が最も多いi,jを動きベ
クトルとする方式である。この方式では単純に数を見る
だけでなく、マッチングのとれた画素の塊具合も評価し
ている。
In the "method by majority operation", it is determined whether or not the evaluation value obtained by the equation (2) is equal to or less than a certain level. In this method, i and j having the largest number are used as motion vectors. In this method, not only the number is simply checked, but also the state of the lump of matched pixels is evaluated.

【0019】以上のような方法で、画素単位の動きベク
トルを検出し、ブロック単位のベクトル検出で問題であ
った複数の動きが存在するときの検出精度の劣化を改善
している。
With the method described above, a motion vector in pixel units is detected, and the deterioration in detection accuracy when there is a plurality of motions, which has been a problem in vector detection in block units, is improved.

【0020】[0020]

【発明が解決しようとする課題】しかしながら、このよ
うな従来の動きベクトル検出装置にあっては、以下に述
べるような問題点があった。
However, such a conventional motion vector detecting device has the following problems.

【0021】「ブロックマッチング法」による従来例で
は、処理は単純であるが画素単位に数1に示す式の評価
を行うため、計算量が膨大な量になるという問題点があ
った。ブロック単位にベクトルを求めるときは、ブロッ
クに1個のベクトルを検出すればよいが、画素単位では
ブロック内の画素数分のベクトルを見つけるため、検出
ブロックの大きさに比例した計算が必要となる。このた
め、同じ計算量での処理を考えると、動きベクトル検出
の探索範囲を広くとることができず、動きの大きな画像
については検出精度の劣化が起きていた。さらに、検出
ベクトルはブロック内の各画素の動きを代表するもので
あるため、すなわちベクトル検出対象画素だけの動きを
示すものではないため、ブロック内に複数の動きがある
場合の問題に対する改善効果は小さいものとなってい
た。
In the conventional example using the "block matching method", the processing is simple, but since the expression shown in Equation 1 is evaluated for each pixel, there is a problem that the amount of calculation becomes enormous. When obtaining a vector in block units, it is sufficient to detect one vector in a block, but in pixel units, a calculation in proportion to the size of the detected block is required to find vectors for the number of pixels in the block. . For this reason, considering processing with the same amount of calculation, the search range for motion vector detection cannot be widened, and the detection accuracy has deteriorated for images with large motion. Furthermore, since the detection vector is representative of the motion of each pixel in the block, that is, it does not indicate the motion of only the vector detection target pixel, the improvement effect on the problem when there is a plurality of motions in the block is Had become smaller.

【0022】「非線形加重和による手法」では、処理が
複雑になるという問題点があった。すなわち、ベクトル
検出対象画素に近い値を持つ画素を一度抽出してからマ
ッチングを行うため、1個のベクトルの検出に2種類の
データを扱うことになり、高速にベクトル検出すること
が困難になっていた。さらに、近傍の似た値の画素が同
一の動きになることが前提条件となっているため、条件
から外れる画像、例えば人物が写っている画像の手の指
・口元などの関節がある部分では、誤ったベクトルを見
つける可能性があった。
The "method based on non-linear weighted sum" has a problem that processing becomes complicated. That is, since a pixel having a value close to the vector detection target pixel is extracted once and then matching is performed, two types of data are used to detect one vector, and it becomes difficult to perform high-speed vector detection. I was Furthermore, since it is a precondition that pixels having similar values in the vicinity perform the same movement, in an image that does not satisfy the condition, for example, in a part where there is a joint such as a finger or a lip of a hand of an image in which a person is captured. Could find the wrong vector.

【0023】「多数決による手法」にあっても、「非線
形加重和による手法」と同様に処理が複雑になるという
問題点があった。この方法では、検出精度を高めるため
にマッチングのとれた画素の分布も評価しているため、
より複雑な処理が要求される。
Even in the "method by majority decision", there is a problem that the processing becomes complicated as in the "method by nonlinear weighted sum". This method also evaluates the distribution of matched pixels in order to increase the detection accuracy,
More complicated processing is required.

【0024】以上のいずれの方法も、ベクトル検出対象
画素を含むあるグループに対して処理をしており、求ま
る動きベクトルはグループを代表するものであったた
め、必ずしもベクトル対象画素の動きに対応したもので
はなかった。
In each of the above methods, processing is performed on a certain group including the pixel to be detected. Since the motion vector to be obtained is representative of the group, the motion vector necessarily corresponds to the motion of the vector to be detected. Was not.

【0025】本発明は、ベクトル検出の演算量を削減す
ることができ、検出精度の向上を図ることができる動き
ベクトル検出装置を提供することを目的とする。
An object of the present invention is to provide a motion vector detecting device capable of reducing the amount of calculation for vector detection and improving the detection accuracy.

【0026】[0026]

【課題を解決するための手段】本発明に係る動きベクト
ル検出装置は、複数の画像間に存在する動きを、画素単
位に検出する動きベクトル検出装置において、基準画像
に対しベクトル対象画素を中心とするブロックと、参照
画像に対し基準画像のブロックと同じ大きさのブロック
を形成し、該ブロック同士の類似度の評価を行う際に、
ベクトル検出対象画素の評価値に対する重みを、周辺に
位置する画素の評価値より重くするように構成する。
A motion vector detecting device according to the present invention is a motion vector detecting device for detecting a motion existing between a plurality of images on a pixel-by-pixel basis. And a block having the same size as the block of the reference image with respect to the reference image, and when evaluating the similarity between the blocks,
The weight of the vector detection target pixel with respect to the evaluation value is configured to be heavier than the evaluation values of the pixels located in the vicinity.

【0027】また、動きベクトル検出装置は、ベクトル
検出対象画素の周辺に位置する画素を複数のグループに
分け、それぞれのグループを代表する画素値を抽出し、
ベクトル検出対象画素と複数のグループ代表画素を用い
て評価演算を行うように構成してもよい。
Further, the motion vector detecting device divides the pixels located around the vector detection target pixel into a plurality of groups, and extracts a pixel value representing each group.
The configuration may be such that the evaluation operation is performed using the vector detection target pixel and a plurality of group representative pixels.

【0028】また、動きベクトル検出装置は、ベクトル
検出対象画素の周辺に位置する画素を1つのグループに
分け、それぞれのグループを代表する画素値を抽出し、
ベクトル検出対象画素と周辺画素を代表する画素を用い
て評価演算を行うように構成してもよい。
Further, the motion vector detecting device divides the pixels located around the vector detection target pixel into one group, and extracts a pixel value representing each group.
The configuration may be such that the evaluation calculation is performed using a pixel representing the vector detection target pixel and the peripheral pixel.

【0029】また、周辺画素のグループ分けを、検出対
象画素からの距離に対応して行うものであってもよい。
Further, the grouping of the peripheral pixels may be performed according to the distance from the pixel to be detected.

【0030】[0030]

【発明の実施の形態】本発明に係る動きベクトル検出装
置は、動画像の動き検出予測信号を用いる動画像蓄積装
置等の動きベクトル検出装置に適用することができる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The motion vector detecting device according to the present invention can be applied to a motion vector detecting device such as a moving image storage device using a motion detection prediction signal of a moving image.

【0031】図1は本発明の実施形態に係る動きベクト
ル検出装置の構成を示すブロック図である。図1に示す
動きベクトル検出装置は、動き補償フレーム間予測、フ
レーム内挿における動き推定のための画素単位の動きを
検出する動きベクトル検出装置に適用した例である。
FIG. 1 is a block diagram showing a configuration of a motion vector detecting device according to an embodiment of the present invention. The motion vector detection device shown in FIG. 1 is an example applied to a motion vector detection device that detects pixel-based motion for motion estimation in motion compensation inter-frame prediction and frame interpolation.

【0032】図1において、動きベクトル検出装置10
は、現画像データ入力端子100、前画像データ入力端
子101、平均値算出器102〜105、メモリ10
6,107、評価演算器108〜110、加算器11
1、最小値検出器112、レジスタ113、制御器11
4及び動きベクトル出力端子115から構成される。
In FIG. 1, a motion vector detecting device 10
Are current image data input terminal 100, previous image data input terminal 101, average value calculators 102 to 105, and memory 10
6, 107, evaluation calculators 108 to 110, adder 11
1, minimum value detector 112, register 113, controller 11
4 and a motion vector output terminal 115.

【0033】上記現画像データ入力端子100は、現画
像データが入力される入力端子である。
The current image data input terminal 100 is an input terminal to which current image data is input.

【0034】上記前画像データ入力端子101は、前画
像データが入力される入力端子である。
The previous image data input terminal 101 is an input terminal to which previous image data is input.

【0035】上記平均値算出器102〜105は、加算
器から構成され、グループ代表値を生成する平均値算出
器である。
Each of the average value calculators 102 to 105 is constituted by an adder, and is an average value calculator for generating a group representative value.

【0036】上記メモリ106は、ベクトル検出に必要
な画像データ及びグループ代表値データを保持する現画
像用のメモリである。
The memory 106 is a memory for the current image which holds image data and group representative value data required for vector detection.

【0037】上記メモリ107は、ベクトル検出に必要
な画像データ及びグループ代表値データを保持するメモ
リ106と同じ目的の前画像用のメモリである。メモリ
107ではベクトル探索範囲に応じたデータ量を記憶す
るため、メモリ106に比べて大きな容量のメモリを使
用する。
The memory 107 is a memory for a previous image having the same purpose as the memory 106 for holding image data and group representative value data necessary for vector detection. Since the memory 107 stores a data amount according to the vector search range, a memory having a larger capacity than the memory 106 is used.

【0038】上記評価演算器108〜110は、加算
(減算)器と、絶対値演算器及び後述する数3に示す式
の係数を乗算するテーブルからなる評価演算器である。
Each of the evaluation calculators 108 to 110 is an evaluation calculator including an adder (subtractor), an absolute value calculator, and a table for multiplying a coefficient of an expression shown in Expression 3 described later.

【0039】上記加算器111は、評価演算器108〜
110の出力を加算する3入力の加算器である。
The adder 111 comprises an evaluation calculator 108 to
This is a three-input adder that adds the outputs of the 110.

【0040】上記最小値検出器112は、内部に比較器
と仮最小値を記憶するレジスタを備え、乗算器106出
力の評価値を比較し、最小の値をとるときにホールドパ
ルスを出力する最小値検出器である。
The minimum value detector 112 has therein a comparator and a register for storing a temporary minimum value, compares the evaluation value of the output of the multiplier 106, and outputs a hold pulse when the minimum value is obtained. It is a value detector.

【0041】上記レジスタ113は、D−フリップフロ
ップ(FF)から構成され、最小値検出器112出力の
パルスを用いて、制御器114からの試行ベクトルを保
持する。
The register 113 is constituted by a D-flip-flop (FF), and holds a trial vector from the controller 114 by using a pulse output from the minimum value detector 112.

【0042】上記制御器114は、試行ベクトルを発生
して出力する。
The controller 114 generates and outputs a trial vector.

【0043】上記動きベクトル出力端子115は、レジ
スタ113に蓄えられている試行ベクトルを動きベクト
ルとして出力する出力端子である。
The motion vector output terminal 115 is an output terminal for outputting the trial vector stored in the register 113 as a motion vector.

【0044】このように、本実施形態に係る動きベクト
ル検出装置10は、評価演算器108〜110が、3個
配置されているため、3個のデータのマッチングを一度
に評価できる。すなわち、後述する数3に示す式の演算
を1サイクルで行なえる。
As described above, in the motion vector detecting device 10 according to the present embodiment, since three evaluation computing units 108 to 110 are arranged, matching of three data can be evaluated at a time. That is, the operation of the expression shown in Expression 3 described later can be performed in one cycle.

【0045】次に、上述のように構成された動きベクト
ル検出装置10の動作を説明する。
Next, the operation of the motion vector detecting device 10 configured as described above will be described.

【0046】本実施形態に係る動きベクトル検出方法
は、文献記載の「ブロックマッチング法」において、ベ
クトル検出対象画素についての評価値のウエイトを周辺
画素の評価値に比べて高くすることで、対象画素の動き
を正確にベクトルで表そうとするものである。さらに、
周辺画素をグループに分け、グループを代表する画素値
を求め、ベクトル評価にこの代表画素を使うことでマッ
チング演算の計算量をも削減するものである。
The motion vector detection method according to the present embodiment is different from the “block matching method” described in the literature in that the weight of the evaluation value of the target pixel for vector detection is set higher than the evaluation values of the peripheral pixels, thereby obtaining the target pixel. Is intended to be accurately represented by a vector. further,
The peripheral pixels are divided into groups, pixel values representing the groups are obtained, and the representative pixels are used for vector evaluation, thereby reducing the calculation amount of the matching operation.

【0047】図2に、文献記載の「ブロックマッチング
法」と本方法の違いを示す。この図2でブロック(正方
形)の中心に位置する画素が、ベクトル検出対象画素に
なる。
FIG. 2 shows the difference between the "block matching method" described in the literature and the present method. The pixel located at the center of the block (square) in FIG. 2 is the vector detection target pixel.

【0048】ブロックマッチング法では、各画素同士に
ついて差分の絶対値を求めその累計で評価値を算出して
いたが、本方法では、最初にグループを代表する画素を
求め、グループを代表する画素同士の差分の絶対値和で
評価値を算出することになる。
In the block matching method, the absolute value of the difference is obtained for each pixel, and the evaluation value is calculated by the cumulative sum. The evaluation value is calculated by the sum of the absolute values of the differences.

【0049】グループ分割と代表画素値の算出について
図2を参照して説明する。グループ分割は、ベクトル検
出対象画素からの距離をもとに行う。図2(b)に示す
ように、検出対象画素はそれ自身で一つのグループと
し、検出対象画素に接する上下左右の4画素、及び斜め
方向に位置する4画素でそれぞれグループ化する。
The group division and the calculation of the representative pixel value will be described with reference to FIG. Group division is performed based on the distance from the vector detection target pixel. As shown in FIG. 2B, the detection target pixels themselves are grouped into one group, and are grouped by four pixels in the upper, lower, left, and right directions that are in contact with the detection target pixels, and four pixels that are positioned diagonally.

【0050】また、グループの代表値は、グループ内の
4画素の平均値に、検出対象画素からの距離による重み
付けを行うことで求める。距離の近いグループの情報は
比重を重くし、離れるに従い軽くしていく。
The representative value of the group is obtained by weighting the average value of the four pixels in the group by the distance from the pixel to be detected. The information of a group with a short distance is made heavier, and the lighter as the distance increases.

【0051】以下に説明する実施形態では、ベクトル検
出対象画素を中心とする計9画素の情報を用いて、画素
単位の動きベクトルを検出する。評価演算は数3に示す
式に基づく演算を全ての試行ベクトルについて行い、D
i,jが最も小さくなるときのi,jを動きベクトルとす
る。
In the embodiment described below, a motion vector for each pixel is detected using information of a total of nine pixels centered on the pixel to be detected. In the evaluation operation, an operation based on the equation shown in Expression 3 is performed for all trial vectors, and D
Let i, j when i, j is smallest be a motion vector.

【0052】[0052]

【数3】 (Equation 3)

【0053】ここで、Χは現(基準)画像データ、Yは
前(参照)画像データを表し、数4で示される。
Here, Χ represents current (reference) image data, and Y represents previous (reference) image data.

【0054】[0054]

【数4】 (Equation 4)

【0055】また、前記数3に示す式中、α,β,γ
は、検出対象画素Xm,nからの距離に基づく係数であ
る。
In the equation shown in the above equation 3, α, β, γ
Is a coefficient based on the distance from the detection target pixel Xm, n.

【0056】以下、動きベクトル検出装置10の動作に
ついて図1を参照して詳細に説明する。
Hereinafter, the operation of the motion vector detecting device 10 will be described in detail with reference to FIG.

【0057】現画像データ入力端子100からは現フレ
ームのベクトル検出対象画素データ及びその周辺画素の
合計9個の画素が入力される。同様に、前画像データ入
力端子101からは、前フレームのベクトルの探索範囲
内の全ての画素とその周辺画素が入力される。探索範囲
が水平・垂直方向共に−4〜+3画素であれば、探索範
囲内の64画素と、その周辺36画素が入力されること
になる。周辺画素はグループ代表画素を生成に使用す
る。
From the current image data input terminal 100, a total of nine pixels, that is, the vector detection target pixel data of the current frame and its surrounding pixels are input. Similarly, from the previous image data input terminal 101, all the pixels in the search range of the vector of the previous frame and its peripheral pixels are input. If the search range is -4 to +3 pixels in both the horizontal and vertical directions, 64 pixels in the search range and 36 surrounding pixels are input. The peripheral pixels use the group representative pixels for generation.

【0058】入力された現フレームデータは3系統に分
けられ、ベクトル検出対象画素はそのままXm,nとして
メモリ106に書き込まれ、対象画素の上下左右に位置
する4画素は平均値算出器102で平均値化された後に
Xm,n′としてメモリ106に書き込まれ、斜め方向に
位置する4画素は平均値算出器103で処理されXm,
n″としてメモリ106に書き込まれる。メモリ106
にはこのようにして3個のデータが記憶される。
The input current frame data is divided into three systems, the target pixel for vector detection is written as it is to the memory 106 as Xm, n, and the four pixels located above, below, left and right of the target pixel are averaged by the average value calculator 102. After being digitized, it is written into the memory 106 as Xm, n '.
n ”is written to the memory 106. The memory 106
Stores three data in this way.

【0059】前フレームデータも同様に3系統に分けら
れ、そのうち2系統は途中平均値算出器104,105
でYm+i,n+j′,Ym+i,n+j″にされ、メモリ107に書
き込まれる。前フレームデータはi,jがそれぞれ−4
〜+3まで変化するため、メモリ107には各系統64
個の計192個のデータが記憶されることになる。
The previous frame data is similarly divided into three systems, two of which are intermediate value calculators 104 and 105.
To be Ym + i, n + j ', Ym + i, n + j ", and are written to the memory 107. The previous frame data is i-4 and -4, respectively.
To +3, the memory 107 stores in each system 64
192 data in total are stored.

【0060】以降、後段の回路では、メモリ106,1
07に保持されているデータを用い、1個の試行ベクト
ルの評価に3回のマッチングを行い、動きベクトルを求
めていく。
Thereafter, in the subsequent circuit, the memories 106, 1
Using the data held in 07, the evaluation of one trial vector is performed three times to obtain a motion vector.

【0061】まず、制御器114から評価を行うべきベ
クトル、すなわち試行ベクトルが1個出力される。メモ
リ106からは3系統に分離している現画像データが出
力され、それぞれ評価演算器108〜110に入力され
る。メモリ107からは制御器114出力の試行ベクト
ルi,jで偏移した前画像データが3系統読み出され、
それぞれ評価演算器108〜110に入力される。
First, the controller 114 outputs one vector to be evaluated, that is, one trial vector. The current image data separated into three systems is output from the memory 106 and input to the evaluation calculators 108 to 110, respectively. From the memory 107, three systems of previous image data shifted by the trial vectors i and j output from the controller 114 are read out.
These are input to the evaluation calculators 108 to 110, respectively.

【0062】評価演算器108〜110では、それぞれ
のグループのデータ同士の差分絶対値を求め、係数α,
β,γを掛け合わせる。評価演算器108〜110の出
力は加算器111で累計され、ある1個の試行ベクトル
の評価値になる。したがって、前記数3に示す式の演算
は、評価演算器108〜110と加算器111で行なわ
れていることになる。
The evaluation calculators 108 to 110 calculate the absolute value of the difference between the data of each group, and calculate the coefficients α,
Multiply β and γ. The outputs of the evaluation calculators 108 to 110 are accumulated by the adder 111 and become the evaluation value of a certain trial vector. Therefore, the calculation of the expression shown in the above equation (3) is performed by the evaluation calculators 108 to 110 and the adder 111.

【0063】最小値検出器112では、以上のようにし
て生成された評価値と、既に評価の終っている試行ベク
トル中での最小評価値とを比較する。新たに入力された
評価値がより小さいと判断すると、内部レジスタの値を
新たな評価値に更新し、最小値検出パルスを出力する。
以前の最小評価値の方が小さいと判断した場合は何もし
ない。最初の試行ベクトルの評価では、無条件に最小値
が検出されたと判断する。
The minimum value detector 112 compares the evaluation value generated as described above with the minimum evaluation value in the trial vector that has already been evaluated. If it is determined that the newly input evaluation value is smaller, the value of the internal register is updated to the new evaluation value, and a minimum value detection pulse is output.
If it is determined that the previous minimum evaluation value is smaller, nothing is performed. In the first evaluation of the trial vector, it is determined that the minimum value is unconditionally detected.

【0064】最小値検出器112出力の最小値検出パル
スは、レジスタ113に送出される。レジスタ113で
は、パルスが入力されたときに制御器114が出力して
いる試行ベクトルを、仮の動きベクトルとしてホールド
する。
The minimum value detection pulse output from the minimum value detector 112 is sent to the register 113. The register 113 holds the trial vector output from the controller 114 when the pulse is input, as a temporary motion vector.

【0065】以上の一連の動作が終了すると、制御器1
14からは新たな試行ベクトルが出力され、同様に評価
を行う。全ての試行ベクトルの評価が終了すると、最小
値検出器112内には最小評価値が、レジスタ113に
はそのときの試行ベクトルが保持されていることにな
る。
When the above series of operations is completed, the controller 1
A new trial vector is output from 14, and the evaluation is performed in the same manner. When the evaluation of all the trial vectors is completed, the minimum evaluation value is held in the minimum value detector 112, and the trial vector at that time is held in the register 113.

【0066】この試行ベクトルが動きベクトルとして出
力端子115より出力され、1個の画素に対するベクト
ル検出を終える。
The trial vector is output from the output terminal 115 as a motion vector, and the vector detection for one pixel is completed.

【0067】さらに、連続して隣接する画素Χm,n+1の
動きベクトルを求める場合について説明する。
Further, a case will be described in which a motion vector of continuously adjacent pixels # m, n + 1 is obtained.

【0068】画素Xm,nのベクトル検出では、参照画素
として、Ym+i,n+j,Ym+i,n+j′,Ym+i,n+j″を使用
していた。これらのデータはメモリ107内に残ってい
るため、参照データとしては新たに必要になる分だけ、
すなわち探索範囲の端の部分だけ取り込み、不要になっ
た領域に上書きすればよい。これは、jの値が最大のと
きの、Ym+i,(n+1)+j,Ym+i,(n+1)+j′,Ym+i,(n+1)+
j″を生成して、メモリ107上のjが最小の時のYm+
i,n+j,Ym+i,n+j′,Ym+i,n+j″があった領域に上書
きすることになる。
In the vector detection of the pixel Xm, n, Ym + i, n + j, Ym + i, n + j ', Ym + i, n + j "are used as reference pixels. Remains in the memory 107, so that only the newly required reference data
That is, only the end portion of the search range may be captured and overwritten on an unnecessary area. This is because when the value of j is the maximum, Ym + i, (n + 1) + j, Ym + i, (n + 1) + j ′, Ym + i, (n + 1) +
j ″ is generated, and Ym + when j on the memory 107 is the minimum is generated.
i, n + j, Ym + i, n + j ', and Ym + i, n + j "will overwrite the existing area.

【0069】以上のようにして更新された前画像データ
と、現画像について新たに入力したΧm,n+1とその周辺
画素を用いて、評価演算を行なっていく。
An evaluation operation is performed using the previously updated previous image data, Δm, n + 1 newly input for the current image, and its surrounding pixels.

【0070】以上説明したように、本実施形態に係る動
きベクトル検出装置10は、ブロックマッチングによる
画素単位の動きベクトルの検出において、ベクトル検出
対象画素の周辺画素をグループに分け、マッチング演算
をグループ単位に行い、評価時に検出対象画素について
の評価ウエイトを周辺画素の評価値に比べて高くしてい
るので、ベクトル検出の演算量を削減することができ、
検出精度の向上を図ることができる。
As described above, the motion vector detecting apparatus 10 according to the present embodiment divides the peripheral pixels of the pixel to be detected into groups and performs the matching operation on a group basis in detecting a motion vector in pixel units by block matching. Since the evaluation weight for the detection target pixel is set higher than the evaluation values of the surrounding pixels at the time of evaluation, the amount of calculation for vector detection can be reduced.
Detection accuracy can be improved.

【0071】すなわち、従来方法では、各画素単位にマ
ッチング演算を行なっていたため、3×3のブロックで
の処理には、9回のマッチング演算が必要であった。こ
れは、図1の評価演算器が9個必要になることを意味す
る。さらに次段の加算器でも、9個のデータの加算を行
うことになる。これに対して本方法では9個の画素を3
種類のグループにまとめているため、マッチング演算は
3回で構わない。一方、本方法では、マッチング演算の
前にグループの代表画素を平均値演算で求める必要があ
るが、動作説明のように隣接する画素を連続して処理す
る場合、新たに算出する代表画素は僅かである。
That is, in the conventional method, since the matching calculation is performed for each pixel, nine matching calculations are required for processing in a 3 × 3 block. This means that nine evaluation computing units in FIG. 1 are required. Further, the adder at the next stage also adds nine data. On the other hand, in this method, 9 pixels are set to 3
Since they are grouped into types, the matching operation may be performed three times. On the other hand, in this method, it is necessary to calculate the representative pixels of the group by the average value calculation before the matching calculation. However, when adjacent pixels are continuously processed as described in the operation description, only a few representative pixels are newly calculated. It is.

【0072】ここで、具体的な演算量の削減効果につい
て説明する。水平・垂直方向共に−4〜+3まで探索範
囲を持つとすると、試行ベクトルの総数は64個にな
る。ブロックサイズが3×3で、1画素のマッチング演
算1回を加算2.5回に換算すると、従来方法では、1
440回の加算が必要であった。本方法では、グループ
代表値算出の平均値演算に390回、マッチング演算に
480回の合計870回で実現することができ、約60
%の演算量に減少する。
Here, a specific effect of reducing the amount of calculation will be described. Assuming that the search range is -4 to +3 in both the horizontal and vertical directions, the total number of trial vectors is 64. If the block size is 3 × 3 and one matching operation for one pixel is converted into 2.5 additions, the conventional method yields 1
440 additions were required. In this method, the average value calculation of the group representative value calculation can be performed 390 times, and the matching calculation can be performed 480 times, that is, 870 times in total.
% Calculation amount.

【0073】また、上述の連続処理を適応した720p
el×480lineの画像全体の処理を考えると、従
来方法では497,664,000回の加算となるが、
本方法ではグループ代表値算出に4,147,200
回、マッチング演算に165,888,000回で合計
170,035,200回となり、約34%の演算量に
減少する。また、本方法ではマッチング自体に必要な演
算量が削減されているため、ベクトル探索範囲及びブロ
ックの大きさが大きくなれば、さらに大きな削減効果が
得られる。
Also, 720p to which the above-described continuous processing is applied
Considering the processing of the entire image of el × 480 lines, the conventional method requires 497,664,000 additions.
In this method, 4,147,200 is used for calculating the group representative value.
Times, the number of matching operations is 165,888,000, and the total is 170,035,200, which is reduced to about 34% of the amount of operation. Further, in the present method, since the amount of calculation required for matching itself is reduced, a larger reduction effect can be obtained if the vector search range and the size of the block are increased.

【0074】また、従来方法では、マッチング演算の際
に各画素が等しい重みを持っていたため、検出対象画素
以外の画素で特徴的な動きがあるとブロックの動きがそ
の画素の動きに追従してしまい、探出対象画素の動きと
一致しないという問題があったが、本方法では、評価演
算の際に検出対象画素についての評価ウエイトを周辺画
素の評価値に比べて高くしているため、これを解決する
ことができる。
Further, in the conventional method, since each pixel has the same weight at the time of the matching operation, if there is a characteristic motion in a pixel other than the pixel to be detected, the motion of the block follows the motion of the pixel. However, this method has a problem that it does not match the motion of the search target pixel. Can be solved.

【0075】さらに、本方法では、周辺画素を検出対象
画素からの距離に応じてグループ分けしているため、図
3に示すような回転や、拡大・縮小が含まれる画像に対
しても、正確な動きを検出することができる。ブロック
マッチング法で検出できる動きベクトルは物体の平行移
動に限られているため、このような動きでは正確な動き
が検出できるとは限らず、図3の画像では正方形の左下
の黒い画素の動きは参照フレームの白い画素へ向かうこ
とになるが、本方法では正方形の枠円の黒い画素へ向か
う。ブロックマッチング法において単純に重み付けを行
うだけでも同様の検出は可能であるが、特にグループ分
けをすることで、回転・拡大縮小に一致した動きを検出
した際の評価値が小さくなり、動きベクトルの誤検出を
減らすことができる。
Further, in the present method, since the peripheral pixels are grouped according to the distance from the detection target pixel, accurate correction is possible even for an image including rotation and enlargement / reduction as shown in FIG. Movement can be detected. Since the motion vector that can be detected by the block matching method is limited to the parallel movement of the object, accurate motion cannot always be detected with such a motion. In the image of FIG. 3, the motion of the black pixel at the lower left of the square is While going to the white pixels of the reference frame, the method goes to the black pixels of the square frame circle. The same detection is possible by simply performing weighting in the block matching method.However, by performing grouping, the evaluation value when detecting a motion that matches rotation / enlargement / reduction is reduced, and the motion vector False detection can be reduced.

【0076】なお、本実施形態では、3×3のブロック
単位で、検出対象画素からの距離によりグループ化を行
い、グループによって評価ウエイトを変更する例を説明
したが、ブロックの大きさは上記サイズに限定されるも
のではなく、他のサイズでも差し支えない。
In the present embodiment, an example has been described in which the grouping is performed in units of 3 × 3 blocks based on the distance from the pixel to be detected and the evaluation weight is changed according to the group. However, the size is not limited, and other sizes may be used.

【0077】また、グループ化の手法も距離だけではな
く近傍に位置する画素を塊にする方法でも構わない。入
力画像間の時間差も、1フレーム間隔に限らず、複数フ
レーム間隔にしてもよいことは言うまでもない。
Further, the grouping method may be a method of clustering pixels located in the vicinity in addition to the distance. It goes without saying that the time difference between the input images is not limited to one frame interval but may be a plurality of frame intervals.

【0078】また、本実施形態では画素同士の評価に数
2に示す式に従った絶対誤差を用いているが、自乗誤差
など異なる評価関数を用いることもできる。
Further, in the present embodiment, the absolute error according to the equation shown in Expression 2 is used for evaluating pixels, but a different evaluation function such as a square error may be used.

【0079】また、本実施形態では動きベクトル検出方
法を、例えばMPEGアルゴリズムに基づく動画像圧縮
装置に適用してもよいが、勿論これには限定されず、動
き補償を用いるものであれば全ての装置に適用可能であ
ることは言うまでもない。
In the present embodiment, the motion vector detecting method may be applied to a moving picture compression apparatus based on, for example, the MPEG algorithm. However, the present invention is not limited to this. It goes without saying that it is applicable to the device.

【0080】さらに、上記動きベクトル検出装置、評価
演算器を構成する回路や部材の数、種類などは前述した
実施形態に限られないことは言うまでもなく、ソフトウ
ェア(例えば、C言語)により実現するようにしてもよ
い。
Further, it goes without saying that the numbers and types of circuits and members constituting the motion vector detecting device and the evaluation arithmetic unit are not limited to the above-described embodiment, but may be realized by software (for example, C language). It may be.

【0081】[0081]

【発明の効果】本発明に係る動きベクトル検出装置で
は、基準画像に対しベクトル対象画素を中心とするブロ
ックと、参照画像に対し基準画像のブロックと同じ大き
さのブロックを形成し、該ブロック同士の類似度の評価
を行う際に、ベクトル検出対象画素の評価値に対する重
みを、周辺に位置する画素の評価値より重くするように
構成しているので、ベクトル検出の演算量を削減するこ
とができ、検出精度の向上を図ることができる。
In the motion vector detecting device according to the present invention, a block having the same size as the block of the reference image is formed in the reference image and a block having the same size as the block of the reference image in the reference image. When the similarity is evaluated, the weight for the evaluation value of the vector detection target pixel is set to be heavier than the evaluation value of the pixels located in the vicinity, so that the amount of calculation for vector detection can be reduced. It is possible to improve the detection accuracy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した実施形態に係る動きベクトル
検出装置の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a motion vector detection device according to an embodiment to which the present invention has been applied.

【図2】上記動きベクトル検出装置の評価値の算出方法
を説明するための図である。
FIG. 2 is a diagram for explaining a method of calculating an evaluation value of the motion vector detection device.

【図3】上記動きベクトル検出装置の回転が含まれる物
体の動きについて効果を説明するための図である。
FIG. 3 is a diagram for explaining an effect of a motion of an object including rotation of the motion vector detection device.

【符号の説明】[Explanation of symbols]

10 動きベクトル検出装置、100 現画像データ入
力端子、101 前画像データ入力端子、102〜10
5 平均値算出器、106,107 メモリ、108〜
110 評価演算器、111 加算器、112 最小値
検出器、113レジスタ、114 制御器、115 動
きベクトル出力端子
Reference Signs List 10 motion vector detection device, 100 current image data input terminal, 101 previous image data input terminal, 102 to 10
5 Average value calculator, 106, 107 memory, 108 ~
110 evaluation arithmetic unit, 111 adder, 112 minimum value detector, 113 register, 114 controller, 115 motion vector output terminal

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 複数の画像間に存在する動きを、画素単
位に検出する動きベクトル検出装置において、 基準画像に対しベクトル対象画素を中心とするブロック
と、参照画像に対し前記基準画像のブロックと同じ大き
さのブロックを形成し、該ブロック同士の類似度の評価
を行う際に、ベクトル検出対象画素の評価値に対する重
みを、周辺に位置する画素の評価値より重くすることを
特徴とする動きベクトル検出装置。
1. A motion vector detecting device for detecting a motion existing between a plurality of images on a pixel-by-pixel basis, comprising: a block centered on a vector target pixel with respect to a reference image; A motion characterized in that, when forming blocks of the same size and evaluating the similarity between the blocks, the weight for the evaluation value of the vector detection target pixel is made heavier than the evaluation values of the pixels located in the vicinity. Vector detection device.
【請求項2】 上記請求項1記載の動きベクトル検出装
置において、 前記ベクトル検出対象画素の周辺に位置する画素を複数
のグループに分け、それぞれのグループを代表する画素
値を抽出し、ベクトル検出対象画素と複数のグループ代
表画素を用いて評価演算を行うことを特徴とする動きベ
クトル検出装置。
2. The motion vector detecting apparatus according to claim 1, wherein pixels located around the vector detection target pixel are divided into a plurality of groups, and a pixel value representing each group is extracted. A motion vector detecting device for performing an evaluation operation using a pixel and a plurality of group representative pixels.
【請求項3】 上記請求項1記載の動きベクトル検出装
置において、 前記ベクトル検出対象画素の周辺に位置する画素を1つ
のグループに分け、それぞれのグループを代表する画素
値を抽出し、ベクトル検出対象画素と周辺画素を代表す
る画素を用いて評価演算を行うことを特徴とする動きベ
クトル検出装置。
3. The motion vector detection device according to claim 1, wherein pixels located around the vector detection target pixel are divided into one group, and a pixel value representing each group is extracted. A motion vector detecting device, wherein an evaluation operation is performed using a pixel representing a pixel and a peripheral pixel.
【請求項4】 前記周辺画素のグループ分けを、検出対
象画素からの距離に対応して行うことを特徴とする請求
項2又は3の何れかに記載の動きベクトル検出装置。
4. The motion vector detecting device according to claim 2, wherein the grouping of the peripheral pixels is performed according to a distance from a detection target pixel.
JP15510296A 1996-06-17 1996-06-17 Motion vector detector Withdrawn JPH104555A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15510296A JPH104555A (en) 1996-06-17 1996-06-17 Motion vector detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15510296A JPH104555A (en) 1996-06-17 1996-06-17 Motion vector detector

Publications (1)

Publication Number Publication Date
JPH104555A true JPH104555A (en) 1998-01-06

Family

ID=15598670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15510296A Withdrawn JPH104555A (en) 1996-06-17 1996-06-17 Motion vector detector

Country Status (1)

Country Link
JP (1) JPH104555A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008226187A (en) * 2007-03-15 2008-09-25 Toshiba Corp Motion estimation apparatus and method
US8503531B2 (en) 2004-03-29 2013-08-06 Sony Corporation Image processing apparatus and method, recording medium, and program
JP2017536002A (en) * 2014-10-27 2017-11-30 華為技術有限公司Huawei Technologies Co.,Ltd. Image prediction method and related apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8503531B2 (en) 2004-03-29 2013-08-06 Sony Corporation Image processing apparatus and method, recording medium, and program
JP2008226187A (en) * 2007-03-15 2008-09-25 Toshiba Corp Motion estimation apparatus and method
JP2017536002A (en) * 2014-10-27 2017-11-30 華為技術有限公司Huawei Technologies Co.,Ltd. Image prediction method and related apparatus
US10440380B2 (en) 2014-10-27 2019-10-08 Huawei Technologies Co., Ltd. Picture prediction method and related apparatus
US10623763B2 (en) 2014-10-27 2020-04-14 Huawei Technologies Co., Ltd. Picture prediction method and related apparatus
US11172217B2 (en) 2014-10-27 2021-11-09 Huawei Technologies Co., Ltd. Picture prediction method and related apparatus
US11968386B2 (en) 2014-10-27 2024-04-23 Huawei Technologies Co., Ltd. Picture prediction method and related apparatus
US12382081B2 (en) 2014-10-27 2025-08-05 Huawei Technologies Co., Ltd. Picture prediction method and related apparatus

Similar Documents

Publication Publication Date Title
KR101861722B1 (en) Method of processing video data and image processing circuit
JP4001400B2 (en) Motion vector detection method and motion vector detection device
US6411651B1 (en) Method and system for distributed video compression in personal computer architecture
KR0171154B1 (en) Method and apparatus for encoding video signal using feature point based motion estimation
US6438275B1 (en) Method for motion compensated frame rate upsampling based on piecewise affine warping
US6430317B1 (en) Method and apparatus for estimating motion using block features obtained from an M-ary pyramid
KR0171146B1 (en) Motion vector detection device using feature points
JP2978406B2 (en) Apparatus and method for generating motion vector field by eliminating local anomalies
JP3538055B2 (en) Motion vector detection device
KR950009699B1 (en) Motion vector detection method and apparatus
US5502492A (en) Motion vector detection apparatus
KR20030008150A (en) Recognizing film and video objects occurring in parallel in single television signal fields
JP2000182065A (en) Method for conversion of moving picture in real time, key frame selection method and moving picture conversion system
KR100657261B1 (en) Adaptive Motion Compensation Interpolation Method and Apparatus
JPH08265745A (en) Device and method for identifying characteristic points
KR20050012766A (en) Unit for and method of estimating a motion vector
EP0538042A2 (en) Apparatus for judging a hand movement of an image
US6020925A (en) Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction
JPH104555A (en) Motion vector detector
JP3175914B2 (en) Image encoding method and image encoding device
Kalra et al. Bidirectional motion estimation via vector propagation
JP3255656B2 (en) Video encoding device
US6463164B1 (en) Motion vector estimation based on statistical features of an image frame
JPH0614316A (en) Motion vector detector
JPH08223540A (en) Motion interpolation method using motion vector, motion interpolation circuit, motion vector detection method and motion vector detection circuit

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20030902