JPH0326064A - Picture processor - Google Patents

Picture processor

Info

Publication number
JPH0326064A
JPH0326064A JP1160124A JP16012489A JPH0326064A JP H0326064 A JPH0326064 A JP H0326064A JP 1160124 A JP1160124 A JP 1160124A JP 16012489 A JP16012489 A JP 16012489A JP H0326064 A JPH0326064 A JP H0326064A
Authority
JP
Japan
Prior art keywords
image
pixel
picture
threshold
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1160124A
Other languages
Japanese (ja)
Inventor
Hironobu Machida
町田 弘信
Hiroki Sugano
浩樹 菅野
Hitoshi Yoneda
米田 等
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP1160124A priority Critical patent/JPH0326064A/en
Publication of JPH0326064A publication Critical patent/JPH0326064A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE:To obtain a picture satisfying the resolution of a character section and the gradation of a picture section simultaneously by referencing the information of a peripheral picture element so as to select a discrimination threshold level. CONSTITUTION:A noted picture element prediction section 26 predicts the kind of a picture of a noted picture element based on the result of product sum calculation resulting from weighting an average density of a peripheral area with a specific parameter, and a discrimination threshold level selection circuit 25 selects adaptively a discrimination threshold level Thc or Thd in response to the result of prediction. A discrimination means 24 discriminates whether picture information of a local area represents the property specific to a character section or the characteristic as a picture section by discriminating a maximum density difference of the local area including the noted picture element with the discrimination threshold level Tha. Then, as the result, a selector 3 extracts selectively either of the threshold levels Th1, Th2 as the threshold level Th and a picture data S8 fed to a comparator circuit 7 is binarized by the threshold level Th. Thus, the picture satisfying both the resolution of the character section and the gradation of the picture section is obtained.

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は、文字部と写真部とが混在した文書画像を処理
する画像処理装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial Application Field) The present invention relates to an image processing apparatus that processes a document image in which a text portion and a photograph portion coexist.

(従来の技術) 一般に、コード情報だけでなくイメージ情報をも扱うこ
とのできる文書画像処理装置等の画像処理装置において
は、スキャナ等の読取手段で読取った画像情報に対して
文字や線図などのコントラストのある画像情報は固定閾
値により単純二値化を行い、写真等の階調性を有する画
像情報は、ディザ法等の疑似階調化手段によって二値化
を行なっている。これは、読取った画像情報を固定閾値
により一律に単純二鎖化処理を行なうと、文字・線図等
の領域は解像性が保存されるため画質劣化は生じないが
、写真等の領域では階調性が保存されず画質劣化が生じ
た画像となってしまう。一方、読取った画像情報を組織
的ディザ法等で一律に階調化処理を行なうと、写真等の
領域は階調性が保存されるため画質劣化は生じないが、
文字・線図等の領域では解像性が低下して画質劣化が生
じた画像となってしまう。
(Prior Art) Generally, in an image processing device such as a document image processing device that can handle not only code information but also image information, text and line drawings are processed based on the image information read by a reading means such as a scanner. Image information with contrast is simply binarized using a fixed threshold, and image information with gradation, such as photographs, is binarized using pseudo gradation means such as dithering. This is because if the read image information is uniformly subjected to simple double-strand processing using a fixed threshold value, the resolution will be preserved in areas such as text and line drawings, so there will be no deterioration in image quality, but in areas such as photographs, image quality will not deteriorate. The gradation is not preserved, resulting in an image with degraded image quality. On the other hand, if the read image information is uniformly gradated using systematic dithering, etc., the gradation will be preserved in areas such as photographs, so there will be no deterioration in image quality.
In areas such as characters and line drawings, the resolution decreases, resulting in an image with degraded image quality.

このように、読取った画像情報に対して、単一の二値化
手法を用いて二値化処理を行なうと、文字・線図の領域
と写真の領域とのいずれの画質をも同時に満足する画像
を得るこεは不可能である。
In this way, if the read image information is binarized using a single binarization method, the image quality of both the text/line drawing area and the photo area can be satisfied at the same time. It is impossible to obtain an image.

したがって、画像情報を画像の特徴に応じた領域に分離
し、各領域に適応的な処理を行なうことが文書画像処理
においては必須となっている。このことは、各種の画像
処理にもあてはまり、例えば、画像の特徴にあった処理
を行わないと二値化画像の拡大・縮小処理において画質
が低下したり、あるいは符号化処理においては、画像の
特徴にあった圧縮方式で処理を行わないと効率の悪いデ
ータ圧縮となってしまう。
Therefore, in document image processing, it is essential to separate image information into regions according to the characteristics of the image and perform adaptive processing on each region. This also applies to various types of image processing; for example, if processing is not performed that matches the characteristics of the image, the image quality may deteriorate when enlarging or reducing a binarized image, or when encoding an image. If processing is not performed using a compression method that matches the characteristics, data compression will be inefficient.

そこで、従来、例えば特開昭58−3374号公報に開
示されているように、文字部の解像性と写真部の階調性
を同時に満足せしめる方式として、画像平面内の局所領
域で画像濃度の最大濃度差ΔD■aXを求め、この最大
濃度差ΔD IaXと判定閾ITと比較することにより
、文字・線図の領域と写真の領域に分離し、各画像領域
の特徴に応じて二値化方法を切替えるものが知られてい
る。ここで「濃度」とは、読取手段で読取った画像信号
レベルを意味し、一般に用いる「濃度Jとは異なる。以
下、特に断わりのない限り「濃度」をこの意味で用いる
Therefore, as disclosed in Japanese Patent Application Laid-Open No. 58-3374, for example, as a method for simultaneously satisfying the resolution of text areas and the gradation of photographic areas, image density is increased in local areas within the image plane. By calculating the maximum density difference ΔD■aX and comparing this maximum density difference ΔD IaX with the determination threshold IT, the text/line drawing area and the photograph area are separated, and binary values are determined according to the characteristics of each image area. There is a known method for switching the conversion method. Here, "density" means the image signal level read by the reading means, and is different from the commonly used "density J."Hereinafter, "density" will be used in this sense unless otherwise specified.

しかしながら、上記方式では、写真画像において、急激
に濃度が変化する領域は文字であると誤判定されるため
階調性が劣化し、また、文字画像においては濃度変化の
微小な領域、例えば文字背景部が写真と誤判定され解像
度が劣化するという欠点があった。
However, with the above method, in a photographic image, areas where the density changes rapidly are incorrectly determined to be text, resulting in deterioration of gradation. The problem was that some parts were mistakenly judged to be photographs, resulting in a decrease in resolution.

例えば、画像濃度のダイナミックレンジを8ビット(0
〜255:16進ではO 〜F F [hex ] )
とすると、文字画像の場合、最大濃度差ΔD waxの
頻度分布は、第10図に示すように、O [hex ]
及びF F [hex ]の近傍に極値を持つ。このF
F[hex]の近傍の値をとる画素は所定範囲内に文字
のエッジ部分を含んだ画素であり、0 [hex ]の
近傍の値をとる画素は所定範囲内の画素が全て背景画素
あるいはエッジを含まない文字内部の画素である。また
、写真画像の場合、局所的な濃度変化は比較的小さいた
め、所定範囲内の最大濃度差ΔD laXは、第11図
に示すように、0 [hex ]近誇に集中する。この
ような頻度分布を有する文字及び写真の2つの原稿を、
所定の閾値T「例えばr−70 [hex ] Jを用
い、以下の条件で画像の種類を識別すると、 ΔDlaX>T;文宇部      −( 1 ’)Δ
D laX≦T;写真部      −(2)文字画像
の場合、第10図の■で示した領域の最大濃度差ΔD 
laXを持つ画素は文字と判定されるが、■で示した領
域の最大濃度差ΔD sawを持つ画素は写真と誤判定
されてしまう。一方、写真画像においては第11図の■
で示した領域の最大濃度差ΔD waxを持つ画素は写
真と判定されるが、■で示した領域の最大濃度差△D 
waxを持つ画素は文字と誤判定されてしまう。この写
真画像の誤判定は、所定範囲内の濃度変化が激しい画素
、例えば顔の輪郭部等が文字と判定されることを意味し
、このため階調性の低下による画質劣化が生じる。写真
の濃度が急激に変化する部分は視覚的に目だつ領域であ
り、この部分が誤判定されることによる画質低下は著し
い。
For example, the dynamic range of image density is set to 8 bits (0
~255: O ~FF [hex] in hexadecimal)
Then, in the case of a character image, the frequency distribution of the maximum density difference ΔD wax is O [hex ] as shown in FIG.
and has an extreme value near F F [hex ]. This F
Pixels that take a value near F[hex] are pixels that include the edge part of the character within a predetermined range, and pixels that take a value near 0 [hex] are all background pixels or edges within the predetermined range. It is a pixel inside a character that does not contain . Further, in the case of a photographic image, since local density changes are relatively small, the maximum density difference ΔD laX within a predetermined range is concentrated around 0 [hex] as shown in FIG. Two manuscripts of text and photographs with such a frequency distribution are
Using a predetermined threshold T, for example r-70 [hex] J, and identifying the type of image under the following conditions, ΔDlaX>T; Bunube − (1') Δ
D laX≦T; Photographic area - (2) In the case of a character image, the maximum density difference ΔD in the area indicated by
A pixel having laX is determined to be a character, but a pixel having the maximum density difference ΔD saw in the area indicated by ■ is erroneously determined to be a photograph. On the other hand, in the photographic image, ■
A pixel with the maximum density difference ΔD wax in the area indicated by is determined to be a photograph, but the maximum density difference ΔD in the area indicated by ■
Pixels containing wax are incorrectly determined to be characters. This erroneous determination of a photographic image means that a pixel within a predetermined range with a sharp change in density, such as the outline of a face, is determined to be a character, which results in deterioration of image quality due to a decrease in gradation. Portions in a photograph where the density changes rapidly are visually conspicuous areas, and erroneous determination of these areas can cause significant deterioration in image quality.

また、文字画像においては背景部の画素は濃度が小さく
一様であるので濃度差も小さく、所定範囲内の画素が全
て背景画素の領域は写真と誤判定される。
Furthermore, in a character image, pixels in the background part have a small density and are uniform, so the difference in density is small, and an area where all pixels within a predetermined range are background pixels is erroneously determined to be a photograph.

ここで背景画素の濃度が「0」のときは階調性を重視し
た二値化処理、例えばディザ処理を施しても解像性を重
視した二値化処理、例えば単純二値化処理と同一の結果
が得られるが、「0」でない微小な濃度を持った背景画
素をディザ処理した場合、ディザパターンにより背景部
に胡麻塩状のパターンが現れる。この背景部をマクロ的
に捉えた場合、胡麻塩状のパターンは原画の濃度を忠実
に再現しているといえるが、視覚的には原画にない目障
りなパターンと感じられる。これは背景部をディザ処理
したために文字部の解像性を満足できなかったために生
じたものである。
Here, when the density of the background pixel is "0", even if a binarization process that emphasizes gradation, such as dither processing, is performed, it is the same as a binarization process that emphasizes resolution, such as a simple binarization process. However, when a background pixel with a minute density other than "0" is dithered, a salt-and-pepper pattern appears in the background due to the dither pattern. When looking at this background from a macroscopic perspective, it can be said that the salt-and-pepper pattern faithfully reproduces the density of the original painting, but visually it feels like an obtrusive pattern that does not appear in the original painting. This occurred because the resolution of the text area could not be satisfied because the background area was dithered.

このように、最大濃度差△D一aXを特徴量として文字
・線図と写真との識別を行なう場合、写真画像において
は所定範囲内に濃度変化の大きい領域を含んだ画素が文
字と誤判定され、また、文字画像においては所定範囲内
の画素が全て背景画素の領域は写真と誤判定されるので
,2文字部の解像性と写真部の階調性を同時に満足する
画像を得ることができない、つまり、画像の各領域に応
じた処理を適応的かつ正確に行うことができないという
欠点があった。
In this way, when distinguishing between text/line drawings and photographs using the maximum density difference △D-aX as a feature quantity, in photographic images, pixels that include areas with large density changes within a predetermined range may be misjudged as characters. In addition, in a character image, a region where all pixels within a predetermined range are background pixels is incorrectly determined to be a photograph, so it is necessary to obtain an image that simultaneously satisfies the resolution of the two character parts and the gradation of the photograph part. In other words, it is not possible to adaptively and accurately process each region of an image.

(発明が解決しようとする課題) この発明は、上記したように最大濃度差を特徴量とルて
文字・線図と写真との識別を行なうものは、写真画像に
おいて所定範囲内に濃度変化の大きい領域を含んだ画素
が文字と誤判定され、文字画像においては背景部が写真
と誤判定されるので正確な画像領域の分離が行えず、こ
のため文字部の解像性と写真部の階調性を同時に満足す
る画像を得ることができない、つまり、画像の各領域に
応じた処理を適応的かつ正確に行うことができないとい
う欠を除去するためになされたもので、写真画像の濃度
変化の大きい領域における誤判定、及び文字画像の背景
部における誤判定をなくして正確な画像領域の分離が行
え、したがって画像の特徴に応じた二値化処理を適応的
かつ正“確に施すことにより文字部の解像性と写真部の
階調性を同時に満足する画像を得ることができる画像処
理装置を提供することを目的とする。
(Problems to be Solved by the Invention) As described above, this invention uses the maximum density difference as a feature quantity to distinguish between text/line drawings and photographs. Pixels containing large areas are incorrectly determined to be text, and in text images, background areas are incorrectly judged to be photographs, making it impossible to accurately separate image areas. This was done to eliminate the inability to obtain an image that satisfies the tonality at the same time, that is, the inability to adaptively and accurately process each area of the image. By eliminating misjudgments in large areas and misjudgments in the background of text images, accurate separation of image regions can be performed, and by adaptively and accurately performing binarization processing according to the characteristics of the image. It is an object of the present invention to provide an image processing device capable of obtaining an image that satisfies both the resolution of a character part and the gradation of a photograph part.

[発明の構成] (課題を解決するための手段) 本発明の画像処理装置は、処理対象画像における注目画
素を含む所定範囲内の画像情報から当該注目画素の特徴
情報を抽出する特徴抽出手段と、この特徴抽出手段によ
り特徴抽出される前記注目画素の周辺画素の特徴情報か
ら前記注目画素の画像の種類を予測する予測手段と、こ
の予測手段の予測結果に応じて画像の種類を識別するた
めの弁別閾値を選択する弁別閾値選択手段と、この弁別
閾値選択手段で選択された弁別閾値により前記特徴抽出
手段により抽出した特徴情報を弁別して画像の種類を判
定する判定手段と、この判定手段の判定結果に応じて前
記注目画素の画像情報を二値化する二値化閾値を決定す
る閾値決定手段と、この閾値決定手段により決定された
二値化閏値により前記注目画素の画像情報を二値化する
二値化手段とを具備したものである。
[Structure of the Invention] (Means for Solving the Problems) The image processing device of the present invention includes a feature extraction means for extracting feature information of a pixel of interest from image information within a predetermined range including the pixel of interest in an image to be processed. , prediction means for predicting the type of image of the pixel of interest from feature information of peripheral pixels of the pixel of interest whose features are extracted by the feature extraction means; and for identifying the type of image according to the prediction result of the prediction means. a discrimination threshold selection means for selecting a discrimination threshold of the discrimination threshold; a determination means for determining the type of image by discriminating the feature information extracted by the feature extraction means using the discrimination threshold selected by the discrimination threshold selection means; a threshold determining means for determining a binarization threshold for binarizing the image information of the pixel of interest according to a determination result; It is equipped with a binarization means for converting into values.

(作用) 本発明は、文字及び写真の混在した原稿においては、そ
れぞれの領域が微小な単位で分散して存在することは少
なく、原稿上の所定領域に集中した状態で存在するとい
う性質、及び文字画像と写真画像との局所的な平均a度
を比べた場合、文字画像の多くは背景画素で占められて
いるため文字画像の平均濃度の方が写真画像の平均濃度
に比べて小さいという性質を利用して、注目画素の周辺
画素の平均濃度と空間フィルタによる積和演算を行い、
その結果により注目画素の画像の種類を予測し、この予
測結果により画像の種類を識別するための弁別閾値を適
応的に選択し、この選択された弁別閾値で画像情報の特
徴情報を弁別することにより画像の種類を判定し、この
判定結果に基づいて画像の種類に適した二値化閾値で二
値化するようにしたものである。この際、上記弁5li
l1′閾値は、具体的には、上記予測結果が文字である
場合は注目画素は文字である可能性が大きいため注目画
素が文字と判定され易いように、逆に、上記予測結果が
写真である場合は注目画素は写真である可能性が大きい
ため注目画素が写真と判定され易いようにそれぞれ選択
される。
(Function) The present invention is characterized by the fact that in a document containing a mixture of text and photographs, each area is rarely dispersed in minute units, but is concentrated in a predetermined area on the document; When comparing the local average a degrees of a text image and a photo image, the average density of the text image is smaller than that of the photo image because most of the text image is occupied by background pixels. By using
Predicting the image type of the pixel of interest based on the result, adaptively selecting a discrimination threshold for identifying the image type based on the prediction result, and discriminating feature information of the image information using the selected discrimination threshold. The type of image is determined based on the determination result, and the image is binarized using a binarization threshold suitable for the type of image. At this time, the valve 5li
Specifically, the l1' threshold is set so that when the above prediction result is a text, there is a high possibility that the pixel of interest is a text, so the pixel of interest is likely to be determined as a text. In some cases, there is a high possibility that the pixel of interest is a photograph, so each pixel of interest is selected so that it is likely to be determined to be a photograph.

このように、所定領域に集中して分布する文字又は写真
画素に対して注目画素の周辺画素の特徴情報を加味した
識別を行なうことにより写真部の濃度変化の急峻な領域
及び文字部の背景領域の誤判定を抑制し、文字部と写真
部とを正確に識別して各画像の特徴に応じた二値化処理
を行なうことができるものとなっでいる。
In this way, text or photo pixels concentrated in a predetermined area are identified by taking into account characteristic information of surrounding pixels of the pixel of interest, thereby identifying areas with steep density changes in the photo area and background areas of the text area. This makes it possible to suppress erroneous determinations, accurately identify text portions and photographic portions, and perform binarization processing according to the characteristics of each image.

(実施例) 以下、図面を参照しながら本発明の一実施例について説
明する。
(Example) Hereinafter, an example of the present invention will be described with reference to the drawings.

第1図はこの発明に係わる画像処理装置の横戊を示すブ
ロック図である。この画像処理装置は、図示しないイメ
ージスキャナ等の読取装置にて読取った画像データS1
を、例えば1画素当り8ビットのデジタルデータとして
入力し、これを二値化処理して二値化画像信号S2を出
力するものである。ラインバッファ1はこのような画像
データS1を一時的に格納し、以下に行なう画像処理(
二値化処理)に供するものである。
FIG. 1 is a block diagram schematically showing an image processing apparatus according to the present invention. This image processing device processes image data S1 read by a reading device such as an image scanner (not shown).
is input as, for example, 8-bit digital data per pixel, which is then binarized and output as a binarized image signal S2. The line buffer 1 temporarily stores such image data S1 and performs the image processing (
(binarization processing).

第1図中の識別手段2は以下の機能を有するものである
。すなわち、識別手段2はラインバッファ1が所定クロ
ックに同期して出力する画像データ83〜S6を入力し
、その画像データ83〜S6から最大値最小値検出回路
21において注目画素を含む局所領域における最大濃度
Dmax  (信号S21)及び最小濃度Dsln  
(信号s22)を求め、さらに、これらを減算器22で
減算することにより差を求めて最大濃度差ΔDi+ax
  (信号S25〉を算出する。この最大濃度差△D 
waxは判定手段24に供給される。一方、上記画像デ
ータS3〜S6は平均値算出回路23に供給され、平均
濃度Da  (信号S24)が求められる。この平均濃
度Daは、注目画素予測部26に供給され、周辺領域の
特徴情報として用いられる。すなわち、注目画素予測部
26では、周辺領域のそれぞれの平均濃度を特定のパラ
メータで重み付けした積和演算結果により注目画素の画
像の種類を予測する。
The identification means 2 in FIG. 1 has the following functions. That is, the identification means 2 inputs the image data 83 to S6 that the line buffer 1 outputs in synchronization with a predetermined clock, and from the image data 83 to S6, the maximum value and minimum value detection circuit 21 calculates the maximum value in the local area including the pixel of interest. Density Dmax (signal S21) and minimum density Dsln
(signal s22), and further subtract these using the subtractor 22 to find the difference and calculate the maximum concentration difference ΔDi+ax.
(Calculate signal S25>. This maximum density difference △D
The wax is supplied to the determination means 24. On the other hand, the image data S3 to S6 are supplied to the average value calculation circuit 23, and the average density Da (signal S24) is calculated. This average density Da is supplied to the pixel of interest prediction unit 26 and used as feature information of the surrounding area. That is, the pixel of interest prediction unit 26 predicts the type of image of the pixel of interest based on the product-sum calculation result obtained by weighting each average density of the surrounding area with a specific parameter.

この予測結果は弁別閏値選択回路25に供給きれる。弁
別閾値選択回路25では、上記注目画素予測部26での
予測結果に応じて弁別閾値T b c又はThdを適応
的に選択する。この弁別閾値選択回路25で選択された
閾値Thaは判定手段24に供給される。判定手段24
では、注目画素を含む局所領域の最大濃度差ΔD wa
xを、上記弁別閾値選択回路25で選択した弁別閾値T
haで弁別することにより局所領域の画像情報が文字部
特有の性質を示すか、あるいは写真部としての特徴を示
すかを判定し、その結果を選択制御信号S7として出力
するものである。
This prediction result can be supplied to the discrimination leap value selection circuit 25. The discrimination threshold selection circuit 25 adaptively selects the discrimination threshold T b c or Thd according to the prediction result from the pixel of interest prediction section 26 . The threshold Tha selected by the discrimination threshold selection circuit 25 is supplied to the determination means 24. Judgment means 24
Then, the maximum density difference ΔD wa in the local area including the pixel of interest
x is the discrimination threshold T selected by the discrimination threshold selection circuit 25.
By discriminating based on ha, it is determined whether the image information of the local area exhibits characteristics specific to a text portion or characteristics of a photograph portion, and the result is output as a selection control signal S7.

上記識別千段2からの選択制御信号S7はセレクタ3に
供給され、閾値の切替え信号として用いられる。すなわ
ち、第1の閾値メモリ4からの第1の閾値Th 1、又
は第2の閾値メモリ5からのディザ・マトリックス等の
第2の閾ITh2のいずれかが画像データS1を二値化
処理するための閾値Thとして選択的に抽出される。そ
して、ラインバッファ1から読出され、遅延メモリ6に
て所定タイミングだけ遅延されて比較回路7に供給され
る画像データS8が、上記セレクタ3により抽出された
閾値Thにより二値化され、二値化画像信号S2として
出力される。
The selection control signal S7 from the discrimination stage 2 is supplied to the selector 3 and used as a threshold switching signal. That is, either the first threshold Th1 from the first threshold memory 4 or the second threshold ITh2 such as a dither matrix from the second threshold memory 5 binarizes the image data S1. is selectively extracted as the threshold Th. Then, the image data S8 read from the line buffer 1, delayed by a predetermined timing in the delay memory 6, and supplied to the comparison circuit 7 is binarized by the threshold Th extracted by the selector 3. It is output as an image signal S2.

なお、上記第1の閾@Thlは、動的閾値算出回路8に
おいて、入力された画像データS1に応じて動的に求め
られるものである(詳細は後述する). 上記構成及び動作についてさらに詳細に説明する。
Note that the first threshold @Thl is dynamically calculated in the dynamic threshold calculation circuit 8 according to the input image data S1 (details will be described later). The above configuration and operation will be explained in more detail.

ここで、注目画素を含む局所領域として「4×4画素」
の領域を設定し、その注目画素の特徴量を求めて識別手
段2により画像種別の識別処理を実行するものとすると
、ラインバッファ1としては3ラインバッファが用いら
れる。そして識別手段2は、この3ラインバッファ1か
ら列方向に4画素分ずつ並列に人力される画像データ8
3〜S6について以下に示すような信号処理を施すこと
になる。
Here, the local area including the pixel of interest is "4 x 4 pixels".
Assuming that an area is set, and the feature amount of the pixel of interest is determined and the image type identification processing is executed by the identification means 2, a 3-line buffer is used as the line buffer 1. Then, the identification means 2 receives image data 8 which is manually input from the 3-line buffer 1 in parallel for each 4 pixels in the column direction.
3 to S6 are subjected to signal processing as shown below.

すなわち、識別手段2は、上記ラインバッファ1から読
出される画像データ83〜S6から、「4×4画素」の
局所領域における最大濃度値D saw及び最小濃度値
D mlnをそれぞれ求めて最大濃度信号S21及び最
小濃度信号S22として出力する最大鎮最小値検出回路
21と、この最大値最小値検出回路21からの最大濃度
信号S21と最小濃度信号S22とを人力し、これらか
ら最大濃度!I!D■aXと最小濃度値D m1nとの
差を表わす最大濃度差ΔD laXを求め、最大濃度差
信号S25として出力する減算器22を備えている。
That is, the identifying means 2 calculates the maximum density value D saw and the minimum density value D mln in a local area of "4 x 4 pixels" from the image data 83 to S6 read from the line buffer 1, respectively, and obtains a maximum density signal. A maximum density signal S21 and a minimum density signal S22 are outputted by the maximum density signal S21 and the minimum density signal S22, and the maximum density signal S21 and the minimum density signal S22 from this maximum density signal S21 are manually input. I! A subtracter 22 is provided to obtain a maximum density difference ΔD laX representing the difference between D■aX and the minimum density value D m1n and output it as a maximum density difference signal S25.

この最大値最小値検出回路21及び減算器22で求めた
最大濃度差△D saxを上記局所領域における画像の
第1の特徴情報として用いる。
The maximum density difference ΔD sax obtained by the maximum value/minimum value detection circuit 21 and the subtracter 22 is used as the first feature information of the image in the local area.

また、識別手段2の平均値算出回路23は、ラインバッ
ファ1から読出した画像データS3〜S6から上記局所
領域における平均濃度値Daを求め、平均濃度信号S2
4として出力するものである。この平均値算出回路23
で求めた平均濃度Daを局所領域における画像の第2の
特徴情報として用いる。
Further, the average value calculation circuit 23 of the identification means 2 calculates the average density value Da in the local area from the image data S3 to S6 read from the line buffer 1, and calculates the average density value Da in the local area, and calculates the average density value Da in the local area.
4. This average value calculation circuit 23
The average density Da determined in is used as second feature information of the image in the local area.

しかして識別手段2における判定手段24は注目画素を
含んだ所定範囲内の最大濃度差ΔD laXを、後述す
る弁別閾値選択回路25で選択した閾値で弁別し、上記
局所領域における画像情報の種別を判定する。この判定
結果に従って上記画像情報を二値化処理する閾値を設定
するための選択制御信号S7が生成され、上記セレクタ
3における二値化閏値の選択を制御する。この判定手段
24は、画像の第1の特徴情報である最大濃度差ΔD 
sawと弁別閏値Thaとを比較する比較回路を備えて
いる。この比較回路は上記最大濃度差ΔD sawが弁
別閏(ilThaより大きい乙さ画像の種類を文字であ
るε判定する。又、逆に上記最大濃度差ΔD waxが
弁別閾値Thaより小さいとき画像の種類を写真である
と判定するようになっている。
The determining means 24 in the identifying means 2 discriminates the maximum density difference ΔD laX within a predetermined range including the pixel of interest using a threshold selected by a discrimination threshold selection circuit 25 to be described later, and determines the type of image information in the local area. judge. According to this determination result, a selection control signal S7 for setting a threshold value for binarizing the image information is generated, and controls the selection of the binarization leap value in the selector 3. This determining means 24 determines the maximum density difference ΔD which is the first characteristic information of the image.
A comparison circuit is provided to compare saw and a discrimination leap value Tha. This comparison circuit determines the type of image, which is a character, when the maximum density difference ΔD saw is larger than the discrimination threshold Tha. Conversely, when the maximum density difference ΔD wax is smaller than the discrimination threshold Tha, the type of the image is judged as ε. is determined to be a photograph.

注目画素予測部26は、ラインバッファ27及び積和演
算回路28より構威されている。ラインバッファ27は
、上記平均値算出回路23で算出した平均濃度Daを一
時的に蓄えておくもので、この内容は周辺画素の4v徴
情報として用いられる。
The target pixel prediction unit 26 is composed of a line buffer 27 and a product-sum calculation circuit 28. The line buffer 27 temporarily stores the average density Da calculated by the average value calculation circuit 23, and the contents thereof are used as 4V characteristic information of surrounding pixels.

本実施例においては、注目画素の周辺の参照範囲を、第
8図に示す領域としたために、2ラインバッファが必要
となっている。積和演算回路28は、上記ラインバッフ
ァ27に蓄えられた周辺画素の平均濃度を所定のクロツ
クに同期して順次入力し、.予め設定しておいた係数(
第9図参照)で重み付けし、注目画素の種類を予測する
注目画素予測情報を生成する。この積和演算回路28は
、注目画素予測情報と所定の閏値Thbとを比較する比
較器35を併せて備えている。そして、この比較器35
は注目画素予測情報が閾値Thbより大きいとき注目画
素を写真と予測して「0」を出力し、注目画素予I1−
1情報が閾値Thbより小さいときは注目画素を文字と
予測して「1」を出力する。
In this embodiment, since the reference range around the pixel of interest is the area shown in FIG. 8, a two-line buffer is required. The product-sum calculation circuit 28 sequentially inputs the average density of peripheral pixels stored in the line buffer 27 in synchronization with a predetermined clock. The preset coefficient (
(see FIG. 9) to generate pixel of interest prediction information that predicts the type of pixel of interest. This product-sum calculation circuit 28 also includes a comparator 35 that compares the target pixel prediction information and a predetermined leap value Thb. And this comparator 35
predicts the pixel of interest as a photo when the pixel of interest prediction information is larger than the threshold Thb, outputs "0", and predicts the pixel of interest as a photo.
When the 1 information is smaller than the threshold Thb, the pixel of interest is predicted to be a character and "1" is output.

弁別閾値選択回路25は、注目画素予測部26の予測結
果により所定の閾値Thc又はThd(Thc<Thd
)の一方を選択する回路で、注目画素の予測結果が「1
』のときにTheを、予測結果が「0」のときにThd
をそれぞれ選択し、閾値Thaとして出力するものであ
る。
The discrimination threshold selection circuit 25 selects a predetermined threshold Thc or Thd (Thc<Thd) based on the prediction result of the pixel of interest prediction unit 26.
), the prediction result for the pixel of interest is “1”.
', the prediction result is '0', Thd.
are selected and output as the threshold value Tha.

さて、上述した減算器22が出力する第1の特徴情報(
最大濃度差ΔD■aX )及び平均値算出回路23が出
力する第2の特徴情報(平均濃度Da)は次のようにし
て求める。
Now, the first feature information (
The maximum density difference ΔD■aX ) and the second characteristic information (average density Da) output by the average value calculation circuit 23 are obtained as follows.

第2図は最大値最小値検出回路21の構成を示すブロッ
ク図である。この.最大値最小値検出回路21は処理対
象画像中の注目画素に対して、jI3図に示すように、
その注目画素(斜線で示す画素)を含む「4×4画素ゴ
の領域内における濃度の最大値D sawと最小tnD
wlnとをそれぞれ求めるものである。
FIG. 2 is a block diagram showing the configuration of the maximum value/minimum value detection circuit 21. As shown in FIG. this. The maximum value/minimum value detection circuit 21 detects the pixel of interest in the image to be processed, as shown in Figure jI3.
The maximum density value D saw and the minimum tnD in the 4×4 pixel area including the pixel of interest (pixel indicated by diagonal lines)
wln and wln, respectively.

すなわち、最大値最小値検出回路21は、例えば第5図
に動作タイミングを示すように、ラインバッファ1から
クロックCLKに同期して列方向に4画素単位で順次入
力される1画素当り8ビットの画像データ83〜S6を
、セレクタ21aにより比較器2lb,21c,21d
,21eに順次分配する。この列単位に入力される画像
データ83〜S6のセレクタ21aによる比較器2lb
.21c.21d,21eへの分配は、クロックCLK
を受けて動作するカウンタ21hからの選択信号SEO
,SEIにより、セレクタ21aの出力端子AO−3,
BO−3.CO−3,DO−3を順次選択して画像デー
タ83〜S6を出力させることにより行なう。そして、
比較器21b,21c.21d,21eによって画像情
報を4画素単位でそれぞれ列方向に比較し、その列にお
ける最大濃度ε最小濃度とをそれぞれ求める。次段の比
較器21f,21gは、上記比較器21b,21c,2
1d,21eからの信号をEDG1のタイミングで入力
し、列方向にそれぞれ求めた最大値と最小値とを行方向
に比較し、その中の最大値と最小値をそれぞれ求めるも
のである。以上の処理によって第3図に示す「4×4画
素」の領域内における最大濃度値D waxと最小濃度
値D sinがそれぞれ求められ、最大濃度信号$21
および最小濃度信号S22としてそれぞれEDG2のタ
イミングで出力される。
That is, the maximum value/minimum value detection circuit 21 receives 8 bits per pixel, which are sequentially input from the line buffer 1 in units of 4 pixels in the column direction in synchronization with the clock CLK, as shown in FIG. The image data 83 to S6 are sent to the comparators 2lb, 21c, 21d by the selector 21a.
, 21e. A comparator 2lb by the selector 21a of the image data 83 to S6 input in this column unit
.. 21c. The distribution to 21d and 21e is based on the clock CLK.
The selection signal SEO from the counter 21h that operates in response to the
, SEI, the output terminal AO-3 of the selector 21a,
BO-3. This is done by sequentially selecting CO-3 and DO-3 and outputting image data 83 to S6. and,
Comparators 21b, 21c. 21d and 21e compare the image information in units of four pixels in the column direction, and determine the maximum density ε and the minimum density in that column, respectively. The comparators 21f, 21g at the next stage are the comparators 21b, 21c, 2
The signals from 1d and 21e are input at the timing of EDG1, and the maximum and minimum values obtained in the column direction are compared in the row direction, and the maximum and minimum values among them are obtained, respectively. Through the above processing, the maximum density value Dwax and the minimum density value Dsin within the "4 x 4 pixel" area shown in FIG. 3 are respectively determined, and the maximum density signal $21
and a minimum density signal S22, respectively, at the timing of EDG2.

減算器22は、このようにして求めた最大濃度値D l
aXと最小濃度値D sinとから′!J1の特徴情報
である最大濃度差ΔD waxを次式により求めるもの
である。
The subtracter 22 calculates the maximum density value D l obtained in this way.
From aX and the minimum density value D sin'! The maximum density difference ΔD wax, which is the characteristic information of J1, is determined by the following equation.

ΔDggax −I)sax −Difn     −
 (3)この第1の特徴情報である最大濃度差ΔD s
axは判定手段24に与えられる。
ΔDggax −I)sax −Difn −
(3) Maximum density difference ΔD s which is this first characteristic information
ax is given to the determining means 24.

一方、第2の特徴情報である平均濃度値paを求める平
均値算出回路23は、例えば第6図に示すように構威さ
れる。この平均値算出回路23は、上記最大値最小値検
出回路21と同様に、ラインバッファ1からクロックC
LKに同期して列方向に4画素単位で順次入力される画
素当り8ビットの画像データ83〜S6をセレクタ23
aにより加算器23b,23c,23d,23eに順次
分配する。この列単位に入力される画像データ83〜S
6のセレクタ23aによる加算器23b,23c.23
d,23eへの分配は、クO ックCLKを受けて動作
するカウンタ23hからの選択信号SE2,SE3によ
りセレクタ23gの出力端子A O − 3、BO−3
,CD−3,DO−3を順次選択して画像データ53〜
S6を出力させることにより行なう。そして、加算器2
3b,23c,23d,23eによって画像情報を4画
素単位でそれぞれ列方向に加算し、各列における画像i
a度の和を出力する。次段の加算器23fは、これらの
加算器23b,23c.23d,23eによってそれぞ
れ求めた列方向4画素の濃度値の和を4行分に亙って加
算することで、前述した「4×4画素」の局所領域にお
ける濃度値の総和を求めている。この濃度値の総和を除
猿a23gにて上記局所領域を構成する画素数〔16〕
で除算することにより、その局所領域の平均濃度Daが
第2の特徴情報として求められる。
On the other hand, the average value calculation circuit 23 for calculating the average density value pa, which is the second characteristic information, is configured as shown in FIG. 6, for example. This average value calculation circuit 23, like the maximum value/minimum value detection circuit 21 described above, is connected to the clock C from the line buffer 1.
The selector 23 selects image data 83 to S6 of 8 bits per pixel, which are input sequentially in units of 4 pixels in the column direction in synchronization with LK.
The data is sequentially distributed to adders 23b, 23c, 23d, and 23e by a. Image data 83 to S input in this column unit
Adders 23b, 23c .6 by selector 23a. 23
Distribution to output terminals AO-3 and BO-3 of the selector 23g is performed by selection signals SE2 and SE3 from the counter 23h which operates in response to the clock CLK.
, CD-3, DO-3 sequentially and image data 53~
This is done by outputting S6. And adder 2
3b, 23c, 23d, and 23e, the image information is added in the column direction in units of 4 pixels, and the image i in each column is
Outputs the sum of a degrees. The next stage adder 23f includes these adders 23b, 23c . By adding the sums of the density values of the four pixels in the column direction obtained by steps 23d and 23e over four rows, the sum of the density values in the aforementioned local area of "4 x 4 pixels" is obtained. The sum of these density values is calculated as the number of pixels composing the local area [16] by a23g.
By dividing by , the average density Da of the local area is obtained as the second feature information.

また、第7図は積和演算回路28の構成を示すものであ
る。シフトレジスタ31.32は8ビット×5のシリア
ルイン・パラレルアウトの機能を有するもので、シフト
レジスタ31は注目画素の前々ラインの周辺画素の平均
濃度を、シフトレジスタ32は注目画素の前ラインの周
辺画素の平均濃度を蓄えておくものである。また、シフ
トレジスタ30は8ビット×2のシリアルイン◆パラレ
ルアウトの機能を有するもので、注目画素の前画素、前
々画素の平均濃度を蓄えておくものである。
Further, FIG. 7 shows the configuration of the product-sum calculation circuit 28. The shift registers 31 and 32 have an 8-bit x 5 serial-in/parallel-out function, and the shift register 31 stores the average density of peripheral pixels in the line two lines before the pixel of interest, and the shift register 32 stores the average density of the peripheral pixels of the line before the pixel of interest. The average density of surrounding pixels is stored. The shift register 30 has an 8-bit x 2 serial in/parallel out function, and stores the average density of the pixel before the pixel of interest and the pixel before the pixel of interest.

また、例えばROMで構成される乗算器33・・・は、
シフトレジスタ30,31、32が出カする周辺画素の
平均濃度をアドレス情報として入力し、第9図に示す重
み付けパラメータとの積を計算するもノテアル。加算器
34a+  34b,34c,34dは、乗算器33・
・・にょり重み付けされた周辺画素の平均濃度の総和を
算出するものである。
Further, the multiplier 33 . . . configured with a ROM, for example, is
The average density of peripheral pixels output by the shift registers 30, 31, and 32 is input as address information, and the product with the weighting parameter shown in FIG. 9 is calculated. The adders 34a+ 34b, 34c, and 34d are the multipliers 33.
. . . The sum of the weighted average densities of surrounding pixels is calculated.

このように乗算器33・・・と加算器34a,34b.
34c,34dとによって周辺画素の平均濃度の積和演
算を実行する。ここで加算器34dの出力が注目画素予
測情報となる。比較器35は、この注目画素予測情報と
所定の閾値Thbとを比較し、判定結果を示す信号82
3を弁別閾値選択回絡25に供給する。
In this way, the multipliers 33... and the adders 34a, 34b.
34c and 34d execute a product-sum calculation of the average density of surrounding pixels. Here, the output of the adder 34d becomes the target pixel prediction information. The comparator 35 compares this target pixel prediction information with a predetermined threshold Thb, and outputs a signal 82 indicating the determination result.
3 is supplied to the discrimination threshold selection circuit 25.

判定手段24(第1図参照)は、上記減算器22が出力
する最大濃度差ΔD IIaxを弁別閾値選択回路25
が出力する閾値Thaで弁別し、画像の種別を判定する
ことになる。判定条件を次に示す。
The determining means 24 (see FIG. 1) uses a discrimination threshold selection circuit 25 for determining the maximum concentration difference ΔD IIax output from the subtracter 22.
The image type is determined using the threshold value Tha output by the image generator. The judgment conditions are shown below.

ΔDsax  > T h  a          
     ・=  (4)ΔD IaX  ≦Tha 
              ・=(5)判定手段24
は、(4)式が満足された場合は注目画素を文字と判定
して「1」を出力し、(5)式が満足された場合は注目
画素を写真と判定して「0」を出力する。
ΔDsax > T h a
・= (4)ΔD IaX ≦Tha
・=(5) Judgment means 24
If formula (4) is satisfied, the pixel of interest is determined to be a character and outputs "1", and if formula (5) is satisfied, the pixel of interest is determined to be a photograph and outputs "0". do.

なお、このような判定結果に従ってセレクタ3により選
択される第1の閾値Thlは動的閾値算出回路8により
、その画像情報に応じて生成される。具体的には前記最
大値最小値検出回路21で求めた最大濃度値D wax
と最小濃度値D sinとに従い、画像データS1を二
値化する為の閾値Bhを、例えば B h= (Dmax +Dmln ) / 2   
− (6)として動的に求め、第1の閾値メモリ4に記
憶しておくものである。
Note that the first threshold value Thl selected by the selector 3 according to such a determination result is generated by the dynamic threshold value calculation circuit 8 according to the image information. Specifically, the maximum density value D wax obtained by the maximum value minimum value detection circuit 21
and the minimum density value D sin, the threshold value Bh for binarizing the image data S1 is set as, for example, B h = (Dmax + Dmln) / 2.
- (6) is dynamically determined and stored in the first threshold memory 4.

これに対して写真部を二値化処理するための第2の閾値
Th2は、例えば第4図に示すようなディザパターン情
報(ディザマトリックス)として与えられ、第2の閾値
メモリ5に記憶されている。
On the other hand, the second threshold Th2 for binarizing the photographic area is given as dither pattern information (dither matrix) as shown in FIG. 4, for example, and is stored in the second threshold memory 5. There is.

このような閾値Bh(第1の閾値Th 1)又はディザ
パターンにより示される閾値(第2の閾値Th2)が判
定手段24の判定結果に基づいてセ1/クタ3により選
択的に′抽出され、前記画像データS1の二値化閾値T
hとして用いられる。
Such a threshold value Bh (first threshold value Th1) or a threshold value indicated by the dither pattern (second threshold value Th2) is selectively extracted by the sensor 1/actor 3 based on the determination result of the determination means 24, Binarization threshold T of the image data S1
Used as h.

以上のように、文字及び写真の混在した原稿においては
、それぞれの領域が微小な単位で分散して存在すること
は少なく、原稿上の所定領域に集中した状態で存在する
という性質、及び文字画像と写真画像との局所的な平均
濃度を比べた場合、文字画像の多くは背景画素で占めら
れているため文字画像の平均濃度の方が写真画像の平均
濃度に比べて小さいという性質を利用して、注目画素の
周辺画素の平均濃度と空間フィルタによる積和演算を行
い、その結果により注目画素の画像の種類を予測し、こ
の予測結果により画像の種類を識別するための弁別閾値
を適応的に選択し、この選択された弁別閾値で画像情報
の特徴情報を弁別することにより画像の種類を判定し、
この判定結果に基づいて画像の種類に的した二値化閾値
で二値化するようにしたので、濃度差だけによる識別で
は、写真画像において所定範囲内に濃度変化の激しい領
域(例えば顔の輪郭部)を含んだ画素が誤判定される問
題を、また、文字画像においては背景部の画素は濃度が
小さく一様であるので濃度差も小さく、所定範囲内の画
素が全て背景画素の領域は写真と誤判定されるという問
題を解決できるものとなっている。
As mentioned above, in a document containing a mixture of text and photographs, each area is rarely dispersed in minute units, but is concentrated in a predetermined area on the document, and the character image When comparing the local average density between the text image and the photographic image, the average density of the character image is smaller than that of the photographic image, which is taken advantage of because most of the character image is occupied by background pixels. Then, a product-sum operation is performed using the average density of surrounding pixels of the pixel of interest and a spatial filter, the type of image of the pixel of interest is predicted based on the result, and the discrimination threshold for identifying the image type is adaptively set based on the prediction result. and determine the type of image by discriminating the feature information of the image information using the selected discrimination threshold,
Based on this judgment result, binarization is performed using a binarization threshold appropriate for the type of image, so identification based only on density differences is difficult to achieve in areas with large density changes within a predetermined range (for example, the outline of a face) in a photographic image. In addition, in character images, pixels in the background have small and uniform density, so the difference in density is small, and all pixels within a predetermined range are background pixels. This solves the problem of images being misidentified as photographs.

すなわち、濃度差だけでは誤判定される特徴情報を有す
る画素でも、周辺画素の情報を参照して弁別閾値を適応
的に選択・切り替えすることにより画像の種別を確実に
識別することが可能となっている。この結果、文字部と
写真部を正確に判定することができ、複数種類の情報が
存在する文書画像において、文字部については解像性良
く二値化することができ、また写真部については階調性
を保存して二値化することができるものとなっている。
In other words, even if a pixel has characteristic information that would be incorrectly determined based on the density difference alone, it is now possible to reliably identify the image type by adaptively selecting and switching the discrimination threshold by referring to the information of surrounding pixels. ing. As a result, it is possible to accurately determine text and photo parts, and in document images containing multiple types of information, text parts can be binarized with good resolution, and photo parts can be binarized with high resolution. The tonality can be preserved and binarized.

なお、本発明は上記実施例に限定されるものではない。Note that the present invention is not limited to the above embodiments.

例えば、所定範囲の領域は「4×4画素」に限定される
ものではなく、処理対象画像に応じて可変設定するよう
に構威することもできる。同様に周辺画素の参照領域も
第8図に示した領域に限られるものではない。また、閾
値の適応的な発生手段も種々変形可能であり、写真部の
二値化に用いるディザパターンも特に限定されない。ま
た、そのディザマトリックスの大きさも限定されるもの
ではなく、ディザパターンもドット分散型に閾値配置す
ることのみならずドット集中形式で閾値配置することも
可能である。
For example, the predetermined area is not limited to 4×4 pixels, and may be set variably depending on the image to be processed. Similarly, the reference area of peripheral pixels is not limited to the area shown in FIG. 8. Further, the means for adaptively generating the threshold value can be modified in various ways, and the dither pattern used for binarizing the photographic area is not particularly limited. Further, the size of the dither matrix is not limited either, and the dither pattern can be arranged not only in a dot-distributed manner but also in a dot-concentrated manner.

さらに、本実施例では、所定範囲内の最大a度差を特徴
情報としたが、特徴情報はこれに限定されるものではな
い。また、本発明では、特徴量の値および判定閾値は読
取装置で読取った画像信号つまり画像情報の反射率に対
応した量を基に算出しているが、この量を画像濃度(反
射率の逆数の対数)に変換した値でも良く、さらには人
間の視覚特性を考慮した変換信号をもとに識別を行って
も良い。
Further, in this embodiment, the maximum a degree difference within a predetermined range is used as the characteristic information, but the characteristic information is not limited to this. Furthermore, in the present invention, the value of the feature amount and the determination threshold are calculated based on the image signal read by the reading device, that is, the amount corresponding to the reflectance of the image information. It is also possible to use a value converted into a logarithm of (logarithm of

[発明の効果J 以上説明したように本発明によれば、写真画像の濃度変
化の大きい領域における誤判定、及び文字画像の背景部
における誤判定をなくして正確な画像領域の分離が行え
、したがって画像の特徴に応じた二値化処理を適応的か
つ正確に施すことにより文字部の解像性と写真部の階調
性を同時に満足する画像を得ることができる画像処理装
置を提供できる。
[Effects of the Invention J As explained above, according to the present invention, it is possible to eliminate misjudgments in areas with large density changes in photographic images and misjudgments in background areas of character images, and to perform accurate separation of image regions. It is possible to provide an image processing device that can obtain an image that satisfies both the resolution of the text portion and the gradation of the photographic portion by adaptively and accurately performing binarization processing according to the characteristics of the image.

【図面の簡単な説明】[Brief explanation of drawings]

図は本発明の一実施例を示すもので、第1図は本発明の
画像処理装置の構或を示すブロック図、第2図は最大値
最小位検出回路の構成を示す詳細ブロック図、第3図は
動作を説明するための局所領域の一例を示す図、第4図
はディザパターンの一例を示す図、第5図は最大値最小
値検出回路の動作を説明するためのタイミングチャート
、第6図は平均値算出回路の構成を示す詳細ブロック図
、第7図は注目画素予測回路の構或を示すブロック図、
第8図は周辺画素の参照範囲を説明するための図、第9
図は周辺画素に重み付けする重み付け係数を説明するた
めの図、第10図は典型的な文字画像の最大濃度差の頻
度分布を説明するための図、第11図は典型的な写真画
像の最大濃度差の頻度分布を説明するための図である。 1・・・ラインバッファ、2・・・識別手段、3・・・
セレクタ(二値化手段)、4・・・第1の閾値メモリ、
5・・・第2の閾値メモリ、6・・・遅延メモリ、7・
・・比較同路(二値化手段)、8・・・動的閾値算出回
路、21・・・最大値最小値検出同路(特徴抽出手段)
、22・・・減算器(特徴抽出手段) 23・・・平均
値算出回路、24・・・判定手段、25・・・弁別閾値
選択回路(弁別閾値選択手段)、26・・・注目画素予
測部(予測手段) 27・・・ラインバツファ、28・
・・積和演算回路。
The figures show one embodiment of the present invention, and FIG. 1 is a block diagram showing the configuration of an image processing apparatus of the present invention, FIG. 2 is a detailed block diagram showing the configuration of a maximum value/minimum detection circuit, and FIG. 3 is a diagram showing an example of a local area for explaining the operation, FIG. 4 is a diagram showing an example of a dither pattern, FIG. 5 is a timing chart for explaining the operation of the maximum value/minimum value detection circuit, and FIG. FIG. 6 is a detailed block diagram showing the configuration of the average value calculation circuit, FIG. 7 is a block diagram showing the configuration of the target pixel prediction circuit,
Figure 8 is a diagram for explaining the reference range of peripheral pixels, Figure 9
The figure is a diagram for explaining the weighting coefficient that weights surrounding pixels, Figure 10 is a diagram for explaining the frequency distribution of the maximum density difference of a typical character image, and Figure 11 is a diagram for explaining the frequency distribution of the maximum density difference of a typical photographic image. FIG. 3 is a diagram for explaining the frequency distribution of concentration differences. 1... Line buffer, 2... Identification means, 3...
Selector (binarization means), 4... first threshold memory,
5... Second threshold memory, 6... Delay memory, 7.
. . . Comparison circuit (binarization means), 8 . . . Dynamic threshold calculation circuit, 21 . . . Maximum value minimum value detection circuit (feature extraction means).
, 22... Subtractor (feature extraction means) 23... Average value calculation circuit, 24... Judgment means, 25... Discrimination threshold selection circuit (discrimination threshold selection means), 26... Target pixel prediction Part (prediction means) 27... Line buffer, 28.
...Product-sum calculation circuit.

Claims (1)

【特許請求の範囲】 処理対象画像における注目画素を含む所定範囲内の画像
情報から当該注目画素の特徴情報を抽出する特徴抽出手
段と、 この特徴抽出手段により特徴抽出される前記注目画素の
周辺画素の特徴情報から前記注目画素の画像の種類を予
測する予測手段と、 この予測手段の予測結果に応じて画像の種類を識別する
ための弁別閾値を選択する弁別閾値選択手段と、 この弁別閾値選択手段で選択された弁別閾値により前記
特徴抽出手段により抽出した特徴情報を弁別して画像の
種類を判定する判定手段と、この判定手段の判定結果に
応じて前記注目画素の画像情報を二値化する二値化閾値
を決定する閾値決定手段と、 この閾値決定手段により決定された二値化閾値により前
記注目画素の画像情報を二値化する二値化手段と を具備したことを特徴とする画像処理装置。
[Claims] Feature extraction means for extracting feature information of a pixel of interest from image information within a predetermined range including the pixel of interest in an image to be processed, and surrounding pixels of the pixel of interest whose features are extracted by the feature extraction means. a prediction means for predicting the type of image of the pixel of interest from feature information of the pixel of interest; a discrimination threshold selection means for selecting a discrimination threshold for identifying the image type according to the prediction result of the prediction means; determining means for determining the type of image by discriminating the feature information extracted by the feature extracting means using a discrimination threshold selected by the means; and binarizing the image information of the pixel of interest according to the determination result of the determining means. An image characterized by comprising: a threshold determining means for determining a binarization threshold; and a binarizing means for binarizing the image information of the pixel of interest using the binarizing threshold determined by the threshold determining means. Processing equipment.
JP1160124A 1989-06-22 1989-06-22 Picture processor Pending JPH0326064A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1160124A JPH0326064A (en) 1989-06-22 1989-06-22 Picture processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1160124A JPH0326064A (en) 1989-06-22 1989-06-22 Picture processor

Publications (1)

Publication Number Publication Date
JPH0326064A true JPH0326064A (en) 1991-02-04

Family

ID=15708388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1160124A Pending JPH0326064A (en) 1989-06-22 1989-06-22 Picture processor

Country Status (1)

Country Link
JP (1) JPH0326064A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318213A (en) * 2005-05-12 2006-11-24 Sharp Corp Image processing circuit and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318213A (en) * 2005-05-12 2006-11-24 Sharp Corp Image processing circuit and image processing method

Similar Documents

Publication Publication Date Title
JP3276985B2 (en) Image pixel processing method
JPH02253765A (en) Picture processor
US4817174A (en) Image processing apparatus
EP0415648A2 (en) Image processing apparatus
JPH06103923B2 (en) Image processing method and apparatus
KR930000033B1 (en) Quantification wide adjusting circuits using edge detection
US5278919A (en) Image area determining apparatus
EP0297516B1 (en) Picture signal binarization system
JP3031994B2 (en) Image processing device
JPH0725064A (en) Picture forming equipment of electrophotographic printer
JPH0326064A (en) Picture processor
JPH10108012A (en) Image area separation device
JP3245600B2 (en) Image processing device
JP3754736B2 (en) Image processing apparatus and method
JPH0326065A (en) Picture processing unit
JPH0325580A (en) Image processing device
JPH0554190A (en) Picture processor
JP3834484B2 (en) Image processing method, image processing apparatus, image forming apparatus, and computer-readable recording medium
JPS6180964A (en) Picture signal processing method
JPH0357083A (en) Image area determination method for binary images
JP3146517B2 (en) Image processing device
JP3146516B2 (en) Image processing device
JPH09200525A (en) Image processing device
JPH04120975A (en) Picture processor
JPH0561677B2 (en)