JPH02105152A - Cutout mask creation system - Google Patents

Cutout mask creation system

Info

Publication number
JPH02105152A
JPH02105152A JP63259055A JP25905588A JPH02105152A JP H02105152 A JPH02105152 A JP H02105152A JP 63259055 A JP63259055 A JP 63259055A JP 25905588 A JP25905588 A JP 25905588A JP H02105152 A JPH02105152 A JP H02105152A
Authority
JP
Japan
Prior art keywords
image
background
data
color
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63259055A
Other languages
Japanese (ja)
Inventor
Hidemichi Fukazawa
深澤 秀通
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP63259055A priority Critical patent/JPH02105152A/en
Publication of JPH02105152A publication Critical patent/JPH02105152A/en
Pending legal-status Critical Current

Links

Landscapes

  • Preparing Plates And Mask In Photomechanical Process (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Abstract] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】[Detailed description of the invention] 【産業上の利用分野】[Industrial application field]

本発明は、入力される画像から所定部、例えば背景部を
抽出して印刷製版フィルム等を作成するための切抜きマ
スク作成システムに係り、特に、カラー画像から縁点を
検出して特徴背景部を切抜いた印刷製版フィルムを作成
するための切抜きマスク作成システムの改良に関するも
のである。
The present invention relates to a cutout mask creation system for extracting a predetermined part, for example, a background part, from an input image to create a printing plate film, etc., and in particular, to detect edge points from a color image to extract a characteristic background part. This invention relates to an improvement of a cutout mask creation system for creating a cutout printing plate film.

【従来の技tif】[Conventional technique tif]

写真原稿中から必要な部分のみを切出して使用する場合
、例えば、角型の写真原稿中をハート型にトリミングし
て使用するとか、写真原稿中の対象物のみを抽出して、
他の写真原稿と合成して使用するとかいつな場合、一般
には切抜き処理を実行する。 即ち、レイアウト用紙にトレースマシーンで必要な絵柄
の輪郭をなぞって切抜きを指定したり、写真原稿にトレ
ーシングペーパーを被せ、必要な部分の輪郭の描き込ん
だ上、不必要な写真を斜線で潰して、切抜きを指定し、
このような切抜き指定に従って、切抜きマスク等を作成
して合成を実行する。 しかしながら、印刷物となるものは、上記のような単一
の色エリアから成るものばかりではなく、徐々に色が変
化したり、カラー写真用のネガ及びポジフィルム等があ
り、このようなカラー原稿中の特定の物、例えば人物と
か家具等のみを抽出してフィルム版を作成する場合には
、切り取られる領域に、明度、彩度、色相の異なる領域
が重なり合っているので、上記の手法では忠実なフィル
ム版を自動作成できない。 従って、カラーフィルム原稿の場合には、そのフィルム
画像を投影して、オペレータが切抜きエリアに対応する
マスクを作成し、そのマスクとフィルム原稿とを重ねる
ことにより、所望とするカラー原稿のフィルム版(Y−
ffi C,Bk版)を作成するといった手作業に委ね
られているため、フィルム原稿の画像の複雑さに起因し
て、フィルム版作成効率が著しく低下し、印刷工程日数
を大幅に増加してしまう等の問題点があった。 このような問題点を解消するべく、フィルム画像を画像
信号化し、デイスプレィ上に投影して、オペレータが、
切抜き対象画像の輪郭を例えばマウスやカーソル等の指
示具で正確に指定していくことで切抜き線(例えば切抜
きベクトル)を生成する方法が知られている。しかしな
がら、オペレータがカーソル等で切抜き対象画像の輪郭
を正確に指定するのは、作業に非常に多くの時間を要し
、オペレータに多大な負荷がかかるという問題点があっ
た。 このような問題点を解消するべく、例えば画像中の背景
部を構成する色要素をカーソル等で指定することで、切
抜き線を自動的に抽出する方法や、画像中の背景部と思
われる部分の一部(例えば左上角)をオペレータが予め
指定して、その背景部の濃度の変化軸を見つけ、該濃度
変化軸を考慮した濃度分類により切抜き線を自動的に抽
出する方法が考えられている。 しかしながら、背景部と同じような色要素を抽出するた
め、実体部にも同じような色要素がある場合に、該実体
部が抜かれてしまったり、背景部に実体部の影が落ちて
輪郭がはっきりしない場合に、正確に輪郭を抽出するこ
とができないという問題点を有していた。
When cutting out and using only the necessary parts from a photographic manuscript, for example, trimming a square photographic manuscript into a heart shape, or extracting only the object from the photographic manuscript,
When a photograph is to be used in combination with other photographic originals, clipping processing is generally performed. In other words, you can use a tracing machine to trace the outline of the required image on layout paper and designate a cutout, or cover the photo original with tracing paper, draw the outline of the necessary part, and then cross out unnecessary parts with diagonal lines. to specify the crop,
According to such clipping specifications, a clipping mask or the like is created and composition is executed. However, printed matter does not only consist of a single color area as mentioned above, but also includes gradual color changes, negative and positive films for color photographs, etc. When creating a film version by extracting only a specific object, such as a person or furniture, the area to be cut out overlaps with areas with different brightness, saturation, and hue, so the above method cannot produce a faithful image. Film version cannot be created automatically. Therefore, in the case of a color film original, the operator creates a mask corresponding to the cutout area by projecting the film image, and then overlaps the mask with the film original to create the desired film version of the color original ( Y-
Due to the complexity of the image of the film original, the efficiency of film plate creation is significantly reduced and the number of days required for the printing process is significantly increased. There were problems such as. In order to solve these problems, the film image is converted into an image signal and projected onto a display so that the operator can
A method is known in which a cutting line (for example, a cutting vector) is generated by accurately specifying the outline of an image to be cut out using a pointing tool such as a mouse or a cursor. However, there is a problem in that it takes a very long time for the operator to accurately specify the outline of the image to be cropped using a cursor or the like, and it places a heavy burden on the operator. In order to solve these problems, we have developed a method that automatically extracts the cutout line by specifying the color elements that make up the background in the image with a cursor, and A method has been considered in which the operator specifies a part (for example, the upper left corner) in advance, finds the density change axis of the background part, and automatically extracts the cutout line by density classification that takes into account the density change axis. There is. However, since the same color elements as the background part are extracted, if the substance part also has similar color elements, the substance part may be removed, or the shadow of the substance part may fall on the background part, causing the outline to be distorted. This method has a problem in that it is not possible to accurately extract the contour when the contour is not clear.

【発明が達成しようとする課題】[Problem to be achieved by the invention]

本発明は、前記従来の問題点を解消するべくなされたも
ので、切抜き線を迅速に作成することができ、しかも、
全自動の場合よりも正確に輪郭線を抽出することが可能
な切抜きマスク作成システムを提供することを目的とす
る。  ・
The present invention was made in order to solve the above-mentioned conventional problems, and it is possible to quickly create a cutout line, and also,
The purpose of the present invention is to provide a cutout mask creation system capable of extracting contour lines more accurately than in a fully automatic system.・

【課題を達成するための手段】[Means to achieve the task]

本発明は、入力される画像から所定部を抽出するための
切抜きマスク作成システムにおいて、画像の輪郭が含ま
れる部分領域をオペレータが大まかに指定するための領
域指定手段と、該領域指定手段で指定された部分領域に
対して自動切抜きを行う手段とを備えることにより、前
記課題を達成したものである。
The present invention provides a cutting mask creation system for extracting a predetermined portion from an input image, and provides an area specifying means for an operator to roughly specify a partial area including the outline of the image, and a region specifying means for specifying the partial area including the outline of the image. The above-mentioned problem has been achieved by providing a means for automatically cutting out a partial area that has been cut out.

【作用】[Effect]

本発明は、対象画像の全体に対して自動切抜きを行おう
とすると、演算領域が膨大なものとなり、処理時間が非
常にかかる上、切抜き性能が不安定となるが、ある程度
、領域を限定してやれば、自動切抜きが容易且つ正確に
なること、及び、輪郭を大まかに指定するだけであれば
、オペレータにも、それ程、負担がかからないことに着
目してなされたものである。即ち、画像の輪郭が含まれ
る部分領域をオペレータが大まかに指定し、該オペレー
タによって指定された部分領域に対して自動切抜きを行
う。 例えば第1図のような画@2がある場合、オペレータは
まず、自動切抜きに備えて、画像の背景部を指定し、例
えばその濃度分布をトレーニングさせる。これを基に、
オペレータがブラシ等の指示具を用いて、対象画像の輪
郭付近を大まかに指定していく、すると、装置側で、オ
ペレータが指定した帯状領域Aに対して、例えば濃度の
変化軸を考慮した濃度分類による自動切抜きを行って、
マスクをかけていく、背景部の色が変化する時は、再度
指定し直せばよい、又、背景部より実体部の方が色要素
分布が小さい時は、逆に実体部を指定して、それに逆マ
スクをかけてもよい。 従って、従来のようにオペレータが輪郭線を手動で正確
に指定する場合よりも、迅速、且つ簡単に切抜きマスク
を作成することができ、しかも、全自動切抜きの場合よ
り迅速、且つ、正確に輪郭線を抽出することが可能とな
る。 ここで、自動切抜きを行う方法としては、例えば画像中
の背景部を構成する色要素をカーソル等で指定すること
で切抜き線を抽出する方法や、画像中の背景部と思われ
る部分の一部をオペレータが指定して、その濃度の変化
軸を見つけ、該濃度変化軸を考慮した濃度分類により切
抜き線を抽出する方法等を採用することができる。
In the present invention, if automatic cropping is attempted for the entire target image, the calculation area will be enormous, the processing time will be extremely long, and the cropping performance will be unstable. However, if the area is limited to a certain extent, This was done with the focus on the fact that automatic cutting is easy and accurate, and that it does not place much of a burden on the operator as long as the outline is only roughly specified. That is, the operator roughly specifies a partial area that includes the outline of the image, and automatic cropping is performed for the partial area specified by the operator. For example, when there is an image @2 as shown in FIG. 1, the operator first specifies the background part of the image in preparation for automatic cropping, and trains its density distribution, for example. Based on this,
The operator roughly specifies the vicinity of the outline of the target image using a pointing tool such as a brush, and then the device determines the density for the band-shaped area A specified by the operator, taking into account the density change axis, for example. Perform automatic cropping by classification,
When applying a mask, when the color of the background part changes, you can specify it again, or if the color element distribution of the substance part is smaller than that of the background part, conversely specify the substance part, You can also put a reverse mask on it. Therefore, it is possible to create a cutout mask more quickly and easily than when an operator manually specifies the contour line accurately as in the past, and moreover, it is possible to create a cutout mask more quickly and accurately than when fully automatic cropping is used. It becomes possible to extract lines. Here, automatic cropping can be performed by, for example, extracting a cropping line by specifying the color elements that make up the background in the image with a cursor, or It is possible to adopt a method in which the operator specifies the density change axis, finds the density change axis, and extracts the cutout line by density classification taking the density change axis into consideration.

【実施例】【Example】

以下図面を参照して、本発明の実施例を詳細に説明する
。 本実施例は、第2図に示す如く構成されている。 第2図において、1はレイアウトテーブルで、例えばカ
ラーフィルム等のカラー原稿2(背景部が一様)が載置
される。3はカラースキャナで、カラー原稿2の画像を
光学的に読み取り、RGB信号をY、M、C,Bk信号
に変換しながらイメージメモリ4に記憶させる。 5はコンピュータ等で構成される画像処理コントローラ
部で、主成分演算手段5a、濃度平均・共分散演算手段
5b、!別関数演算手段5c、前景部抽出手段5d、ス
ムージング処理手段5e、ベクタ変換手段5f、ベクタ
データ補正手段5g、雑音除去手段51等から構成され
ており、プログラムメモリ10に記憶される切抜き処理
プログラムに基づいて起動する。 前記主成分演算手段5aは、オペレータが指定した切抜
き領域の一様な背景部内のトレーニングエリア11a、
例えば切抜き領域11の左上隅(第4図参照)の画像デ
ータ(C,M−Y)をサンプリングし、その主成分を演
算して、第3図に示す如<、濃度変化の軸(主成分軸)
を求める。 この主成分演算手段5aによって、画像データの背景部
がグラデーションを持つ場合や、実体部の影が写る場合
でも、濃度分布の変化が予測できる。 勿論、トレーニングエリアを背景部内の他の箇所に設定
することも可能である。 前記濃度平均・共分散演算手段5bは、主成分分析で得
られた各画素の第2及び第3主成分値から、最尤法によ
る濃度クラスタリングを行うべく、トレーニングエリア
llaの濃度平均値及び共分散値を求める。 前記識別間数演算手段5Cは、濃度平均・共分散演算手
段5bが演算した濃度平均値及び共分散値を正規分布関
数に代入して、対象画像全体を背景部と実体部(背景部
でない部分)にクラスタリングするための識別関数を決
定し、次いで、イメージ、メモリ4に記憶されたカラー
画像データを読み出し、該識別関数に代入して、トレー
ニングエリアとの濃度距離データを演算する。ここで、
正規分布関数を使用しているのは、画像が一様である場
合には、正規分布に従っていると仮定しているからであ
る。 前記前景部抽出手段5dは、該識別関数演算手段5Cが
演算した濃度距離データと、予め記憶された判定距離デ
ータ(例えばマハラノビス距離データ)を参照しながら
、該濃度距離データが所定値以内であると背景部と判定
して、イメージメモリ4に記憶されたカラー画像データ
から背景部画像データを抽出する。 前記スムージング処理手段5eは、該前景部抽出手段5
dにより抽出された背景部画像データを後述するように
スムージングする。 前記ベクタ変換手段5fは、該スムージング処理手段5
eによりスムージングされた背景部画像データ(2値デ
ータ)を背景部ベクトルデータに変換する。これは、こ
れ迄の処理はラスター処理であり、画像全体から見た位
置関係の把握ができないからである。このベクトル化に
よって、背景部でない部分に発生する切抜き線等を排除
することが可能となる。 前記ベクタデータ補正手段59は、該ベクタ変換手段5
fによりベクトル化された背景部ベクトルデータを間引
き補正して、ベクトル化する時点で斜め線において量子
化するなめに発生するジャギングを除く。 前記雑音除去手段5hは、該ベクタデータ補正手段5g
によって間引き補正された背景部ベクトルデータについ
て、後述するようにベクトルルーズの形状の複雑さや包
含関係を含む知識情報に従って、実体部の中に抽出され
た背景部要素、即ち雑音を除去する。 第2図において、6は自動切抜き領域の指定、自動抽出
された切抜き線の確認・修正等をオペレータが行うため
のデイスプレィ、7は入力部で、キーボード7a及びデ
イスプレィ6上のカーソルを移動するためのポインティ
ングデバイス7bから構成され、切抜き処理に必要なコ
マンド及び位置データ等を画像処理コントローラ部5に
指示入力する。 8は、フィルム出力手段となるレイアウトスキャナで、
前記雑音除去手段5hから出力される背景部ベクトルデ
ータを参照しながら、前記イメージメモリ4に記憶され
たカラー画像データ中から背景部外のカラー画像データ
を版色側に読み出し、印刷フィルム版9に切出し出力す
る。 第4図は、自動切抜き処理を説明する状態推移図であり
、第2図と同一のものには、同じ符号を付しである。 第4図において、11は切抜き領域、llaはそのトレ
ーニングエリアを示す、又、12は背景部抽出画像デー
タを示し、第2図に示した背景部抽出手段5dが抽出し
た背景部抽出画像データに対応する0図において、Nl
、N2はノイズ成分であり、画像処理演算により発生す
る一様でない濃度領域として抽出されたデータに対応す
る。 13はスムージングデータで、スムージング処理手段5
eがノイズ成分Nl、N2を、例えば近接する画素デー
タを所定のマトリクスデータにより除去したものに相当
する。これにより、背景部輪郭データ13aが生成され
る。 14は背景部ベクトルデータで、前記背景部輪郭データ
13aのベクトルデータに相当する。 15は間引き補正された背景部ベクトルデータで、前記
ベクタデータ補正手段5gにより背景部ベクトルデータ
14を間引き補正して得られる。 15a、15bは雑音ベクトルデータで、雑音除去手段
5hにより知識情報を用いて自動的に消去される。 16は背景部ベクトルデータで、この背景部ベクトルデ
ータ16がレイアウトスキャナ8に入力される。 17は自動切抜き画像で、第2図に示した印刷フィルム
版9に露光される。 カラー原稿2に対する原稿入力がポインティングデバイ
ス7bにより指示されると、カラースキャナ3がカラー
原稿2の読み取りを開始し、読み取ったカラー画像デー
タを版色(イエロー、マゼンタ、シアン、ブラック)毎
にイメージメモリ4に順次書き込んでいく、この書き込
みが終了すると、イメージメモリ4から読み出されたカ
ラー画像データがデイスプレィ6に表示される。 トレーニングエリアllaは、オペレータがポインティ
ングデバイス7bを用いて切抜き領域11の背景部の輪
郭付近に指定する。なお、このトレーニングエリアll
aは、ポインティングデバイス7bにより変更可能であ
る。 主成分演算手段5aは、このトレーニングエリアlla
の部分の画像データ(C,M、Y)をサンプリングし、
この画像データに対して、第3図に示した如く、濃度の
変化方向を知るための主成分分析を行う、これによって
、画像データの背景部がグラデーションを持つ場合や、
実体部の影が写る場合でも、濃度分布の変化が予測でき
る。 背景部抽出に際しては、この主成分分析で得られた各画
素の第2及び第3主成分値を、最尤法に渡す。 最尤法では、まず、前記濃度平均・共分散演算手段5b
が、前記トレーニングエリアlla内の各画素の第2、
第3主成分値から、その濃度平均値及び共分散値を演算
する。 次いで、識別間数演算手段5Cが、前記トレーニングエ
リアllaの濃度平均値及び共分散値を正規分布関数に
代入し、自動切抜き領域を背景部と実体部にクラスタリ
ングするための識別関数を決定する。 更に、該識別間数演算手段5Cが、各画素をこの識別関
数に代入して、トレーニングエリアとの濃度距離データ
を演算する。 次いで、背景部抽出手段5dが、演算された濃度距離デ
ータを予め記憶された判定距離データより小さいかどう
か判定することにより、背景部抽出画像データ12を抽
出する。最尤法は、このように画像の−様な部分を統計
的に処理しているため、安定的に背景部が抽出できる。 抽出された背景部画像データ12はスムージング処理手
段5eにより背景輪郭部がスムージングされ、スムージ
ングデータ13が生成される。 次いで、ベクタ変換手段5fにより、背景部画像データ
である背景部輪郭データ13aが背景部ベクトルデータ
14に変換される。 次いで、ベクタデータ補正手段5Qが背景部ベクトルデ
ータ14の変化点数を減らす間引き処理を実行してベク
トル形状を補正する。 そして、雑音除去手段5hが雑音ベクトルデータ15a
、15bを知識情報を用いて消去する。 次いで、オペレータが、この処理で自動抽出された切抜
き線をデイスプレィ6上で確認、修正して、切抜き線が
決定される。 決定された背景部ベクトルデータ16(切抜き線)はレ
イアウトスキャナ8に出力され、これに従って、レイア
ウトスキャナ8が背景部ベクトルデータ16を参照しな
がら、イメージメモリ4に記憶されたカラー画像データ
中の背景部外に対応するカラー画像データく切抜き画@
17)を読み出し、印刷フィルム版9に板側に切出し露
光出力する。 次に第5図〜第8図を参照しながら、第3図に示したス
ムージング処理手段5eによる膨張収縮に準じたスムー
ズ処理について説明する。 第5図は、第1図に示したスムージング処理手段5eに
よる輪郭画素の膨脂を説明する模式図である6図におい
て、21は判定画素パターンで、例えば対象画素21a
に臨接する8近傍画素を検索して、対象画素21aのr
l」 (黒画素)、「O」 (白画素)を決定する62
2は膨張処理パターンで、判定画素パターン21の8近
傍画素が1つでら「1」の場合に、対象画素21aが「
1」(斜線で示す)に形成されて、膨脂された状態に対
応する。 第6図は、第1図に示したスムージング処理手段5eに
よる輪郭画素の収縮を説明する模式図である0図におい
て、31は判定画素パターンで、例えば対象画素31a
に臨接する8近傍画素を検索して、対象画素31aの「
1」 「0」を決定する。32は収縮処理パターンで、
判定画素パターン31の8近傍画素が1つでも「01の
場合に、対象画素31aが「0」に形成されて、収縮さ
れた状態に対応する。 例えば第7図に示すような凸型のノツチが線画の輪郭に
含まれるような線画画像データ41aが検索された場合
には、スムージング処理プログラムに基づいて、第6図
に示した判定画素パターン31により収縮走査を実行し
て収縮画像データ41bを生成し、この収縮画像データ
41bに対して膨張処理を施すため、スムージング処理
プログラムに基づいて、スムージング処理手段後5eが
第5図に示した判定画素パターン21により膨脹走査を
行って、ノツチ除去画像データ41Cを生成する。 一方、第8図に示すような凹型のノツチが線画の輪郭に
含まれるような線画画像データ42aが検索された場合
には、スムージング処理プログラムに基づいて、第5図
に示した判定画素パターン21により膨脹走査を実行し
て膨脹画像データ42bを生成し、この膨脹画像データ
42bに対して収縮処理を施すため、スムージング処理
プログラムに基づいて、スムージング処理手段後5eが
第6図に示した判定画素パターン31により収縮走査を
行い、ノツチ除去画像データ42Cを生成する。なお、
この処理は、この実施例においては、膨張→rci縮の
順に、画像全体に対して実行される。 第9図は、第1図に示したベクタデータ補正手段5gに
よるベクタデータ補正処理を説明する模式図である0図
において、45は、環ベクトルデータで、ベクタ変換手
段5fにより生成されるベクトルデータに対応する。4
6は補正ベクトルデータで、各原ベクトルデータ45間
で発生する段差が発生しないように、ベクタ点数を減ら
したものに対応する。 第9図から分かるように、2値細線上の変化のかなめと
なる点を方向コードで検索することによリ、環ベクトル
データ45が補正ベクトルデータ46に自動補正される
。これにより、輪郭エツジの租さが軽減される。 次いで、雑音除去手段5hにより、補正ベクトルデータ
46の中で雑音補正ベクトルデータがループ単位に除去
される。 なお、雑音除去のための下記の知識情報■〜■は、図示
しない内部メモリに記憶されており、下記雑音除去ルー
ル(1)〜(4)に従って、ベクトルデータを検索する
ことにより雑音が除去できる。 ■ループの長さ ■ループの包含関係 ■ループの複雑さ(クリティカルポイント数/ベクトル
ループ長) (1)ベクトルループ長がある一定値以下で、且つ複雑
さがある一定値以上を持つベクトルループは除去する。 (2)ベクトルループ長がある一定値以上で、且つ包含
関係が一番外側にあり、更に複雑さがある一定値以下の
ベクトルループは残存する。 (3)包含関係で内側にあり、且つ複雑さがある一定値
以上を持つベクトルループは除去する。 (4)包含関係で内側にあり、且つベクトルループ長が
ある一定値以上で、更に複雑さがある一定値以下のベク
トルループは切抜き線として残存させる。 このような知識情報及び雑音除去ルールにより、精度の
良い切抜き画像用の背景部ベクトルデータが生成され、
この背景部ベクトルデータを参照しながらレイアウトス
キャナ8がイメージメモリ4をアクセスして、背景部外
のカラー画像データのみを抽出して、印刷フィルム版9
に切抜き画像の印刷版が自動露光出力される。 次に、第10図を参照しながら、本発明による切抜き処
理の手原について説明する。  7本発明による切抜き
処理に際しては、まずポインティングデバイス7bより
カラー原稿2に対する画像読み取りが指示され、ステッ
プ110で、カラースキャナ3がカラー原稿2に対する
画像読み取りを終了するのを待機する1版色側の読み収
りを終了したら、ステップ112に進み、読み取ったカ
ラー画像データを版色側にイメージメモリ4に登録する
。 次いで、ステップ114で、ポインティングデバイス7
bより登録されたカラー画像の描画指令が入力されるの
を待機し、描画指令が入力されたら、ステップ116で
、イメージメモリ4より読み出されたカラー画像データ
をデイスプレィ6に描画する0次いでステップ117で
オペレータが画像の背景部をトレーニングエリアとして
指定する。 次いで、ステップ118で、主成分演算手段5aが、オ
ペレータが指定したトレーニングエリア11aをサンプ
リングし、該トレーニングエリア内の画像データに対し
て、濃度の変化方向を知るために主成分分析を行う、こ
の主成分分析は、例えば共分散行列を作成し、該共分散
行列の固有値を演算し、該固有値に基づき各主成分値を
演算することによって行われる。 次いでステップ119で、デイスプレィ6を見ながら、
画像の輪郭が含まれる部分領域である自動切抜き領域を
、オペレータがブラシ等で大まかに指定する。 次いでステップ120に進み、前記濃度平均・共分散演
算手段5bが、前記主成分演算を行ったトレーニングエ
リアllaのデータの濃度平均値及び共分散値を演算す
ると共に、前記識別関数演算手段5Cが、イメージメモ
リ4から読み出される各画素のカラー画像データと前記
濃度平均値及び共分散値を識別関数となる正規分布関数
に代入して濃度距離データを演算する。 次いで、ステップ122に進み、背景部抽出手段5dで
、予め記憶された判定距離データを参照し、ステップ1
24で、濃度距離データが背景部となる場合には、ステ
ップ126に進んで、背景部となったカラー画像データ
を登録し、一方背景部とならない場合には、ステップ1
28に進む。 ステップ128では、全画素判定処理が終了したか否か
を判断し、判定結果が否である場合にはステップ120
に戻り、判定結果が正である場合にはステップ130に
進む。 ステップ130.132では、スムージング処理手段5
eが、カラー画像データの輪郭形状を膨張収縮処理して
、スムージング修正する。 次いでステップ134で、ベクタ変換手段5fが、スム
ージングされた背景画像データ(ラスタデータ)をベク
トルデータに変換する。 次いでステップ136で、ベクタデータ補正手段5gが
、ベクトルデータの間引き補正を行い、ステップ138
で、雑音除去手段5hがベクトルデータの雑音除去を実
行する。 次いで、ステップ140で、オペレータが、デイスプレ
ィ6上に表示された自動切抜き線を確認・修正して、切
抜き線を最終的に決定する。 次いで、ステップ142で、l/イアウドスキャナ8が
修正されたベクトルデータを参照しながら、イメージメ
モリ4に記憶された版色別のカラー画像データが読み出
されるのを待機し、ステップ144で、読み出された背
景部外のカラー画像(切抜き画像)を印刷フィルム版9
に対して版色毎に露光出力する。 次いで、ステップ146で、全てのフィルムが出力され
たかどうかを判断し、判定結果が否である場合にはステ
ップ142に戻り、判定結果が正である場合には処理を
終了する。 なお、前記実施例では、カラー原稿2をカラースキャナ
3より入力する場合について説明していたが、レイアウ
トスキャナ8の図示しない入力ドラムより入力しても、
同様の処理が実行できることは明らかである。 又、前記実施例では、濃度の変化軸を考慮した濃度分類
による自動切抜きが行われていたので、明度や色相が変
化しても、グラデーションや影を持つ背景部を旨く抽出
することが可能であるが、自動切抜きの方法はこれに限
定されない。
Embodiments of the present invention will be described in detail below with reference to the drawings. This embodiment is constructed as shown in FIG. In FIG. 2, reference numeral 1 denotes a layout table, on which a color original 2 (with a uniform background) such as a color film, for example, is placed. A color scanner 3 optically reads the image of the color original 2, converts the RGB signals into Y, M, C, and Bk signals and stores them in the image memory 4. Reference numeral 5 denotes an image processing controller section composed of a computer or the like, which includes a principal component calculation means 5a, a density average/covariance calculation means 5b, ! It is composed of a separate function calculation means 5c, a foreground part extraction means 5d, a smoothing processing means 5e, a vector conversion means 5f, a vector data correction means 5g, a noise removal means 51, etc., and the clipping processing program stored in the program memory 10 Start based on. The principal component calculation means 5a calculates a training area 11a within a uniform background portion of a cutout area designated by the operator;
For example, by sampling the image data (C, M-Y) at the upper left corner of the cutout area 11 (see FIG. 4) and calculating its principal components, as shown in FIG. shaft)
seek. With this principal component calculating means 5a, changes in density distribution can be predicted even when the background part of the image data has a gradation or when a shadow of a real part is captured. Of course, it is also possible to set the training area at another location within the background. The density average/covariance calculation means 5b calculates the density average value and covariance value of the training area lla from the second and third principal component values of each pixel obtained by the principal component analysis in order to perform density clustering by the maximum likelihood method. Find the variance value. The discrimination interval calculation means 5C substitutes the density average value and covariance value calculated by the density average/covariance calculation means 5b into a normal distribution function, and divides the entire target image into a background part and a substance part (a part that is not a background part). ) is determined, and then the color image data stored in the image memory 4 is read out and substituted into the discrimination function to calculate density distance data with respect to the training area. here,
The reason why a normal distribution function is used is because it is assumed that if an image is uniform, it follows a normal distribution. The foreground portion extracting means 5d refers to the density distance data calculated by the discriminant function calculating means 5C and pre-stored determination distance data (for example, Mahalanobis distance data), and determines whether the density distance data is within a predetermined value. is determined to be the background part, and the background part image data is extracted from the color image data stored in the image memory 4. The smoothing processing means 5e includes the foreground portion extraction means 5.
The background image data extracted in step d is smoothed as described below. The vector conversion means 5f is the smoothing processing means 5.
The background part image data (binary data) smoothed by e is converted into background part vector data. This is because the processing up to this point is raster processing, and the positional relationship seen from the entire image cannot be grasped. This vectorization makes it possible to eliminate cutout lines and the like that occur in non-background areas. The vector data correction means 59 includes the vector conversion means 5
The background vector data vectorized by f is thinned out and corrected to remove jagging that occurs due to quantization on diagonal lines at the time of vectorization. The noise removal means 5h is the vector data correction means 5g.
Regarding the background part vector data thinned out and corrected by , the background part elements extracted into the real part, that is, the noise, are removed according to knowledge information including the complexity of the shape of the vector loose and the inclusion relationship, as described later. In FIG. 2, 6 is a display for the operator to designate the automatic cutting area, check and modify the automatically extracted cutting lines, etc., and 7 is an input section for moving the keyboard 7a and the cursor on the display 6. The pointing device 7b inputs commands, position data, etc. necessary for the clipping process to the image processing controller section 5. 8 is a layout scanner serving as a film output means;
While referring to the background vector data outputted from the noise removing means 5h, the color image data other than the background is read out from the color image data stored in the image memory 4 to the plate color side, and is applied to the printing film plate 9. Cut out and output. FIG. 4 is a state transition diagram explaining the automatic clipping process, and the same parts as in FIG. 2 are given the same reference numerals. In FIG. 4, reference numeral 11 indicates a clipping area, lla indicates the training area, and 12 indicates background extracted image data, which corresponds to the background extracted image data extracted by the background extracting means 5d shown in FIG. In the corresponding 0 diagram, Nl
, N2 are noise components, which correspond to data extracted as non-uniform density regions generated by image processing calculations. 13 is smoothing data, smoothing processing means 5
e corresponds to noise components Nl and N2, for example, obtained by removing adjacent pixel data using predetermined matrix data. As a result, background contour data 13a is generated. Reference numeral 14 denotes background vector data, which corresponds to the vector data of the background contour data 13a. Reference numeral 15 indicates thinning-corrected background vector data, which is obtained by thinning-correcting the background vector data 14 by the vector data correction means 5g. Reference numerals 15a and 15b are noise vector data, which are automatically erased by the noise removing means 5h using knowledge information. 16 is background vector data, and this background vector data 16 is input to the layout scanner 8. 17 is an automatically cut out image which is exposed to the printing film plate 9 shown in FIG. When inputting the color original 2 is instructed by the pointing device 7b, the color scanner 3 starts reading the color original 2, and stores the read color image data in the image memory for each plate color (yellow, magenta, cyan, black). When this writing is completed, the color image data read from the image memory 4 is displayed on the display 6. The training area lla is specified by the operator using the pointing device 7b near the outline of the background portion of the cutout area 11. Please note that this training area
a can be changed using the pointing device 7b. The principal component calculation means 5a operates in this training area lla.
Sample the image data (C, M, Y) of the part,
As shown in Fig. 3, this image data is subjected to principal component analysis to determine the direction of change in density.
Changes in density distribution can be predicted even when the shadow of the real body part is captured. When extracting the background part, the second and third principal component values of each pixel obtained by this principal component analysis are passed to the maximum likelihood method. In the maximum likelihood method, first, the concentration average/covariance calculation means 5b
is the second of each pixel in the training area lla,
The concentration average value and covariance value are calculated from the third principal component value. Next, the discriminant number calculation means 5C substitutes the density average value and covariance value of the training area lla into a normal distribution function, and determines a discriminant function for clustering the automatically cut out region into a background part and a real part. Furthermore, the discrimination interval calculation means 5C substitutes each pixel into this discrimination function and calculates density distance data with respect to the training area. Next, the background extracting means 5d extracts background extracted image data 12 by determining whether the calculated density distance data is smaller than pre-stored determination distance data. Since the maximum likelihood method statistically processes the --like parts of the image in this way, the background part can be extracted stably. The background contour portion of the extracted background image data 12 is smoothed by the smoothing processing means 5e, and smoothed data 13 is generated. Next, the background contour data 13a, which is background image data, is converted into background vector data 14 by the vector conversion means 5f. Next, the vector data correction means 5Q performs a thinning process to reduce the number of change points in the background vector data 14 to correct the vector shape. Then, the noise removing means 5h performs noise vector data 15a.
, 15b using knowledge information. Next, the operator confirms and corrects the cutout line automatically extracted in this process on the display 6, and the cutout line is determined. The determined background vector data 16 (cutting line) is output to the layout scanner 8, and the layout scanner 8, while referring to the background vector data 16, identifies the background in the color image data stored in the image memory 4. Color image data corresponding to outside world / cutout picture @
17) is read out, cut out onto the plate side of the printing film plate 9, and outputted by exposure. Next, with reference to FIGS. 5 to 8, smoothing processing based on expansion and contraction by the smoothing processing means 5e shown in FIG. 3 will be described. FIG. 5 is a schematic diagram illustrating the swelling of contour pixels by the smoothing processing means 5e shown in FIG.
8 neighboring pixels adjacent to are searched and r of the target pixel 21a is
62 to determine “l” (black pixel) and “O” (white pixel)
2 is an expansion processing pattern, in which when the 8 neighboring pixels of the judgment pixel pattern 21 are one or "1", the target pixel 21a is "1".
1'' (indicated by diagonal lines), which corresponds to the expanded state. FIG. 6 is a schematic diagram illustrating the contraction of contour pixels by the smoothing processing means 5e shown in FIG.
8 neighboring pixels adjacent to the target pixel 31a are searched, and the target pixel 31a is
1” Determine “0”. 32 is a contraction processing pattern,
If even one of the eight neighboring pixels of the determination pixel pattern 31 is "01", the target pixel 31a is formed as "0", corresponding to a contracted state. For example, when line drawing image data 41a in which the outline of the line drawing includes a convex notch as shown in FIG. 7 is retrieved, the judgment pixel pattern 31 shown in FIG. To perform a contraction scan to generate contraction image data 41b, and to perform expansion processing on this contraction image data 41b, based on the smoothing processing program, after the smoothing processing means 5e is set to the determination pixel shown in FIG. Expansion scanning is performed using pattern 21 to generate notch-removed image data 41C. On the other hand, when line drawing image data 42a in which the outline of the line drawing includes a concave notch as shown in FIG. 8 is retrieved, the judgment pixel pattern 21 shown in FIG. In order to perform an expansion scan to generate expanded image data 42b, and to apply a contraction process to this expanded image data 42b, based on the smoothing processing program, the smoothing processing means rear 5e is set to the judgment pixel shown in FIG. Contraction scanning is performed using the pattern 31 to generate notch removed image data 42C. In addition,
In this embodiment, this processing is performed on the entire image in the order of dilation and then rci compression. FIG. 9 is a schematic diagram illustrating the vector data correction process performed by the vector data correction means 5g shown in FIG. corresponds to 4
Reference numeral 6 indicates corrected vector data, which corresponds to data in which the number of vector points has been reduced so that the level difference between the respective original vector data 45 does not occur. As can be seen from FIG. 9, the ring vector data 45 is automatically corrected to the correction vector data 46 by searching for key points of change on the binary thin line using the direction code. This reduces the roughness of the contour edges. Next, the noise correction vector data is removed loop by loop from the correction vector data 46 by the noise removal means 5h. The following knowledge information ■ to ■ for noise removal is stored in an internal memory (not shown), and noise can be removed by searching vector data according to the noise removal rules (1) to (4) below. . ■Loop length ■Loop inclusion relationship ■Loop complexity (number of critical points/vector loop length) (1) A vector loop whose vector loop length is less than a certain value and whose complexity is more than a certain value is Remove. (2) A vector loop whose vector loop length is a certain value or more, whose inclusion relationship is the outermost one, and whose complexity is less than a certain certain value remains. (3) Vector loops that are located inside due to inclusion relationships and whose complexity exceeds a certain value are removed. (4) A vector loop that is located inside due to the inclusion relationship, has a vector loop length of a certain value or more, and has a complexity of a certain certain value or less is left as a cutout line. Using such knowledge information and noise removal rules, highly accurate background vector data for cropped images is generated.
The layout scanner 8 accesses the image memory 4 while referring to this background part vector data, extracts only the color image data outside the background part, and extracts the color image data from the printing film plate 9.
A print version of the cutout image is automatically exposed and output. Next, with reference to FIG. 10, the procedure for the cutting process according to the present invention will be explained. 7. In the cutting process according to the present invention, the pointing device 7b first instructs image reading for the color original 2, and in step 110, the first color side waits for the color scanner 3 to finish reading the image for the color original 2. When the reading is completed, the process proceeds to step 112, and the read color image data is registered in the image memory 4 on the plate color side. Then, in step 114, the pointing device 7
Waiting for input of a drawing command for the registered color image from b, and when the drawing command is input, step 116 is followed by step 116 of drawing the color image data read from the image memory 4 on the display 6. At 117, the operator specifies the background portion of the image as a training area. Next, in step 118, the principal component calculation means 5a samples the training area 11a designated by the operator, and performs principal component analysis on the image data in the training area in order to find out the direction of density change. Principal component analysis is performed, for example, by creating a covariance matrix, calculating eigenvalues of the covariance matrix, and calculating each principal component value based on the eigenvalues. Next, in step 119, while looking at the display 6,
An operator roughly specifies an automatic cropping area, which is a partial area that includes the outline of the image, using a brush or the like. Next, the process proceeds to step 120, where the concentration average/covariance calculation means 5b calculates the concentration average value and covariance value of the data of the training area lla on which the principal component calculation has been performed, and the discriminant function calculation means 5C: The color image data of each pixel read from the image memory 4 and the density average value and covariance value are substituted into a normal distribution function serving as a discrimination function to calculate density distance data. Next, the process proceeds to step 122, where the background portion extracting means 5d refers to the pre-stored judgment distance data, and performs step 1.
In step 24, if the density distance data becomes a background part, the process proceeds to step 126, and the color image data which becomes a background part is registered; on the other hand, if the density distance data does not become a background part, step 1
Proceed to step 28. In step 128, it is determined whether or not all pixel determination processing has been completed, and if the determination result is negative, step 120
Returning to step 130, if the determination result is positive, the process proceeds to step 130. In steps 130 and 132, the smoothing processing means 5
e performs expansion/contraction processing on the contour shape of the color image data to perform smoothing correction. Next, in step 134, the vector conversion means 5f converts the smoothed background image data (raster data) into vector data. Next, in step 136, the vector data correction means 5g performs thinning correction of the vector data, and in step 138
Then, the noise removal means 5h removes noise from the vector data. Next, in step 140, the operator confirms and corrects the automatic cutting line displayed on the display 6, and finally determines the cutting line. Next, in step 142, the l/iaud scanner 8 waits for the color image data for each plate color stored in the image memory 4 to be read out while referring to the corrected vector data, and in step 144, the color image data for each plate color stored in the image memory 4 is read out. Print the color image (cutout image) outside the background area on film plate 9
Exposure output is performed for each plate color. Next, in step 146, it is determined whether all the films have been outputted. If the determination result is negative, the process returns to step 142, and if the determination result is positive, the process is terminated. In the above embodiment, the case where the color original 2 is inputted from the color scanner 3 was explained, but even if the inputted color document 2 is inputted from the input drum (not shown) of the layout scanner 8,
It is clear that similar processing can be performed. Furthermore, in the above embodiment, automatic clipping was performed by density classification taking into account the density change axis, so even if the brightness or hue changes, it is possible to effectively extract background areas with gradations and shadows. However, the automatic clipping method is not limited to this.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明に係る切抜きマスク作成システムの処
理対象画像の例を示す線図、 第2図は、本発明に係る切抜きマスク作成システムの実
施例の構成を示すブロック線図、第3図は、自動切抜き
方法を説明するための、トレーニングエリアの2次元ヒ
ストグラムと主成分軸を示す線図、 第4図は、前記実施例における自動切抜き処理を説明す
る状態推移図、 第5図は、第2図に示した実施例のスムージング処理手
段による輪郭画素の膨張を説明する模式第6図は、同じ
く、輪郭画素の収縮を説明する模式図、− 第7図及び第8図は、同じくスムージング処理状態を説
明する模式図、 第9図は、前記実施例で用いられているベクタデータ補
正手段によるベクトルデータ補正処理を説明する模式図
、 第10図は、前記実施例における切抜き処理手順を示す
流れ図である。 2・・・カラー原稿、 A・・・自動切抜き領域、 3・・・カラースキャナ、 4・・・イメージメモリ、 5・・・画像処理コントローラ部、 5a・・・主成分演算手段、 5b・・・濃度平均・共分散演算手段、5C・・・識別
関数演算手段、 5d・・・背景部抽出手段、 6・・・デイスプレィ、 9・・・印刷フィルム版、 10・・・プログラムメモリ、 11・・・切抜き領域、 11a・・・トレーニングエリア1. 12・・・背景部抽出画像データ。
FIG. 1 is a diagram showing an example of an image to be processed by the cutout mask creation system according to the present invention, FIG. 2 is a block diagram showing the configuration of an embodiment of the cutout mask creation system according to the present invention, and FIG. FIG. 4 is a diagram showing a two-dimensional histogram of the training area and principal component axes to explain the automatic clipping method; FIG. 4 is a state transition diagram explaining the automatic clipping process in the embodiment; FIG. , FIG. 6 is a schematic diagram illustrating expansion of contour pixels by the smoothing processing means of the embodiment shown in FIG. 2, and FIG. 6 is a schematic diagram illustrating contraction of contour pixels. FIG. 9 is a schematic diagram illustrating the state of smoothing processing; FIG. 9 is a schematic diagram illustrating vector data correction processing by the vector data correction means used in the embodiment; FIG. 10 is a schematic diagram illustrating the clipping processing procedure in the embodiment. FIG. 2... Color document, A... Automatic clipping area, 3... Color scanner, 4... Image memory, 5... Image processing controller section, 5a... Principal component calculation means, 5b...・Concentration average/covariance calculation means, 5C: Discrimination function calculation means, 5d: Background portion extraction means, 6: Display, 9: Printing film plate, 10: Program memory, 11. ...Cutout area, 11a...Training area 1. 12...Background part extracted image data.

Claims (1)

【特許請求の範囲】[Claims] (1)入力される画像から所定部を抽出するための切抜
きマスク作成システムにおいて、画像の輪郭が含まれる
部分領域をオペレータが大まかに指定するための領域指
定手段と、該領域指定手段で指定された部分領域に対し
て自動切抜きを行う手段と、 を備えたことを特徴とする切抜きマスク作成システム。
(1) In a cutting mask creation system for extracting a predetermined portion from an input image, a region specifying means for an operator to roughly specify a partial region including the outline of the image, and a region specifying means for roughly specifying a partial region including the outline of the image; A cutout mask creation system comprising: a means for automatically cutting out a partial area; and a cutout mask creation system.
JP63259055A 1988-10-14 1988-10-14 Cutout mask creation system Pending JPH02105152A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63259055A JPH02105152A (en) 1988-10-14 1988-10-14 Cutout mask creation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63259055A JPH02105152A (en) 1988-10-14 1988-10-14 Cutout mask creation system

Publications (1)

Publication Number Publication Date
JPH02105152A true JPH02105152A (en) 1990-04-17

Family

ID=17328698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63259055A Pending JPH02105152A (en) 1988-10-14 1988-10-14 Cutout mask creation system

Country Status (1)

Country Link
JP (1) JPH02105152A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04136852A (en) * 1990-09-28 1992-05-11 Toppan Printing Co Ltd Image display system
US6298155B1 (en) 1997-07-31 2001-10-02 Sony Corporation Apparatus and method for generating time-series data, apparatus and method for editing curves and recording medium having program recorded thereon

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58176638A (en) * 1982-04-09 1983-10-17 Dainippon Screen Mfg Co Ltd Preparation of cut mask plate
JPS60143341A (en) * 1983-12-30 1985-07-29 Dainippon Screen Mfg Co Ltd Manufacture of partial mask plate
JPH01259363A (en) * 1988-04-08 1989-10-17 Dainippon Screen Mfg Co Ltd Image contour data generating method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58176638A (en) * 1982-04-09 1983-10-17 Dainippon Screen Mfg Co Ltd Preparation of cut mask plate
JPS60143341A (en) * 1983-12-30 1985-07-29 Dainippon Screen Mfg Co Ltd Manufacture of partial mask plate
JPH01259363A (en) * 1988-04-08 1989-10-17 Dainippon Screen Mfg Co Ltd Image contour data generating method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04136852A (en) * 1990-09-28 1992-05-11 Toppan Printing Co Ltd Image display system
US6298155B1 (en) 1997-07-31 2001-10-02 Sony Corporation Apparatus and method for generating time-series data, apparatus and method for editing curves and recording medium having program recorded thereon

Similar Documents

Publication Publication Date Title
US6389155B2 (en) Image processing apparatus
US9805281B2 (en) Model-based dewarping method and apparatus
US6529630B1 (en) Method and device for extracting principal image subjects
US8861845B2 (en) Detecting and correcting redeye in an image
US7724950B2 (en) Image processing apparatus, image processing method, computer program, and storage medium
US6728401B1 (en) Red-eye removal using color image processing
US7613332B2 (en) Particular-region detection method and apparatus, and program therefor
US5892854A (en) Automatic image registration using binary moments
US7437002B2 (en) Image recognition system utilizing an edge image and a binary image
JP2000165648A (en) Image processing method, its device and recording medium
JP2848749B2 (en) Feature image data extraction method
JP2000013605A (en) Image processor, method and record medium recording image processing program
JPH02105152A (en) Cutout mask creation system
US20050094894A1 (en) Image processing device, image processing method, and program therefor
JP2670106B2 (en) Cutout mask making system
JPH0254267A (en) automatic clipping system
KR20020084321A (en) real-time character composition method using template
JP4789526B2 (en) Image processing apparatus and image processing method
JPH01200357A (en) Automatic cutting system
JPH01298477A (en) Automatic clipping system
JP2006107018A (en) Method and apparatus for image analysis, method and system for image processing, and operation program therefor
JP2638701B2 (en) Feature image data extraction method
JP2763221B2 (en) How to extract human face data
JP2804299B2 (en) Cutout mask making system
JPH0346658A (en) Cutout mask creation system