JPH06295331A - Personal recognition device - Google Patents

Personal recognition device

Info

Publication number
JPH06295331A
JPH06295331A JP5081715A JP8171593A JPH06295331A JP H06295331 A JPH06295331 A JP H06295331A JP 5081715 A JP5081715 A JP 5081715A JP 8171593 A JP8171593 A JP 8171593A JP H06295331 A JPH06295331 A JP H06295331A
Authority
JP
Japan
Prior art keywords
face
feature
image
mirror
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5081715A
Other languages
Japanese (ja)
Inventor
Eiichi Tanaka
栄一 田中
Takashi Niwa
孝 丹羽
Yoshihiro Ishizaki
祥浩 石嵜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP5081715A priority Critical patent/JPH06295331A/en
Publication of JPH06295331A publication Critical patent/JPH06295331A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Collating Specific Patterns (AREA)

Abstract

(57)【要約】 【目的】 本発明は顔の画像により個人の識別を行うこ
とを目的としたものである。 【構成】 顔の特定部分を画像入力手段1の所定の枠内
に入れるための位置指示部4と、顔の部分の位置を検出
する位置検出手段5と、ある顔の特定部分の位置から顔
の他の部分までの特徴を抽出する特徴抽出手段10と、
特徴を予め登録しておく特徴登録手段11と、抽出した
特徴と予め記憶してある特徴とを比較判定する顔判定手
段12とから個人の識別を行う。
(57) [Abstract] [Purpose] The present invention aims to identify an individual by a face image. [Structure] A position indicating unit 4 for inserting a specific portion of a face into a predetermined frame of the image input unit 1, a position detecting unit 5 for detecting the position of the face portion, and a face from the position of the specific portion of a face. Feature extraction means 10 for extracting features up to other parts of
Individuals are identified from the feature registration unit 11 that registers the features in advance and the face determination unit 12 that determines and compares the extracted features with the features that are stored in advance.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像中から人の顔を検出
し、検出した顔から特定の個人を認識する個人認識装置
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a personal recognition device for detecting a human face in an image and recognizing a specific individual from the detected face.

【0002】[0002]

【従来の技術】従来のこの種の個人識別装置は入退出管
理やセキュリティ分野で使われてきた指紋の画像認識に
よる個人識別や網膜の血管パターン、署名などの画像認
識による個人の識別が行われてきた。
2. Description of the Related Art A conventional personal identification device of this type has been used in entry / exit management and security fields to perform personal identification by image recognition of fingerprints and identification of blood vessels of retinas and image recognition of signatures. Came.

【0003】[0003]

【発明が解決しようとする課題】しかしながら上記従来
例の方法は、例えば、画像認識による指紋の検出は社会
的抵抗感、プライバシーに関する不安などがあり、充分
普及していないのが現状である。一般に従来の指紋検出
は指紋の画像を撮り、この画像の前処理、2値化を行
う。その後隆線の端点、分岐点、隆線方向抽出を行い、
これらの情報の一部あるいは全部の情報から入力パター
ンと登録パターンの比較により照合するというのが一般
的な方法である。しかしながら、この方法では100個
程度存在する隆線の端点、分岐点の照合を行うことにな
り、比較的高価なものとなり一部の会社や極めて機密度
の高いところでしか使われていなかった。
However, the method of the above-mentioned conventional example is not sufficiently prevailing, for example, because the detection of fingerprints by image recognition has social resistance and anxiety about privacy. Generally, in the conventional fingerprint detection, an image of a fingerprint is taken, and this image is preprocessed and binarized. After that, the ridge end points, bifurcation points, and ridge direction extraction are performed,
It is a general method to compare the input pattern with the registered pattern from a part or all of this information. However, with this method, the end points and branch points of about 100 ridges are checked, which is relatively expensive and has been used only in some companies and in places with extremely high secrecy.

【0004】また、網膜の血管パターンの認識は目を覗
き込み窓の様なところに当てて目の中を撮像するため、
覗き込み窓に目を当てるという煩わしさ、目に良くない
光線等が当たらないかという不安感(実際には害はない
が)などにより、また、指紋検出以上に高価であるとい
う点で普及していない。
Further, in order to recognize the blood vessel pattern of the retina, the image of the inside of the eye is picked up by applying the eye to a place like a peep window.
It is popular because it is annoying to look into the viewing window, there is anxiety that bad light rays may not hit the eyes (although it does not actually hurt), and it is more expensive than fingerprint detection. Not not.

【0005】一方、身体の一部でなく筆跡を検出する署
名の認識があるが、これも文字認識がされるようになっ
てきた現時点では技術的課題よりも、毎回署名しなくて
はいけないという煩わしさのほうが普及の妨げとなって
いた。一般的にお金の授受のときに署名することは行わ
れているが、ドアの開閉時に毎回毎回署名しなくてはい
けないという場合には使い勝手が悪いという課題があっ
た。
On the other hand, there is recognition of a signature that detects a handwriting instead of a part of the body, but at the present time when character recognition is also started, it is said that it is necessary to sign every time rather than a technical problem. The annoyance hindered the spread. Signing is generally performed at the time of giving and receiving money, but there is a problem that it is inconvenient to use when signing every time when opening and closing the door.

【0006】また、顔の認識も研究もされているが、縦
方向は頭の髪の上部から顎、そして横方向は髪の両端、
顔の両端等の外郭から目の位置や鼻の位置を求め、大型
の計算機によりパターンマッチングや、輝度比較等によ
り解析し認識率の向上を目指したものが多く、家庭でも
簡単に家族の識別や非家族の識別ができる実用的なもの
はなかった。簡易的で実用的なものができないのは
(1)顔全体のマッチングを行うために計算容量が大き
くなり、大容量メモリ、高速CPUを使わなければなら
ない。また、(2)顔の部分、例えば目、鼻、口等の位
置を認識するための画像処理が複雑である。即ち、顔の
各部分の認識をするための位置決めが顔の外郭を起点に
して各部分の位置を求める方式であるため髪型が変化し
た(例えば散髪)場合や口をあけている場合など不確定
な要素が入り込むためにアルゴリズムが複雑になる。等
の課題があった。
Face recognition has also been studied, but in the vertical direction the upper part of the hair of the head to the chin, and in the horizontal direction both ends of the hair,
Many of them aim to improve the recognition rate by obtaining eye and nose positions from the contours of both ends of the face and analyzing by pattern matching and brightness comparison using a large computer. There was no practical one that could identify non-family members. What is not simple and practical is (1) The calculation capacity becomes large in order to perform matching of the entire face, and a large capacity memory and high speed CPU must be used. Further, (2) image processing for recognizing the position of a face, for example, eyes, nose, mouth, etc. is complicated. That is, since the positioning for recognizing each part of the face is a method of obtaining the position of each part from the outer contour of the face, it is uncertain when the hairstyle changes (for example, haircut) or when the mouth is open. The algorithm becomes complicated because various elements are included. There was a problem such as.

【0007】本発明は上記課題を解決するもので、顔の
特定部分を所定位置に納めるように個人認識装置の前に
立ち、顔の数カ所の特徴を検出することにより登録した
以外の他人を排除することができることを第1の目的と
している。
The present invention solves the above-mentioned problems, and stands in front of a personal recognition device so that a specific part of a face is placed at a predetermined position, and eliminates others other than those registered by detecting features of several parts of the face. The first purpose is to be able to do.

【0008】第2の目的はミラーを用い自分の顔を見る
ことにより顔の概略位置を合わせることにより簡便に特
徴の検出を行うことができるようにすることにある。
A second object is to enable simple feature detection by aligning the approximate position of the face by looking at one's face using a mirror.

【0009】また、第3の目的は顔の位置合わせを二つ
の発光素子を見ることができる位置に目を持ってくるこ
とにより簡便に特徴の検出を行うことにある。
A third object is to easily detect a feature by aligning the face by bringing the eyes to a position where the two light emitting elements can be seen.

【0010】そして、第4の目的として特徴をファジー
推論することにより誤認識を防ぐことにある。
A fourth object is to prevent erroneous recognition by performing fuzzy inference on features.

【0011】[0011]

【課題を解決するための手段】そして、上記第1の目的
を達成するために、本発明は主として顔を撮像する画像
入力手段と、顔の特定部分を画像入力手段の所定の枠内
に入れるための位置指示部と、位置指示部内に収まった
顔画像から顔の部分の位置を検出する位置検出手段と、
位置検出手段で検出した顔の部分の位置から顔の他の部
分までの特徴を抽出する特徴抽出手段と、特徴抽出手段
から得られた特徴を予め登録しておく特徴登録手段と、
特徴抽出手段で抽出した特徴と特徴登録手段で記憶して
ある特徴とを比較判定する顔判定手段とを設けてある。
In order to achieve the first object, the present invention mainly puts an image inputting means for picking up a face and a specific portion of the face in a predetermined frame of the image inputting means. A position indicating section for detecting the position of the face portion from the face image contained in the position indicating section,
A feature extracting means for extracting features from the position of the face detected by the position detecting means to other parts of the face; a feature registering means for pre-registering the features obtained from the feature extracting means;
Face determining means for determining the characteristics extracted by the characteristic extracting means and the characteristics stored by the characteristic registering means are provided.

【0012】また、第2の目的を達成するために、本発
明は上記構成に加え、ミラーを設け、位置指示部をミラ
ー上に写し出される顔の特定部分を所定の枠内に合わせ
るためにミラー上に設けてある。
Further, in order to achieve the second object, in addition to the above-mentioned constitution, the present invention is provided with a mirror, and the position indicating portion is a mirror for aligning a specific portion of the face projected on the mirror within a predetermined frame. It is provided above.

【0013】さらに、第3の目的を達成するために、本
発明は上記構成に加え、二つの発光素子を左右の目に対
応して入射するようにしてある。
Further, in order to achieve the third object, in addition to the above-mentioned structure, the present invention is such that two light emitting elements are made incident corresponding to the left and right eyes.

【0014】そして、第4の目的を達成するために本発
明は顔判定手段に特徴登録手段のデータから確からしさ
の関数を記憶する制御規則記憶部と特徴抽出手段の出力
と制御規則記憶部の出力によりファジー推論を行うファ
ジー推論部とを設けてある。
In order to achieve the fourth object, according to the present invention, the face determination means includes a control rule storage unit for storing a function of certainty from data of the feature registration unit, an output of the feature extraction unit, and a control rule storage unit. A fuzzy inference unit for performing fuzzy inference based on the output is provided.

【0015】[0015]

【作用】本発明の個人認識装置は上記構成によって、位
置指示部を見た状態で画像入力手段により人の顔を撮像
し、顔の特定部分、例えば目の部分を位置指示部内に入
るように画像入力手段を設置し、入力された画像から目
の位置を位置検出手段で検出し、この検出した位置と顔
の他の部分、例えば、鼻、口までの位置を距離情報とし
てあるいは輝度分布として特徴抽出手段により抽出し、
特徴登録手段により予め同様の方法で抽出した特徴と使
用時の特徴を顔判定手段により比較判定することにより
個人の認識を行う。
With the above-described structure, the personal recognition apparatus of the present invention captures a face of a person by the image input means while looking at the position pointing unit, and allows a specific portion of the face, for example, the eye portion to enter the position pointing unit. Image input means is installed, the position of the eyes is detected from the input image by the position detection means, and the detected position and other parts of the face, for example, the position to the nose and mouth are used as distance information or as a brightness distribution. Extracted by the feature extraction means,
Individual recognition is performed by comparing and determining the features previously extracted by the feature registration means by the same method and the features during use by the face determination means.

【0016】また、位置指示部をミラー上に設けミラー
の位置指示部を見ることにより画像の所定の場所に目の
位置をおくことにより目の位置を簡単に特定し、上記第
1の方法と同様の個人認識を行う。
Further, the position indicating section is provided on the mirror, and the eye position is easily specified by placing the eye position at a predetermined position in the image by looking at the position indicating section of the mirror. Perform similar personal recognition.

【0017】更に、位置指示部を二つの発光素子を左右
の目がそれぞれを見るような構成により目の位置を簡単
に特定させることができ、上記第1の方法と同様に個人
認識を行う。
Furthermore, the position indicating portion can be easily specified by the structure in which the left and right eyes of the two light emitting elements see each other, and the position of the eyes can be easily specified, and the individual recognition is performed as in the first method.

【0018】そして、顔判定を行う時に制御規則記憶部
に記憶してある確からしさの関数を用いて特徴データを
ファジー推論して顔の判定を行う。
Then, when face determination is performed, feature data is fuzzy inferred using a certainty function stored in the control rule storage unit to perform face determination.

【0019】[0019]

【実施例】以下、本発明の一実施例を図面を参照して説
明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0020】図1において、1は画像入力手段、2は画
像入力手段1の前に置かれ、かつ画像入力手段1に光が
入るように光の入射経路がハーフミラー部3となってい
るミラー、4はミラー2上に設けた位置指示部で、位置
指示部4を人が正面から見たときに目の位置が位置指示
部4内に入るような位置に設けてある。5は画像メモリ
部6と画像メモリ部6の特定領域の輝度分布を抽出する
輝度分布検出部7と抽出した輝度分布から顔の部分を判
定する部分判定部8と判定した部分の位置を特定する位
置特定部9とで構成してある位置検出手段、10は顔の
各部分の位置の距離と方向を抽出する特徴抽出手段、1
1は予め個人の特徴を特徴抽出手段10で抽出した値を
登録してある特徴登録手段、12は特徴登録手段11で
登録してある特徴と識別すべき時点での特徴と比較判定
する顔判定手段である。
In FIG. 1, 1 is an image inputting means, 2 is a front of the image inputting means 1, and a light incident path is a half mirror section 3 so that light enters the image inputting means 1. Reference numeral 4 denotes a position indicating portion provided on the mirror 2, and is provided at a position such that when a person looks at the position indicating portion 4 from the front, the position of the eyes enters the position indicating portion 4. Reference numeral 5 designates the image memory unit 6 and a luminance distribution detecting unit 7 for extracting the luminance distribution of a specific region of the image memory unit 6, a portion determining unit 8 for determining a face portion from the extracted luminance distribution, and a position of the determined portion. The position detecting means constituted by the position specifying section 9 is a feature extracting means for extracting the distance and direction of the position of each part of the face, 1
Reference numeral 1 is a feature registration means in which the values extracted by the feature extraction means 10 are registered in advance, and reference numeral 12 is a face determination for comparing the feature registered in the feature registration means 11 with the feature at the time of identification. It is a means.

【0021】図2は個人認識装置13をドア14近傍に
設置した図である。15は個人認識が確認された場合の
確認ランプ、16は個人認識装置の起動スイッチ、17
は人、18はその人の顔である。また、ミラー2上には
顔18が写し出されており、ミラー2上に位置指示部4
である線19、20がある。
FIG. 2 is a view in which the personal identification device 13 is installed near the door 14. Reference numeral 15 is a confirmation lamp when personal recognition is confirmed, 16 is a start switch of the personal recognition device, 17
Is a person and 18 is the person's face. Further, a face 18 is projected on the mirror 2, and the position indicating unit 4 is placed on the mirror 2.
There are lines 19 and 20 which are

【0022】次に、この一実施例の構成に於ける動作を
説明する。図3はこの動作を示すフローチャート、図4
は顔の認識の説明のためのモデル図である。この個人認
識装置13をドア14の入室管理装置として使用した場
合について説明する。入室可能なセキュリティレベルの
人は最初に自分の特徴を登録する。まず最初に登録につ
いて説明する。
Next, the operation of the configuration of this embodiment will be described. FIG. 3 is a flowchart showing this operation, and FIG.
FIG. 4 is a model diagram for explaining face recognition. A case where the personal identification device 13 is used as an entrance management device for the door 14 will be described. People with a security level that can enter the room first register their characteristics. First, registration will be described.

【0023】人17は登録するために顔18をミラー2
に写るように近づけ、顔の目の位置を位置指示部4であ
る線19、20の間に入るようにする(ステップ10
1)。その後、個人認識装置13の起動スイッチ16を
押し(ステップ102)、ステップ103にてミラー2
の裏側にある画像入力手段1で顔18の画像を入力し画
像メモリ部6に記憶する。図4(A)は記憶された顔の
画像からエッジ部分を採ることにより2値化された顔画
像である。ここで21は目で長さaは目と目の間隔、長
さbは目21の高さにおける顔の幅、長さcは目21と
鼻22の距離、長さdは目21と口23の上部との距離
である。ステップ104では画像メモリ部6に記憶され
た画像から位置指示部4内に入った画像から目21の位
置を捜す為に水平走査を行い位置指示部4内の2値化さ
れた輝度レベル1の分布を輝度分布検出部7で検出す
る。図4(B)は位置指示部4内の輝度分布である。ス
テップ105では求められた輝度分布から顔の部分の一
つである目21の判定を部分判定部8で行う。顔の両端
の位置は鋭いエッジがあるため検出される数は大きくな
る(グラフ上の両端の鋭いピーク)。また顔の端部より
内側にブロードな分布がありこれが目21の部分である
ことがわかる。この目21の分布のそれぞれの中心を位
置特定部9で演算し、目21の位置を求める。図4
(B)で長さaは目21の間隔、長さbは顔の幅であ
る。次にステップ106で位置特定部9にて目21の位
置から垂直方向の距離をcとして鼻22の位置を求
め、、また、ステップ107で口23の上部の距離dを
同じく位置特定部9で求める。ステップ108では位置
検出手段5により先ほど求めた距離a、b、c、dを用
い特徴抽出手段10でc/a、d/aを求めその人の顔
の特徴として演算し、特徴登録手段11にステップ10
9で記憶する。登録の方法はc/aを7段階、d/aを
7段階に分類しておき7*7のマトリックスの配置上の
当てはまる位置に登録する。図5は登録するマトリック
スの番地を示しており、3−3が標準的な人とし、いま
求めた人の番地を例えば2−4とする。以上で登録作業
が完了し、登録完了の確認ランプ15が点灯する(ステ
ップ110)。
The person 17 mirrors the face 18 for registration.
So that the position of the eyes of the face is located between the lines 19 and 20 which are the position designating unit 4 (step 10).
1). Then, the start switch 16 of the personal identification device 13 is pressed (step 102), and the mirror 2 is pressed in step 103.
An image of the face 18 is input by the image inputting means 1 on the back side of and is stored in the image memory unit 6. FIG. 4A is a binarized face image obtained by taking edge portions from the stored face image. Here, 21 is eyes, length a is the distance between eyes, length b is the width of the face at the height of eyes 21, length c is the distance between eyes 21 and nose 22, and length d is the distance between eyes 21 and mouth. 23 is the distance from the upper part. In step 104, horizontal scanning is performed to search the position of the eye 21 from the image stored in the image memory unit 6 in the image entered in the position designating unit 4, and the binary brightness level 1 in the position designating unit 4 is changed. The distribution is detected by the brightness distribution detector 7. FIG. 4B is a brightness distribution in the position designating section 4. In step 105, the partial determination unit 8 determines the eyes 21 that are one of the face portions from the obtained luminance distribution. Since the positions of both ends of the face have sharp edges, the number detected is large (sharp peaks at both ends on the graph). It can be seen that there is a broad distribution inside the edge of the face, and this is the portion of the eye 21. The position specifying unit 9 calculates the center of each distribution of the eyes 21 to obtain the position of the eyes 21. Figure 4
In (B), length a is the distance between the eyes 21, and length b is the width of the face. Next, in step 106, the position specifying unit 9 obtains the position of the nose 22 with the distance in the vertical direction from the position of the eye 21 as c, and in step 107, the distance d above the mouth 23 is also calculated by the position specifying unit 9. Ask. In step 108, using the distances a, b, c, d previously obtained by the position detecting means 5, c / a, d / a are obtained by the feature extracting means 10 and calculated as the facial features of the person, and the feature registering means 11 Step 10
Store at 9. As for the registration method, c / a is classified into 7 levels and d / a is classified into 7 levels, and the registration is performed at the applicable position in the 7 * 7 matrix arrangement. FIG. 5 shows the addresses of the matrix to be registered, where 3-3 is a standard person, and the address of the person just obtained is 2-4, for example. With the above, the registration work is completed, and the confirmation lamp 15 for registration completion is turned on (step 110).

【0024】次に、個人識別の方法について説明する。
図6はこの動作を示すフローチャートである。入室しよ
うとする人17は認識してもらうために顔18をミラー
2に写るように近づけ、顔の目21の位置を位置指示部
4である線19、20の間に入るようにする(ステップ
201)。その後、個人認識装置13の起動スイッチ1
6を押し(ステップ202)、ステップ203にてミラ
ー2の裏側にある画像入力手段1で顔18の画像を入力
し画像メモリ部6に記憶する。ステップ204では画像
メモリ部6に記憶された画像から位置指示部4内に入っ
た画像から目の位置を捜す為に水平走査を行い位置指示
部4内の2値化された輝度レベル1の分布を輝度分布検
出部7で検出する。ステップ205では求められた輝度
分布から顔の部分の一つである目の判定を部分判定部8
で行う。この目の分布のそれぞれの中心を位置特定部9
で演算し、目21の位置を求める。ここでも登録時と同
様に目21の間隔をa、顔の幅をbとする。
Next, a method for personal identification will be described.
FIG. 6 is a flowchart showing this operation. The person 17 who is about to enter the room brings the face 18 closer to the mirror 2 so as to be recognized, and positions the eyes 21 of the face so as to be between the lines 19 and 20 which are the position indicating section 4 (step 201). After that, the activation switch 1 of the personal identification device 13
6 is pressed (step 202), and in step 203, the image of the face 18 is input by the image input means 1 on the back side of the mirror 2 and stored in the image memory unit 6. In step 204, the image stored in the image memory unit 6 is horizontally scanned in order to search the position of the eyes from the image entered in the position designating unit 4, and the distribution of the binarized brightness level 1 in the position designating unit 4 is performed. Is detected by the brightness distribution detection unit 7. In step 205, the partial determination unit 8 determines the determination of the eyes, which is one of the face portions, from the obtained luminance distribution.
Done in. The center of each of the eye distributions is set to the position specifying unit 9
Then, the position of the eye 21 is obtained. Here, as in the case of registration, the distance between the eyes 21 is a and the width of the face is b.

【0025】次にステップ206で位置特定部9にて目
21の位置から垂直方向の長さをcとして鼻22の位置
を求め、また、ステップ207で口23の上部のまでの
長さdを同じく位置特定部9で求める。ステップ208
では位置検出手段5により先ほど求めた長さa、b、
c、dを用い特徴抽出手段10にてc/a、d/aを求
めその人の顔の特徴として演算する。次に、ステップ2
09で顔判定手段12にて登録時にc/aを7段階、d
/aを7段階に分類しておき7*7のマトリックスの配
置上の当てはめてある位置に一致するかどうかを判定す
る。今、入室しようとしている人が2−4という番地に
検出されれば即ち、登録したデータと一致すればステッ
プ210へ行きドア16を開け、確認ランプ15もオン
する(ステップ211)。もし、例えば検出したデータ
が3−2という番地であれば、即ち登録したデータと一
致しなければドア16を開けず入室可能でない人として
室内のセキュリティを確保する。そして、ステップ21
1へ行き認識完了の確認ランプ15がオンする。
Next, in step 206, the position specifying unit 9 finds the position of the nose 22 from the position of the eyes 21 with the vertical length c, and in step 207, the length d to the upper part of the mouth 23 is determined. Similarly, it is obtained by the position specifying unit 9. Step 208
Then, the lengths a, b, which have been previously obtained by the position detecting means 5,
Using c and d, the feature extraction means 10 finds c / a and d / a and calculates them as the features of the person's face. Next, step 2
In step 09, the face determination means 12 sets c / a in seven stages at the time of registration, d
/ A is classified into 7 levels, and it is determined whether or not it matches a given position in the 7 * 7 matrix arrangement. If the person who is about to enter the room is detected at the address 2-4, that is, if it matches the registered data, the process goes to step 210, the door 16 is opened, and the confirmation lamp 15 is also turned on (step 211). If, for example, the detected data is the address 3-2, that is, if it does not match the registered data, the security of the room is ensured as a person who cannot enter the room without opening the door 16. And step 21
1 and the confirmation lamp 15 for recognition completion is turned on.

【0026】なお、顔の各部分の位置検出の方法は多値
の画像から直接輝度分布を求めてそのパターンから位置
を決めることも可能である。
As a method of detecting the position of each part of the face, it is also possible to directly obtain the luminance distribution from the multivalued image and determine the position from the pattern.

【0027】以上のように顔の認識は画像入力するとき
の環境条件、例えば、照明の仕方などが良い場合には入
力した画像からほぼ一定の顔の特定部分位置を検出で
き、上述したように7*7のマトリックスの1領域内に
入っているか否かを判定するだけで良い。
As described above, the face recognition can detect a substantially constant specific position of the face from the input image when the environmental conditions at the time of inputting the image, for example, the lighting method is good, and as described above. It is only necessary to determine whether or not it is within one area of the 7 * 7 matrix.

【0028】次に、入出時の環境が変動する可能性があ
る場合についてファジー推論により認識の誤りを少なく
する方法について説明する。
Next, a method of reducing recognition errors by fuzzy reasoning when the environment at the time of entry and exit may change will be described.

【0029】顔判定手段12は特徴登録手段11からの
データから確からしさの関数を記憶する制御規則記憶部
24と特徴抽出手段10からの出力と制御規則記憶部2
4からの出力によりファジー推論を行うファジー推論部
25とからなっている。
The face determination means 12 is a control rule storage section 24 for storing a function of certainty from the data from the feature registration section 11 and an output from the feature extraction means 10 and a control rule storage section 2.
And a fuzzy inference unit 25 which performs a fuzzy inference based on the output from 4.

【0030】制御規則記憶部24に登録する制御規則は
上述した例の同じ登録番地で登録されているとすると、
登録番地2−4(三重丸)が最も認識の一致率が高いと
ころとし、認識率1とする(確からしさが1)。そし
て、その周辺の二重丸で示した1−3、2−3、3−
3、1−4、3−4、1−5、2−5、3−5の認識率
を0.8とする(確からしさが0.8)。更にその周辺
の一重丸で示した1−2、2−2、3−2、4−2、4
−3、4−4、4−5、4−6、3−6、3−7、2−
6、1−6ならば0.5とする。
If the control rules registered in the control rule storage unit 24 are registered at the same registration address in the above-mentioned example,
The registered address 2-4 (Miemaru) is assumed to have the highest recognition coincidence rate, and the recognition rate is 1 (probability is 1). And, 1-3, 2-3, 3-indicated by double circles around it
The recognition rates of 3, 1-4, 3-4, 1-5, 2-5, and 3-5 are 0.8 (probability is 0.8). Furthermore, 1-2, 2-2, 3-2, 4-2, 4 indicated by single circles around it
-3, 4-4, 4-5, 4-6, 3-6, 3-7, 2-
If it is 6, 1-6, it is 0.5.

【0031】また、図4(A)において求めたbという
目21の両側の顔の端部間の距離情報を用い、b/aの
取り得る値を1から7まで分割する。ここでb/aを顔
輪郭と呼ぶこととする。顔輪郭b/aの登録した値(こ
こでは4とする)であれば顔輪郭の認識率は0.9、そ
の両隣の値(3及び5)の場合ならば認識率0.7、更
に離れている場合(2及び6)は0.3とする。
Further, using the information on the distance between the ends of the face on both sides of the eye 21 called b obtained in FIG. 4 (A), the possible values of b / a are divided into 1 to 7. Here, b / a is called a face contour. If the registered value of the face contour b / a (here, it is 4), the recognition rate of the face contour is 0.9, and if it is the values (3 and 5) on both sides thereof, the recognition rate is 0.7, and further away. If (2 and 6), the value is 0.3.

【0032】次に、ファジー推論部25において2次元
軸c/a、とd/aの確からしさと、1次元軸b/aの
確からしさとからファジー推論を行う。今ここでは2次
元の場合の判断条件から得られる確からしさと1次元の
場合の判断条件から得られる確からしさのファジー論理
積を求め、その値が0.5以上、即ち半分以上の確から
しさがある場合には顔判定で登録された人として認識が
され、0.5以下であれば、即ち半分以下の確からしさ
しかない場合には登録された人でない認識する。
Next, the fuzzy inference unit 25 performs fuzzy inference based on the certainty of the two-dimensional axes c / a and d / a and the certainty of the one-dimensional axis b / a. Now, the fuzzy logical product of the probability obtained from the determination condition in the case of two dimensions and the probability obtained from the determination condition in the case of one dimension is obtained, and the value is 0.5 or more, that is, the probability of being half or more. In some cases, the person is recognized as a registered person in the face determination, and if it is 0.5 or less, that is, if the probability is less than half, the person is not a registered person.

【0033】例えば、2次元軸で検出された位置が1−
3であれば認識率0.8、そのときの顔輪郭の番地が5
であれば認識率が0.7となり、ファジー論理積は0.
56で検出された人は登録された人であると判断され
る。従って、今までは7*7のマトリックスの1領域以
外は誤りと判断していたのをその周辺のを確からしさの
条件を入れることによって環境変化があった場合にも誤
認識を防ぐことができる。
For example, if the position detected on the two-dimensional axis is 1-
If it is 3, the recognition rate is 0.8, and the address of the face contour at that time is 5
If so, the recognition rate becomes 0.7, and the fuzzy AND is 0.
The person detected at 56 is determined to be a registered person. Therefore, up to now, it was possible to prevent erroneous recognition even if there was a change in the environment by including the condition of certainty in the surroundings, except that one area of the 7 * 7 matrix was judged as an error. .

【0034】上記動作は画像入力手段により顔の画像を
取り込み、取り込まれるべき画像を確認するためにミラ
ーを用いて説明したが、入力した画像を液晶表示装置の
ようなもので確認することも、もちろん可能である。
The above-mentioned operation was explained by using the image inputting means to capture the image of the face and using the mirror to confirm the image to be captured, but it is also possible to confirm the input image with a liquid crystal display device. Of course it is possible.

【0035】また、ミラー上に位置指示部を設けた例で
説明したが、他の方法、例えば、照射角度の狭い二つの
発光素子を離して設置し、その両方が見える位置に顔を
持っていくことにより目の位置を位置指示部内に入れる
ことができる。
Further, although the example in which the position indicating portion is provided on the mirror has been described, another method, for example, two light emitting elements having a narrow irradiation angle are installed separately, and a face is held at a position where both of them can be seen. By moving, the eye position can be put in the position indicating section.

【0036】図7は二つの発光素子26、27が取り付
け台28に取り付けられ仕切板29で仕切られてある。
発光素子26は光路30、31のように広がり発光素子
27は光路32、33のように広がる。目の位置を斜線
内34に置くことにより左目は左の発光素子26のみか
ら、右目は右の発光素子27のみから照射され、その光
を見ることができる。この様にすることにより顔の位置
合わせが簡単にできると共に、この方法を知らない人は
登録されていないことになり、画像による識別以前に排
除することができる。なお、発光素子を二つにした理由
は両目で見た場合にそれぞれの目が対応する発光素子を
見るため、左右の位置ズレが少なくなるからである。
In FIG. 7, two light emitting elements 26 and 27 are mounted on a mounting base 28 and partitioned by a partition plate 29.
The light emitting element 26 expands like optical paths 30 and 31, and the light emitting element 27 expands like optical paths 32 and 33. By placing the position of the eye in the shaded area 34, the left eye is illuminated by only the left light emitting element 26 and the right eye is illuminated by only the right light emitting element 27, so that the light can be seen. By doing so, the position of the face can be easily aligned, and a person who does not know this method is not registered and can be excluded before the identification by the image. The reason why the number of light emitting elements is two is that when the eyes are viewed by both eyes, each eye sees the corresponding light emitting element, so that the positional deviation between the left and right is reduced.

【0037】[0037]

【発明の効果】以上説明したように本発明の個人認識装
置は、位置指示部内に特定部分が入るように画像入力手
段を設定し、得られた画像から顔の特定部分の位置を検
出し、検出した部分から他の顔の部分までの特徴を比較
することにより次の効果が得られる。
As described above, in the personal recognition device of the present invention, the image input means is set so that the specific portion is included in the position indicating portion, and the position of the specific portion of the face is detected from the obtained image, The following effects can be obtained by comparing the features from the detected portion to other face portions.

【0038】(1)顔全体のマッチングを行わないため
に計算容量が小さくなり、メモリも小さくて済む。
(1) Since the entire face is not matched, the calculation capacity is small and the memory is small.

【0039】(2)位置指示部内に入った顔の特定部分
の概略の位置が予めわかっているため顔の特定部分判定
が簡単になる。従って、各特定部分間の特徴を簡単に抽
出できる。
(2) Since the rough position of the specific portion of the face that has entered the position pointing portion is known in advance, the determination of the specific portion of the face becomes easy. Therefore, the feature between the specific parts can be easily extracted.

【0040】(3)特徴の組み合わせの数を多くすれば
多くの人の識別ができ、少なくすれば家族程度の識別が
できる等の自由度があるシステムを作ることができる。
特に、家庭用として安価なシステムがつくることができ
る。
(3) It is possible to create a system having a degree of freedom such that many people can be identified by increasing the number of feature combinations, and family members can be identified by decreasing the number of combinations.
In particular, an inexpensive system can be created for home use.

【0041】また、検出する特徴の数を増して行くと1
つのデータの違いでも一致しない場合はたとえOKの人
であっても違うという判断がされるが各データの確から
しさからファジー推論を行うことによりが誤認識が少な
くなる。そして、画像入力するときの環境変化(照明の
変化など)に対しても誤認識が少なくなる。
When the number of features to be detected is increased, it becomes 1
If the two data do not match, even if the person is OK, it is determined that they are different. However, by performing fuzzy inference based on the certainty of each data, misrecognition is reduced. Further, erroneous recognition is reduced even with environmental changes (such as changes in lighting) when an image is input.

【0042】さらに、画像入力手段に顔の画像を入力す
るために画像入力手段の前面にミラーを設けてあるため
ミラーを見て自分の顔が入るようにするだけで適切な画
像を取り込むことができる。
Further, since a mirror is provided in front of the image input means for inputting a face image to the image input means, an appropriate image can be taken in only by looking at the mirror so that one's face can enter. it can.

【0043】そして、ミラー上に位置指示部を書いてお
くことにより自分の目を位置指示部に合わせるようにミ
ラーを見るだけで目の位置の検出が簡単になる。
By writing the position indicating portion on the mirror, the eye position can be easily detected only by looking at the mirror so that one's eyes are aligned with the position indicating portion.

【0044】位置指示部を二つの発光素子を左右の目が
それぞれを見るような構成により目の位置を簡単に特定
させることができ、使用方法のわからない人は事前には
ねることができる。
The position indicating portion can be easily specified by the structure in which the left and right eyes of each of the two light emitting elements see each other, and the person who does not know how to use can be repelled in advance.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例における動体認識装置の構成
を示すブロック図
FIG. 1 is a block diagram showing the configuration of a moving object recognition apparatus according to an embodiment of the present invention.

【図2】同装置のドア近傍に配置した概略図FIG. 2 is a schematic view of the device arranged near the door.

【図3】同装置の特徴登録時のフローチャートFIG. 3 is a flowchart for registering characteristics of the device.

【図4】同装置の顔画像と顔の特定部分データを示す説
明図
FIG. 4 is an explanatory diagram showing a face image and face specific portion data of the apparatus.

【図5】同装置のデータのマトリックス配置図FIG. 5 is a matrix layout diagram of data of the device.

【図6】同装置の認識時のフローチャートFIG. 6 is a flowchart for recognizing the device.

【図7】同装置の位置指示部の一実施例における構成図FIG. 7 is a configuration diagram of an embodiment of a position pointing unit of the same device.

【符号の説明】[Explanation of symbols]

1 画像入力手段 5 位置検出手段 10 特徴検出手段 11 特徴記憶手段 12 顔判定手段 1 Image Input Means 5 Position Detection Means 10 Feature Detection Means 11 Feature Storage Means 12 Face Determination Means

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】主として顔を撮像する画像入力手段と、顔
の特定部分を前記画像入力手段の所定の枠内に入れるた
めの位置指示部と、前記位置指示部内に収まった顔画像
から顔の各部分の位置を検出する位置検出手段と、前記
位置検出手段で検出した顔の部分の位置から顔の他の部
分の位置までの特徴を抽出する特徴抽出手段と、前記特
徴抽出手段から得られた特徴を予め登録しておく特徴登
録手段と、前記特徴抽出手段で抽出した特徴と特徴登録
手段で記憶してある特徴とを比較判定する顔判定手段と
からなる個人認識装置。
1. An image inputting device mainly for picking up an image of a face, a position instructing part for putting a specific part of the face within a predetermined frame of the image inputting device, and a face image from the face image stored in the position instructing part. Position detection means for detecting the position of each portion, feature extraction means for extracting features from the position of the face portion detected by the position detection means to the position of the other portion of the face, and the feature extraction means A personal recognition device comprising: a feature registration means for registering the feature in advance; and a face determination means for comparing and determining the feature extracted by the feature extraction means and the feature stored in the feature registration means.
【請求項2】画像入力手段はミラーの後方にあり、かつ
前記ミラーを透過して主として顔を撮像するようにした
請求項1記載の個人認識装置。
2. The personal recognition device according to claim 1, wherein the image input means is behind the mirror, and the face is mainly photographed through the mirror.
【請求項3】位置指示部はミラー上に写し出される顔の
特定部分を所定の枠内に合わせるために前記ミラーに設
けてある請求項2記載の個人認識装置。
3. The personal identification device according to claim 2, wherein the position pointing unit is provided on the mirror so that a specific portion of the face projected on the mirror is fitted within a predetermined frame.
【請求項4】位置指示部は二つの発光素子を左右の目に
対応して入射するように配してなる請求項1記載の個人
認識装置。
4. The personal identification device according to claim 1, wherein the position indicating section is provided with two light emitting elements so as to be incident so as to correspond to the left and right eyes.
【請求項5】顔判定手段は特徴登録手段で求めた特徴の
確からしさを記憶する制御規則記憶部と、特徴抽出手段
で抽出されたデータと前記制御規則記憶部の確からしさ
の関数とからファジー推論するファジー推論部とからな
る請求項1〜4のいずれかに記載の個人認識装置。
5. The face determination means is fuzzy from a control rule storage section for storing the likelihood of the feature obtained by the feature registration means, the data extracted by the feature extraction means and a function of the likelihood of the control rule storage section. The personal recognition device according to any one of claims 1 to 4, comprising a fuzzy inference unit for inferring.
JP5081715A 1993-04-08 1993-04-08 Personal recognition device Pending JPH06295331A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5081715A JPH06295331A (en) 1993-04-08 1993-04-08 Personal recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5081715A JPH06295331A (en) 1993-04-08 1993-04-08 Personal recognition device

Publications (1)

Publication Number Publication Date
JPH06295331A true JPH06295331A (en) 1994-10-21

Family

ID=13754104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5081715A Pending JPH06295331A (en) 1993-04-08 1993-04-08 Personal recognition device

Country Status (1)

Country Link
JP (1) JPH06295331A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123824A (en) * 2000-10-13 2002-04-26 Omron Corp Image comparison device, image comparison method, image comparison center device, and image comparison system
KR100361141B1 (en) * 2000-11-20 2002-11-21 주식회사 알파엔지니어링 Access control method and installation using iris cognition

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123824A (en) * 2000-10-13 2002-04-26 Omron Corp Image comparison device, image comparison method, image comparison center device, and image comparison system
KR100361141B1 (en) * 2000-11-20 2002-11-21 주식회사 알파엔지니어링 Access control method and installation using iris cognition

Similar Documents

Publication Publication Date Title
JP4156430B2 (en) Face verification method and system using automatic database update method
US9064145B2 (en) Identity recognition based on multiple feature fusion for an eye image
US9922238B2 (en) Apparatuses, systems, and methods for confirming identity
US8280120B2 (en) Fraud resistant biometric financial transaction system and method
US7881524B2 (en) Information processing apparatus and information processing method
US7599523B2 (en) Personal identification device and method
EP1629415B1 (en) Face identification verification using frontal and side views
US5561718A (en) Classifying faces
CN101145199B (en) Living body guidance control method for a biometric authentication device, and biometric authentication device
US20080212849A1 (en) Method and Apparatus For Facial Image Acquisition and Recognition
US20100202669A1 (en) Iris recognition using consistency information
RU2670798C1 (en) Method of iris authentication of user and device therefor
KR101626837B1 (en) Method and apparatus for convergence biometric authentication based on finger joint and finger vein
JP2000105830A (en) Individual identifying device
JP2000512047A (en) Biometric recognition using neural network classification
US20250356713A1 (en) Information processing apparatus, information processing method, and storage medium
RU2316051C2 (en) Method and system for automatically checking presence of a living human face in biometric safety systems
JPH06295331A (en) Personal recognition device
US20260057053A1 (en) Information processing device, authentication method, and storage medium
JPH06295332A (en) Personal recognition device
Bhat et al. Intelligent ATM Ingress Protection:“Integrating Facial Recognition and Liveness Dection for Enhanced the Security”
Sidharth et al. Securing democracy: The two-phase authentication approach to electronic voting
CN112288934A (en) Control method based on intelligent gating
JP4555561B2 (en) Personal authentication system and device
JPH10137222A (en) Individual identification system