JPH03220535A - Focus detecting device - Google Patents

Focus detecting device

Info

Publication number
JPH03220535A
JPH03220535A JP1680290A JP1680290A JPH03220535A JP H03220535 A JPH03220535 A JP H03220535A JP 1680290 A JP1680290 A JP 1680290A JP 1680290 A JP1680290 A JP 1680290A JP H03220535 A JPH03220535 A JP H03220535A
Authority
JP
Japan
Prior art keywords
focus
subject
auxiliary light
area
focus detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1680290A
Other languages
Japanese (ja)
Inventor
Akira Akashi
明石 彰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP1680290A priority Critical patent/JPH03220535A/en
Priority to DE1991626715 priority patent/DE69126715T2/en
Priority to EP91100901A priority patent/EP0439167B1/en
Priority to DE1991631852 priority patent/DE69131852T2/en
Priority to EP95102519A priority patent/EP0653655B1/en
Publication of JPH03220535A publication Critical patent/JPH03220535A/en
Priority to US08/009,394 priority patent/US5293194A/en
Pending legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Abstract

PURPOSE:To eliminate such inconvenience that auxiliary light is not emitted when necessary or emitted when not necessary by deciding whether or not the auxiliary light is emitted according to the focus detection result of the center area among plural subjects in a picture plane. CONSTITUTION:When the focus of a photographic lens LNS is in front of a film surface, object images formed on respective couples of arrays of sensors SNS are mutually close and when the focus is behind the film surface, the subject images are mutually separate. The relative position shift quantity of the object images is in specific function relation with the out-of-focus quantity of the photographic lens LNS, so proper arithmetic for sensor outputs is performed by the respective sensor SNS array couples to detect the out-of-focus quantity of the photographic lens, i.e. the defocusing quantity. Consequently, focus detection becomes possible with auxiliary lighting when a main object is in the center of the picture plane even if a night scene picture, etc., is taken, and the auxiliary light is not emitted even when the focusing detection is disabled for the background at the periphery of the picture plane.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、被写体を照明するための補助光源を有し、撮
影レンズの画面内の複数の被写体領域の焦点検出を行う
、カメラ等の焦点検出装置に関するものである。
Detailed Description of the Invention [Industrial Application Field] The present invention relates to a focal point of a camera, etc., which has an auxiliary light source for illuminating a subject and performs focus detection of a plurality of subject areas within the screen of a photographic lens. This invention relates to a detection device.

〔従来の技術〕[Conventional technology]

従来、カメラの焦点検出装置として、撮影レンズの異な
る射出瞳領域を通過した被写体からの光束と、一対のラ
インセンサ上に結像させ、被写体像を光電変換して得ら
れた一対の像信号の相対位置変位量を求めることにより
、撮影レンズのデフォーカス量を検出する方法がよく知
られている。
Conventionally, a focus detection device for a camera uses a pair of image signals obtained by photoelectrically converting a light beam from a subject that has passed through different exit pupil regions of a photographic lens and a pair of line sensors to form an image on a pair of line sensors. A well-known method is to detect the amount of defocus of a photographic lens by determining the amount of relative positional displacement.

上記方法では焦点検出系(光学系、センサ)が1組しか
ないので、画面内の1つの被写体領域のデフォーカス量
しか検出できないが、検出系を複数組用意することによ
って、画面内の複数の被写体領域のデフォーカス量を検
出する方法も多数提案されている。
In the above method, since there is only one set of focus detection system (optical system, sensor), it is possible to detect only the defocus amount of one subject area within the screen. Many methods have also been proposed for detecting the amount of defocus in a subject area.

焦点検出される被写体領域が複数あっても、カメラでピ
ントを合わせたい被写体領域は最終的には1つか、せい
ぜい2つの領域(この場合、例えば2つの領域を被写界
深度でカバーするような中間のピント位置に撮影レンズ
を駆動する)であるから、何らかの選択方法で被写体領
域を選択し、選択された領域で検出されたデフォーカス
量に基づいて撮影レンズのピント合わせを行う必要があ
る。
Even if there are multiple subject areas to be focus-detected, the number of subject areas that you want to focus on with the camera is ultimately one, or at most two areas (in this case, for example, two areas should be covered by the depth of field). (driving the photographing lens to an intermediate focus position), it is necessary to select the subject area using some selection method and focus the photographing lens based on the amount of defocus detected in the selected area.

選択方法としては、カメラに対して最も至近側と判断さ
れる被写体領域を選択する方法が一般的である。
A common selection method is to select a subject area that is determined to be closest to the camera.

また上記したような従来の焦点検出装置では、被写体が
低輝度であったり低輝度でないとしても表面上に輝度(
反射率)の変化がないとデフォーカス量を検出すること
が出来ないため、焦点検出不能時に被写体をパターン照
明するための補助的な照明装置を用意している場合が多
い。
In addition, with the conventional focus detection device described above, even if the subject is low brightness or not low brightness, the brightness (
Since the amount of defocus cannot be detected unless there is a change in the reflectance (reflectance), an auxiliary lighting device is often provided to illuminate the subject in a pattern when focus cannot be detected.

焦点検出を行う被写体領域が複数の場合には、照明装置
は複数の領域を照明するように構成されている方が有用
である。
When there are a plurality of subject areas for which focus detection is to be performed, it is more useful for the illumination device to be configured to illuminate the plurality of areas.

〔発明が解決しようとしている課題〕[Problem that the invention is trying to solve]

しかしながら、上述した従来例では、複数の被写体領域
を照明装置を用いて焦点検出を行う際に、以下のような
不都合が生じる可能性がある。
However, in the conventional example described above, the following inconvenience may occur when focus detection is performed on a plurality of subject areas using an illumination device.

即ち、照明装置を作動させる条件として、総ての被写体
領域が焦点検出不能の場合、としておくと、1つでも検
出可能な領域があったときには照明装置が働かず、例え
ば、夜景写真のように、人物が画面内にいて背景の明る
い状況では、人物が位置する被写体領域が焦点検出不能
であっても照明されず、背景の方にピントがあってしま
うことになり、甚だ都合が悪い。
In other words, if the condition for operating the illumination device is that the focus cannot be detected in all subject areas, the illumination device will not work if there is even one detectable area, for example, in night photos. In a situation where a person is in the screen and the background is bright, even if the subject area where the person is located cannot be detected as a focus, it will not be illuminated and the background will be in focus, which is extremely inconvenient.

仮に、照明装置作動条件を、焦点検出不能な被写体領域
が1つでもある場合、とすると、今度は背景が位置する
被写体領域が焦点検出不能な状況で無意味な照明を行っ
てしまうことになり、これもまた操作性を著しく低下さ
せてしまうことになる。
If the lighting device operating condition is that there is at least one subject area where focus cannot be detected, then meaningless lighting will be performed in a situation where focus cannot be detected on the subject area where the background is located. , which also significantly reduces operability.

また、更に照明装置が発生させる照明パターンが簡単化
のために各被写体領域に対して共通化されていると、焦
点検出系の構成によっては、その照明パターンを検出す
ることが原理的に困難な被写体領域があり得る。こうい
った領域では照明によって焦点検出可能となっても、そ
もそも苦手な被写体であるために、その検出デフォーカ
ス量に大きな誤差が含まれている場合が多く、この領域
のデフォーカス量が最終的なデフォーカス量に選ばれて
しまうと、誤まったピント合わせとなってしまう。
Furthermore, if the illumination pattern generated by the illumination device is made common to each subject area for the sake of simplicity, it may be difficult in principle to detect that illumination pattern depending on the configuration of the focus detection system. There may be a subject area. Even if it is possible to detect focus in these areas due to illumination, since the subject is difficult to photograph in the first place, the amount of defocus detected often contains a large error, and the amount of defocus in this area is the final value. If a certain amount of defocus is selected, the focus will be incorrect.

〔課題を解決するための手段〕[Means to solve the problem]

本発明は上述した問題点の解消を目的としており、その
要旨は次に述べる通りである。
The present invention aims to solve the above-mentioned problems, and the gist thereof is as follows.

即ち、焦点検出不能時に補助的な照明(以下「補助光」
と称する)が有効とするのは、主に人物のような被写体
がカメラに対して比較的近距離に存在し、またそういっ
た被写体は高い確率で画面中央に位置することに着目し
、画面中央にある被写体領域が焦点検出不能であること
を補助光の照明条件とすることにある。これにより、前
記した夜景写真のような状況でも主被写体が画面中央に
位置すれば補助光照明によって焦点検出可能となり、ま
た画面周辺に位置する背景が焦点検出不能でも補助光は
照明しないようにすることが出来る。
In other words, auxiliary illumination (hereinafter referred to as "auxiliary light") is used when focus cannot be detected.
) is effective because it focuses on the fact that subjects such as people are relatively close to the camera, and that such subjects have a high probability of being located in the center of the screen. The aim is to set the illumination condition for the auxiliary light to be that the focus cannot be detected in a certain subject area. As a result, even in a situation like the night scene photograph described above, if the main subject is located in the center of the screen, focus can be detected using the auxiliary light, and even if the background located at the periphery of the screen is unable to detect focus, the auxiliary light will not be illuminated. I can do it.

また、本発明の更なる目的は前記補助的な照明装置使用
時には、その照明パターンの検出が原理的に困難である
被写体領域を選択しないようにすることによって、誤ま
ったピント合わせを行わせないようにするものである。
A further object of the present invention is to prevent incorrect focusing by not selecting a subject area whose illumination pattern is difficult to detect in principle when using the auxiliary illumination device. It is intended to do so.

〔実施例〕〔Example〕

以下、本発明を図示の実施例に基づいて詳細に説明する
Hereinafter, the present invention will be explained in detail based on illustrated embodiments.

第3図は本発明の一実施例であるところの焦点検出装置
の概略構成を示す図である。
FIG. 3 is a diagram showing a schematic configuration of a focus detection device which is an embodiment of the present invention.

図中、MSKは視野マスクであり、中央に十字形の開ロ
部MSK−1.両側の周辺部に縦長の開口部M S K
 −2、M S K 3を有している。FLDLはフィ
ールドレンズであり、視野マスクの3つの開口部MSK
−1,MSK−2,MSK−3に対応して、3つの部分
FLDL−1,FLDL−2,FLDL−3から成って
いる。DPは絞りであり、中心部には上下左右に一対ず
つ計4つの開口DP−1a、DPlb、DP−4a、D
P−4bを、また左右の周辺部分には一対2つの開口D
P−2a、DP−2bおよびDP−3a、DP−3bが
それぞれ設けられている。
In the figure, MSK is a visual field mask, and a cross-shaped opening MSK-1. Vertical openings on both sides M S K
-2, MS K 3. FLDL is a field lens and the three apertures MSK of the field mask
-1, MSK-2, and MSK-3, it consists of three parts FLDL-1, FLDL-2, and FLDL-3. DP is a diaphragm, and in the center there are a total of four openings DP-1a, DPlb, DP-4a, and D
P-4b, and a pair of two openings D in the left and right peripheral areas.
P-2a, DP-2b and DP-3a, DP-3b are provided, respectively.

前記フィールドレンズFLDLの各領域FLDL−1゜
FLDL−2,FLDL−3はそれぞれこれらの開口対
DP−1,DP−2,DP−3を不図示の対物レンズの
射出瞳付近に結像する作用を有している。AFLは4対
計8つのレンズAFL−1a、 AFL−1bSAFL
4a、 AFL−4b、 AFL−2a、 AFL−2
b、 AFL3a、AFL−3bからなる2次結像レン
ズであり、絞りDPの各開口に対応して、その後方に配
置されている。SNSは4対計8つのセンサ列5NSl
a、 5NS−1b、 5NS−4a、 5NS−4b
、 5NS2a、5NS−2b、、5NS−3a、5N
S−3bから成るセンサであり、各2次結像レンズAF
Lに対応してその像を受光するように配置されている。
Each region FLDL-1, FLDL-2, FLDL-3 of the field lens FLDL functions to image these aperture pairs DP-1, DP-2, DP-3 near the exit pupil of an objective lens (not shown), respectively. have. AFL has 4 pairs of lenses AFL-1a, AFL-1bSAFL
4a, AFL-4b, AFL-2a, AFL-2
b, A secondary imaging lens consisting of AFL3a and AFL-3b, which are arranged behind each aperture of the diaphragm DP in correspondence with each aperture thereof. SNS has 4 pairs of 8 sensor rows 5NSl
a, 5NS-1b, 5NS-4a, 5NS-4b
, 5NS2a, 5NS-2b, 5NS-3a, 5N
It is a sensor consisting of S-3b, and each secondary imaging lens AF
It is arranged to receive the image corresponding to L.

この第3図に示す焦点検出系では、撮影レンズの焦点が
フィルム面より前方にある場合、各センサ列対上に形成
される被写体像は互いに近づいた状態になり、焦点が後
方にある場合には、被写体像は互いに離れた状態になる
。この被写体像の相対位置変位量は撮影レンズの焦点外
れ量と特定の関数関係にあるため、各センサ列対でその
センサ出力に対してそれぞれ適当な演算を施せば、撮影
レンズの焦点外れ量、いわゆるデフォーカス量を検出す
ることが出来る。
In the focus detection system shown in Fig. 3, when the focal point of the photographing lens is in front of the film plane, the subject images formed on each pair of sensor rows are close to each other, and when the focal point is behind the film plane, the subject images are close to each other. In this case, the subject images are separated from each other. This amount of relative positional displacement of the subject image has a specific functional relationship with the amount of defocus of the photographing lens, so if appropriate calculations are performed on the sensor outputs of each pair of sensor rows, the amount of defocus of the photographing lens, It is possible to detect the so-called defocus amount.

以上で説明したような構成をとることにより、不図示の
対物レンズにより撮影または観察される範囲の中心付近
では、光量分布が上下または左右の一方向にのみ変化す
るような物体に対しても測距することが可能となり、中
心以外の視野マスクの周辺の開口部MSK−2,MSK
−3に対応する位置にある物体に対しても測距すること
ができる。
By adopting the configuration described above, it is possible to measure even objects whose light intensity distribution changes only in one direction, vertically or horizontally, near the center of the range photographed or observed by an objective lens (not shown). The peripheral openings of the field mask other than the center MSK-2, MSK
It is also possible to measure the distance to an object located at a position corresponding to -3.

第2図は第3図の如き焦点検出装置を備えたカメラの具
体的な構成の一例を示す回路図であり、先ず各部の構成
について説明する。
FIG. 2 is a circuit diagram showing an example of a specific configuration of a camera equipped with a focus detection device as shown in FIG. 3. First, the configuration of each part will be explained.

第2図において、PH1はカメラの制御装置で、例えば
、内部にCPU (中央処理装置)、ROM。
In FIG. 2, PH1 is a camera control device, which includes, for example, a CPU (central processing unit) and ROM.

RAM、A/D変換機能を有する1チツプのマイクロコ
ンピュータ(以下マイコンと記す)である。
It is a one-chip microcomputer (hereinafter referred to as microcomputer) having RAM and A/D conversion functions.

マイコンPR3はROMに格納されたカメラのシーケン
スプログラムに従って、自動露出制御機能、自動焦点調
節機能、フィルムの巻上げ巻戻し等のカメラの一連の動
作を行っている。そのために、マイコンPR5は通信用
信号So、  SI、  5CLK。
The microcomputer PR3 performs a series of camera operations such as an automatic exposure control function, an automatic focus adjustment function, and film winding and rewinding according to a camera sequence program stored in the ROM. For this purpose, the microcomputer PR5 uses communication signals So, SI, and 5CLK.

通信選択信号CLCM、C3DR,CDDRを用いて、
カメラ本体内の周辺回路およびレンズ内制御装置と通信
を行って、各々の回路やレンズの動作を制御する。
Using communication selection signals CLCM, C3DR, CDDR,
It communicates with the peripheral circuits inside the camera body and the control device inside the lens to control the operation of each circuit and lens.

SOはマイコンPR5から出力されるデータ信号、SI
はマイコンPR8に入力されるデータ信号、5CLKは
信号So、  SIの同期クロックである。
SO is the data signal output from the microcomputer PR5, SI
is a data signal input to the microcomputer PR8, and 5CLK is a synchronization clock for signals So and SI.

LCMはレンズ通信バッファ回路であり、カメラが動作
中のときにはレンズ用電源端子VLに電力を供給すると
ともに、マイコンPR3からの選択信号CLCMが高電
位レベル(以下、“H”と記し、低電位レベルは“L”
と記する)のときには、カメラとレンズ間の通信バッフ
ァとなる。
LCM is a lens communication buffer circuit, and when the camera is in operation, it supplies power to the lens power supply terminal VL, and the selection signal CLCM from the microcomputer PR3 is set to a high potential level (hereinafter referred to as "H", low potential level). is “L”
), it becomes a communication buffer between the camera and lens.

マイコンPR3が選択信号CLCMを“H”にして、S
 CL Kに同期して所定のデータを信号SOとして送
出すると、バッファ回路LCMはカメラ・レンズ間通信
接点を介して、5CLK、SOの各々のバッファ信号L
CK、DCLをレンズへ出力する。それと同時にレンズ
LNSからの信号DLCのバツファ信号を信号SIとし
て出力し、マイコンPR3は5CLKに同期して信号S
■をレンズのデータとして入力する。
The microcomputer PR3 sets the selection signal CLCM to “H” and the S
When predetermined data is sent as a signal SO in synchronization with CLK, the buffer circuit LCM transmits each buffer signal L of 5CLK and SO through the camera-lens communication contact.
Outputs CK and DCL to the lens. At the same time, the buffer signal of the signal DLC from the lens LNS is output as the signal SI, and the microcomputer PR3 outputs the signal S in synchronization with 5CLK.
Input ■ as the lens data.

DDRはスイッチ検知および表示用回路であり、信号C
DDRが“H”のとき選択されて、So、 Sl。
DDR is a switch detection and display circuit, and the signal C
Selected when DDR is “H”, So, Sl.

5CLKを用いてマイコンPR8から制御される。Controlled by microcomputer PR8 using 5CLK.

即ち、マイコンPR3から送られてくるデータに基づい
てカメラの表示部材DSPの表示を切り替えたり、カメ
ラの各種操作部材のオンオフ状態を通信によってマイコ
ンPR3に報知する。
That is, based on data sent from the microcomputer PR3, the display on the display member DSP of the camera is switched, and the on/off states of various operating members of the camera are notified to the microcomputer PR3 by communication.

SWI、SW2は不図示のレリーズボタンに連動したス
イッチで、レリーズボタンの第1段階の押下によりSW
Iがオンし、引続いて第2段階の押下でSW2がオンす
る。マイコンPR5はSWIオンで測光、自動焦点調節
を行い、SW2オンをトリがとして露出制御とその後の
フィルムの巻上げを行う。
SWI and SW2 are switches that are linked to a release button (not shown), and when the release button is pressed in the first step, SW is activated.
I is turned on, and then SW2 is turned on at the second stage of depression. The microcomputer PR5 performs photometry and automatic focus adjustment when SWI is turned on, and performs exposure control and subsequent film winding when SW2 is turned on.

なお、スイッチSW2はマイコンであるPH1の「割込
み入力端子」に接続され、SWIオン時のプログラム実
行中でもSW2オンによって割込みがかかり、直ちに所
定の割込みプログラムへ制御を移すことができる。
Note that the switch SW2 is connected to the "interrupt input terminal" of the microcomputer PH1, and even if the program is being executed when the switch SW2 is on, an interrupt is generated by turning on the SW2, and control can be immediately transferred to a predetermined interrupt program.

MTRIはフィルム給送用、MTR2はミラーアップ・
ダウンおよびシャッタばねチャージ用のモータであり、
各々の駆動回路MDRI、MDR2により正転、逆転の
制御が行われる。マイコンPR8からMDRl、MDR
2に入力されている信号MIF。
MTRI is for film feeding, MTR2 is for mirror up/
It is a motor for down and shutter spring charging,
Forward rotation and reverse rotation are controlled by respective drive circuits MDRI and MDR2. Microcomputer PR8 to MDRl, MDR
The signal MIF input to 2.

MIR,M2F、M2Rはモータ制御用の信号である。MIR, M2F, and M2R are signals for motor control.

MCI、MG2は各々シャッタ先幕・後幕走行開始用マ
グネットで、信号SMGI、5MG2.増幅トランジス
タTRI、TR2で通電され、マイコンPR3によりシ
ャッタ制御が行われる。
MCI and MG2 are magnets for starting shutter front curtain and rear curtain travel, respectively, and signals SMGI and 5MG2. The amplification transistors TRI and TR2 are energized, and the microcomputer PR3 performs shutter control.

なお、スイッチ検知および表示用回路DDR。In addition, the switch detection and display circuit DDR.

モータ駆動回路MDRI、MDR2,シャッタ制御は本
発明と直接間りがないので、詳しい説明は省略する。
Since the motor drive circuits MDRI, MDR2, and shutter control are not directly related to the present invention, detailed explanations thereof will be omitted.

LPR3はレンズ内制御回路で、該回路LPR3にL 
CKに同期して入力される信号DCLは、カメラから撮
影レンズLNSに対する命令のデータであり、命令に対
するレンズの動作は予め決められている。
LPR3 is an in-lens control circuit, and LPR3 is connected to the LPR3 circuit.
The signal DCL input in synchronization with CK is data of a command from the camera to the photographic lens LNS, and the operation of the lens in response to the command is determined in advance.

制御回路LPR8は所定の手続きに従ってその命令を解
析し、焦点調節や絞り制御の動作や、出力DLCからレ
ンズの各部動作状況(焦点調節光学系の駆動状況や、絞
りの駆動状態等)や各種パラメータ(開放Fナンバ、焦
点距離、デフォーカス量対焦点調節光学系の移動量の係
数等)の出力を行う。
The control circuit LPR8 analyzes the command according to a predetermined procedure, and determines the operation of focus adjustment and aperture control, and the operation status of each part of the lens (driving status of the focusing optical system, driving status of the diaphragm, etc.) and various parameters from the output DLC. (Open F number, focal length, coefficient of defocus amount vs. movement amount of the focusing optical system, etc.) are output.

該実施例では、ズームレンズの例を示しており、カメラ
から焦点調節の命令が送られた場合には、同時に送られ
てくる駆動量・方向に従って焦点調節用モータLTMR
を信号LMF、LMRによって駆動して、焦点調節光学
系を光軸方向に移動させて焦点調節を行う。光学系の移
動量は光学系に連動して回動するパルス板のパターンを
フォトカプラーにて検出し、移動量に応じた数のパルス
を出力するエンコーダ回路ENCFのパルス信号5EN
CFでモニタし、回路LPR3内のカウンタで計数し、
該カウント値が回路LPR3に送られた移動量に一致し
た時点でLPR3自身が信号LMF。
This embodiment shows an example of a zoom lens, and when a focus adjustment command is sent from a camera, the focus adjustment motor LTMR is activated according to the driving amount and direction sent at the same time.
is driven by signals LMF and LMR to move the focusing optical system in the optical axis direction to perform focus adjustment. The amount of movement of the optical system is determined by a pulse signal 5EN of an encoder circuit ENCF that detects the pattern of a pulse plate that rotates in conjunction with the optical system using a photocoupler and outputs a number of pulses according to the amount of movement.
Monitored by CF, counted by counter in circuit LPR3,
When the count value matches the movement amount sent to the circuit LPR3, the LPR3 itself outputs the signal LMF.

LMRを“L”にしてモータLMTRを制御する。Control motor LMTR by setting LMR to "L".

このため、−旦カメラから焦点調節の命令が送られた後
は、カメラの制御装置であるところのマイコンPRSは
レンズの駆動が終了するまで、レンズ駆動に関して全く
関与する必要がない。また、カメラから要求があった場
合には、上記カウンタの内容をカメラに送出することも
可能な構成になっている。
Therefore, once the focus adjustment command is sent from the camera, the microcomputer PRS, which is the camera control device, does not need to be involved in lens driving at all until the lens driving is completed. Furthermore, the configuration is such that it is possible to send the contents of the counter to the camera if there is a request from the camera.

カメラから絞り制御の命令が送られた場合には、同時に
送られてくる絞り段数に従って、絞り駆動用としては公
知のステッピングモータDMTRを駆動する。なお、ス
テッピングモータはオーブン制御が可能なため、動作を
モニタするためのエンコーダを必要としない。
When an aperture control command is sent from the camera, a stepping motor DMTR, which is known for driving an aperture, is driven in accordance with the number of aperture stages sent at the same time. Note that since the stepping motor can be oven controlled, it does not require an encoder to monitor its operation.

ENCZはズーム光学系に付随したエンコーダ回路であ
り、回路LPR3はエンコーダ回路ENCZからの信号
5ENCZを入力してズーム位置を検出する。制御回路
LPR3内には各ズーム位置におけるレンズ・パラメー
タが格納されており、カメラ側のマイコンPR3から要
求があった場合には、現在のズーム位置に対応したパラ
メータをカメラに送出する。
ENCZ is an encoder circuit attached to the zoom optical system, and the circuit LPR3 receives a signal 5ENCZ from the encoder circuit ENCZ to detect the zoom position. Lens parameters at each zoom position are stored in the control circuit LPR3, and when a request is received from the camera-side microcomputer PR3, parameters corresponding to the current zoom position are sent to the camera.

SPCは撮影レンズを介した被写体からの光を受光する
露出制御用の測光センサであり、その出力5spcはマ
イコンPR3のアナログ入力端子に入力され、A/D変
換変換所定のプログラムに従って自動露出制御に用いら
れる。
The SPC is a photometric sensor for exposure control that receives light from the subject through the photographic lens, and its output 5spc is input to the analog input terminal of the microcomputer PR3, and is used for automatic exposure control according to a predetermined A/D conversion program. used.

SDRは焦点検出用ラインセンサ装置SNSの駆動回路
であり、信号C3DRが“H”のときに選択されて、S
o、Sr、5CLKを用いてマイコンPR5から制御さ
れる。
SDR is a drive circuit for the focus detection line sensor device SNS, and is selected when the signal C3DR is “H”.
Controlled by microcomputer PR5 using o, Sr, and 5CLK.

駆動回路SDRからセンサ装置SNSへ与える信号φ5
ELO,φ5ELIはマイコンPR8からの信号5EL
O,5ELLそのもので、φ5ELO−“L”φ5EL
I=“L”のときセンサ列対5NS−1(SNS−1a
、 5NS−1b)を、φ5ELO−“H”、φ5EL
I“L”のときセンサ列対5NS−4(SNS−4a。
Signal φ5 given from drive circuit SDR to sensor device SNS
ELO, φ5ELI is the signal 5EL from the microcomputer PR8
O, 5ELL itself, φ5ELO-“L” φ5EL
When I="L", sensor row pair 5NS-1 (SNS-1a
, 5NS-1b), φ5ELO-“H”, φ5EL
When I is “L”, sensor row pair 5NS-4 (SNS-4a).

5NS−4b)を、φ5ELO=“L″、φ5ELI=
″H”のときセンサ列対5NS−2(SNS−2a、 
5NS−2b)を、φ5ELO= ”H”、φ5EL1
=“H″のときセンサ列対5NS−3(SNS−3a、
5NS−3b)をそれぞれ選択する信号である。
5NS-4b), φ5ELO=“L”, φ5ELI=
When “H”, sensor row pair 5NS-2 (SNS-2a,
5NS-2b), φ5ELO= “H”, φ5EL1
= “H”, sensor row pair 5NS-3 (SNS-3a,
5NS-3b).

蓄積終了後に、5ELO,5ELIを適当に設定して、
クロックφSH,φHR3を送ることにより、5ELO
,5ELL (φ5ELO,φ5ELI )で選択され
たセンサ列対の像信号が出力VOUTから順次シリアル
に出力される。
After the accumulation is completed, set 5ELO and 5ELI appropriately,
By sending clocks φSH and φHR3, 5ELO
, 5ELL (φ5ELO, φ5ELI) are serially output from the output VOUT.

VPI、VF6.VF6.VF41:!そtL(’れ各
センサ列対5NS−1(SNS−1a、 5NS−1b
)、5NS−2(SNS−2a、 5NS−2b)、5
NS−3(SNS−3a。
VPI, VF6. VF6. VF41:! Each sensor row pair 5NS-1 (SNS-1a, 5NS-1b
), 5NS-2 (SNS-2a, 5NS-2b), 5
NS-3 (SNS-3a.

5NS−3b)、5NS−4(SNS−4a、  5N
S−4b)の近傍に配置された被写体輝度モニタ用セン
サからのモニタ信号で、蓄積開始とともにその電圧が上
昇し、これにより各センサ列の蓄積制御が行われる。
5NS-3b), 5NS-4 (SNS-4a, 5N
The voltage of the monitor signal from the subject brightness monitoring sensor placed near S-4b) rises at the start of accumulation, thereby controlling the accumulation of each sensor array.

信号φRES、  φVR3はセンサのリセット用クロ
ック、φHR3,φSHは像信号の読出し用り ロック
、φTl、 φT2. φT3. φT4はそれぞれ各
センサ列対の蓄積を終了させるためのクロックである。
Signals φRES, φVR3 are sensor reset clocks, φHR3, φSH are image signal readout locks, φTl, φT2. φT3. φT4 is a clock for ending the accumulation of each pair of sensor columns.

センサ駆動回路SDRの出力VIDEOは、センサ装置
SNSからの像信号VOUTと暗電流出力の差をとった
後、被写体の輝度によって決定されるゲインで増幅され
た像信号である。上記暗電流出力とは、センサ列中の遮
光された画素の出力値であり、SDRはマイコンPR5
からの信号DSHによってコンデンサにその出力を保持
し、これと像信号との差動増幅を行う。出力VIDEO
はマイコンPR3のアナログ入力端子に入力されており
、該マイコンPR3は同信号をA/D変換変換所のディ
ジタル値をRAM上の所定アドレスへ順次格納してゆく
The output VIDEO of the sensor drive circuit SDR is an image signal obtained by taking the difference between the image signal VOUT from the sensor device SNS and the dark current output, and then amplifying the difference with a gain determined by the brightness of the subject. The above-mentioned dark current output is the output value of the light-shielded pixels in the sensor array, and SDR is the output value of the light-shielded pixels in the sensor array.
The output is held in a capacitor by the signal DSH from the image signal, and differential amplification is performed between this and the image signal. Output VIDEO
is input to the analog input terminal of the microcomputer PR3, and the microcomputer PR3 sequentially stores the digital value of the signal from the A/D conversion station into a predetermined address on the RAM.

信号/TINTEI、/TINTE2./TINTE3
゜/TINTE4は、それぞれセンサ列対5NS−1(
SNS−1a、5NS−1b)、5NS−2(SNS−
2a、5NS−2b)、5NS−3(SNS−3a、5
NS−3b)、5NS4 (SNS−4a、5NS−4
b)に蓄積された電荷で適正となり、蓄積が終了したこ
とを表す信号で、マイコンPR3はこれを受けて像信号
の読出しを実行する。
Signals /TINTEI, /TINTE2. /TINTE3
°/TINTE4 is the sensor row pair 5NS-1 (
SNS-1a, 5NS-1b), 5NS-2 (SNS-
2a, 5NS-2b), 5NS-3 (SNS-3a, 5
NS-3b), 5NS4 (SNS-4a, 5NS-4
This is a signal indicating that the charges accumulated in b) are appropriate and the accumulation has been completed. Upon receiving this signal, the microcomputer PR3 executes reading of the image signal.

信号ETIMEはセンサ駆動回路SDR内の像信号増幅
アンプの読出しゲイン決定のタイミングを与える信号で
、通常上記回路SDRはこの信号が“H”となった時点
でのモニタ信号vP1〜VP4の電圧から、対応するセ
ンサ列対の読出しゲインを決定する。
The signal ETIME is a signal that provides the timing for determining the readout gain of the image signal amplification amplifier in the sensor drive circuit SDR, and the circuit SDR normally calculates the timing from the voltage of the monitor signals vP1 to VP4 at the time this signal becomes "H". Determine the readout gain of the corresponding pair of sensor columns.

CKI、CK2は上記クロックφRES、  φVR3
゜φHRS、φSHを生成するために、マイコンPR3
からセンサ駆動回路SDRへ与えられる基準クロックで
ある。
CKI, CK2 are the above clocks φRES, φVR3
゜To generate φHRS and φSH, microcomputer PR3
This is the reference clock given to the sensor drive circuit SDR from

マイコンPR3が通信選択信号C3DRを“H″として
所定の「蓄積開始コマンド」をセンサ駆動回路SDRに
送出することによってセンサ装置SNSの蓄積動作が開
始される。
The storage operation of the sensor device SNS is started by the microcomputer PR3 setting the communication selection signal C3DR to "H" and sending a predetermined "accumulation start command" to the sensor drive circuit SDR.

これにより、4つのセンサ列対で各センサ上に形成され
た被写体像の光電変換が行われ、センサの光電変換素子
部には電荷が蓄積される。同時に各センサの輝度モニタ
用センサの信号VPI〜VP4が上昇してゆき、この電
圧が所定レベルに達すると、センサ駆動回路SDRは前
記信号/TINTEI〜/TINTE4がそれぞれ独立
に“L”となる。
Thereby, photoelectric conversion of the subject image formed on each sensor is performed by the four sensor row pairs, and charges are accumulated in the photoelectric conversion element portion of the sensor. At the same time, the signals VPI to VP4 of the brightness monitoring sensor of each sensor rise, and when this voltage reaches a predetermined level, the sensor drive circuit SDR changes the signals /TINTEI to /TINTE4 to "L", respectively, independently.

マイコンPR3はこれを受けてクロックCK2に所定の
波形を出力する。センサ駆動回路SDRはGK2に基づ
いてクロックφSH,φHR3を生成してセンサ装置S
NSに与え、該センサ装置SNSは前記クロックによっ
て像信号を出力し、マイコンPR3は自ら出力している
CK2に同期して内部のA/D変換機能でアナログ入力
端子に入力されている出力VIDEOをA/D変換後、
ディジタル信号としてRAMの所定アドレスへ順次格納
してゆく。
In response to this, the microcomputer PR3 outputs a predetermined waveform to the clock CK2. The sensor drive circuit SDR generates clocks φSH and φHR3 based on GK2 and drives the sensor device S.
NS, the sensor device SNS outputs an image signal based on the clock, and the microcomputer PR3 converts the output VIDEO input to the analog input terminal using its internal A/D conversion function in synchronization with CK2 that it outputs. After A/D conversion,
The signals are sequentially stored as digital signals at predetermined addresses in the RAM.

なお、センサ駆動回路SDR,センサ装置SNSの動作
については先に本出願人より、二対のセンサ列を有する
焦点検出装置として特開昭63−216905号公報等
で開示しているので、ここでの詳細な説明は省略する。
The operations of the sensor drive circuit SDR and the sensor device SNS have previously been disclosed by the present applicant in Japanese Patent Application Laid-Open No. 63-216905 as a focus detection device having two pairs of sensor rows, so they will be described here. A detailed explanation will be omitted.

AUXLは焦点検出不能時に被写体を照明するための補
助光ユニットである。マイコンPR3の出力端子CAU
XLが“H”となると、抵抗を介してトランジスタAT
Rがオンし、発光ダイオードALEDが通電される。A
LEDの発光による光束は補助光用レンズACNSの作
用によって、被写体を照明する。
AUXL is an auxiliary light unit for illuminating the subject when focus cannot be detected. Output terminal CAU of microcomputer PR3
When XL becomes “H”, transistor AT
R is turned on and the light emitting diode ALED is energized. A
The light beam emitted by the LED illuminates the subject through the action of the auxiliary light lens ACNS.

照明の様子を第4図(a)、  (b)を用いて説明す
る。
The state of illumination will be explained using FIGS. 4(a) and 4(b).

第4図(a)は照明する前の説明図である。VWは被写
界に対応させた画面を表わし、領域1 (RGNI)、
領域2(RGN2)、領域3 (RGN3)、領域4 
(RGN4)はそれぞれ前記センサ列5M5−1,5M
5−2゜5NS−3,5NS−4が受光している画面内
の被写体領域を表わしている。即ち、RGNIの被写体
領域から光束が撮影レンズ、焦点検出光学系を経てセン
サ5NS−1a、lbへ入射する構成となっている。
FIG. 4(a) is an explanatory diagram before illumination. VW represents the screen corresponding to the field of view, area 1 (RGNI),
Region 2 (RGN2), Region 3 (RGN3), Region 4
(RGN4) are the sensor rows 5M5-1 and 5M, respectively.
5-2° 5NS-3 and 5NS-4 represent the subject area within the screen receiving light. That is, the configuration is such that a light flux from the subject area of RGNI enters the sensors 5NS-1a, 1b via the photographic lens and the focus detection optical system.

さて、焦点検出不能時に補助光を作動させると、被写体
上には第4図(b)に示したようなパターンで照明が行
われる。各パターンは発光ダイオードALEDとレンズ
ALNSの中間にある不図示のマスクによって発生する
ものであり、パターンAPTIは被写体領域RGNI、
RGN4を、APT2は領域RGN2を、APT3は領
域RGN3をそれぞれカバーするように照明される。
Now, when the auxiliary light is activated when the focus cannot be detected, the subject is illuminated in a pattern as shown in FIG. 4(b). Each pattern is generated by a mask (not shown) located between the light emitting diode ALED and the lens ALNS, and the pattern APTI corresponds to the subject area RGNI,
RGN4 is illuminated, APT2 is illuminated to cover region RGN2, and APT3 is illuminated to cover region RGN3.

各パターンは同じように垂直方向に輝度変化を有する形
状をしている。これは領域1. 2. 3が垂直方向の
輝度変化に基づいて焦点検出を行う構成をとっているか
らであり、領域1.2.3では、被写体のパターンが乏
しくても照明のパターンによって焦点検出が可能となる
。従って、こういうパターンでは領域RGN4はもとも
との被写体に水平方向の輝度変化がない限り、補助光を
照明したとしても焦点検出可能とはならない。
Each pattern has a similar shape with luminance variation in the vertical direction. This is area 1. 2. This is because area 1.2.3 has a configuration in which focus detection is performed based on luminance changes in the vertical direction, and in area 1.2.3, focus detection is possible based on the illumination pattern even if the pattern of the subject is poor. Therefore, in this pattern, unless there is a change in the brightness of the original subject in the horizontal direction, focus detection will not be possible in the area RGN4 even if the area is illuminated with auxiliary light.

以上のようにして、マイコンPR3は各センサ列対上に
形成された被写体像の像情報を受とって、その後所定の
焦点検出演算を行い、撮影レンズのデフォーカス量を知
ることが出来る。
As described above, the microcomputer PR3 receives the image information of the subject image formed on each pair of sensor rows, and then performs a predetermined focus detection calculation, thereby being able to determine the amount of defocus of the photographing lens.

第6図(a)はごく大まかなカメラ全体のシーケンスの
フローチャートである。
FIG. 6(a) is a very rough flowchart of the entire sequence of the camera.

第2図に示した回路に給電が開始されると、マイコンP
R3は第6図(a)のステップ(101)から実行を開
始してゆく。ステップ(102)において、レリーズボ
タンの第1段階押下によりオンするスイッチSWIの状
態検知を行い、オフならばステップ(103)へ移行し
、変数やフラグの類を初期化する。スイッチSW1がオ
ンであればステップ(104)へ移行し、カメラの動作
を開始する。
When power supply starts to the circuit shown in Fig. 2, the microcomputer P
R3 starts execution from step (101) in FIG. 6(a). In step (102), the state of the switch SWI, which is turned on by pressing the release button in the first stage, is detected, and if it is off, the process moves to step (103), where variables and flags are initialized. If the switch SW1 is on, the process moves to step (104) and the camera starts operating.

ステップ(104)では測光や各種スイッチ類の状態検
知、表示等のrAE制御」サブルーチンを実行する。A
E制御は本発明と直接間りがないので詳しい説明は省略
する。サブルーチンrAE制御」が終了すると、次いで
ステップ(105)へ移行する。
In step (104), a ``rAE control'' subroutine for photometry, state detection of various switches, display, etc. is executed. A
Since the E control is not directly related to the present invention, a detailed explanation will be omitted. When the "subroutine rAE control" is completed, the process then moves to step (105).

ステップ(105)でrAF制御」サブルーチンを実行
する。ここではセンサの蓄積、焦点検出演算、レンズ駆
動の自動焦点調節動作を行う。サブルーチンrAF制御
」が終了すると再びステップ(102)へ戻り、電源が
オフするまでステップ(104)、  (105)を繰
返し実行してゆく。
In step (105), the "rAF control" subroutine is executed. Here, sensor accumulation, focus detection calculations, and automatic focus adjustment operations for driving the lens are performed. When the "subroutine rAF control" is completed, the process returns to step (102) and steps (104) and (105) are repeatedly executed until the power is turned off.

なお、本実施例のフローチャートでは、レリーズ動作に
ついて記述していないが、レリーズ動作は本発明と直接
間わりがないのであえて省略している。
Note that the flowchart of this embodiment does not describe the release operation, but since the release operation is not directly related to the present invention, it is intentionally omitted.

第1図は前記ステップ(105)において実行されるサ
ブルーチンrAF制御」のフローチャートである。
FIG. 1 is a flowchart of the "subroutine rAF control" executed in step (105).

サブルーチンrAF制御」がコールされると、ステップ
(001)を経て、ステップ(002)以降のAF制御
を実行してゆく。
When "subroutine rAF control" is called, the process goes through step (001) and executes AF control from step (002) onwards.

ステップ(002)では現在補助光を投光して焦点検出
を133モード(以降“補助光モード”と称する)か否
かを判定し、そうであるならばステップ(003)へ移
行する。
In step (002), it is determined whether the current auxiliary light is emitted and focus detection is in the 133 mode (hereinafter referred to as "auxiliary light mode"), and if so, the process moves to step (003).

ステップ(003)では補助光の投光回数を調べ、既に
2回投光している場合には、分岐してステップ(005
)へ移行する。即ち、本実施例では補助光は2回までし
か投光しないように設定している。
In step (003), the number of times the auxiliary light is emitted is checked, and if the auxiliary light has already been emitted twice, the process is branched off to step (005).
). That is, in this embodiment, the auxiliary light is set to be emitted only twice.

ステップ(003)において、投光回数が2回未満であ
るならばステップ(004)にて補助光を点灯し、ステ
ップ(005)へ移行する。補助光の点灯方法は前述し
たように、マイコンPR5が出力端子CAUXLを“H
”とすることで実行される。
In step (003), if the number of times of light projection is less than two, the auxiliary light is turned on in step (004), and the process moves to step (005). As mentioned above, the method of lighting the auxiliary light is that the microcomputer PR5 sets the output terminal CAUXL to “H”.
” is executed.

続くステップ(005)でサブルーチン「蓄積開始」を
実行する。同サブルーチンはセンサの蓄積動作を開始さ
せるルーチンである。
In the following step (005), a subroutine "accumulation start" is executed. This subroutine is a routine that starts the accumulation operation of the sensor.

次のステップ(006)でサブルーチン「像信号の入力
と焦点検出演算」を実行する。同サブルーチンは、本実
施例の4つのセンサの蓄積状態をモニタし、蓄積終了し
たセンサから順次像信号を入力し、入力した像信号に基
づいて、そのセンサが担当している被写体領域のデフォ
ーカス量を検出するサブルーチンである。
In the next step (006), a subroutine "image signal input and focus detection calculation" is executed. This subroutine monitors the accumulation status of the four sensors of this embodiment, sequentially inputs image signals from the sensor that has completed accumulation, and defocuses the subject area covered by that sensor based on the input image signals. This is a subroutine that detects the amount.

サブルーチン「蓄積開始」や「像信号入力と焦点検出演
算」の具体的演算については、本出願人による特開昭6
3−216905号公報、特願昭61−160824号
公報、あるいは特願平1−291130号公報等で開示
されているので、本発明の詳細な説明は省略する。
Regarding the specific calculations of the subroutines ``Start accumulation'' and ``Image signal input and focus detection calculations,''
Since this invention is disclosed in Japanese Patent Application No. 3-216905, Japanese Patent Application No. 61-160824, Japanese Patent Application No. 1-291130, etc., a detailed explanation of the present invention will be omitted.

なお、上記処理によって、実施例の4つの被写体領域毎
にそれぞれデフォーカス量が得られ、また像信号のコン
トラスト等から公知の方法によって、それぞれ焦点検出
可能・不能等の判定も行なわれるものとする。
It should be noted that through the above processing, the defocus amount is obtained for each of the four subject areas of the example, and it is also assumed that it is determined whether the focus is detectable or not, etc., using a known method based on the contrast of the image signal, etc. .

ステップ(006)のサブルーチンが終了するとステッ
プ(007)へ移行する。
When the subroutine of step (006) ends, the process moves to step (007).

ステップ(007)では、補助光点灯中が否かを調べ、
点灯中の場合にはステップ(021)へ移行し、そうで
ない場合にはステップ(OOS)へ移行する。
In step (007), it is checked whether the auxiliary light is on or not;
If the light is on, the process moves to step (021); otherwise, the process moves to step (OOS).

補助光が点灯していない場合を先に説明する。First, a case where the auxiliary light is not turned on will be explained.

ステップ(OOS)では領域選択モードを判定する。領
域選択モードは、本実施例の4つの被写体領域から自動
的に1つの領域を選択するモード(“自動モード”と称
する)と、撮影者が任意に領域を設定するモード(“任
意モード”と称する)があり、このモード設定は、第2
図のマイコンPR3がスイッチ検知回路DDRを介して
、スイッチ群SWSの状態を認識することによって行な
われる。即ち、SWS内の特定のスイッチがONのとき
には“自動モード”、OFFのときには“任意モード”
というように決めることが出来る。
In step (OOS), the area selection mode is determined. The area selection mode includes a mode in which one area is automatically selected from the four subject areas in this embodiment (referred to as "auto mode"), and a mode in which the photographer arbitrarily sets an area (referred to as "arbitrary mode"). ), and this mode setting is
This is done by the microcomputer PR3 shown in the figure recognizing the state of the switch group SWS via the switch detection circuit DDR. In other words, when a specific switch in the SWS is ON, it is in "automatic mode", and when it is OFF, it is in "arbitrary mode".
It can be determined as follows.

“任意モード”の場合には、モード設定の方法と同じよ
うにスイッチ群SWS内の特定のスイッチのON、OF
F状態でどの被写体領域を任意に選択するかをあらかじ
め決めておいて、スイッチ検知回路DDRを介して状態
を検知し、選択する領域を設定する。
In the case of "arbitrary mode", the ON/OFF setting of a specific switch in the switch group SWS is done in the same way as the mode setting method.
It is determined in advance which subject area to arbitrarily select in the F state, and the state is detected via the switch detection circuit DDR to set the area to be selected.

さて、ステップ(008)において、被写体領域の選択
モードが“自動モード”に設定されている場合は、ステ
ップ(009)へ移行する。
Now, in step (008), if the selection mode of the subject area is set to "automatic mode", the process moves to step (009).

ステップ(009)では領域lと領域4が共に焦点検出
不能であるか否かを判定し、そうであるならばステップ
(010)へ移行する。領域1.4はそれぞれ第4図(
a)の被写体領域RGNI、4に対応しており、画面中
央の領域である。従って、ステップ(010)へ移行す
るのは画面中央の被写体領域が焦点検出不能となった場
合である。
In step (009), it is determined whether focus cannot be detected in both area 1 and area 4, and if so, the process moves to step (010). Regions 1.4 are shown in Figure 4 (
This corresponds to the subject area RGNI,4 in a), and is the area at the center of the screen. Therefore, the process moves to step (010) when the focus cannot be detected on the subject area at the center of the screen.

ステップ(010)では補助光の投光回数を調べ、既に
2回投光していれば、ステップ(022)へ分岐する。
In step (010), the number of times the auxiliary light is projected is checked, and if the auxiliary light has already been projected twice, the process branches to step (022).

2回未満の場合はステップ(011)へ移行し、被写体
領域1のセンサ5NS−1の蓄積時間を調べ、10m秒
以下の場合にはステップ(022)へ分岐する。
If the number of times is less than 2, the process moves to step (011), and the accumulation time of the sensor 5NS-1 in the subject area 1 is checked, and if it is 10 msec or less, the process branches to step (022).

蓄積時間が10m秒より長い場合は、ステップ(012
)へ移行して、今度は領域1のセンサ5NS−1の蓄積
時間が100m秒より長いか否かを判定する。
If the accumulation time is longer than 10ms, step (012
), and it is then determined whether the accumulation time of the sensor 5NS-1 in region 1 is longer than 100 msec.

100m秒より長い場合にはステップ(014)へ分岐
して、補助光モードの設定を行ない、このままステップ
(015)にてrAF制御」サブルーチンをリターンす
る。センサ5NS−1の蓄積時間が10m秒から100
m秒の間にある場合に、ステップ(013)へ移行し、
被写体領域lの像信号の最低値を調べ、これが所定のし
きい値8thより小さいか否かを判定する。小さい場合
にはステップ(022)へ分岐し、そうでない場合には
、蓄積時間が100m秒より長い場合と同じようにステ
ップ(014)へ移行して補助光モードの設定を行なう
If it is longer than 100 msec, the process branches to step (014) to set the auxiliary light mode, and then returns to the "rAF control" subroutine in step (015). The accumulation time of sensor 5NS-1 is from 10ms to 100msec.
If it is within m seconds, move to step (013),
The lowest value of the image signal in the subject area 1 is checked, and it is determined whether this value is smaller than a predetermined threshold value 8th. If it is smaller, the process branches to step (022), and if not, the process moves to step (014) to set the auxiliary light mode in the same way as when the accumulation time is longer than 100 msec.

被写体領域の選択モードが“任意モード”の場合にはス
テップ(OOS)において、ステップ(016)へ移行
する。
If the selection mode of the subject area is "arbitrary mode", in step (OOS), the process moves to step (016).

ステップ(016)ではあらかじめ設定されている被写
体の選択領域が焦点検出可能であるか否かを判定し検出
不能の場合にはステップ(017)へ移行する。
In step (016), it is determined whether or not focus detection is possible in the preset selected area of the subject, and if detection is not possible, the process moves to step (017).

“任意モード”時に実行するステップ(017)〜(0
20)は、“自動モード”時に実行するステップ(01
0)〜(013)と処理内容は同一であり、“自動モー
ド”では処理対象を被写体領域lとしていることに対し
て、“任意モード”では対象を選択領域としていること
が異なる。
Steps (017) to (0
20) is the step (01) executed in “automatic mode”.
The processing content is the same as in 0) to (013), except that in the "automatic mode", the object to be processed is the object region l, whereas in the "arbitrary mode", the object is the selected region.

ステップ(OOS)〜(020)をまとめると、領域選
択モードが“自動モード“の場合には画面中央の被写体
領域である領域1を“任意モード“における選択領域と
同じように考え、その領域の焦点検出結果や蓄積時間、
像信号の状態から補助光を使用するか否かを決定してい
る。
To summarize steps (OOS) to (020), when the area selection mode is "auto mode", consider area 1, which is the subject area in the center of the screen, in the same way as the selection area in "arbitrary mode", and Focus detection results and accumulation time,
Whether or not to use auxiliary light is determined based on the state of the image signal.

ステップ(013)、  (020)での判定の意味を
第5図(a) (b)を用いて説明する。
The meaning of the determinations in steps (013) and (020) will be explained using FIGS. 5(a) and 5(b).

第5図(a)は輝度変化が乏しい被写体の焦点検出を行
った場合の像信号であり、この像信号の最低値Bは所定
のしきい値Bthを上回わっている。
FIG. 5(a) shows an image signal when focus detection is performed on a subject with little brightness change, and the lowest value B of this image signal exceeds a predetermined threshold value Bth.

第5図(b)は、例えば白黒のエツジ形状の被写体を大
デフォーカス状態で焦点検出を行った場合の像信号の例
である。この場合の最低値Bはしきい値Bthよりかな
り小さい。この例の像信号のように相当の輝度変化を有
しながら、焦点検出結果が検出不能となるのは、大デフ
ォーカス状態によるものと考えて多くの場合間違いがな
い。従って図中のようにしきい値Bthを設定し、最低
値Bがこれによっても小さい場合には補助光を使用しな
いようにすることによって、無駄な補助光投光を防止す
ることが出来る。
FIG. 5(b) is an example of an image signal when focus detection is performed on, for example, a black and white edge-shaped object in a large defocus state. The lowest value B in this case is considerably smaller than the threshold value Bth. In most cases, it is correct to assume that the reason why the focus detection result becomes undetectable even though the image signal in this example has a considerable luminance change is due to a large defocus state. Therefore, by setting the threshold value Bth as shown in the figure and not using the auxiliary light when the lowest value B is even smaller than this, it is possible to prevent unnecessary projection of the auxiliary light.

再び第1図に戻って、結局本実施例では、注目する被写
体領域の蓄積時間が10m秒以下では焦点検出不能であ
っても、補助光を使用せず、10m秒から100m秒の
間では、像信号の最低値が所定値より大きい場合のみ補
助光を使用し、さらに100m秒より長い場合には常に
補助光を使用するというシーケンスを採用している。
Returning to FIG. 1 again, in this embodiment, even if focus cannot be detected when the accumulation time of the subject area of interest is 10 msec or less, the auxiliary light is not used and the focus is detected between 10 msec and 100 msec. A sequence is adopted in which the auxiliary light is used only when the minimum value of the image signal is greater than a predetermined value, and the auxiliary light is always used when the minimum value of the image signal is longer than 100 msec.

ステップ(014)にて補助光を使用することが決まっ
た場合には、ここまでの焦点検出結果は一切使用するこ
となく、ステップ(015)にてサブルーチンrAF制
御」をリターンする。従って、次回のrAF制御」サブ
ルーチンがコールされた際には最初から補助光を投光し
て焦点検出を行うことになる。
If it is determined in step (014) that the auxiliary light is to be used, the focus detection results up to this point are not used at all, and the subroutine "rAF control" is returned in step (015). Therefore, when the "next rAF control" subroutine is called, the auxiliary light is emitted from the beginning to perform focus detection.

さて、ステップ(007)において補助光点灯中の場合
には、ステップ(OOS)〜(020)を実行すること
なく、ステップ(021)にて補助光を消灯して次のス
テップ(022)へ移行する。
Now, if the auxiliary light is on in step (007), the auxiliary light is turned off in step (021) without executing steps (OOS) to (020), and the process moves to the next step (022). do.

補助光使用の焦点検出では既に補助光モードとなってい
る。よってステップ(OOS)〜(020)の補助光使
用判定の処理を行う必要はなく、また補助光使用状態で
蓄積時間を判定しても何の意味も持たない。
Focus detection using an auxiliary light is already in auxiliary light mode. Therefore, there is no need to perform the process of determining the use of the auxiliary light in steps (OOS) to (020), and there is no meaning in determining the accumulation time based on the state in which the auxiliary light is used.

ステップ(022)では被写体領域の選択を行うサブル
ーチン「領域の選択」を実行する。
In step (022), a subroutine "area selection" for selecting a subject area is executed.

同サブルーチンのフローチャートを第6図(b)に示し
た。
A flowchart of the subroutine is shown in FIG. 6(b).

同サブルーチンがコールされるとステップ(201)を
経て、ステップ(202)以降の処理を実行してゆく。
When the subroutine is called, the process goes through step (201) and then executes the processing from step (202) onwards.

ステップ(202)において被写体領域の選択モードが
“任意モード”であるならばステップ(212)へ分岐
し、あらかじめ選択された領域のデフォーカス量を最終
デフォーカス量としてステップ(213)でサブルーチ
ン「領域の選択」をリターンする。
If the selection mode of the subject area is "arbitrary mode" in step (202), the process branches to step (212), and the subroutine "Area Return "selection".

領域選択モードが“自動モード”の場合、ステップ(2
03)へ移行し、被写体領域1が焦点検出可能か否かを
判定し、可能の場合にはステップ(205)へ分岐する
If the area selection mode is “auto mode”, step (2)
03), it is determined whether or not the focus of the subject area 1 can be detected, and if it is possible, the process branches to step (205).

ステップ(205)では補助光を使用した焦点検出であ
ったか否かを判定し、そうであるならばステップ(20
9)へ分岐し、被写体領域1.2.3を選択の候補領域
として設定する。即ち、領域1゜2.3はそれぞれ第4
図(a)で示したRGN 1 。
In step (205), it is determined whether focus detection was performed using an auxiliary light, and if so, step (205) is performed.
The process branches to 9) and sets the subject area 1.2.3 as a candidate area for selection. That is, the areas 1, 2, and 3 are respectively the fourth
RGN 1 shown in figure (a).

RGN2.RGN3に対応しており、先に説明したよう
に補助光の照射パターンがRGNI、RGN2゜RGN
3に適するように垂直方向の輝度変化があるものである
から、画面中央の領域の一つである領域lが焦点検出可
能ならば、領域4の検出結果の如何によらず領域1. 
2. 3の内から1つの領域を選択するようにしている
。被写体領域4は補助光使用により焦点検出結果が改善
されることがあまり期待できず、仮に領域4が検出可能
であるとして、これを選択の候補としてしまうと、領域
4にとって苦手な照明パターンによる検出結果を採用し
てしまうことがあり、この場合検出誤差の大きいデフォ
ーカス量を最終的なデフォーカス量としまうことが考え
られる。これを考慮し、本実施例では、補助光使用時に
は同じ画面中央の領域であっても領域4よりも領域1を
優先させるような構成をとっている。
RGN2. It is compatible with RGN3, and as explained earlier, the auxiliary light irradiation pattern is RGNI, RGN2゜RGN.
Since there is a brightness change in the vertical direction suitable for area 3, if area l, which is one of the areas at the center of the screen, can be focused, area 1.
2. One area is selected from among the three areas. For subject area 4, it is not expected that focus detection results will be improved much by using fill light, and if area 4 were to be detected and selected as a candidate, detection would be due to the illumination pattern that area 4 is not good at. The result may be adopted, and in this case, it is conceivable that the defocus amount with a large detection error is set as the final defocus amount. Taking this into consideration, this embodiment is configured to give priority to area 1 over area 4 even in the same central area of the screen when using the auxiliary light.

補助光を使用していない焦点検出では領域lと領域4に
優劣はないので、ステップ(206)で被写体領域4が
焦点検出可能であるか否かを判定する。
In focus detection without using auxiliary light, there is no difference between area 1 and area 4, so in step (206) it is determined whether focus detection is possible for subject area 4.

被写体領域4が焦点検出可能であれば、ステップ(21
0)に移行し総ての被写体領域を選択と候補として設定
する。
If the subject area 4 is focus detectable, step (21
0), and all subject areas are selected and set as candidates.

ステップ(206)において領域4が、焦点検出不能で
あれば、ステップ(209)へ移行し、当然のことなが
ら領域1. 2. 3を選択の候補とする。
If the focus cannot be detected in area 4 in step (206), the process moves to step (209), and as a matter of course, area 1. 2. 3 is selected as a candidate.

ステップ(203)において、被写体領域1が焦点検出
可能でなければステップ(204)へ移行し、ステップ
(206)と同様に領域4の検出結果の判定を行う。そ
して、この判定に従ってステップ(207)、(208
)へ移行し、それぞれ選択の候補を設定する。
In step (203), if focus detection is not possible for subject area 1, the process moves to step (204), and the detection result for area 4 is determined in the same manner as in step (206). Then, according to this determination, steps (207) and (208
) and set the selection candidates for each.

ステップ(207)〜(210)で選択候補の設定が行
われると、次のステップ(211)に移行し、選択候補
の領域の内、焦点検出可能で最も後ピンのデフォーカス
量を呈している被写体領域を選択する。最も後ピンのデ
フォーカス量を呈するということは、その領域が観察し
ている被写体がカメラに対して最も近い距離に存在して
いることを意味する。従って本実施例では複゛数の被写
体のうち最もカメラに近い被写体を選択することになる
Once the selection candidates are set in steps (207) to (210), the process moves to the next step (211), where the selection candidate area is selected to be focus detectable and exhibiting the defocus amount of the most rear focus. Select the subject area. The fact that the area exhibits the most rear defocus amount means that the subject being observed in that area exists at the closest distance to the camera. Therefore, in this embodiment, the object closest to the camera is selected from among the plurality of objects.

ステップ(211)での選択が終了するとステップ(2
12)へ移行し、選択された領域のデフォーカス量を最
終的なデフォーカス量として、次のステップ(213)
でサブルーチン「領域の選択」をリターンする。
When the selection in step (211) is completed, step (2
12), the defocus amount of the selected area is set as the final defocus amount, and the next step (213) is performed.
Returns the subroutine "area selection".

同サブルーチンの実行が終了すると、第1図に戻って、
次のステップ(023)へ移行する。
When the execution of the subroutine is finished, return to Figure 1 and
The process moves to the next step (023).

ステップ(023)では最終的な焦点検出結果が不能で
あるか否かを判定し、そうであるならばステップ(03
2)へ分岐する。
In step (023), it is determined whether the final focus detection result is impossible, and if so, step (03)
Branch to 2).

ステップ(032)では今回の焦点検出が補助光使用下
での焦点検出であったか否かを判定し、そうであるなら
ばステップ(030)へ分岐して、rAF制御」サブル
ーチンをリターンする。補助光を使用していない場合は
、ステップ(027)へ移行する。ステップ(027)
以降の処理は、後述のサーチレンズ駆動に関するもので
あり、本実施例では補助光使用時にはサーチレンズ駆動
を一切実行させないようにするためにステップ(032
)の分岐判定を設けている。
In step (032), it is determined whether the current focus detection was focus detection using an auxiliary light, and if so, the process branches to step (030) and returns to the "rAF control" subroutine. If the auxiliary light is not used, the process moves to step (027). Step (027)
The subsequent processing is related to search lens driving, which will be described later, and in this embodiment, step (032
) branch judgment is provided.

ステップ(027)においては、既に1回サーチレンズ
駆動が完了したかどうかを判定し、既に完了していれば
ステップ(030)へ分岐してサブルーチンrAF制御
」をリターンする。いまだ完了していない場合は、ステ
ップ(028)へ移行して、サブルーチン「サーチレン
ズ駆動」を実行する。
In step (027), it is determined whether one search lens drive has already been completed, and if it has already been completed, the process branches to step (030) and returns to the subroutine rAF control. If the process has not been completed yet, the process moves to step (028) and the subroutine "search lens drive" is executed.

同サブルーチンは、焦点検出不能時に、レンズを至近側
、あるいは無限側へ駆動しながら、くり返し焦点検出を
行う動作で、詳しくは特願昭61160824号公報等
に開示されているので、本発明での説明は省略する。
This subroutine is an operation that repeatedly performs focus detection while driving the lens to the close-up side or to the infinity side when focus cannot be detected. Explanation will be omitted.

サブルーチン「サーチ・レンズ駆動」が終了すると、ス
テップ(029)へ移行し、補助光モードの解除と、補
助光投光回数の初期化を行う。これはサーチ・レンズ駆
動動作終了時にもう一回補助光使用による焦点検出の機
会を与えるためである。即ち、焦点検出不能となると先
ず補助光を使用するか否かを判定し、使用する場合は2
回まで投光して焦点検出を行い、それでも焦点検出不能
の場合にはサーチ・レンズ駆動を行うわけであるが、最
初に補助光を投光したときと、サーチ・レンズ駆動が終
了したときでは撮影レンズの距離環位置は異なっている
のが一般的であるから、サーチ・レンズ駆動終了後の距
離環位置(導通は無限端位置)でもう−度補助光を使用
すれば焦点検出可能とすることも期待出来るので、前記
したような動作を行わせている。
When the subroutine "search lens drive" is completed, the process moves to step (029), where the auxiliary light mode is canceled and the number of times the auxiliary light is projected is initialized. This is to provide another opportunity for focus detection using the auxiliary light at the end of the search lens driving operation. In other words, when the focus cannot be detected, first it is determined whether or not to use the auxiliary light, and if it is, the second
Focus detection is performed by emitting light up to 30 times, and if focus still cannot be detected, search lens drive is performed. Since the distance ring positions of the photographing lenses are generally different, it is possible to detect the focus by using the -degree auxiliary light at the distance ring position (continuity is at the infinite end position) after the search lens is driven. Since this can be expected, the above-mentioned operation is performed.

ステップ(029)が終了すると、ステップ(030)
へ移行して、サブルーチンrAF制御」をリターンする
When step (029) is completed, step (030)
Then, the subroutine "rAF control" is returned.

さて、ステップ(023)において、焦点検出が可能で
あった場合はステップ(024)へ移行し、最終的なデ
フォーカス量が合焦と見なせる範囲内にあるかどうかを
判定し、合焦状態にあるならばステップ(031)へ分
岐し、サブルーチン「合焦表示」を実行し、ファインダ
内に合焦表示を行う、合焦状態になければステップ(0
25)へ移行してサブルーチン「レンズ駆動」を実行し
、デフォーカス量に基づいて撮影レンズの駆動を行う。
Now, in step (023), if focus detection is possible, the process moves to step (024), where it is determined whether the final defocus amount is within a range that can be considered to be in focus, and the in-focus state is determined. If there is, the process branches to step (031), executes the subroutine "in-focus display", and displays the focus in the viewfinder; if it is not in focus, it branches to step (031).
25), the subroutine "lens drive" is executed, and the photographing lens is driven based on the amount of defocus.

同サブルーチンは本出願人による特願昭61−1608
24号公報等に開示されているので詳細な説明は省略す
る。
The same subroutine was filed in Japanese Patent Application No. 61-1608 by the present applicant.
Since it is disclosed in Publication No. 24, etc., detailed explanation will be omitted.

ステップ(025)のサブルーチン「レンズ駆動」ある
いはステップ(031)のサブルーチン「合焦表示」が
終了すると、ステップ(026)へ移行して、rAF制
御」サブルーチンをリターンする。
When the subroutine "lens drive" in step (025) or the subroutine "focus display" in step (031) is completed, the process moves to step (026) and returns to the "rAF control" subroutine.

同サブルーチン終了後は、第6図(a)に示したフロー
チャートのように、スイッチSW7がONしている限り
、「AE制御J rAF制御」を交互に実行してゆく。
After the subroutine ends, as shown in the flowchart shown in FIG. 6(a), as long as the switch SW7 is ON, "AE control J rAF control" is executed alternately.

以上のフローにおける各動作をまとめると以下の如く作
動する。
The operations in the above flow are summarized as follows.

焦点検出可能な場合、この場合はステップ(002)。If the focus can be detected, in this case step (002).

(005)、(006)、  (007)、’(008
)、(009)または(016)を介して(022)に
進む。よって(022)において任意モードの時には選
択された領域のデフォーカス量が自動モードの時には各
領域のうち、最も後ビンの領域のデフォーカス量が選ば
れステップ(024)、  (025)、  (031
)にて合焦の時には合焦表示がなされ、非合焦の時には
上記デフォーカス量のレンズ駆動がなされピント合わせ
が実行される。
(005), (006), (007),'(008
), (009) or (016) to proceed to (022). Therefore, in (022), when the arbitrary mode is selected, the defocus amount of the selected area is selected, and when the automatic mode is selected, the defocus amount of the area of the rearmost bin among each area is selected, and steps (024), (025), (031)
), when the lens is in focus, an in-focus display is made, and when the lens is out of focus, the lens is driven to the above-mentioned defocus amount to perform focusing.

上記動作中におけるステップ(009)または(016
)にて領域1,4のセンサーがともに焦点検出不能と判
定または選択領域のセンサーが焦点検出不能と判定され
た場合はステップ(019)〜(014)または(01
7)〜(020)が実行される。よって自動モードの時
には領域1のセンサーの蓄積時間が長時間(100ms
以上)の時または蓄積時間が適正時間(10msx10
0ms)であって像信号の最低値が所定レベル以上の時
に補助光モードに移行する。
Step (009) or (016) during the above operation
), if it is determined that both the sensors in areas 1 and 4 are unable to detect focus, or if it is determined that the sensor in the selected area is unable to detect focus, steps (019) to (014) or (01) are performed.
7) to (020) are executed. Therefore, in automatic mode, the storage time of the sensor in area 1 is long (100ms).
or more) or the accumulation time is the appropriate time (10ms x 10
0 ms) and the lowest value of the image signal is equal to or higher than a predetermined level, the mode shifts to the auxiliary light mode.

従って、デフォーカス状態の時には補助光投光が禁止さ
れる。一方、任意モードの時には選択した領域のセンサ
ーの出力を自動モードと同一の判定条件に従って判定し
補助光を投光するか否か決定される。
Therefore, in the defocus state, auxiliary light projection is prohibited. On the other hand, in the arbitrary mode, the output of the sensor in the selected area is determined according to the same determination conditions as in the automatic mode, and it is determined whether or not to emit the auxiliary light.

補助光モードに設定された場合は再度ステップ(002
)に戻り、(003)、  (004)、  (005
)、  (007)。
If the auxiliary light mode is set, repeat step (002).
), return to (003), (004), (005
), (007).

(021)が実行され補助光投光下での焦点検出動作が
行われる。この後(022)にて任意モードの時には選
択された領域でのデフォーカス量が求められ、自動モー
ドの時には前述の自動選択で所定領域でのデフォーカス
量が求められる。その後(023)にて上記選択された
領域のセンサー出力が焦点検出可能の時には該デフォー
カス量に基づくピント合わせが行われる。
(021) is executed and a focus detection operation is performed under the projection of the auxiliary light. After this (022), in the arbitrary mode, the amount of defocus in the selected area is determined, and in the automatic mode, the amount of defocus in the predetermined area is determined by the above-mentioned automatic selection. After that (023), when the sensor output of the selected area allows focus detection, focusing is performed based on the defocus amount.

一方、補助光を投光しても焦点検出不能と判定された時
にはステップ(032)にて今回の焦点検出の補助光投
光下が行われたと判定されリターする。
On the other hand, when it is determined that focus detection is not possible even if the auxiliary light is projected, it is determined in step (032) that the auxiliary light has been projected for the current focus detection, and the process returns.

その後再度補助光投光下での焦点検出動作が行われ、そ
の結果でも焦点検出不能の時にも同様にしてリターンし
、再度の焦点検出動作へ実行する。この際補助光はすで
に2回投光されているのでステップ(004)を実行す
ることなく、即ち、補助光非投光下での焦点検出が行わ
れステップ(008)、  (009)または(008
)、  (009)、  (010)または(008)
、  (016)または(008)、  (016)。
Thereafter, the focus detection operation is performed again under the projection of the auxiliary light, and even if the result is that the focus cannot be detected, the process similarly returns and executes the focus detection operation again. At this time, since the auxiliary light has already been emitted twice, step (004) is not executed, that is, focus detection is performed without the auxiliary light being emitted, and step (008), (009) or (008) is performed.
), (009), (010) or (008)
, (016) or (008), (016).

(017)を介して(022)、  (023)に進む
。この場合においても焦点検出不能であれば(032)
を介して(027)、(028)へ進みサーチ・レンズ
駆動が行われる。サーチ・レンズ駆動ルーチンではレン
ズを駆動しながら焦点検出動作を行わせ、その結果焦点
検出不能と判定されると該サブルーチンから直接ステッ
プ(001)のAF制御サブルーチンにリターンし、前
述の焦点検出動作を再開する。一方サーチ・レンズ駆動
動作にてレンズが例えば全駆動範囲(至近から無限端)
移動しても焦点検出可能状態とならない時にはレンズを
所定位置(至近または無限)に保持しステップ(029
)に進み補助光モードを解除し投光回数を初期化した後
リターンする。この様にしてサーチ動作後にリターンし
て焦点検出動作が再開されると前述の補助光非投光で焦
点検出が行われ、その結果適正なデフォーカス量が検知
されればそのデフォーカス量に応じたピント合わせが行
われる。一方、この非投光下での焦点検出でも焦点検出
不能の時には前述の如くして補助光を投光して焦点検出
を行い、それでもまた焦点検出不能であれば再度補助光
を投光して焦点検出を行う。この様にしてサーチ動作終
了後2回補助光を投下して焦点検出を行っても焦点検出
不能であれば、以後補助光非投光状態での焦点検出が行
われることとなる。
Proceed to (022) and (023) via (017). Even in this case, if focus cannot be detected (032)
The process proceeds to (027) and (028) via (027) and (028), where search lens driving is performed. In the search lens drive routine, the focus detection operation is performed while driving the lens, and if it is determined that the focus cannot be detected as a result, the subroutine directly returns to the AF control subroutine of step (001), and the focus detection operation described above is performed. resume. On the other hand, during search lens drive operation, the lens is moved over the entire drive range (from close range to infinity).
If the focus cannot be detected even if the lens is moved, hold the lens at a predetermined position (close or infinity) and proceed to step (029).
), cancel the auxiliary light mode, initialize the number of flashes, and then return. In this way, when the return is made after the search operation and the focus detection operation is restarted, the focus detection is performed without emitting the auxiliary light described above, and if an appropriate amount of defocus is detected as a result, then the The focus will be adjusted accordingly. On the other hand, if the focus cannot be detected even when the focus is not illuminated, the auxiliary light is emitted as described above and the focus is detected, and if the focus is still not detected, the auxiliary light is emitted again. Perform focus detection. If the focus cannot be detected even if focus detection is performed by emitting the auxiliary light twice after the end of the search operation, focus detection will be performed in the state in which the auxiliary light is not emitted.

以上説明してきた実施例では、図面中央に位置する被写
体領域が2つある場合であるが、1つの場合ではより単
純に本発明が有効であることは明らかである。
In the embodiments described above, there are two subject areas located in the center of the drawing, but it is clear that the present invention is more simply effective in the case of one subject area.

また上記実施例では、除外する被写体領域は1つであっ
たが、焦点検出系の構成如何によっては、対象とする領
域が複数となっても本発明の効果は明らかである。
Further, in the above embodiment, only one subject area is excluded, but depending on the configuration of the focus detection system, the effects of the present invention are obvious even if there are a plurality of subject areas.

また、補助光の方も複数あって、それぞれの照明パター
ンが異なる場合には、例えば、同時に照明することはな
いようにし、各補助光照明時にその照明パターンを苦手
とする被写体領域を除外してやるようにすれば良い。
Also, if there are multiple fill lights, each with a different lighting pattern, for example, avoid lighting them at the same time, and exclude subject areas that are not good at that lighting pattern when lighting each fill light. You should do it.

〔発明の効果〕〔Effect of the invention〕

以上説明したように、本発明によれば、画面内の複数の
被写体の内、画面中央の領域の焦点検出結果に基づいて
補助光を照明するか否かを判定するようにしたので、補
助光が必要なときに照明しなかったり、照明しても無駄
なときに照明したり、といった不都合を解消することが
可能となる。
As explained above, according to the present invention, it is determined whether or not to illuminate the auxiliary light based on the focus detection result of the area in the center of the screen among a plurality of subjects within the screen. This makes it possible to eliminate inconveniences such as not lighting when necessary, or lighting when there is no point in lighting.

また更に補助光使用時にはその照明パターンの検出が原
理的に困難である被写体領域を選択しないようにするこ
とによって、決まったピント合わせ動作を防止すること
が可能となる。
Furthermore, when using the auxiliary light, by not selecting a subject area whose illumination pattern is theoretically difficult to detect, it is possible to prevent a fixed focusing operation.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明に係る焦点検出装置の主要な動作を説明
するためのフローチャートを示す説明図、第2図は本発
明の実施例の装置がカメラに組み込まれたときの具体的
構成例を示す回路図、第3図は焦点検出系の詳細図、 第4図(a)、  (b)は実施例における補助光の照
明パターンの説明図、 第5図(a)、  (b)は本発明の詳細な説明図、第
6図(a)、  (b)は本発明の実施例の動作を説明
するためのフローチャートを示す説明図である。 SNS・・・センサ、 PH1・・・マイコン、 LNS・・・レンズ、 AUXL・・・補助光ユニッ ト 第4図(&) 男d図(b)
FIG. 1 is an explanatory diagram showing a flowchart for explaining the main operations of the focus detection device according to the present invention, and FIG. 2 is an explanatory diagram showing a specific configuration example when the device according to the embodiment of the present invention is incorporated into a camera. 3 is a detailed diagram of the focus detection system, FIGS. 4(a) and (b) are explanatory diagrams of the illumination pattern of the auxiliary light in the example, and FIGS. 5(a) and (b) are the detailed diagrams of the focus detection system. Detailed explanatory diagrams of the invention, FIGS. 6(a) and 6(b) are explanatory diagrams showing flowcharts for explaining the operation of the embodiment of the present invention. SNS...Sensor, PH1...Microcomputer, LNS...Lens, AUXL...Auxiliary light unit Fig. 4 (&) Male d Fig. (b)

Claims (4)

【特許請求の範囲】[Claims] (1)撮影レンズの画面内の複数の被写体領域のデフオ
ーカス状態をくり返し検出するデフオーカス検出手段と
、前記複数の被写体領域を選択の候補として、少なくと
も1つの領域を選択する選択手段と、被写体を照明する
照明手段と、を備えた焦点検出装置において、前記選択
手段は、照明手段作動時に少なくとも1つの特定の被写
体領域を選択候補から除外して選択を行うことを特徴と
する焦点検出装置。
(1) Defocus detection means for repeatedly detecting the defocus state of a plurality of subject areas within the screen of a photographic lens; a selection means for selecting at least one of the plurality of subject areas as selection candidates; and illuminating the subject. A focus detection device comprising: an illumination means, wherein the selection means selects by excluding at least one specific subject area from selection candidates when the illumination means is activated.
(2)前記選択手段が、照明手段作動中に選択候補から
除外する被写体領域は、照明手段によって発生する照明
パターンを原理的に検出することが困難な領域であるこ
とを特徴とする特許請求の範囲第(1)項記載の焦点検
出装置。
(2) The subject area that the selection means excludes from selection candidates while the illumination means is in operation is an area in which it is difficult in principle to detect the illumination pattern generated by the illumination means. A focus detection device according to scope (1).
(3)撮影レンズの画面内の複数の被写体領域のデフオ
ーカス状態をくり返し検出するデフオーカス検出手段と
、前記デフオーカス検出手段の結果に基づいて、前記各
被写体領域毎の焦点検出可能・不能状態の判定を行う判
定手段と、被写体を照明する照明手段と、前記複数の被
写体領域の内、少なくとも、一つの特定の被写体領域に
対する前記判定手段の結果に基づいて、前記照明手段を
作動させる制御手段と、を備えたことを特徴とする焦点
検出装置。
(3) a defocus detection means for repeatedly detecting the defocus state of a plurality of subject areas within the screen of the photographic lens; and a determination of whether focus detection is possible or not possible for each subject area based on the results of the defocus detection means; illumination means for illuminating the subject; and control means for operating the illumination means based on the result of the determination means for at least one specific subject area among the plurality of subject areas. A focus detection device comprising:
(4)前記制御手段が対象とする前記特定の被写体領域
は、画面内の中央に位置する被写体領域であることを特
徴とする特許請求の範囲第(3)項記載の焦点検出装置
(4) The focus detection device according to claim (3), wherein the specific subject area targeted by the control means is a subject area located at the center of the screen.
JP1680290A 1990-01-25 1990-01-25 Focus detecting device Pending JPH03220535A (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP1680290A JPH03220535A (en) 1990-01-25 1990-01-25 Focus detecting device
DE1991626715 DE69126715T2 (en) 1990-01-25 1991-01-24 Focus detection device
EP91100901A EP0439167B1 (en) 1990-01-25 1991-01-24 Focus detection apparatus
DE1991631852 DE69131852T2 (en) 1990-01-25 1991-01-24 Focusing device
EP95102519A EP0653655B1 (en) 1990-01-25 1991-01-24 Focus adjusting apparatus
US08/009,394 US5293194A (en) 1990-01-25 1993-01-27 Focus detection apparatus having an auxiliary light

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1680290A JPH03220535A (en) 1990-01-25 1990-01-25 Focus detecting device

Publications (1)

Publication Number Publication Date
JPH03220535A true JPH03220535A (en) 1991-09-27

Family

ID=11926289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1680290A Pending JPH03220535A (en) 1990-01-25 1990-01-25 Focus detecting device

Country Status (1)

Country Link
JP (1) JPH03220535A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001337264A (en) * 2000-05-30 2001-12-07 Canon Inc Focus detection device
US6377753B1 (en) 1999-07-14 2002-04-23 Olympus Optical Co., Ltd. Multiple-point automatic focusing camera

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6377753B1 (en) 1999-07-14 2002-04-23 Olympus Optical Co., Ltd. Multiple-point automatic focusing camera
JP2001337264A (en) * 2000-05-30 2001-12-07 Canon Inc Focus detection device

Similar Documents

Publication Publication Date Title
US5091742A (en) Camera having an auto focusing device
US5485239A (en) Camera incorporating an auto-zoom function
US5293194A (en) Focus detection apparatus having an auxiliary light
US5311241A (en) Focus detecting apparatus detecting focus to a plurality of areas
JPH06175013A (en) Auto zoom camera
US5307112A (en) Focus detecting device for detecting focus to a plurality of different areas
JPH03220535A (en) Focus detecting device
US5614985A (en) Camera with device for detecting line of sight
JP3780051B2 (en) Camera autofocus device
US6118943A (en) Camera
EP0653655B1 (en) Focus adjusting apparatus
JPH03225332A (en) Camera provided with autofocusing device
JP2832054B2 (en) Focus detection device
JPH03220513A (en) automatic focus adjustment device
JPH06138378A (en) Camera having focus detecting means and line-of-sight detecting means
JPH0534572A (en) Focus detection device
JP2771004B2 (en) Camera with automatic focus detection device
JP4262034B2 (en) Optical device and camera
JPH03211537A (en) automatic focus adjustment device
JPH03225306A (en) Automatic focusing device
JPH07191260A (en) Focus detection system
JPH09197256A (en) Moving body predicting camera
JP2756333B2 (en) Automatic focusing device
JPH03212633A (en) Camera provided with focus detection device
JPH03212605A (en) Focus detector