[go: nahoru, domu]

JPH05215958A - Main object detecting device for camera - Google Patents

Main object detecting device for camera

Info

Publication number
JPH05215958A
JPH05215958A JP27139091A JP27139091A JPH05215958A JP H05215958 A JPH05215958 A JP H05215958A JP 27139091 A JP27139091 A JP 27139091A JP 27139091 A JP27139091 A JP 27139091A JP H05215958 A JPH05215958 A JP H05215958A
Authority
JP
Japan
Prior art keywords
subject
point
main subject
value
exposure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP27139091A
Other languages
Japanese (ja)
Other versions
JP3442409B2 (en
Inventor
Yoshiaki Matsuzawa
良紀 松澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP27139091A priority Critical patent/JP3442409B2/en
Publication of JPH05215958A publication Critical patent/JPH05215958A/en
Application granted granted Critical
Publication of JP3442409B2 publication Critical patent/JP3442409B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To accurately detect a main object by detecting a point for outputting an object at the shortest distance, out of respective points in the vicinity of the center of a picture and on a golden split line. CONSTITUTION:An object distance distribution detecting device 12 outputs out-of-focus information and object distance information corresponding to eighty- one areas obtained by dividing each of the length and breadth of the picture into nine equal parts. A main object detecting device 17 detects the point for outputting the object at the shortest distance, and decides whether the point is on the central part or the line for golden splitting the picture, in a photographic picture or not. When it is decided that the point is on the central part or the golden line, it is judged that the main object is on the point, and when it is decided that the point is not on the central part or the golden line, the detecting device 17 further, detects the point for outputting the object at the shortest distance, out of respective points in the vicinity of the center and on the golden split line in the picture and judges that the main object is on the point.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はカメラに関し、特に、撮
影画面内の主要被写体を自動的に検出し、その主要被写
体の位置に応じて、焦点調節や露出制御等を行なうカメ
ラに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera, and more particularly to a camera which automatically detects a main subject in a photographing screen and performs focus adjustment and exposure control according to the position of the main subject.

【0002】[0002]

【従来の技術】近年、カメラは電子回路技術の発展に伴
って、高機能化・多機能化が進んでいる。これらは電気
的にカメラの動作に関した情報が正確に検出・信号処理
が可能なってきたからでもある。
2. Description of the Related Art In recent years, cameras have become highly functional and multifunctional with the development of electronic circuit technology. This is also because information relating to the operation of the camera can be electrically detected and signal processed accurately.

【0003】例えば、カメラの露出の分野に於いては、
AEセンサーの高感度化により被写体を分割した測光が
可能になり、また、CPUを用いてより複雑なアルゴリ
ズムの実行が可能になり、被写体に対してより適正露出
を与える事が出来るようになって来た。これらは、セン
サー技術、IC技術、CPUの発達により達成されてい
る。
For example, in the field of camera exposure,
By increasing the sensitivity of the AE sensor, it is possible to perform photometry by dividing the subject, and it is also possible to execute a more complex algorithm using the CPU, so that more appropriate exposure can be given to the subject. I came. These have been achieved by the development of sensor technology, IC technology, and CPU.

【0004】また、AFの分野に於いても、AFの為の
センサー技術、CPUの発達により、高感度化、高速
化、広視野化が進み、被写体までの距離やピントのずれ
量に関して、正確に検出できるようになっている。
Also in the field of AF, with the development of sensor technology and CPU for AF, high sensitivity, high speed and wide field of view are advanced, and the distance to the object and the amount of focus deviation are accurate. It can be detected by.

【0005】[0005]

【発明が解決しようとする課題】ところで、広視野化に
伴い測光や測距の為のセンサをエリアセンサにしたもの
が考えられている。センサをエリアセンサにすることで
撮影画面内の複数の点で測光や測距ができるようにな
る。そして上記複数点のセンサ出力から主要被写体の位
置を検出して、その主要な被写体が合焦状態・適正露光
状態になるように各カメラ素子を制御している。
By the way, with the widening of the field of view, there has been considered an area sensor as a sensor for photometry and distance measurement. By using an area sensor as the sensor, it becomes possible to perform photometry and distance measurement at a plurality of points within the shooting screen. Then, the position of the main subject is detected from the sensor outputs of the plurality of points, and each camera element is controlled so that the main subject is brought into a focused state / appropriate exposure state.

【0006】しかし、上記全部の点からのセンサ出力に
基づいて主要被写体の位置を決定し、露出値の決定や焦
点調節を行うと以下のような問題を生ずる。すなわち、
通常は測距した結果が一番近距離の値を出力した点に主
要被写体があると判定しているが、普通では主要被写体
があり得ない点、例えば画面の隅に一番近距離の値を出
すものがあると、その点の出力に基づいて焦点調節や露
出値の決定を行ってしまう。その結果、主要被写体にピ
ントが合わなかったり、不適正な露出の写真になったり
してしまう。
However, if the position of the main subject is determined based on the sensor output from all the above points, and the exposure value is determined and the focus is adjusted, the following problems occur. That is,
Normally, it is determined that the main subject exists at the point where the distance measurement result outputs the closest distance value, but normally, there is no main subject, for example, the closest distance value to the corner of the screen. If there is one that does, the focus adjustment and the exposure value will be determined based on the output at that point. As a result, the main subject may be out of focus, or the photograph may have an improper exposure.

【0007】本発明のカメラの主要被写体検出装置はこ
のような課題に着目してなされたものであり、その目的
とするところは、撮影画面内の主要被写体に焦点を合わ
せかつ適性露光を与えるために、主要被写体を正確に検
出できるカメラの主要被写体検出装置を提供することに
ある。
The main subject detecting device for a camera of the present invention has been made in view of such a problem, and its purpose is to focus on the main subject in the photographing screen and to give proper exposure. Another object of the present invention is to provide a main subject detection device for a camera that can accurately detect a main subject.

【0008】[0008]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明のカメラの主要被写体検出装置は、撮影画
面内の複数の点における被写体の距離を出力する測距手
段と、この測距手段の出力から最至近距離の被写体を出
力する点を検出する第1の検出手段と、この最至近距離
の被写体を出力する点が、上記撮影画面内の中央部また
は画面を黄金分割するライン上であるか否かを判定する
判定手段と、この判定手段によって上記最至近距離を出
力する点が中央部または黄金ライン上にないと判定され
た場合に、上記画面内の中央付近かつ黄金分割ライン上
の各点の中で最至近距離出力をする点を検出する第2の
検出手段と、上記判定手段で上記第1の検出手段で検出
された点が中央部または黄金ライン上にあると判定され
た場合には、その点に主要被写体があると判断し、上記
第1の検出手段で検出された点が中央部または黄金分割
ライン上にないと判定された場合には、上記第2の検出
手段で検出された点に主要被写体があると判断する。
In order to achieve the above object, a main subject detecting device for a camera according to the present invention includes a distance measuring means for outputting the distances of the subject at a plurality of points in a photographing screen, and this distance measuring means. A first detection unit that detects a point at which the object at the shortest distance is output from the output of the distance unit and a point at which the object at the closest distance is output are a line that golden-divides the central portion of the photographing screen or the screen. If it is determined that the point for outputting the shortest distance is not in the central portion or on the golden line by the determining means for determining whether or not it is on the upper side and the golden division The second detection means for detecting the point that outputs the shortest distance among the points on the line and the point detected by the first detection means by the determination means are on the central portion or on the golden line. If judged, the If it is determined that there is a main subject in the image, and it is determined that the point detected by the first detecting means is not on the central portion or on the golden section line, the point detected by the second detecting means is detected. Judge that there is a main subject.

【0009】[0009]

【作用】すなわち、本発明においては、第1の検出手段
によって最至近距離の被写体を出力する点を検出し、こ
の最至近距離の被写体を出力する点が上記撮影画面内の
中央部または画面を黄金分割するライン上であるか否か
を判定する。中央部または黄金ライン上にないと判定さ
れた場合に、第2の検出手段によって上記画面内の中央
付近かつ黄金分割ライン上の各点の中で最至近距離出力
をする点をさらに検出する。そして、上記第1の検出手
段で検出された点が中央部または黄金ライン上にあると
判定された場合には、その点に主要被写体があると判断
し、上記第1の検出手段で検出された点が中央部または
黄金分割ライン上にないと判定された場合には、上記第
2の検出手段で検出された点に主要被写体があると判断
する。
That is, in the present invention, the first detecting means detects the point at which the object at the shortest distance is output, and the point at which the object at the closest distance is output is the central portion or the screen in the photographing screen. It is determined whether or not the line is on the golden section. When it is determined that the point is not on the central portion or on the golden line, the second detecting means further detects the point which outputs the closest distance among the points on the golden division line near the center in the screen. When it is determined that the point detected by the first detecting means is on the central portion or on the golden line, it is determined that the main subject exists at that point, and the main detecting object detects the point. If it is determined that the point is not on the central portion or on the golden section line, it is determined that the main subject exists at the point detected by the second detecting means.

【0010】[0010]

【実施例】本発明を利用したカメラの例を以下に示す。EXAMPLE An example of a camera using the present invention is shown below.

【0011】本発明は図1に示すように、撮影状況検出
手段1と制御露出量演算手段2と、この制御露出演算手
段2の出力に基づいて露出の制御を行う露出制御部3と
からなる。図2は図1の各部の構成をさらに詳細に示す
ものである。
As shown in FIG. 1, the present invention comprises a photographing condition detecting means 1, a control exposure amount calculating means 2 and an exposure control section 3 for controlling exposure based on the output of the control exposure calculating means 2. .. FIG. 2 shows the configuration of each part of FIG. 1 in more detail.

【0012】撮影状況検出手段1において、撮影状況検
出演算手段10には、どの様な状況でまたどの様な目的
で撮影しようとしているかを検出する為のカメラの撮影
条件の検出手段として、被写体の輝度分布検出装置1
1、被写体の距離分布検出装置12、被写体の倍率分布
検出装置13、被写体の大きさ・形状分布検出装置1
4、被写体の移動分布検出装置15、フィルムの感度、
ラチチュードの検出装置16、主要被写体検出装置1
7、撮影者補正データ記憶部18、巻き上げモード検出
部21が取り付けられている。
In the photographing condition detection means 1, the photographing condition detection calculation means 10 detects the object as a photographing condition detecting means of the camera for detecting the situation and the purpose of photographing. Luminance distribution detection device 1
1. Object distance distribution detecting device 12, object magnification distribution detecting device 13, object size / shape distribution detecting device 1
4, object movement distribution detection device 15, film sensitivity,
Latitude detection device 16 and main subject detection device 1
7, a photographer correction data storage unit 18, and a winding mode detection unit 21 are attached.

【0013】また、主要被写体検出装置17には、被写
体の輝度分布検出装置11、被写体の距離分布検出装置
12、被写体の倍率分布検出装置13、被写体の大きさ
・形状分布検出装置14、被写体の移動分布検出装置1
5が接続されている。
The main subject detecting device 17 includes a subject brightness distribution detecting device 11, a subject distance distribution detecting device 12, a subject magnification distribution detecting device 13, a subject size / shape distribution detecting device 14, and a subject Moving distribution detector 1
5 is connected.

【0014】被写体の輝度分布検出装置11、被写体の
距離分布検出装置12、被写体の大きさ・形状分布検出
装置14、被写体の移動分布検出装置15には、被写体
の画像信号検出装置19が接続されている。また、被写
体の倍率分布検出装置13には、被写体の距離分布検出
装置12、撮影レンズの焦点距離検出装置20が接続さ
れている。
A subject image signal detecting device 19 is connected to the subject luminance distribution detecting device 11, the subject distance distribution detecting device 12, the subject size / shape distribution detecting device 14, and the subject moving distribution detecting device 15. ing. Further, a subject distance distribution detection device 12 and a photographic lens focal length detection device 20 are connected to the subject magnification distribution detection device 13.

【0015】撮影状況検出演算手段10は、被写体の輝
度分布検出装置11、被写体の距離分布検出装置12、
被写体の倍率分布検出装置13、被写体の大きさ・形状
分布検出装置14、被写体の移動分布検出装置15、フ
ィルムの感度・ラチチュードの検出装置16、主要被写
体検出装置17、撮影者補正データ記憶部18、巻き上
げモード検出部21からの信号を受け、AV推奨値、A
V優先度、TV推奨値、TV優先度、ガイドナンバー制
御ストロボ推奨値、ガイドナンバー制御ストロボ優先
度、TTLストロボ優先度、プラス露出ずれ許容値、マ
イナス露出ずれ許容値、主要被写体輝度、主要被写体像
速度を演算出力する。
The photographing condition detecting / calculating means 10 includes a subject brightness distribution detecting device 11, a subject distance distribution detecting device 12,
Subject magnification distribution detection device 13, subject size / shape distribution detection device 14, subject movement distribution detection device 15, film sensitivity / latitude detection device 16, main subject detection device 17, photographer correction data storage unit 18 , A signal from the winding mode detection unit 21 is received, the recommended AV value, A
V priority, TV recommended value, TV priority, guide number control strobe recommended value, guide number control strobe priority, TTL strobe priority, plus exposure deviation allowance value, minus exposure deviation allowance value, main subject brightness, main subject image Calculates and outputs the speed.

【0016】次に、制御露出量演算手段2に於いては、
撮影状況検出手段からのAV推奨値、AV優先度、TV
推奨値、TV優先度、ガイドナンバー制御ストロボ推奨
値、ガイドナンバー制御ストロボ優先度、TTLストロ
ボ優先度、プラス露出ずれ許容値、マイナス露出ずれ許
容値、主要被写体輝度、主要被写体像速度の信号を受
け、制御AV値、制御TV値、ストロボガイドナンバー
値、TTLストロボ制御指令コードが演算される。
Next, in the control exposure amount calculation means 2,
Recommended AV value, AV priority, TV from shooting condition detection means
Receives recommended value, TV priority, recommended guide number control strobe value, guide number control strobe priority, TTL strobe priority, plus exposure deviation tolerance value, minus exposure deviation tolerance value, main subject brightness, and main subject image speed. , Control AV value, control TV value, strobe guide number value, and TTL strobe control command code are calculated.

【0017】これらの値は、制御露出値表示部22に表
示される。更に、撮影者補正部23は、撮影者の操作に
よるAV、TV、ガイドナンバーについての変更を受け
付ける。どの値をどれぐらい変更したかは、撮影者補正
データ記憶部18に記憶される。
These values are displayed on the control exposure value display section 22. Further, the photographer correction unit 23 accepts changes in AV, TV, and guide number by the photographer's operation. Which value and how much has been changed are stored in the photographer correction data storage unit 18.

【0018】次に、制御露出演算手段2の出力、制御A
V値、制御TV値、ストロボガイドナンバー値、TTL
ストロボ制御指令コードに基づいて露出制御部3が、絞
りの駆動・シャッターの駆動・ストロボの発光の各露光
制御を行う。以下に、撮影状況検出手段1の動作の説明
を行う。撮影状況の検出には、フィルムの状態、被写体
の状態、カメラの状態、撮影者の意志を検出する必要が
ある。言い換えれば、何を、何処で、何時、誰が、何
故、どの様に、何に撮ろうとしているかという事を検出
しなければならない。「何を」撮影しようとしているか
は、画像信号により分析される。人、風景、動物、もの
といったように分類される。また、そのものの絶対的な
色、明るさも重要である。白色を白く撮る場合や黒色を
黒く撮る場合には一般的な適正露出からはずれる。「何
処で」撮ろうとしているかは、例えば、屋外、室内、暗
いところ、広いところ、狭いところなどのように分類で
きる。「何時」撮影しようとするかという問題について
は、絶対的な時刻よりは、例えば、連写中であるとか、
一こまの撮影であるとかといった情報が役にたつ。
Next, the output of the control exposure calculation means 2 and the control A
V value, control TV value, strobe guide number value, TTL
Based on the strobe control command code, the exposure control unit 3 controls the exposure of driving the diaphragm, driving the shutter, and strobe light emission. The operation of the photographing condition detection means 1 will be described below. To detect the shooting condition, it is necessary to detect the film condition, the subject condition, the camera condition, and the will of the photographer. In other words, you have to detect what, where, when, who, why, how, and what you are trying to shoot. The "what" to be photographed is analyzed by the image signal. They are classified as people, landscapes, animals, and things. Also, the absolute color and brightness of the item itself are important. When shooting white in white or black in black, it is out of the general proper exposure. “Where” you are trying to take can be classified as, for example, outdoors, indoors, dark places, wide places, narrow places, etc. Regarding the problem of "when" to shoot, rather than absolute time, for example, during continuous shooting,
Information such as one shot is useful.

【0019】「誰が」という事は撮影者の個々の個性を
反映する。つまり、撮影者が、同じ情景と推定される場
面で以前に意図的にカメラが決めた露出値に補正を加え
ているかどうかの過去の来歴による。「何故」という問
題は、例えば、記念写真のために撮影するのか、あるい
は、芸術性を重んじて撮影するのかというような問題で
ある。
"Who" reflects the individuality of the photographer. That is, it depends on the past history of whether or not the photographer intentionally corrects the exposure value previously determined by the camera in a scene estimated to be the same scene. The problem of "why" is, for example, whether to shoot for a commemorative photo or to shoot with an emphasis on artistry.

【0020】「どの様に」という事は、一般的には、適
正露出かつ、ぶれのない写真を狙っている。しかし、流
し撮りのような場合には、故意にぶれを生じさせる事に
なる。また、マクロ撮影なのか、ポートレート撮影なの
かという条件もある。
"How" generally refers to a photograph with proper exposure and no blur. However, in the case of panning shot, blurring is intentionally caused. There is also a condition of whether it is macro photography or portrait photography.

【0021】「何に」という問題は、フィルムの問題で
ある。フィルムの感度、ラチチュードである。その為
に、カメラの撮影条件の検出手段として、被写体の輝度
分布検出装置11、被写体の距離分布検出装置12、被
写体の倍率分布検出装置13、被写体の大きさ・形状分
布検出装置14、被写体の移動分布検出装置15、フィ
ルムの感度・ラチチュードの検出装置16、主要被写体
検出装置17、撮影者補正データ記憶部18が利用され
る。
The "what" problem is a film problem. It is the sensitivity and latitude of the film. Therefore, as the photographing condition detecting means of the camera, a subject brightness distribution detecting device 11, a subject distance distribution detecting device 12, a subject magnification distribution detecting device 13, a subject size / shape distribution detecting device 14, and a subject A movement distribution detection device 15, a film sensitivity / latitude detection device 16, a main subject detection device 17, and a photographer correction data storage unit 18 are used.

【0022】それらのうち、被写体の輝度分布検出装置
11、被写体の距離分布検出装置12、被写体の大きさ
・形状分布検出装置14、被写体の移動分布検出装置1
5は、被写体の画像信号検出装置19の検出信号を利用
している。
Among them, the subject brightness distribution detecting device 11, the subject distance distribution detecting device 12, the subject size / shape distribution detecting device 14, and the subject moving distribution detecting device 1
5 uses the detection signal of the image signal detection device 19 of the subject.

【0023】本実施例では、被写体の画像信号検出装置
19は図3に示すように、光軸方向にオフセットされた
2面のCCD19aとCCD19bから構成されてい
る。また、これらのCCDが撮像する画面はフィルムに
投影される画像とほぼ同等の範囲の被写体像とする。こ
れらの各CCDには、撮影レンズを通過した被写体光が
投影される。
In this embodiment, as shown in FIG. 3, the image signal detection device 19 for the object is composed of two CCDs 19a and 19b offset in the optical axis direction. In addition, the screen imaged by these CCDs is a subject image in a range substantially equivalent to the image projected on the film. The subject light that has passed through the taking lens is projected on each of these CCDs.

【0024】被写体の輝度分布検出装置11は、被写体
の画像信号検出装置19の検出信号により画面の各座標
に対応した輝度を検出する。検出された輝度はカメラの
制御がしやすい程度のブロックに分割され出力される。
本実施例では、画面の縦横をそれぞれ9等分した81の
エリアに応じた被写体の輝度を出力するとする(図4参
照)。この場合、2面有るCCDのうち一方の出力に基
づいても良いし、また、2面のCCDの出力を両方とも
使用しても良い。
The object brightness distribution detecting device 11 detects the brightness corresponding to each coordinate of the screen by the detection signal of the image signal detecting device 19 of the object. The detected brightness is divided into blocks which are easy to control the camera and output.
In the present embodiment, it is assumed that the luminance of the subject is output according to 81 areas obtained by dividing the screen vertically and horizontally into nine equal parts (see FIG. 4). In this case, the output of one of the two CCDs may be used, or both outputs of the two CCDs may be used.

【0025】図5に示すように、被写体の距離分布検出
装置12は、まず、画像信号検出装置19の信号を、2
つの像に対応したMTF演算部12a、12bにおい
て、画面の各エリアに応じた所定空間周波数のMTF値
に変換する。ここで分割するエリアは、画面の縦横をそ
れぞれ9等分した81のエリアとする。
As shown in FIG. 5, the object distance distribution detecting device 12 first detects the signal from the image signal detecting device 19 by 2
In the MTF calculators 12a and 12b corresponding to one image, the MTF values are converted into MTF values having a predetermined spatial frequency according to each area of the screen. The area to be divided here is 81 areas obtained by dividing the screen vertically and horizontally into nine equal parts.

【0026】CCD19aとCCD19bの同じ座標の
エリアのMTFの比からそのエリアに於ける、ピントの
ずれが求められる事が解っている。MTFの比からピン
トのずれを検出する方法については、特開平2−275
916号公報に開示されているが、本発明とは直接的な
関係を持たないため詳細な説明は避ける。この各エリア
に対応したピントのずれ量はピントずれ量演算部12c
で行われる。
From the ratio of MTFs of the areas of the same coordinates of the CCD 19a and the CCD 19b, it is known that the focus shift in that area can be obtained. A method for detecting the focus shift from the MTF ratio is disclosed in JP-A-2-275.
Although disclosed in Japanese Laid-Open Patent Publication No. 916, it has no direct relationship with the present invention, and therefore detailed description thereof is omitted. The focus shift amount corresponding to each area is calculated by the focus shift amount calculation unit 12c.
Done in.

【0027】さらに、各エリアのピントのずれ量から各
エリアの被写体の距離が算出される。このために、公知
の技術である被写体距離の算出アルゴリズムが使用され
る。すなわち、被写体の距離分布検出装置12には、各
エリアのピントのずれ量を合焦点までの撮影レンズの焦
点調節光学系の光軸方向の移動量に変換するための撮影
レンズに固有の係数・定数の記憶部12dと、上記係数
・定数の記憶部12dに記憶された情報と上記の各エリ
アのピントずれ量とから撮影レンズの合焦迄の光軸方向
の移動量に変換演算する合焦までの移動量演算部12e
と、撮影レンズの焦点調節光学系の基準位置(例えば無
限遠位置)からの繰り出し位置を検出する焦点調節光学
系繰り出し量検出手段12fと、撮影レンズの焦点調節
光学系の繰り出し量を被写体距離に変換するための係数
・定数の記憶部12gと、上記の各エリアの被写体の合
焦までの焦点調節光学系の移動量と焦点調節光学系の現
在の繰り出し量と上記係数・定数の記憶部12gに記憶
された情報とから各エリア毎の被写体のカメラからの距
離を演算する被写体距離演算部12hが設定されてい
る。
Further, the distance of the subject in each area is calculated from the amount of focus shift in each area. For this purpose, a known subject distance calculation algorithm is used. That is, the object distance distribution detection device 12 has a coefficient peculiar to the photographing lens for converting the shift amount of the focus of each area into the movement amount in the optical axis direction of the focus adjustment optical system of the photographing lens up to the focal point. Focusing for converting the constant storage unit 12d, the information stored in the coefficient / constant storage unit 12d, and the focus shift amount of each area into the movement amount in the optical axis direction until the focus of the photographing lens. Moving amount calculation unit 12e
And a focus adjustment optical system extension amount detection means 12f for detecting an extension position from a reference position (for example, an infinity position) of the focus adjustment optical system of the taking lens, and an extension amount of the focus adjustment optical system of the taking lens as an object distance. A coefficient / constant storage unit 12g for conversion, a movement amount of the focus adjustment optical system until the subject in each area is in focus, a current extension amount of the focus adjustment optical system, and the coefficient / constant storage unit 12g. A subject distance calculation unit 12h that calculates the distance from the camera of the subject for each area based on the information stored in the area is set.

【0028】これらの働きにより被写体の距離分布検出
装置12は、画面の縦横をそれぞれ9等分した81のエ
リアに応じた、ピントずれ量情報と被写体距離情報を出
力する。
With these functions, the object distance distribution detecting device 12 outputs the focus deviation amount information and the object distance information according to 81 areas which are obtained by dividing the screen vertically and horizontally into nine equal parts.

【0029】図6に示すように、被写体の倍率分布検出
装置13は、上記の被写体の距離分布検出装置12から
の81個に分割された画面の各エリアの被写体距離情報
と、撮影レンズの焦点距離検出装置20からの撮影レン
ズの現在の焦点距離情報とから81個に分割された画面
の各エリアの被写体の撮影倍率情報を演算出力する。図
7において、被写体の大きさ・形状分布検出装置14
は、画像信号検出装置19の信号から同一の輝度を持つ
連続したエリアの大きさと形状のデータを出力する。こ
の場合、大きな面積を持つエリア、特徴的な形状を持つ
エリアについて複数個のデータを出力するように構成さ
れている。形状については、○型、□型、△型、▽型、
◇型、或いは、人間の輪郭を代表するような形状を現わ
すデータに置き換えられる。この場合、2面有るCCD
のうちの一方の出力に基づいても良いし、また、2面の
CCDの出力を両方とも使用しても良い。
As shown in FIG. 6, the object magnification distribution detecting device 13 detects the object distance information of each area of the 81 divided areas from the object distance distribution detecting device 12 and the focus of the photographing lens. Based on the current focal length information of the photographing lens from the distance detection device 20, the photographing magnification information of the subject in each area of the screen divided into 81 pieces is calculated and output. In FIG. 7, a subject size / shape distribution detection device 14
Outputs the data of the size and shape of continuous areas having the same brightness from the signal of the image signal detecting device 19. In this case, a plurality of data is output for an area having a large area and an area having a characteristic shape. Regarding the shape, ○ type, □ type, △ type, ▽ type,
◇ It is replaced with the data that shows the shape that represents the contour of the mold or human. In this case, a CCD with two sides
It may be based on the output of one of the two, or both outputs of the two CCDs may be used.

【0030】図8に示すように、被写体の移動分布検出
装置15には被写体の画像信号検出装置19が接続され
ている。また、前回の被写体の画像信号検出装置19か
らの画像信号を記憶している。この時間的に差異の有る
2種類の信号の差つまり変化を検出し、画面の各座標に
おいて被写体が画面のXY軸方向にどの様なベクトルを
有しているかを演算しこの移動分布情報を出力する。こ
の場合、2面有るCCDのうちの一方の出力に基づいて
も良いし、また、2面のCCDの出力を両方とも使用し
ても良い。この被写体の移動分布検出情報は、画面の縦
横をそれぞれ9等分した81のエリアに応じた値として
出力される。
As shown in FIG. 8, an object image signal detecting device 19 is connected to the object movement distribution detecting device 15. Further, the image signal from the image signal detection device 19 of the previous subject is stored. The difference, that is, the change, between these two kinds of signals having a temporal difference is detected, what kind of vector the subject has in the XY axis directions of the screen at each coordinate of the screen is calculated, and this movement distribution information is output. To do. In this case, it may be based on the output of one of the two CCDs, or both outputs of the two CCDs may be used. This movement distribution detection information of the subject is output as a value corresponding to 81 areas obtained by dividing the screen vertically and horizontally into nine equal parts.

【0031】フィルムの感度・ラチチュードの検出装置
16は、カメラに装顛されているフィルムの状態を検出
する。フィルムの状態とは、フィルムの感度とラチチュ
ードの情報である。これらは、フィルムのパトローネケ
ース上に記された、所謂、DXコードを読みとる事で入
手できる。
The film sensitivity / latitude detection device 16 detects the state of the film mounted on the camera. The state of the film is information on the sensitivity and latitude of the film. These can be obtained by reading the so-called DX code written on the film cartridge case.

【0032】また、主要被写体検出装置17は、上記の
被写体の輝度分布検出装置11から画面の縦横をそれぞ
れ9等分した81のエリアに応じた被写体の輝度情報
を、被写体の距離分布検出装置12からは、上記の各エ
リアに応じたピントずれ量情報と被写体距離情報を、被
写体の倍率分布検出装置13からは、上記の各エリアの
被写体の撮影倍率情報を、被写体の移動分布検出装置1
5からは、上記の各エリアに応じた被写体の移動分布検
出情報を、さらに、被写体の大きさ・形状分布検出装置
14からは、同一の輝度を持つ連続した画面上の範囲の
大きさと形状のデータを受け取る。
Further, the main subject detecting device 17 obtains the subject brightness information corresponding to 81 areas obtained by dividing the vertical and horizontal directions of the screen into nine equal parts from the subject brightness distribution detecting device 11 and the subject distance distribution detecting device 12. From the above, the focus shift amount information and the subject distance information corresponding to each of the above areas are obtained, and from the subject magnification distribution detecting device 13, the photographing magnification information of the subject in each of the above areas is obtained and the subject movement distribution detecting device 1 is obtained.
5 from the object movement distribution detection information according to each of the above areas, and from the object size / shape distribution detection device 14, the size and shape of a continuous screen range having the same brightness. Receive data.

【0033】主要被写体検出装置17は、これらのデー
タから主要な被写体が何であるか、また、その主要被写
体の大きさ、輝度、距離、撮影、倍率、X軸移動状況、
Y軸移動状況を検出する。また、その主要被写体の距離
の時間的な変化(Z軸移動状況)を演算する。これらの
演算結果は、撮影状況検出手段10へ送られる。
The main subject detecting device 17 determines what the main subject is from these data, and the size, brightness, distance, photographing, magnification, X-axis movement state of the main subject,
The Y-axis movement status is detected. In addition, a temporal change in the distance of the main subject (Z-axis movement state) is calculated. The results of these calculations are sent to the shooting condition detection means 10.

【0034】主要な被写体がなにか、つまり、撮影者が
「何を」撮影しようとしているかは、被写体の倍率分布
情報と被写体の大きさ・形状分布情報の分析による。ま
た、「どの様に」撮影しようとしているかの情報も入手
できる。一般には、近距離にある被写体つまり撮影倍率
がいちばん高い被写体が主要被写体である。特に、画面
中央、または、画面に対しては横、或いは、縦に黄金分
割を与える点に近距離の被写体がある場合には、その蓋
然性は高い。これは、撮影者が無意識のうちに画面の構
図について考えて人間の性質どおりに作用するためであ
る。画面の中央に被写体を配置するのは、ストレートに
被写体を撮影しようとする場合には当然起き易い。ま
た、古来より黄金分割についての構図の安定性は世の中
に認められており、主要被写体がその位置にある確率は
高い。また、被写体の画面に対する大きさが十分に大き
く意味のあるものか、また、その形状は人、風景、動物
と言ったように意味のあるものであるとその被写体が主
要被写体である可能性は高い。主要な被写体が何か判定
するために、上記の撮影倍率の高さ、画面の中央に配置
されているか、画面に黄金分割を与える点に配置されて
いるか、その形に特定の意味があるかが総合的に判断さ
れる。黄金分割とは画面を以下の式のように分割する分
割方法である。
What the main subject is, that is, what the photographer is trying to photograph is based on the analysis of the magnification distribution information of the subject and the size / shape distribution information of the subject. You can also get information on "how" you are going to shoot. Generally, a subject at a short distance, that is, a subject having the highest shooting magnification is the main subject. In particular, when there is a subject at a short distance at the center of the screen, or horizontally or vertically with respect to the screen, the probability is high. This is because the photographer unconsciously thinks about the composition of the screen and acts according to the human nature. Arranging the subject in the center of the screen is naturally easy to take when shooting a subject straight. In addition, the stability of the composition regarding the golden section has been recognized in the world since ancient times, and the probability that the main subject is at that position is high. Also, if the size of the subject with respect to the screen is sufficiently large, and if the shape is meaningful such as people, landscapes, animals, it is possible that the subject is the main subject. high. In order to determine what the main subject is, the height of the above-mentioned shooting magnification, is it placed at the center of the screen, is it placed at the point that gives the golden section to the screen, or does its shape have a specific meaning? Is comprehensively judged. Golden division is a division method that divides the screen according to the following formula.

【0035】[0035]

【数1】 図9に示すように、画面を縦横それぞれ9等分割する。
分割した81個のエリアの位置を示す座標を、左下を
(x,y)=(x1 、y1 )、右上を(x,y)=(x
7 ,y9 )として表す。
[Equation 1] As shown in FIG. 9, the screen is vertically and horizontally divided into nine equal parts.
The coordinates indicating the positions of the 81 divided areas are (x, y) = (x 1 , y 1 ) on the lower left and (x, y) = (x on the upper right.
7 , 7 , 9 ).

【0036】この場合、画面を左右に黄金分割するライ
ンは、x4列とx6列のほぼ中央を通る2本のラインで
表される。同様に上下方向に黄金分割するラインは、y
4行とy6行のほぼ中央を通る2本のラインとなる。
In this case, the line that divides the screen into the left and right is represented by two lines that pass through almost the center of the x4 column and the x6 column. Similarly, the golden division line in the vertical direction is y
There are two lines that pass through almost the center of the 4th row and the y6th row.

【0037】この様に画面の縦横をそれぞれ9等分した
エリアに分割することは、画面の黄金分割点に被写体を
検出する為の測光やAFの検出ポイントを配する事が可
能になる。この事はこの81個のエリアすべてに於いて
測光やAFの検出ポイントを配置する事を示すものでは
ない。これらのエリアのうちの優先すべきエリアを示す
ものである。
By dividing the screen vertically and horizontally into nine equal areas in this way, it is possible to arrange photometry and AF detection points for detecting a subject at the golden division points of the screen. This does not mean that the photometry and AF detection points are arranged in all the 81 areas. It shows the priority area of these areas.

【0038】つまり、画面の外側の方のx1 ,x9 の列
や、y1 ,y9 の行では検出装置を配置せずとも被写体
を検出する事は可能である。本実施例では81個すべて
のエリアにおいて被写体について検出する場合について
述べる。主要被写体の検出は、画面の中央部或いは黄金
分割ポイントに被写体があるかをまず被写体の距離や撮
影倍率に基づいて判断する。さらに求めたエリアに近接
するエリアが同等の撮影倍率ないしは被写体距離であれ
ば、そのエリアも主要被写体であると判断される。この
事により、被写体の大きさを求める事も可能である。以
下に、図10のフロ−チャ−トを参照して主要被写体検
出装置の信号処理動作について説明する。まず、アドレ
ス#1で、全体で81個のエリア内で撮影倍率の高い3
点についてエリアの座標β1 ,β2 ,β3 を求める。
That is, it is possible to detect a subject in the columns x 1 and x 9 and the rows y 1 and y 9 on the outer side of the screen without disposing a detector. In the present embodiment, a case will be described where a subject is detected in all 81 areas. In the detection of the main subject, whether the subject is present at the center of the screen or at the golden section point is first determined based on the distance of the subject and the shooting magnification. Further, if the area close to the obtained area has the same photographing magnification or the subject distance, that area is also determined to be the main subject. With this, it is possible to obtain the size of the subject. The signal processing operation of the main subject detection device will be described below with reference to the flowchart of FIG. First, at address # 1, 3 with high shooting magnification in 81 areas in total.
Area coordinates β 1 , β 2 , and β 3 are obtained for the point.

【0039】次にアドレス#2において、求めたβ1
β2 ,β3 が画面のx方向、或いはy方向に連続した3
つのエリアであるか判断される。連続したエリアである
場合は、アドレス#3〜#7に於いて、中央を含むかあ
るいは黄金分割を行う位置にあるかが、それぞれ判断さ
れる。これらの条件に一致した場合アドレス#20へ進
む。そうでない場合はアドレス#8へ進む。
Next, at the address # 2, the obtained β 1 ,
β 2 and β 3 are consecutive 3 in the x or y direction of the screen
It is judged whether it is one area. In the case of continuous areas, it is determined whether the address # 3 to # 7 includes the center or is in a position where golden division is performed. If these conditions are met, the process proceeds to address # 20. If not, proceed to address # 8.

【0040】アドレス#20では、主要被写体ではない
かという候補として、エリアの座標β1 ,β2 ,β3
3点を設定する。次に#23で後述する主要被写体エリ
アの演算が行われる。
At address # 20, three points of area coordinates β 1 , β 2 , and β 3 are set as candidates for the main subject. Next, in # 23, a main subject area, which will be described later, is calculated.

【0041】次にアドレス#27〜#32において、主
要被写体を示すエリアからその平均値として、主要被写
体の輝度、距離、撮影倍率、x軸・y軸・z軸の移動状
況が算出される。これで、主要被写体が検出を終了す
る。
Next, at addresses # 27 to # 32, the brightness, distance, photographing magnification, and x-axis / y-axis / z-axis movement status of the main subject are calculated from the area indicating the main subject as average values. This completes the detection of the main subject.

【0042】もしアドレス#2で、β1 ,β2 ,β3
連続のエリアにない場合には、また#7からアドレス#
8へ進む場合には、#8においてβ1 とβ2 がx方向、
y方向について連続か判定される。2つのエリアが連続
と判定された場合には、アドレス#9〜#13におい
て、画面の中央、或いは黄金分割点にβ1 、β2 がある
か判定される。
If at address # 2, β 1 , β 2 , and β 3 are not in a continuous area, the address # 7 is used again from # 7.
When proceeding to 8, β 1 and β 2 are in the x direction in # 8,
It is determined whether or not it is continuous in the y direction. When it is determined that the two areas are continuous, it is determined at addresses # 9 to # 13 whether β 1 and β 2 are at the center of the screen or at the golden section.

【0043】この場合、黄金分割について判定するため
の位置について画面中央よりその位置を規制する。つま
り、たとえばx4 列上で黄金分割か判定する為に、y3
〜y7 の区間のみで判定する。これは、小さな被写体が
画面の周辺に主要被写体として存在する可能性が低い為
に、処理時間の短縮と誤検出の防止を行う為である。判
定されれば#21に進む。
In this case, the position for determining the golden section is restricted from the center of the screen. That is, for example, to determine whether the golden section is on the x 4 column, y 3
It is determined only in a section of ~y 7. This is because it is unlikely that a small subject exists as a main subject around the screen, so that the processing time is shortened and erroneous detection is prevented. If it is determined, the process proceeds to # 21.

【0044】#8で、β1 ,β2 が連続でないと判断さ
れた場合、また、#9〜#13において、中央或いは黄
金分割点にβ1 ,β2 がないと判断された場合はアドレ
ス#14〜#18で、β1 が画面の中央か黄金分割を行
うポイントにあるか判断される。この場合の黄金分割に
ついての判断も上記の理由からさらに検出範囲がせばめ
られ、例えば、x4 列上での判定の場合にはx4 〜y6
に規制される。
If it is determined in # 8 that β 1 and β 2 are not continuous, and if it is determined in # 9 to # 13 that β 1 and β 2 are not at the center or the golden section, the address In # 14 to # 18, it is determined whether β 1 is at the center of the screen or at the point where the golden section is performed. In the judgment about the golden section in this case, the detection range is further narrowed down for the above reason. For example, in the case of the judgment on the x 4 column, x 4 to y 6
Regulated by.

【0045】#14〜#18でβ1 が、中央や黄金分割
ポイントにある場合には、アドレス#22へ進む。アド
レス#21、#22ではそれぞれ主要被写体候補として
(β1 ,β2 )(β1 )を設定してアドレス#23へ進
む。アドレス#14〜#18でβ1 が中央或いは、黄金
分割ポイントにないと判断された場合はアドレス#19
へ進み、倍率の高いエリアβ1 ,β2 ,β3 についてx
4 〜x6 、y4 〜y6の画面の中央よりの範囲内のみで
再設定され、再度アドレス#2へ進む。この場合は、ア
ドレス#2〜#18のうちで#20,#21,#22の
いずれかへ必ず進む。以下に図11のフロ−チャ−トを
参照してアドレス#23で示した主要被写体エリア演算
のルーチンの説明を行う。
When β 1 is in the center or the golden section point in # 14 to # 18, the process proceeds to address # 22. At addresses # 21 and # 22, (β 1 , β 2 ) (β 1 ) are set as main subject candidates, and the process proceeds to address # 23. If it is determined that β 1 is not at the center or the golden section point at addresses # 14 to # 18, address # 19
Proceed to step x for high-magnification areas β 1 , β 2 , and β 3 .
4 ~x 6, y 4 are re-set only within a range of the center of the screen of ~y 6, proceeds to the address # 2 again. In this case, one of # 20, # 21, and # 22 of addresses # 2 to # 18 is surely proceeded. The main subject area calculation routine indicated by address # 23 will be described below with reference to the flowchart of FIG.

【0046】まず、#101で倍率をもとに選ばれた主
要被写体の候補について、そのうちの一番低い撮影倍率
をβ0 として求める。#102では、後述するループの
繰返す上限を決める変数Nに主要被写体候補として選ば
れているエリアの数を代入する。つまり、図10の#2
0を通っていれば“3”に、#22を通っていれば
“1”となる。
First, for the main subject candidate selected based on the magnification in # 101, the lowest photographing magnification among them is determined as β 0 . In step # 102, the number of areas selected as main subject candidates is substituted into a variable N that determines an upper limit for repeating a loop described later. That is, # 2 in FIG.
If it passes 0, it becomes “3”, and if it passes # 22, it becomes “1”.

【0047】#103では、後述するループの繰返しの
為のループカウンタiに代入する初期値として用いる新
主要被写体候補の基数の為の変数Mを1にする。この基
数は、新しく候補が選ばれた場合に、次に新しい候補を
さがす場合に無駄のない様に次にさがす範囲を限定する
為に用いられる。このルーチンでの演算の目的は、主要
被写体の候補として選ばれたエリアに隣接するエリアが
にらむ被写体が、候補のエリアのにらむ被写体と同一の
物か判定し同一のものと判定される場合にその隣接する
エリアも主要被写体と判断し、主要被写体の大きさや形
状についての情報を得る事にある。また、主要被写体の
輝度やブレ等の情報にその主要被写体全体の情報を反映
させる事にある。勿論、前述した主要被写体の大きさ、
形状検出装置の出力によって得る事も可能であるが、そ
れがなくても、この演算によって主要被写体の大きさや
形状についての情報を得る事が可能になる。その為に、
本実施例では主要被写体候補と隣接するエリアのそれぞ
れの被写体の撮影倍率を使用している。
At # 103, the variable M for the radix of the new main subject candidate used as the initial value to be substituted into the loop counter i for repeating the loop to be described later is set to 1. When a new candidate is selected, this radix is used to limit the range to be searched next so that the next new candidate is not wasted. The purpose of the calculation in this routine is to determine whether the subject adjacent to the area selected as the candidate for the main subject is the same as the subject looking into the candidate area and is determined to be the same. The adjacent area is also determined to be the main subject, and information about the size and shape of the main subject is obtained. In addition, the information of the entire main subject is reflected in the information such as the brightness and blur of the main subject. Of course, the size of the main subject mentioned above,
Although it is possible to obtain it by the output of the shape detection device, even without it, it becomes possible to obtain information about the size and shape of the main subject by this calculation. Therefore,
In this embodiment, the photographing magnification of each subject in the area adjacent to the main subject candidate is used.

【0048】勿論、被写体の距離に注目しても、輝度や
その他の情報を用いてもかまわない。その隣接するエリ
アについての評価の為のループがアドレス#104〜#
112で示す。その為に#104でこのループのカウン
タiに初期値として上記の変数Mを代入する。次いで#
105で、主要被写体について拡張したエリアの個数を
表す変数j(主要被写体拡張カウンタ)に0を代入す
る。つまり今回のループの演算のあたまでは、1つのエ
リアも拡張されていない状態にするわけである。
Of course, attention may be paid to the distance to the subject, or brightness and other information may be used. The loop for evaluating the adjacent area is addresses # 104 to #.
Denoted by 112. Therefore, in # 104, the variable M is substituted as an initial value into the counter i of this loop. Then #
At 105, 0 is assigned to a variable j (main subject extension counter) representing the number of areas extended for the main subject. In other words, one area is not expanded until the operation of this loop.

【0049】#106で、主要被写体エリアのうちのi
番目のもののx座標とy座標を(x,y)に代入する。
本実施例では、x,y座標とも1〜9の添字をもって表
される。その為、座標(x,y)で表されるエリアに隣
接するエリアの座標についても、このx1 〜y9 の範囲
内であるから、例えば(x,y)の左隣のエリアについ
て、評価する場合は、x>x1 の場合だけで良い。それ
でアドレス#107において(x>x1 )の判定を行
う。もし、真であれば、アドレス#116において、座
標(x−1,y)のエリアについて被写体候補として成
り立つかが判定される。その為に図12で示す被写体候
補判定演算ルーチンが用いられる。この演算後、または
#107で偽の判定の場合、アドレス#107で座標
(x,y)の右隣のエリアについて、上記で示した演算
と同様に処理される。y軸方向つまり、上、下に隣接す
るエリアについても同様に#109、#110、#11
8、#119で処理される。
At # 106, i in the main subject area
Substitute the x and y coordinates of the th one for (x, y).
In this embodiment, both x and y coordinates are represented by subscripts of 1-9. Therefore, since the coordinates of the area adjacent to the area represented by the coordinates (x, y) are also within the range of x 1 to y 9 , for example, the area to the left of (x, y) is evaluated. To do so, it is only necessary to satisfy x> x 1 . Therefore, the determination of (x> x 1 ) is made at the address # 107. If true, it is determined at address # 116 whether the area of coordinates (x-1, y) is a subject candidate. Therefore, the subject candidate determination calculation routine shown in FIG. 12 is used. After this calculation, or in the case of false determination in # 107, the area on the right of the coordinate (x, y) at address # 107 is processed in the same manner as the above-described calculation. The same applies to the areas adjacent to each other in the y-axis direction, that is, the areas adjacent to the top and bottom.
8 and # 119.

【0050】被写体候補判定演算ルーチンでは図12に
示す様に、まず#120において指定されているエリア
が既に主要被写体候補としての指定を受けているか判定
される。もし真であれば、#124によりそのままリタ
ーンする。
In the subject candidate determination calculation routine, as shown in FIG. 12, it is first determined whether the area designated in # 120 has already been designated as a main subject candidate. If it is true, the process directly returns from # 124.

【0051】まだ指定されていない場合、#121に進
み指定座標のエリアの撮影倍率が#101で求めたβ0
と比較される。この場合に、同等の撮影倍率と見做せる
範囲を本実施例では、(β0 +0.05・β0 )つまりβ0
との差が±5%の範囲とする。
If not specified, the flow proceeds to # 121 and the photographing magnification of the area of the specified coordinates is β 0 obtained in # 101.
Compared to. In this case, in this embodiment, a range that can be regarded as an equivalent photographing magnification is (β 0 + 0.05 · β 0 ), that is, β 0
And the difference is ± 5%.

【0052】この範囲外の場合は、#124からリター
ンする。範囲内の場合は、#122に進み、主要被写体
拡張カウンタjをインクリメントする。次に#123で
指定座標のエリアを(N+j)番目の主要被写体候補に
する。その後に#124でリターンする。図11の#1
07〜#110の判定演算の終了後、#111に進む。
If it is out of this range, the process returns from # 124. If it is within the range, the process proceeds to # 122 and the main subject extension counter j is incremented. Next, in # 123, the area of the designated coordinates is set as the (N + j) th main subject candidate. After that, the process returns at # 124. # 1 in FIG. 11
After the determination calculation of 07 to # 110 is completed, the process proceeds to # 111.

【0053】ここで、ループの演算が終了しているか判
定される。まだ、ループカウンタが、変数Nより小さい
場合には、終了していないので、#112でカウンタ変
数iをインクリメントして#106へ戻る。#111で
終了していると判断された場合は、#113で、拡張カ
ウンタjのチェックを行う。もし拡張カウンタjが0で
あれば、新たに主要被写体候補が追加されていない事を
示すので、アドレス#115へ進む。この主要被写体エ
リア演算ルーチンを終了する。
Here, it is determined whether the calculation of the loop is completed. If the loop counter is still smaller than the variable N, it is not finished yet, so the counter variable i is incremented in # 112 and the process returns to # 106. When it is determined that the processing is finished in # 111, the extension counter j is checked in # 113. If the extension counter j is 0, it means that a new main subject candidate has not been added, and the process proceeds to address # 115. This main subject area calculation routine ends.

【0054】主要被写体拡張カウンタjが0でない場
合、その値が、追加された主要被写体候補の数を示す。
#114で、主要被写体候補エリア数Nを(N=N+
j)に、新主要被写体候補基数Mを(M=M+j)とし
て、新しいMからNにより示されているエリアに隣接す
るエリアについて主要被写体の候補か判断する為にアド
レス#104へ進む。主要被写体エリア演算ルーチンの
終了後は、図10のアドレス#27へ進む。この時に
は、主要被写体の候補は正式に主要被写体と見做され
る。
When the main subject extension counter j is not 0, that value indicates the number of added main subject candidates.
In # 114, the number N of main subject candidate areas is set to (N = N +
In j), the new main subject candidate cardinal number M is set to (M = M + j), and the process proceeds to address # 104 to determine whether the area adjacent to the area indicated by new M to N is a main subject candidate. After the main subject area calculation routine ends, the process proceeds to address # 27 in FIG. At this time, the main subject candidate is officially regarded as the main subject.

【0055】ここで、第2の実施例として被写体の大き
さ・形状分布検出装置14からの出力を利用する場合の
例を図13に示す。ここでは、図10上で#23で行わ
れる主要被写体エリア演算の上記した例の別例として示
す。まず、アドレス#130で主要被写体の候補として
選ばれているエリアが、被写体の大きさ・形状分布検出
装置14からの出力信号の被写体の一番大きな面積を有
するエリアの集合の中に含まれているか判断される。含
まれると判断された場合は#131で、その被写体の大
きさ情報が示すエリアの集合全体を主要被写体のエリア
とする。
FIG. 13 shows an example of using the output from the object size / shape distribution detection device 14 as the second embodiment. Here, another example of the above-described example of the main subject area calculation performed at # 23 in FIG. 10 is shown. First, the area selected as the main subject candidate at address # 130 is included in the set of areas having the largest area of the subject in the output signal from the subject size / shape distribution detection device 14. It is judged whether or not. If it is determined to be included, in # 131, the entire set of areas indicated by the size information of the subject is set as the area of the main subject.

【0056】含まれない場合は、#132で、形状につ
いてのデータをクリアし、#133で主要被写体のエリ
アを候補通りにする。そののち#134でルーチンを終
了する。
If not included, the data about the shape is cleared in # 132, and the area of the main subject is set as the candidate in # 133. After that, the routine ends at # 134.

【0057】撮影者補正データ記憶部18は、制御露出
量演算手段2で演算された制御露出値(AV、TV、ガ
イドナンバー)について、撮影者補正部23により、撮
影者がどの値をどれぐらい変更したかを記憶する。この
記憶部を、EEPROM等の不揮発性記憶手段で構成す
ることで、電源が切断されても撮影者が設定した補正量
を記憶・再生することが可能になる。
The photographer correction data storage unit 18 determines how much the photographer corrects the control exposure value (AV, TV, guide number) calculated by the control exposure amount calculation unit 2 by the photographer correction unit 23. Remember the changes. By configuring this storage unit with a non-volatile storage means such as an EEPROM, it is possible to store and reproduce the correction amount set by the photographer even when the power is turned off.

【0058】撮影レンズの焦点距離検出装置20は、撮
影レンズの焦点距離を検出出力する。撮影レンズがズー
ムレンズである場合には、公知のズームエンコーダで撮
影レンズの変倍光学系に対する撮影者の操作量を検出し
その操作量に応じた撮影レンズの焦点距離をROM等に
記憶されている情報から読みだし出力する。
The photographing lens focal length detecting device 20 detects and outputs the focal length of the photographing lens. When the taking lens is a zoom lens, a known zoom encoder detects the operation amount of the photographer with respect to the variable magnification optical system of the taking lens, and the focal length of the taking lens according to the operation amount is stored in the ROM or the like. It reads from the existing information and outputs it.

【0059】巻き上げモード検出部21は、撮影者が、
一駒ずつの撮影を行っているのか、或いは、連写モード
による連続撮影を行っているのかを検出する。また、一
駒撮影の場合には、前回の撮影からの経過時間が連写と
見なせる時間(おおよそ数秒)か判断し、この三状態に
ついての信号を連写度情報として出力する。
The take-up mode detecting section 21
It is detected whether one frame at a time is being photographed or continuous photographing is being performed in the continuous photographing mode. Further, in the case of single frame shooting, it is determined whether the time elapsed from the previous shooting can be regarded as continuous shooting (approximately several seconds), and signals for these three states are output as continuous shooting degree information.

【0060】制御露出値表示部22は、実際にカメラが
露光をフィルムに与える場合の制御する絞り値、シャッ
タースピード、ストロボの使用についての情報を、カメ
ラの外、カメラのファインダー内に表示する。表示の方
法は、例えば、公知の液晶モジュールを用いて行われ
る。
The control exposure value display section 22 displays information about the aperture value, shutter speed, and use of the strobe, which are controlled by the camera when the film is actually exposed by the camera, outside the camera and in the viewfinder of the camera. The display method is performed using, for example, a known liquid crystal module.

【0061】撮影者補正部23は、公知のロータリエン
コーダやアップダウンキー等の方法により、撮影者が制
御露出量演算手段2で演算された制御露出値(AV、T
V、ガイドナンバー)を変更可能なように構成されてい
る。
The photographer correction unit 23 is a control exposure value (AV, T calculated by the photographer in the control exposure amount calculation means 2) by a known method such as a rotary encoder or an up / down key.
V, guide number) can be changed.

【0062】撮影状況検出演算手段10は、被写体の輝
度分布検出装置11、被写体の距離分布検出装置12、
被写体の倍率分布検出装置13、被写体の大きさ・形状
分布検出装置14、被写体の移動分布検出装置15、フ
ィルムの感度・ラチチュードの検出装置16、主要被写
体検出装置17、撮影者補正データ記憶部18、巻き上
げモード検出部21からの信号を受け、AV推奨値、A
V優先度、TV推奨値、TV優先度、ガイドナンバー制
御ストロボ推奨値、ガイドナンバー制御ストロボ優先
度、TTLストロボ優先度、プラス露出ずれ許容値、マ
イナス露出ずれ許容値、主要被写体輝度、主要被写体像
速度を演算出力する。前述のように撮影状況の検出に
は、何を、何処で、何時、誰が、何故、どの様に、何に
撮ろうとしているかという事を検出しなければならな
い。
The photographing condition detecting / calculating means 10 includes a subject brightness distribution detecting device 11, a subject distance distribution detecting device 12,
Subject magnification distribution detection device 13, subject size / shape distribution detection device 14, subject movement distribution detection device 15, film sensitivity / latitude detection device 16, main subject detection device 17, photographer correction data storage unit 18 , A signal from the winding mode detection unit 21 is received, the recommended AV value, A
V priority, TV recommended value, TV priority, guide number control strobe recommended value, guide number control strobe priority, TTL strobe priority, plus exposure deviation allowance value, minus exposure deviation allowance value, main subject brightness, main subject image Calculates and outputs the speed. As described above, in order to detect the shooting condition, it is necessary to detect what, where, when, who, why, how and what the user is trying to shoot.

【0063】「何を」撮影しようとしているかは、主要
被写体検出装置17により出力される。人、動物とかは
っきりと判断しにくい場合でも画面のうちの何処に主要
被写体があり、その主要被写体の大きさ、輝度、距離、
撮影、倍率、X軸移動状況、Y軸移動状況、Z軸移動状
況の情報が得られる。
The "what" to be photographed is output by the main subject detection device 17. Even if it is difficult to judge clearly whether it is a person or an animal, the main subject is anywhere on the screen, and the size, brightness, distance,
Information on shooting, magnification, X-axis movement status, Y-axis movement status, and Z-axis movement status can be obtained.

【0064】これらにより、主要被写体が何であるか推
測される。人(顔)、人(上半身)、人(全身)、人
(複数)、動物、風景、移動体その他が判定される。こ
れは、情報処理の能力に合わせて分類を増やしたり減ら
したりして行う。この情報は、主要被写体により、露光
時のAV、TV、ストロボのガイドナンバーの値に対し
て推奨値を決めるための情報の一部に使用される。例え
ば、人物の上半身を撮影する場合には、絞りは開放側が
よい。
From these, it is possible to guess what the main subject is. A person (face), a person (upper body), a person (whole body), a person (plurality), an animal, a landscape, a moving body, and the like are determined. This is done by increasing or decreasing the classification according to the information processing ability. This information is used as a part of information for determining a recommended value for the guide number values of AV, TV, and strobe at the time of exposure depending on the main subject. For example, when photographing the upper half of a person, the aperture should be open.

【0065】同時に色の推測が成り立つ場合は、白色の
場合、明るい色の場合、暗い色の場合、黒色の場合、そ
れぞれ、主要被写体の輝度情報に補正を加える。これ
は、補正しなければ、通常の適正露出が灰色の明るさを
前提にしているため白色、黒色も灰色に再現されてしま
うからである。また、主要被写体像速度がX、Y軸移動
状況情報から演算される。
At the same time, when color estimation is established, correction is added to the luminance information of the main subject in each of white, bright color, dark color, and black. This is because, without correction, white and black are reproduced in gray because normal proper exposure is based on the brightness of gray. Further, the main subject image velocity is calculated from the X and Y axis movement status information.

【0066】「どの様に」という事は、「何を」に絡む
事が多い。人、動物とかはっきりと判断しにくい場合で
も画面のうちの何処に主要被写体があり、その主要被写
体の大きさ、輝度、距離、撮影、倍率、X軸移動状況、
Y軸移動状況、Z軸移動状況の情報から判断される。
"How" often means "what". Even if it is difficult to determine clearly whether it is a person or an animal, the main subject is anywhere on the screen, and the size, brightness, distance, shooting, magnification, X-axis movement status of the main subject,
It is determined from the information on the Y-axis movement status and the Z-axis movement status.

【0067】主要被写体が、小さな物でマクロ撮影(倍
率1/5よりも大きい場合)されようとしている場合
は、合焦点の深度が浅いため、倍率に応じて、絞り込む
方がよい。
When the main subject is to be macro-photographed with a small object (when the magnification is larger than 1/5), the depth of focus is shallow, so it is better to narrow down according to the magnification.

【0068】また、一般的には、適正露出かつぶれのな
い写真を狙っている。しかし、流し撮りのような場合に
は、故意にぶれを生じさせる事になる。主要被写体以外
の背景が、定常的に一定方向に移動している場合には流
し撮りと考える。この場合には、背景がぶれ、主要被写
体がぶれないシャッタースピードが推奨される。
Further, in general, a photograph is taken aiming at a proper exposure or no collapse. However, in the case of panning shot, blurring is intentionally caused. If the background other than the main subject constantly moves in a certain direction, it is considered to be panning. In this case, a shutter speed where the background is blurred and the main subject is not blurred is recommended.

【0069】また、主要被写体も背景も暗く、背景には
点光源が点在しておりストロボが必要な場合には、夜景
が適当に写るシャッタスピードで被写体にストロボ光量
を合わせる夜景撮影が良い。但し、主要被写体がぶれる
ような長時間の露出はいけない。「何処で」撮ろうとし
ているかは、逆光か否か、暗いか明るいか、広いところ
か狭いところかと分類する。
When the main subject and the background are dark and point light sources are scattered on the background and a strobe is required, night scene photography in which the amount of strobe light is adjusted to the subject at a shutter speed that allows an appropriate night scene is preferable. However, you should not expose the main subject for a long time. “Where” you are trying to shoot is classified as backlight, dark or bright, wide or narrow.

【0070】これらは、ストロボの制御に関係してく
る。暗ければ、或いは、逆光であるなら、長い時間の露
出或いはストロボで光量の不足を補うがどちらがよいか
判断される。
These are related to strobe control. If it is dark or there is backlight, it is judged which is better to compensate for the lack of light quantity by exposure for a long time or strobe.

【0071】狭いところならば、ストロボ光の回り込み
があるので、TTLダイレクトストロボ制御が適切であ
る。広いところでは、ガイドナンバーストロボ制御が適
切である。
In a narrow space, the strobe light wraps around, so TTL direct strobe control is appropriate. Guide number strobe control is appropriate in wide areas.

【0072】「何時」撮影しようとするかという問題に
ついては、巻き上げモード検出部21からの連写度情報
の連写度の大きさによりTV優先的な扱いが望ましくな
る。この判定は、許容錯乱円径についての設定に関して
応用できる。この点は、ASF(自動焦点調節)にも応
用することもできる。許容できるぶれの大きさは、ほ
ぼ、許容錯乱円の大きさに等しい。連続撮影などの速写
性を重んじた撮影の場合にその限界値の設定を緩し、よ
り速写性を上げる事も可能である。
Regarding the problem of "when" to take a picture, it is desirable to treat the TV preferentially according to the magnitude of the continuous shooting degree of the continuous shooting degree information from the winding mode detecting unit 21. This judgment can be applied to the setting of the permissible circle of confusion diameter. This point can also be applied to ASF (automatic focus adjustment). The permissible blur size is approximately equal to the permissible circle of confusion. In the case of continuous shooting and other shooting that values high-speed shooting, it is possible to loosen the setting of the limit value and improve the quick-shooting performance.

【0073】「誰が」という事は撮影者の個々の個性を
反映する為に、撮影者補正データ記憶部18の撮影者の
操作によってのAV、TV、ガイドナンバーについての
どの値をどれぐらい変更したかという情報を用い、この
情報以外で求めた制御露出値に補正を加える。この場
合、AV、TV、ストロボの各推奨値の高いものに補正
を加える。これは、撮影者が、同じ情報と推定される場
面で以前に意図的にカメラが決めた露出値に補正を加え
ているかどうかの過去の来歴を考慮するためである。
In order to reflect the individuality of the photographer, "who" changes which value of AV, TV and guide number by the photographer's operation of the photographer correction data storage section 18 and how much. By using such information, the control exposure value obtained by other than this information is corrected. In this case, the correction is applied to the high recommended values of AV, TV, and strobe. This is because the photographer considers a past history of whether or not the exposure value previously determined by the camera is intentionally corrected in a scene estimated to have the same information.

【0074】「何故」という問題は、例えば、記念写真
のために撮影するのか、あるいは、芸術性を重んじて撮
影するのかというような問題である。記念写真のように
記録性を重んじるなら、ピントは深度深く撮影されるべ
きであるし、芸術性を重んじるなら、写真は引き算の芸
術と言われるように深度を浅く余分な物は余り写らなく
する必要がある。
The question "why" is, for example, whether to shoot for a commemorative photo or to shoot with an emphasis on artistry. If you value recordability like a commemorative photo, the focus should be taken deeply, and if you value artisticity, the photo should be shallow depth and less extra things are called subtractive art. There is a need.

【0075】これを判断するためには、本実施例では被
写体の距離の分布を用いる。つまり画面の距離の分布が
近距離と遠距離が大きくずれている場合にまたこれらの
値が離散的な場合に、特殊な撮影状況と判断して作者が
意図的に構図等を考慮している物とし芸術性を重んじ
る。また、距離の分布が連続的に変化する被写体に対し
ては記録性を重んじる。これ以外の物は特に考慮しな
い。
In order to judge this, the distribution of the distance of the object is used in this embodiment. In other words, when the distance distribution on the screen is greatly deviated from the short distance and the long distance, and when these values are discrete, the author intentionally considers the composition etc., judging that it is a special shooting situation. Emphasize artistry as things. In addition, the printability is emphasized for the subject whose distance distribution changes continuously. Nothing else is considered.

【0076】また、記念写真か芸術性を重んじているか
の判定は、許容錯乱円径、許容ぶれ量についての設定に
関して応用できる。この点は、AF(自動焦点調節)に
も応用することもできる。許容できるぶれの大きさは、
ほぼ、許容錯乱円の大きさに等しい。記念写真では、そ
の限界値の設定を緩く、芸術性を重んじた写真では厳し
くすることができる。
The judgment as to whether the commemorative photograph or the artistry is valued can be applied to the setting of the permissible circle of confusion and the permissible blurring amount. This point can also be applied to AF (automatic focus adjustment). The allowable blur size is
It is almost equal to the size of the permissible circle of confusion. For commemorative photographs, the limit value can be set loosely, and for photographs that emphasize artistry, it can be made strict.

【0077】「何に」という問題は、フィルムの問題で
ある。フィルムの感度、ラチチュードである。ラチチュ
ードは、±1/2、±1、−1〜+2、−1〜+3[E
V]と現されており、この程度の露出のずれはぎりぎり
許される。本発明では、安全を見てこの値のプラス側の
値マイナス側の値それぞれの半分を、プラス露出ずれ許
容値、マイナス露出ずれ許容値とする。まとめると、図
14において、撮影状況検出演算手段10は、まず、
「何に」という問題に対して、ラチチュード情報によ
り、 ラチチュード[EV] ±1/2 ±1 −1 〜+2 −1 〜+3 プラス露出ずれ許容値[EV] 0.25 0.5 1 1.5 マイナス露出ずれ許容値[EV] 0.25 0.5 0.5 0.5 という値のプラス露出ずれ許容値、マイナス露出ずれ許
容値を与える。次に、主要被写体推測演算を行う。次
に、主要被写体の像速度演算を行う。次に、主要被写体
の色の推測演算を行い得られた結果から主要被写体輝度
に対して、 白色 −2.5 [EV] 明るい色 −1.0 [EV] 暗い色 +1.0 [EV] 黒色 +2.5 [EV] の輝度補正演算を行いより正確な主要被写体輝度を得
る。次に「何時」の問題に対して、次の判定を行う。 一駒 AV優先 一駒(連写) TV優先 出来る限りぶれの無いシャ
ッタースピード 連写 TV優先 出来るだけ高速のシャッタ
ースピード ここで、TV優先の場合には、「誰が」の補正演算まで
飛ぶ。AV優先の場合、更に、「何を」の問題に対し
て、被写体の推測演算により分類を行う。下記の様に場
合分けし、 人(顔) AV優先 深度5cm 人(上半身) AV優先 深度10cm 人(全身) AV優先 深度20cm 人(複数) AV優先 深度深く 動物 AV優先 深度1m 風景 AV優先 深度深く 移動体 TV優先 ぶれないシャッタースピ
ード その他 AV・TV中庸 の設定を行う。次に、「どの様に」について、演算す
る。 マクロ AV優先 倍率に応じて絞る
The "what" problem is a film problem. It is the sensitivity and latitude of the film. The latitude is ± 1/2, ± 1, -1 to +2, -1 to +3 [E
V], and this degree of exposure deviation is just allowed. In the present invention, for safety, half of each of the plus side value and the minus side value is set as the plus exposure deviation allowance value and the minus exposure deviation allowance value. In summary, in FIG. 14, the shooting situation detection calculation means 10
For the "what" problem, the latitude information shows that latitude [EV] ± 1/2 ± 1 −1 to +2 −1 to +3 plus exposure deviation tolerance [EV] 0.25 0.5 1 1.5 minus exposure deviation tolerance [ EV] 0.25 0.5 0.5 Give a positive exposure deviation allowance and a negative exposure deviation allowance of 0.5 0.5. Next, a main subject estimation calculation is performed. Next, the image velocity of the main subject is calculated. Next, from the results obtained by estimating the color of the main subject, white-2.5 [EV] bright color -1.0 [EV] dark color +1.0 [EV] black +2.5 [ EV] brightness correction calculation is performed to obtain a more accurate main subject brightness. Next, the following judgment is made for the "what time" problem. One frame AV priority One frame (continuous shooting) TV priority Shutter speed without blurring as much as possible Continuous shooting TV priority Shutter speed as high as possible Here, in the case of TV priority, the correction calculation of "who" is skipped. In the case of the AV priority, the problem of “what” is further classified by the subject's estimation calculation. Case (person) (face) AV priority depth 5 cm Person (upper body) AV priority depth 10 cm Person (whole body) AV priority depth 20 cm People (multiple) AV priority depth deep Animal AV priority depth 1 m Landscape AV priority depth deep Mobile TV priority Shutter speed without blur Others AV / TV moderate setting is set. Next, "how" is calculated. Macro AV priority Squeezing according to magnification

【0078】ポートレート AV優先 10cm程
度の深度になるように絞りを開く 流し撮り TV優先 主要被写体はぶれず背景
がぶれるシャッタースピード 夜景 TV優先 主要被写体がぶれず夜景
が写るシャッタースピード その他 設定そのまま 以前に設定された優先やそのときの制御値の値は、後か
らの演算によりキャンセルされる。次に、「何処で」に
ついて考える。 暗く狭い TTLストロボ推奨 暗く広い ガイドナンバー制御ストロボ推奨 ガイドナンバーは主要被写体の距離による 明るく逆光 ガイドナンバー制御ストロボ推奨 主要被写体の自然光とストロボ光の割合を1:1にす
る。 次に、「何故」について調べる。 記念写真 上記までの設定がAV優先の場合 深度深くする(上記までの設定より1段絞る) 芸術性 上記までの設定がAV優先の場合 深度浅くする(上記までの設定より1段開く) その他 上記までの設定のまま 次に、「誰が」という事の補正を行う。 ここまでの設定がAV優先時 AVの補正値 ここまでの設定がTV優先時 TVの補正値 ここまでの設定がガイドナンバーストロボ推奨時 ストロボ光量比の補正値の分類・演算を行う。
Portrait AV priority Open the aperture to a depth of about 10 cm Follow shot TV priority Shutter speed where the main subject does not shake and the background shakes Night view TV priority Shutter speed where the main subject does not shake and the night view appears Other settings as before The set priority and the control value at that time are canceled by a later calculation. Next, think about "where." Dark and narrow TTL strobe recommended Dark and wide guide number control Strobe recommended Guide number depends on the distance of the main subject Bright backlit guide number control Strobe recommended The ratio of natural light and strobe light of the main subject is set to 1: 1. Next, "why" is investigated. Commemorative photo If the above settings are AV priority, deepen the depth (narrow down one step from the settings above) Artisticity If the settings above are AV priority, decrease the depth (open one step above the settings) Others above Next, correct the "who". The settings so far are for AV priority. The correction values for AV are those for TV priority. The correction values for TV are for the guide number. Strobe light amount ratio correction values are classified and calculated.

【0079】この結果、撮影状況検出演算手段10は、
AV推奨値、AV優先度、TV推奨値、TV優先度、ガ
イドナンバー制御ストロボ推奨値、ガイドナンバー制御
ストロボ優先度、TTLストロボ優先度、プラス露出ず
れ許容値、マイナス露出ずれ許容値、主要被写体輝度、
主要被写体像速度を演算し出力する。
As a result, the photographing condition detection calculation means 10
AV recommended value, AV priority, TV recommended value, TV priority, guide number control strobe recommended value, guide number control strobe priority, TTL strobe priority, plus exposure deviation allowance value, minus exposure deviation allowance value, main subject brightness ,
Calculates and outputs the main subject image velocity.

【0080】上記の実施例では、場合分けで各優先度を
分けたが、各項目別に優先度、推奨値を決め加算してい
き各優先度の和で最終的な優先度、平均値で推奨値を求
めるようにしても良い。また、これらの演算に最近実用
化されつつあるファジー理論による推論システムを導入
する事も可能である。また、ルールの作成にニューラル
ネットワークの学習機能を利用する事や、制御そのもの
にニューラルネットを利用する事も可能である。ニュー
ラルネットを利用する場合には、入力に各検出信号を用
いあらかじめカメラの制作者が学習させておき、ユーザ
ーの使用時には、学習機能をもたせない簡略的なニュー
ラルネットの利用や、或いは、ユーザーの使用時に、ユ
ーザーの各露出制御値の変更・再設定のないように随時
学習機能を働かせる方法の2通りが考えられる。焦点の
深度から必要な絞り値を演算する場合には、公知の光学
系のニュートンの式と、ピントのずれと絞りの関係式か
ら求められる。ピントのずれdと絞り値Fと許容錯乱円
径δ(一般的には30〜50μm程度)は、mを撮影倍
率として、d=δ・F(1+m)である。この式はmが
小さい時には近似的に、d=δ・Fともできる。
In the above embodiment, the respective priorities are divided according to the cases, but the priorities and recommended values are determined and added for each item, and the final priorities are the sum of the respective priorities and the average values are recommended. The value may be obtained. It is also possible to introduce an inference system based on fuzzy theory, which has recently been put into practical use, into these operations. It is also possible to use the learning function of the neural network for creating rules, and the neural network for control itself. When using a neural network, the camera creator uses each detection signal as an input to let the camera learn in advance, and when the user uses it, it is possible to use a simple neural network that does not have a learning function, or There are two possible methods of activating the learning function at any time so that the user does not need to change or reset each exposure control value during use. When the required aperture value is calculated from the depth of focus, it is obtained from the known Newton's equation of the optical system and the relational expression of the focus shift and the aperture. The focus deviation d, the aperture value F, and the permissible circle of confusion diameter δ (generally about 30 to 50 μm) are d = δ · F (1 + m) where m is the photographing magnification. This equation can be approximately d = δ · F when m is small.

【0081】図15に於いて説明する。撮影レンズの前
側の主点から被写体までの長さをA、撮影レンズの後ろ
側主点から結像点(フィルム面に相当)までの長さを
B、撮影レンズの焦点距離をfとしたとき、f・f=A
・Bが成り立つ。
This will be described with reference to FIG. When the length from the principal point on the front side of the taking lens to the subject is A, the length from the principal point on the back side of the taking lens to the image forming point (corresponding to the film surface) is B, and the focal length of the taking lens is f , F · f = A
・ B holds.

【0082】被写体側で距離Dだけずれた点の像点の結
像点のずれをdとすれば、f・f=(A・D)・(B+
d)、故に、d=−D・f・f/{A・(A+D)}と
なり、f、Aが解れば、dがもとまり、F=d/δで絞
り値が定まる。Aについては、近似的に(被写体距離−
2・f)としてもある程度の距離が離れている場合には
誤差は少ない。
If the shift of the image formation point of the image point of the point shifted by the distance D on the subject side is d, then f.f = (A.D). (B +
d), therefore d = −D · f · f / {A · (A + D)}, and if f and A are known, d is determined and the aperture value is determined by F = d / δ. For A, approximately (subject distance −
Even if 2 · f), the error is small when the distance is a certain distance.

【0083】また、公知の被写体距離演算式 R(x)
=α/x+β+γ・xを用いている場合には(R被写体
のフィルムからの距離、xは繰り出し量、α、β、γは
係数)、D=R(x+d)−R(x)
Further, a known subject distance calculation formula R (x)
= Α / x + β + γ · x (distance of R subject from film, x is amount of extension, α, β, γ are coefficients), D = R (x + d) −R (x)

【0084】=−(α・d/{x・(x+d)}+γ・
d)、ここで、γ・dは、比較的小さい値のため無視し
て、d=D・x・x/(α+x・D)としてdを求め、
F=d/δとして絞り値を定めても良い。以下に、制御
露出量演算手段2の説明を行う。
=-(Α · d / {x · (x + d)} + γ ·
d), where γ · d is a relatively small value and is ignored, and d is obtained as d = D · x · x / (α + x · D),
The aperture value may be set as F = d / δ. The control exposure amount calculation means 2 will be described below.

【0085】まず、制御露出量演算手段2は、撮影状況
検出手段1からの、AV推奨値(Avs)、AV優先
度、TV推奨値(Tvs)、TV優先度、ガイドナンバ
ー制御ストロボ推奨値(ks)、ガイドナンバー制御ス
トロボ優先度、TTLストロボ優先度、プラス露出ずれ
許容値(Evp)、マイナス露出ずれ許容量(Ev
m)、主要被写体輝度(Bv)、主要被写体像速度(O
v)の信号を受け、制御AV値、制御TV値、ストロボ
ガイドナンバー値、TTLストロボ制御指令コードが演
算される。制御露出量の演算の為に公知のアペックス演
算式が使用される。
First, the control exposure amount calculation means 2 receives the AV recommended value (Avs), AV priority, TV recommended value (Tvs), TV priority, guide number control strobe recommended value (from the shooting situation detection means 1). ks), guide number control strobe priority, TTL strobe priority, plus exposure deviation allowance (Evp), minus exposure deviation allowance (Ev)
m), main subject brightness (Bv), main subject image velocity (O
In response to the signal v), the control AV value, control TV value, strobe guide number value, and TTL strobe control command code are calculated. A known apex arithmetic expression is used to calculate the control exposure amount.

【0086】基本的なアペックス演算式は、単位を[E
V]を表すと、主要被写体の輝度をBv、フィルム感度
をSv、露出の補正量をCv、絞り値をAv、シャッタ
ースピードをTvとすると、 Bv+Sv−Cv=Av+Tv … (1) と表わされる。また、ストロボのガイドナンバーをG、
被写体までの距離をDとしたとき、それぞれのアペック
ス表現をGv、Dvとすると、(べき乗を[^]で表
す) Gv=log2 (G^2) … (2) DV=log2 (D^2) … (3) (但し、G^2=G2 、D^2=D2 である。)とな
り、更に、露光量に対するストロボ光の光量の比をks
とすると、 (自然光光量)=(1-ks)・(2^Bv) ・{2^(Sv-Cv) }/
{(2^Av) ・(2^Tv)}…(4) (ストロボ光量)=ks・(2^Gv) ・{2^(Sv-Cv) }/
{(2^Av) ・(2^Dv) }…(5) となり、適正露光量の関係は、 log2 {(自然光光量)+(ストロボ光量)}=0 …(6) と記述できるので、更に、自然光とストロボの光量を考
慮したアぺックス演算式は、 Sv-Cv=Av−log2 [ks・{2^(Gv-Dv)-2 ^(Bv-Tv) }
+2 ^(Bv-Tv)]…(7) と表現される。ガイドナンバー制御ストロボ推奨値は上
記の露光量に対するストロボ光の光量の比と同等の信号
として処理される物とする。ks=0とした場合には、
式(1)は、式(6)から導かれる。露出の演算につい
て次の場合に分ける。 (a) AV優先度>TV優先度、ストロボ優先度なし (b) AV優先度>TV優先度、TTLストロボ優先
度あり (c) AV優先度>TV優先度、ガイドナンバー制御
ストロボ優先度あり (d) AV優先度<TV優先度、ストロボ優先度なし (e) AV優先度<TV優先度、TTLストロボ優先
度あり (f) AV優先度<TV優先度、ガイドナンバー制御
ストロボ優先度あり (g) AV優先度=TV優先度、ストロボ優先度なし (h) AV優先度=TV優先度、TTLストロボ優先
度あり (i) AV優先度=TV優先度、ガイドナンバー制御
ストロボ優先度あり まず(a)について説明する。この場合はアペックスの
演算式(6)より、ks=0の場合で、Tv値を求め
る。ところで、良い写真の条件として、露出量が正しい
という条件があるが、また、ぶれがないと言う事も非常
に重要な事である。主要被写体像速度(Ov)とシャッ
タースピードの関係について考える。
The basic apex arithmetic expression has a unit of [E
V], the luminance of the main subject is Bv, the film sensitivity is Sv, the exposure correction amount is Cv, the aperture value is Av, and the shutter speed is Tv. Bv + Sv−Cv = Av + Tv (1) Also, set the flash guide number to G,
When the distance to the subject is D, and the apex expressions are Gv and Dv, respectively (power is represented by [^]) Gv = log 2 (G ^ 2) (2) DV = log 2 (D ^ 2) (3) (However, G ^ 2 = G 2 , D ^ 2 = D 2 Is. ), And the ratio of the amount of strobe light to the amount of exposure is ks
Then, (amount of natural light) = (1-ks) ・ (2 ^ Bv) ・ {2 ^ (Sv-Cv)} /
{(2 ^ Av)-(2 ^ Tv)} ... (4) (Strobe light intensity) = ks- (2 ^ Gv)-{2 ^ (Sv-Cv)} /
{(2 ^ Av) * (2 ^ Dv)} ... (5), and the relation of the proper exposure amount can be described as log 2 {(natural light amount) + (strobe light amount)} = 0 (6), Furthermore, the apex arithmetic expression considering natural light and the amount of strobe light is Sv-Cv = Av-log 2 [ks ・ {2 ^ (Gv-Dv) -2 ^ (Bv-Tv)}
+ 2 ^ (Bv-Tv)] ... (7) The recommended guide number control strobe value is processed as a signal equivalent to the ratio of the amount of strobe light to the amount of exposure. When ks = 0,
Equation (1) is derived from equation (6). Exposure calculation is divided into the following cases. (A) AV priority> TV priority, no flash priority (b) AV priority> TV priority, TTL strobe priority (c) AV priority> TV priority, guide number control strobe priority ( d) AV priority <TV priority, no strobe priority (e) AV priority <TV priority, TTL strobe priority (f) AV priority <TV priority, guide number control strobe priority (g) ) AV priority = TV priority, without strobe priority (h) AV priority = TV priority, with TTL strobe priority (i) AV priority = TV priority, with guide number control strobe priority First (a ) Will be described. In this case, the Tv value is obtained from the Apex operation expression (6) when ks = 0. By the way, as a condition for good photography, there is a condition that the exposure amount is correct, but it is also very important that there is no blur. Consider the relationship between the main subject image speed (Ov) and the shutter speed.

【0087】図16はある被写体の像速度の時のシャッ
タースピード(TV値)による露光中の像ぶれ量を示す
グラフである。図16に示すように、あるシャッタース
ピードを高速にすれば、像ぶれは起きないといっても良
い。このシャッタースピードをTvbとする。図16で
は、被写体の像の像速度を、1[mm/S]として図示
してある。
FIG. 16 is a graph showing the amount of image blur during exposure depending on the shutter speed (TV value) at the image velocity of a certain subject. As shown in FIG. 16, it may be said that the image blur does not occur if a certain shutter speed is made high. This shutter speed is set to Tvb. In FIG. 16, the image velocity of the image of the subject is illustrated as 1 [mm / S].

【0088】また、像ぶれがないと判断出来る像ぶれの
大きさはぶれの分析から許容錯乱円径δレベルである事
が解った。それで、このぶれの無い限界のシャッタース
ピードTvbは、Tvb=log2 (δ/Ov)と求め
る事が出来る。図16の例では、許容錯乱円形δを50
[μm]とすれば、Tvb=log2 (0.05〔mm〕
/1[mm/S])となるから、これより約4.32
[EV]となる。制御露出値を決定する場合には、優先
される絞り値(Avs)とぶれの無いシャッタースピー
ド(Tvb)が考慮される。
From the analysis of blur, it was found from the analysis of blur that the size of the blur that can be judged as having no blur is the permissible circle of confusion diameter δ level. Therefore, the limit shutter speed Tvb without blur can be calculated as Tvb = log 2 (δ / Ov). In the example of FIG. 16, the permissible circle of confusion δ is 50
If [μm], then Tvb = log 2 (0.05 [mm]
/ 1 [mm / S]), so about 4.32 from this
It becomes [EV]. When determining the control exposure value, the priority aperture value (Avs) and the shake-free shutter speed (Tvb) are taken into consideration.

【0089】この場合の露出のプログラム線図を図17
に示す。ここでは、カメラの連動できる絞り値の開放口
径の絞り値を(Avo)、最大の絞り値を(Avm)、
最高速のシャッタースピードを(Tvm)、最低速のシ
ャッタースピードを(Tvo)とする。また、Lv=B
v+Sv−Cvとする。
FIG. 17 shows a program diagram of exposure in this case.
Shown in. Here, the aperture value of the open aperture of the aperture value that can be linked with the camera is (Avo), the maximum aperture value is (Avm),
The highest shutter speed is (Tvm) and the lowest shutter speed is (Tvo). Also, Lv = B
Let v + Sv-Cv.

【0090】露出に対して何とか許容できる露出のズレ
を、プラス露出ずれ許容値(Evp)、マイナス露出ず
れ許容値(Evm)と定めてあるので、{Tvo〜(T
vb−Evm)}のシャッタースピードの場合には、適
正露出に対して、Evmアンダーになるようにシャッタ
ースピードを高速側に補正する事で極力ぶれが生じない
ように補正演算を行う。また、{(Avs+Evp)〜
Avm}の範囲では、極力、狙いの絞り値による撮影が
可能なように、露出がEvp分オーバーになるように絞
り値をEvp補正する。図17の例では、優先される絞
り値(Avs)を8[EV]とした。演算の結果から制
御のための絞り値(Avc)、シャッタースピード(T
vc)、ストロボOFF信号が設定される。
Since the exposure deviation that can be tolerated with respect to the exposure is defined as the plus exposure deviation allowance value (Evp) and the minus exposure deviation allowance value (Evm), {Tvo- (T
In the case of the shutter speed of (vb-Evm)}, the corrective calculation is performed so as to prevent blurring as much as possible by correcting the shutter speed to a high speed side so that Evm is underexposed with respect to the proper exposure. In addition, {(Avs + Evp) ~
In the range of Avm}, the aperture value is Evp-corrected so that the exposure is over Evp so that the shooting can be performed with the target aperture value as much as possible. In the example of FIG. 17, the priority aperture value (Avs) is set to 8 [EV]. Aperture value (Avc) for control, shutter speed (T
vc), the strobe OFF signal is set.

【0091】(b)の場合は、ストロボのチャージが完
了していれば、絞り値をAVs、シャッタースピードを
連動値であるシンクロスピードTvxに設定する。すな
わち、制御のための絞り値(Avc)=Avs、シャッ
タースピード(Tvc)=Tvx、ストロボTTLON
信号が設定される。ストロボのチャージが未完了の場合
には、(a)と同様に制御される。
In the case of (b), if the charging of the strobe is completed, the aperture value is set to AVs and the shutter speed is set to the synchronized speed Tvx which is the interlocking value. That is, aperture value (Avc) = Avs, shutter speed (Tvc) = Tvx, strobe TTLON for control.
The signal is set. When the strobe charge is not completed, the control is performed in the same manner as in (a).

【0092】(c)の場合、ストロボのチャージが完了
していなければ、(a)と同様の制御を行う。完了して
いる場合には、絞り値をAVs、ストロボ光の比率を示
すksの値とシャッタースピードTvxを用いてガイド
ナンバーGvを演算する。そして、制御のための絞り値
(Avc)=Avs、シャッタースピート(Tvc)=
Tvx、ストロボガイドナンバー制御ON信号、制御ガ
イドナンバーGvを設定する。
In the case of (c), if the charging of the strobe is not completed, the same control as in (a) is performed. If it is completed, the guide number Gv is calculated using the aperture value AVs, the value ks indicating the ratio of strobe light, and the shutter speed Tvx. Aperture value (Avc) = Avs for control, shutter speed (Tvc) =
Tvx, strobe guide number control ON signal, and control guide number Gv are set.

【0093】(d)の場合、アペックスの演算式(6)
より、ks=0、シャッタースピードTvsの場合のA
v値を求める。この場合の露出のプログラム線図を図1
8に示す。例として、Tvs=5[EV]とした。露出
に対して何とか許容できる露出のズレを、プラス露出ず
れ許容値(Evp)、マイナス露出ずれ許容値(Ev
m)と定めてあるので、Av=Avoの場合には、適正
露出に対して、Evmアンダーになるようにシャッター
スピードを高速側に補正する事で極力ぶれが生じないよ
うに補正演算を行う。また、Av=Avmの場合には、
極力、狙いの絞り値による撮影が可能なように、露出が
Evp分オーバーになるようにシャッタースピードを補
正する。演算の結果から制御のための絞り値(Av
c)、シャッタースピード(Tvc)、ストロボOFF
信号が設定される。
In the case of (d), the arithmetic expression (6) of Apex
Therefore, A when ks = 0 and shutter speed Tvs
Find the v value. Figure 1 shows the program diagram of exposure in this case.
8 shows. As an example, Tvs = 5 [EV] is set. The exposure deviation that can be tolerated with respect to the exposure can be calculated as the plus exposure deviation allowance value (Evp) and the minus exposure deviation allowance value (Ev
Therefore, when Av = Avo, the corrective calculation is performed so as to prevent blurring as much as possible by correcting the shutter speed to a high speed side so that Evm is under the proper exposure. When Av = Avm,
The shutter speed is corrected so that the exposure is over Evp so that shooting with the desired aperture value is possible as much as possible. Aperture value for control (Av
c), shutter speed (Tvc), strobe off
The signal is set.

【0094】(e)の場合、ストロボのチャージが完了
していなければ、(d)と同様の制御を行う。チャージ
が完了していても、TvsがTvxより高速側であれ
ば、やはり(d)と同様である。チャージが完了してい
て、TvsがTvxより低速側であれば、アペックスの
演算式(6)より、ks=0、シャッタースピードTv
sの場合のAv値を求め、制御のための絞り値としま
た、シャッタースピードTvs、ストロボTTLON信
号が設定される。
In the case of (e), if the charging of the strobe is not completed, the same control as in (d) is performed. Even if the charging is completed, if Tvs is higher than Tvx, the process is the same as that of (d). If charging is completed and Tvs is lower than Tvx, ks = 0, shutter speed Tv is calculated from Apex's equation (6).
In the case of s, the Av value is obtained and used as the aperture value for control, and the shutter speed Tvs and the strobe TTLON signal are set.

【0095】(f)の場合、ストロボのチャージが完了
していなければ、(d)と同様の制御を行う。チャージ
が完了していても、TvsがTvxより高速側であれ
ば、やはり(d)と同様である。シャッターが連動でき
る場合、(d)と同様に演算を行い、ガイドナンバーを
被写体の距離と演算結果のAV値から求める。そして、
制御のための絞り値(Avc)、シャッタースピード
(Tvc)、ストロボガイドナンバー制御ON信号、制
御ガイドナンバーGvを設定する。
In the case of (f), if the charging of the strobe is not completed, the same control as in (d) is performed. Even if the charging is completed, if Tvs is higher than Tvx, the process is the same as that of (d). When the shutter can be linked, the same calculation as in (d) is performed, and the guide number is obtained from the subject distance and the AV value of the calculation result. And
The aperture value (Avc), shutter speed (Tvc), strobe guide number control ON signal, and control guide number Gv for control are set.

【0096】(g)の場合は撮影に大きな特徴が無い場
合であるが、この場合は従来どうりのプログラム線図を
用いて被写体の輝度に応じてAv値、Tv値を定める。
但し、演算されたTv値は、(a)と同様に、手ぶれ写
真を生じないように手ぶれ限界のシャッタースピードに
規制される。このプログラム線図を図19に示す。
In the case of (g), there is no great feature in photographing, but in this case, the Av value and the Tv value are determined according to the brightness of the object using a program diagram as in the conventional case.
However, the calculated Tv value is regulated to the shutter speed that is the limit of camera shake so that a camera shake photograph is not generated, as in (a). This program diagram is shown in FIG.

【0097】(h)、(i)の場合も(g)と同様に処
理され更に(b)、(c)に準じた形で制御のための絞
り値、シャッタースピード、ストロボ制御信号が設定さ
れる。次に、図20を参照して、露出制御部3の露光の
制御を説明する。
In the cases of (h) and (i), the same processing as in (g) is performed, and the aperture value, shutter speed, and strobe control signal for control are set in the form according to (b) and (c). It Next, the exposure control of the exposure control unit 3 will be described with reference to FIG.

【0098】露出制御部3は、制御露出演算手段2の出
力である制御のための絞り値(Avc)、シャッタース
ピード(Tvc)、ストロボTTLON信号、ストロボ
ガイドナンバー制御ON信号、制御ガイドナンバー信号
(Gv)に基づいて、絞り駆動装置、シャッター駆動装
置、ストロボ回路、ストロボ制御回路を用いて、露光の
制御を行う。
The exposure control section 3 is an output of the control exposure calculation means 2 for controlling the aperture value (Avc), shutter speed (Tvc), strobe TTL ON signal, strobe guide number control ON signal, control guide number signal ( Based on Gv), the aperture drive device, shutter drive device, strobe circuit, and strobe control circuit are used to control exposure.

【0099】ストロボ制御回路は、ストロボの制御信号
によって動作が変わる。また、ストロボTTLON信号
がある場合には、ストロボは公知のTTLダイレクト測
光を行う。さらに、ストロボガイドナンバー制御ON信
号がある場合には、ストロボは制御ガイドナンバー信号
(Gv)に基づいて、公知のガイドナンバー制御を行
う。
The operation of the strobe control circuit changes depending on the strobe control signal. If there is a strobe TTLON signal, the strobe performs known TTL direct photometry. Further, when there is a strobe guide number control ON signal, the strobe performs known guide number control based on the control guide number signal (Gv).

【0100】また、上記の例で示した、被写体の状況の
判断の出力等は、カメラの自動露出のために用いられる
だけでなく自動焦点検出等への応用も考えられる。例え
ば、撮影が記念写真か或いは高い芸術性を狙ったものか
により、焦点調節の達成レベル(焦点調節後の残留して
いるピントずれ量)を緩くしたり厳しくしたりする事が
出来る。
Further, the output of the judgment of the condition of the subject shown in the above example can be used not only for automatic exposure of the camera but also for automatic focus detection and the like. For example, the achievement level of focus adjustment (the amount of focus shift remaining after focus adjustment) can be loosened or stricter depending on whether the shooting is a commemorative photograph or one aimed at high artistry.

【0101】また、上記の実施例では、被写体のぶれの
検出の為に被写体の画像信号を用いた例を示したが、カ
メラの振動を検出するセンサー、例えば、角速度センサ
ーや加速度センサーを用いてカメラのぶれ、手ぶれを検
出しその大きさにより、ぶれの無い限界の低速シャッタ
ースピードを演算するようにすることも無論可能であ
る。
Further, in the above-mentioned embodiment, the example in which the image signal of the subject is used for detecting the blur of the subject is shown, but a sensor for detecting the vibration of the camera, for example, an angular velocity sensor or an acceleration sensor is used. Of course, it is also possible to detect camera shake and camera shake and calculate the slow shutter speed, which is the limit without shake, depending on the size of the camera shake.

【0102】さらに、ストロボの制御に関し、上記の例
で示したTTL制御、ガイドナンバー制御の外に、所
謂、後幕シンクロ、先幕シンクロの制御も被写体の状況
から自動判断させるようにしても良い。
Further, regarding the strobe control, in addition to the TTL control and the guide number control shown in the above example, the so-called rear curtain synchronization and front curtain synchronization may be automatically determined from the situation of the subject. ..

【0103】[0103]

【発明の効果】以上詳述したように、本発明において
は、撮影画面内の主要被写体に焦点を合わせかつ適性露
光を与えるために、主要被写体を正確に検出できるカメ
ラの主要被写体検出装置を提供することが可能である。
As described in detail above, the present invention provides a main subject detecting device for a camera which can accurately detect a main subject in order to focus on the main subject in a photographic screen and provide appropriate exposure. It is possible to

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の概略を示す図である。FIG. 1 is a diagram showing an outline of the present invention.

【図2】図1の各部の構成を詳細に示した図である。FIG. 2 is a diagram showing in detail the configuration of each part of FIG.

【図3】画像信号検出装置を構成するCCDの配置を示
す図である。
FIG. 3 is a diagram showing an arrangement of CCDs constituting an image signal detecting device.

【図4】縦横それぞれ9等分して81のエリアに分割さ
れた画面を示す図である。
FIG. 4 is a diagram showing a screen divided vertically and horizontally into nine equal parts and divided into 81 areas.

【図5】被写体の距離分布検出装置の構成を示す図であ
る。
FIG. 5 is a diagram showing a configuration of an object distance distribution detection device.

【図6】被写体の倍率分布検出装置の動作を説明するた
めの図である。
FIG. 6 is a diagram for explaining the operation of a magnification distribution detection device for a subject.

【図7】被写体の大きさ・形状分布検出装置の動作を説
明するための図である。
FIG. 7 is a diagram for explaining the operation of the object size / shape distribution detection device.

【図8】被写体の移動分布検出装置の動作を説明するた
めの図である。
FIG. 8 is a diagram for explaining the operation of the movement distribution detection device for a subject.

【図9】黄金分割によって縦横それぞれ9等分された画
面を示す図である。
FIG. 9 is a diagram showing a screen which is vertically and horizontally divided into nine equal parts by golden section.

【図10】主要被写体検出の動作を説明するためのフロ
−チャ−トである。
FIG. 10 is a flowchart for explaining an operation of detecting a main subject.

【図11】主要被写体エリア演算動作を説明するための
フロ−チャ−トである。
FIG. 11 is a flowchart for explaining a main subject area calculation operation.

【図12】被写体候補判定演算動作を説明するためのフ
ロ−チャ−トである。
FIG. 12 is a flowchart for explaining a subject candidate determination calculation operation.

【図13】主要被写体エリア演算動作を説明するための
フロ−チャ−トである。
FIG. 13 is a flowchart for explaining a main subject area calculation operation.

【図14】撮影状況検出演算動作を説明するためのフロ
−チャ−トである。
FIG. 14 is a flowchart for explaining a shooting condition detection calculation operation.

【図15】絞り値を決定する方法を説明するための図で
ある。
FIG. 15 is a diagram illustrating a method of determining an aperture value.

【図16】シャッタースピード(TV値)による露光中
の像ぶれ量を示すグラフである。
FIG. 16 is a graph showing an image blur amount during exposure according to a shutter speed (TV value).

【図17】露出のプログラム線図の一例を示す図であ
る。
FIG. 17 is a diagram showing an example of an exposure program diagram.

【図18】露出のプログラム線図の他の例を示す図であ
る。
FIG. 18 is a diagram showing another example of an exposure program diagram.

【図19】露出のプログラム線図の他の例を示す図であ
る。
FIG. 19 is a diagram showing another example of an exposure program diagram.

【図20】露出制御部の露光の制御動作を説明するため
の図である。
FIG. 20 is a diagram for explaining an exposure control operation of the exposure control unit.

【符号の説明】[Explanation of symbols]

1…撮影状況検出手段、2…制御露出量演算手段、3…
露出制御部、10…撮影状況検出演算手段、11…輝度
分布検出装置、12…距離分布検出装置、13…倍率分
布検出装置、14…大きさ・形状分布検出装置、15…
移動分布検出装置、16…感度・ラチチュ−ド検出装
置、17…主要被写体検出装置、18…撮影者補正デ−
タ記憶部、19…画像信号検出装置、20…焦点距離検
出装置。
1 ... Shooting situation detecting means, 2 ... Control exposure amount calculating means, 3 ...
Exposure control unit, 10 ... Shooting situation detection calculation means, 11 ... Luminance distribution detection device, 12 ... Distance distribution detection device, 13 ... Magnification distribution detection device, 14 ... Size / shape distribution detection device, 15 ...
Moving distribution detecting device, 16 ... Sensitivity / latitude detecting device, 17 ... Main subject detecting device, 18 ... Photographer correction data
Data storage unit, 19 ... Image signal detecting device, 20 ... Focal length detecting device.

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成3年12月26日[Submission date] December 26, 1991

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項1[Name of item to be corrected] Claim 1

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0008[Correction target item name] 0008

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0008】[0008]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明のカメラの主要被写体検出装置は、撮影画
面内の複数の点における彼写体の距離を出力する測距手
段と、この測距手段の出力から最至近距離の被写体を出
力する点を検出する第1の検出手段と、この最至近距離
の被写体を出力する点が、上記撮影画面内の中央部また
は画面を黄金分割するライン上であるか否かを判定する
判定手段と、この判定手段によって上記最至近距離を出
力する点が中央部または黄金分割ライン上にないと判定
された場合に、上記画面内の中央付近かつ黄金分割ライ
ン上の各点の中で最至近距離出力をする点を検出する第
2の検出手段と、上記判定手段で上記第1の検出手段で
検出された点が中央部または黄金分割ライン上にあると
判定された場合には、その点に主要被写体があると判断
し、上記第1の検出手段で検出された点が中央部または
黄金分割ライン上にないと判定された場合には、上記第
2の検出手段で検出された点に主要被写体があると判断
する。
In order to achieve the above-mentioned object, a main subject detecting device for a camera according to the present invention comprises distance measuring means for outputting the distances of his body at a plurality of points within a photographing screen, The first detecting means for detecting the point at which the object at the shortest distance is output from the output of the distance measuring means and the point at which the object at the closest distance is output are the golden section of the central portion of the photographing screen or the screen. And a judgment means for judging whether or not it is on the line, and in the case where it is judged by this judgment means that the point outputting the closest distance is not on the central part or on the golden section line, near the center in the screen. In addition, the second detection means for detecting the point that outputs the shortest distance among the points on the golden division line, and the point detected by the first detection means by the determination means is the central portion or the golden division line. If it is determined to be above If it is determined that there is a main subject at that point and the point detected by the first detecting means is not on the central portion or on the golden section line, it is detected by the second detecting means. It is determined that the main subject is at the point.

【手続補正3】[Procedure 3]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0009[Correction target item name] 0009

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0009】[0009]

【作用】すなわち、本発明においては、第1の検出手段
によって最至近距離の被写体を出力する点を検出し、こ
の最至近距離の彼写体を出力する点が上記撮影画面内の
中央部または画面を黄金分割するライン上であるか否か
を判定する。中央部または黄金分割ライン上にないと判
定された場合に、第2の検出手段によって上記画面内の
中央付近かつ黄金分割ライン上の各点の中で最至近距離
出力をする点をさらに検出する。そして、上記第1の検
出手段で検出された点が中央部または黄金分割ライン上
にあると判定された場合には、その点に主要被写体があ
ると判断し、上記第1の検出手段で検出された点が中央
部または黄金分割ライン上にないと判定された場合に
は、上記第2の検出手段で検出された点に主要被写体が
あると判断する。
That is, according to the present invention, the point at which the subject at the closest distance is output is detected by the first detecting means, and the point at which the image of the subject at the closest distance is output is at the center of the photographing screen or It is determined whether or not the screen is on the golden division line. When it is determined that the point is not on the central portion or on the golden section line, the second detecting means further detects the point which outputs the closest distance among the points near the center in the screen and on the golden section line. .. Then, when it is determined that the point detected by the first detecting means is on the central portion or on the golden section line, it is determined that the main subject exists at that point, and the point is detected by the first detecting means. When it is determined that the determined point is not on the central portion or on the golden section line, it is determined that the main subject exists at the point detected by the second detecting means.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 撮影画面内の複数の点における被写体の
距離を出力する測距手段と、 この測距手段の出力から最至近距離の被写体を出力する
点を検出する第1の検出手段と、 この最至近距離の被写体を出力する点が、上記撮影画面
内の中央部または画面を黄金分割するライン上であるか
否かを判定する判定手段と、 この判定手段によって上記最至近距離を出力する点が中
央部または黄金ライン上にないと判定された場合に、上
記画面内の中央付近かつ黄金分割ライン上の各点の中で
最至近距離出力をする点を検出する第2の検出手段と、 上記判定手段で上記第1の検出手段で検出された点が中
央部または黄金ライン上にあると判定された場合には、
その点に主要被写体があると判断し、上記第1の検出手
段で検出された点が中央部または黄金分割ライン上にな
いと判定された場合には、上記第2の検出手段で検出さ
れた点に主要被写体があると判断することを特徴とする
カメラの主要被写体検出装置。
1. A distance measuring means for outputting distances of a subject at a plurality of points on a photographing screen, and a first detecting means for detecting a point at which an object at the closest distance is outputted from the output of the distance measuring means. A determination unit that determines whether or not the point at which the subject at the closest distance is output is on the center portion of the photographing screen or on the line that divides the screen into the golden section, and the determination unit outputs the closest distance. Second detecting means for detecting a point that outputs the shortest distance among points on the golden division line near the center in the screen and when it is determined that the point is not on the central portion or on the golden line. When the determination means determines that the point detected by the first detection means is on the central portion or on the golden line,
If it is determined that there is a main subject at that point, and it is determined that the point detected by the first detecting means is not on the central portion or on the golden section line, it is detected by the second detecting means. A main subject detection device for a camera, characterized by determining that a main subject is present at a point.
JP27139091A 1991-10-18 1991-10-18 camera Expired - Fee Related JP3442409B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27139091A JP3442409B2 (en) 1991-10-18 1991-10-18 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27139091A JP3442409B2 (en) 1991-10-18 1991-10-18 camera

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003030873A Division JP2003279848A (en) 2003-02-07 2003-02-07 Main object detector

Publications (2)

Publication Number Publication Date
JPH05215958A true JPH05215958A (en) 1993-08-27
JP3442409B2 JP3442409B2 (en) 2003-09-02

Family

ID=17499404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27139091A Expired - Fee Related JP3442409B2 (en) 1991-10-18 1991-10-18 camera

Country Status (1)

Country Link
JP (1) JP3442409B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003195151A (en) * 2001-12-27 2003-07-09 Minolta Co Ltd Autofocus device
JP2008310072A (en) * 2007-06-15 2008-12-25 Nikon Corp Digital camera
JP2010527168A (en) * 2007-04-03 2010-08-05 ライフ タッチ インク. Background replacement method and apparatus for still photography
JP2012053029A (en) * 2010-08-05 2012-03-15 Ricoh Co Ltd Photometric/ranging device, photometric/ranging method, and image pickup apparatus having photometric/ranging device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003195151A (en) * 2001-12-27 2003-07-09 Minolta Co Ltd Autofocus device
JP2010527168A (en) * 2007-04-03 2010-08-05 ライフ タッチ インク. Background replacement method and apparatus for still photography
EP2143266B1 (en) * 2007-04-03 2020-02-19 Lifetouch Inc. Method and apparatus for background replacement in still photographs
JP2008310072A (en) * 2007-06-15 2008-12-25 Nikon Corp Digital camera
JP2012053029A (en) * 2010-08-05 2012-03-15 Ricoh Co Ltd Photometric/ranging device, photometric/ranging method, and image pickup apparatus having photometric/ranging device

Also Published As

Publication number Publication date
JP3442409B2 (en) 2003-09-02

Similar Documents

Publication Publication Date Title
JP7371081B2 (en) Night view photography methods, devices, electronic devices and storage media
US6301440B1 (en) System and method for automatically setting image acquisition controls
US7791655B2 (en) Imaging apparatus with function of shading compensation
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP2003344891A (en) Automatic photographing mode setting camera
JP2009139688A (en) Focus adjustment device and camera
JP2009212853A (en) White balance controller, its control method, and imaging apparatus
CN103888661A (en) Image pickup apparatus, image pickup system and method of controlling image pickup apparatus
CN101848327A (en) Camera head and image processing method
US9654684B2 (en) Focus adjustment device and focus adjustment method
CN1263280C (en) Camera
US20060170782A1 (en) Sequenced response image stabilization
JPH07288826A (en) Film picture reproduction device
JPH05215958A (en) Main object detecting device for camera
US5452047A (en) Automatic exposure controlling device for a camera
JP2008005355A (en) Image processing apparatus and image processing method
JP2003279848A (en) Main object detector
JP2007306436A (en) Imaging apparatus
JP2000184270A (en) Digital still video camera
JP4978129B2 (en) Exposure calculation device and camera
JP6554009B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND RECORDING MEDIUM
CN108024062A (en) Image processing method and image processing apparatus
JP2002300468A (en) Imaging device and method for controlling the same
JPH06308588A (en) Camera with camera-shake preventing function
JPH0951472A (en) Automatic exposure controller, automatic exposure control method and image pickup device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20021210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030603

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080620

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090620

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090620

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100620

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees