JP2003091723A - Image processor, image processing method and medium with image processing control program recorded thereon - Google Patents
Image processor, image processing method and medium with image processing control program recorded thereonInfo
- Publication number
- JP2003091723A JP2003091723A JP2002215392A JP2002215392A JP2003091723A JP 2003091723 A JP2003091723 A JP 2003091723A JP 2002215392 A JP2002215392 A JP 2002215392A JP 2002215392 A JP2002215392 A JP 2002215392A JP 2003091723 A JP2003091723 A JP 2003091723A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- feature amount
- image
- weighting
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 140
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000011867 re-evaluation Methods 0.000 claims description 27
- 238000000605 extraction Methods 0.000 claims description 22
- 239000011159 matrix material Substances 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 7
- 238000009826 distribution Methods 0.000 abstract description 56
- 235000019557 luminance Nutrition 0.000 description 62
- 238000000034 method Methods 0.000 description 31
- 238000010586 diagram Methods 0.000 description 25
- 238000006243 chemical reaction Methods 0.000 description 21
- 238000012937 correction Methods 0.000 description 14
- 238000005070 sampling Methods 0.000 description 12
- 238000007792 addition Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000005282 brightening Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 206010001854 Altered state of consciousness Diseases 0.000 description 1
- 101000795655 Canis lupus familiaris Thymic stromal cotransporter homolog Proteins 0.000 description 1
- 102100033040 Carbonic anhydrase 12 Human genes 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 101000867855 Homo sapiens Carbonic anhydrase 12 Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、デジタル写真画像
のような実写画像データに対して最適な画像処理を自動
的に実行する画像処理装置、画像処理方法、画像処理制
御プログラムを記録した媒体に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, an image processing method, and a medium in which an image processing control program is recorded, which automatically executes optimum image processing on real image data such as a digital photographic image. .
【0002】[0002]
【従来の技術】ディジタル画像データに対して各種の画
像処理が行われている。例えば、コントラストを拡大す
るものであるとか、色調を補正するものであるとか、明
るさを補正するといった画像処理である。これらの画像
処理は、通常、マイクロコンピュータで実行可能となっ
ており、操作者がモニタ上で画像を確認して必要な画像
処理を選択したり、画像処理のパラメータなどを決定し
ている。2. Description of the Related Art Various types of image processing are performed on digital image data. For example, image processing such as expanding the contrast, correcting the color tone, or correcting the brightness. Usually, these image processes can be executed by a microcomputer, and the operator confirms the image on the monitor and selects the necessary image process, and determines the image process parameters and the like.
【0003】[0003]
【発明が解決しようとする課題】近年、画像処理の技法
については各種のものが提案され、実際に効果を発揮し
ている。しかしながら、どの程度の処理を行うかとなる
と、依然、人間が関与しなければならない。これは、画
像処理の対象となるディジタル画像データにおいて、ど
こが重要であるのかを判断することができなかったため
である。In recent years, various types of image processing techniques have been proposed and are actually exerting their effects. However, when it comes to the extent of processing, humans must still be involved. This is because it was not possible to determine what is important in the digital image data to be image-processed.
【0004】例えば、明るさを補正する画像処理を考え
た場合、画面全体の平均が暗ければ明るく補正し、逆に
平均が明るければ暗く補正するという自動処理を考えた
とする。ここで、夜間撮影した人物像の実写画像データ
があるとする。背景は殆ど真っ暗に近いものの、人物自
体は良好に撮影できていたとする。この実写画像データ
を自動補正すると、背景が真っ暗であるがために画像全
体の平均は暗くなり、明るく補正してしまうので昼間の
画像のようになってしまう。For example, when considering the image processing for correcting the brightness, it is assumed that the automatic processing is performed so that the image is corrected to be bright if the average of the entire screen is dark and is corrected to be dark if the average of the entire screen is bright. Here, it is assumed that there is real image data of a person image taken at night. Although the background is almost black, it is assumed that the person was able to take good pictures. If this real shot image data is automatically corrected, the average of the entire image will be dark because the background is pitch dark, and the image will be corrected to be bright, resulting in a daytime image.
【0005】この場合、人間が関与していれば背景が暗
いことについては余り重きを置かずに考慮し、人物像の
部分だけに注目する。そして、人物像が暗ければ明るく
補正するし、逆に、フラッシュなどの効果で明る過ぎれ
ば暗くする補正を選択する。In this case, the fact that the background is dark if a human is involved is taken into consideration without giving much weight, and only the portion of the human figure is focused on. Then, if the person image is dark, it is corrected to be bright, and conversely, if the effect of flash or the like is too bright, the correction is made to be dark.
【0006】このように、従来の画像処理では実写画像
データの中の部分ごとに応じた重要度を判断することが
できないため、人間が関与しなければならないという課
題があった。As described above, the conventional image processing cannot judge the importance according to each part in the photographed image data, so that there is a problem that a human must be involved.
【0007】一方、何らかの手法で画像の重要度を判断
できるとしても、画素単位で判定していく作業であるか
ら、リアルタイムに重要度を変えて作業を進めていくの
は演算量の増大を招いてしまう。On the other hand, even if the importance of the image can be judged by some method, since the judgment is made in pixel units, changing the importance in real time to proceed with the work leads to an increase in the amount of calculation. I will leave.
【0008】本発明は、上記課題にかんがみてなされた
もので、デジタル写真画像のような実写画像データにお
いて比較的簡易に重要度を考慮し、自動的に最適な画像
処理を実行することが可能な画像処理装置、画像処理方
法、画像処理制御プログラムを記録した媒体の提供を目
的とする。The present invention has been made in view of the above problems, and it is possible to automatically execute optimum image processing in consideration of importance in actual image data such as a digital photographic image. An image processing apparatus, an image processing method, and a medium in which an image processing control program is recorded are provided.
【0009】[0009]
【課題を解決するための手段】上記目的を達成するた
め、請求項1にかかる発明は、ドットマトリクス状の画
素からなる実写画像データを入力して所定の画像処理を
行う画像処理装置であって、画像処理強度を判定するに
あたって必要な各画素の特徴量を全画面にわたって均等
に抽出する特徴量均等抽出手段と、この特徴量均等抽出
手段で抽出した特徴量を所定の重み付けによって再評価
する特徴量重み付け再評価手段と、この再評価された特
徴量に基づいて画像処理強度を決定して画像処理する処
理手段とを具備する構成としてある。In order to achieve the above-mentioned object, the invention according to claim 1 is an image processing apparatus for inputting real photographed image data composed of pixels in a dot matrix form and performing predetermined image processing. , A feature quantity equality extraction means for uniformly extracting the feature quantity of each pixel necessary for determining the image processing intensity over the entire screen, and a feature for re-evaluating the feature quantity extracted by the feature quantity equality extraction means by predetermined weighting It is configured to include an amount weighting re-evaluation means and a processing means for performing image processing by determining the image processing intensity based on the re-evaluated feature amount.
【0010】上記のように構成した請求項1にかかる発
明においては、実写画像データがドットマトリクス状の
画素からなり、特徴量均等抽出手段は画像処理強度を判
定するにあたって必要な各画素の特徴量を全画面にわた
って均等に抽出する。そして、特徴量重み付け再評価手
段は、この特徴量均等抽出手段で抽出した特徴量を所定
の重み付けによって再評価する。そして、処理手段は、
このようにして再評価によって得られた特徴量に基づい
て画像処理強度を決定して画像処理する。In the invention according to claim 1 configured as described above, the actually photographed image data is composed of pixels in a dot matrix form, and the feature quantity uniform extraction means is the feature quantity of each pixel necessary for judging the image processing intensity. Are extracted evenly over the entire screen. Then, the feature amount weighting re-evaluation means re-evaluates the feature amount extracted by the feature amount equalizing extraction means by predetermined weighting. And the processing means is
In this way, the image processing intensity is determined based on the feature amount obtained by the re-evaluation and image processing is performed.
【0011】すなわち、抽出段階では全画面にわたって
均等に行ない、抽出後に所定の重み付けを行なうので、
結果として得られる特徴量は画像全体にわたって均等に
得られたものとは異なるものとなる。That is, in the extraction stage, the whole screen is uniformly distributed, and a predetermined weighting is performed after the extraction.
The resulting features will differ from those obtained uniformly over the entire image.
【0012】特徴量均等抽出手段は画像処理強度を判定
するにあたって必要な各画素の特徴量を抽出するもので
あり、全画面にわたって均等に抽出する。この場合、全
画面の全画素について抽出するものであってもよいし、
また、全画素ではなくても均等に抽出すればよい。後者
の一例として、請求項2にかかる発明は、請求項1に記
載の画像処理装置において、上記特徴量均等抽出手段
は、全画素に対して所定の基準で均等に間引きして選択
した画素について上記特徴量を抽出する構成としてあ
る。The feature amount uniform extraction means extracts the feature amount of each pixel necessary for determining the image processing strength, and extracts it evenly over the entire screen. In this case, all pixels of the entire screen may be extracted,
Further, even if not all pixels are extracted, it may be extracted uniformly. As an example of the latter, the invention according to claim 2 is the image processing apparatus according to claim 1, wherein the feature amount equalizing extraction unit selects pixels that are thinned out evenly by a predetermined reference with respect to all pixels. The feature quantity is extracted.
【0013】上記のように構成した請求項2にかかる発
明においては、全画素に対して所定の基準で均等に間引
きすることにより、処理される画素数が減り、この減っ
た画素に対して上記特徴量を抽出する。In the invention according to claim 2 configured as described above, the number of pixels to be processed is reduced by uniformly thinning out all the pixels on the basis of a predetermined reference. Extract feature quantities.
【0014】この場合、均等な間引きには、一定周期で
間引いて選択するものも含まれるし、ランダムに選択し
て間引きするものも含まれる。In this case, the uniform thinning includes a thinning and selecting in a fixed cycle, and a random selecting and thinning.
【0015】特徴量重み付け再評価手段は抽出された特
徴量を所定の重み付けによって再評価するが、抽出され
る特徴量が画素単位であるのに対応して画素単位の重み
付けを行っても良いし、適当なひとまとまりごとに重み
付けを行っても良い。後者の一例として、請求項3にか
かる発明は、請求項1または請求項2のいずれかに記載
の画像処理装置において、上記特徴量均等抽出手段は、
画像を所定の基準で分割した領域単位で特徴量の抽出を
行ない、上記特徴量重み付け再評価手段は、同領域毎に
重み付けを設定して上記特徴量を再評価する構成として
ある。The feature amount weighting re-evaluation means re-evaluates the extracted feature amount by a predetermined weighting. However, the extracted feature amount may be weighted in pixel units corresponding to pixel units. Alternatively, weighting may be performed for each suitable group. As an example of the latter, the invention according to claim 3 is the image processing apparatus according to claim 1 or 2, wherein the feature amount equalizing extraction means is
The feature amount is extracted for each region obtained by dividing the image according to a predetermined criterion, and the feature amount weighting re-evaluation means sets weighting for each region and re-evaluates the feature amount.
【0016】上記のように構成した請求項3にかかる発
明においては、画像を所定の基準で分割した領域単位の
重み付けを前提としており、特徴量均等抽出手段はこの
ような領域単位で特徴量の抽出を行なうし、上記特徴量
重み付け再評価手段は同領域毎に設定されている重み付
けで各領域ごとの特徴量を再評価する。In the invention according to claim 3 configured as described above, it is premised that the image is divided on a region basis by dividing the image by a predetermined reference, and the feature quantity uniform extraction means calculates the feature quantity on a region basis. Extraction is performed, and the feature amount weighting re-evaluation means re-evaluates the feature amount for each area with the weighting set for each area.
【0017】このような領域の分割は、常に一定であっ
ても良いし、画像毎に変化させても良い。この場合、画
像の内容に応じて分割方法を変えるようにしても良い。The division of the area may be constant or may be changed for each image. In this case, the division method may be changed according to the content of the image.
【0018】この重み付け手法は各種のものを採用可能
であり、単なる均等なサンプリングにとどまらないよう
な再評価が行われるものであればよい。Various weighting methods can be adopted, and any method can be used as long as re-evaluation is performed so as not to be merely uniform sampling.
【0019】その一例として、請求項4にかかる発明
は、請求項1〜請求項3のいずれかに記載の画像処理装
置において、上記特徴量重み付け再評価手段は、画像に
対する各画素の位置によって定まる対応関係で上記重み
付けを変化させる構成としてある。As an example thereof, the invention according to claim 4 is the image processing apparatus according to any one of claims 1 to 3, wherein the feature amount weighting re-evaluation means is determined by the position of each pixel with respect to the image. The weighting is changed according to the correspondence.
【0020】写真の構図を考えた場合、人物像は中央に
位置させることが多い。従って、画像全体から特徴量を
均等に抽出した後、中央部分の特徴量の重みを重くして
重み付けすると、結果的に人物像の画素から抽出された
特徴量は大きく評価される。When considering the composition of a photograph, the person image is often located in the center. Therefore, if the feature amount is uniformly extracted from the entire image and then the weight of the feature amount in the central portion is increased, the feature amount extracted from the pixels of the human image is highly evaluated.
【0021】上記のように構成した請求項4にかかる発
明においては、例えば画像の中央部分の重み付けを重く
するとともに、周囲の重み付けを軽くするように決めて
おいた場合、特徴量重み付け再評価手段は画像に対する
各画素の位置を判断し、この位置によって変化する重み
付けを利用して再評価する。In the invention according to claim 4 configured as described above, for example, when it is determined that the central portion of the image is weighted heavily and the surrounding weights are lightened, the feature amount weighting re-evaluation means Determines the position of each pixel with respect to the image and re-evaluates using the weighting that changes depending on this position.
【0022】また、重み付け手法の他の一例として、請
求項5にかかる発明は、請求項1〜請求項4のいずれか
に記載の画像処理装置において、上記特徴量重み付け再
評価手段は、画像の変化度合いを求めるとともに、画像
の変化度合いが大きい部分で上記重み付けを重くする構
成としてある。As another example of the weighting method, the invention according to claim 5 is the image processing apparatus according to any one of claims 1 to 4, wherein the feature amount weighting re-evaluation means is In addition to obtaining the degree of change, the weighting is made heavier in the portion where the degree of change of the image is large.
【0023】上記のように構成した請求項5にかかる発
明においては、特徴量重み付け再評価手段が再評価を行
う前に画像の変化度合いを求める。画像の変化度合いは
画像のシャープさともいえ、ピントがあっている画像ほ
ど輪郭部分がはっきりしているので変化度合いは大き
い。逆にピントが合っていないと画像の輪郭部分では徐
々に画像が変化することになり、変化度合いは小さくな
る。写真などであればピントが合っている部分が本来的
な被写体であってピントがあっていない部分は背景など
と同等と考えられる。このため、画像の変化度合いが大
きな所は本来的な被写体と考えられ、特徴量重み付け再
評価手段はこのような画像の変化度合いの大きい部分で
重み付けを重くして評価することにより、多くの特徴量
を抽出したのと同等の結果を得る。In the invention according to claim 5 configured as described above, the degree of change of the image is obtained before the feature amount re-evaluation means performs the re-evaluation. It can be said that the degree of change of the image is the sharpness of the image, and the more the image is in focus, the more clearly the contour portion is, so the degree of change is large. On the contrary, if the image is out of focus, the image gradually changes in the contour portion of the image, and the degree of change becomes small. In a photograph or the like, the part in focus is the original subject, and the part out of focus is considered to be equivalent to the background. For this reason, it is considered that the place where the degree of change of the image is large is the original subject, and the feature amount weighting re-evaluation means evaluates by weighting the portion where the degree of change of the image is large to evaluate many features. The result is equivalent to extracting the quantity.
【0024】また、さらなる他の一例として、請求項6
にかかる発明は、請求項1〜請求項5のいずれかに記載
の画像処理装置において、上記特徴量重み付け再評価手
段は、各画素の色度を求めるとともに、同色度が特徴量
を抽出しようとするターゲットの色度の範囲に入る画素
数を求め、この画素数が多い部分で上記重み付けを重く
する構成としてある。As still another example, claim 6
In the image processing device according to any one of claims 1 to 5, the feature amount weighting re-evaluation unit obtains the chromaticity of each pixel and extracts the feature amount with the same chromaticity. The number of pixels within the range of chromaticity of the target to be obtained is determined, and the weighting is made heavy in the portion where the number of pixels is large.
【0025】上記のように構成した請求項6にかかる発
明においては、特徴量重み付け再評価手段は各画素の色
度を求める。画像処理では特定の色によって物体を特定
できることがある。例えば、人物であれば肌色の部分を
探すことによってターゲットと判断して差し支えない。
しかしながら、通常の色画像データであれば明るさの要
素も含まれているので肌色を特定することは難しい。こ
れに対して色度は色の刺激値の絶対的な割合を表してお
り、明るさには左右されない。従って、肌色の取りうる
色度の範囲に入っていれば人物像の画素と判断できる。
むろん、肌色以外にも、木々の緑色の取りうる範囲であ
るとか青空の青色が取りうる範囲といったものでも同様
のことが言える。In the invention according to claim 6 configured as described above, the feature amount weighting re-evaluation means obtains the chromaticity of each pixel. In image processing, an object may be identified by a particular color. For example, a person may be determined as a target by searching for a skin-colored portion.
However, it is difficult to specify the skin color because the normal color image data also includes the brightness element. On the other hand, chromaticity represents an absolute ratio of color stimulus values and is not affected by brightness. Therefore, if it is within the range of chromaticity that the skin color can take, it can be determined that it is a pixel of a human image.
Of course, in addition to the skin color, the same applies to the range of the green range of the trees and the range of the blue color of the blue sky.
【0026】このような背景のもとで、特徴量重み付け
再評価手段は各画素について求めた色度が特徴量を抽出
しようとするターゲットの色度の範囲に入る場合に画素
数をカウントし、この画素数が多い部分はターゲットで
あると判断して重み付けを重くし、ターゲットから多く
の特徴量を抽出したのと同様の結果を得る。Under such a background, the feature weight re-evaluation means counts the number of pixels when the chromaticity obtained for each pixel falls within the range of the chromaticity of the target from which the feature is extracted, A portion having a large number of pixels is determined to be a target, weighted heavily, and a result similar to that obtained by extracting a large amount of feature amounts from the target is obtained.
【0027】以上のような重み付けの手法は必ずしも択
一的なものではないが、重複適用する場合の好適な一例
として、請求項7にかかる発明は、請求項1〜請求項6
のいずれかに記載の画像処理装置において、上記特徴量
重み付け再評価手段は、複数の要素に基づいて個別に仮
の重み付け係数を求めるとともに、さらに、これらを重
要度に応じた重み付けで加算して最終的な重み付け係数
として適用する構成としてある。Although the weighting method as described above is not necessarily an alternative method, the invention according to claim 7 is a preferred example in the case of overlapping application.
In the image processing device according to any one of the above, the feature amount weighting re-evaluation means obtains a temporary weighting coefficient individually based on a plurality of elements, and further adds these with weighting according to importance. The configuration is applied as a final weighting coefficient.
【0028】上記のように構成した請求項7にかかる発
明においては、特徴量重み付け再評価手段は、複数の要
素に基づいて個別に仮の重み付け係数を求める。そし
て、さらに、これらを重要度に応じた重み付けで加算
し、最終的な重み付け係数として抽出した特徴量を再評
価する。従って、一つの重み付け手法によって評価され
た段階では大きな重み付けを与えられたとしても、その
重み付け手法の重要度が低ければ結果としては大きな重
み付けは与えられないということもある。また、重み付
け手法毎に大きな差のあるものに対して全般的に平均以
上に重み付けを評価されたものが最終的な重み付けも多
いといったようなことが起こる。In the invention according to claim 7 configured as described above, the feature amount weighting re-evaluation means individually obtains a temporary weighting coefficient based on a plurality of elements. Then, these are added with weighting according to the importance, and the feature quantity extracted as the final weighting coefficient is re-evaluated. Therefore, even if a large weight is given at the stage evaluated by one weighting method, if the importance of the weighting method is low, a large weight may not be given as a result. In addition, there are many cases where final weighting is often performed on the weighting methods that have a large difference between the weighting methods and that are generally evaluated for weighting above the average.
【0029】抽出段階では全画面にわたって均等に行な
い、抽出後に所定の重み付けを行なう手法は、必ずしも
実体のある装置に限られる必要もなく、その一例とし
て、請求項8にかかる発明は、ドットマトリクス状の画
素からなる実写画像データを入力して所定の画像処理を
行う画像処理方法であって、画像処理強度を判定するに
あたって必要な各画素の特徴量を全画面にわたって均等
に抽出する工程と、この抽出した特徴量を所定の重み付
けによって再評価する工程と、この再評価された特徴量
に基づいて画像処理強度を決定して画像処理する工程と
を備えた構成としてある。The method of performing the weighting evenly over the entire screen in the extraction step and performing the predetermined weighting after extraction need not necessarily be limited to a substantial device. As an example, the invention according to claim 8 is the dot matrix form. An image processing method for inputting real shot image data consisting of pixels of a predetermined image processing, and extracting the feature amount of each pixel required for determining the image processing intensity evenly over the entire screen, The configuration is provided with a step of re-evaluating the extracted feature amount by predetermined weighting, and a step of determining image processing intensity based on the re-evaluated feature amount and performing image processing.
【0030】すなわち、必ずしも実体のある装置に限ら
ず、その方法としても有効であることに相違はない。That is, it is not limited to a substantial device, and there is no difference in that the method is effective.
【0031】ところで、上述したように重み付けで特徴
量を再評価して画像処理する画像処理装置は単独で存在
する場合もあるし、ある機器に組み込まれた状態で利用
されることもあるなど、発明の思想としては各種の態様
を含むものである。また、ハードウェアで実現された
り、ソフトウェアで実現されるなど、適宜、変更可能で
ある。By the way, as described above, the image processing apparatus for re-evaluating the feature quantity by weighting and performing the image processing may exist alone, or may be used in a state of being incorporated in a certain device. The idea of the invention includes various aspects. Further, it can be changed as appropriate, such as being realized by hardware or software.
【0032】発明の思想の具現化例として画像処理装置
を制御するソフトウェアとなる場合には、かかるソフト
ウェアを記録した記録媒体上においても当然に存在し、
利用されるといわざるをえない。In the case of software for controlling the image processing apparatus as an example of embodying the idea of the invention, it naturally exists even on a recording medium recording such software,
There is no choice but to say that it will be used.
【0033】その一例として、請求項9にかかる発明
は、コンピュータにてドットマトリクス状の画素からな
る実写画像データを入力して所定の画像処理を行う画像
処理制御プログラムを記録した媒体であって、画像処理
強度を判定するにあたって必要な各画素の特徴量を全画
面にわたって均等に抽出するとともに、この抽出した特
徴量を所定の重み付けによって再評価し、この再評価さ
れた特徴量に基づいて画像処理強度を決定して画像処理
する構成としてある。As an example thereof, the invention according to claim 9 is a medium in which an image processing control program for inputting actually photographed image data consisting of pixels in a dot matrix form to a computer to perform predetermined image processing is recorded. The feature amount of each pixel necessary for determining the image processing intensity is uniformly extracted over the entire screen, the extracted feature amount is re-evaluated by predetermined weighting, and the image processing is performed based on the re-evaluated feature amount. The intensity is determined and image processing is performed.
【0034】むろん、その記録媒体は、磁気記録媒体で
あってもよいし光磁気記録媒体であってもよいし、今後
開発されるいかなる記録媒体においても全く同様に考え
ることができる。また、一次複製品、二次複製品などの
複製段階については全く問う余地無く同等である。その
他、供給方法として通信回線を利用して行う場合でも本
発明が利用されていることには変わりないし、半導体チ
ップに書き込まれたようなものであっても同様である。Of course, the recording medium may be a magnetic recording medium or a magneto-optical recording medium, and any recording medium developed in the future can be considered in exactly the same manner. In addition, the duplication stage of the primary duplication product, the secondary duplication product, and the like is absolutely the same. In addition, the present invention is used even when a communication line is used as a supply method, and the same applies to a case where the present invention is written in a semiconductor chip.
【0035】さらに、一部がソフトウェアであって、一
部がハードウェアで実現されている場合においても発明
の思想において全く異なるものはなく、一部を記録媒体
上に記憶しておいて必要に応じて適宜読み込まれるよう
な形態のものとしてあってもよい。Further, even when a part is software and a part is realized by hardware, there is no difference in the idea of the invention, and it is necessary to store a part on a recording medium. It may be in such a form that it is read as appropriate.
【0036】[0036]
【発明の効果】以上説明したように本発明は、抽出段階
では全画面にわたって均等に行なうので演算処理量を多
くせず、また、抽出後に所定の重み付けを行なうことに
よって単に均等に抽出してしまった場合のような的外れ
な評価を行うことが無くなり、自動的に最適な画像処理
を行うことが可能な画像処理装置を提供することができ
る。As described above, the present invention does not increase the amount of calculation processing because it is performed evenly over the entire screen in the extraction stage, and the extraction is simply performed uniformly by performing a predetermined weighting after extraction. It is possible to provide an image processing apparatus capable of automatically performing optimum image processing without performing irrelevant evaluation as in the case of the above.
【0037】また、請求項2にかかる発明によれば、均
等に特徴量を抽出する時点で画素を間引いているため、
処理量を減らすことができる。According to the second aspect of the present invention, the pixels are thinned out at the time of evenly extracting the feature quantity.
The amount of processing can be reduced.
【0038】さらに、請求項3にかかる発明によれば、
領域毎に重み付けを変化させるので、演算が比較的容易
となる。Further, according to the invention of claim 3,
Since the weighting is changed for each area, the calculation becomes relatively easy.
【0039】さらに、請求項4にかかる発明によれば、
重み付けが画素の位置によって決まるため、演算が比較
的容易となる。Further, according to the invention of claim 4,
Since the weighting is determined by the position of the pixel, the calculation becomes relatively easy.
【0040】さらに、請求項5にかかる発明によれば、
画像のシャープさによって重み付けを変えるため、個々
の画像によって異なるターゲットを正確に判別して特徴
量を抽出することができる。Further, according to the invention of claim 5,
Since the weighting is changed according to the sharpness of the image, different targets can be accurately discriminated for each image and the feature amount can be extracted.
【0041】さらに、請求項6にかかる発明によれば、
色度によって特定の対象を選別できるので、個々の画像
によって異なるターゲットを正確に判別して特徴量を抽
出することができる。Further, according to the invention of claim 6,
Since a specific target can be selected according to chromaticity, different targets can be accurately discriminated from each image to extract a feature amount.
【0042】さらに、請求項7にかかる発明によれば、
複数の重み付け手法を適宜組み合わせてより好適な特徴
量の評価を行うことができる。Further, according to the invention of claim 7,
A more suitable evaluation of the feature amount can be performed by appropriately combining a plurality of weighting methods.
【0043】さらに、請求項8にかかる発明によれば、
演算量が少なく、かつ、最適な評価で画像処理を行うこ
とが可能な画像処理方法を提供でき、請求項9にかかる
発明によれば、同様の効果を得られる画像処理制御プロ
グラムを記録した媒体を提供できる。Further, according to the invention of claim 8,
It is possible to provide an image processing method that requires a small amount of calculation and is capable of performing image processing with optimal evaluation. According to the invention of claim 9, a medium recording an image processing control program that can achieve the same effect. Can be provided.
【0044】[0044]
【発明の実施の形態】以下、図面にもとづいて本発明の
実施形態を説明する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.
【0045】図1は、本発明の一実施形態にかかる画像
処理装置を適用した画像処理システムをブロック図によ
り示しており、図2は具体的ハードウェア構成例を概略
ブロック図により示している。FIG. 1 is a block diagram showing an image processing system to which an image processing apparatus according to an embodiment of the present invention is applied, and FIG. 2 is a schematic block diagram showing a concrete hardware configuration example.
【0046】図1において、画像入力装置10は写真な
どをドットマトリクス状の画素として表した実写画像デ
ータを画像処理装置20へ出力し、同画像処理装置20
は所定の処理を経て画像処理の強調程度を決定してから
画像処理を実行する。同画像処理装置20は画像処理し
た画像データを画像出力装置30へ出力し、画像出力装
置30は画像処理された画像をドットマトリクス状の画
素で出力する。ここにおいて、画像処理装置20が出力
する画像データは、各画素から所定の基準で均等に特徴
量を抽出した後、所定の重み付けで特徴量を再評価し、
再評価された特徴量に応じて決定された強調程度で画像
処理されたものである。従って、画像処理装置20は、
このようにして特徴量を均等に抽出する特徴量均等抽出
手段と、抽出された特徴量を所定の重み付けで再評価す
る特徴量重み付け再評価手段と、再評価された特徴量に
応じた強調程度で画像処理する処理手段とを備えてい
る。In FIG. 1, the image input device 10 outputs the photographed image data representing a photograph or the like as pixels in a dot matrix to the image processing device 20, and the image processing device 20.
Performs the image processing after determining the emphasis degree of the image processing through a predetermined process. The image processing apparatus 20 outputs the image-processed image data to the image output apparatus 30, and the image output apparatus 30 outputs the image-processed image by the dot matrix pixels. Here, in the image data output by the image processing device 20, after the feature amount is uniformly extracted from each pixel according to a predetermined reference, the feature amount is re-evaluated with a predetermined weight,
The image is processed with the degree of emphasis determined according to the re-evaluated feature amount. Therefore, the image processing device 20
In this way, the feature amount uniform extraction means for uniformly extracting the feature amount, the feature amount weighting re-evaluation means for re-evaluating the extracted feature amount with predetermined weighting, and the emphasis degree according to the re-evaluated feature amount. And processing means for image processing.
【0047】画像入力装置10の具体例は図2における
スキャナ11やデジタルスチルカメラ12あるいはビデ
オカメラ14などが該当し、画像処理装置20の具体例
はコンピュータ21とハードディスク22とキーボード
23とCD−ROMドライブ24とフレキシブルディス
クドライブ25とモデム26などからなるコンピュータ
システムが該当し、画像出力装置30の具体例はプリン
タ31やディスプレイ32等が該当する。本実施形態の
場合、画像処理としてオブジェクトを見つけて適切な画
像処理を行なうものであるため、画像データとしては写
真などの実写データが好適である。なお、モデム26に
ついては公衆通信回線に接続され、外部のネットワーク
に同公衆通信回線を介して接続し、ソフトウェアやデー
タをダウンロードして導入可能となっている。A specific example of the image input device 10 corresponds to the scanner 11, the digital still camera 12 or the video camera 14 in FIG. 2, and a specific example of the image processing device 20 is a computer 21, a hard disk 22, a keyboard 23 and a CD-ROM. A computer system including a drive 24, a flexible disk drive 25, a modem 26, and the like corresponds to the image output device 30, and a specific example of the image output device 30 includes a printer 31, a display 32, and the like. In the case of the present embodiment, since the object is found as the image processing and the appropriate image processing is performed, the photographed data such as a photograph is suitable as the image data. It should be noted that the modem 26 is connected to a public communication line and can be connected to an external network via the same public communication line so that software and data can be downloaded and introduced.
【0048】本実施形態においては、画像入力装置10
としてのスキャナ11やデジタルスチルカメラ12が画
像データとしてRGB(緑、青、赤)の階調データを出
力するとともに、画像出力装置30としてのプリンタ3
1は階調データとしてCMY(シアン、マゼンダ、イエ
ロー)あるいはこれに黒を加えたCMYKの二値データ
を入力として必要とするし、ディスプレイ32はRGB
の階調データを入力として必要とする。一方、コンピュ
ータ21内ではオペレーティングシステム21aが稼働
しており、プリンタ31やディスプレイ32に対応した
プリンタドライバ21bやディスプレイドライバ21c
が組み込まれている。また、画像処理アプリケーション
21dはオペレーティングシステム21aにて処理の実
行を制御され、必要に応じてプリンタドライバ21bや
ディスプレイドライバ21cと連携して所定の画像処理
を実行する。従って、画像処理装置20としてのこのコ
ンピュータ21の具体的役割は、RGBの階調データを
入力して最適な画像処理を施したRGBの階調データを
作成し、ディスプレイドライバ21cを介してディスプ
レイ32に表示させるとともに、プリンタドライバ21
bを介してCMY(あるいはCMYK)の二値データに
変換してプリンタ31に印刷させることになる。In the present embodiment, the image input device 10
The scanner 11 or the digital still camera 12 as an output outputs RGB (green, blue, red) gradation data as image data, and the printer 3 as an image output device 30.
1 requires CMY (cyan, magenta, yellow) or CMYK binary data in which black is added as input as gradation data, and the display 32 displays RGB.
The gradation data of is required as an input. On the other hand, the operating system 21a is running in the computer 21, and the printer driver 21b and the display driver 21c corresponding to the printer 31 and the display 32 are provided.
Is built in. The image processing application 21d is controlled by the operating system 21a to execute processing, and executes predetermined image processing in cooperation with the printer driver 21b and the display driver 21c as necessary. Therefore, the specific role of the computer 21 as the image processing apparatus 20 is to input RGB gradation data to create RGB gradation data that has been subjected to optimum image processing, and to display it through the display driver 21c to the display 32. And the printer driver 21
It is converted into CMY (or CMYK) binary data via b and printed by the printer 31.
【0049】このように、本実施形態においては、画像
の入出力装置の間にコンピュータシステムを組み込んで
画像処理を行うようにしているが、必ずしもかかるコン
ピュータシステムを必要とするわけではなく、画像デー
タに対して各種の画像処理を行うシステムであればよ
い。例えば、図3に示すようにデジタルスチルカメラ1
2a内にオブジェクトを判断して画像処理する画像処理
装置を組み込み、変換した画像データを用いてディスプ
レイ32aに表示させたりプリンタ31aに印字させる
ようなシステムであっても良い。また、図4に示すよう
に、コンピュータシステムを介することなく画像データ
を入力して印刷するプリンタ31bにおいては、スキャ
ナ11bやデジタルスチルカメラ12bあるいはモデム
26b等を介して入力される画像データから自動的にオ
ブジェクトを判断して画像処理するように構成すること
も可能である。As described above, in the present embodiment, a computer system is incorporated between image input / output devices to perform image processing. However, such a computer system is not necessarily required, and image data is not necessarily required. Any system may be used as long as it performs various kinds of image processing. For example, as shown in FIG.
It is also possible to have a system in which an image processing apparatus for judging an object and performing image processing is incorporated in 2a, and the converted image data is used to display on the display 32a or to print on the printer 31a. Further, as shown in FIG. 4, in the printer 31b that inputs and prints image data without using a computer system, the image data automatically input from the scanner 11b, the digital still camera 12b, the modem 26b, or the like. It is also possible to determine the object and process the image.
【0050】上述したオブジェクトの判断とそれに伴う
画像処理は、具体的には上記コンピュータ21内にて図
5などに示すフローチャートに対応した画像処理プログ
ラムで行っている。同図に示すフローチャートにおいて
は、画像のコントラストを調整する画像処理を行うもの
であり、ステップS110にて画像全体から均等に画素
を間引きしながら特徴量である輝度を抽出した後、ステ
ップS120にて所定の重み付けを行って同特徴量を再
評価し、ステップS130〜S160にて輝度を調整す
る画像処理を行っている。The above-mentioned determination of the object and the accompanying image processing are carried out in the computer 21 by an image processing program corresponding to the flowchart shown in FIG. In the flowchart shown in the figure, image processing for adjusting the contrast of an image is performed. In step S110, the luminance which is the feature amount is extracted while uniformly thinning out pixels from the entire image, and then in step S120. The same feature amount is re-evaluated by performing predetermined weighting, and image processing for adjusting the brightness is performed in steps S130 to S160.
【0051】ステップS110は図6に示すように縦横
方向のドットマトリクス状の画像データを対象として各
画素の輝度を求めてヒストグラムを生成していく。この
場合、全画素について行えば正確ともいえるが、後述す
るように集計結果は重み付けをして再評価されるため、
必ずしも正確である必要はない。従って、ある誤差の範
囲内となる程度に輝度を抽出する画素を間引き、処理量
を低減して高速化することが可能である。統計的誤差に
よれば、サンプル数Nに対する誤差は概ね1/(N**
(1/2))と表せる。ただし、**は累乗を表してい
る。従って、1%程度の誤差で処理を行うためにはN=
10000となる。In step S110, as shown in FIG. 6, the luminance of each pixel is obtained for the image data of the dot matrix in the vertical and horizontal directions to generate a histogram. In this case, it can be said that it is accurate if it is performed for all pixels, but as will be described later, since the totalized result is weighted and re-evaluated,
It does not necessarily have to be accurate. Therefore, it is possible to reduce the processing amount and speed up by thinning out the pixels from which the luminance is extracted to the extent that they are within a certain error range. According to the statistical error, the error with respect to the sample number N is about 1 / (N **
(1/2)). However, ** represents the power. Therefore, in order to perform processing with an error of about 1%, N =
It becomes 10,000.
【0052】ここにおいて、図6に示すビットマップ画
面は(width)×(height)の画素数とな
り、サンプリング周期ratioは、
ratio=min(width,height)/A+1
…(1)
とする。ここにおいて、min(width,heig
ht)はwidthとheightのいずれか小さい方
であり、Aは定数とする。また、ここでいうサンプリン
グ周期ratioは何画素ごとにサンプリングするかを
表しており、図7の○印の画素はサンプリング周期ra
tio=2の場合を示している。すなわち、縦方向及び
横方向に二画素ごとに一画素のサンプリングであり、一
画素おきにサンプリングしている。A=200としたと
きの1ライン中のサンプリング画素数は図8に示すよう
になる。Here, the bitmap screen shown in FIG. 6 has the number of pixels of (width) × (height), and the sampling period ratio is ratio = min (width, height) / A + 1 (1). Where min (width, heig
ht) is the smaller of width and height, and A is a constant. Further, the sampling cycle ratio referred to here indicates how many pixels are sampled, and the pixels marked with a circle in FIG.
The case where tio = 2 is shown. That is, one pixel is sampled every two pixels in the vertical direction and the horizontal direction, and sampling is performed every other pixel. The number of sampling pixels in one line when A = 200 is as shown in FIG.
【0053】同図から明らかなように、サンプリングし
ないことになるサンプリング周期ratio=1の場合
を除いて、200画素以上の幅があるときには最低でも
サンプル数は100画素以上となることが分かる。従っ
て、縦方向と横方向について200画素以上の場合には
(100画素)×(100画素)=(10000画素)
が確保され、誤差を1%以下にできる。As can be seen from the figure, when the width is 200 pixels or more, at least the number of samples is 100 pixels or more, except for the case where the sampling period ratio = 1 which is not sampled. Therefore, when the number of pixels is 200 or more in the vertical and horizontal directions, (100 pixels) × (100 pixels) = (10000 pixels)
Is ensured and the error can be reduced to 1% or less.
【0054】ここにおいてmin(width,hei
ght)を基準としているのは次のような理由による。
例えば、図9(a)に示すビットマップ画像のように、
width>>heightであるとすると、長い方の
widthでサンプリング周期ratioを決めてしま
った場合には、同図(b)に示すように、縦方向には上
端と下端の2ラインしか画素を抽出されないといったこ
とが起こりかねない。しかしながら、min(widt
h,height)として、小さい方に基づいてサンプ
リング周期ratioを決めるようにすれば同図(c)
に示すように少ない方の縦方向においても中間部を含む
ような間引きを行うことができるようになる。すなわ
ち、所定の抽出数を確保したサンプリングが可能とな
る。Where min (width, hei
ght) is used as a reference for the following reason.
For example, like the bitmap image shown in FIG.
If width >> height is satisfied, and if the sampling period ratio is determined by the longer width, as shown in FIG. 6B, only the upper and lower two lines of pixels are extracted in the vertical direction. It may happen that you are not done. However, min (widt
h, height), if the sampling period ratio is determined based on the smaller one, the same figure (c)
As shown in FIG. 5, it is possible to perform thinning out including the intermediate portion even in the smaller vertical direction. That is, it becomes possible to perform sampling while ensuring a predetermined number of extractions.
【0055】このように画素を間引いて抽出するのは輝
度である。上述したように、本実施形態においてはコン
ピュータ21が扱うのはRGBの階調データであり、直
接には輝度の値を持っていない。輝度を求めるためにL
uv表色空間に色変換することも可能であるが、演算量
などの問題から得策ではない。このため、テレビジョン
などの場合に利用されているRGBから輝度を直に求め
る次式の変換式を利用する。Luminance is obtained by thinning out pixels in this manner. As described above, in this embodiment, the computer 21 handles RGB gradation data and does not directly have a luminance value. L to obtain the brightness
It is possible to perform color conversion into the uv color space, but this is not a good idea due to problems such as the amount of calculation. For this reason, the following conversion equation for directly obtaining the luminance from RGB used in a television or the like is used.
【0056】
Y=0.30R+0.59G+0.11B …(2)
また、輝度のヒストグラムは一つの画像についてまとめ
て集計するのではなく、図10に示すように、入力画像
を横3ブロック、縦5ブロックの合計15ブロックに分
けて個別に集計する。本実施形態においてはこのような
15ブロックとしているが、むろん、ブロックの分割方
法は任意である。特に、プリンタドライバなどではアプ
リケーションからブロック毎に画像データを受け取るこ
とになるが、重み付けのための領域分割をこのブロック
を利用して行っても良い。Y = 0.30R + 0.59G + 0.11B (2) Further, the luminance histogram is not aggregated for one image at once, but as shown in FIG. The blocks are divided into a total of 15 blocks and counted individually. In the present embodiment, such 15 blocks are used, but it goes without saying that the block dividing method is arbitrary. In particular, a printer driver or the like receives image data for each block from an application, but area division for weighting may be performed using this block.
【0057】このようにブロック毎に集計するのは処理
量の低減のためである。ステップS120にて重み付け
をして再評価するという意味では必ずしもブロック毎に
集計する必要はなく、選択した画素毎に重み付けを考慮
し、ヒストグラムとして集計していくことも可能であ
る。また、ブロック毎といっても集計結果に対する重み
付けを変える意味であるから、ブロックに応じた重み付
けを使用して一つのヒストグラムで集計していくことも
可能である。図11はブロックBiの輝度分布の一例を
示す図である。The reason why the blocks are totaled in this way is to reduce the processing amount. In the meaning of weighting and re-evaluating in step S120, it is not always necessary to add up for each block, and it is also possible to add up for each selected pixel and add up as a histogram. In addition, since it means that the weighting of the counting result is changed even for each block, it is possible to perform the counting with one histogram by using the weighting according to the block. FIG. 11 is a diagram showing an example of the luminance distribution of the block Bi.
【0058】各ブロック毎に集計をしていく場合には、
ステップS120にて領域別の重み付けをして再評価す
ることになる。図12と図13は各ブロックに重み付け
を与える例を示している。一般の写真画像を想定すれ
ば、通常、中央部分に本来の被写体が入るような構図を
取る。この意味では、画像データの中央部分の画像に重
きをおいて特徴量を評価すべきである。一方、別の構図
として建物の前で記念撮影をするような例を考えると、
人物像は中央の下方に位置させて撮影する。というのは
地面の高さが画像の下の方に位置させるのが普通だから
である。従って、この場合は画像の中央下方に重みをお
いて特徴量を評価すべきといえる。図12の例は前者の
ものに対応し、図13は後者のものに対応している。When totaling each block,
In step S120, each area is weighted and re-evaluated. 12 and 13 show an example in which each block is weighted. Assuming a general photographic image, the composition is usually such that the original subject enters the central portion. In this sense, the feature amount should be evaluated with an emphasis on the image in the central portion of the image data. On the other hand, considering another example of taking a commemorative photo in front of a building,
The image of the person is located below the center. This is because the height of the ground is usually located at the bottom of the image. Therefore, in this case, it can be said that the feature amount should be evaluated by weighting the lower center of the image. The example of FIG. 12 corresponds to the former, and FIG. 13 corresponds to the latter.
【0059】各ブロックの重み付けをWi(i=1〜1
5)とし、重み付けして再評価された輝度分布をDYと
し、The weighting of each block is Wi (i = 1 to 1).
5), the weighted and re-evaluated luminance distribution is DY,
【0060】[0060]
【数1】 [Equation 1]
【0061】とするとともに、 Ki=Wi/SP …(4) とすると、And Ki = Wi / SP (4) Then,
【0062】[0062]
【数2】 [Equation 2]
【0063】として求められる。Is calculated as
【0064】このようにして再評価された輝度分布のヒ
ストグラムを得たら、この特徴量から画像処理の強度を
求める。すなわち、コントラストを拡大するための幅を
決定する。拡大幅を決定するにあたり、輝度分布の両端
を求めることを考える。写真画像の輝度分布は図14に
示すように概ね山形に表れる。むろん、その位置、形状
についてはさまざまである。輝度分布の幅はこの両端を
どこに決めるかによって決定されるが、単に裾野が延び
て分布数が「0」となる点を両端とすることはできな
い。裾野部分では分布数が「0」付近で変移する場合が
あるし、統計的に見れば限りなく「0」に近づきながら
推移していくからである。When the histogram of the luminance distribution re-evaluated in this way is obtained, the intensity of image processing is obtained from this feature amount. That is, the width for expanding the contrast is determined. In determining the expansion width, it is considered to find both ends of the luminance distribution. The luminance distribution of the photographic image appears in a mountain shape as shown in FIG. Of course, there are various positions and shapes. The width of the luminance distribution is determined depending on where the ends are determined, but it is not possible to simply set the points at which the skirt extends and the distribution number becomes “0” as the ends. This is because the number of distributions may change in the vicinity of “0” in the tail part, and the number of distributions may approach “0” infinitely statistically.
【0065】このため、分布範囲において最も輝度の大
きい側と小さい側からある分布割合だけ内側に経た部分
を分布の両端とする。本実施形態においては、同図に示
すように、この分布割合を0.5%に設定している。む
ろん、この割合については、適宜、変更することが可能
である。このように、ある分布割合だけ上端と下端をカ
ットすることにより、ノイズなどに起因して生じている
白点や黒点を無視することもできる。すなわち、このよ
うな処理をしなければ一点でも白点や黒点があればそれ
が輝度分布の両端となってしまうので、255階調の輝
度値であれば、多くの場合において最下端は階調「0」
であるし、最上端は階調「255」となってしまうが、
上端部分から0.5%の画素数だけ内側に入った部分を
端部とすることにより、このようなことが無くなる。Therefore, in the distribution range, the portions which are inward from the side having the highest brightness and the side having the lowest brightness by a certain distribution ratio are defined as the both ends of the distribution. In this embodiment, as shown in the figure, this distribution ratio is set to 0.5%. Of course, this ratio can be changed appropriately. In this way, by cutting the upper and lower ends by a certain distribution ratio, it is possible to ignore white points and black points caused by noise and the like. That is, if there is no white point or black point without such a process, it will become the both ends of the luminance distribution. Therefore, if the luminance value is 255 gradations, in most cases, the lowest edge is gradation. "0"
And the top end has a gradation of "255",
This is eliminated by setting the end portion to be a portion that is inside by 0.5% of the number of pixels from the upper end portion.
【0066】実際の処理では再評価して得られたヒスト
グラムに基づいて画素数に対する0.5%を演算し、再
現可能な輝度分布における上端の輝度値及び下端の輝度
値から順番に内側に向かいながらそれぞれの分布数を累
積し、0.5%の値となった輝度値を求める。以後、こ
の上端側をymaxと呼び、下端側をyminと呼ぶ。
また、本実施形態においては、コントラストの拡大とと
もに明度の修正も行なうこととしており、そのために必
要なメジアンymedも上記再評価されたヒストグラム
に基づいて決定する。以上の処理をステップS130に
て行なう。In the actual processing, 0.5% with respect to the number of pixels is calculated based on the histogram obtained by re-evaluation, and the luminance value at the upper end and the luminance value at the lower end in the reproducible luminance distribution are sequentially turned inward. However, the respective distribution numbers are accumulated to obtain a luminance value of 0.5%. Hereinafter, the upper end side is called ymax and the lower end side is called ymin.
Further, in the present embodiment, the brightness is corrected together with the expansion of the contrast, and the median ymed required for that purpose is also determined based on the re-evaluated histogram. The above process is performed in step S130.
【0067】再現可能な輝度の範囲を「0」〜「25
5」としたときに、変換前の輝度yと輝度の分布範囲の
最大値ymaxと最小値yminから変換先の輝度Yを
次式に基づいて求める。The range of reproducible luminance is "0" to "25".
5 ”, the luminance Y of the conversion destination is calculated from the luminance y before conversion and the maximum value ymax and minimum value ymin of the luminance distribution range based on the following equation.
【0068】
Y=ay+b …(6)
ただし
a=255/(ymax−ymin) …(7)
b=−a・yminあるいは255−a・ymax …(8)
また、上記変換式にてY<0ならばY=0とし、Y>2
55ならばY=255とする。ここにおける、aは傾き
であり、bはオフセットといえる。この変換式によれ
ば、図15に示すように、あるせまい幅を持った輝度分
布を再現可能な範囲まで広げることができる。ただし、
再現可能な範囲を最大限に利用して輝度分布の拡大を図
った場合、ハイライト部分が白く抜けてしまったり、ハ
イシャドウ部分が黒くつぶれてしまうことが起こる。こ
れを防止するため本実施形態においては、再現可能な範
囲を制限している。すなわち、再現可能な範囲の上端と
下端に拡大しない範囲として輝度値で「5」だけ残して
いる。この結果、変換式のパラメータは次式のようにな
る。Y = ay + b (6) where a = 255 / (ymax-ymin) (7) b = -a.ymin or 255-a.ymax (8) Further, Y <0 in the above conversion formula. If so, Y = 0 and Y> 2
If 55, then Y = 255. Here, it can be said that a is an inclination and b is an offset. According to this conversion formula, as shown in FIG. 15, the luminance distribution having a certain narrow width can be expanded to a reproducible range. However,
If the maximum reproducible range is used to expand the luminance distribution, the highlight part may be white or the high shadow part may be black. In order to prevent this, the reproducible range is limited in this embodiment. That is, “5” is left as the brightness value as a range that does not expand to the upper and lower ends of the reproducible range. As a result, the parameters of the conversion formula are as follows.
【0069】
a=245/(ymax−ymin) …(9)
b=5−a・yminあるいは250−a・ymax …(10)
そして、この場合にはy<yminと、y>ymaxの範囲に
おいては変換を行わないようにする。A = 245 / (ymax-ymin) (9) b = 5-a · ymin or 250-a · ymax (10) In this case, in the range of y <ymin and y> ymax. Disables conversion.
【0070】ただし、このままの拡大率(aに対応)を
適用してしまうと、非常に大きな拡大率が得られる場合
も生じてしまう。例えば、夕方のような薄暮の状態では
最も明るい部分から暗い部分までのコントラストの幅が
狭くて当然であるのに、この画像についてコントラスト
を大きく拡大しようとする結果、昼間の画像のように変
換されてしまいかねない。このような変換は希望されな
いので、拡大率には制限を設けておき、aが1.5(〜
2)以上とはならないように制限する。これにより、薄
暮は薄暮なりに表現されるようになる。なお、この場合
は輝度分布の中心位置がなるべく変化しないような処理
を行っておく。ステップS140では、このようにして
拡大率a及び傾きbを求める処理を実行する。However, if the same enlargement ratio (corresponding to a) is applied, a very large enlargement ratio may be obtained. For example, in the twilight state such as in the evening, it is natural that the width of the contrast from the brightest part to the darkest part is narrow, but as a result of trying to greatly expand the contrast of this image, it is converted like the daytime image. It can happen. Since such a conversion is not desired, a limit is set on the enlargement ratio, and a is 1.5 (~
2) Limit not to exceed the above. As a result, twilight will be expressed like twilight. In this case, processing is performed so that the center position of the brightness distribution does not change as much as possible. In step S140, the processing for obtaining the enlargement ratio a and the inclination b is performed in this manner.
【0071】ところで、輝度の変換時に、毎回、上記変
換式(Y=ay+b)を実行するのは非合理的である。
というのは、輝度yの取りうる範囲が「0」〜「25
5」でしかあり得ないため、予め輝度yが取りうる全て
の値に対応して変換後の輝度Yを求めておくことも可能
である。従って、図16に示すようなテーブルとして記
憶しておく。By the way, it is irrational to execute the above conversion formula (Y = ay + b) every time the brightness is converted.
This is because the range of brightness y that can be taken is "0" to "25".
Since it can only be 5 ”, it is also possible to previously obtain the converted luminance Y corresponding to all possible values of the luminance y. Therefore, it is stored as a table as shown in FIG.
【0072】このような輝度の範囲の拡大によってコン
トラストを強調するだけでなく、合わせて明るさを調整
することも極めて有効であるため、画像の明るさを判断
して補正のためのパラメータも生成する。Since it is extremely effective not only to enhance the contrast by adjusting the brightness range but also to adjust the brightness in accordance with the brightness range, a parameter for correction is also generated by determining the brightness of the image. To do.
【0073】例えば、図17にて実線で示すように輝度
分布の山が全体的に暗い側に寄っている場合には波線で
示すように全体的に明るい側に山を移動させると良い
し、逆に、図18にて実線で示すように輝度分布の山が
全体的に明るい側に寄っている場合には波線で示すよう
に全体的に暗い側に山を移動させると良い。For example, when the peaks of the luminance distribution are generally on the dark side as shown by the solid line in FIG. 17, it is advisable to move the peaks to the bright side as shown by the broken line. On the contrary, when the peaks of the luminance distribution are generally on the bright side as shown by the solid line in FIG. 18, it is advisable to move the peaks to the dark side as shown by the wavy line.
【0074】各種の実験を行った結果、本実施形態にお
いては、輝度分布におけるメジアンymedを求め、同
メジアンymedが「85」未満である場合に暗い画像
と判断して以下のγ値に対応するγ補正で明るくする。As a result of various experiments, in the present embodiment, the median ymed in the luminance distribution is obtained, and when the median ymed is less than “85”, it is judged as a dark image and corresponds to the following γ value. Brightens with γ correction.
【0075】 γ=ymed/85 …(11) あるいは、 γ=(ymed/85)**(1/2) …(12) とする。[0075] γ = ymed / 85 (11) Alternatively, γ = (ymed / 85) ** (1/2) (12) And
【0076】この場合、γ<0.7となっても、γ=
0.7とする。このような限界を設けておかないと夜の
画像が昼間のようになってしまうからである。なお、明
るくしすぎると全体的に白っぽい画像になってコントラ
ストが弱い画像になりやすいため、彩度を合わせて強調
するなどの処理が好適である。In this case, even if γ <0.7, γ =
Set to 0.7. This is because, if such a limit is not set, the night image becomes like the daytime image. Note that if the image is too bright, the image tends to be whitish as a whole, and the image tends to have a low contrast. Therefore, it is preferable to perform processing such as enhancing the saturation.
【0077】一方、メジアンymedが「128」より
大きい場合に明るい画像と判断して以下のγ値に対応す
るγ補正で暗くする。On the other hand, when the median ymed is larger than "128", it is judged as a bright image, and the image is made dark by the γ correction corresponding to the following γ value.
【0078】
γ=ymed/128 …(13)
あるいは、
γ=(ymed/128)**(1/2) …(14)
とする。この場合、γ>1.3となっても、γ=1.3
として暗くなり過ぎないように限界を設けておく。Γ = ymed / 128 (13) Alternatively, γ = (ymed / 128) ** (1/2) (14) In this case, even if γ> 1.3, γ = 1.3
Set a limit so that it does not get too dark.
【0079】なお、このγ補正は変換前の輝度分布に対
して行っても良いし、変換後の輝度分布に対して行って
も良い。γ補正をした場合における対応関係を図19に
示しており、γ<1であれば上方に膨らむカーブとな
り、γ>1であれば下方に膨らむカーブとなる。むろ
ん、かかるγ補正の結果も図16に示すテーブル内に反
映させておけばよく、テーブルデータに対して同補正を
行っておく。ステップS150ではこのような変換テー
ブルを生成する処理を実行する。The γ correction may be performed on the brightness distribution before conversion or on the brightness distribution after conversion. FIG. 19 shows the correspondence relationship when the γ correction is performed. If γ <1, the curve expands upward, and if γ> 1, the curve expands downward. Of course, the result of the γ correction may be reflected in the table shown in FIG. 16, and the same correction is performed on the table data. In step S150, processing for generating such a conversion table is executed.
【0080】この後、(6)式に基づく変換を行うが、
同式の変換式は、RGBの成分値との対応関係において
も当てはめることができ、変換前の成分値(R0,G0,
B0)に対して変換後の成分値(R,G,B)は、
R=a・R0+b …(15)
G=a・G0+b …(16)
B=a・B0+b …(17)
として求めることもできる。ここで、輝度y,Yが階調
「0」〜階調「255」であるのに対応してRGBの各
成分値(R0,G0,B0),(R,G,B)も同じ範囲と
なっており、上述した輝度y,Yの変換テーブルをその
まま利用すればよいといえる。After that, conversion based on the equation (6) is performed.
The conversion formula of the same formula can be applied also in the correspondence relationship with the RGB component values, and the component values (R0, G0,
The converted component values (R, G, B) for B0) can also be obtained as R = a · R0 + b (15) G = a · G0 + b (16) B = a · B0 + b (17) it can. Here, the luminance y and Y are from the gradation “0” to the gradation “255”, and the RGB component values (R0, G0, B0) and (R, G, B) are also in the same range. Therefore, it can be said that the above-mentioned conversion table of the luminances y and Y can be used as it is.
【0081】従って、ステップS160では全画素の画
像データ(R0,G0,B0)について(15)〜(1
7)式に対応する変換テーブルを参照し、変換後の画像
データ(R,G,B)を得るという処理を繰り返すことに
なる。Therefore, in step S160, the image data (R0, G0, B0) of all pixels are set to (15) to (1).
The process of obtaining the converted image data (R, G, B) by referring to the conversion table corresponding to the expression 7) is repeated.
【0082】むろん、これらのステップS130〜ステ
ップS160を実行するハードウェア構成とソフトウェ
アとによって処理手段を構成することになる。なお、本
実施形態においては、画像処理としてコントラストの拡
大処理や明度の修正処理を実行しているが、他の画像強
調処理などにおいても全く同様に適用可能であることは
いうまでもない。Of course, the processing means is constituted by the hardware configuration and software for executing these steps S130 to S160. In the present embodiment, the contrast enlargement process and the brightness correction process are executed as the image processing, but it goes without saying that the same can be applied to other image enhancement processes.
【0083】以上の処理では、画像の中での位置に応じ
た重み付けによって特徴量が再評価されるものであっ
た。しかしながら、重み付けの基準はこれに限られるも
のではなく、各種の態様が可能である。図20はその一
例として画像の変化度合いから本来の被写体を検出し、
重み付けを変化させる場合のフローチャートを示してい
る。In the above processing, the feature amount is re-evaluated by weighting according to the position in the image. However, the weighting standard is not limited to this, and various modes are possible. FIG. 20 shows an example in which the original subject is detected from the degree of change in the image,
The flowchart when changing weighting is shown.
【0084】ステップS210は、上述したステップS
110に代わるものであり、均等に間引いた画素につい
て輝度を集計する。しかし、輝度だけの集計ではなく、
次に示すようなエッジ量も集計する。Step S210 is the above-mentioned step S210.
It replaces 110, and the luminance is aggregated for pixels that are evenly thinned. However, instead of counting only brightness,
The following edge amounts are also calculated.
【0085】入力画像のうちの背景は濃淡変化が緩やか
であるといえるし、本来の被写体はシャープであるがゆ
えに輝度の変化が激しいといえる。従って、図21に示
すようにある一つの画素を注目画素としてその周縁の画
素との濃度差を求めることとし、この濃度差をその注目
画素のエッジ量とする。この濃度差はフィルタを適用し
て演算することができ、図22(a)〜(f)はこのよ
うなフィルタの数例を示しており、注目画素と周縁の八
画素について各画素の輝度を重み付け加算する際の重み
付け係数を示している。ここにおいて、同図(a)の場
合は九画素についての重み付け加算であるから、各画素
でのエッジ量を求めるためには九回の乗算と八回の加算
が必要になる。この演算量は画像が大きくなってくるに
つれて無視できなくなるため、同図(b)(c)では五
回の乗算と四回の加算で済ませ、同図(d)(e)では
三回の乗算と二回の加算で済ませ、同図(f)では二回
の乗算と一回の加算で済ませるようにしている。It can be said that the background of the input image has a gradual change in shading, and the original subject is sharp, so that it can be said that the brightness changes drastically. Therefore, as shown in FIG. 21, one pixel is used as a pixel of interest, and a density difference from the peripheral pixels is obtained, and this density difference is used as the edge amount of the pixel of interest. This density difference can be calculated by applying a filter, and FIGS. 22 (a) to 22 (f) show several examples of such a filter. The weighting coefficient for weighted addition is shown. Here, in the case of FIG. 9A, since weighted addition is made for nine pixels, nine multiplications and eight additions are required to obtain the edge amount at each pixel. Since this amount of calculation cannot be ignored as the image becomes larger, it can be done by multiplying five times and adding four times in the figures (b) and (c), and three times in the figures (d) and (e). In this case, the multiplication is performed twice and the addition is performed once in FIG.
【0086】これらの例では注目画素に対してこれを一
重に取り囲む画素とだけ比較しているが、いわゆるアン
シャープマスクを使用してより広範囲な画素のデータを
使用して注目画素でのシャープさを求めることは可能で
ある。ただし、本実施形態におけるエッジ量は、あくま
でもブロック毎の重み付けを評価するためのものである
から演算量を少なくしたこれらの例のフィルタのもので
も十分である。In these examples, the pixel of interest is compared only with the pixels that surround it, but the so-called unsharp mask is used to obtain the sharpness of the pixel of interest using the data of a wider range of pixels. It is possible to ask for However, the edge amount in the present embodiment is only for evaluating the weighting for each block, and thus the filters of these examples in which the calculation amount is reduced are also sufficient.
【0087】エッジ量の集計は各ブロック毎に各画素で
求めたエッジ量を集計していっても良いし、このエッジ
量の絶対値が所定のしきい値よりも大きい場合にエッジ
画素と判定し、各ブロック毎のエッジ画素総数を集計し
ていくようにしても良い。各ブロックでのエッジ量をE
Ri(i=1〜15)とすると、その総量SEは、The edge amount may be totaled by calculating the edge amount obtained for each pixel for each block. If the absolute value of the edge amount is larger than a predetermined threshold value, it is determined as an edge pixel. However, the total number of edge pixels for each block may be totaled. E is the amount of edge in each block
If Ri (i = 1 to 15), the total amount SE is
【0088】[0088]
【数3】 [Equation 3]
【0089】となるから、重み付け係数KEi自体は、
KEi=ERi/SE …(19)
で表される。従って、この場合の重み付けして再評価さ
れた輝度分布DYは、Therefore, the weighting coefficient KEi itself is expressed by KEi = ERi / SE (19). Therefore, the weighted and re-evaluated luminance distribution DY in this case is
【0090】[0090]
【数4】 [Equation 4]
【0091】として求められる。また、各ブロックでの
エッジ画素総数をENi(i=1〜15)とすると、そ
の総量SEは、Is calculated as When the total number of edge pixels in each block is ENi (i = 1 to 15), the total amount SE is
【0092】[0092]
【数5】 [Equation 5]
【0093】となるから、重み付け係数KEi自体は、
KEi=ENi/SE …(22)
で表され、(20)式を利用して再評価された輝度分布
DYを得ることができる。いずれの場合においても、ス
テップS220では(20)式の演算式に基づいて輝度
分布DYを再評価する。Therefore, the weighting coefficient KEi itself is represented by KEi = ENi / SE (22), and the reevaluated luminance distribution DY can be obtained by using the equation (20). In any case, in step S220, the brightness distribution DY is re-evaluated based on the arithmetic expression of Expression (20).
【0094】この例においては、エッジ画素と判定され
た画素の輝度をサンプリングして利用するというわけで
はなく、エッジ量やエッジ画素総数をブロックの重み付
け係数の決定に使用しているだけである。すなわち、特
定の性質(エッジ)を持つ画素のみの特徴量を集計して
いるわけではなく、そのブロックにおいて偏らない平均
的な特徴量を得ることができる。In this example, the luminance of the pixel determined as the edge pixel is not sampled and used, but the edge amount and the total number of edge pixels are used only for determining the weighting coefficient of the block. That is, the feature amounts of only pixels having a specific property (edge) are not aggregated, and an average feature amount that is not biased in the block can be obtained.
【0095】なお、このようにして輝度分布を再評価し
たら上述したステップS130〜S160の処理を経て
コントラストを拡大するとともに明度を修正すればよ
い。If the luminance distribution is re-evaluated in this way, the contrast may be expanded and the brightness may be corrected through the processes of steps S130 to S160 described above.
【0096】さらに、本来の被写体が人物像であること
が多いことを考慮すると、肌色の画素が多いブロックに
重きをおいて再評価するといったことも可能である。図
23はこのような特定の色に注目してブロックの重み付
け係数を決定するフローチャートを示している。Further, considering that the original subject is often a human image, it is possible to re-evaluate by placing emphasis on a block having many pixels of skin color. FIG. 23 shows a flowchart for deciding the weighting coefficient of a block by paying attention to such a specific color.
【0097】ステップS110に対応するステップS3
10では、同様の間引き処理で輝度を集計するととも
に、各画素の色度に基づいて肌色らしき画素であるかを
判定し、肌色画素数の集計を行う。色度については各画
素についてのx−y色度を計算する。いま、対象画素の
RGB表色系におけるRGB階調データが(R,G,
B)であるとするときに、
r=R/(R+G+B) …(23)
g=G/(R+G+B) …(24)
とおくとすると、XYZ表色系における色度座標x,yとの間には、
x=(1.1302+1.6387r+0.6215g)
/(6.7846−3.0157r−0.3857g)
…(25)
y=(0.0601+0.9399r+4.5306g)
/(6.7846−3.0157r−0.3857g)
…(26)
なる対応関係が成立する。ここにおいて、色度は明るさ
に左右されることなく色の刺激値の絶対的な割合を表す
ものであるから、色度からその画素がどのような対象物
かを判断することができるといえる。肌色の場合は、
0.35<x<0.40 …(27)
0.33<y<0.36 …(28)
というような範囲に含まれているから、各画素の色度を
求めたときにこの範囲内であればその画素は人間の肌を
示す画素と考え、ブロック内の肌色画素数を一つ増加す
る。Step S3 corresponding to step S110
In 10, the luminance is totaled by the same thinning-out process, and it is determined whether the pixel is a skin-colored pixel based on the chromaticity of each pixel, and the number of skin-colored pixels is totaled. For chromaticity, the xy chromaticity for each pixel is calculated. Now, the RGB gradation data in the RGB color system of the target pixel is (R, G,
B), r = R / (R + G + B) (23) g = G / (R + G + B) (24), and between chromaticity coordinates x and y in the XYZ color system. In, x = (1.1302 + 1.6387r + 0.6215g) / (6.7846-3.0157r-0.3857g) ... (25) y = (0.0601 + 0.9399r + 4.5306g) / (6.7846-3) .0157r-0.3857g) (26) The correspondence relationship is established. Here, since the chromaticity represents the absolute ratio of the color stimulus values without being influenced by the brightness, it can be said that it is possible to determine what kind of object the pixel is from the chromaticity. . In the case of skin color, since it is included in the range 0.35 <x <0.40 (27) 0.33 <y <0.36 (28), the chromaticity of each pixel was obtained. Sometimes, if it is within this range, the pixel is considered to be a pixel showing human skin, and the number of skin color pixels in the block is increased by one.
【0098】このようにして肌色画素数が得られたら、
次のステップS320では上述したエッジ画素数の場合
と同様にして重み付け係数を決定し、輝度分布DYを再
評価する。すなわち、各ブロックでの肌色画素数をCN
i(i=1〜15)とすると、その総量SCは、When the number of skin color pixels is obtained in this way,
In the next step S320, the weighting coefficient is determined in the same manner as in the case of the number of edge pixels described above, and the luminance distribution DY is re-evaluated. That is, the number of skin color pixels in each block is CN
If i (i = 1 to 15), the total amount SC is
【0099】[0099]
【数6】 [Equation 6]
【0100】となるから、重み付けKCi自体は、
KCi=CNi/SC …(30)
で表され、この場合の重み付けして再評価された輝度分
布DYは、Therefore, the weighted KCi itself is expressed by KCi = CNi / SC (30), and the luminance distribution DY re-evaluated by weighting in this case is
【0101】[0101]
【数7】 [Equation 7]
【0102】として求められる。この例においても、肌
色の画素と判定された画素の輝度をサンプリングして利
用するというわけではなく、肌色画素の総数をブロック
の重み付け係数の決定に使用しているだけである。従っ
て、そのブロックにおいて偏らない平均的な特徴量を得
ることができる。この場合も、このようにして輝度分布
を再評価したら上述したステップS130〜S160の
処理を経てコントラストを拡大するとともに明度を修正
すればよい。図24に示す写真の場合、中央付近に女の
子が写っており、顔、手足の画素で肌色画素と判断され
ることになる。むろん、他の色についての色度を求めて
画素数を集計するようにしても良い。Is calculated as Also in this example, the luminance of the pixel determined to be the skin color pixel is not sampled and used, but the total number of skin color pixels is used only for determining the weighting coefficient of the block. Therefore, it is possible to obtain an average feature amount that is not biased in that block. Also in this case, if the luminance distribution is re-evaluated in this way, the contrast may be expanded and the brightness may be corrected through the processes of steps S130 to S160 described above. In the case of the photograph shown in FIG. 24, a girl appears in the vicinity of the center, and the pixels of the face and limbs are determined to be skin-color pixels. Of course, the chromaticity of other colors may be obtained and the number of pixels may be totaled.
【0103】ところで、これまでは重み付け係数を一つ
の要因によって決定していたが、それぞれの要因の重要
度を加味して重複して適用することもできる。個々の要
因j(1:画像の中での位置、2:エッジ量、3:肌色
画素数)について各ブロックBi(i=1〜15)の重
み付け係数をTjiとした場合、要因毎の各ブロックに
分配した重み付けTjiは仮の重み付けとなり、By the way, the weighting coefficient has been determined by one factor so far, but it is also possible to apply the weighting factor in duplicate by taking into consideration the importance of each factor. When the weighting coefficient of each block Bi (i = 1 to 15) is Tji for each factor j (1: position in the image, 2: edge amount, 3: skin color pixel number), each block for each factor The weighted Tji distributed to is a temporary weighting,
【0104】[0104]
【数8】 [Equation 8]
【0105】とするとともに、
Kji=Tji/Sj …(33)
とすると、ブロックBiにおける真の重み付け係数Ki
は、When Kji = Tji / Sj (33), the true weighting coefficient Ki in the block Bi is obtained.
Is
【0106】[0106]
【数9】 [Equation 9]
【0107】で表される。ここにおいて、Ajは各要因
毎の重要度を表す係数であり、総数が1となる範囲で適
宜決定する。一例として、肌色重視とするならば、A1
=0.2、A2=0.2、A3=0.6といった設定な
どが可能である。It is represented by Here, Aj is a coefficient indicating the degree of importance of each factor, and is appropriately determined within the range where the total number is 1. As an example, if the skin color is emphasized, A1
= 0.2, A2 = 0.2, A3 = 0.6, etc. can be set.
【0108】次に、上記構成からなる本実施形態の動作
を説明する。最初に、先の実施形態に沿って説明する。Next, the operation of this embodiment having the above configuration will be described. First, a description will be given according to the above embodiment.
【0109】写真画像をスキャナ11で読み込み、プリ
ンタ31にて印刷する場合を想定する。すると、まず、
コンピュータ21にてオペレーティングシステム21a
が稼働しているもとで、画像処理アプリケーション21
dを起動させ、スキャナ11に対して写真の読み取りを
開始させる。読み取られた画像データが同オペレーティ
ングシステム21aを介して画像処理アプリケーション
21dに取り込まれたら、ステップS110にて間引き
しながら各画素の輝度を集計する。集計された輝度分布
dYiは、ステップS120にて図12あるいは図13
に示すブロック毎の位置に対応して決定される重み付け
に基づいて再評価し、再評価された輝度分布DYに基づ
いてステップS130ではymax,ymin,yme
dを求める。It is assumed that a photographic image is read by the scanner 11 and printed by the printer 31. Then first,
Operating system 21a on computer 21
Image processing application 21
d is activated to cause the scanner 11 to start reading a photo. When the read image data is loaded into the image processing application 21d via the operating system 21a, the luminance of each pixel is totalized while thinning out in step S110. The aggregated luminance distribution dYi is shown in FIG.
Re-evaluation is performed based on the weighting determined corresponding to the position of each block, and based on the re-evaluated luminance distribution DY, ymax, ymin, and yme are calculated in step S130.
Find d.
【0110】次なるステップS140では、(9)式あ
るいは(10)式に基づいて強調パラメータである傾き
aとオフセットbとを算出するとともに、(11)式〜
(14)式に基づいて明度修正に要するγ補正のγ値を
求め、ステップS150では図6に示す変換テーブルを
作成する。そして、最後に、ステップS160では全画
素についての画像データを同変換テーブルを参照して変
換する。In the next step S140, the slope a and the offset b, which are the emphasis parameters, are calculated based on the equation (9) or the equation (10), and the equation (11)-
The γ value of the γ correction required for the brightness correction is obtained based on the equation (14), and the conversion table shown in FIG. 6 is created in step S150. Then, finally, in step S160, the image data for all pixels is converted by referring to the same conversion table.
【0111】図12に示す重み付けを使用する場合に
は、中央に近いブロックほど重み付けが重いので、集計
された輝度分布も中央に近いものほど大きく評価され
る。例えば、夜間にフラッシュを使用して人物像を撮影
したとする。人物像についての輝度分布はフラッシュの
効果もあって図25(a)に示すように概ね良好な輝度
分布が得られたとしても、人物の周囲は暗く、同図
(b)に示すような暗い側に偏った輝度分布が得られ
る。この場合、単純に平均化すれば同図(c)に示すよ
うに全体的に暗い側に偏った輝度分布が得られる。従っ
て、このままコントラストや明度を修正すれば暗い画像
を無理やり明るくしてしまい、良好な画像は得られな
い。When the weighting shown in FIG. 12 is used, the closer to the center the block is, the heavier the weight is. Therefore, the closer the brightness distribution is to the center, the higher the evaluation is. For example, assume that a person is photographed using a flash at night. The brightness distribution of the person image is dark due to the effect of flash, and even if a generally good brightness distribution is obtained as shown in FIG. 25A, the surroundings of the person are dark and dark as shown in FIG. A luminance distribution biased to the side is obtained. In this case, if the values are simply averaged, a luminance distribution biased to the dark side as a whole is obtained as shown in FIG. Therefore, if the contrast and the brightness are corrected as they are, the dark image is forcibly made bright and a good image cannot be obtained.
【0112】しかしながら、図12に示すようにして中
央のブロックに重み付けを重くするようにすると、図2
5(d)に示すように画像の中央部分で得られた輝度分
布の影響を強く受けた輝度分布DYが得られる。従っ
て、かかる輝度分布に基づいて決定される画像処理の強
度は過度にコントラストを拡大したり明度を修正したり
するようなものではなくなる。However, if the central block is weighted as shown in FIG.
As shown in FIG. 5D, a luminance distribution DY strongly influenced by the luminance distribution obtained in the central portion of the image is obtained. Therefore, the intensity of the image processing determined based on the brightness distribution is not such that the contrast is excessively enlarged or the brightness is corrected.
【0113】逆に、逆光の状態で人物を撮影すると、顔
が暗く、背景が明るくなってしまうが、画像全体で見れ
ば良好な輝度分布ともなりかねない。しかしながら、こ
のような場合でも図12に示すようにして暗い顔が写っ
ている中央のブロックでの輝度分布に重きをおいて評価
することにより、暗い輝度分布が反映され、コントラス
トを拡大したり画像を明るくしたりする画像処理を実行
することができるようになる。On the contrary, when a person is photographed in a backlit state, the face becomes dark and the background becomes bright, but this may result in a good luminance distribution in the entire image. However, even in such a case, as shown in FIG. 12, when the luminance distribution in the central block in which a dark face is shown is weighted and evaluated, the dark luminance distribution is reflected, and the contrast is increased or the image is enlarged. It becomes possible to perform image processing such as brightening.
【0114】以上の処理により、スキャナ11を介して
読み込まれた写真の画像データは自動的に最適な強度で
画像処理を施され、ディスプレイ32に表示された後、
プリンタ31にて印刷される。By the above processing, the image data of the photograph read by the scanner 11 is automatically subjected to the image processing with the optimum intensity and displayed on the display 32.
It is printed by the printer 31.
【0115】このように、画像処理の中枢をなすコンピ
ュータ21はステップS110にて均等に画素を選択し
ながら特徴量である輝度の分布を領域毎に集計した後、
ステップS120では各領域毎に決められた重み付けで
再評価することにより、均等にサンプリングを行いなが
らも本来の被写体の輝度分布の影響を強く受けた輝度分
布を得ることができ、ステップS130〜S150にて
かかる輝度分布に基づいて画像処理の強度などを決定し
た後、ステップS160で画像データを変換するため、
処理を軽くしつつ最適な強度で画像処理を実行すること
ができる。As described above, the computer 21, which is the center of the image processing, tabulates the distribution of the luminance, which is the feature amount, for each area while selecting pixels evenly in step S110,
In step S120, the luminance distribution strongly influenced by the original luminance distribution of the subject can be obtained by performing the reevaluation with the weighting determined for each area, while performing the uniform sampling, and in steps S130 to S150. In order to convert the image data in step S160 after determining the intensity of image processing based on the brightness distribution,
Image processing can be executed with optimum intensity while lightening the processing.
【図1】本発明の一実施形態にかかる画像処理装置を適
用した画像処理システムのブロック図である。FIG. 1 is a block diagram of an image processing system to which an image processing apparatus according to an embodiment of the present invention is applied.
【図2】同画像処理装置の具体的ハードウェアのブロッ
ク図である。FIG. 2 is a block diagram of concrete hardware of the image processing apparatus.
【図3】本発明の画像処理装置の他の適用例を示す概略
ブロック図である。FIG. 3 is a schematic block diagram showing another application example of the image processing apparatus of the present invention.
【図4】本発明の画像処理装置の他の適用例を示す概略
ブロック図である。FIG. 4 is a schematic block diagram showing another application example of the image processing apparatus of the present invention.
【図5】本発明の画像処理装置における画像処理を示す
フローチャートである。FIG. 5 is a flowchart showing image processing in the image processing apparatus of the present invention.
【図6】処理対象画素を移動させていく状態を示す図で
ある。FIG. 6 is a diagram showing a state in which processing target pixels are moved.
【図7】サンプリング周期を示す図である。FIG. 7 is a diagram showing a sampling cycle.
【図8】サンプリング画素数を示す図である。FIG. 8 is a diagram showing the number of sampling pixels.
【図9】変換元の画像とサンプリングされる画素の関係
を示す図である。FIG. 9 is a diagram showing a relationship between a conversion source image and sampled pixels.
【図10】画像を領域分割したブロックの配置を示す図
である。FIG. 10 is a diagram showing an arrangement of blocks obtained by dividing an image into regions.
【図11】各ブロックでの輝度分布の例を示す図であ
る。FIG. 11 is a diagram showing an example of a luminance distribution in each block.
【図12】ブロック毎の重み付けの一例を示す図であ
る。FIG. 12 is a diagram showing an example of weighting for each block.
【図13】ブロック毎の重み付けの他の一例を示す図で
ある。FIG. 13 is a diagram showing another example of weighting for each block.
【図14】輝度分布の端部処理と端部処理にて得られる
端部を示す図である。FIG. 14 is a diagram showing edge processing of luminance distribution and edges obtained by the edge processing.
【図15】輝度分布の拡大と再現可能な輝度の範囲を示
す図である。FIG. 15 is a diagram showing an expansion of a luminance distribution and a reproducible luminance range.
【図16】輝度分布を拡大する際の変換テーブルを示す
図である。FIG. 16 is a diagram showing a conversion table when enlarging a luminance distribution.
【図17】γ補正で明るくする概念を示す図である。FIG. 17 is a diagram showing a concept of brightening by γ correction.
【図18】γ補正で暗くする概念を示す図である。FIG. 18 is a diagram showing a concept of darkening by γ correction.
【図19】γ補正で変更される輝度の対応関係を示す図
である。FIG. 19 is a diagram showing a correspondence relationship of luminance changed by γ correction.
【図20】エッジ量に基づいて特徴量を再評価する場合
のフローチャートである。FIG. 20 is a flowchart in the case of re-evaluating the feature amount based on the edge amount.
【図21】エッジ量を判断するための注目画素と周縁画
素との関係を示す図である。FIG. 21 is a diagram showing a relationship between a target pixel and a peripheral pixel for determining an edge amount.
【図22】エッジ量を算出するためのフィルタの例を示
す図である。FIG. 22 is a diagram showing an example of a filter for calculating an edge amount.
【図23】所定の色の画素数に基づいて特徴量を再評価
する場合のフローチャートである。FIG. 23 is a flowchart in the case of re-evaluating a feature amount based on the number of pixels of a predetermined color.
【図24】写真画像の一例を示す図である。FIG. 24 is a diagram showing an example of a photographic image.
【図25】夜間に撮影した写真画像の輝度分布を示す図
である。FIG. 25 is a diagram showing a luminance distribution of a photographic image taken at night.
10…画像入力装置 20…画像処理装置 21…コンピュータ 21a…オペレーティングシステム 21b…プリンタドライバ 21c…ディスプレイドライバ 21d…画像処理アプリケーション 25…フレキシブルディスクドライブ 30…画像出力装置 10 ... Image input device 20 ... Image processing device 21 ... Computer 21a ... Operating system 21b ... printer driver 21c ... Display driver 21d ... Image processing application 25 ... Flexible disk drive 30 ... Image output device
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 CA08 CA12 CA16 CB08 CB12 CB16 CC01 CE03 CE11 CH08 5C077 LL04 MP01 MP08 PP03 PP15 PQ12 PQ18 PQ19 TT02 ─────────────────────────────────────────────────── ─── Continued front page F term (reference) 5B057 CA08 CA12 CA16 CB08 CB12 CB16 CC01 CE03 CE11 CH08 5C077 LL04 MP01 MP08 PP03 PP15 PQ12 PQ18 PQ19 TT02
Claims (9)
画像データを入力して所定の画像処理を行う画像処理装
置であって、 画像処理強度を判定するにあたって必要な各画素の特徴
量を全画面にわたって均等に抽出する特徴量均等抽出手
段と、 この特徴量均等抽出手段で抽出した特徴量を所定の重み
付けによって再評価する特徴量重み付け再評価手段と、 この再評価された特徴量に基づいて画像処理強度を決定
して画像処理する処理手段とを具備することを特徴とす
る画像処理装置。1. An image processing apparatus for inputting real shot image data composed of pixels in a dot matrix and performing a predetermined image processing, wherein the feature amount of each pixel required for determining the image processing intensity is displayed over the entire screen. Feature amount equality extraction means for extracting evenly, feature amount weighting re-evaluation means for re-evaluating the feature amount extracted by the feature amount equality extraction means by predetermined weighting, and image processing based on the re-evaluated feature amount An image processing apparatus comprising: a processing unit that determines intensity and performs image processing.
いて、 上記特徴量均等抽出手段は、全画素に対して所定の基準
で均等に間引きして選択した画素について上記特徴量を
抽出することを特徴とする画像処理装置。2. The image processing device according to claim 1, wherein the feature amount equality extraction means extracts the feature amount from pixels selected by thinning out all pixels evenly according to a predetermined criterion. An image processing device characterized by:
に記載の画像処理装置において、 上記特徴量均等抽出手段は、画像を所定の基準で分割し
た領域単位で特徴量の抽出を行ない、 上記特徴量重み付け再評価手段は、同領域毎に重み付け
を設定して上記特徴量を再評価することを特徴とする画
像処理装置。3. The image processing apparatus according to claim 1 or 2, wherein the feature amount uniform extraction means extracts the feature amount in units of regions obtained by dividing an image by a predetermined reference. The image processing apparatus, wherein the feature amount weighting re-evaluation means sets a weight for each area and re-evaluates the feature amount.
載の画像処理装置において、 上記特徴量重み付け再評価手段は、画像に対する各画素
の位置によって定まる対応関係で上記重み付けを変化さ
せることを特徴とする画像処理装置。4. The image processing device according to any one of claims 1 to 3, wherein the feature amount weighting re-evaluation means changes the weighting in a correspondence relationship determined by the position of each pixel with respect to the image. An image processing device characterized by:
載の画像処理装置において、 上記特徴量重み付け再評価手段は、画像の変化度合いを
求めるとともに、画像の変化度合いが大きい部分で上記
重み付けを重くすることを特徴とする画像処理装置。5. The image processing apparatus according to any one of claims 1 to 4, wherein the feature amount weighting re-evaluation means obtains the degree of change of the image, and at the portion where the degree of change of the image is large, An image processing device characterized by increasing weighting.
載の画像処理装置において、 上記特徴量重み付け再評価手段は、各画素の色度を求め
るとともに、同色度が特徴量を抽出しようとするターゲ
ットの色度の範囲に入る画素数を求め、この画素数が多
い部分で上記重み付けを重くすることを特徴とする画像
処理装置。6. The image processing device according to claim 1, wherein the feature amount weighting re-evaluation means obtains the chromaticity of each pixel and extracts the feature amount with the same chromaticity. The image processing apparatus is characterized in that the number of pixels within the range of chromaticity of the target is obtained, and the weighting is made heavy in a portion having a large number of pixels.
載の画像処理装置において、 上記特徴量重み付け再評価手段は、複数の要素に基づい
て個別に仮の重み付け係数を求めるとともに、さらに、
これらを重要度に応じた重み付けで加算して最終的な重
み付け係数として適用することを特徴とする画像処理装
置。7. The image processing apparatus according to claim 1, wherein the feature amount weighting re-evaluation means individually obtains a temporary weighting coefficient based on a plurality of elements, and further, ,
An image processing apparatus characterized in that these are added with weighting according to importance and applied as a final weighting coefficient.
画像データを入力して所定の画像処理を行う画像処理方
法であって、 画像処理強度を判定するにあたって必要な各画素の特徴
量を全画面にわたって均等に抽出する工程と、 この抽出した特徴量を所定の重み付けによって再評価す
る工程と、 この再評価された特徴量に基づいて画像処理強度を決定
して画像処理する工程とを具備することを特徴とする画
像処理方法。8. An image processing method for inputting real shot image data composed of pixels in a dot matrix form and performing predetermined image processing, wherein the feature amount of each pixel required for determining the image processing intensity is provided over the entire screen. A step of uniformly extracting, a step of re-evaluating the extracted feature amount by predetermined weighting, and a step of determining an image processing intensity based on the re-evaluated feature amount and performing image processing. Characterized image processing method.
画素からなる実写画像データを入力して所定の画像処理
を行う画像処理制御プログラムを記録した媒体であっ
て、画像処理強度を判定するにあたって必要な各画素の
特徴量を全画面にわたって均等に抽出するとともに、こ
の抽出した特徴量を所定の重み付けによって再評価し、
この再評価された特徴量に基づいて画像処理強度を決定
して画像処理することを特徴とする画像処理制御プログ
ラムを記録した媒体。9. A medium in which an image processing control program for inputting real shot image data composed of pixels in a dot matrix form to a computer and performing predetermined image processing is recorded. The feature amount of the pixel is uniformly extracted over the entire screen, and the extracted feature amount is re-evaluated by predetermined weighting,
A medium having an image processing control program recorded therein, characterized in that the image processing intensity is determined based on the re-evaluated characteristic amount and image processing is performed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002215392A JP3558073B2 (en) | 2002-07-24 | 2002-07-24 | Image processing apparatus, image processing method, medium recording image processing control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002215392A JP3558073B2 (en) | 2002-07-24 | 2002-07-24 | Image processing apparatus, image processing method, medium recording image processing control program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP16015997A Division JP4019204B2 (en) | 1997-06-09 | 1997-06-17 | Image processing apparatus, image processing method, and medium on which image processing control program is recorded |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003091723A true JP2003091723A (en) | 2003-03-28 |
JP3558073B2 JP3558073B2 (en) | 2004-08-25 |
Family
ID=19195968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002215392A Expired - Lifetime JP3558073B2 (en) | 2002-07-24 | 2002-07-24 | Image processing apparatus, image processing method, medium recording image processing control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3558073B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014171133A (en) * | 2013-03-05 | 2014-09-18 | Hitachi Ltd | Imaging apparatus, imaging system, and imaging method |
-
2002
- 2002-07-24 JP JP2002215392A patent/JP3558073B2/en not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014171133A (en) * | 2013-03-05 | 2014-09-18 | Hitachi Ltd | Imaging apparatus, imaging system, and imaging method |
Also Published As
Publication number | Publication date |
---|---|
JP3558073B2 (en) | 2004-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8553285B2 (en) | Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded | |
US7155060B2 (en) | Image processing system, image processing method, and medium having an image processing control program recorded thereon | |
JPH10198802A (en) | Image processor, image processing method, and medium recording image processing program | |
JP4019204B2 (en) | Image processing apparatus, image processing method, and medium on which image processing control program is recorded | |
JP4243362B2 (en) | Image processing apparatus, image processing method, and recording medium recording image processing program | |
JP3921737B2 (en) | Image processing apparatus, image processing method, and medium on which image processing control program is recorded | |
JP3573143B2 (en) | Image processing apparatus, image processing method, medium recording image processing control program | |
JP2003091723A (en) | Image processor, image processing method and medium with image processing control program recorded thereon | |
JP3501151B2 (en) | Image processing apparatus, image processing method, medium recording image processing control program | |
JP3570416B2 (en) | Image processing apparatus, image processing method, and medium recording image processing control program | |
JP3705250B2 (en) | Image processing apparatus, image processing method, and medium on which image processing control program is recorded | |
JP2003069828A (en) | Image processor, image processing method and medium having image processing program recorded thereon | |
JP3731573B2 (en) | Image processing apparatus, image evaluation apparatus, image processing method, image evaluation method, and recording medium recording image processing program | |
JPH11136514A (en) | Picture processor, picture processing method and medium recording picture processing control program | |
JP3458855B2 (en) | Image processing apparatus, image processing method, and medium recording image processing control program | |
JP5029779B2 (en) | Image processing method, medium storing image processing program, and image processing apparatus | |
JP4475316B2 (en) | Image processing apparatus, recording medium storing image processing program, and image processing method | |
JP4941575B2 (en) | Image processing method, medium storing image processing program, and image processing apparatus | |
JP2003069827A (en) | Image processor, image processing method and medium having image processing program recorded thereon | |
JP2003069826A (en) | Image processor, image processing method and medium having image processing program recorded thereon | |
JP2003085552A (en) | Device and method for processing image and memory medium with image processing program recoded | |
JP2008245321A (en) | Image processing apparatus, image processing method, and recording medium | |
JP2009205699A (en) | Image evaluation method, medium having image evaluation program recorded thereon, and image evaluation device | |
JP2003085552A5 (en) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040427 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040510 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080528 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090528 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100528 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110528 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120528 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130528 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140528 Year of fee payment: 10 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |