JP5704909B2 - Attention area detection method, attention area detection apparatus, and program - Google Patents
Attention area detection method, attention area detection apparatus, and program Download PDFInfo
- Publication number
- JP5704909B2 JP5704909B2 JP2010273899A JP2010273899A JP5704909B2 JP 5704909 B2 JP5704909 B2 JP 5704909B2 JP 2010273899 A JP2010273899 A JP 2010273899A JP 2010273899 A JP2010273899 A JP 2010273899A JP 5704909 B2 JP5704909 B2 JP 5704909B2
- Authority
- JP
- Japan
- Prior art keywords
- attention area
- extraction region
- extraction
- visual saliency
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、画像中の注目領域検出に関し、特に注目領域検出における視覚的顕著度の記述方法ならびに当該視覚的顕著度を用いた注目領域検出に関するものである。 The present invention relates to attention area detection in an image, and more particularly to a method of describing visual saliency in attention area detection and attention area detection using the visual saliency.
入力画像中から人間にとって意味のあるひと固まりの領域を検出する方法として、例えば、特許文献1では、以下のような方法が提案されている。すなわち、入力画像中から基礎特徴画像を複数種類抽出し、その多重解像度表現である多重解像度画像を抽出する。また、多重解像度画像の各種類について解像度の異なる画像の間の差分である解像度差分画像を複数抽出し、解像度差分画像の各種類について、解像度の異なる解像度差分画像を統合することにより視覚的顕著度画像を抽出する。さらに、得られた視覚的顕著度画像において顕著度がある閾値以上の領域として注目領域が検出できる。 For example, Patent Document 1 proposes the following method as a method for detecting a group of regions meaningful to a human being from an input image. That is, a plurality of types of basic feature images are extracted from the input image, and a multi-resolution image that is a multi-resolution expression is extracted. In addition, by extracting a plurality of resolution difference images, which are differences between images of different resolutions for each type of multi-resolution image, and integrating the resolution difference images of different resolutions for each type of resolution difference image, Extract images. Furthermore, a region of interest can be detected as a region having a saliency above a threshold value in the obtained visual saliency image.
しかし、このような入力画像中からの基礎特徴画像を直接用いて視覚的顕著度を算出する場合、環境的、観測的要因に依るノイズの影響を受けやすく、注目領域の検出精度が低下するという問題があった。 However, when the visual saliency is calculated by directly using the basic feature image from such an input image, it is easily affected by noise due to environmental and observational factors, and the detection accuracy of the attention area is reduced. There was a problem.
上記課題を解決するために、本発明に係る注目領域検出方法は、入力画像内の複数の点のそれぞれに対して第1の抽出領域と該第1の抽出領域とは異なる第2の抽出領域とを設定する抽出領域設定工程と、前記第1の抽出領域および前記第2の抽出領域のそれぞれから特徴量を抽出する特徴量抽出工程と、同一の点に対して設定された前記第1の抽出領域と前記第2の抽出領域の特徴量との確率密度の関係に基づいて前記複数の点における視覚的顕著度を算出する算出工程と、
前記複数の点における視覚的顕著度に基づいて注目領域を検出する検出工程とを備える。
In order to solve the above-described problem, an attention area detection method according to the present invention includes a first extraction area and a second extraction area different from the first extraction area for each of a plurality of points in an input image. And an extraction region setting step for extracting feature amounts from each of the first extraction region and the second extraction region, and the first region set for the same point. A calculation step of calculating visual saliency at the plurality of points based on a probability density relationship between an extraction region and a feature amount of the second extraction region;
A detection step of detecting a region of interest based on visual saliency at the plurality of points .
本発明によれば、注目領域の検出精度を向上させることができる。 According to the present invention, it is possible to improve the detection accuracy of a region of interest.
以下、図面を参照しながら、本発明の各実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[第1の実施形態]
図1は、本発明の第1の実施形態に係る注目領域検出装置1の機能構成を示すブロック図である。本実施形態に係わる物体識別装置は、半導体集積回路(LSI)を用いて実現されるものとする。図1に示すように注目領域検出装置1は、学習部11、検出部12、制御部13を有する。これらの構成要素は注目領域検出装置1が果たす機能にそれぞれ対応している。
[First Embodiment]
FIG. 1 is a block diagram showing a functional configuration of a region of interest detection device 1 according to the first embodiment of the present invention. The object identification device according to the present embodiment is realized using a semiconductor integrated circuit (LSI). As illustrated in FIG. 1, the attention area detection device 1 includes a
注目領域検出装置1が果たす機能を大別すると2つある。その1つは学習機能であり、学習部11で実行される。もう1つは検出機能であり、検出部12で実行される。ここで、学習部11では、検出部12で用いられるパラメータαを算出する。また、検出部12は、学習部11で算出したパラメータαを用いて入力画像内の注目領域を検出する。さらに、制御部13は、物体識別装置1の各構成要素の制御を行っている。
The function performed by the attention area detection device 1 is roughly divided into two. One of them is a learning function, which is executed by the
一方、注目領域の検出結果は、注目領域検出装置1の上位階層の装置に伝達され、様々なアプリケーション(デジタルスチルカメラのオートフォーカス機能やセキュリティーカメラの異常検出機能など)に適用される。 On the other hand, the detection result of the attention area is transmitted to a higher-level device of the attention area detection device 1 and applied to various applications (such as an autofocus function of a digital still camera and an abnormality detection function of a security camera).
図2は検出部12の機能構成を示すブロック図である。図2に示すように検出部12は、第1の算出部である特徴量算出部121、第2の算出部である視覚的顕著度算出部122、極大値探索部123、統合部124から構成される。
FIG. 2 is a block diagram illustrating a functional configuration of the
図3は、データ抽出領域を説明する図である。特徴量算出部121は、図3のように、注目領域検出装置1の外部から入力される入力画像中に、訓練データ抽出領域と検証データ抽出領域を設定する抽出領域設定を実行し、各々の領域から無作為に所定の個数の複数種類の低次特徴量抽出を行う。
FIG. 3 is a diagram for explaining the data extraction area. As shown in FIG. 3, the feature
ここで、訓練データ抽出領域と検証データ抽出領域は、大きさの異なる2つの円形領域で与えられる。このうちの半径の大きい方の円形領域を第1の抽出領域である検証データ抽出領域とし、半径の小さい方の円形領域を第2の抽出領域である訓練データ抽出領域とする。 Here, the training data extraction area and the verification data extraction area are given as two circular areas having different sizes. Of these, the circular area with the larger radius is set as the verification data extraction area as the first extraction area, and the circular area with the smaller radius is set as the training data extraction area as the second extraction area.
また、訓練データ抽出領域と検証データ抽出領域の半径、抽出する低次特徴量の個数、およびその種類(輝度値、エッジ強度、テクスチャなど)は、あらかじめ学習部11により決定され、制御部13により伝達される。
Further, the radius of the training data extraction region and the verification data extraction region, the number of low-order feature amounts to be extracted, and their types (luminance value, edge strength, texture, etc.) are determined in advance by the
なお、ここで得られた低次特徴量は視覚的顕著度算出部122に出力される。
Note that the low-order feature amount obtained here is output to the visual
視覚的顕著度算出部122は、特徴量算出部121で得られた低次特徴量に基づいて、入力画像内の任意の点における視覚的顕著度Sを算出する。具体的には、訓練データ抽出領域から得られた低次特徴量と、検証データ抽出領域から得られた低次特徴量とのそれぞれを用いて推定される確率密度の比に基づいて、視覚的顕著度Sを算出する。
The
ここで、訓練データ抽出領域における低次特徴量の確率密度ptrainと、検証データ抽出領域における低次特徴量の確率密度ptestとの密度比(ptest/ptrain)は、たとえば、非特許文献1の密度比推定手法を用いて算出できる。 Here, the density ratio (p test / p train ) between the probability density p train of the low-order feature quantity in the training data extraction region and the probability density p test of the low-order feature quantity in the verification data extraction region is, for example, non-patent It can be calculated by using the density ratio estimation method of Document 1.
これから、視覚的顕著度Sは、特徴量算出部121で抽出される低次特徴量が単一種の場合(たとえば、輝度値Yのみの場合)は、その低次特徴量による確率密度の比の標準偏差σの逆数1/σで与えられる。
From this, the visual saliency S is the ratio of the probability density of the low-order feature quantity when the low-order feature quantity extracted by the feature
また、視覚的顕著度Sは、特徴量算出部121で抽出される低次特徴量が複数種の場合(たとえば、輝度値Y、エッジ強度E、テクスチャTの3種類の場合)は、以下のようになる。すなわち、学習部11より入力されるパラメータα=(αY,αE,αT)と、各々の低次特徴量による確率密度の比の標準偏差(σY,σE,σT,)の逆数(1/σY,1/σE,1/σT)による線形和を用いて、式(1)のように与えられる。
The visual saliency S is as follows when there are a plurality of types of low-order feature amounts extracted by the feature amount calculation unit 121 (for example, when there are three types of luminance value Y, edge strength E, and texture T). It becomes like this. That is, the standard deviation (σ Y , σ E , σ T ) of the ratio of the parameter α = (α Y , α E , α T ) input from the
さらに、視覚的顕著度Sは、特徴量算出部121で抽出される低次特徴量が複数種の場合(たとえば、N種類の場合)は、式(1)を容易に拡張でき、視覚的顕著度Sは式(2)のように与えられる。あるいは、より一般的に、視覚的顕著度Sは式(3)のようにσn(n=0〜N)に関する非線形関数としてもよい。 Further, the visual saliency S can be easily expanded when the number of low-order feature amounts extracted by the feature amount calculation unit 121 (for example, N types) can be easily extended. The degree S is given by equation (2). Alternatively, more generally, the visual saliency S may be a non-linear function related to σ n (n = 0 to N ) as in Expression (3).
なお、得られた視覚的顕著度Sは、極大値探索部123に出力される。
The obtained visual saliency S is output to the local
極大値探索部123は、特徴量算出部121と視覚的顕著度算出部122を用いて、入力画像内のさまざまな点(x,y)における視覚的顕著度S=S(x,y)を算出し、視覚的顕著度Sの統計的分布を求めるために、極大値(または、所定閾値以上の値)を与える点を検出する。
The local
なお、極大値(または、所定閾値以上の値)の検出された点pk(k=0〜K)は、統合部124に出力される。ただし、Kは、視覚的顕著度Sの極大値(または、所定閾値以上の値)が検出された点(x,y)の個数を表す。
The point p k (k = 0 to K) at which the maximum value (or a value equal to or greater than the predetermined threshold value) is detected is output to the
統合部124は、極大値探索部123で得られた、視覚的顕著度Sの極大値(または、所定閾値以上の値)が検出された検出点pk(k=0〜K)に対応する領域を局所的注目領域として設定する局所的注目領域設定を実行する。そして、それら局所的注目領域を2つの検出点の間の距離dに基づいて統合する。
The
例えば、図4のように、入力画像内の3点(pi,pj,pk)において視覚的顕著度Sの極大値(または、所定閾値以上の値)が得られたとする。図4において、pi,pj,pkは、各々の円形領域の中心であり、それぞれの半径の大きさは訓練データ抽出領域の半径の大きさに相当する。まず、点piとpjに着目し、これらの点の間の距離dijが所定閾値dthより小さい場合、この2つの点(pi,pj)を同一グループとして統合して局所的注目領域群を生成する。次に、点pjとpkに着目し、これらの点の間の距離djkが所定閾値dthより小さい場合、この2つの点(pj,pk)を同一のグループとして統合する。同様に、点piとpkに着目し、これらの点の間の距離dikが所定閾値dthより小さい場合、この2つの点を同一のグループとして統合する。ただし、上記所定閾値dthは、学習部12により決定され、制御部13により伝達される。
For example, as shown in FIG. 4, it is assumed that the maximum value of visual saliency S (or a value equal to or greater than a predetermined threshold value) is obtained at three points ( pi , pj , pk ) in the input image. In FIG. 4, p i , p j , and pk are the centers of the respective circular regions, and the size of each radius corresponds to the size of the radius of the training data extraction region. First, paying attention to the points p i and p j , if the distance d ij between these points is smaller than the predetermined threshold value d th , the two points (p i , p j ) are integrated into the same group and are locally A group of attention areas is generated. Next, paying attention to the points p j and p k , if the distance d jk between these points is smaller than the predetermined threshold value d th , the two points (p j , p k ) are integrated as the same group. Similarly, paying attention to the points p i and p k , if the distance d ik between these points is smaller than the predetermined threshold value d th , the two points are integrated as the same group. However, the predetermined threshold value d th is determined by the
これを視覚的顕著度Sの極大値(または、所定閾値以上の値)が検出された点pk(k=0〜K)の、すべての組に対して実行する。これにより、点pk(k=0〜K)に対応する局所的注目領域を複数のグループ(局所的注目領域群)gm(m=0〜M)に統合する(図5)。さらに、グループgm(m=0〜M)毎に視覚的顕著度Sの合計値Sm(m=0〜M)を算出し、その最大値を与えるグループgm’を包含する矩形領域を設定し(図6)、これを最終的な注目領域とする注目領域設定を実行する。ただし、上記Mは、グループ個数を表す(図5の例ではM=3)。 This is executed for all sets of points p k (k = 0 to K) at which the maximum value of visual saliency S (or a value equal to or greater than a predetermined threshold) is detected. Thereby, the local attention area corresponding to the point p k (k = 0 to K) is integrated into a plurality of groups (local attention area group) g m (m = 0 to M) (FIG. 5). Further, a total value S m (m = 0 to M) of visual saliency S is calculated for each group g m (m = 0 to M), and a rectangular region including the group g m ′ that gives the maximum value is calculated. The region of interest is set (FIG. 6), and the region-of-interest setting is executed with this as the final region of interest. However, M represents the number of groups (M = 3 in the example of FIG. 5).
なお、ここで得られた注目領域の入力画像上における位置とサイズは、制御部12に出力される。
Note that the position and size of the region of interest on the input image obtained here are output to the
なお、上記手段が注目領域検出装置1における検出部12の一例に相当する。
The above means corresponds to an example of the
図7は学習部11の機能構成を示すブロック図である。図7に示すように学習部11は、画像データベース111、係数算出部112から構成される。学習部11は、検出部12で用いられるパラメータαを、画像データベース111に格納されたGT(グランドトゥルース)画像に基づいて決定する。ここで、GT画像とは、入力画像内の予め意味のあるまとまった物体領域として、注目領域を図6の点線で示す矩形枠で定義し、その位置とサイズがあらかじめ設定された画像である。係数算出部112は、検出部12を用いて同様の注目領域検出結果が得られるように、パラメータαを学習する。
FIG. 7 is a block diagram showing a functional configuration of the
具体的には、パラメータαの候補α0,m(m=0〜M)をN次元空間のランダムな点の座標で与える。ただし、Nは低次特徴量の種類数を表し、本実施例では、輝度値Y、エッジ強度E、テクスチャTの3種類(N=3)を考えることにする。また、Mはパラメータαの候補数を表す。 Specifically, the parameter α candidates α 0, m (m = 0 to M) are given by the coordinates of random points in the N-dimensional space. However, N represents the number of types of low-order feature values, and in this embodiment, three types (N = 3) of luminance value Y, edge strength E, and texture T are considered. M represents the number of candidates for parameter α.
すると、パラメータαの候補α0,m(m=0〜M)は、図8のように、3次元空間(αY,αE,αT)における半径1の球体内のランダムな点の座標で与えられる。ここで、パラメータαの候補数Mは、学習時間を短縮したい場合は、比較的小さめ(例えば10〜50)に、注目領域の検出精度を重視したい場合は、比較的大きめ(例えば100〜500)に設定する。 Then, the parameter α candidates α 0, m (m = 0 to M) are coordinates of random points in a sphere with a radius 1 in a three-dimensional space (α Y , α E , α T ) as shown in FIG. Given in. Here, the candidate number M of the parameter α is relatively small (for example, 10 to 50) when it is desired to shorten the learning time, and is relatively large (for example, 100 to 500) when the detection accuracy of the attention area is important. Set to.
また、係数算出部112は、検出部12を用いて、パラメータαの候補α0,m(m=0〜M)の各々を用いた場合の検出精度R0,m(m=0〜M)を測定する。ここで、係数算出部112は、図9のように、画像データベース111に格納されたGT画像と、検出部12を用いて得られた注目領域検出結果を各々照らし合わせる。検出精度R0,mは、それらの重複する面積sとGT画像における注目領域の面積s’との面積比(s/s’)の平均値で与えられる。
Also, the
この結果、図10のように、最も良好な検出精度Rm’を与えるパラメータαの候補α0,m’が特定できたとする。次に、係数算出部112は、図11のように、新たなパラメータαの候補α1,m(m=0〜M)を、3次元空間(αY,αE,αT)における点α0,m’を中心とする、半径1*γ(0<γ<1)の球体内のランダムな点の座標で与える。ここで同様に、係数算出部112は、検出部12を用いて、パラメータαの候補α1,m(m=0〜M)の各々を用いた場合の検出精度R1,m(m=0〜M)を算出する。
As a result, as shown in FIG. 10, it is assumed that the candidate α 0, m ′ for the parameter α that gives the best detection accuracy R m ′ can be identified. Next, as shown in FIG. 11, the
係数算出部112は、以下同様に上記の操作を繰り返し、球体の半径が所定閾値γthより小さくなった場合、処理を打ち切り、その時点で得られたパラメータαを制御部13に出力する。ただし、上記所定閾値γthは、非負の実数として、試行錯誤的に決定される。以上が注目領域検出装置1における学習部11の一例に相当する。
The
このようにして得られた注目領域検出結果は、注目領域検出装置1のさらに上位階層に伝達される。例えば、注目領域検出後にロボットアームにより注目対象物体をピックアップするような状況においては、ロボットアームと注目領域検出装置1とを制御するための装置、プログラム等に伝達され、様々なアプリケーションに適用される。 The attention area detection result obtained in this way is transmitted to a higher hierarchy of the attention area detection device 1. For example, in a situation where the target object is picked up by the robot arm after the attention area is detected, the attention is transmitted to a device, a program, or the like for controlling the robot arm and the attention area detection device 1 and applied to various applications. .
以上が注目領域検出装置1の一例に相当する。 The above corresponds to an example of the attention area detection device 1.
[他の実施形態]
第1の実施形態では、注目領域検出装置は学習機能および識別機能の両者を実行するものとしたが、学習機能および検出機能のいずれか一方のみを実行するようにしてもよい。
[Other Embodiments]
In the first embodiment, the attention area detection device executes both the learning function and the identification function. However, only one of the learning function and the detection function may be executed.
第1の実施形態では、特徴量算出部121において、訓練データ抽出領域および検証データ抽出領域は2つの円形領域としていたが、円形状のみならず、楕円形状、矩形形状など、その他の任意形状を用いてもよい。また、最終的な注目領域も矩形領域に限らず、他の形状でもよい。
In the first embodiment, in the feature
第1の実施形態では、視覚的顕著度算出部122は式(2)を用いて視覚的顕著度Sを計算していたが、式(2)の代わりに、訓練データ抽出領域の面積sを用いて、式(4)を用いてもよい。また、訓練データ抽出領域の面積sの任意関数f(s)を用いて、式(5)を用いてもよい。
In the first embodiment, the visual
また、第1の実施形態では、視覚的顕著度算出部122は、視覚的顕著度Sを、訓練データ抽出領域における低次特徴量の確率密度と、検証データ抽出領域における低次特徴量の確率密度との関係として、両者の密度比に基づいて算出していた。これに限らず、それぞれの抽出領域の低次特徴量のヒストグラムを求め、それぞれのヒストグラムの対応するヒストグラムビン間の差分絶対値に基づいて、視覚的顕著度Sを算出するようにしてもよい。
Further, in the first embodiment, the visual
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェース機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。 Note that the present invention can be applied to a system (for example, a copier, a facsimile machine, etc.) consisting of a single device even when applied to a system composed of a plurality of devices (for example, a host computer, interface device, reader, printer, etc.). You may apply.
また、本発明は、以下の処理を実施することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU)がプログラムを読み出して実行する処理である。 The present invention can also be realized by performing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and the computer (or CPU or MPU) of the system or apparatus reads out and executes the program. It is processing to do.
図12は、プログラムを実行することで上述した注目領域検出装置を実現する情報処理装置のハードウェア構成を示すブロック図である。 FIG. 12 is a block diagram illustrating a hardware configuration of an information processing apparatus that realizes the above-described attention area detection device by executing a program.
CPU201は、各種プログラムを実行し、装置各部の制御を行う。ROM202は、不揮発性のメモリであり、情報処理装置を初期動作させる際に必要なプログラムなどを記憶する。RAM203は、CPU201のワークエリアを提供し、2次記憶装置204から読み出されたプログラムなどを一時記憶する。2次記憶装置204は、CPU201が使用するプログラム210を記録し、画像データベースで利用する画像を格納する。なお、プログラム210は、OS211、アプリケーション212、モジュール213、およびデータ214から構成される。
The
各デバイス201〜204は、バス205を通じて情報をやり取りする。情報処理装置は、バス205を介して、ディスプレイ206、キーボード207、マウス208、I/Oデバイス209とつながっている。
Each
ディスプレイ206は、ユーザに処理結果や処理の途中経過等の情報を表示するのに用いられる。キーボード207とマウス208は、ユーザからの指示を入力するのに用いられ、特にマウス208は表示上の位置を入力するのに用いられる。I/Oデバイス209は、処理対象の画像を取り込むために用いられる。例えば、I/Oデバイス209は、対象物体を撮影する撮影装置から入力画像を取り込む。また、I/Oデバイス209は、情報処理結果として得られた注目領域を撮影装置や画像処理装置など他の情報処理装置へ出力することもできる。
A
Claims (15)
前記第1の抽出領域および前記第2の抽出領域のそれぞれから特徴量を抽出する特徴量抽出工程と、
同一の点に対して設定された前記第1の抽出領域と前記第2の抽出領域との特徴量の確率密度の関係に基づいて前記複数の点における視覚的顕著度を算出する算出工程と、前記複数の点における視覚的顕著度に基づいて注目領域を検出する検出工程と、を有することを特徴とする注目領域検出方法。 An extraction region setting step of setting a first extraction region and a second extraction region different from the first extraction region for each of a plurality of points in the input image;
A feature amount extraction step of extracting a feature amount from each of the first extraction region and the second extraction region;
A calculation step of calculating visual saliency at the plurality of points based on a probability density relationship between the first extraction region and the second extraction region set for the same point; attention area detection method characterized by having a detection step of detecting a region of interest based on the visual saliency of the plurality of points.
前記視覚的顕著度に基づいて複数の局所的注目領域を設定する局所的注目領域設定工程と、
前記複数の局所的注目領域をそれらの距離の大きさに基づいて統合して局所的注目領域群を生成する統合工程と、
前記局所的注目領域群ごとに視覚的顕著度の合計値を算出し、その最大値を与える局所的注目領域群を特定する特定工程と、
特定された前記局所的注目領域群を包含する領域を前記注目領域として設定する注目領域設定工程と
を有することを特徴とする請求項6に記載の注目領域検出方法。 The detection step includes
A local attention area setting step of setting a plurality of local attention areas based on the visual saliency,
Integrating the plurality of local attention areas based on the size of their distance to generate a group of local attention areas;
A specific step of calculating a total value of visual saliency for each local attention area group, and specifying a local attention area group that gives the maximum value;
The attention area detection method according to claim 6, further comprising: an attention area setting step of setting an area including the specified local attention area group as the attention area.
前記第1の抽出領域および前記第2の抽出領域のそれぞれから特徴量を抽出する特徴量抽出手段と、
同一の点に対して設定された前記第1の抽出領域と前記第2の抽出領域の特徴量との確率密度の関係に基づいて前記複数の点における視覚的顕著度を算出する算出手段と、前記複数の点における視覚的顕著度に基づいて注目領域を検出する検出手段と、を有することを特徴とする注目領域検出装置。 Extraction region setting means for setting a first extraction region and a second extraction region different from the first extraction region for each of a plurality of points in the input image;
Feature quantity extraction means for extracting a feature quantity from each of the first extraction area and the second extraction area;
Calculating means for calculating visual saliency at the plurality of points based on a probability density relationship between the first extraction region and the feature amount of the second extraction region set for the same point; An attention area detection apparatus comprising: a detection means for detecting an attention area based on visual saliency at the plurality of points.
前記視覚的顕著度に基づいて複数の局所的注目領域を設定する局所的注目領域設定手段と、
前記複数の局所的注目領域をそれらの距離の大きさに基づいて統合して局所的注目領域群を生成する統合手段と、
前記局所的注目領域群ごとに視覚的顕著度の合計値を算出し、その最大値を与える局所的注目領域群を特定する特定手段と、
特定された前記局所的注目領域群を包含する領域を前記注目領域として設定する注目領域設定手段と
を有することを特徴とする請求項13に記載の注目領域検出装置。 The detection means includes
Local attention area setting means for setting a plurality of local attention areas based on the visual saliency,
An integration means for generating a group of local attention areas by integrating the plurality of local attention areas based on the size of their distance;
Calculating a total value of visual saliency for each local attention area group, and specifying means for specifying a local attention area group that gives the maximum value;
The attention area detection device according to claim 13, further comprising attention area setting means for setting an area including the identified local attention area group as the attention area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010273899A JP5704909B2 (en) | 2010-12-08 | 2010-12-08 | Attention area detection method, attention area detection apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010273899A JP5704909B2 (en) | 2010-12-08 | 2010-12-08 | Attention area detection method, attention area detection apparatus, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012123631A JP2012123631A (en) | 2012-06-28 |
JP5704909B2 true JP5704909B2 (en) | 2015-04-22 |
Family
ID=46504999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010273899A Expired - Fee Related JP5704909B2 (en) | 2010-12-08 | 2010-12-08 | Attention area detection method, attention area detection apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5704909B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102999926B (en) * | 2012-11-12 | 2016-06-29 | 北京交通大学 | A kind of image vision significance computational methods merged based on low-level image feature |
CN103020974B (en) * | 2012-12-31 | 2015-05-13 | 哈尔滨工业大学 | Significant region difference and significant density based automatic significant object detection implementation method |
CN103247051A (en) * | 2013-05-16 | 2013-08-14 | 北京工业大学 | Expected step number-based image saliency detection method |
CN103561261B (en) * | 2013-10-12 | 2016-10-26 | 重庆邮电大学 | The panoramic locatable video coded method that view-based access control model notes |
JP6525537B2 (en) | 2014-09-30 | 2019-06-05 | キヤノン株式会社 | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND STORAGE MEDIUM |
WO2023095520A1 (en) * | 2021-11-29 | 2023-06-01 | 富士フイルム株式会社 | Training data generation device, training data generation method, program, and defect inspection device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6282317B1 (en) * | 1998-12-31 | 2001-08-28 | Eastman Kodak Company | Method for automatic determination of main subjects in photographic images |
-
2010
- 2010-12-08 JP JP2010273899A patent/JP5704909B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012123631A (en) | 2012-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764024B (en) | Device and method for generating face recognition model and computer readable storage medium | |
WO2022170844A1 (en) | Video annotation method, apparatus and device, and computer readable storage medium | |
US11017210B2 (en) | Image processing apparatus and method | |
JP6573354B2 (en) | Image processing apparatus, image processing method, and program | |
US20200134377A1 (en) | Logo detection | |
US20180260669A1 (en) | Image processing apparatus, image processing method, template generation apparatus, object recognition processor, and object recognition processing program | |
JP5704909B2 (en) | Attention area detection method, attention area detection apparatus, and program | |
JP5261501B2 (en) | Permanent visual scene and object recognition | |
IL275535B1 (en) | Analysis of a captured image to determine a test outcome | |
JP6397379B2 (en) | CHANGE AREA DETECTION DEVICE, METHOD, AND PROGRAM | |
JP5455787B2 (en) | Motion analysis apparatus and motion analysis method | |
CN108573471B (en) | Image processing apparatus, image processing method, and recording medium | |
US8526679B2 (en) | Image processing apparatus and image processing method | |
JP6071002B2 (en) | Reliability acquisition device, reliability acquisition method, and reliability acquisition program | |
JP5936561B2 (en) | Object classification based on appearance and context in images | |
CN109448007A (en) | Image processing method, image processing apparatus and storage medium | |
US8542905B2 (en) | Determining the uniqueness of a model for machine vision | |
US8164633B2 (en) | Calibration apparatus and method for imaging devices and computer program | |
US11989928B2 (en) | Image processing system | |
JP2021026778A (en) | Cross-domain metric learning system and method | |
US9398208B2 (en) | Imaging apparatus and imaging condition setting method and program | |
JP6198104B2 (en) | 3D object recognition apparatus and 3D object recognition method | |
US20070223818A1 (en) | Method and apparatus for predicting the accuracy of virtual Scene based on incomplete information in video | |
WO2015086076A1 (en) | Method for determining a similarity value between a first image and a second image | |
CN113167568B (en) | Coordinate calculation device, coordinate calculation method, and computer-readable recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140819 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141017 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141111 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150127 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150224 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5704909 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |