[go: nahoru, domu]

JP2003522999A - Block-based intensity reconstruction method for static display scenes contained in a frame sequence divided into an array of blocks - Google Patents

Block-based intensity reconstruction method for static display scenes contained in a frame sequence divided into an array of blocks

Info

Publication number
JP2003522999A
JP2003522999A JP2001542045A JP2001542045A JP2003522999A JP 2003522999 A JP2003522999 A JP 2003522999A JP 2001542045 A JP2001542045 A JP 2001542045A JP 2001542045 A JP2001542045 A JP 2001542045A JP 2003522999 A JP2003522999 A JP 2003522999A
Authority
JP
Japan
Prior art keywords
intensity
block
blocks
values
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001542045A
Other languages
Japanese (ja)
Inventor
オーフェルフェルト,コルネリス ウェー アー エム ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Electronics NV filed Critical Philips Electronics NV
Publication of JP2003522999A publication Critical patent/JP2003522999A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 静的シーンを表示するために、ブロック毎の強度に関連する値をブロックのパターンのそれぞれに分割されるフレーム系列のそれぞれに割当てる。 (57) [Summary] In order to display a static scene, a value related to the intensity of each block is assigned to each of the frame sequences divided into each of the patterns of the block.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】 本発明は請求項1の前文において述べられたような方法に関する。特徴に基づ
く再構築から区別される、ブロックに基づく画像の再構築は、そのための多くの
動作が並列に実行されることで、高速な解決を達成する潜在能力を有している。
The invention relates to a method as described in the preamble of claim 1. Block-based image reconstruction, as distinguished from feature-based reconstruction, has the potential to achieve fast resolution, with many operations performed for it in parallel.

【0002】 [発明の背景] 様々な画像間のマッチングは、画像における全てのブロックに対して組織的に
実行される。このため、この解決法は、画像におけるほんのわずかな及び/又は
ごくあいまいな特徴が識別される場合がある局面でうまく適用することができる
。さらには、本発明の方法は、必要とされる処理量に関して、特徴に基づく方法
との結合がより経済的となるように、特徴に基づく方法のための前処理ステップ
として機能する場合がある。特徴に基づく再構築は、それ自身が従来技術の一部
である。本発明を用いるのは、インターエリア(inter alia)な連続的なフレー
ム間の補間においてである。
BACKGROUND OF THE INVENTION Matching between various images is systematically performed on all blocks in the image. Therefore, this solution can be successfully applied in situations where only a few and / or very ambiguous features in the image may be identified. Furthermore, the method of the present invention may function as a pre-processing step for a feature-based method so that the combination with the feature-based method is more economical with respect to the required throughput. Feature-based reconstruction is itself part of the prior art. The invention is used in interpolation between consecutive frames in an inter alia.

【0003】 これまでのブロックに基づく強度の再構築アルゴリズムは、画像の画素の方形
ブロックのそれぞれに単一の強度値を割当てており、オリジナル画像よりも連続
な強度マップの強度毎の解像度を作ることがある。さらに、従来技術による方法
は、本質的に動き予測アルゴリズムであり、そこでは強度データの1セットがオ
リジナル系列におけるたった2つの連続した画像に基づいて割当てられる。
Block-based intensity reconstruction algorithms to date have assigned a single intensity value to each rectangular block of pixels in the image, producing a more continuous intensity-based resolution of the intensity map than the original image. Sometimes. Moreover, the prior art method is essentially a motion estimation algorithm, where a set of intensity data is assigned based on only two consecutive images in the original sequence.

【0004】 したがって、従来技術は、受信される画像の長い系列に基づいた時間積分を使
用することができないことにより、低い解像度及び制限された正確さで強度マッ
プを作成する。本発明は、これら2つの問題を軽減することを保障するものであ
る。
The prior art therefore creates intensity maps with low resolution and limited accuracy due to the inability to use time integration based on long sequences of received images. The present invention ensures that these two problems are mitigated.

【0005】 [発明の概要] 結果的に、特に、本発明の目的は、改善された解像度及び正確さで強度マップ
を作成することである。これは、インターエリアな強度に関連した値(depth-as
sociated value)をブロックのピクセルのそれぞれに割当てること、ブロック当
りの複数の強度の候補となる強度値(depth candidate depth values)を許容す
ること、及び候補となる強度値の過剰なセットを組織的にせん定することによる
ものである。
SUMMARY OF THE INVENTION Consequently, and in particular, it is an object of the invention to create intensity maps with improved resolution and accuracy. This is a value (depth-as
Sociated value) to each of the pixels of the block, allowing multiple depth candidate depth values per block, and systematically with an excessive set of candidate intensity values. This is due to pruning.

【0006】 したがって、その態様の1つによれば、本発明は請求項1の特徴部分に従って
特徴付けられる。
Accordingly, according to one of its aspects, the invention is characterized according to the characterizing part of claim 1.

【0007】 また、本発明は、上述した方法を実現するために構成される装置に関する。本
発明のさらなる利点の態様は、独立した請求項において述べられる。
The invention also relates to a device configured to implement the method described above. Further advantageous aspects of the invention are set out in the independent claims.

【0008】 [発明の実施の形態] 本発明のこれら及びさらなる態様並びに利点は、好適な実施の形態の開示を参
照し、特に添付図面を参照することにより、以下に詳細に示される。
DETAILED DESCRIPTION OF THE INVENTION These and further aspects and advantages of the present invention are illustrated in detail below with reference to the disclosure of a preferred embodiment, and in particular with reference to the accompanying drawings.

【0009】 本発明の原理は以下に示される。[0009]   The principle of the present invention is shown below.

【0010】 a:フレームを格納するために、ブロックの画素のそれぞれは、問題となるブ
ロック全体に割当てられる強度に関連した値を一様に得る。
A: To store a frame, each pixel of the block gets uniformly a value related to the intensity assigned to the entire block in question.

【0011】 b:ブロックへの強度に関連した値を割当てるために、1つ又は複数の候補と
なる強度に関連した値が使用される。該値のそれぞれは、特定ブロックに関する
フレーム系列のマッピングにおける前のブロックから導出される。実際の割当て
は、複数の候補を保持することを通して後に延ばされてもよい。
B: One or more candidate intensity-related values are used to assign intensity-related values to the block. Each of the values is derived from the previous block in the mapping of the frame sequence for a particular block. The actual allocation may be postponed through holding multiple candidates.

【0012】 c:結果的な割当ては、問題となるブロックにとって実際に利用することがで
きる候補に基づいて、誤差最小化手順を使用する。
C: The resulting allocation uses an error minimization procedure based on the candidates that are actually available for the block in question.

【0013】 加えて、好適な実施の形態では、本明細書で提案する方法は、以下のさらなる
手段を使用している。上述したような様々な1つは言うまでもなく、又はその代
わりに、より拡張性のないものに制限される。
In addition, in a preferred embodiment, the method proposed herein uses the following additional means. Needless to say, or instead of the various ones mentioned above, are limited to less scalable ones.

【0014】 1.好適な実施の形態では、強度値それ自身の代わりに、相互の強度値よりは
むしろ強度に関連した値として使用する。この値は、不確かさの間隔(v,d)
として表現され、vは、期待される強度に関連した値であり、dは、予測される
不確かさであり、好ましくは、ガウス確率分布における標準偏差である。厳密な
強度値の代わりに、好的な実施の形態では、シーンの近い部分への強度の割当て
と、シーンの遠い部分への強度の割当てとの間の違いを正確に反映するために、
相互の強度値を使用する。相互の強度の使用を通して、達成できる絶対的な正確
さは、シーンの近い部分と遠い部分にわたり凡そ一様になる。
1. In the preferred embodiment, instead of the intensity values themselves, they are used as intensity-related values rather than mutual intensity values. This value is the uncertainty interval (v, d)
, V is a value related to the expected intensity, d is the predicted uncertainty, preferably the standard deviation in the Gaussian probability distribution. Instead of exact intensity values, in a preferred embodiment, to accurately reflect the difference between assigning intensity to near parts of the scene and assigning intensity to distant parts of the scene,
Use mutual intensity values. Through the use of mutual intensities, the absolute accuracy that can be achieved is approximately uniform over near and far parts of the scene.

【0015】 2.各ピクセルは、それに割当てられる各強度の不確かさの間隔を有する。[0015]   2. Each pixel has an interval of uncertainty of intensity assigned to it.

【0016】 3.第1の2つの時間ステップの間、すなわち瞬間t及びt+1でのフレーム
では、典型的なブロックに基づいたマッチング手順が使用される。これは、関連
する不確かさの間隔のための予測値と共にたとえば5×5画素を測定し、単一の
相互の強度値が全ての標準的なブロックに割当てられることを意味する。
3. During the first two time steps, ie the frames at instants t and t + 1, a typical block-based matching procedure is used. This means that, for example, 5 × 5 pixels are measured together with the predicted value for the associated uncertainty interval and a single mutual intensity value is assigned to all standard blocks.

【0017】 4.そのブロックにおける全ての画素は、この強度に関連した値にその関連し
た不確かさの間隔を加えて受ける。
4. All pixels in the block receive this intensity-related value plus its associated uncertainty interval.

【0018】 5.つぎに、t+1とt+2間の情報は、単一点に3次元空間における関連し
た強度の間隔を加えたものとして、フレームtにおける画素のそれぞれを補間す
ることにより考慮される。想定されるカメラの動きに基づいて、該情報は、t+
1での画像に関連する同格のシステムにこれらの点を転送して、外部空間から与
えられる。
5. The information between t + 1 and t + 2 is then considered by interpolating each of the pixels in frame t as a single point plus the spacing of the associated intensities in three-dimensional space. Based on the assumed camera movement, the information is t +
These points are transferred to the peer system associated with the image at 1 and given from the external space.

【0019】 6.次いで、t+1でのフレームは、標準サイズのブロックに分割される。次
いで、t+1でのブロックは、時間tに関連する画素の単一ブロック以上から生
じた画素を含んでいる場合がある。結果として、1以上の候補となる強度値は、
後のブロック又はそれについての部分に関連している。
[0019] 6. The frame at t + 1 is then divided into standard size blocks. The block at t + 1 may then contain pixels resulting from more than a single block of pixels associated with time t. As a result, one or more candidate intensity values are
It relates to a later block or part of it.

【0020】 7.フレームt+1,t+2等の間のブロックに基づいた強度の予測手順は、
多くの候補となる強度値がなおさらに大きくなる場合がある以外、前のフレーム
と同様なやり方で動作する。特に、ブロックのそれぞれは、様々な前のブロック
からマッピングされている部分を有する後のフレームの後続するブロックに関連
する候補となるセットに1以上の強度値を与える。
7. The block-based intensity prediction procedure between frames t + 1, t + 2, etc.
It operates in a similar manner to the previous frame, except that many candidate intensity values may be even larger. In particular, each of the blocks provides one or more intensity values to a candidate set associated with a subsequent block of a subsequent frame that has portions mapped from various previous blocks.

【0021】 8.あまりに大きな候補となるセットを避けるために、1つの候補となるセッ
トにおける第1の値の数は減少される。これは、以下のように行われる。
8. To avoid overly large candidate sets, the number of first values in one candidate set is reduced. This is done as follows.

【0022】 (a)第1の減少は、確信に基づいてなされてもよい。ここでは、改善しうる
強度に関連する値は消去される。たとえば、これは、前のブロックの非常に小さ
な部分から導出される候補となる値に付属する場合がある。
(A) The first reduction may be based on confidence. Here, the values associated with the strength that can be improved are eliminated. For example, this may be associated with a candidate value derived from a very small portion of the previous block.

【0023】 (b)つぎに、候補が整列された系列v[0],v[1], ...v[n−
1],を想定する。ここで、v[0]は、候補となる値間での最小値である。要
求される許容値εを仮定し、許容値εよりも互いに近い強度値の間で区別しない
(B) Next, the sequences v [0], v [1] ,. . . v [n-
1], is assumed. Here, v [0] is the minimum value among the candidate values. Assuming the required tolerance ε, no distinction is made between intensity values closer to each other than the tolerance ε.

【0024】 (c)候補となるセットw[0],w[1],...は、以下のように減少さ
れる。
(C) Candidate sets w [0], w [1] ,. . . Is reduced as follows.

【0025】 w[0]=v[0]; i=1;j=1 while(i<n){ if((v[i]−w[j−1]>ε)or(i=n−1)) {w[j]=v[i];j=j+1;}i=i+1; } なお、候補の初期値の全体の範囲が大きければ、候補の数は大きいままである
W [0] = v [0]; i = 1; j = 1 while (i <n) {if ((v [i] −w [j−1]> ε) or (i = n− 1)) {w [j] = v [i]; j = j + 1;} i = i + 1;} Note that if the entire range of initial values of candidates is large, the number of candidates remains large.

【0026】 9.大きな候補となるセットでのフレームt+1及びフレームt+2間で伝統
的なブロックに基づいたマッチングアルゴリズムを完結した後、フレームt+1
におけるブロックの強度予測のセットを持つことになる。これらの値は、以下に
示すように、ブロックにおけるピクセルでの値を更新するために使用される。
9. After completing the traditional block-based matching algorithm between frame t + 1 and frame t + 2 in the large candidate set, frame t + 1
Will have a set of block strength predictions at. These values are used to update the values at the pixels in the block, as shown below.

【0027】 (a)相互の強度及び関連する不確かさ(v,d)を有する画素を考え、
画素が属するブロックは、ブロックに基づいたアルゴリズムの結果として(v ,d)を得る。
(A) Consider a pixel with mutual intensities and associated uncertainties (v P , d P ),
The block to which the pixel belongs obtains (v b , d b ) as the result of the block-based algorithm.

【0028】 (b)次いで、vの新たな値、これをv’と呼ぶと、v’は、vとv との凸結合となるべきであり、これをv’=kv+(1−k)vと呼ぶ
と、これは、混合手順を事実表している。大きな値のk,0≦k≦1は、該画素
への強度割当ての履歴が、時間積分からのほんの小さな寄与をもたらすことを表
している。したがって、以前の値にわたる積分の場合には、履歴は重要である。
勿論、他の凸結合も同様にして実現することができる。
[0028]   (B) Then vPThe new value of vPP'Is vPAnd v b Should be a convex combination ofP’= KvP+ (1-k) vbCall
And this demonstrates the mixing procedure. A large value of k, 0 ≦ k ≦ 1 is the pixel
It is shown that the history of intensity assignments to P yields only a small contribution from the time integral.
is doing. Therefore, history is important in the case of integration over previous values.
Of course, other convex couplings can be realized in the same way.

【0029】 (c)dの新たな値、これをd’と呼ぶと、これは以下の項目に依存する
[0029] (c) a new value of d P, if this is referred to as d P ', which depends on the following items.

【0030】 ・前のd、たとえば比例して、 ・dの値、たとえば比例して、 ・逆比例等のように、画素が属するブロックの確定レベル ・|v−v|に逆比例すべきvとvの間の一致 10.このプロセスは、次の時間ステップにわたり繰り返される。さらに、画
素は、それらに転送されているいずれか前の画素から生じないように存在する場
合がある。これら「新たな」画素は、直接接している隣の画素の平均として取ら
れる初期の強度の割当てを受けることができる。それらの不確かさの値は、大き
な値に設定されなければならない。
The previous d P , eg proportionally, the value of d P , eg proportionally, the inverse of the definite level of the block to which the pixel belongs, such as inverse proportionality, etc. | v P −v b | Agreement between v P and v b to be proportional 10. This process is repeated over the next time step. Moreover, pixels may exist such that they do not originate from any previous pixels being transferred to them. These "new" pixels can receive an initial intensity assignment taken as the average of the immediately adjacent neighbor pixels. The value of those uncertainties must be set to a large value.

【0031】 本発明の実施の形態に関して、図1は、画素に分割される簡単な画像フィール
ド又はフレームを示している。フィールド20は、3行4列の一様なブロック2
2から構成されている。実際に、ブロックの数は一般的に多い。ブロック22は
、4行4列の画素24により構成されている。実際に、ブロックの画素の数は、
5×5画素等のような奇数の平方である。
For an embodiment of the invention, FIG. 1 shows a simple image field or frame divided into pixels. Field 20 is a uniform block 2 of 3 rows and 4 columns
It consists of two. In fact, the number of blocks is generally large. The block 22 is composed of pixels 24 arranged in 4 rows and 4 columns. In fact, the number of pixels in the block is
It is an odd square such as 5 × 5 pixels.

【0032】 対照区別において、本発明は、非一様ブロックに分割されるフレームで実施さ
れてもよい。たとえば、フレームの中央では、相対的に小さなブロックを有し、
フレームの周辺では相対的に大きなブロックを有する。さらに、連続するフレー
ムは、非一様なやり方でブロックに分割されてもよい。たとえば、強度において
相対的に小さな広がりを有するフレームは、強度に関してより大きな広がりを有
するフレームよりも別のパターンを得ることができる。
In contrast discrimination, the invention may be implemented with frames divided into non-uniform blocks. For example, in the center of the frame you have a relatively small block,
It has relatively large blocks around the frame. Further, consecutive frames may be divided into blocks in a non-uniform manner. For example, a frame with a relatively small spread in intensity may get a different pattern than a frame with a larger spread in intensity.

【0033】 図2は、時間的に変化する瞬間でのブロックの相対的な空間マッピングの例を
示している。第1の瞬間では、ブロック26は、実線により位置している。次の
(又は前の)瞬間では、対応するブロックは、破線により位置している。この場
合、画素2個分の右への一様なシフトがあり、画素1個分の下への一様なシフト
がある。
FIG. 2 shows an example of the relative spatial mapping of blocks at time-varying moments. At the first moment, the block 26 is located by the solid line. At the next (or previous) moment, the corresponding block is located by the dashed line. In this case, there is a uniform shift to the right by two pixels and a uniform shift down by one pixel.

【0034】 勿論、2つのシフトは、相互に独立である。さらなる実現可能な変化は、回転
及び拡大における変化である。画像のソースである物理的な物体の全ての可能な
移動について作り出ることと組み合わせて、記載される全ての変化が発生する場
合がある。
Of course, the two shifts are independent of each other. Further feasible changes are changes in rotation and magnification. All the changes described may occur in combination with creating for every possible movement of the physical object that is the source of the image.

【0035】 本発明による方法は、外側の実在物からのシーンを写すカメラの動き量を受け
る。動き予測それ自身は従来技術の一部である。たとえば、動き値は、ロボット
アームに搭載されたカメラの知られた動きから導出することができる。この動き
が与えられると、本発明はブロック毎の強度に関連した値を画像平面に関するも
のとして割当てるために始動する。したがって、横の動きは、画素それぞれに独
立な画像平面に関して強度パラメータを引き起こすことになる。上記スキームは
、画像ストリームの連続する画像間を中間的に補間するために使用される。
The method according to the invention receives a camera motion that captures a scene from an outer entity. Motion estimation itself is part of the prior art. For example, the motion value can be derived from the known motion of a camera mounted on the robot arm. Given this motion, the present invention starts to assign an intensity-related value for each block as to the image plane. Therefore, the lateral movement will cause an intensity parameter for the image plane independent of each pixel. The above scheme is used to interpolate intermediately between successive images in the image stream.

【0036】 画素は様々なカテゴリに入る。第1に、2つの画像のそれぞれにおける画素は
、問題となるブロック内に完全に置かれる。第2に、第1画像又は第2画像のい
ずれか、あるいは両者において、画素は、問題となるブロックの内側に部分的に
置かれる。第3に、2つの画像の1つにおいて、問題となる画素は、問題となる
ブロックの外側に完全に置かれる。また、この特徴は、第2のケースと結合して
起こる場合がある。
Pixels fall into various categories. First, the pixels in each of the two images are completely located within the block in question. Second, in either the first image or the second image, or both, the pixels are partially placed inside the block in question. Third, in one of the two images, the pixel of interest lies entirely outside the block of interest. This feature may also occur in combination with the second case.

【0037】 図3は、2つの連続するフレームt及びt+1における強度に関連する値z1
及びz2のそれぞれでの2つのブロックb1(t)及びb2(t)の第1のマッ
ピングを示している。
FIG. 3 shows the value z 1 associated with the intensity in two consecutive frames t and t + 1.
2 shows a first mapping of two blocks b1 (t) and b2 (t) at z and z2 respectively.

【0038】 ここでは、フレームt及びt+1に属する瞬間の間の相対的な動きは、それら
のブロックのマッピングが互いに衰えるようになっている。これにより、候補と
なるセットが小さいために、t+1でのフレームに対して強度に関連した値を相
対的に簡単に割当てている。
Here, the relative movement between the moments belonging to frames t and t + 1 is such that the mapping of those blocks decays relative to each other. This makes it relatively easy to assign a strength-related value to the frame at t + 1 because the candidate set is small.

【0039】 図4は、2つの連続したフレームt及びt+1における、強度に関連した値z
3でのブロックb3(t),及び深さに関連した値z4でのブロックb4(t)
の2つを示している。
FIG. 4 shows the intensity-related value z in two consecutive frames t and t + 1.
Block b3 (t) at 3 and a block b4 (t) at a value z4 related to depth
2 are shown.

【0040】 図示されるように、フレームt及びt+1に属する瞬間の間の相対的な動きは
、それらのブロックのマッピングが互いに近づくようになっている。これにより
、両方のもとのブロックが候補となる強度に関連した値を作ることができるため
に、t+1でのフレームのブロックb5(t+1)に対する強度に関連した値の
割当てが相対的に複雑になる。実際に、候補となるセットは、2よりずっと大き
い。本発明は、時間的なある瞬間での選択がなされなければならず、かかる選択
はある程度まで後に延ばされる場合があることを規定する。
As shown, the relative motion between the instants belonging to frames t and t + 1 is such that the mappings of those blocks are closer to each other. This makes the assignment of intensity-related values to block b5 (t + 1) of the frame at t + 1 relatively complex, since both original blocks can produce candidate intensity-related values. Become. In fact, the candidate set is much larger than two. The present invention provides that at some moment in time a choice must be made and such choice may be postponed to some extent.

【0041】 図5は、フレーム24におけるブロック20対シーン要素22のマッピングを
示している。本発明により、単一の強度に関連した値をブロック20に割当てる
ことは、表示品質を低下する一方で、ブロックに基づいた表現の粒状性を引き上
げる場合があることが認識できる。問題となるブロックに属する個々の画素の履
歴を考慮することを通して、問題となるブロックにわたる異なる強度に関連した
値の配分は、なお達成される。したがって、実際の割当てを遅らせることにより
、品質が向上する。
FIG. 5 shows the mapping of blocks 20 to scene elements 22 in frame 24. It will be appreciated that, according to the present invention, assigning a single intensity-related value to a block 20 may reduce the display quality while increasing the granularity of the block-based representation. Through considering the history of the individual pixels belonging to the block in question, the distribution of values associated with different intensities over the block in question is still achieved. Therefore, delaying the actual allocation improves quality.

【0042】 図6は、本発明の方法を実現するために構成されている装置を示している。記
憶ブロック(DEPTH)30は、ブロック毎の強度に関連した値、及びそれについ
てそれぞれの不確かさの距離の値(IN1)を受け、これら2つのデータを画素
のそれぞれに関して分けて格納する。
FIG. 6 shows an apparatus configured to implement the method of the invention. A memory block (DEPTH) 30 receives a value associated with the intensity of each block and a value (IN1) of the uncertainty of each of them, and stores these two data separately for each pixel.

【0043】 動き実現ブロック(MOTION)32は、記憶ブロック30からの様々な画素デー
タにより供給され、また、外部からの関連した動き情報を受ける。これにより、
系列における次のフレームの様々なブロックに関して受けた全ての画素データを
マッピングすることができる。それに基づいて、割当てブロック(ASSIGN)34
は、上記2つの値について、次のフレームにおけるブロックそれぞれに割当て可
能な候補のリストを供給する。それに基づいて、減少ブロック(REDUCE)36は
、前に確定された最適化基準に基づいて、ブロックのそれぞれの候補のリストを
減少する。
A motion realization block (MOTION) 32 is supplied with various pixel data from the storage block 30 and also receives relevant motion information from the outside. This allows
All pixel data received for various blocks of the next frame in the sequence can be mapped. Based on that, the assignment block (ASSIGN) 34
Provides a list of candidates that can be assigned to each of the blocks in the next frame for the above two values. Based on that, the reduction block (REDUCE) 36 reduces the list of each candidate of the block based on the previously determined optimization criteria.

【0044】 つぎに、選択ユニット(SELECT)38は、ブロックのそれぞれの利用すること
ができる候補から1つを選択又は混合する。これにより、表示ユニット(DISPLA
Y)40は、単一の強度に関連した値でブロックのそれぞれを表示することがで
きる。さらに、これにより、記憶ブロック30は、画素のそれぞれについて、強
度に関連する単一の可能な値、及びそれに関連した不確かさの間隔を格納するこ
とができる。
The selection unit (SELECT) 38 then selects or mixes one of the available candidates for each of the blocks. This allows the display unit (DISPLA
Y) 40 can represent each of the blocks with a value associated with a single intensity. Furthermore, it allows the storage block 30 to store, for each pixel, a single possible value associated with the intensity and the associated uncertainty interval.

【図面の簡単な説明】[Brief description of drawings]

【図1】 ブロック及び画素に分割される画像フィールドである。[Figure 1]   An image field divided into blocks and pixels.

【図2】 時間的に変化する瞬間でのブロックの相対的な空間マッピングである。[Fig. 2]   It is a relative spatial mapping of blocks at time-varying moments.

【図3】 2つのブロックの2つの連続するフレームへの第1マッピングである。[Figure 3]   A first mapping of two blocks into two consecutive frames.

【図4】 2つのブロックの2つの連続するフレームへの第2マッピングである。[Figure 4]   A second mapping of two blocks into two consecutive frames.

【図5】 ブロック対シーン要素のマッピングである。[Figure 5]   It is a block-to-scene element mapping.

【図6】 本発明の方法を実現するために構成される装置である。[Figure 6]   1 is an apparatus configured to implement the method of the present invention.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 ファン オーフェルフェルト,コルネリス ウェー アー エム オランダ国,5656 アーアー アインドー フェン,プロフ・ホルストラーン 6 Fターム(参考) 5C059 NN01 5L096 CA04 GA19 HA02 HA07 ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor van Overfeld, Cornelis               Way A M             Netherlands, 5656 Earth Ardine             Fen, Plov Holstran 6 F-term (reference) 5C059 NN01                 5L096 CA04 GA19 HA02 HA07

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 静的なシーンを表現するためにブロック毎の強度に関連した
値をブロックのパターンのそれぞれに分割されるフレーム系列のそれぞれに割当
てる方法であって、 フレーム(t,t+1)の第1サブ系列の間、関連した強度の不確かさの間隔
のための単一の強度に関連した値及び予測値をブロックのそれぞれに割当て、特
定ブロックのそれぞれのために、これら2つの値をその中の全ての画素に一様に
割当てるステップと、 次に続くフレーム(t+2)の間、前記系列(t)の最後でないフレームにお
ける画素のそれぞれを単一の点及び3次元空間における関連する強度の不確かさ
の間隔として解釈することにより、前記系列(t+1)の最後のフレームと次に
続くフレームとの間の情報を考慮し、予測されるカメラ動きに基づいて、様々な
単一点を前記系列の最後のフレーム(t+1)に関連する同格システムに転送す
るステップと、 前記系列(t+1)の最後の画像をブロックに分割し、前記最後でないフレー
ム(t)に関連する1以上のブロックから生じた画素を含むことをかかるブロッ
クに許容し、いずれかかかるブロックに1以上の強度値を関連付けることを許容
するステップと、 後続するフレームt+2,t+3等の間、上記ブロックに基づいた強度予測手
順を同様に繰り返し、ブロック当りの複数の候補となる強度に関連した値を許容
し、特に、特定の前のブロックが1以上の強度に関連した値を後のブロックの複
数の候補となる強度に関連した値に与えることを許容するステップと、 実際の複数の候補でフレームt+1及びt+2間のブロックに基づいたマッチ
ングを完了した後、フレームt+1におけるブロックのための強度に関連した値
のセットの予測を使用し、後のブロックにおける画素のための値を更新するステ
ップと、を備える方法。
1. A method of assigning a value associated with intensity for each block to each of a sequence of frames divided into each pattern of the block to represent a static scene, the method comprising: During the first subsequence, a single intensity-related value for the associated intensity uncertainty interval and a prediction value are assigned to each of the blocks, and for each particular block, these two values are assigned to that value. Assigning uniformly to all pixels in the sequence, and during the subsequent frame (t + 2), assigning each of the pixels in the non-last frame of the sequence (t) to a single point and associated intensity in three-dimensional space. By interpreting it as an interval of uncertainty, we take into account the information between the last frame of the sequence (t + 1) and the following frame, and based on the predicted camera motion. And transferring various single points to the peer system associated with the last frame (t + 1) of the sequence, dividing the last image of the sequence (t + 1) into blocks, and Allowing such blocks to include pixels resulting from one or more blocks of interest and associating one or more intensity values with any such block, during subsequent frames t + 2, t + 3, etc. The block-based intensity prediction procedure is repeated in the same manner to allow multiple candidate intensity-related values per block, in particular a particular previous block may receive one or more intensity-related values for subsequent blocks. A step of allowing a plurality of candidate strength-related values to be given, and a block of frames between frames t + 1 and t + 2 in the actual plurality of candidates. After completing the matching had method comprising the steps of updating the value for the pixel in use, after the block prediction of a set of values associated with the intensity for the block in the frame t + 1, a.
【請求項2】 前記強度に関連した値は、予測される不確かさの間隔dを条
件とした期待される相互の強度vである請求項1記載の方法。
2. A method according to claim 1, wherein the intensity-related value is the expected mutual intensity v subject to the predicted uncertainty interval d.
【請求項3】 前記不確かさの間隔は、ガウス確率分布における標準偏差で
ある、請求項2記載の方法。
3. The method of claim 2, wherein the uncertainty interval is a standard deviation in a Gaussian probability distribution.
【請求項4】 ある状況下で、複数の候補となる値における強度に関連した
値の実際の数を低い数に減少する、請求項1記載の方法。
4. The method of claim 1, wherein under certain circumstances the actual number of intensity-related values in the plurality of candidate values is reduced to a lower number.
【請求項5】 前記減少は、予め設定された許容値よりも互いに近い候補と
なる値を結合することによりなされる、請求項4記載の方法。
5. The method of claim 4, wherein the reduction is done by combining candidate values that are closer to each other than a preset tolerance value.
【請求項6】 前記減少は、それについて凸結合を形成する2つの候補とな
る強度に関連した値を混合することによりなされる、請求項3記載の方法。
6. The method of claim 3, wherein said reducing is done by mixing two candidate intensity-related values for which a convex bond is formed.
【請求項7】 画像の特徴に基づいた再構築手順に対する前処理ステップと
して使用される、請求項1記載の方法。
7. The method according to claim 1, which is used as a preprocessing step for a reconstruction procedure based on image features.
【請求項8】 フレーム間の補間方法として使用される、請求項1記載の方
法。
8. The method according to claim 1, which is used as an interpolating method between frames.
【請求項9】 静的なシーンを表現するためにブロック毎の強度に関連した
値をブロックのパターンのそれぞれに分割されるフレーム系列のそれぞれに割当
てる、請求項1記載の方法を実現するために構成されている装置であって、 フレーム(t,t+1)の第1サブ系列の間、関連した強度の不確かさの間隔
のための単一の強度に関連した値及び予測値をブロックのそれぞれに割当て、特
定ブロックのそれぞれのために、これら2つの値をその中の全ての画素に一様に
割当てるための割当て手段と、 次に続くフレーム(t+2)の間、前記系列(t)の最後でないフレームにお
ける画素のそれぞれを単一の点及び3次元空間における関連する強度の不確かさ
の間隔として解釈することにより、前記系列(t+1)の最後のフレームと次に
続くフレームとの間の情報を考慮し、予測されるカメラ動きに基づいて、様々な
単一点を前記系列の最後のフレーム(t+1)に関連する同格システムに転送す
るための考慮手段と、 前記系列(t+1)の最後の画像をブロックに分割し、前記最後でないフレー
ム(t)に関連する1以上のブロックから生じた画素を含むことをかかるブロッ
クに許容し、いずれかかかるブロックに1以上の強度値を関連付けることを許容
するための分割手段と、 後続するフレームt+2,t+3等の間、上記ブロックに基づいた強度予測手
順を同様に繰り返し、ブロック当りの複数の候補となる強度に関連した値を許容
し、特に、特定の前のブロックが1以上の強度に関連した値を後のブロックの複
数の候補となる強度に関連した値に与えることを許容するための繰返し手段と、 実際の複数の候補でフレームt+1及びt+2間のブロックに基づいたマッチ
ングを完了した後、フレームt+1におけるブロックのための強度に関連した値
のセットの予測を使用し、後のブロックにおける画素のための値を更新するため
の更新手段と、を備える装置。
9. A method according to claim 1, wherein a value associated with intensity per block is assigned to each of the frame sequences divided into each of the patterns of the block to represent a static scene. A device configured to provide a single intensity-related value and a prediction value for each of the blocks during the first sub-sequence of frame (t, t + 1) for the associated intensity uncertainty interval. Allocation, for each of the particular blocks, allocation means for evenly allocating these two values to all pixels therein, and not during the next subsequent frame (t + 2) of the sequence (t). By interpreting each of the pixels in a frame as a single point and associated intensity uncertainty interval in three-dimensional space, the last frame of the sequence (t + 1) and then Considering means for transferring information to and from the frame and transferring various single points to the peer system associated with the last frame (t + 1) of the sequence based on the predicted camera motion, said sequence ( t + 1) the last image is divided into blocks, allowing such blocks to include pixels resulting from one or more blocks associated with the non-last frame (t), and one or more intensity values in any such block. And a dividing means for allowing the association of the above, and similarly, during the subsequent frames t + 2, t + 3, etc., the above-described block-based intensity prediction procedure is similarly repeated to allow a plurality of candidate intensity-related values per block. In particular, it allows a particular previous block to provide one or more intensity-related values to multiple candidate intensity-related values of a subsequent block. And a prediction of the set of intensity-related values for the block at frame t + 1 after completing the block-based matching between frames t + 1 and t + 2 with the actual candidates. Updating means for updating the values for the pixels in the block.
【請求項10】 特定のフレームのブロックのそれぞれに属する強度に関連
する値を記憶するための記憶手段と、 前記記憶手段により供給され、全ての画素データをマッピングし、かつ系列に
おける次のフレームの様々なブロックに関する強度値データに付属する外部で発
生された動き情報を制御するための動き実現手段と、 前記動き実現手段により供給され、次のフレームにおけるブロックのそれぞれ
に対する強度に関連する値のための割当て可能な候補と該値のそれぞれの不確か
さの間隔とのリストを作るための割当て手段と、 前記割当て手段により供給され、予め特定された最適化基準に基づいて、ブロ
ックのそれぞれのための候補値の前記リストを減少するための減少手段と、 前記減少手段により供給され、次の表示のために表示手段に及び/又は次に続
くフレームの間に前記再構築を繰り返すために前記記憶手段に対して、利用でき
る候補の値からブロックのそれぞれについてたった1つを選択又は混合するため
の選択手段と、を備える請求項1記載の装置。
10. Storage means for storing values relating to intensities belonging to each of the blocks of a particular frame, mapping all pixel data supplied by said storage means, and of the next frame in the sequence. Motion realization means for controlling externally generated motion information attached to the intensity value data for the various blocks, and for values related to the strength for each of the blocks in the next frame, provided by said motion realization means Assigning means for producing a list of allocatable candidates of and the respective uncertainty intervals of the value, and for each of the blocks based on pre-specified optimization criteria supplied by said assigning means Reducing means for reducing the list of candidate values, and display for next display, supplied by the reducing means Selection means for selecting or mixing only one for each of the blocks from the candidate values available to the storage means for repeating the reconstruction in stages and / or during subsequent frames; The apparatus of claim 1, comprising:
JP2001542045A 1999-12-02 2000-11-15 Block-based intensity reconstruction method for static display scenes contained in a frame sequence divided into an array of blocks Pending JP2003522999A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP99204087 1999-12-02
EP99204087.3 1999-12-02
PCT/EP2000/011426 WO2001041063A2 (en) 1999-12-02 2000-11-15 A block-based depth reconstruction method for a static display scene which is contained in a sequence of frames that are divided into an array of blocks

Publications (1)

Publication Number Publication Date
JP2003522999A true JP2003522999A (en) 2003-07-29

Family

ID=8240958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001542045A Pending JP2003522999A (en) 1999-12-02 2000-11-15 Block-based intensity reconstruction method for static display scenes contained in a frame sequence divided into an array of blocks

Country Status (3)

Country Link
EP (1) EP1279144A2 (en)
JP (1) JP2003522999A (en)
WO (1) WO2001041063A2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001520781A (en) * 1998-02-06 2001-10-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Motion or depth estimation

Also Published As

Publication number Publication date
WO2001041063A2 (en) 2001-06-07
EP1279144A2 (en) 2003-01-29
WO2001041063A3 (en) 2002-11-14

Similar Documents

Publication Publication Date Title
JP3679426B2 (en) A system that encodes image data into multiple layers, each representing a coherent region of motion, and motion parameters associated with the layers.
JP7004314B2 (en) Semi-parametric optical flow estimation
EP0046988B1 (en) Method for lightness imaging
CN107590791B (en) Image enhancement method and image processing apparatus
EP0652536B1 (en) Method and apparatus for estimating motion vector fields by rejecting local outliers
WO2003047234A2 (en) System and method for providing multi-sensor super-resolution
CN110766767B (en) Method, system and device for acquiring Gray code structured light image
JP2005302021A (en) Method and apparatus for determination of motion vector allocated to image region of image
JP2005352720A (en) Imaging apparatus and method for attaining high resolution of image
CN111614911B (en) Image generation method and device, electronic device and storage medium
Zou et al. Super-Resolution Reconstruction of Images Based on Microarray Camera.
WO2019119295A1 (en) Image fusion method and apparatus, and unmanned aerial vehicle
CN113920270B (en) Layout reconstruction method and system based on multi-view panorama
CN109727196B (en) Image interpolation processing method
CN111598775A (en) Light field video time domain super-resolution reconstruction method based on LSTM network
KR20130057324A (en) Apparatus and method for hierarchical stereo matching
US8115858B2 (en) System and method for acquiring moving images
CN113298707B (en) Image frame splicing method, video inspection method, device, equipment and storage medium
CN108986155B (en) Depth estimation method and depth estimation apparatus for multi-viewpoint image
CN109360176A (en) Image processing method, device, electronic equipment and computer readable storage medium
JP2003522999A (en) Block-based intensity reconstruction method for static display scenes contained in a frame sequence divided into an array of blocks
CN115641264A (en) Image preprocessing method and image preprocessing system based on CUDA
CN116416368A (en) Modeling method and device, nonvolatile storage medium and electronic equipment
US20060228007A1 (en) Image processing
JP2019036804A (en) Ceiling map creating method, ceiling map creating apparatus, and ceiling map creating program