JPH08163565A - Motion vector detection method and device therefor - Google Patents
Motion vector detection method and device thereforInfo
- Publication number
- JPH08163565A JPH08163565A JP30071494A JP30071494A JPH08163565A JP H08163565 A JPH08163565 A JP H08163565A JP 30071494 A JP30071494 A JP 30071494A JP 30071494 A JP30071494 A JP 30071494A JP H08163565 A JPH08163565 A JP H08163565A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- image
- contour line
- weighting
- detecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は動画像やステレオ画像の
符号化、画像ぶれ補正、移動物体認識、被写体の3次元
形状計測等に利用される動きベクトル検出方法及びその
装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion vector detecting method and apparatus used for encoding moving images and stereo images, image blur correction, moving object recognition, three-dimensional shape measurement of an object, and the like.
【0002】[0002]
【従来の技術】従来の動きベクトル検出方法としては、
米国特許第3890462号公報や特公昭60−第46
878号公報等に記載の時空間勾配法(クラディエント
法)、時空間勾配法を周波数空間で行うフーリエ変換
法、あるいは相関演算に基づく相関法やブロックマッチ
ング法(テンプレートマッチング法)がある。時空間勾
配法については、B.K.P.Hornらにより、Artificial Int
elligence 17,p.185-203(1981)で詳しく論じられてい
る。また、ブロックマッチング法については、尾上守夫
らにより、情報処理Vol.17,No.7,p.63
4〜640,1976年7月で詳しく論じられている。2. Description of the Related Art As a conventional motion vector detecting method,
U.S. Pat. No. 3,890,462 and Japanese Patent Publication No. 60-46
There are a spatiotemporal gradient method (gradient method), a Fourier transform method for performing the spatiotemporal gradient method in frequency space, a correlation method based on a correlation operation, and a block matching method (template matching method) described in Japanese Patent No. 878. For the spatiotemporal gradient method, see BKPHorn et al., Artificial Int.
elligence 17, p. 185-203 (1981). Regarding the block matching method, Morio Onoue et al. 17, No. 7, p. 63
4-640, July 1976.
【0003】これらの手法では、フレーム間隔又はフィ
ールド間隔で得られた2つの画像をそれぞれ複数の小領
域(ブロック)に分割して、小領域単位に2つの画像の
対応領域を探索することにより、動きベクトルを検出す
る。このため、当該小領域内に複数の動きが混在する場
合には、原理的に正しい対応付けができない。In these methods, two images obtained at frame intervals or field intervals are each divided into a plurality of small areas (blocks), and the corresponding areas of the two images are searched in small area units. Detect a motion vector. Therefore, when a plurality of movements are mixed in the small area, correct association cannot be performed in principle.
【0004】この対策として、例えば、M.Bierling:"Hi
erarchical Estimation of Displacement Vector Field
s", PCS '87 に記載のように、入力画像をサブサンプリ
ングするか、あるいは、富永らによる“階層画素情報を
用いた動画像における動き検出方法”(電子情報通信学
会論文誌 D−II Vol.J72−D−II,N
o.3,p.395〜403,1989年3月)に記載
のように画像を平均化して圧縮するなどして、フルサイ
ズのオリジナル画像から圧縮された画像まで階層的な画
像データ群に変換することにより、徐々に動きベクトル
検出の解像度を上げていく階層的な手法が良く採られ
る。As a countermeasure against this, for example, M. Bierling: "Hi
erarchical Estimation of Displacement Vector Field
s ", PCS '87, or subsampling the input image, or" Motion Detection Method in Moving Images Using Hierarchical Pixel Information "by Tominaga et al. (IEICE Transactions D-II Vol. J72-D-II, N
o. 3, p. 395 to 403, March 1989), by averaging and compressing images, etc. to convert a full size original image to a compressed image into a hierarchical image data group, A hierarchical method of increasing the resolution of motion vector detection is often adopted.
【0005】もっと直接的に、例えば、富永らによる
“階層画素情報による動き量検出−動き量の空間解像度
の向上手法−”(電子情報通信学会論文誌 D−II
Vol.J72−D−II,No.10,p.1750
〜1752,1989年10月)に記載のようにブロッ
クサイズ自身を大きいものから小さいものへと逐次変化
させて、徐々に動きベクトル検出の解像度を上げていく
手法もある。また、特開平6−第89343号公報に記
載のように、ブロックを小型の子ブロックに分割して、
事前に当該子ブロックを用いたマッチング演算を行い、
一定以上の相関値を持つ類似パターンが無い子ブロック
を不感帯に設定して、改めて親ブロックで対応点を探索
するなどの手法も提案されている。なお、ブロックとは
前記画像の小領域と同義である。[0005] More directly, for example, "Motion Detection by Hierarchical Pixel Information-Method of Improving Spatial Resolution of Motion-" by Tominaga et al. (Journal of the Institute of Electronics, Information and Communication Engineers D-II).
Vol. J72-D-II, No. 10, p. 1750
~ 1752, October 1989), there is also a method of gradually increasing the resolution of motion vector detection by gradually changing the block size itself from a large block size to a small block size. Further, as described in JP-A-6-89343, the block is divided into small child blocks,
Perform matching calculation using the child block in advance,
There is also proposed a method of setting a child block having no similar pattern having a correlation value of a certain value or more as a dead zone and searching for a corresponding point in the parent block again. The block is synonymous with the small area of the image.
【0006】[0006]
【発明が解決しようとする課題】しかしながら、上記従
来例の階層的手法では画像をサブサンプリングする際に
発生する折り返しひずみの影響を受け高精度の対応点検
出ができない、平均化して画像を縮小する処理を繰り返
す手間がかかる、また、サイズの異なる複数の画像群を
記憶する大容量の画像メモリが必要になるなどの問題が
ある。However, according to the above-mentioned conventional hierarchical method, it is impossible to detect corresponding points with high accuracy due to the influence of aliasing distortion that occurs when subsampling an image, and the image is reduced by averaging. There are problems that it takes time and labor to repeat the processing, and that a large-capacity image memory for storing a plurality of image groups having different sizes is required.
【0007】また、ブロックサイズを変化する上記従来
例では、ブロックサイズを変化させるための専用の画像
メモリアドレス制御回路が必要になる、また、不感帯を
求める手法では、1ブロック処理する度に複数の子ブロ
ックによるマッチング演算を予め実行するため、計算量
が膨大になるなどの問題がある。Further, in the above-mentioned conventional example in which the block size is changed, a dedicated image memory address control circuit for changing the block size is required, and in the method of obtaining the dead zone, a plurality of blocks are processed each time one block is processed. Since the matching operation by the child block is executed in advance, there is a problem that the calculation amount becomes huge.
【0008】更に、共通した問題として、物体と背景と
の境界域で発生するオクルージョンによる影響を考慮し
ていないため、オクルージョン部で、解像度を上げてい
く過程で対応付けの精度劣化を受けるという問題があ
る。Further, as a common problem, since the effect of occlusion occurring in the boundary area between the object and the background is not taken into consideration, there is a problem in that the accuracy of the matching is deteriorated in the process of increasing the resolution in the occlusion section. There is.
【0009】本発明は上記の問題を解決するために成さ
れたものであり、第1の発明(請求項1、2、3、4、
5)は、時系列画像間の画像の動きを対象としており、
注目している小領域内に複数の動きがある時の当該小領
域の動きベクトル検出精度を高めることを目的としてい
る。The present invention has been made in order to solve the above problems, and provides a first invention (claims 1, 2, 3, 4).
5) is aimed at the movement of images between time series images,
It is intended to improve the motion vector detection accuracy of a small area when there are a plurality of movements in the small area of interest.
【0010】第2の発明(請求項2、3、6)は、多視
点画像間の画像の動きを対象としており、注目している
小領域内に異なる被写体距離の物体がある時の当該小領
域の動きベクトル検出精度を高めることを目的としてい
る。A second aspect of the present invention (claims 2, 3, and 6) is directed to the movement of images between multi-viewpoint images, and when there is an object with a different subject distance in a small region of interest, the small region is detected. The purpose is to improve the accuracy of motion vector detection in a region.
【0011】第3の発明(請求項2、3、7)は、時系
列画像間の画像の動きと多視点画像間の画像の動きとの
両方を対象としており、注目している小領域の動きベク
トル検出精度を高めることを目的としている。The third aspect of the present invention (claims 2, 3, and 7) is directed to both the movement of images between time-series images and the movement of images between multi-viewpoint images, and The purpose is to improve the accuracy of motion vector detection.
【0012】第4の発明(請求項2、3、8)では、注
目している小領域内に複数の動きがある時の、特に当該
小領域の中心点の動きベクトル検出精度を高めることを
目的としている。According to a fourth aspect of the present invention (claims 2, 3, and 8), when there are a plurality of movements in a small region of interest, it is particularly desirable to improve the accuracy of motion vector detection at the center point of the small region. Has an aim.
【0013】第5の発明(請求項2、3、9)は、注目
している小領域内に複数の動きがある時の、特に当該小
領域内のより手前にある物体の動きベクトル検出精度を
高めることを目的としている。A fifth aspect of the present invention (claims 2, 3, and 9) is that, when there are a plurality of movements in a small region of interest, the motion vector detection accuracy of an object in front of the small region is particularly high. The purpose is to increase.
【0014】請求項2、3、10は、注目している小領
域内に複数の動きがある時の、特に当該小領域内のより
面積の大きい物体の動きベクトル検出精度を高めること
を目的としている。The second, third, and tenth aspects are intended to improve the motion vector detection accuracy of an object having a larger area, especially when there are a plurality of movements in a small area of interest. There is.
【0015】[0015]
【課題を解決するための手段】上記各目的を達成するた
めに、第1の発明(請求項1、2、3、4、5)は、注
目している小領域内のエッジ群から輪郭線を検出する輪
郭線検出ステップあるいは手段を有することを特徴とす
る。In order to achieve each of the above objects, the first invention (claims 1, 2, 3, 4, 5) is based on a contour line from a group of edges in a small region of interest. It is characterized by having a contour line detecting step or means for detecting.
【0016】第2の発明(請求項2、3、6)は、上記
第1の発明と同様に、注目している小領域内のエッジ群
から輪郭線を検出する輪郭線検出手段を有することを特
徴とする。The second invention (claims 2, 3, and 6) has a contour line detecting means for detecting a contour line from an edge group in a small region of interest, as in the first invention. Is characterized by.
【0017】第3の発明(請求項2、3、7)は、上記
第1、2の発明と同様に、注目している小領域内のエッ
ジ群から輪郭線を検出する輪郭線検出手段を有すること
を特徴とする。The third invention (claims 2, 3, and 7) is, similarly to the first and second inventions, a contour line detecting means for detecting a contour line from an edge group in a small region of interest. It is characterized by having.
【0018】第4の発明(請求項2、3、8)は、注目
している小領域内に重み付けを行う重み付け手段を有す
ることを特徴とする。A fourth aspect of the present invention (claims 2, 3, and 8) is characterized by having weighting means for performing weighting in a small region of interest.
【0019】第5の発明(請求項2、3、9)は、上記
第4の発明と同様に、注目している小領域内に重み付け
を行う重み付け手段を有することを特徴とする。The fifth aspect of the present invention (claims 2, 3, and 9) is characterized in that it has a weighting means for weighting the small region of interest, as in the case of the fourth aspect.
【0020】第6の発明(請求項2、3、10)は、上
記第4の発明と同様に、注目している小領域内に重み付
けを行う重み付け手段を有することを特徴とする。The sixth invention (claims 2, 3 and 10) is characterized in that, like the above-mentioned fourth invention, it has a weighting means for weighting the small region of interest.
【0021】[0021]
【作用】上記第1の発明においては、輪郭線検出手段
は、前記注目している小領域内のエッジを挟む両側の画
像濃度の時間変化量を用いて、物体と背景、あるいは他
の物体との境界である輪郭線を検出するように動作す
る。In the first aspect of the invention, the contour line detecting means uses the time change amount of the image densities on both sides of the edge of the small region of interest to detect an object and a background or another object. It operates so as to detect the contour line that is the boundary of.
【0022】上記第2の発明においては、輪郭線検出手
段は、複数の視点から画像を入力した時のエッジの両側
の画像濃度の変化量を用いて、異なる被写体距離にある
物体と背景、あるいは他の物体との境界である輪郭線を
検出するように動作する。In the second aspect of the invention, the contour line detecting means uses the change amount of the image density on both sides of the edge when the images are input from a plurality of viewpoints, and the object and the background at different object distances, or It operates to detect a contour line that is a boundary with another object.
【0023】上記第3の発明においては、輪郭線検出手
段は、注目している小領域とその周囲の小領域から検出
される動きベクトルの連続性を用いて、物体の輪郭線を
検出するように動作する。In the third aspect of the present invention, the contour line detecting means detects the contour line of the object by using the continuity of the motion vector detected from the small area of interest and the surrounding small areas. To work.
【0024】上記第4の発明においては、重み付け手段
は上記小領域の中心点を含む当該小領域内の画像領域を
重く、中心点を含まない当該小領域内の画像領域を軽く
設定するように動作する。In the fourth invention, the weighting means sets the image area in the small area including the center point of the small area to be heavy, and the image area in the small area not including the center point to be light. Operate.
【0025】上記第5の発明においては、重み付けは、
上記小領域の中でより近距離にある物体に対応する当該
小領域内の画像領域を重く、遠距離にある物体に対応す
る当該小領域内の画像領域を軽く設定するように動作す
る。In the fifth invention, the weighting is
In the small area, the image area in the small area corresponding to an object at a closer distance is set to be heavier, and the image area in the small area corresponding to an object at a longer distance is set to be lighter.
【0026】上記第6の発明においては、重み付け手段
は、上記小領域の中でより面積の大きい物体に対応する
当該小領域内の画像領域を重く、面積の小さい物体に対
応する当該小領域内の画像領域を軽く設定するように動
作する。In the sixth aspect of the present invention, the weighting means weights the image area in the small area corresponding to an object having a larger area in the small area and weights the image area in the small area corresponding to an object having a smaller area. It works like setting the image area of.
【0027】[0027]
【実施例】以下、本発明の第1〜第3の実施例を図につ
いて説明する。 〔第1の実施例〕図1は本発明による動きベクトル検出
装置の実施例を示す。尚、この図1の構成は第2、第3
の実施例においても用いられる。図1において、1はカ
メラ、再生装置等の外部機器から入力される画像データ
を入力する画像入力部、2は入力画像データを格納する
フレームメモリ等のメモリ、3はメモリ2に格納された
画像を小領域に分割し、小領域単位に画像データを読み
出す制御を行うメモリ制御部、4は入力された現フレー
ムの画像データをメモリ2の小領域と同じ小領域に分割
する画像分割部である。The first to third embodiments of the present invention will be described below with reference to the drawings. [First Embodiment] FIG. 1 shows an embodiment of a motion vector detecting device according to the present invention. The configuration of FIG. 1 has a second and a third configuration.
Is also used in the embodiment of. In FIG. 1, reference numeral 1 is an image input unit for inputting image data input from an external device such as a camera or playback device, 2 is a memory such as a frame memory for storing input image data, and 3 is an image stored in the memory 2. Is divided into small areas, and a memory control unit 4 that controls reading of image data in units of small areas is an image dividing unit that divides the input image data of the current frame into the same small areas as the small areas of the memory 2. .
【0028】5はメモリ2及び画像分割部4から出力さ
れる2つの画像データの対応付けを行うことにより、あ
るいは後述する重み付け部9の出力により動きベクトル
を検出する動きベクトル検出部、6は検出された動きベ
クトルの信頼性を判断する判断部、7は信頼性が低いと
判断された小領域のデータにおける画像のエッジを検出
するエッジ検出部、8は検出されたエッジからさらに物
体の輪郭線を検出する輪郭線検出部、9は検出された輪
郭線の両側の領域にそれぞれ重み付けを行って動きベク
トル検出部5に送る重み付け部である。10は各部を制
御するCPU等の制御部である。Reference numeral 5 is a motion vector detecting section for detecting a motion vector by associating two image data output from the memory 2 and the image dividing section 4 or by the output of a weighting section 9 which will be described later. The determination unit that determines the reliability of the detected motion vector, 7 is the edge detection unit that detects the edge of the image in the data of the small area that is determined to have low reliability, and 8 is the contour line of the object from the detected edge. The contour line detection unit 9 detects the contours, and the weighting unit 9 weights regions on both sides of the detected contour line and sends the weighted regions to the motion vector detection unit 5. Reference numeral 10 is a control unit such as a CPU that controls each unit.
【0029】尚、メモリ2、メモリ制御部3、画像分割
部4により画像分割手段を構成し、動きベクトル検出部
5、判断部6により動きベクトル検出手段を構成する。
また、エッジ検出部7、輪郭線検出部8により輪郭線検
出手段を構成する。The memory 2, the memory control unit 3, and the image division unit 4 constitute an image division unit, and the motion vector detection unit 5 and the judgment unit 6 constitute a motion vector detection unit.
Further, the edge detection unit 7 and the contour line detection unit 8 constitute a contour line detection means.
【0030】図2は、本発明の実施例による動きベクト
ル検出方法の処理フローを示す。以下、図1、図2を参
照してステップ順に処理内容を説明する。 (ステップS1)画像入力部1はCCDに代表されるよ
うな光電変換素子等から得られた画像データを離散化し
て、メモリ2に記憶する。 (ステップS2)メモリ制御部3はメモリ2内に蓄えら
れた画像データを複数個の小領域に分割し、当該複数個
の小領域の中から対象となる小領域へ移動して、当該小
領域内の画像データを読み出す。これと共に画像分割部
4は上記画像データの1フレーム(又は1フィールド)
後に入力された画像データを上記小領域と対応する複数
の小領域に分割する。FIG. 2 shows a processing flow of the motion vector detecting method according to the embodiment of the present invention. Hereinafter, the processing contents will be described in the order of steps with reference to FIGS. (Step S1) The image input unit 1 discretizes image data obtained from a photoelectric conversion element represented by a CCD and stores it in the memory 2. (Step S2) The memory control unit 3 divides the image data stored in the memory 2 into a plurality of small areas, moves from the plurality of small areas to a target small area, and Read the image data in. At the same time, the image division unit 4 uses one frame (or one field) of the image data.
The image data input later is divided into a plurality of small areas corresponding to the above small areas.
【0031】(ステップS3)動きベクトル検出部5は
メモリ2内に蓄えられた画像と上記1フレーム後の最新
の画像データとの2つの画像間の対応付けの演算を小領
域単位に行って動きベクトルを仮に検出する。この演算
手法は(従来の技術)で示した時空間勾配法、フーリエ
変換法であっても良いし、相関法やブロックマッチング
法であっても良く、特に方式は限定しない。本ステップ
S3を初めて通る時には、後述する画像への重み付けの
無い従来通りの対応付けの演算を行う。(Step S3) The motion vector detecting section 5 performs a calculation operation for associating two images of the image stored in the memory 2 and the latest image data after the above one frame in units of small areas. Temporarily detect a vector. The calculation method may be the spatiotemporal gradient method or the Fourier transform method described in (Prior art), or the correlation method or the block matching method, and the method is not particularly limited. When passing through this step S3 for the first time, a conventional associative calculation without weighting to an image to be described later is performed.
【0032】(ステップS4)判断部6は上記画像同士
の対応付けの結果得られる動きベクトルの信頼性を判断
する。判断基準としては、小領域内に十分な特徴量が含
まれているか、空間周波数が高すぎないか、相関値は十
分に高いか、相関値のピークが複数存在しないかなど様
々存在するが、目的に応じて適当にそれらの1つを選
択、あるいはそれらの複数を組み合わせれば良く、特に
限定しない。ここで、十分に信頼性が高いと判断された
上記対応付けの結果はそのまま現在注目している小領域
の正しい動きベクトルとしてステップS8より出力され
る。反対に信頼性が不十分の場合にはステップS5以下
へと移行する。(Step S4) The judging section 6 judges the reliability of the motion vector obtained as a result of the correspondence between the images. As a criterion, there are various features such as whether a sufficient amount of features is included in a small area, the spatial frequency is not too high, the correlation value is sufficiently high, or there are multiple correlation value peaks. One of them may be appropriately selected or a plurality of them may be combined depending on the purpose, and there is no particular limitation. Here, the result of the above correlation, which is determined to have sufficiently high reliability, is output as it is from step S8 as the correct motion vector of the small region of interest. On the other hand, if the reliability is insufficient, the process proceeds to step S5 and below.
【0033】(ステップS5)ステップS5、S6を合
わせて上記輪郭線検出手段による輪郭線検出ステップを
構成する。ステップS5では、エッジ検出部7により現
在注目している小領域内の画像データからエッジを検出
する。エッジ検出方法としては、従来より画像データの
1次微分や2次微分演算に基づく様々なオペレータが提
案されており、目的に応じて適当に選択、あるいは組み
合わせれば良く、特に限定しない。 (ステップS6)輪郭線検出部8はステップ5で検出さ
れたエッジから輪郭線を検出する。なお、ここでいう輪
郭線とは、異なる動きをする複数の物体の各境界線を意
味している。(Step S5) Steps S5 and S6 are combined to form a contour line detecting step by the contour line detecting means. In step S5, the edge detection unit 7 detects an edge from the image data in the small area of interest at present. As an edge detection method, various operators based on first-order differential and second-order differential operations of image data have been proposed so far, and they may be appropriately selected or combined according to the purpose, and are not particularly limited. (Step S6) The contour line detection unit 8 detects a contour line from the edge detected in step 5. The contour line here means each boundary line of a plurality of objects that move differently.
【0034】次に輪郭線検出の原理を図3を参照して、
以下に具体的に説明する。図3(a)、(b)は2つの
画面を自動車が左方向へ横切っている様子を示してい
る。2つの画面における小領域10、30は対応関係に
あり、自動車のドアのエッジ10a,30aを含んでい
る。小領域20、40も互いに対応関係にあり、自動車
の後部の輪郭線20a、40aを含んでいる。小領域1
0、30に含まれるエッジ10a、30aは物体(ここ
では自動車)内部のテキスチャーの一部であり、当該エ
ッジの両側部分の画像濃度値は時間の経過に伴う変化を
受けない。これに対して小領域20、40に含まれるエ
ッジは物体の輪郭であり、時間の経過に伴い次々と新し
い背景が現れてくるので、当該エッジの片側の画像濃度
値は大きく変化する。そこで、ステップS6では前ステ
ップS5で検出されたエッジの両側の画像濃度の時間変
動量を演算して、その変動量が一定値を越えた場合はそ
のエッジは物体の輪郭線であると判断し、一定値を越え
ない場合には物体のテキスチャーであると判断する。エ
ッジの両側の画像濃度の時間変動量としては、例えば次
の(1)〜(5)で示す式の何れか1つを演算をすれば
良い。Next, the principle of contour line detection will be described with reference to FIG.
This will be specifically described below. FIGS. 3 (a) and 3 (b) show a state in which an automobile crosses two screens to the left. The small areas 10 and 30 on the two screens are in a correspondence relationship and include the edges 10a and 30a of the door of the automobile. The small areas 20 and 40 also correspond to each other and include the contour lines 20a and 40a of the rear portion of the automobile. Small area 1
The edges 10a and 30a included in 0 and 30 are a part of the texture inside the object (the automobile in this case), and the image density values on both sides of the edge do not change with the passage of time. On the other hand, the edges included in the small areas 20 and 40 are the contours of the object, and new backgrounds appear one after another over time, so the image density values on one side of the edges change greatly. Therefore, in step S6, the time variation amount of the image density on both sides of the edge detected in the previous step S5 is calculated, and if the variation amount exceeds a certain value, it is determined that the edge is the contour line of the object. , If it does not exceed a certain value, it is judged as the texture of the object. As the time variation amount of the image density on both sides of the edge, for example, any one of the following equations (1) to (5) may be calculated.
【0035】 |∂(g1 −gr )/∂t|>(設定値1) ………(1) |∂(g1 /gr )/∂t|>(設定値2) ………(2) |(∂g1 /∂t)−(∂gr /∂t)|>(設定値3) ………(3) |∂g1 /∂t|>(設定値4) ………(4) |∂gr /∂t|>(設定値5) ………(5)| ∂ (g 1 −g r ) / ∂t |> (set value 1) ……… (1) | ∂ (g 1 / g r ) / ∂t |> (set value 2) ……… (2) │ (∂g 1 / ∂t)-(∂g r / ∂t) |> (set value 3) ………… (3) | ∂g 1 / ∂t |> (set value 4) …… … (4) | ∂g r / ∂t |> (Set value 5) ……… (5)
【0036】ここで、g1 、gr はそれぞれエッジ両側
の画像濃度値を表している。(1)式はエッジ両側の画
像濃度差の時間変動量を、(2)式はエッジ両側の画像
濃度比の時間変動量を、(3)式はエッジ両側それぞれ
の時間変動量の差を、(4)、(5)式はエッジ両側そ
れぞれの時間変動量を演算している。それぞれ設定値1
〜5を越えた場合に当該エッジは輪郭線であると判断す
る。演算結果が設定値を越えない場合には、当小領域か
らは信頼性の高い動きベクトルが検出できなかったと判
断してステップS2に戻り、次の小領域へと対象領域を
シフトする。Here, g 1 and g r respectively represent image density values on both sides of the edge. Equation (1) is the time variation of the image density difference on both sides of the edge, Equation (2) is the variation of the image density ratio on both sides of the edge, and Equation (3) is the difference of the time variation on both sides of the edge. Equations (4) and (5) calculate the time variation amounts on both sides of the edge. Set value 1 for each
When the number exceeds ~ 5, it is determined that the edge is a contour line. If the calculation result does not exceed the set value, it is determined that a highly reliable motion vector cannot be detected from this small area, the process returns to step S2, and the target area is shifted to the next small area.
【0037】(ステップS7)ステップS6で輪郭線が
検出されたら重み付け部9により、注目している小領域
内の画像データに重み付けを行う。重み付けの方法は重
視したい画像領域を重く、それ以外の画像領域を軽くす
るのが基本である。ここで重視したい画像領域とは、通
常、現在注目している小領域内の中心点である。図4は
現在注目している画像の小領域(ブロック)を示してお
り、Xマーク領域50が中心点0を含んでいる。そこ
で、例えば図5に示すようなマスクを当小領域にかけ
る。この例では上記領域50を「1」、領域60を
「0」の重み係数でマスクしている。また、例えば自律
走行車の障害物検出のように、近距離にある被写体領域
を重視する場合もある。例えば、図4で○マーク領域6
0が近距離にある物体の領域だとすると、マスクは図6
に示すようになる。尚、被写体の上下関係は繰り返し演
算の過程で周辺の小領域から類似、あるいは小領域内の
テキスチャーの分断関係から類推できる。その他、注目
している小領域内で最も大きな面積を占める領域を重視
するのも視覚上自然であり、符号化の際には有利であ
る。その場合は図5のように、大面積部を「1」、その
ほかの領域を「0」にマスクすれば良い。(Step S7) When the contour line is detected in step S6, the weighting unit 9 weights the image data in the small area of interest. The weighting method is basically that the image area to be emphasized is heavy and the other image areas are light. The image area to be emphasized here is usually the center point in the small area of interest at present. FIG. 4 shows a small area (block) of the image of interest at present, and the X mark area 50 includes the center point 0. Therefore, for example, a mask as shown in FIG. 5 is applied to the small area. In this example, the area 50 is masked with a weighting coefficient of "1" and the area 60 is masked with a weighting coefficient of "0". In addition, for example, as in the case of detecting an obstacle in an autonomous vehicle, there may be a case where a subject region in a short distance is emphasized. For example, in FIG.
Assuming that 0 is a region of an object at a short distance, the mask is shown in FIG.
It becomes as shown in. It should be noted that the vertical relationship of the subject can be inferred from the similarity between the small areas in the surroundings or the division relationship of the textures in the small areas during the iterative calculation. In addition, it is visually natural to place importance on the area that occupies the largest area in the small area of interest, which is advantageous in encoding. In that case, as shown in FIG. 5, the large area may be masked with "1" and the other areas may be masked with "0".
【0038】上記のようにして重み付けをした後に、ス
テップS3に戻り、重み付けした後の各小領域について
動きベクトル検出部5により対応付けを実行して動きベ
クトルを検出する。なお、図5、図6とも2値の重み係
数を用いたが、もちろん多値の重み係数を用いても良
い。また、注目している小領域内に輪郭線が複数存在し
て、当輪郭線によって分割された領域が3コ以上の場合
にも同様の重み付けをすることができる。 (ステップS8)注目している小領域の動きベクトルを
出力する。判断部6は検出された動きベクトルの信頼性
を再び調べ、信頼性があれば動きベクトルを出力し、信
頼性がなければ再び輪郭線検出ステップの処理を行う。After the weighting is performed as described above, the process returns to step S3, and the motion vector detecting unit 5 executes the association for each weighted small area to detect the motion vector. Note that although binary weighting factors are used in FIGS. 5 and 6, it is of course possible to use multivalued weighting factors. Similar weighting can be performed when there are a plurality of contour lines in a small region of interest and the number of regions divided by the contour line is three or more. (Step S8) The motion vector of the small region of interest is output. The determination unit 6 checks again the reliability of the detected motion vector, outputs the motion vector if there is reliability, and performs the processing of the contour line detection step again if there is no reliability.
【0039】以上説明したように、本実施例によれば、
時系列画像から動きベクトルを検出する際に、画像から
輪郭線を抽出して、当該輪郭線を境とする複数領域のう
ち注目している領域をより重視するように、小領域内に
重み付けを行うことにより、注目している小領域内に含
まれる重視する領域以外の領域における余計な動きの影
響を低減することができる。特に、注目点が小領域の中
心点と一致する通常の場合は、当該中心点を含む小領域
内の画像領域(図4では領域50)を重視することによ
り、当該注目点の動きベクトルを正確に検出することが
できる。また、注目点が近距離物体にある、例えば自律
走行車、ロボット等に本装置を搭載するような場合に
は、近距離にある物体に対応する小領域内の画像領域を
重視することにより、当該近距離物体の動きベクトルを
正確に検出することができる。更に、注目点が視覚的に
目立つ大面積部にある画像の符号化に適用する場合に
は、小領域内の最大面積部を重視することにより、当該
大面積部の動きベクトルを正確に検出することができ
る。As described above, according to this embodiment,
When detecting a motion vector from a time-series image, a contour line is extracted from the image, and weighting is applied to a small region so that the region of interest among multiple regions bounded by the contour line is more emphasized. By doing so, it is possible to reduce the influence of extra motion in a region other than the region of importance included in the small region of interest. In particular, in the normal case where the attention point coincides with the center point of the small area, the motion vector of the attention point is accurately calculated by giving priority to the image area (area 50 in FIG. 4) in the small area including the center point. Can be detected. Further, when the point of interest is in a short-distance object, for example, when the present device is mounted on an autonomous vehicle, a robot, etc., by emphasizing the image area in the small area corresponding to the object in the short distance, The motion vector of the short-range object can be accurately detected. Furthermore, when applying to the encoding of an image in a large area where the point of interest is visually conspicuous, the motion vector of the large area is accurately detected by emphasizing the maximum area in the small area. be able to.
【0040】〔第2の実施例〕上記第1の実施例ではフ
レーム又はフィールド毎に得られる時系列画像から動き
ベクトルを検出する場合であったが、この第2の実施例
では多視点から得た複数の画像から動きベクトルを検出
する場合について説明する。処理の手順は、図2のフロ
ーチャートと同じであるが、各ステップの中身及び装置
の構成は以下の点で若干異なる。図1における画像入力
部1は複数の画像データを入力できるように構成され、
これに伴ってメモリ2は複数の画像データを記憶するよ
うに成されている。また画像分割部4は、複数の入力画
像データをそれぞれ小領域に分割するように成されてい
る。従ってステップS1、S2では複数の画像データに
ついてそれぞれ画像入力及び画像分割等の処理を行う。[Second Embodiment] In the first embodiment, the motion vector is detected from the time-series image obtained for each frame or field, but in the second embodiment, it is obtained from multiple viewpoints. A case where a motion vector is detected from a plurality of images will be described. The procedure of the process is the same as the flowchart of FIG. 2, but the contents of each step and the configuration of the device are slightly different in the following points. The image input unit 1 in FIG. 1 is configured to input a plurality of image data,
Along with this, the memory 2 is configured to store a plurality of image data. Further, the image dividing unit 4 is configured to divide each of the plurality of input image data into small areas. Therefore, in steps S1 and S2, processing such as image input and image division is performed for each of the plurality of image data.
【0041】ステップS5、S6では、各視点から撮像
した複数の画像データから検出したエッジの両側の画像
濃度値の変化量を演算する。ステップ6の内容を2つの
画像データを用いる場合について図7を参照して具体的
に説明する。図7(a)は被写体(山と静止した自動
車)を左側の視点から、図7(b)は右側の視点からそ
れぞれ撮像した画像である。このようなステレオ画像で
は、被写体距離の大小に応じて撮像する位置に変化を生
じる。これを視差と呼び、カメラから近距離にある物体
ほど撮像面上で大きく動く。図7の場合は、近距離にあ
る静止した自動車の領域が遠距離にある山と比べて大き
く動いている様子を示している。図7に示すようなステ
レオペアの画像同士で対応付けを行うことにより、三角
測量の原理を用いて被写体までの距離を求めることがで
きる。尚、この画像同士の対応付けの結果をここでも動
きベクトルと呼んでいる。In steps S5 and S6, the amount of change in the image density value on both sides of the edge detected from the plurality of image data picked up from each viewpoint is calculated. The content of step 6 will be specifically described with reference to FIG. 7 when two image data are used. FIG. 7A is an image of a subject (mountain and a stationary car) taken from the left viewpoint, and FIG. 7B is an image taken from the right viewpoint. In such a stereo image, the position to be imaged changes depending on the size of the subject distance. This is called parallax, and the closer the object is to the camera, the larger it moves on the imaging surface. In the case of FIG. 7, a region of a stationary automobile at a short distance is moving much more than a mountain at a long distance. By associating the images of the stereo pair as shown in FIG. 7, the distance to the subject can be obtained by using the principle of triangulation. Note that the result of the correspondence between the images is also called a motion vector here.
【0042】図7中の小領域100と300とは対応関
係にあり、遠景にある山の尾根のラインを輪郭線として
含んでいる。小領域200と400も対応関係にあり、
自動車のフロントの輪郭線を含んでいる。小領域10
0、300に含まれるエッジは、左右のカメラ間の距離
と比べて非常に遠距離にあるため、左右の画像間での視
差は極めて小さい。一方、小領域200、400に含ま
れるエッジは近距離にある物体(自動車)の輪郭であ
り、視点の変化に伴い背景部が相対的に大きく変化する
ので、当該エッジの片側の画像濃度値は大きく変化す
る。そこで、エッジの両側の画像濃度の視点間の変動量
を前記第1の実施例と同様に前記(1)〜(5)式を用
いて演算することにより、同じ小領域内で複数の動き
(=ここでは視差)が混在する場合に境界を示す輪郭線
を抽出することができる。The small areas 100 and 300 in FIG. 7 are in a correspondence relationship, and include a mountain ridge line in the distant view as a contour line. The small areas 200 and 400 also have a correspondence relationship,
It includes the contours of the front of the car. Small area 10
Since the edges included in 0 and 300 are very far from the distance between the left and right cameras, the parallax between the left and right images is extremely small. On the other hand, the edges included in the small areas 200 and 400 are the contours of objects (vehicles) in a short distance, and the background portion changes relatively greatly as the viewpoint changes, so the image density value on one side of the edges is It changes a lot. Therefore, by calculating the variation amount of the image densities on both sides of the edge between the viewpoints by using the equations (1) to (5) as in the first embodiment, a plurality of movements in the same small area ( == here, parallax), the contour line indicating the boundary can be extracted.
【0043】以上説明したように、本実施例によれば、
複数の視点から得た画像群から動きベクトルを検出する
際に、画像から輪郭線を抽出して、当該輪郭線を境に、
注目している領域をより重視するように小領域内に重み
付けを行うことにより、注目している小領域内に含まれ
る余計な動きの影響を低減することができる。As described above, according to this embodiment,
When detecting a motion vector from an image group obtained from a plurality of viewpoints, a contour line is extracted from the image, and the contour line is used as a boundary.
By weighting the small area so as to give more importance to the area of interest, it is possible to reduce the influence of extra motion included in the small area of interest.
【0044】〔第3の実施例〕前述した第1の実施例及
び第2の実施例では、共に注目している画像の小領域内
におけるエッジの両側の画像濃度の変化量に基づき、テ
キスチャーと輪郭線とを区別したが、本実施例では注目
している小領域を囲むような近隣の小領域から検出され
た動きベクトルの連続性から、テキスチャーと輪郭線と
を区別する。即ち、現在注目している小領域の近隣の動
きベクトルと異なる動きベクトルを出力している場合
は、その注目している小領域にオクルージョンを発生す
るような輪郭線が存在すると判断することができる。[Third Embodiment] In the first and second embodiments described above, the texture is determined based on the change amount of the image density on both sides of the edge in the small area of the image of interest. Although the contour line is distinguished from the contour line, in the present embodiment, the texture and the contour line are distinguished from each other based on the continuity of the motion vector detected from the neighboring small regions surrounding the small region of interest. That is, when a motion vector different from the motion vector in the neighborhood of the small region of interest is being output, it can be determined that there is a contour line that causes occlusion in the small region of interest. .
【0045】そこで、第3の実施例では、図1のステッ
プS4の信頼性判断の処理において、動きベクトル検出
部5が動きベクトルを各小領域で検出するたびに、当動
きベクトルとその近隣の動きベクトルとの偏差を演算す
る。次に判断部6でその偏差値と設定値とを比べ、偏差
値が設定値より小さければそのまま動きベクトルを出力
し、偏差値が設定値を越える場合にはステップS5以下
へと移行する。ステップS5以下の動作は第1の実施例
及び第2の実施例と同じである。尚、引き続いてステッ
プS8で重み付けを行った後、ステップS3で繰り返し
対応づけを行うことにより、現在注目している小領域の
動きベクトルの検出精度を高めることができる。本実施
例は、画像内に異なる移動物体や異なる被写体距離の物
体が少ない時や小領域のサイズが比較的大きく、低分解
能で近接する小領域間の動きベクトルの相関が高い状況
に向いており、第1の実施例及び第2の実施例いずれの
ケースにも適用可能である。Therefore, in the third embodiment, every time the motion vector detecting unit 5 detects a motion vector in each small area in the reliability judgment processing in step S4 of FIG. Calculate the deviation from the motion vector. Next, the judgment unit 6 compares the deviation value with the set value, and if the deviation value is smaller than the set value, the motion vector is output as it is, and if the deviation value exceeds the set value, the process proceeds to step S5 and thereafter. The operations after step S5 are the same as those in the first and second embodiments. It should be noted that, subsequently, after weighting is performed in step S8, it is possible to improve the detection accuracy of the motion vector of the small region of interest at present by performing the correspondence repeatedly in step S3. The present embodiment is suitable for a situation where there are few moving objects or objects with different subject distances in an image, the size of a small area is relatively large, and the correlation of motion vectors between adjacent small areas with high resolution is high. It is applicable to any of the cases of the first and second embodiments.
【0046】[0046]
【発明の効果】以上説明したように、第1の発明(請求
項1、2、3、4、5)によれば、時系列画像から注目
している箇所の動きベクトルを正確に検出することがで
きる効果がある。As described above, according to the first aspect of the present invention (claims 1, 2, 3, 4, 5), it is possible to accurately detect a motion vector of a point of interest from a time series image. There is an effect that can be.
【0047】第2の発明(請求項2、3、6)によれ
ば、複数の視点から入力された画像間から注目している
箇所の動きベクトルを正確に検出することができる効果
がある。According to the second invention (claims 2, 3, and 6), there is an effect that it is possible to accurately detect a motion vector of a spot of interest from among images input from a plurality of viewpoints.
【0048】第3の発明(請求項2、3、7)によれ
ば、時系列画像からも多視点画像からも注目している箇
所の動きベクトルを正確に検出することができる効果が
ある。According to the third invention (claims 2, 3, and 7), there is an effect that it is possible to accurately detect the motion vector of the point of interest from both the time-series image and the multi-viewpoint image.
【0049】第4の発明(請求項2、3、8)によれ
ば、注目している画像の小領域の中心部の動きベクトル
を正確に検出することができる効果がある。According to the fourth invention (claims 2, 3, and 8), there is an effect that the motion vector at the center of the small region of the image of interest can be accurately detected.
【0050】第5の発明(請求項2、3、9)によれ
ば、注目している画像の小領域内の近距離物体の動きベ
クトルを正確に検出することができる効果がある。According to the fifth invention (claims 2, 3, and 9), there is an effect that the motion vector of the short-distance object within the small area of the image of interest can be accurately detected.
【0051】第6の発明(請求項2、3、10)によれ
ば、注目している画像の小領域内の大面積部の動きベク
トルを正確に検出することができる効果がある。According to the sixth invention (claims 2, 3, and 10), there is an effect that the motion vector of the large area portion in the small area of the image of interest can be accurately detected.
【0052】さらに本発明によれば、メモリ容量及び計
算量を削減することができる効果がある。Further, according to the present invention, there is an effect that the memory capacity and the calculation amount can be reduced.
【図1】本発明の実施例を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of the present invention.
【図2】実施例の動作を示すフローチャートである。FIG. 2 is a flowchart showing the operation of the embodiment.
【図3】輪郭線とテクスチャーによるエッジの説明図で
ある。FIG. 3 is an explanatory diagram of an edge based on a contour line and a texture.
【図4】画像の小領域の説明図である。FIG. 4 is an explanatory diagram of a small area of an image.
【図5】重み付けマスクの説明図である。FIG. 5 is an explanatory diagram of a weighting mask.
【図6】重み付けマスクの説明図である。FIG. 6 is an explanatory diagram of a weighting mask.
【図7】視差の大きいエッジと小さいエッジの説明図で
ある。FIG. 7 is an explanatory diagram of an edge with a large parallax and an edge with a small parallax.
1 画像入力部 2 メモリ 3 メモリ制御部 4 画像分割部 5 動きベクトル検出手段 6 判断部 7 エッジ検出部 8 輪郭線検出部 9 重み付け部 DESCRIPTION OF SYMBOLS 1 image input unit 2 memory 3 memory control unit 4 image division unit 5 motion vector detection unit 6 determination unit 7 edge detection unit 8 contour line detection unit 9 weighting unit
Claims (10)
領域毎に動きベクトルを検出する動きベクトル検出方法
において、 上記小領域内の物体の輪郭線を検出する輪郭線検出ステ
ップと、 上記検出された輪郭線を境にその小領域内の画像データ
に重み付けを行う重み付けステップと、 上記画像データの対応付けを行うことにより動きベクト
ルを検出する動きベクトル検出ステップとを有すること
を特徴とする動きベクトル検出方法。1. A motion vector detection method for dividing image data into a plurality of small areas and detecting a motion vector for each small area, wherein a contour line detecting step of detecting a contour line of an object in the small area, It is characterized by further comprising a weighting step of weighting the image data in the small area with the detected contour line as a boundary, and a motion vector detecting step of detecting a motion vector by associating the image data with each other. Motion vector detection method.
域に分割する画像分割手段と、 対応する複数の小領域の画像データの対応付け演算を行
うことにより、動きベクトルを検出する動きベクトル検
出手段と、 上記対応付け演算の結果に応じてその小領域の画像デー
タから輪郭線を検出する輪郭線検出手段と、 上記検出された輪郭線を境としその両側の画像データに
対してそれぞれ重み付けを行い、重み付けされた画像デ
ータを上記動きベクトル検出手段に加えて上記画像分割
手段から得られる画像データと対応させる重み付け手段
とを備えた動きベクトル検出装置。2. A motion vector detecting means for detecting a motion vector by performing an associating operation between image dividing means for dividing a plurality of image data into a plurality of small areas and corresponding image data of a plurality of small areas. And a contour line detecting means for detecting a contour line from the image data of the small area in accordance with the result of the above-mentioned correspondence calculation, and weighting the image data on both sides of the detected contour line as a boundary. A motion vector detecting device comprising weighting means for adding weighted image data to the motion vector detecting means and corresponding to image data obtained from the image dividing means.
付け演算の結果の信頼性を所定の判断基準により判断
し、信頼性のある演算結果を動きベクトルとして出力
し、信頼性の無い演算結果を上記輪郭線検出手段に加え
るように構成されている請求項2に記載の動きベクトル
検出装置。3. The motion vector detecting means determines the reliability of the result of the associating operation according to a predetermined criterion, outputs a reliable operation result as a motion vector, and outputs an unreliable operation result. The motion vector detection device according to claim 2, which is configured to be added to the contour line detection means.
エッジを検出し、検出されたエッジの両側の画像濃度の
変化量を演算するように構成されている請求項2記載の
動きベクトル検出装置。4. The motion vector detecting device according to claim 2, wherein the contour line detecting means is configured to detect an edge from the image data and calculate a change amount of the image density on both sides of the detected edge. .
は、エッジの両側の画像濃度の時間変化量を用いるもの
である請求項4記載の動きベクトル検出装置。5. The motion vector detecting apparatus according to claim 4, wherein the amount of change in image density on both sides of the edge uses a time change amount of image density on both sides of the edge.
は、複数の視点から入力した時のエッジの両側の画像濃
度の変化量を用いるものである請求項4記載の動きベク
トル検出装置。6. The motion vector detecting device according to claim 4, wherein the amount of change in image density on both sides of the edge uses the amount of change in image density on both sides of the edge when input is made from a plurality of viewpoints.
領域とその周囲の小領域とから検出される動きベクトル
の連続性を演算するものである請求項2記載の動きベク
トル検出装置。7. The motion vector detecting apparatus according to claim 2, wherein the contour line detecting means calculates continuity of motion vectors detected from the small area of interest and the surrounding small areas.
点を含む当該小領域内の画像領域を重く、中心点を含ま
ない当該小領域内の画像領域を軽く重み付けするもので
ある請求項2記載の動きベクトル検出装置。8. The weighting means is for weighting an image area in the small area including the center point of the small area and lightly weighting an image area in the small area not including the center point. The motion vector detection device described.
近距離にある物体に対応する画像領域を重く、遠距離に
ある物体に対応する画像領域を軽く重み付けするもので
ある請求項2記載の動きベクトル検出装置。9. The weighting means weights an image area corresponding to an object at a short distance in the small area and weights an image area corresponding to an object at a long distance. Motion vector detection device.
で面積の大きい物体に対応する画像領域を重く、それ以
外の画像領域を軽く重み付けするものである請求項2記
載の動きベクトル検出装置。10. The motion vector detecting apparatus according to claim 2, wherein the weighting means weights an image area corresponding to an object having a large area among the small areas and lightly weights the other image areas.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30071494A JPH08163565A (en) | 1994-12-05 | 1994-12-05 | Motion vector detection method and device therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30071494A JPH08163565A (en) | 1994-12-05 | 1994-12-05 | Motion vector detection method and device therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08163565A true JPH08163565A (en) | 1996-06-21 |
Family
ID=17888219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP30071494A Pending JPH08163565A (en) | 1994-12-05 | 1994-12-05 | Motion vector detection method and device therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08163565A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000048207A (en) * | 1998-05-27 | 2000-02-18 | Fr Telecom | Method for detecting relative depth of object in single picture from a pair of pictures |
JP2002523985A (en) * | 1998-08-21 | 2002-07-30 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Problem area localization in image signals |
JP2007122232A (en) * | 2005-10-26 | 2007-05-17 | Casio Comput Co Ltd | Image processor and program |
-
1994
- 1994-12-05 JP JP30071494A patent/JPH08163565A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000048207A (en) * | 1998-05-27 | 2000-02-18 | Fr Telecom | Method for detecting relative depth of object in single picture from a pair of pictures |
JP2002523985A (en) * | 1998-08-21 | 2002-07-30 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Problem area localization in image signals |
JP2007122232A (en) * | 2005-10-26 | 2007-05-17 | Casio Comput Co Ltd | Image processor and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101725060B1 (en) | Apparatus for recognizing location mobile robot using key point based on gradient and method thereof | |
US5719954A (en) | Stereo matching method and disparity measuring method | |
KR100544677B1 (en) | Apparatus and method for the 3D object tracking using multi-view and depth cameras | |
US5777690A (en) | Device and method for detection of moving obstacles | |
US5734743A (en) | Image processing method and apparatus for block-based corresponding point extraction | |
US6970591B1 (en) | Image processing apparatus | |
KR101776621B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
KR101776620B1 (en) | Apparatus for recognizing location mobile robot using search based correlative matching and method thereof | |
KR101551026B1 (en) | Method of tracking vehicle | |
WO2012014430A1 (en) | Mobile body detection device and mobile body detection method | |
CN105069804B (en) | Threedimensional model scan rebuilding method based on smart mobile phone | |
CN112115980A (en) | Binocular vision odometer design method based on optical flow tracking and point line feature matching | |
WO1999053427A1 (en) | Face recognition from video images | |
JP6021689B2 (en) | Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program | |
EP3293700B1 (en) | 3d reconstruction for vehicle | |
JPWO2017094140A1 (en) | Object detection apparatus and object detection method | |
JP2001351193A (en) | Device for detecting passenger | |
KR100574227B1 (en) | Apparatus and method for separating object motion from camera motion | |
JP4394487B2 (en) | Stereo image processing device | |
JP4150218B2 (en) | Terrain recognition device and terrain recognition method | |
JP2961272B1 (en) | Object recognition apparatus and method using feature vector | |
JPH089379A (en) | Motion vector detection method | |
JPH08163565A (en) | Motion vector detection method and device therefor | |
US10867400B2 (en) | System for processing an image obtained by using stereo photography | |
JP2807137B2 (en) | 3D shape detection method |