JP5170058B2 - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP5170058B2 JP5170058B2 JP2009242429A JP2009242429A JP5170058B2 JP 5170058 B2 JP5170058 B2 JP 5170058B2 JP 2009242429 A JP2009242429 A JP 2009242429A JP 2009242429 A JP2009242429 A JP 2009242429A JP 5170058 B2 JP5170058 B2 JP 5170058B2
- Authority
- JP
- Japan
- Prior art keywords
- headlamp
- irradiation range
- range
- distance
- pedestrian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、物体検出装置に関する。 The present invention relates to an object detection device.
自車両の周辺の環境毎に異なる基準パターンを記憶しておき、パターンマッチングを行なうときに自車両周辺の環境に対応する基準パターンを選択する技術が知られている(例えば、特許文献1参照。)。 A technique is known in which a different reference pattern is stored for each environment around the host vehicle, and a reference pattern corresponding to the environment around the host vehicle is selected when pattern matching is performed (see, for example, Patent Document 1). ).
しかし、周辺環境を多数想定して基準パターンを記憶しておかなくてはならないため、膨大なメモリ領域を必要とする。また、あらゆる周辺環境に応じた基準パターンを用意してパターンマッチングを行なうと、物体の誤検出が増加する虞がある。 However, since a large number of surrounding environments are assumed and the reference pattern must be stored, a huge memory area is required. Moreover, if a reference pattern corresponding to any surrounding environment is prepared and pattern matching is performed, there is a possibility that false detection of an object may increase.
本発明は、上記したような問題点に鑑みてなされたものであり、パターンマッチングを行なうために必要となるデータ量を抑制しつつパターンマッチングの精度を向上させる技術の提供を目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for improving the accuracy of pattern matching while suppressing the amount of data necessary for performing pattern matching.
上記課題を達成するために本発明による物体検出装置は、以下の手段を採用した。すなわち、本発明による物体検出装置は、
自車両から物体までの距離を検出する距離検出手段と、
前記自車両の周囲に光を照射する照射手段と、
前記物体を撮像する撮像手段と、
前記照射手段による光の照射範囲を検出する範囲検出手段と、
物体の基準形状を複数の領域に分割して記憶している記憶手段と、
前記距離検出手段により検出される距離及び前記範囲検出手段により検出される照射範囲に基づいて、前記複数の領域毎に前記物体の基準形状の重み付けを行なう重み付け手段と、
前記撮像手段により撮像される物体のデータと、前記重み付け手段により重み付けされる物体の基準形状と、を前記複数の領域毎に比較することによりマッチング処理を行なって物体を識別するマッチング手段と、
を備えることを特徴とする。
In order to achieve the above object, the object detection apparatus according to the present invention employs the following means. That is, the object detection device according to the present invention is
Distance detection means for detecting the distance from the vehicle to the object;
Irradiating means for irradiating light around the host vehicle;
Imaging means for imaging the object;
A range detection means for detecting a light irradiation range by the irradiation means;
Storage means for storing a reference shape of an object divided into a plurality of regions;
Weighting means for weighting the reference shape of the object for each of the plurality of regions based on the distance detected by the distance detecting means and the irradiation range detected by the range detecting means;
Matching means for performing object matching by comparing the data of the object imaged by the imaging means and the reference shape of the object weighted by the weighting means for each of the plurality of regions;
It is characterized by providing.
マッチング手段は、例えば、撮像される物体のデータと、重み付けされた各領域の基準形状と、のパターンマッチングを行なう。ここで、夜間走行時やトンネル内走行時等に、自車両が光を照射している場合には、該光の照射範囲が変わることにより、物体においては照らされる部位が変わる。そうすると、光の照射範囲に応じて、撮像される物体のデータが変わる。なお、照射範囲とは、照度が規定値以上となる範囲とすることができる。 The matching means performs, for example, pattern matching between the object data to be imaged and the weighted reference shape of each area. Here, when the host vehicle is irradiating light when traveling at night, traveling in a tunnel, or the like, the illuminated area changes in the object by changing the irradiation range of the light. If it does so, the data of the object imaged will change according to the irradiation range of light. The irradiation range can be a range in which the illuminance is a specified value or more.
光の照射範囲内に物体の一部が位置するときには、該物体の一部の形状は認識し易くな
るが、照射範囲外に位置する物体の他部の形状は認識し難くなる。そうすると、認識し難い領域に属する物体のデータの信頼度は低くなるため、この領域のデータを用いると物体を誤認する可能性が高くなる。例えば、光の照射範囲外では、撮像手段により撮像される物体のデータと基準形状との類似度合いが高いと判定される場合であっても、誤認により類似度合いが高いと判定されている虞がある。そこで、重み付け手段は、光の照射範囲に応じて、複数の領域毎に基準形状の重み付けを行なう。例えば、物体の形状が認識し易い位置ほど、重みを大きくする。これにより、認識し易い位置の基準形状の影響度がより大きくなる。そうすると、認識し難い位置の基準形状の影響度は小さくなるため、物体が誤認されることを抑制できる。
When a part of the object is located within the light irradiation range, the shape of the part of the object is easily recognized, but the shape of the other part of the object located outside the irradiation range is difficult to recognize. Then, since the reliability of the data of the object belonging to the region that is difficult to recognize becomes low, there is a high possibility that the object is mistaken when using the data of this region. For example, even if it is determined that the degree of similarity between the data of the object imaged by the imaging unit and the reference shape is high outside the light irradiation range, there is a possibility that the degree of similarity is determined to be high due to misperception. is there. Therefore, the weighting unit weights the reference shape for each of the plurality of regions in accordance with the light irradiation range. For example, the weight is increased as the position where the shape of the object is easily recognized. Thereby, the influence degree of the reference | standard shape of the position which is easy to recognize becomes larger. Then, since the influence degree of the reference shape at a position that is difficult to recognize becomes small, it is possible to prevent the object from being misidentified.
このようにすると、類似度合いが高い領域であっても、重みが小さい領域では、全体への影響度が小さくなる。そして、照射範囲に基づいて基準形状に重み付けをすることにより、類似度合い及び重みに応じて物体を識別することができるため、物体の識別精度を向上させることができる。 In this way, even in a region where the degree of similarity is high, the degree of influence on the whole is small in a region where the weight is small. Since the object can be identified according to the degree of similarity and the weight by weighting the reference shape based on the irradiation range, the object identification accuracy can be improved.
本発明においては、前記距離検出手段及び前記撮像手段は、ステレオカメラを含んで構成されても良い。 In the present invention, the distance detection unit and the imaging unit may include a stereo camera.
ステレオカメラによれば、物体を撮像することができる。また、ステレオカメラにより得られる2つのデータによれば、物体までの距離を演算することができる。すなわち、ステレオカメラを備えていれば、物体までの距離を測定するレーダ等を備える必要がなくなる。 According to the stereo camera, an object can be imaged. Further, according to the two data obtained by the stereo camera, the distance to the object can be calculated. That is, if a stereo camera is provided, there is no need to provide a radar or the like for measuring the distance to the object.
本発明においては、前記照射手段は、前記自車両の前照灯を含んで構成されても良い。すなわち、前照灯の状態に応じて光の照射範囲が変わるため、範囲検出手段は照射手段による光の照射範囲に応じて照射範囲を簡易に求めることができる。なお、前記照射手段は、自車両の前方若しくは側方を照らす補助灯、または自車両の後方を照らすバックランプを含んで構成されていても良い。 In this invention, the said irradiation means may be comprised including the headlamp of the said own vehicle. That is, since the light irradiation range changes according to the state of the headlamp, the range detection unit can easily determine the irradiation range according to the light irradiation range by the irradiation unit. The irradiating means may include an auxiliary lamp that illuminates the front or side of the host vehicle, or a back lamp that illuminates the rear of the host vehicle.
本発明においては、前記範囲検出手段は、前記前照灯の向きに応じた照射範囲を記憶しており、前記前照灯の向きに応じて照射範囲を選択することができる。 In the present invention, the range detection means stores an irradiation range according to the direction of the headlamp, and can select the irradiation range according to the direction of the headlamp.
ここで、前照灯の向きが変われば、光の照射範囲も変わる。これにより、物体上で照射範囲に入る領域も変わり得る。前照灯の向きに応じた光の照射範囲を予め記憶しておけば、前照灯の向きを検出することにより、光の照射範囲を簡易に得ることができる。 Here, if the direction of the headlamp changes, the light irradiation range also changes. Thereby, the area | region which enters into the irradiation range on an object may also change. If the light irradiation range corresponding to the direction of the headlamp is stored in advance, the light irradiation range can be easily obtained by detecting the direction of the headlamp.
なお、前記前照灯は上下方向に照射範囲を変化させ、
前記範囲検出手段は、前記前照灯が上向きの場合の照射範囲と下向きの場合の照射範囲とを記憶しており、前記前照灯が上向きか又は下向きかに応じて照射範囲を選択することができる。
The headlamp changes the irradiation range in the vertical direction,
The range detecting means stores an irradiation range when the headlamp is upward and an irradiation range when the headlamp is downward, and selects the irradiation range according to whether the headlamp is upward or downward. Can do.
すなわち、前照灯が上向きであるのか、または下向きであるのかにより、光の照射範囲が変わる。これにより、物体上で照射範囲に入る領域も変わり得る。前照灯が上向き及び下向きの夫々の場合における光の照射範囲を予め記憶しておけば、前照灯が上向きか又は下向きかを検出することにより、光の照射範囲を簡易に得ることができる。 That is, the light irradiation range changes depending on whether the headlamp is upward or downward. Thereby, the area | region which enters into the irradiation range on an object may also change. If the irradiation range of light in the case where the headlamp is upward and downward is stored in advance, the light irradiation range can be easily obtained by detecting whether the headlamp is upward or downward. .
また、前記前照灯は左右方向に照射範囲を変化させ、
前記範囲検出手段は、前記前照灯が左右方向に変化するときの夫々の照射範囲を記憶しており、前記前照灯が左右方向の何れの向きかに応じて照射範囲を選択することができる。
In addition, the headlamp changes the irradiation range in the left-right direction,
The range detection means stores each irradiation range when the headlamp changes in the left-right direction, and can select the irradiation range according to which direction the headlamp is in the left-right direction. it can.
例えば、車両がカーブを走行中に前照灯向きを左右方向で変化させることがある。このような場合には、前照灯の向きが左右方向で変化するのに伴い、光の照射範囲も変化する。これにより、物体上で照射範囲に入る領域も変わり得る。前照灯の左右方向の向きに応じた光の照射範囲を予め記憶しておけば、前照灯の左右方向の何れの向きとなっているのかを検出することにより、光の照射範囲を簡易に得ることができる。 For example, the headlight direction may change in the left-right direction while the vehicle is traveling on a curve. In such a case, the light irradiation range also changes as the direction of the headlamp changes in the left-right direction. Thereby, the area | region which enters into the irradiation range on an object may also change. If the light irradiation range corresponding to the direction of the headlight in the left-right direction is stored in advance, the light irradiation range can be simplified by detecting which direction the headlight is in the left-right direction. Can get to.
本発明においては、前記重み付け手段は、照度が高い領域ほど、重みを大きくすることができる。すなわち、照度が高いほど、物体の形状を認識し易いために撮像される物体のデータの信頼度が高くなるので、重みを大きくする。 In the present invention, the weighting means can increase the weight in a region with higher illuminance. That is, the higher the illuminance, the easier it is to recognize the shape of the object, so the reliability of the imaged object data is higher, so the weight is increased.
本発明によれば、パターンマッチングを行なうために必要となるデータ量を抑制しつつパターンマッチングの精度を向上させることができる。 ADVANTAGE OF THE INVENTION According to this invention, the precision of pattern matching can be improved, suppressing the data amount required in order to perform pattern matching.
以下、本発明に係る物体検出装置の具体的な実施態様について図面に基づいて説明する。 Hereinafter, specific embodiments of the object detection apparatus according to the present invention will be described with reference to the drawings.
図1は、本実施例に係る物体検出装置1を示すブロック図である。本実施例に係る物体検出装置1は、道路を走行する自車両に搭載されており、自車両の周辺に存在する歩行者や他車両等の物体を検出する装置である。 FIG. 1 is a block diagram illustrating an object detection apparatus 1 according to the present embodiment. The object detection apparatus 1 according to the present embodiment is an apparatus that is mounted on a host vehicle traveling on a road and detects objects such as pedestrians and other vehicles existing around the host vehicle.
物体検出装置1は、ステレオカメラ2、ヘッドランプスイッチ3、ヘッドランプ4、ECU5を備えて構成されている。
The object detection device 1 includes a
ステレオカメラ2は、自車両の前部又は室内に設けられて、自車両の前方に存在する物体を撮像するものである。ステレオカメラ2は、物体を複数の異なる方向から同時に撮像することにより、物体までの距離情報を記録できる。ステレオカメラ2は、レンズから入ってきた光を電気信号に変換しECU5に逐次出力する。なお、本実施例においてはステレオカメラ2が、本発明における撮像手段に相当する。
The
ヘッドランプスイッチ3は、ヘッドランプ4のON(点灯)−OFF(消灯)及びHI(上向き)−LO(下向き)を運転者が選択するためのスイッチである。なお、自車両の周囲の明るさに応じて自動的にヘッドランプ4をON−OFFさせても良い。ヘッドランプスイッチ3の状態に応じた信号がECU5に入力されると共に、ヘッドランプ4がその状態に応じて制御される。
The
ヘッドランプ4は、少なくとも上向き(HI)と下向き(LO)とを切替可能なランプである。なお、本実施例においてはヘッドランプ4が、本発明における照射手段に相当する。 The headlamp 4 is a lamp that can be switched at least between upward (HI) and downward (LO). In this embodiment, the headlamp 4 corresponds to the irradiation means in the present invention.
ECU5は、自車両の前方に物体が存在するか否か、または物体の種類を判定するものであり、例えばCPU、ROM、RAMを含むコンピュータを主体として構成される。ECU5は、分割データ記憶部51、距離演算部52、光照射範囲演算部53、重み付け演算部54、マッチング演算部55を備えて構成されている。
The
分割データ記憶部51は、物体の基本形状を複数(例えば6)に分割した分割データとして記憶している。基本形状は、ステレオカメラ2により撮像された物体のデータと比較されるデータである。分割データ記憶部51は、複数の領域に分割した物体の基準形状を、領域毎に記憶している。なお、本実施例においては分割データ記憶部51が、本発明における記憶手段に相当する。
The divided
距離演算部52は、ステレオカメラ2により撮像された物体のデータを基にして、自車両と物体との距離を演算する。なお、物体が自車両の斜め前方に位置するときには、実際の距離を、自車両の進行方向成分と、自車両の真横方向成分(進行方向と直交する方向成分)と、に分けて考える。そして、自車両の進行方向の成分を距離とし、自車両の右側の真横方向の成分を横位置として求める。また、物体の高さも同時に求める。物体が自車両の左前方に位置する場合には、横位置が負の値となる。
The
光照射範囲演算部53は、ヘッドランプスイッチ3からの信号に基づいてヘッドランプ4の照射範囲を演算する。ヘッドランプ4の状態(ヘッドランプスイッチ3のHI及びLOの状態)に応じて光の照射範囲が変わるため、ヘッドランプスイッチ3の状態又はヘッドランプ4の状態と光の照射範囲との関係を、夫々実験等により求めてECU5に記憶しておく。なお、本実施例においては光照射範囲演算部53が、本発明における範囲検出手段に相当する。
The light irradiation
重み付け演算部54は、光照射範囲演算部53の演算結果に基づいて、分割データ記憶部51に記憶されている分割データに夫々重み付けを行なう。光の照射範囲とデータの重みとの関係は予め実験等により求めておく。なお、本実施例においては重み付け演算部54が、本発明における重み付け手段に相当する。
The
マッチング演算部55は、重み付け演算部54により重み付けが行なわれた後の分割データと、ステレオカメラ2により撮像された物体のデータと、を比較して、記憶されている物体の基準形状と、撮像された物体のデータとの類似度合いを演算する。なお、本実施例においてはマッチング演算部55が、本発明におけるマッチング手段に相当する。
The matching
そして、マッチング度合いが規定値以上となると、ECU5は、作動デバイス6に信号を出力する。作動デバイス6は、例えばLED61又は音による警報装置62である。また、ブレーキやエンジンを制御することも作動デバイス6に含むことができる。
Then, when the matching degree is equal to or greater than the specified value, the
なお、本実施例では、以下に物体として歩行者を例に挙げて説明するが、他の物体であっても同様に適用することができる。 In the present embodiment, a pedestrian will be described as an example as an object, but the present invention can be similarly applied to other objects.
ここで、夜間走行時等であって自車両の周囲が暗いときには、ヘッドランプ4の状態、すなわち、上向きであるか又は下向きであるかによって、歩行者の見え方が変化する。すなわち、ヘッドランプ4の状態が異なると、例え同じ位置に存在する歩行者を撮像したとしても、そのデータは同じにはならない。そうすると、分割データ記憶部51に記憶されている基準形状をそのまま用いてパターンマッチングを行った場合に、歩行者の識別結果がヘッドランプ4の状態によって変わり得る。
Here, when the vehicle is traveling at night or the like and the surroundings of the host vehicle are dark, the appearance of the pedestrian changes depending on the state of the headlamp 4, that is, whether it is upward or downward. That is, if the state of the headlamp 4 is different, even if pedestrians existing at the same position are imaged, the data is not the same. Then, when pattern matching is performed using the reference shape stored in the divided
図2は、ヘッドランプ4による光の照射範囲を示した図である。照射範囲は例えば照度が規定値以上となる範囲とする。図2Aはヘッドランプ4が下向きの場合を示し、図2Bはヘッドランプ4が上向きの場合を示している。歩行者を、自車両100から近い順にX,Y,Zとして表している。図2Aと図2Bとは、ヘッドランプ4の状態のみが異なり、自車両100と、歩行者X,Y,Zとの距離は同じである。歩行者Xは、ヘッドランプ4が下向きのときには下半身が照射範囲に入り、上向きのときには上半身が照射範囲に入る。また、歩行者Yは、ヘッドランプ4が下向きのときには足の下のほうの部位が照射範囲に入り、上向きのときには全身が照射範囲に入る。歩行者Zは、ヘッドランプ4が下向きであっても又は上向きであっても光の照射範囲には入らない。
FIG. 2 is a diagram showing a light irradiation range by the headlamp 4. The irradiation range is, for example, a range where the illuminance is a specified value or more. FIG. 2A shows a case where the headlamp 4 is downward, and FIG. 2B shows a case where the headlamp 4 is upward. Pedestrians are represented as X, Y, and Z in order of increasing distance from the
このように、ヘッドランプ4からの光の照射範囲に入る部位が、ヘッドランプ4の状態及び自車両100から歩行者までの距離、横位置によって異なる。そして、光の照射範囲外では歩行者を認識し難いため、ステレオカメラ2により撮像されるデータの信頼度が低い。このため、光の照射範囲外のデータをそのまま用いてパターンマッチングを行なうと、歩行者の識別精度が低くなる虞がある。
Thus, the part which enters into the irradiation range of the light from the headlamp 4 differs depending on the state of the headlamp 4, the distance from the
そこで本実施例では、分割データに重み付けを行い、ヘッドランプ4からの光がより多く当たる位置(照度のより大きな位置)の重みを大きくしている。この重みは光の照射範囲によって変わるため、ヘッドランプ4の位置や大きさ、光度に応じて変わるので、予め実験等により求めておく。 Therefore, in the present embodiment, the divided data is weighted, and the weight of the position where the light from the headlamp 4 hits more (the position where the illuminance is larger) is increased. Since this weight varies depending on the light irradiation range, it varies depending on the position, size, and luminous intensity of the headlamp 4, and is obtained in advance through experiments or the like.
図3は、分割データの重みを示した図である。図3Aはヘッドランプ4が下向きの場合を示し、図3Bはヘッドランプ4が上向きの場合を示している。図3は、自車両から歩行者までの距離(進行方向成分)が15mで、横位置(右方向成分)が−1mの場合を示している。すなわち、歩行者は自車両の左斜め前方に位置している。 FIG. 3 is a diagram showing the weight of the divided data. FIG. 3A shows a case where the headlamp 4 is downward, and FIG. 3B shows a case where the headlamp 4 is upward. FIG. 3 shows a case where the distance from the host vehicle to the pedestrian (traveling direction component) is 15 m and the lateral position (right direction component) is −1 m. That is, the pedestrian is located diagonally to the left of the host vehicle.
図3では、歩行者の基準形状を6分割し、夫々の領域で重みを設定している。なお、ヘッドランプ4からの光が当たる位置と当たらない位置とは、明確に分かれているわけではないので、例えば照度に応じて重み付けしている。図3の例では、ヘッドランプ4が下向きのとき(図3A)には、歩行者の主に下半身に光が当たるため、下半身を含む領域の重みが大きく、頭を含む領域に近づくほど重みが小さくなる。そして、頭を含む領域では重みが0とされる。ここで、重みが0ということは、撮像された歩行者のデータのうち、この領域のデータは歩行者の識別に影響を与えないことを意味する。 In FIG. 3, the reference shape of the pedestrian is divided into six, and the weight is set in each region. In addition, since the position where the light from the headlamp 4 strikes and the position where it does not strike are not clearly separated, weighting is performed according to, for example, illuminance. In the example of FIG. 3, when the headlamp 4 is facing downward (FIG. 3A), light is mainly applied to the lower body of the pedestrian. Get smaller. The weight is set to 0 in the area including the head. Here, the weight of 0 means that the data in this area among the captured pedestrian data does not affect the pedestrian identification.
一方、ヘッドランプ4が上向きのとき(図3B)には、歩行者の全体に光が当たるため、全領域の重みが大きくなる。 On the other hand, when the headlamp 4 is facing upward (FIG. 3B), the entire pedestrian is exposed to light, so the weight of the entire region increases.
このようにして、重み付け演算部54は、ヘッドランプ4の状態と、自車両から歩行者までの距離及び横位置と、に応じて分割データの重み付けを行なう。
In this way, the
そして、マッチング演算部55は、ステレオカメラ2により撮像された歩行者のデータを6分割し、夫々の領域において、撮像された歩行者のデータと、重み付けされた分割データとでパターンマッチングを行なうことで歩行者を識別する。例えば、各領域で類似度と重みとを掛け合わせたスコアを算出し、全領域のスコアの合計により歩行者であるか否かを識別する。
The matching
図4は、本実施例に係るマッチング処理のフローを示したフローチャートである。本ルーチンは所定の時間毎に繰り返し実行される。 FIG. 4 is a flowchart showing a flow of matching processing according to the present embodiment. This routine is repeatedly executed every predetermined time.
ステップS101では、ステレオカメラ2により撮像されたデータを基に、距離演算部
52が、自車両から歩行者の中心部までの距離及び横位置、高さを取得する。
In step S101, the
距離及び横位置、高さの三次元情報を得ることができれば、二次元画像の座標(CX,CY)を求めることができる。
(CX,CY)=FuncComvert3Dto2D(距離,横位置,歩行者の高さ)
ただし、FuncComvert3Dto2Dは、三次元情報を二次元画像の座標に変換する関数である。
If the three-dimensional information of the distance, the lateral position, and the height can be obtained, the coordinates (CX, CY) of the two-dimensional image can be obtained.
(CX, CY) = FuncComvert3Dto2D (distance, lateral position, pedestrian height)
However, FuncComvert3Dto2D is a function that converts three-dimensional information into coordinates of a two-dimensional image.
このようにして得られる横位置の左右方向に規定のオフセット量を加えて、歩行者の左横位置及び右横位置を算出する。このオフセット量は、左横位置と右横位置との間が歩行者の幅に所定値を加えた値となるように設定され、例えば±0.6mである。すなわち、左横位置と右横位置との間に歩行者全体が入るように、左横位置及び右横位置が設定される。同様に、歩行者の中心から上下方向に規定のオフセット量を加えて、歩行者の高さ位置及び地面位置を算出する。このオフセット量は、歩行者の中心の高さに所定値を加えた値であり、例えば±1.2mである。すなわち、地面位置と歩行者の高さ位置との間に歩行者全体が入るように、地面位置及び歩行者の高さ位置が設定される。 The left lateral position and the right lateral position of the pedestrian are calculated by adding a specified offset amount to the lateral direction of the lateral position thus obtained. This offset amount is set so that a predetermined value is added to the width of the pedestrian between the left lateral position and the right lateral position, and is, for example, ± 0.6 m. That is, the left lateral position and the right lateral position are set so that the entire pedestrian enters between the left lateral position and the right lateral position. Similarly, a predetermined offset amount is added in the vertical direction from the center of the pedestrian to calculate the pedestrian's height position and ground position. This offset amount is a value obtained by adding a predetermined value to the height of the center of the pedestrian, and is, for example, ± 1.2 m. That is, the ground position and the height position of the pedestrian are set so that the entire pedestrian enters between the ground position and the height position of the pedestrian.
すなわち、二次元画像上の歩行者を四角形で囲んだときの左上点(LX,UY)、左下点(LX,DY)、右上点(RX,UY)、右下点(RX,DY)は以下のようにして求まる。
(LX,UY)=FuncComvert3Dto2D(距離,左横位置,歩行者の高さ)
(LX,DY)=FuncComvert3Dto2D(距離,左横位置,地面)
(RX,UY)=FuncComvert3Dto2D(距離,右横位置,歩行者の高さ)
(RX,DY)=FuncComvert3Dto2D(距離,右横位置,地面)
この4点で囲まれる領域をマッチング領域とし、分割データ記憶部51に記憶されている分割データとの比較対象とする。
That is, the upper left point (LX, UY), lower left point (LX, DY), upper right point (RX, UY), lower right point (RX, DY) when a pedestrian on a two-dimensional image is surrounded by a rectangle is as follows: It is obtained like this.
(LX, UY) = FuncComvert3Dto2D (distance, left lateral position, pedestrian height)
(LX, DY) = FuncComvert3Dto2D (distance, left lateral position, ground)
(RX, UY) = FuncComvert3Dto2D (distance, right lateral position, pedestrian height)
(RX, DY) = FuncComvert3Dto2D (distance, right lateral position, ground)
The area surrounded by the four points is set as a matching area, and is compared with the divided data stored in the divided
次に、ステップS102では、ヘッドランプ4の状態が取得される。すなわち、ヘッドランプ4が点灯しているか又は消灯しているか、点灯している場合には下向きか又は上向きか取得される。 Next, in step S102, the state of the headlamp 4 is acquired. That is, it is acquired whether the headlamp 4 is turned on, turned off, or turned on when the headlamp 4 is turned on.
ここで、ヘッドランプ4が消灯している場合には、分割データの重み付けを行なわない。すなわち、分割データ記憶部51に記憶されている分割データをそのまま用いる。また、ヘッドランプ4が下向きのときには「LO用歩行者照射範囲テーブル」を参照し、また上向きのときには「HI用歩行者照射範囲テーブル」を参照してヘッドランプ4による光の照射範囲を取得する。
Here, when the headlamp 4 is turned off, the divided data is not weighted. That is, the divided data stored in the divided
図5は、LO用歩行者照射範囲テーブルまたはHI用歩行者照射範囲テーブルの一例を示す図である。LO用歩行者照射範囲テーブル及びHI用歩行者照射範囲テーブルには、夫々、自車両から歩行者までの距離に応じて歩行者の頭の高さと足の高さとが設定されている。足の高さは、地面から照射範囲の下限までの高さであり、頭の高さは地面から照射範囲の上限までの高さである。図5の場合、自車両から歩行者までの距離が15mのときには、足の高さ(0.1m)から頭の高さ(1.0m)までが照射範囲となる。 FIG. 5 is a diagram illustrating an example of the LO pedestrian irradiation range table or the HI pedestrian irradiation range table. In the LO pedestrian irradiation range table and the HI pedestrian irradiation range table, the height of the pedestrian's head and foot is set in accordance with the distance from the vehicle to the pedestrian. The height of the foot is the height from the ground to the lower limit of the irradiation range, and the height of the head is the height from the ground to the upper limit of the irradiation range. In the case of FIG. 5, when the distance from the own vehicle to the pedestrian is 15 m, the irradiation range is from the foot height (0.1 m) to the head height (1.0 m).
そして、ステップS103では、分割データの重み付けが行なわれる。本実施例では、基準形状を上下に6つの領域に分割している。分割した各領域に対して、頭の高さ及び足の高さに基づいた重み付けを行なう。重み付けは、例えば0から10の値とする。ここで
、(頭の高さ/歩行者の高さ)及び(足の高さ/歩行者の高さ)を算出することにより、分割したどの領域に図5で設定される頭または足が属しているのか求めることができる。
In step S103, the divided data is weighted. In this embodiment, the reference shape is divided into six regions vertically. Each divided area is weighted based on the height of the head and the height of the foot. The weighting is a value from 0 to 10, for example. Here, by calculating (head height / pedestrian height) and (foot height / pedestrian height), the head or foot set in FIG. 5 belongs to any divided region. Can ask.
重み付けは例えば以下のようにして行なう。(1)頭または足の位置に該当しない領域で、且つ、頭の位置から足の位置の範囲内の領域の重みを10とする。(2)頭または足の位置に該当しない領域で(1)以外の領域の重みを0とする。(3)頭または足に該当する領域では、さらにその領域内を9個に再分割し、再分割した領域内で頭または足の位置から上記(1)及び(2)で定義される領域まで重みを除変しつつ1から9の値とする。なお、重み付けは、照射範囲や照度に応じて行なえば良いため、他の手法により行なっても良い。 For example, the weighting is performed as follows. (1) The weight of an area that does not correspond to the position of the head or foot and is within the range of the position of the foot from the position of the head is set to 10. (2) The area other than (1) is set to 0 in an area not corresponding to the position of the head or foot. (3) In the area corresponding to the head or foot, the inside of the area is further subdivided into 9 parts, and from the position of the head or foot to the area defined in (1) and (2) above in the subdivided area A value from 1 to 9 is used while changing the weight. In addition, since weighting should just be performed according to an irradiation range and illumination intensity, you may perform it by another method.
そして、ステップS104では、マッチング処理による歩行者の識別が行なわれる。重み付けされた分割データとマッチング領域内のデータとのパターンマッチングを行い、歩行者を識別する。基準形状の分割領域毎に類似度と重み付けとを乗じたスコアを算出し、これら領域毎のスコアを加算した合計スコアにより歩行者であるか否か識別される。なお、類似度は周知の手法により求めることができる。そして、合計スコアが高いほど、歩行者である確率が高くなるので、例えば合計スコアが閾値以上の場合に歩行者であると識別される。そして、歩行者であると識別された場合には、作動デバイス6を作動させる。 In step S104, pedestrians are identified by matching processing. Pattern matching is performed between the weighted divided data and the data in the matching area to identify pedestrians. A score obtained by multiplying the similarity and the weight for each divided region of the reference shape is calculated, and whether or not the person is a pedestrian is identified by a total score obtained by adding the scores for each region. Note that the similarity can be obtained by a known method. Since the probability of being a pedestrian increases as the total score increases, for example, when the total score is greater than or equal to a threshold value, the person is identified as a pedestrian. And when it is identified as a pedestrian, the operation device 6 is operated.
以上説明したように本実施例によれば、ヘッドランプ4の光の照射範囲に基づいて基準形状に重み付けを行なうため、予め多くのデータを記憶しておく必要がない。すなわち、メモリの容量を小さくすることができる。また、光の照射範囲に基づいて重み付けを行なうことにより、物体を認識し易い領域の重みが大きくなるので、物体の識別精度を向上させることができる。 As described above, according to the present embodiment, since the reference shape is weighted based on the light irradiation range of the headlamp 4, it is not necessary to store a large amount of data in advance. That is, the memory capacity can be reduced. In addition, by performing weighting based on the light irradiation range, the weight of the region where the object is easily recognized increases, so that the object identification accuracy can be improved.
なお、本実施例では、自車両の前方を照らすヘッドランプ4を採用する例について説明したが、自車両の後方を照らすバックランプについても同様に適用することができる。また、自車両の側方または前方を照らす補助ランプ又はコーナーランプについても同様に適用することができる。 In the present embodiment, an example in which the headlamp 4 that illuminates the front of the host vehicle has been described, but the present invention can be similarly applied to a backlamp that illuminates the rear of the host vehicle. Moreover, it can apply similarly about the auxiliary lamp or corner lamp which illuminates the side or the front of the own vehicle.
また、ヘッドランプ4は、上向きと下向きとの2段階で変化する例について説明したが、3段階以上で変化しても、さらには無段階に変化しても同様に適用することができる。この場合、夫々の段階に応じて光の照射範囲を記憶しておけば良い。また、ヘッドランプ4は、上向きと下向きとの上下方向で変化する例について説明したが、左右方向に変化しても同様に適用することができる。例えば、コーナリング時においてステアリング操舵方向に光軸を向ける配光可変型前照灯システムにおいても同様に適用することができる。この場合も、夫々の向きに応じて光の照射範囲を記憶しておく。 Moreover, although the example which changes the headlamp 4 in two steps of upward and downward was demonstrated, even if it changes in three steps or more, and also changes steplessly, it can apply similarly. In this case, the light irradiation range may be stored in accordance with each stage. Moreover, although the example which changes the headlamp 4 by the up-down direction of upward and downward was demonstrated, it can apply similarly, even if it changes to the left-right direction. For example, the present invention can be similarly applied to a variable light distribution type headlamp system that directs the optical axis in the steering direction during cornering. Also in this case, the irradiation range of light is stored according to each direction.
また、本実施例では、ステレオカメラ2により撮像されたデータを基に自車両から物体までの距離を検出する例について説明したが、レーダにより物体までの距離を検出しても良い。
In this embodiment, the example in which the distance from the own vehicle to the object is detected based on the data captured by the
また、本実施例では、ヘッドライト4の状態に応じて光の照射範囲を演算する例について説明したが、路面の照度をセンサ等により検出することで光の照射範囲を得ても良い。 Moreover, although the present Example demonstrated the example which calculates the irradiation range of light according to the state of the headlight 4, you may obtain the irradiation range of light by detecting the illumination intensity of a road surface with a sensor.
1 物体検出装置
2 ステレオカメラ
3 ヘッドランプスイッチ
4 ヘッドランプ
5 ECU
6 作動デバイス
51 分割データ記憶部
52 距離演算部
53 光照射範囲演算部
54 重み付け演算部
55 マッチング演算部
61 LED
62 警報装置
100 自車両
DESCRIPTION OF SYMBOLS 1
6
62
Claims (7)
前記自車両の周囲に光を照射する照射手段と、
前記物体を撮像する撮像手段と、
前記照射手段による光の照射範囲を検出する範囲検出手段と、
物体の基準形状を複数の領域に分割して記憶している記憶手段と、
前記距離検出手段により検出される距離及び前記範囲検出手段により検出される照射範囲に基づいて、前記複数の領域毎に前記物体の基準形状の重み付けを行なう重み付け手段と、
前記撮像手段により撮像される物体のデータと、前記重み付け手段により重み付けされる物体の基準形状と、を前記複数の領域毎に比較することによりマッチング処理を行なって物体を識別するマッチング手段と、
を備えることを特徴とする物体検出装置。 Distance detection means for detecting the distance from the vehicle to the object;
Irradiating means for irradiating light around the host vehicle;
Imaging means for imaging the object;
A range detection means for detecting a light irradiation range by the irradiation means;
Storage means for storing a reference shape of an object divided into a plurality of regions;
Weighting means for weighting the reference shape of the object for each of the plurality of regions based on the distance detected by the distance detecting means and the irradiation range detected by the range detecting means;
Matching means for performing object matching by comparing the data of the object imaged by the imaging means and the reference shape of the object weighted by the weighting means for each of the plurality of regions;
An object detection apparatus comprising:
前記範囲検出手段は、前記前照灯が上向きの場合の照射範囲と下向きの場合の照射範囲とを記憶しており、前記前照灯が上向きか又は下向きかに応じて照射範囲を選択することを特徴とする請求項4に記載の物体検出装置。 The headlamp changes the irradiation range in the vertical direction,
The range detecting means stores an irradiation range when the headlamp is upward and an irradiation range when the headlamp is downward, and selects the irradiation range according to whether the headlamp is upward or downward. The object detection apparatus according to claim 4.
前記範囲検出手段は、前記前照灯が左右方向に変化するときの夫々の照射範囲を記憶しており、前記前照灯が左右方向の何れの向きかに応じて照射範囲を選択することを特徴とする請求項4に記載の物体検出装置。 The headlamp changes the irradiation range in the left-right direction,
The range detection means stores each irradiation range when the headlamp changes in the left-right direction, and selects the irradiation range according to which direction the headlamp is in the left-right direction. The object detection device according to claim 4, wherein
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009242429A JP5170058B2 (en) | 2009-10-21 | 2009-10-21 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009242429A JP5170058B2 (en) | 2009-10-21 | 2009-10-21 | Object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011090450A JP2011090450A (en) | 2011-05-06 |
JP5170058B2 true JP5170058B2 (en) | 2013-03-27 |
Family
ID=44108659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009242429A Expired - Fee Related JP5170058B2 (en) | 2009-10-21 | 2009-10-21 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5170058B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014164641A (en) * | 2013-02-27 | 2014-09-08 | Seiko Epson Corp | Image processing apparatus, robot control system, robot, program, and image processing method |
JP7365862B2 (en) * | 2019-11-08 | 2023-10-20 | Kddi株式会社 | Object tracking device and method |
DE112020007882T5 (en) * | 2020-12-25 | 2023-12-07 | Mitsubishi Electric Corporation | Reliability correction device, reliability correction method, and vehicle operating system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2861754B2 (en) * | 1993-10-14 | 1999-02-24 | トヨタ自動車株式会社 | Light distribution control device for headlamp |
JP2006137383A (en) * | 2004-11-15 | 2006-06-01 | Niles Co Ltd | Photographing device for vehicle |
JP2008021034A (en) * | 2006-07-11 | 2008-01-31 | Fujitsu Ten Ltd | Image recognition device, image recognition method, pedestrian recognition device and vehicle controller |
-
2009
- 2009-10-21 JP JP2009242429A patent/JP5170058B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011090450A (en) | 2011-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8908924B2 (en) | Exterior environment recognition device and exterior environment recognition method | |
JP4544233B2 (en) | Vehicle detection device and headlamp control device | |
CN104956400B (en) | Mobile object identifier, vehicle and the method for identifying mobile object | |
JP5518007B2 (en) | Vehicle external recognition device and vehicle control system using the same | |
US20130235202A1 (en) | Vehicle periphery monitoring apparatus and method of determining type of object for use in vehicle periphery monitoring apparatus | |
WO2016117200A1 (en) | Outside environment recognition device for vehicles and vehicle behavior control device using same | |
JP6132412B2 (en) | Outside environment recognition device | |
JP6236039B2 (en) | Outside environment recognition device | |
US20150125031A1 (en) | Three-dimensional object detection device | |
JP2016169001A (en) | Imaging system, image processing system, movable body control system, movable body device, projection device, object detection method, and object detection program | |
JP6983334B2 (en) | Image recognition device | |
JP5170058B2 (en) | Object detection device | |
JP5760635B2 (en) | Driving support device | |
JP4007578B2 (en) | Headlamp irradiation range control method and headlamp apparatus | |
JP6458577B2 (en) | Image ranging device | |
JP2013101432A (en) | Obstacle detector and program | |
JP7501398B2 (en) | Object detection device | |
JP2019156276A (en) | Vehicle detection method and vehicle detection device | |
JP2009083824A (en) | Pedestrian detection device for vehicle | |
JP7201706B2 (en) | Image processing device | |
JP2010254191A (en) | Car-mounted lighting control device and program | |
JP5330120B2 (en) | Three-dimensional shape measuring apparatus and semiconductor integrated circuit | |
JP7020359B2 (en) | Warning device | |
JP6125975B2 (en) | Pitch angle detection device and pitch angle detection method | |
JP7356372B2 (en) | Three-dimensional object detection device, in-vehicle system, and three-dimensional object detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121217 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5170058 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160111 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |