[go: nahoru, domu]

JP5170058B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP5170058B2
JP5170058B2 JP2009242429A JP2009242429A JP5170058B2 JP 5170058 B2 JP5170058 B2 JP 5170058B2 JP 2009242429 A JP2009242429 A JP 2009242429A JP 2009242429 A JP2009242429 A JP 2009242429A JP 5170058 B2 JP5170058 B2 JP 5170058B2
Authority
JP
Japan
Prior art keywords
headlamp
irradiation range
range
distance
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009242429A
Other languages
Japanese (ja)
Other versions
JP2011090450A (en
Inventor
征和 西嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2009242429A priority Critical patent/JP5170058B2/en
Publication of JP2011090450A publication Critical patent/JP2011090450A/en
Application granted granted Critical
Publication of JP5170058B2 publication Critical patent/JP5170058B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、物体検出装置に関する。   The present invention relates to an object detection device.

自車両の周辺の環境毎に異なる基準パターンを記憶しておき、パターンマッチングを行なうときに自車両周辺の環境に対応する基準パターンを選択する技術が知られている(例えば、特許文献1参照。)。   A technique is known in which a different reference pattern is stored for each environment around the host vehicle, and a reference pattern corresponding to the environment around the host vehicle is selected when pattern matching is performed (see, for example, Patent Document 1). ).

しかし、周辺環境を多数想定して基準パターンを記憶しておかなくてはならないため、膨大なメモリ領域を必要とする。また、あらゆる周辺環境に応じた基準パターンを用意してパターンマッチングを行なうと、物体の誤検出が増加する虞がある。   However, since a large number of surrounding environments are assumed and the reference pattern must be stored, a huge memory area is required. Moreover, if a reference pattern corresponding to any surrounding environment is prepared and pattern matching is performed, there is a possibility that false detection of an object may increase.

特開2007−329762号公報JP 2007-329762 A 特開2008−015770号公報JP 2008-015770 A 特開2006−350670号公報JP 2006-350670 A

本発明は、上記したような問題点に鑑みてなされたものであり、パターンマッチングを行なうために必要となるデータ量を抑制しつつパターンマッチングの精度を向上させる技術の提供を目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for improving the accuracy of pattern matching while suppressing the amount of data necessary for performing pattern matching.

上記課題を達成するために本発明による物体検出装置は、以下の手段を採用した。すなわち、本発明による物体検出装置は、
自車両から物体までの距離を検出する距離検出手段と、
前記自車両の周囲に光を照射する照射手段と、
前記物体を撮像する撮像手段と、
前記照射手段による光の照射範囲を検出する範囲検出手段と、
物体の基準形状を複数の領域に分割して記憶している記憶手段と、
前記距離検出手段により検出される距離及び前記範囲検出手段により検出される照射範囲に基づいて、前記複数の領域毎に前記物体の基準形状の重み付けを行なう重み付け手段と、
前記撮像手段により撮像される物体のデータと、前記重み付け手段により重み付けされる物体の基準形状と、を前記複数の領域毎に比較することによりマッチング処理を行なって物体を識別するマッチング手段と、
を備えることを特徴とする。
In order to achieve the above object, the object detection apparatus according to the present invention employs the following means. That is, the object detection device according to the present invention is
Distance detection means for detecting the distance from the vehicle to the object;
Irradiating means for irradiating light around the host vehicle;
Imaging means for imaging the object;
A range detection means for detecting a light irradiation range by the irradiation means;
Storage means for storing a reference shape of an object divided into a plurality of regions;
Weighting means for weighting the reference shape of the object for each of the plurality of regions based on the distance detected by the distance detecting means and the irradiation range detected by the range detecting means;
Matching means for performing object matching by comparing the data of the object imaged by the imaging means and the reference shape of the object weighted by the weighting means for each of the plurality of regions;
It is characterized by providing.

マッチング手段は、例えば、撮像される物体のデータと、重み付けされた各領域の基準形状と、のパターンマッチングを行なう。ここで、夜間走行時やトンネル内走行時等に、自車両が光を照射している場合には、該光の照射範囲が変わることにより、物体においては照らされる部位が変わる。そうすると、光の照射範囲に応じて、撮像される物体のデータが変わる。なお、照射範囲とは、照度が規定値以上となる範囲とすることができる。   The matching means performs, for example, pattern matching between the object data to be imaged and the weighted reference shape of each area. Here, when the host vehicle is irradiating light when traveling at night, traveling in a tunnel, or the like, the illuminated area changes in the object by changing the irradiation range of the light. If it does so, the data of the object imaged will change according to the irradiation range of light. The irradiation range can be a range in which the illuminance is a specified value or more.

光の照射範囲内に物体の一部が位置するときには、該物体の一部の形状は認識し易くな
るが、照射範囲外に位置する物体の他部の形状は認識し難くなる。そうすると、認識し難い領域に属する物体のデータの信頼度は低くなるため、この領域のデータを用いると物体を誤認する可能性が高くなる。例えば、光の照射範囲外では、撮像手段により撮像される物体のデータと基準形状との類似度合いが高いと判定される場合であっても、誤認により類似度合いが高いと判定されている虞がある。そこで、重み付け手段は、光の照射範囲に応じて、複数の領域毎に基準形状の重み付けを行なう。例えば、物体の形状が認識し易い位置ほど、重みを大きくする。これにより、認識し易い位置の基準形状の影響度がより大きくなる。そうすると、認識し難い位置の基準形状の影響度は小さくなるため、物体が誤認されることを抑制できる。
When a part of the object is located within the light irradiation range, the shape of the part of the object is easily recognized, but the shape of the other part of the object located outside the irradiation range is difficult to recognize. Then, since the reliability of the data of the object belonging to the region that is difficult to recognize becomes low, there is a high possibility that the object is mistaken when using the data of this region. For example, even if it is determined that the degree of similarity between the data of the object imaged by the imaging unit and the reference shape is high outside the light irradiation range, there is a possibility that the degree of similarity is determined to be high due to misperception. is there. Therefore, the weighting unit weights the reference shape for each of the plurality of regions in accordance with the light irradiation range. For example, the weight is increased as the position where the shape of the object is easily recognized. Thereby, the influence degree of the reference | standard shape of the position which is easy to recognize becomes larger. Then, since the influence degree of the reference shape at a position that is difficult to recognize becomes small, it is possible to prevent the object from being misidentified.

このようにすると、類似度合いが高い領域であっても、重みが小さい領域では、全体への影響度が小さくなる。そして、照射範囲に基づいて基準形状に重み付けをすることにより、類似度合い及び重みに応じて物体を識別することができるため、物体の識別精度を向上させることができる。   In this way, even in a region where the degree of similarity is high, the degree of influence on the whole is small in a region where the weight is small. Since the object can be identified according to the degree of similarity and the weight by weighting the reference shape based on the irradiation range, the object identification accuracy can be improved.

本発明においては、前記距離検出手段及び前記撮像手段は、ステレオカメラを含んで構成されても良い。   In the present invention, the distance detection unit and the imaging unit may include a stereo camera.

ステレオカメラによれば、物体を撮像することができる。また、ステレオカメラにより得られる2つのデータによれば、物体までの距離を演算することができる。すなわち、ステレオカメラを備えていれば、物体までの距離を測定するレーダ等を備える必要がなくなる。   According to the stereo camera, an object can be imaged. Further, according to the two data obtained by the stereo camera, the distance to the object can be calculated. That is, if a stereo camera is provided, there is no need to provide a radar or the like for measuring the distance to the object.

本発明においては、前記照射手段は、前記自車両の前照灯を含んで構成されても良い。すなわち、前照灯の状態に応じて光の照射範囲が変わるため、範囲検出手段は照射手段による光の照射範囲に応じて照射範囲を簡易に求めることができる。なお、前記照射手段は、自車両の前方若しくは側方を照らす補助灯、または自車両の後方を照らすバックランプを含んで構成されていても良い。   In this invention, the said irradiation means may be comprised including the headlamp of the said own vehicle. That is, since the light irradiation range changes according to the state of the headlamp, the range detection unit can easily determine the irradiation range according to the light irradiation range by the irradiation unit. The irradiating means may include an auxiliary lamp that illuminates the front or side of the host vehicle, or a back lamp that illuminates the rear of the host vehicle.

本発明においては、前記範囲検出手段は、前記前照灯の向きに応じた照射範囲を記憶しており、前記前照灯の向きに応じて照射範囲を選択することができる。   In the present invention, the range detection means stores an irradiation range according to the direction of the headlamp, and can select the irradiation range according to the direction of the headlamp.

ここで、前照灯の向きが変われば、光の照射範囲も変わる。これにより、物体上で照射範囲に入る領域も変わり得る。前照灯の向きに応じた光の照射範囲を予め記憶しておけば、前照灯の向きを検出することにより、光の照射範囲を簡易に得ることができる。   Here, if the direction of the headlamp changes, the light irradiation range also changes. Thereby, the area | region which enters into the irradiation range on an object may also change. If the light irradiation range corresponding to the direction of the headlamp is stored in advance, the light irradiation range can be easily obtained by detecting the direction of the headlamp.

なお、前記前照灯は上下方向に照射範囲を変化させ、
前記範囲検出手段は、前記前照灯が上向きの場合の照射範囲と下向きの場合の照射範囲とを記憶しており、前記前照灯が上向きか又は下向きかに応じて照射範囲を選択することができる。
The headlamp changes the irradiation range in the vertical direction,
The range detecting means stores an irradiation range when the headlamp is upward and an irradiation range when the headlamp is downward, and selects the irradiation range according to whether the headlamp is upward or downward. Can do.

すなわち、前照灯が上向きであるのか、または下向きであるのかにより、光の照射範囲が変わる。これにより、物体上で照射範囲に入る領域も変わり得る。前照灯が上向き及び下向きの夫々の場合における光の照射範囲を予め記憶しておけば、前照灯が上向きか又は下向きかを検出することにより、光の照射範囲を簡易に得ることができる。   That is, the light irradiation range changes depending on whether the headlamp is upward or downward. Thereby, the area | region which enters into the irradiation range on an object may also change. If the irradiation range of light in the case where the headlamp is upward and downward is stored in advance, the light irradiation range can be easily obtained by detecting whether the headlamp is upward or downward. .

また、前記前照灯は左右方向に照射範囲を変化させ、
前記範囲検出手段は、前記前照灯が左右方向に変化するときの夫々の照射範囲を記憶しており、前記前照灯が左右方向の何れの向きかに応じて照射範囲を選択することができる。
In addition, the headlamp changes the irradiation range in the left-right direction,
The range detection means stores each irradiation range when the headlamp changes in the left-right direction, and can select the irradiation range according to which direction the headlamp is in the left-right direction. it can.

例えば、車両がカーブを走行中に前照灯向きを左右方向で変化させることがある。このような場合には、前照灯の向きが左右方向で変化するのに伴い、光の照射範囲も変化する。これにより、物体上で照射範囲に入る領域も変わり得る。前照灯の左右方向の向きに応じた光の照射範囲を予め記憶しておけば、前照灯の左右方向の何れの向きとなっているのかを検出することにより、光の照射範囲を簡易に得ることができる。   For example, the headlight direction may change in the left-right direction while the vehicle is traveling on a curve. In such a case, the light irradiation range also changes as the direction of the headlamp changes in the left-right direction. Thereby, the area | region which enters into the irradiation range on an object may also change. If the light irradiation range corresponding to the direction of the headlight in the left-right direction is stored in advance, the light irradiation range can be simplified by detecting which direction the headlight is in the left-right direction. Can get to.

本発明においては、前記重み付け手段は、照度が高い領域ほど、重みを大きくすることができる。すなわち、照度が高いほど、物体の形状を認識し易いために撮像される物体のデータの信頼度が高くなるので、重みを大きくする。   In the present invention, the weighting means can increase the weight in a region with higher illuminance. That is, the higher the illuminance, the easier it is to recognize the shape of the object, so the reliability of the imaged object data is higher, so the weight is increased.

本発明によれば、パターンマッチングを行なうために必要となるデータ量を抑制しつつパターンマッチングの精度を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the precision of pattern matching can be improved, suppressing the data amount required in order to perform pattern matching.

実施例に係る物体検出装置を示すブロック図である。It is a block diagram which shows the object detection apparatus which concerns on an Example. ヘッドランプによる光の照射範囲を示した図である。It is the figure which showed the irradiation range of the light by a headlamp. 分割データの重みを示した図である。It is the figure which showed the weight of division | segmentation data. 実施例に係るマッチング処理のフローを示したフローチャートである。It is the flowchart which showed the flow of the matching process which concerns on an Example. LO用歩行者照射範囲テーブルまたはHI用歩行者照射範囲テーブルの一例を示す図である。It is a figure which shows an example of the pedestrian irradiation range table for LO, or the pedestrian irradiation range table for HI.

以下、本発明に係る物体検出装置の具体的な実施態様について図面に基づいて説明する。   Hereinafter, specific embodiments of the object detection apparatus according to the present invention will be described with reference to the drawings.

図1は、本実施例に係る物体検出装置1を示すブロック図である。本実施例に係る物体検出装置1は、道路を走行する自車両に搭載されており、自車両の周辺に存在する歩行者や他車両等の物体を検出する装置である。   FIG. 1 is a block diagram illustrating an object detection apparatus 1 according to the present embodiment. The object detection apparatus 1 according to the present embodiment is an apparatus that is mounted on a host vehicle traveling on a road and detects objects such as pedestrians and other vehicles existing around the host vehicle.

物体検出装置1は、ステレオカメラ2、ヘッドランプスイッチ3、ヘッドランプ4、ECU5を備えて構成されている。   The object detection device 1 includes a stereo camera 2, a headlamp switch 3, a headlamp 4, and an ECU 5.

ステレオカメラ2は、自車両の前部又は室内に設けられて、自車両の前方に存在する物体を撮像するものである。ステレオカメラ2は、物体を複数の異なる方向から同時に撮像することにより、物体までの距離情報を記録できる。ステレオカメラ2は、レンズから入ってきた光を電気信号に変換しECU5に逐次出力する。なお、本実施例においてはステレオカメラ2が、本発明における撮像手段に相当する。   The stereo camera 2 is provided in the front part or the room of the host vehicle and images an object existing in front of the host vehicle. The stereo camera 2 can record distance information to the object by simultaneously imaging the object from a plurality of different directions. The stereo camera 2 converts light coming from the lens into an electrical signal and sequentially outputs it to the ECU 5. In this embodiment, the stereo camera 2 corresponds to the image pickup means in the present invention.

ヘッドランプスイッチ3は、ヘッドランプ4のON(点灯)−OFF(消灯)及びHI(上向き)−LO(下向き)を運転者が選択するためのスイッチである。なお、自車両の周囲の明るさに応じて自動的にヘッドランプ4をON−OFFさせても良い。ヘッドランプスイッチ3の状態に応じた信号がECU5に入力されると共に、ヘッドランプ4がその状態に応じて制御される。   The headlamp switch 3 is a switch for the driver to select ON (lit) -OFF (dark) and HI (upward) -LO (downward) of the headlamp 4. Note that the headlamp 4 may be automatically turned on and off according to the brightness around the host vehicle. A signal corresponding to the state of the headlamp switch 3 is input to the ECU 5, and the headlamp 4 is controlled according to the state.

ヘッドランプ4は、少なくとも上向き(HI)と下向き(LO)とを切替可能なランプである。なお、本実施例においてはヘッドランプ4が、本発明における照射手段に相当する。   The headlamp 4 is a lamp that can be switched at least between upward (HI) and downward (LO). In this embodiment, the headlamp 4 corresponds to the irradiation means in the present invention.

ECU5は、自車両の前方に物体が存在するか否か、または物体の種類を判定するものであり、例えばCPU、ROM、RAMを含むコンピュータを主体として構成される。ECU5は、分割データ記憶部51、距離演算部52、光照射範囲演算部53、重み付け演算部54、マッチング演算部55を備えて構成されている。   The ECU 5 determines whether or not an object is present in front of the host vehicle or the type of the object, and is configured mainly by a computer including a CPU, a ROM, and a RAM, for example. The ECU 5 includes a divided data storage unit 51, a distance calculation unit 52, a light irradiation range calculation unit 53, a weighting calculation unit 54, and a matching calculation unit 55.

分割データ記憶部51は、物体の基本形状を複数(例えば6)に分割した分割データとして記憶している。基本形状は、ステレオカメラ2により撮像された物体のデータと比較されるデータである。分割データ記憶部51は、複数の領域に分割した物体の基準形状を、領域毎に記憶している。なお、本実施例においては分割データ記憶部51が、本発明における記憶手段に相当する。   The divided data storage unit 51 stores the divided data obtained by dividing the basic shape of the object into a plurality (for example, 6). The basic shape is data to be compared with the data of the object imaged by the stereo camera 2. The divided data storage unit 51 stores the reference shape of the object divided into a plurality of areas for each area. In the present embodiment, the divided data storage unit 51 corresponds to the storage means in the present invention.

距離演算部52は、ステレオカメラ2により撮像された物体のデータを基にして、自車両と物体との距離を演算する。なお、物体が自車両の斜め前方に位置するときには、実際の距離を、自車両の進行方向成分と、自車両の真横方向成分(進行方向と直交する方向成分)と、に分けて考える。そして、自車両の進行方向の成分を距離とし、自車両の右側の真横方向の成分を横位置として求める。また、物体の高さも同時に求める。物体が自車両の左前方に位置する場合には、横位置が負の値となる。   The distance calculation unit 52 calculates the distance between the host vehicle and the object based on the data of the object imaged by the stereo camera 2. Note that when the object is positioned obliquely forward of the host vehicle, the actual distance is divided into a traveling direction component of the host vehicle and a true lateral component (direction component orthogonal to the traveling direction) of the host vehicle. Then, the component in the traveling direction of the host vehicle is used as the distance, and the component in the right lateral direction on the right side of the host vehicle is determined as the lateral position. The height of the object is also obtained at the same time. When the object is located on the left front side of the host vehicle, the lateral position is a negative value.

光照射範囲演算部53は、ヘッドランプスイッチ3からの信号に基づいてヘッドランプ4の照射範囲を演算する。ヘッドランプ4の状態(ヘッドランプスイッチ3のHI及びLOの状態)に応じて光の照射範囲が変わるため、ヘッドランプスイッチ3の状態又はヘッドランプ4の状態と光の照射範囲との関係を、夫々実験等により求めてECU5に記憶しておく。なお、本実施例においては光照射範囲演算部53が、本発明における範囲検出手段に相当する。   The light irradiation range calculation unit 53 calculates the irradiation range of the headlamp 4 based on the signal from the headlamp switch 3. Since the light irradiation range changes depending on the state of the headlamp 4 (HI and LO states of the headlamp switch 3), the relationship between the state of the headlamp switch 3 or the state of the headlamp 4 and the light irradiation range is Each is obtained by experiment or the like and stored in the ECU 5. In the present embodiment, the light irradiation range calculation unit 53 corresponds to the range detection means in the present invention.

重み付け演算部54は、光照射範囲演算部53の演算結果に基づいて、分割データ記憶部51に記憶されている分割データに夫々重み付けを行なう。光の照射範囲とデータの重みとの関係は予め実験等により求めておく。なお、本実施例においては重み付け演算部54が、本発明における重み付け手段に相当する。   The weighting calculation unit 54 weights the divided data stored in the divided data storage unit 51 based on the calculation result of the light irradiation range calculation unit 53. The relationship between the light irradiation range and the data weight is obtained in advance by experiments or the like. In this embodiment, the weighting calculation unit 54 corresponds to the weighting means in the present invention.

マッチング演算部55は、重み付け演算部54により重み付けが行なわれた後の分割データと、ステレオカメラ2により撮像された物体のデータと、を比較して、記憶されている物体の基準形状と、撮像された物体のデータとの類似度合いを演算する。なお、本実施例においてはマッチング演算部55が、本発明におけるマッチング手段に相当する。   The matching calculation unit 55 compares the divided data after being weighted by the weighting calculation unit 54 with the data of the object imaged by the stereo camera 2, and stores the reference shape of the stored object and the imaging The degree of similarity with the data of the selected object is calculated. In this embodiment, the matching calculation unit 55 corresponds to the matching means in the present invention.

そして、マッチング度合いが規定値以上となると、ECU5は、作動デバイス6に信号を出力する。作動デバイス6は、例えばLED61又は音による警報装置62である。また、ブレーキやエンジンを制御することも作動デバイス6に含むことができる。   Then, when the matching degree is equal to or greater than the specified value, the ECU 5 outputs a signal to the operation device 6. The operation device 6 is, for example, an LED 61 or an alarm device 62 using sound. The actuating device 6 can also include controlling the brake and engine.

なお、本実施例では、以下に物体として歩行者を例に挙げて説明するが、他の物体であっても同様に適用することができる。   In the present embodiment, a pedestrian will be described as an example as an object, but the present invention can be similarly applied to other objects.

ここで、夜間走行時等であって自車両の周囲が暗いときには、ヘッドランプ4の状態、すなわち、上向きであるか又は下向きであるかによって、歩行者の見え方が変化する。すなわち、ヘッドランプ4の状態が異なると、例え同じ位置に存在する歩行者を撮像したとしても、そのデータは同じにはならない。そうすると、分割データ記憶部51に記憶されている基準形状をそのまま用いてパターンマッチングを行った場合に、歩行者の識別結果がヘッドランプ4の状態によって変わり得る。   Here, when the vehicle is traveling at night or the like and the surroundings of the host vehicle are dark, the appearance of the pedestrian changes depending on the state of the headlamp 4, that is, whether it is upward or downward. That is, if the state of the headlamp 4 is different, even if pedestrians existing at the same position are imaged, the data is not the same. Then, when pattern matching is performed using the reference shape stored in the divided data storage unit 51 as it is, the identification result of the pedestrian can change depending on the state of the headlamp 4.

図2は、ヘッドランプ4による光の照射範囲を示した図である。照射範囲は例えば照度が規定値以上となる範囲とする。図2Aはヘッドランプ4が下向きの場合を示し、図2Bはヘッドランプ4が上向きの場合を示している。歩行者を、自車両100から近い順にX,Y,Zとして表している。図2Aと図2Bとは、ヘッドランプ4の状態のみが異なり、自車両100と、歩行者X,Y,Zとの距離は同じである。歩行者Xは、ヘッドランプ4が下向きのときには下半身が照射範囲に入り、上向きのときには上半身が照射範囲に入る。また、歩行者Yは、ヘッドランプ4が下向きのときには足の下のほうの部位が照射範囲に入り、上向きのときには全身が照射範囲に入る。歩行者Zは、ヘッドランプ4が下向きであっても又は上向きであっても光の照射範囲には入らない。   FIG. 2 is a diagram showing a light irradiation range by the headlamp 4. The irradiation range is, for example, a range where the illuminance is a specified value or more. FIG. 2A shows a case where the headlamp 4 is downward, and FIG. 2B shows a case where the headlamp 4 is upward. Pedestrians are represented as X, Y, and Z in order of increasing distance from the host vehicle 100. 2A and 2B differ only in the state of the headlamp 4, and the distance between the host vehicle 100 and the pedestrians X, Y, and Z is the same. For the pedestrian X, the lower body enters the irradiation range when the headlamp 4 is downward, and the upper body enters the irradiation range when the headlamp 4 is upward. Further, when the headlamp 4 is downward, the pedestrian Y enters the irradiation range at the lower part of the foot, and when the headlamp 4 is upward, the whole body enters the irradiation range. The pedestrian Z does not enter the light irradiation range even if the headlamp 4 is downward or upward.

このように、ヘッドランプ4からの光の照射範囲に入る部位が、ヘッドランプ4の状態及び自車両100から歩行者までの距離、横位置によって異なる。そして、光の照射範囲外では歩行者を認識し難いため、ステレオカメラ2により撮像されるデータの信頼度が低い。このため、光の照射範囲外のデータをそのまま用いてパターンマッチングを行なうと、歩行者の識別精度が低くなる虞がある。   Thus, the part which enters into the irradiation range of the light from the headlamp 4 differs depending on the state of the headlamp 4, the distance from the own vehicle 100 to the pedestrian, and the lateral position. And since it is hard to recognize a pedestrian outside the light irradiation range, the reliability of the data imaged with the stereo camera 2 is low. For this reason, if pattern matching is performed using data outside the light irradiation range as it is, the pedestrian identification accuracy may be lowered.

そこで本実施例では、分割データに重み付けを行い、ヘッドランプ4からの光がより多く当たる位置(照度のより大きな位置)の重みを大きくしている。この重みは光の照射範囲によって変わるため、ヘッドランプ4の位置や大きさ、光度に応じて変わるので、予め実験等により求めておく。   Therefore, in the present embodiment, the divided data is weighted, and the weight of the position where the light from the headlamp 4 hits more (the position where the illuminance is larger) is increased. Since this weight varies depending on the light irradiation range, it varies depending on the position, size, and luminous intensity of the headlamp 4, and is obtained in advance through experiments or the like.

図3は、分割データの重みを示した図である。図3Aはヘッドランプ4が下向きの場合を示し、図3Bはヘッドランプ4が上向きの場合を示している。図3は、自車両から歩行者までの距離(進行方向成分)が15mで、横位置(右方向成分)が−1mの場合を示している。すなわち、歩行者は自車両の左斜め前方に位置している。   FIG. 3 is a diagram showing the weight of the divided data. FIG. 3A shows a case where the headlamp 4 is downward, and FIG. 3B shows a case where the headlamp 4 is upward. FIG. 3 shows a case where the distance from the host vehicle to the pedestrian (traveling direction component) is 15 m and the lateral position (right direction component) is −1 m. That is, the pedestrian is located diagonally to the left of the host vehicle.

図3では、歩行者の基準形状を6分割し、夫々の領域で重みを設定している。なお、ヘッドランプ4からの光が当たる位置と当たらない位置とは、明確に分かれているわけではないので、例えば照度に応じて重み付けしている。図3の例では、ヘッドランプ4が下向きのとき(図3A)には、歩行者の主に下半身に光が当たるため、下半身を含む領域の重みが大きく、頭を含む領域に近づくほど重みが小さくなる。そして、頭を含む領域では重みが0とされる。ここで、重みが0ということは、撮像された歩行者のデータのうち、この領域のデータは歩行者の識別に影響を与えないことを意味する。   In FIG. 3, the reference shape of the pedestrian is divided into six, and the weight is set in each region. In addition, since the position where the light from the headlamp 4 strikes and the position where it does not strike are not clearly separated, weighting is performed according to, for example, illuminance. In the example of FIG. 3, when the headlamp 4 is facing downward (FIG. 3A), light is mainly applied to the lower body of the pedestrian. Get smaller. The weight is set to 0 in the area including the head. Here, the weight of 0 means that the data in this area among the captured pedestrian data does not affect the pedestrian identification.

一方、ヘッドランプ4が上向きのとき(図3B)には、歩行者の全体に光が当たるため、全領域の重みが大きくなる。   On the other hand, when the headlamp 4 is facing upward (FIG. 3B), the entire pedestrian is exposed to light, so the weight of the entire region increases.

このようにして、重み付け演算部54は、ヘッドランプ4の状態と、自車両から歩行者までの距離及び横位置と、に応じて分割データの重み付けを行なう。   In this way, the weighting calculation unit 54 weights the divided data according to the state of the headlamp 4, the distance from the host vehicle to the pedestrian, and the lateral position.

そして、マッチング演算部55は、ステレオカメラ2により撮像された歩行者のデータを6分割し、夫々の領域において、撮像された歩行者のデータと、重み付けされた分割データとでパターンマッチングを行なうことで歩行者を識別する。例えば、各領域で類似度と重みとを掛け合わせたスコアを算出し、全領域のスコアの合計により歩行者であるか否かを識別する。   The matching calculation unit 55 divides the pedestrian data captured by the stereo camera 2 into six parts, and performs pattern matching between the captured pedestrian data and the weighted divided data in each region. Identify pedestrians with For example, a score obtained by multiplying the similarity and the weight in each area is calculated, and whether or not the person is a pedestrian is identified by the sum of the scores in all the areas.

図4は、本実施例に係るマッチング処理のフローを示したフローチャートである。本ルーチンは所定の時間毎に繰り返し実行される。   FIG. 4 is a flowchart showing a flow of matching processing according to the present embodiment. This routine is repeatedly executed every predetermined time.

ステップS101では、ステレオカメラ2により撮像されたデータを基に、距離演算部
52が、自車両から歩行者の中心部までの距離及び横位置、高さを取得する。
In step S101, the distance calculation unit 52 acquires the distance, the lateral position, and the height from the host vehicle to the center of the pedestrian based on the data captured by the stereo camera 2.

距離及び横位置、高さの三次元情報を得ることができれば、二次元画像の座標(CX,CY)を求めることができる。
(CX,CY)=FuncComvert3Dto2D(距離,横位置,歩行者の高さ)
ただし、FuncComvert3Dto2Dは、三次元情報を二次元画像の座標に変換する関数である。
If the three-dimensional information of the distance, the lateral position, and the height can be obtained, the coordinates (CX, CY) of the two-dimensional image can be obtained.
(CX, CY) = FuncComvert3Dto2D (distance, lateral position, pedestrian height)
However, FuncComvert3Dto2D is a function that converts three-dimensional information into coordinates of a two-dimensional image.

このようにして得られる横位置の左右方向に規定のオフセット量を加えて、歩行者の左横位置及び右横位置を算出する。このオフセット量は、左横位置と右横位置との間が歩行者の幅に所定値を加えた値となるように設定され、例えば±0.6mである。すなわち、左横位置と右横位置との間に歩行者全体が入るように、左横位置及び右横位置が設定される。同様に、歩行者の中心から上下方向に規定のオフセット量を加えて、歩行者の高さ位置及び地面位置を算出する。このオフセット量は、歩行者の中心の高さに所定値を加えた値であり、例えば±1.2mである。すなわち、地面位置と歩行者の高さ位置との間に歩行者全体が入るように、地面位置及び歩行者の高さ位置が設定される。   The left lateral position and the right lateral position of the pedestrian are calculated by adding a specified offset amount to the lateral direction of the lateral position thus obtained. This offset amount is set so that a predetermined value is added to the width of the pedestrian between the left lateral position and the right lateral position, and is, for example, ± 0.6 m. That is, the left lateral position and the right lateral position are set so that the entire pedestrian enters between the left lateral position and the right lateral position. Similarly, a predetermined offset amount is added in the vertical direction from the center of the pedestrian to calculate the pedestrian's height position and ground position. This offset amount is a value obtained by adding a predetermined value to the height of the center of the pedestrian, and is, for example, ± 1.2 m. That is, the ground position and the height position of the pedestrian are set so that the entire pedestrian enters between the ground position and the height position of the pedestrian.

すなわち、二次元画像上の歩行者を四角形で囲んだときの左上点(LX,UY)、左下点(LX,DY)、右上点(RX,UY)、右下点(RX,DY)は以下のようにして求まる。
(LX,UY)=FuncComvert3Dto2D(距離,左横位置,歩行者の高さ)
(LX,DY)=FuncComvert3Dto2D(距離,左横位置,地面)
(RX,UY)=FuncComvert3Dto2D(距離,右横位置,歩行者の高さ)
(RX,DY)=FuncComvert3Dto2D(距離,右横位置,地面)
この4点で囲まれる領域をマッチング領域とし、分割データ記憶部51に記憶されている分割データとの比較対象とする。
That is, the upper left point (LX, UY), lower left point (LX, DY), upper right point (RX, UY), lower right point (RX, DY) when a pedestrian on a two-dimensional image is surrounded by a rectangle is as follows: It is obtained like this.
(LX, UY) = FuncComvert3Dto2D (distance, left lateral position, pedestrian height)
(LX, DY) = FuncComvert3Dto2D (distance, left lateral position, ground)
(RX, UY) = FuncComvert3Dto2D (distance, right lateral position, pedestrian height)
(RX, DY) = FuncComvert3Dto2D (distance, right lateral position, ground)
The area surrounded by the four points is set as a matching area, and is compared with the divided data stored in the divided data storage unit 51.

次に、ステップS102では、ヘッドランプ4の状態が取得される。すなわち、ヘッドランプ4が点灯しているか又は消灯しているか、点灯している場合には下向きか又は上向きか取得される。   Next, in step S102, the state of the headlamp 4 is acquired. That is, it is acquired whether the headlamp 4 is turned on, turned off, or turned on when the headlamp 4 is turned on.

ここで、ヘッドランプ4が消灯している場合には、分割データの重み付けを行なわない。すなわち、分割データ記憶部51に記憶されている分割データをそのまま用いる。また、ヘッドランプ4が下向きのときには「LO用歩行者照射範囲テーブル」を参照し、また上向きのときには「HI用歩行者照射範囲テーブル」を参照してヘッドランプ4による光の照射範囲を取得する。   Here, when the headlamp 4 is turned off, the divided data is not weighted. That is, the divided data stored in the divided data storage unit 51 is used as it is. When the headlamp 4 is downward, the “LO pedestrian irradiation range table” is referred to. When the headlamp 4 is upward, the “HI pedestrian irradiation range table” is referred to, and the light irradiation range of the headlamp 4 is acquired. .

図5は、LO用歩行者照射範囲テーブルまたはHI用歩行者照射範囲テーブルの一例を示す図である。LO用歩行者照射範囲テーブル及びHI用歩行者照射範囲テーブルには、夫々、自車両から歩行者までの距離に応じて歩行者の頭の高さと足の高さとが設定されている。足の高さは、地面から照射範囲の下限までの高さであり、頭の高さは地面から照射範囲の上限までの高さである。図5の場合、自車両から歩行者までの距離が15mのときには、足の高さ(0.1m)から頭の高さ(1.0m)までが照射範囲となる。   FIG. 5 is a diagram illustrating an example of the LO pedestrian irradiation range table or the HI pedestrian irradiation range table. In the LO pedestrian irradiation range table and the HI pedestrian irradiation range table, the height of the pedestrian's head and foot is set in accordance with the distance from the vehicle to the pedestrian. The height of the foot is the height from the ground to the lower limit of the irradiation range, and the height of the head is the height from the ground to the upper limit of the irradiation range. In the case of FIG. 5, when the distance from the own vehicle to the pedestrian is 15 m, the irradiation range is from the foot height (0.1 m) to the head height (1.0 m).

そして、ステップS103では、分割データの重み付けが行なわれる。本実施例では、基準形状を上下に6つの領域に分割している。分割した各領域に対して、頭の高さ及び足の高さに基づいた重み付けを行なう。重み付けは、例えば0から10の値とする。ここで
、(頭の高さ/歩行者の高さ)及び(足の高さ/歩行者の高さ)を算出することにより、分割したどの領域に図5で設定される頭または足が属しているのか求めることができる。
In step S103, the divided data is weighted. In this embodiment, the reference shape is divided into six regions vertically. Each divided area is weighted based on the height of the head and the height of the foot. The weighting is a value from 0 to 10, for example. Here, by calculating (head height / pedestrian height) and (foot height / pedestrian height), the head or foot set in FIG. 5 belongs to any divided region. Can ask.

重み付けは例えば以下のようにして行なう。(1)頭または足の位置に該当しない領域で、且つ、頭の位置から足の位置の範囲内の領域の重みを10とする。(2)頭または足の位置に該当しない領域で(1)以外の領域の重みを0とする。(3)頭または足に該当する領域では、さらにその領域内を9個に再分割し、再分割した領域内で頭または足の位置から上記(1)及び(2)で定義される領域まで重みを除変しつつ1から9の値とする。なお、重み付けは、照射範囲や照度に応じて行なえば良いため、他の手法により行なっても良い。   For example, the weighting is performed as follows. (1) The weight of an area that does not correspond to the position of the head or foot and is within the range of the position of the foot from the position of the head is set to 10. (2) The area other than (1) is set to 0 in an area not corresponding to the position of the head or foot. (3) In the area corresponding to the head or foot, the inside of the area is further subdivided into 9 parts, and from the position of the head or foot to the area defined in (1) and (2) above in the subdivided area A value from 1 to 9 is used while changing the weight. In addition, since weighting should just be performed according to an irradiation range and illumination intensity, you may perform it by another method.

そして、ステップS104では、マッチング処理による歩行者の識別が行なわれる。重み付けされた分割データとマッチング領域内のデータとのパターンマッチングを行い、歩行者を識別する。基準形状の分割領域毎に類似度と重み付けとを乗じたスコアを算出し、これら領域毎のスコアを加算した合計スコアにより歩行者であるか否か識別される。なお、類似度は周知の手法により求めることができる。そして、合計スコアが高いほど、歩行者である確率が高くなるので、例えば合計スコアが閾値以上の場合に歩行者であると識別される。そして、歩行者であると識別された場合には、作動デバイス6を作動させる。   In step S104, pedestrians are identified by matching processing. Pattern matching is performed between the weighted divided data and the data in the matching area to identify pedestrians. A score obtained by multiplying the similarity and the weight for each divided region of the reference shape is calculated, and whether or not the person is a pedestrian is identified by a total score obtained by adding the scores for each region. Note that the similarity can be obtained by a known method. Since the probability of being a pedestrian increases as the total score increases, for example, when the total score is greater than or equal to a threshold value, the person is identified as a pedestrian. And when it is identified as a pedestrian, the operation device 6 is operated.

以上説明したように本実施例によれば、ヘッドランプ4の光の照射範囲に基づいて基準形状に重み付けを行なうため、予め多くのデータを記憶しておく必要がない。すなわち、メモリの容量を小さくすることができる。また、光の照射範囲に基づいて重み付けを行なうことにより、物体を認識し易い領域の重みが大きくなるので、物体の識別精度を向上させることができる。   As described above, according to the present embodiment, since the reference shape is weighted based on the light irradiation range of the headlamp 4, it is not necessary to store a large amount of data in advance. That is, the memory capacity can be reduced. In addition, by performing weighting based on the light irradiation range, the weight of the region where the object is easily recognized increases, so that the object identification accuracy can be improved.

なお、本実施例では、自車両の前方を照らすヘッドランプ4を採用する例について説明したが、自車両の後方を照らすバックランプについても同様に適用することができる。また、自車両の側方または前方を照らす補助ランプ又はコーナーランプについても同様に適用することができる。   In the present embodiment, an example in which the headlamp 4 that illuminates the front of the host vehicle has been described, but the present invention can be similarly applied to a backlamp that illuminates the rear of the host vehicle. Moreover, it can apply similarly about the auxiliary lamp or corner lamp which illuminates the side or the front of the own vehicle.

また、ヘッドランプ4は、上向きと下向きとの2段階で変化する例について説明したが、3段階以上で変化しても、さらには無段階に変化しても同様に適用することができる。この場合、夫々の段階に応じて光の照射範囲を記憶しておけば良い。また、ヘッドランプ4は、上向きと下向きとの上下方向で変化する例について説明したが、左右方向に変化しても同様に適用することができる。例えば、コーナリング時においてステアリング操舵方向に光軸を向ける配光可変型前照灯システムにおいても同様に適用することができる。この場合も、夫々の向きに応じて光の照射範囲を記憶しておく。   Moreover, although the example which changes the headlamp 4 in two steps of upward and downward was demonstrated, even if it changes in three steps or more, and also changes steplessly, it can apply similarly. In this case, the light irradiation range may be stored in accordance with each stage. Moreover, although the example which changes the headlamp 4 by the up-down direction of upward and downward was demonstrated, it can apply similarly, even if it changes to the left-right direction. For example, the present invention can be similarly applied to a variable light distribution type headlamp system that directs the optical axis in the steering direction during cornering. Also in this case, the irradiation range of light is stored according to each direction.

また、本実施例では、ステレオカメラ2により撮像されたデータを基に自車両から物体までの距離を検出する例について説明したが、レーダにより物体までの距離を検出しても良い。   In this embodiment, the example in which the distance from the own vehicle to the object is detected based on the data captured by the stereo camera 2 has been described. However, the distance to the object may be detected by a radar.

また、本実施例では、ヘッドライト4の状態に応じて光の照射範囲を演算する例について説明したが、路面の照度をセンサ等により検出することで光の照射範囲を得ても良い。   Moreover, although the present Example demonstrated the example which calculates the irradiation range of light according to the state of the headlight 4, you may obtain the irradiation range of light by detecting the illumination intensity of a road surface with a sensor.

1 物体検出装置
2 ステレオカメラ
3 ヘッドランプスイッチ
4 ヘッドランプ
5 ECU
6 作動デバイス
51 分割データ記憶部
52 距離演算部
53 光照射範囲演算部
54 重み付け演算部
55 マッチング演算部
61 LED
62 警報装置
100 自車両
DESCRIPTION OF SYMBOLS 1 Object detection apparatus 2 Stereo camera 3 Headlamp switch 4 Headlamp 5 ECU
6 Actuating Device 51 Division Data Storage Unit 52 Distance Calculation Unit 53 Light Irradiation Range Calculation Unit 54 Weighting Calculation Unit 55 Matching Calculation Unit 61 LED
62 Alarm device 100 Own vehicle

Claims (7)

自車両から物体までの距離を検出する距離検出手段と、
前記自車両の周囲に光を照射する照射手段と、
前記物体を撮像する撮像手段と、
前記照射手段による光の照射範囲を検出する範囲検出手段と、
物体の基準形状を複数の領域に分割して記憶している記憶手段と、
前記距離検出手段により検出される距離及び前記範囲検出手段により検出される照射範囲に基づいて、前記複数の領域毎に前記物体の基準形状の重み付けを行なう重み付け手段と、
前記撮像手段により撮像される物体のデータと、前記重み付け手段により重み付けされる物体の基準形状と、を前記複数の領域毎に比較することによりマッチング処理を行なって物体を識別するマッチング手段と、
を備えることを特徴とする物体検出装置。
Distance detection means for detecting the distance from the vehicle to the object;
Irradiating means for irradiating light around the host vehicle;
Imaging means for imaging the object;
A range detection means for detecting a light irradiation range by the irradiation means;
Storage means for storing a reference shape of an object divided into a plurality of regions;
Weighting means for weighting the reference shape of the object for each of the plurality of regions based on the distance detected by the distance detecting means and the irradiation range detected by the range detecting means;
Matching means for performing object matching by comparing the data of the object imaged by the imaging means and the reference shape of the object weighted by the weighting means for each of the plurality of regions;
An object detection apparatus comprising:
前記距離検出手段及び前記撮像手段は、ステレオカメラを含んで構成されることを特徴とする請求項1に記載の物体検出装置。   The object detection apparatus according to claim 1, wherein the distance detection unit and the imaging unit include a stereo camera. 前記照射手段は、前記自車両の前照灯を含んで構成されることを特徴とする請求項1または2に記載の物体検出装置。   The object detection apparatus according to claim 1, wherein the irradiation unit includes a headlamp of the host vehicle. 前記範囲検出手段は、前記前照灯の向きに応じた照射範囲を記憶しており、前記前照灯の向きに応じて照射範囲を選択することを特徴とする請求項3に記載の物体検出装置。   The object detection according to claim 3, wherein the range detection unit stores an irradiation range corresponding to the direction of the headlamp, and selects the irradiation range according to the direction of the headlamp. apparatus. 前記前照灯は上下方向に照射範囲を変化させ、
前記範囲検出手段は、前記前照灯が上向きの場合の照射範囲と下向きの場合の照射範囲とを記憶しており、前記前照灯が上向きか又は下向きかに応じて照射範囲を選択することを特徴とする請求項4に記載の物体検出装置。
The headlamp changes the irradiation range in the vertical direction,
The range detecting means stores an irradiation range when the headlamp is upward and an irradiation range when the headlamp is downward, and selects the irradiation range according to whether the headlamp is upward or downward. The object detection apparatus according to claim 4.
前記前照灯は左右方向に照射範囲を変化させ、
前記範囲検出手段は、前記前照灯が左右方向に変化するときの夫々の照射範囲を記憶しており、前記前照灯が左右方向の何れの向きかに応じて照射範囲を選択することを特徴とする請求項4に記載の物体検出装置。
The headlamp changes the irradiation range in the left-right direction,
The range detection means stores each irradiation range when the headlamp changes in the left-right direction, and selects the irradiation range according to which direction the headlamp is in the left-right direction. The object detection device according to claim 4, wherein
前記重み付け手段は、照度が高い領域ほど、重みを大きくすることを特徴とする請求項1から6の何れか1項に記載の物体検出装置。   7. The object detection apparatus according to claim 1, wherein the weighting unit increases the weight in a region with higher illuminance.
JP2009242429A 2009-10-21 2009-10-21 Object detection device Expired - Fee Related JP5170058B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009242429A JP5170058B2 (en) 2009-10-21 2009-10-21 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009242429A JP5170058B2 (en) 2009-10-21 2009-10-21 Object detection device

Publications (2)

Publication Number Publication Date
JP2011090450A JP2011090450A (en) 2011-05-06
JP5170058B2 true JP5170058B2 (en) 2013-03-27

Family

ID=44108659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009242429A Expired - Fee Related JP5170058B2 (en) 2009-10-21 2009-10-21 Object detection device

Country Status (1)

Country Link
JP (1) JP5170058B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164641A (en) * 2013-02-27 2014-09-08 Seiko Epson Corp Image processing apparatus, robot control system, robot, program, and image processing method
JP7365862B2 (en) * 2019-11-08 2023-10-20 Kddi株式会社 Object tracking device and method
DE112020007882T5 (en) * 2020-12-25 2023-12-07 Mitsubishi Electric Corporation Reliability correction device, reliability correction method, and vehicle operating system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2861754B2 (en) * 1993-10-14 1999-02-24 トヨタ自動車株式会社 Light distribution control device for headlamp
JP2006137383A (en) * 2004-11-15 2006-06-01 Niles Co Ltd Photographing device for vehicle
JP2008021034A (en) * 2006-07-11 2008-01-31 Fujitsu Ten Ltd Image recognition device, image recognition method, pedestrian recognition device and vehicle controller

Also Published As

Publication number Publication date
JP2011090450A (en) 2011-05-06

Similar Documents

Publication Publication Date Title
US8908924B2 (en) Exterior environment recognition device and exterior environment recognition method
JP4544233B2 (en) Vehicle detection device and headlamp control device
CN104956400B (en) Mobile object identifier, vehicle and the method for identifying mobile object
JP5518007B2 (en) Vehicle external recognition device and vehicle control system using the same
US20130235202A1 (en) Vehicle periphery monitoring apparatus and method of determining type of object for use in vehicle periphery monitoring apparatus
WO2016117200A1 (en) Outside environment recognition device for vehicles and vehicle behavior control device using same
JP6132412B2 (en) Outside environment recognition device
JP6236039B2 (en) Outside environment recognition device
US20150125031A1 (en) Three-dimensional object detection device
JP2016169001A (en) Imaging system, image processing system, movable body control system, movable body device, projection device, object detection method, and object detection program
JP6983334B2 (en) Image recognition device
JP5170058B2 (en) Object detection device
JP5760635B2 (en) Driving support device
JP4007578B2 (en) Headlamp irradiation range control method and headlamp apparatus
JP6458577B2 (en) Image ranging device
JP2013101432A (en) Obstacle detector and program
JP7501398B2 (en) Object detection device
JP2019156276A (en) Vehicle detection method and vehicle detection device
JP2009083824A (en) Pedestrian detection device for vehicle
JP7201706B2 (en) Image processing device
JP2010254191A (en) Car-mounted lighting control device and program
JP5330120B2 (en) Three-dimensional shape measuring apparatus and semiconductor integrated circuit
JP7020359B2 (en) Warning device
JP6125975B2 (en) Pitch angle detection device and pitch angle detection method
JP7356372B2 (en) Three-dimensional object detection device, in-vehicle system, and three-dimensional object detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121217

R151 Written notification of patent or utility model registration

Ref document number: 5170058

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160111

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees