JP2022023863A - Congestion prediction system, terminal, congestion prediction method, and congestion prediction program - Google Patents
Congestion prediction system, terminal, congestion prediction method, and congestion prediction program Download PDFInfo
- Publication number
- JP2022023863A JP2022023863A JP2021168213A JP2021168213A JP2022023863A JP 2022023863 A JP2022023863 A JP 2022023863A JP 2021168213 A JP2021168213 A JP 2021168213A JP 2021168213 A JP2021168213 A JP 2021168213A JP 2022023863 A JP2022023863 A JP 2022023863A
- Authority
- JP
- Japan
- Prior art keywords
- information
- traffic
- traffic jam
- congestion
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
この発明は、移動体から撮像した画像を用いて渋滞を予測する渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラムに関する。ただし、この発明の利用は、渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラムに限らない。 The present invention relates to a traffic jam prediction system, a terminal device, a traffic jam prediction method, and a traffic jam prediction program for predicting traffic jams using images captured from a moving body. However, the use of the present invention is not limited to the traffic jam prediction system, the terminal device, the traffic jam prediction method, and the traffic jam prediction program.
従来、道路の渋滞を予測する技術として、車両からの速度と、車両位置の平均速度に基づいて車両位置における渋滞状況を判断するサーバが開示されている(例えば、下記特許文献1参照。)。この技術では、車両で撮像した画像を画像解析して渋滞の判断に用いることも記載されている。
Conventionally, as a technique for predicting traffic congestion on a road, a server that determines a traffic congestion situation at a vehicle position based on a speed from a vehicle and an average speed of the vehicle position has been disclosed (see, for example,
このほか、道路に固定設置されたカメラにより撮像された画像を用いて渋滞を判断するシステムがある。 In addition, there is a system for determining traffic congestion using images taken by a camera fixedly installed on the road.
しかしながら、上記従来の技術では、任意の場所における渋滞を予測することができなかった。また、画像を用いた渋滞判断の構成では、設置コストがかかるとともに、カメラが固定設置された場所の渋滞判断しか行えない制限が生じる、という問題がある。 However, with the above-mentioned conventional technique, it is not possible to predict a traffic jam at an arbitrary place. Further, in the configuration of the traffic jam judgment using the image, there is a problem that the installation cost is high and there is a limitation that only the traffic jam judgment of the place where the camera is fixedly installed can be performed.
また、車両から受け取った速度などの情報から、当該車両が走行している道路の区間が
渋滞しているかどうかを判別するものであり、将来的に渋滞することを予測することはできない、という問題がある。本発明が解決しようとする課題には、上述した問題が一例として挙げられる。
In addition, from information such as speed received from the vehicle, it is determined whether or not the section of the road on which the vehicle is traveling is congested, and it is not possible to predict that the vehicle will be congested in the future. There is. The above-mentioned problems are given as an example of the problems to be solved by the present invention.
上述した課題を解決し、目的を達成するため、請求項1の発明にかかる渋滞予測システムは、道路上の移動体を撮影した画像と撮影した位置を示す位置情報とを取得する取得部と、前記画像中に存在する移動体に関する情報である交通情報を抽出する画像処理部と、前記画像処理部により抽出された前記交通情報を用いて、撮影された位置に対応する前記道路上の渋滞予測に関する情報を算出する交通情報処理部と、を有することを特徴とする。
In order to solve the above-mentioned problems and achieve the object, the traffic jam prediction system according to the invention of
また、請求項6の発明にかかる端末装置は、道路上の移動体を撮影した画像に基づき、前記道路上の前記移動体の渋滞予測を行う渋滞予測装置に対して、前記画像を送信する端末装置であって、道路上の移動体を撮影した画像を撮影する撮像部と、前記撮像部によって撮影された前記画像に撮影した位置情報を付与し、前記渋滞予測装置に送信する処理部と、を有することを特徴とする。 Further, the terminal device according to the invention of claim 6 is a terminal that transmits the image to a traffic jam prediction device that predicts the traffic jam of the moving body on the road based on an image of a moving body on the road. An image pickup unit that captures an image of a moving object on a road, a processing unit that adds the captured position information to the image captured by the image pickup unit and transmits the captured position information to the congestion prediction device. It is characterized by having.
また、請求項7の発明にかかる端末装置は、道路上の移動体を撮影した画像に基づき、前記道路上の前記移動体の渋滞予測を行う渋滞予測装置に接続される端末装置であって、前記渋滞予測装置に対して、所望する位置および時刻を含む渋滞予測の要求を行い、前記渋滞予測装置から受信した前記渋滞予測に関する情報を出力する処理部を有することを特徴とする。 Further, the terminal device according to the invention of claim 7 is a terminal device connected to a traffic jam prediction device that predicts a traffic jam of the moving body on the road based on an image of a moving body on the road. It is characterized by having a processing unit that requests a traffic jam prediction device including a desired position and time to the traffic jam prediction device and outputs information related to the traffic jam prediction received from the traffic jam prediction device.
また、請求項8の発明にかかる渋滞予測方法は、渋滞予測装置が実施する渋滞予測方法において、道路上の移動体を撮影した画像と撮影した位置を示す位置情報とを取得する取得工程と、前記画像中に存在する移動体に関する情報である交通情報を抽出する画像処理工程と、前記画像処理工程により抽出された前記交通情報を用いて、撮影された位置に対応する前記道路上の渋滞予測に関する情報を算出する交通情報処理工程と、を含むことを特徴とする。 Further, the traffic jam prediction method according to the invention of claim 8 is a traffic jam prediction method carried out by a traffic jam prediction device, in which an acquisition step of acquiring an image of a moving object on a road and position information indicating a shot position is obtained. Using the image processing step of extracting traffic information, which is information about a moving object existing in the image, and the traffic information extracted by the image processing step, the traffic congestion prediction on the road corresponding to the photographed position is used. It is characterized by including a traffic information processing process for calculating information about the vehicle.
また、請求項9の発明にかかる渋滞予測プログラムは、上記記載の渋滞予測方法をコンピュータに実行させることを特徴とする。 Further, the traffic jam prediction program according to the invention of claim 9 is characterized in that the computer executes the traffic jam prediction method described above.
(実施の形態)
以下に添付図面を参照して、この発明にかかる渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラムの好適な実施の形態を詳細に説明する。
(Embodiment)
Hereinafter, preferred embodiments of the traffic jam prediction system, the terminal device, the traffic jam prediction method, and the traffic jam prediction program according to the present invention will be described in detail with reference to the accompanying drawings.
図1は、実施の形態にかかる渋滞予測システムの構成例を示すブロック図である。実施の形態にかかる渋滞予測システムは、互いに通信接続された渋滞予測装置100と、端末装置110とによって構成することができる。
FIG. 1 is a block diagram showing a configuration example of a traffic congestion prediction system according to an embodiment. The traffic jam prediction system according to the embodiment can be configured by a traffic
渋滞予測装置100は、画像処理部101と、情報結合部102と、交通情報処理部103と、格納部104と、渋滞予測情報管理部105とを含む。端末装置110は、撮像部111と、測位部112と、処理部113とを含む。
The traffic
渋滞予測装置100は、例えば、単一のサーバを用いて構成できるが、これに限らず、画像処理部101と交通情報処理部103の機能別に分散された複数のサーバを用いる構成としてもよい。
The
端末装置110は、移動中の前方の画像を撮像部111により撮像し、渋滞予測装置100に送信する。この際、処理部113は、撮像部111の撮影画像とともに、撮影ID、および測位部112により測位された撮影時の位置情報を送信する。このほか、移動時の速度や時刻情報を送信してもよい。また、処理部113は、ユーザ操作等により、渋滞予測装置100に渋滞予測を要求し、渋滞予測装置100から送信された渋滞予測の情報を情報処理して図示しない表示部等に出力する。
The
端末装置110は、移動体に設けられるナビゲーション装置やユーザが持つスマートフォンや携帯電話、可搬型のパーソナル・コンピュータ等を用いて構成することにより、渋滞予測装置100に対して渋滞予測に用いる画像を送信し、また、渋滞予測装置100に対して渋滞予測を要求することができる。
The
これらに限らず、端末装置110は、自宅や施設(店舗)等に固設されたパーソナル・コンピュータ等を用いて構成してもよい。この場合、端末装置110は、渋滞予測装置100に対して渋滞予測に用いる画像を送信する機能を省き、渋滞予測装置100に対して渋滞予測を要求する。このような端末装置110の場合、撮像部111と測位部112の機能を省くことができ、端末装置110の処理部113は、ユーザ操作等により渋滞予測を要求し、渋滞予測装置100から送信された渋滞予測の情報を表示部等に出力する。
Not limited to these, the
渋滞予測装置100の画像処理部101は、端末装置110から送信されてくる撮影画像を画像処理する。この画像処理では、撮影画像が示す道路と車両を抽出(検出)する。そして、端末装置110(移動体)が走行している走行車線(自車線)と、車線数、車線別の車両数、車間をそれぞれ検出する。このほか、撮影画像に含まれる各車両の車種を検出することもできる。
The
情報結合部102は、端末装置110から送信されてくる撮影画像の撮影ID、撮影時刻、および撮影位置の各情報を関連付けて格納部104に格納する。渋滞予測装置100の時刻を用いる場合、撮影画像を受信した時刻を用いることができ、端末装置110側における時刻情報の送信は不要である。また、渋滞予測装置100において、端末装置110が設けられた移動体の速度を把握している場合には、渋滞予測装置100は、例えば、端末装置110の緯度経度の移動量と移動所要時間に基づく計算により移動体の速度を求めることができる。
The
そして、情報結合部102は、画像処理部101により画像処理された結果である、自車線情報を同一の撮影IDにより関連付け(結合)し、交通情報として格納部104に格納する。また、情報結合部102は、撮影ID毎の車線別の車両情報(車両数)を車線別車両情報として格納部104に格納する。交通情報は、道路、位置、時間帯別に分類した状態で格納部104に格納される。
Then, the
交通情報処理部103は、格納部104に格納された道路の位置、時間帯毎に分類された交通情報毎に統計関数を用いて位置および時間帯別の渋滞発生の確率を算出し、渋滞予測情報として格納部104に格納する。格納部104には、同一の道路上の複数の撮影画像の変化に基づく交通情報が格納されており、交通情報処理部103は、端末装置110からの要求時の交通情報を過去の交通情報(例えば同一時刻、場所)と比較することにより、渋滞の発生を予測する。
The traffic
交通情報は、同一の道路についての情報に限らず、所定の範囲内(他の道路)の情報とすることができる。 The traffic information is not limited to information about the same road, but can be information within a predetermined range (other roads).
この際、撮影画像に基づいて車線別の交通情報を得ているため、車線別の車両数(車間距離、車両の密度に相当)に基づいて渋滞の度合いを判断し、車線別の渋滞予測を行うことができる。 At this time, since traffic information for each lane is obtained based on the captured image, the degree of congestion is determined based on the number of vehicles for each lane (corresponding to the distance between vehicles and the density of vehicles), and the congestion prediction for each lane is made. It can be carried out.
渋滞予測情報としては、端末装置110の現在位置付近での今後の渋滞予測、端末装置110の目的地までの走行ルート上における渋滞予測、目的地付近での渋滞予測等がある。この渋滞予測情報の算出処理は、あらかじめ道路(場所)毎に算出しておいてもよいし、端末装置110からの要求時に、該当する道路(場所)について算出を行うようにしてもよい。
The traffic jam prediction information includes future traffic jam prediction near the current position of the
また、渋滞予測情報は、撮影された位置に対応する道路について渋滞予測するに限らない。例えば、撮影された位置情報に最も近い道路や、撮影されたタイミングでマップマッチングされた地図情報上の道路であってもよい。 Further, the traffic jam prediction information is not limited to the traffic jam prediction for the road corresponding to the photographed position. For example, it may be a road closest to the captured position information or a road on the map information that is map-matched at the time of capture.
渋滞予測情報管理部105は、渋滞予測情報を管理する。この渋滞予測情報管理部105は、端末装置110からの渋滞予測の要求に対応した位置やエリアの渋滞予測情報を端末装置110に送信する。
The traffic jam prediction
端末装置110は、例えば、移動体の移動時の走行ルートや目的地近傍の所定エリア内における渋滞予測情報を渋滞予測装置100に要求する。このほか、移動体による経路探索時においても同様に走行ルートや目的地近傍の所定エリア内における渋滞予測情報を要求する。これに対応して、渋滞予測装置100は、端末装置110(移動体)走行ルートや目的地近傍の所定エリア内における渋滞予測情報を抽出して端末装置110に送信することができる。
For example, the
図2は、実施の形態にかかる渋滞予測システムの処理手順の一例を示すフローチャートである。渋滞予測装置100が行う渋滞予測の処理内容を示す。はじめに、渋滞予測装置100は、端末装置110から撮影画像と、撮影時の位置情報、速度、時刻を取得する(ステップS201)。上述したように、速度、時刻は端末装置110から受信しなくても取得できる。
FIG. 2 is a flowchart showing an example of the processing procedure of the congestion prediction system according to the embodiment. The processing content of the traffic jam prediction performed by the traffic
次に、渋滞予測装置100は、撮影画像を画像処理する(ステップS202)。この画像処理により、端末装置110(移動体)が走行している走行車線(自車線)、車線数、車線別の車両数、各車両の車種、車間を検出する。検出した情報は、ステップS201により取得した情報(位置情報、速度、時刻)と関連付け(結合)して、交通情報が生成され、格納部104に格納される。
Next, the traffic
同一あるいは異なる複数の端末装置110は、異なる場所や時刻毎に複数の撮影画像を渋滞予測装置100に送信する。これにより、渋滞予測装置100は、ステップS201,ステップS202を繰り返し実行することにより、道路の場所、時刻別に多数の交通情報がデータベース化して格納されることになる。渋滞予測装置100は、この交通情報を用いて、以下の渋滞予測処理を行う。
The same or different plurality of
次に、渋滞予測装置100は、端末装置110から渋滞予測の要求を受信待ちする(ステップS203:Noのループ)。渋滞予測の要求を受信すると(ステップS203:Yes)、渋滞予測処理を行う(ステップS204)。この渋滞予測処理では、ステップS202により生成された交通情報を参照し、要求に含まれる場所(範囲)、時刻と同一の場所、時刻における過去の渋滞の発生に基づき、この場所(範囲)、時刻における渋滞の発生を予測する。
Next, the traffic
なお、渋滞の発生を予測する場所は、要求に含まれる場所と完全に同一である必要は無く、要求に含まれる場所と同一の道路や所定の範囲内における過去の交通情報と渋滞の発生に基づいて、予測してもよい。また時刻についても同様で、要求に含まれる時刻を含む所定の時間帯でもよい。 The place where the occurrence of traffic congestion is predicted does not have to be exactly the same as the place included in the request, but the same road as the place included in the request or the past traffic information and the occurrence of traffic congestion within a predetermined range. You may make a prediction based on this. The same applies to the time, and a predetermined time zone including the time included in the request may be used.
この後、渋滞予測情報を端末装置110に送信し(ステップS205)、一連の渋滞予測処理を終了する。 After that, the traffic jam prediction information is transmitted to the terminal device 110 (step S205), and a series of traffic jam prediction processes are completed.
上記実施の形態によれば、端末装置が有するカメラが撮影した道路上の複数の場所および時刻の撮影画像を用いて渋滞予測するため、道路上のカメラやセンサ等のような固定設置されたものを用いた設置場所に限定された渋滞予測だけではなく、道路上の任意の場所の渋滞予測を行うことができる。 According to the above embodiment, in order to predict traffic congestion using images taken at a plurality of places and times on the road taken by a camera of the terminal device, a fixed installation such as a camera or a sensor on the road is used. It is possible not only to predict traffic congestion limited to the installation location using the above, but also to predict traffic congestion at any location on the road.
また、多数の端末装置から送信される画像により、道路の渋滞状態を判断するための交通情報を多数取得できるため、任意の場所における渋滞予測の精度を向上できるようになる。 In addition, since a large amount of traffic information for determining a traffic jam state of a road can be acquired from images transmitted from a large number of terminal devices, the accuracy of traffic jam prediction at an arbitrary place can be improved.
端末装置としては、画像を撮影し、位置情報を送信できるカメラを備えた携帯電話やスマートフォン、カーナビゲーションなど汎用装置を利用できるため、渋滞予測装置は、多数の画像を容易に取得でき、システムコストも軽減できる。 As a terminal device, a general-purpose device such as a mobile phone, a smartphone, or a car navigation system equipped with a camera capable of taking an image and transmitting location information can be used, so that the traffic jam prediction device can easily acquire a large number of images and the system cost. Can also be reduced.
また、渋滞予測情報の生成の際、車間と車両数を用いることとしたが、このほかに、天気や曜日、要求された場所の道路に接続している他の道路の交通情報、要求された場所近傍でのイベント有無など、渋滞要因となる得る他のデータを渋滞予測のパラメータとして加えてもよい。これにより、渋滞予測の精度をより向上できるようになる。 In addition, when generating congestion prediction information, it was decided to use the distance between vehicles and the number of vehicles, but in addition to this, the weather, the day of the day, the traffic information of other roads connected to the road at the requested location, and the requested. Other data that may cause congestion, such as the presence or absence of an event near the location, may be added as a parameter for congestion prediction. This makes it possible to further improve the accuracy of traffic congestion prediction.
そして、渋滞を車両数(車間距離)に基づき判断したが、道路上における任意の場所の渋滞前の画像と、端末装置から送信された現在の画像の類似度を画像処理することにより、画像同士の比較によっても同様に渋滞予測することができる。 Then, the traffic jam was determined based on the number of vehicles (inter-vehicle distance), but the images were processed by image processing the similarity between the image before the traffic jam at any place on the road and the current image transmitted from the terminal device. Congestion can be predicted in the same way by comparing the above.
さらに、端末装置が撮影する画像は、静止画に限らず、動画でもよい。動画であれば他車線の移動体の速度についても判断できるため、より詳細な交通情報を得ることができる。 Further, the image captured by the terminal device is not limited to a still image, but may be a moving image. If it is a video, it is possible to determine the speed of a moving object in another lane, so that more detailed traffic information can be obtained.
また、渋滞予測データの生成には、重回帰分析などの統計学を適用してもよい。この際、道路毎に適切な最適アルゴリズムを組み替えることができる。 In addition, statistics such as multiple regression analysis may be applied to the generation of congestion prediction data. At this time, an appropriate optimum algorithm can be rearranged for each road.
以下に、本発明の実施例について説明する。本実施例では、移動体(車両)にナビゲーション装置300が搭載され、各ユーザのナビゲーション装置300が上述した渋滞予測装置100としてのサーバにアクセスする構成について説明する。ここで、ナビゲーション装置300は、上記の端末装置110としての機能を有し、移動体の移動時の道路を撮影して渋滞予測装置100に送信する。また、このナビゲーション装置300は、渋滞予測装置100(サーバ)に対して所望する場所の渋滞予測情報を要求する。
Hereinafter, examples of the present invention will be described. In this embodiment, a configuration in which a
(ナビゲーション装置300のハードウェア構成)
図3は、ナビゲーション装置のハードウェア構成の一例を示すブロック図である。図3において、ナビゲーション装置300は、CPU301、ROM302、RAM303、磁気ディスクドライブ304、磁気ディスク305、光ディスクドライブ306、光ディスク307、音声I/F(インターフェース)308、マイク309、スピーカ310、入力デバイス311、映像I/F312、ディスプレイ313、通信I/F314、GPSユニット315、各種センサ316、カメラ317、を備えている。各構成部301~317は、バス320によってそれぞれ接続されている。
(Hardware configuration of navigation device 300)
FIG. 3 is a block diagram showing an example of the hardware configuration of the navigation device. In FIG. 3, the
CPU301は、ナビゲーション装置300の全体の制御を司る。ROM302は、ブートプログラム、渋滞予測プログラム等を記録している。RAM303は、CPU301のワークエリアとして使用される。すなわち、CPU301は、RAM303をワークエリアとして使用しながら、ROM302に記録された各種プログラムを実行することによって、ナビゲーション装置300の全体の制御を司る。
The
磁気ディスクドライブ304は、CPU301の制御にしたがって磁気ディスク305に対するデータの読み取り/書き込みを制御する。磁気ディスク305は、磁気ディスクドライブ304の制御で書き込まれたデータを記録する。磁気ディスク305としては、例えば、HD(ハードディスク)やFD(フレキシブルディスク)を用いることができる。
The
また、光ディスクドライブ306は、CPU301の制御にしたがって光ディスク307に対するデータの読み取り/書き込みを制御する。光ディスク307は、光ディスクドライブ306の制御にしたがってデータが読み出される着脱自在な記録媒体である。光ディスク307は、書き込み可能な記録媒体を利用することもできる。着脱可能な記録媒体として、光ディスク307のほか、MO、メモリカードなどを用いることができる。
Further, the
磁気ディスク305および光ディスク307に記録される情報の一例としては、地図データ、車両情報、道路情報、走行履歴などが挙げられる。地図データは、カーナビゲーションシステムにおいて経路探索するときに用いられ、建物、河川、地表面、エネルギー補給施設などの地物(フィーチャ)をあらわす背景データ、道路の形状をリンクやノードなどであらわす道路形状データなどを含むベクタデータである。
Examples of the information recorded on the
音声I/F308は、音声入力用のマイク309および音声出力用のスピーカ310に接続される。マイク309に受音された音声は、音声I/F308内でA/D変換される。マイク309は、例えば、車両のダッシュボード部などに設置され、その数は単数でも複数でもよい。スピーカ310からは、所定の音声信号を音声I/F308内でD/A変換した音声が出力される。
The voice I /
入力デバイス311は、文字、数値、各種指示などの入力のための複数のキーを備えたリモコン、キーボード、タッチパネルなどが挙げられる。入力デバイス311は、リモコン、キーボード、タッチパネルのうちいずれか一つの形態によって実現されてもよいが、複数の形態によって実現することも可能である。
Examples of the
映像I/F312は、ディスプレイ313に接続される。映像I/F312は、具体的には、例えば、ディスプレイ313全体を制御するグラフィックコントローラと、即時表示可能な画像情報を一時的に記録するVRAM(Video RAM)などのバッファメモリと、グラフィックコントローラから出力される画像データに基づいてディスプレイ313を制御する制御ICなどによって構成される。
The video I /
ディスプレイ313には、アイコン、カーソル、メニュー、ウインドウ、あるいは文字や画像などの各種データが表示される。ディスプレイ313としては、例えば、TFT液晶ディスプレイ、有機ELディスプレイなどを用いることができる。
The
カメラ317は、車両外部の道路の映像を撮影する。映像は静止画あるいは動画のどちらでもよい。カメラ317によって車両外部の道路を撮影することにより、道路とともに走行中の他の車両が撮影される。この撮影画像は、CPU301によって画像処理された後、GPSユニット315の位置情報とともに、渋滞予測装置100(後述するサーバ400)に送信処理される。
The
通信I/F314は、無線を介してネットワークに接続され、ナビゲーション装置300およびCPU301のインターフェースとして機能する。ネットワークとして機能する通信網には、CANやLIN(Local Interconnect Network)などの車内通信網や、公衆回線網や携帯電話網、DSRC(Dedicated Short Range Communication)、LAN、WANなどがある。通信I/F314は、例えば、公衆回線用接続モジュールやETC(ノンストップ自動料金支払いシステム)ユニット、FMチューナー、VICS(Vehicle Information and Communication System:登録商標)/ビーコンレシーバなどである。
The communication I /
GPSユニット315は、GPS衛星からの電波を受信し、車両の現在位置を示す情報を出力する。GPSユニット315の出力情報は、後述する各種センサ316の出力値とともに、CPU301による車両の現在位置の算出に際して利用される。現在位置を示す情報は、例えば、緯度・経度、高度などの、地図データ上の1点を特定する情報である。
The
各種センサ316は、車速センサ、加速度センサ、角速度センサ、傾斜センサなどの、車両の位置や挙動を判断するための情報を出力する。各種センサ316の出力値は、CPU301による車両の現在位置の算出や、速度や方位の変化量の算出に用いられる。
The
図3に示したCPU301は、ROM302等に格納されたプログラム実行により、図1に示した端末装置110の処理部113の機能を実現する。図3のカメラ317により図1の撮像部111の機能を実現し、図3のGPSユニット315により図1の測位部112の機能を実現する。
The
(サーバの構成例)
図4は、サーバのハードウェア構成の一例を示すブロック図である。渋滞予測装置100を構成するサーバ400についても、図3に示したナビゲーション装置300と同様の構成を有する。なお、サーバ400においては、図3に記載のGPSユニット315、各種センサ316、カメラ317等は不要である。
(Server configuration example)
FIG. 4 is a block diagram showing an example of the hardware configuration of the server. The
図1に示した渋滞予測装置100は、サーバ400に設けられたROM402等に記録されたプログラムやデータを用いて、CPU401が所定のプログラムを実行することによって渋滞予測の機能を実現する。サーバ400の磁気ディスク405等には、上記の交通情報や、渋滞予測情報が格納される。また、通信I/F414を介してナビゲーション装置300と通信を行い、ナビゲーション装置300からの要求に対応した渋滞予測情報をナビゲーション装置300に出力する。
The traffic
また、サーバ400は、各ナビゲーション装置300から送信された画像の送信時刻やナビゲーション装置300が搭載された移動体の速度を算出する機能を有してもよい。サーバ400は、ナビゲーション装置300の緯度経度の移動量と移動所要時間に基づく計算により移動体の速度を計算することができる。
Further, the
図4に示したCPU401は、ROM402等に格納されたプログラム実行により、図1に示した渋滞予測装置100の画像処理部101、情報結合部102、交通情報処理部103、渋滞予測情報管理部105の機能を実現する。図4の磁気ディスク305や光ディスク307等は、図1に示した格納部104の機能を実現する。
The
(ナビゲーション装置による画像の送信処理)
図5は、ナビゲーション装置による画像送信の処理内容を示すフローチャートである。ナビゲーション装置300は、移動体の移動時にGPSユニット315等により常に位置を測位している(ステップS501)。そして、例えば、所定のタイミング毎に(例えば1分毎)、カメラ317により道路を撮影する(ステップS502)。例えば、前方の道路を撮影することにより、道路とともに、道路上の移動体がともに撮影される。
(Image transmission process by navigation device)
FIG. 5 is a flowchart showing the processing contents of image transmission by the navigation device. The
また、カメラ317により道路を撮影するトリガ(タイミング)は、サーバ400側からナビゲーション装置300への要求出力や、ナビゲーション装置300等のユーザの指示等とすることができる。
Further, the trigger (timing) for photographing the road by the
そして、ナビゲーション装置300は、画像の撮影毎に、この撮影画像とともに撮影時の位置情報をサーバ400に送信する(ステップS503)。なお、ナビゲーション装置300は、撮影毎の画像に時刻を付与しておき、所定時間毎にまとめて複数の画像をサーバ400に送信することとしてもよい。
Then, the
ナビゲーション装置300は、上記のように画像の撮影を繰り返し行い、サーバ400に送信する。これにより、サーバ400は、複数のナビゲーション装置300が撮影した複数の道路の画像を収集することができる。
The
(サーバによる交通情報の生成処理)
図6は、サーバによる交通情報生成の処理内容を示すフローチャートである。はじめに、サーバ400は、ナビゲーション装置300から送信された画像、および位置情報(撮影位置)を受信する(ステップS601)。次に、画像受信時の移動体(ナビゲーション装置300)の速度と時刻を取得する(ステップS602)。
(Traffic information generation processing by the server)
FIG. 6 is a flowchart showing the processing contents of traffic information generation by the server. First, the
サーバ400は、これら移動体の速度と時刻はナビゲーション装置300が送信したものを取得してもよいし、サーバ400内部で生成したものを用いてもよい。サーバ400側で生成する場合、時刻は、画像受信時のサーバ400内部の時刻を用いる。移動体の移動は、移動体(ナビゲーション装置300)の緯度経度の移動量と移動所要時間に基づく計算により移動体の速度を計算したものを用いる。
The
次に、サーバ400は、画像処理部101の画像処理により、取得した画像から車両、走行車線、車線数を検出する(ステップS603)。この際、例えば、撮影画像をオルソ画像に変換して、車両の位置、距離を特定でき、車線別車両数を検出できる。また、オルソ画像において、自車線の幅を導き出し、走行道路の車線数、車間を判断する。
Next, the
次に、サーバ400は、情報結合部102により、取得した画像(ID)毎に、位置情報、速度、時刻、車線別車両数、自車線、の各情報を関連付け、交通情報として格納部104に格納する(ステップS604)。以上のステップS601~ステップS604の処理は、ナビゲーション装置300から画像を受信する毎に行われる。
Next, the
(交通情報の一例)
図7は、交通情報の内容の一例を示す図表である。図7の(a)は、ある1ユーザから送信された一つの画像を画像処理して得られた撮影画像処理情報701である。この撮影画像処理情報701は、車線情報(車線数)、自車線情報、車線別車両情報ID、の各情報からなる。図示の例では、自車が3車線道路(車線情報)の左から1番目(自車線情報)であることを示す。
(Example of traffic information)
FIG. 7 is a chart showing an example of the contents of traffic information. FIG. 7A is photographed
図7の(a)の車線別車両情報IDの詳細を図7の(b)の702に示す。車線別車両情報ID702は、1枚の画像毎にIDが割り当てられ、画像処理によって得られたID毎の位置(車線位置であり、画像中に存在する移動体の車線位置)と、車線毎の車間(画像中に存在する移動体と自車との車間)、の各情報とを有する。図示の例では、ID=1の場合、自車位置の前方の位置(車線1)に車間45mで移動体が存在し、自車位置の前方の位置(車線3)に車間30mと、車間60mでそれぞれ移動体が存在していることを示す。なお、図示の例では、3車線のうち、左車線の位置が「1」、中央車線の位置が「2」、右車線の位置が「3」で示される。
The details of the vehicle information ID for each lane in FIG. 7A are shown in 702 in FIG. 7B. The
図7の(c)に示す撮影条件情報703は、図7の(a)撮影画像処理情報701と、撮影時の条件である撮影位置(図示の例では緯度経度)、速度、時刻とを、撮影IDにより関連付けた情報である。
The
図7の(d)は、交通情報704である。図7の(c)に示す撮影条件情報703を同一ユーザの異なる場所や時刻別、および異なるユーザについて蓄積した情報である。この交通情報704の行数を増やすことにより、所望する撮影位置について、時刻別の自車線情報、車線情報、車線別車両情報ID(車線位置、車間)をデータベース構築していくことができる。
FIG. 7D is
(交通情報を用いた渋滞予測処理)
図8は、交通情報を用いた渋滞予測の処理内容を示すフローチャートである。はじめに、サーバ400の交通情報処理部103は、交通情報704を位置、日付、時間帯毎に分類し(ステップS801)、分類されたデータ毎に統計関数を作成する(ステップS802)。この状態で、交通情報処理部103は、ナビゲーション装置300からの渋滞予測要求に含まれる要求条件の入力を待つ(ステップS803:Noのループ)。
(Congestion prediction processing using traffic information)
FIG. 8 is a flowchart showing the processing contents of the traffic jam prediction using the traffic information. First, the traffic
交通情報処理部103は、要求条件の入力があれば(ステップS803:Yes)、この要求条件に該当する統計関数を利用して渋滞発生値を算出する(ステップS804)。そして、交通情報処理部103は、渋滞発生値が高い(正の値)かを判断し(ステップS805)、渋滞発生値が所定値より高ければ(ステップS805:Yes)、この渋滞発生値を渋滞予測情報として生成し、格納部104に格納する(ステップS806)。渋滞発生値が低ければ(ステップS805:No)、渋滞発生はないと判断し、今回の処理を終了する。
If the traffic
上記処理の具体例について説明する。上記例では、渋滞発生値を信頼度として所定のしきい値と比較し、渋滞の発生を判断している。例えば、ナビゲーション装置300から送信(入力)される渋滞予測の要求条件が、左車線交通量、右車線交通量、日付(曜日)、時間帯、が指定されている場合で説明する。
A specific example of the above processing will be described. In the above example, the occurrence of traffic congestion is determined by comparing the occurrence value of traffic congestion with a predetermined threshold value as the reliability. For example, the case where the requirement condition of the traffic jam prediction transmitted (input) from the
なお、ナビゲーション装置300は撮影した画像を送信し、サーバ400がその画像を画像分析して左車線交通量、右車線交通量、日付(曜日)、時間帯を割り出す。また、日付時間はサーバのデータ受信時間などで割り出すこととする。交通量の一例としては、単位時間当たりの自動車の数である。
The
はじめに、交通情報処理部103は、格納部104から指定された日付(曜日)と時間帯に対応する交通情報704を参照対象とする。例えば、要求条件がx道路、火曜日、12時~13時のデータを集計した交通情報704を参照する。
First, the traffic
そして、交通情報処理部103は、渋滞発生に関する統計関数fnと、要求条件X,Yを入力値とし、下記の演算式を用いて渋滞確率を算出する。
fn(X,Y)=an(X)+bn(Y)
fn(xn,yn)=an(xn)+bn(yn)
渋滞発生値=max(1/fn(|X-xn|,|Y-yn|))-tn
Then, the traffic
fn (X, Y) = an (X) + bn (Y)
fn (xn, yn) = an (xn) + bn (yn)
Congestion occurrence value = max (1 / fn (| X-xn |, | Y-yn |))-tn
ただし、fn:統計関数(n=0,1,…)統計関数fnは、過去の渋滞予想データと現在の交通量を比較して、渋滞発生値を出すための関数である。X:左車線入力交通量,Y:右車線入力交通量,xn:左車線統計交通量,yn:右車線統計交通量,an:左車線予測係数,bn:右車線予測係数,tn:しきい値である。交通量は、画像撮影時の移動体の速度と、撮影された移動体の数から得られる。 However, the fn: statistical function (n = 0,1, ...) Statistical function fn is a function for comparing the past congestion forecast data with the current traffic volume to obtain the congestion occurrence value. X: Left lane input traffic volume, Y: Right lane input traffic volume, xn: Left lane statistical traffic volume, yn: Right lane statistical traffic volume, an: Left lane prediction coefficient, bn: Right lane prediction coefficient, tun: Threshold The value. The traffic volume is obtained from the speed of the moving body at the time of taking an image and the number of moving bodies taken.
渋滞予想データは、ある道路で渋滞発生と判断された場合、その道路において渋滞判断が下された時間から所定時間遡り(遡る時間は道路毎に異なる)、渋滞発生までの交通情報(例えば各車線の交通量と速度と時間)を統計する。この統計データが普段の交通情報と著しく違う場合、この道路における渋滞予測データとなる。ただし、日付時間などのパラメータ別に1つの道路に対して多数の予測データを有する。なお、上記の渋滞発生の判断は、システムの渋滞予測装置100が判断してもよいし、他の外部システムから取得した情報であれば、車間が狭い場合やスピードが低い場合などに、渋滞と判断する。
When it is determined that a traffic jam has occurred on a certain road, the traffic jam forecast data goes back a predetermined time from the time when the traffic jam is judged on that road (the time to go back differs for each road), and the traffic information until the traffic jam occurs (for example, each lane). Traffic volume, speed and time). If this statistical data is significantly different from the usual traffic information, it will be the traffic congestion prediction data on this road. However, it has a large number of forecast data for one road for each parameter such as date and time. The above-mentioned determination of the occurrence of traffic congestion may be made by the
また、上記の統計関数fnについて、上記例(2車線道路)で、「右車線が極めて混むとその後渋滞が発生する」、もしくは「右左両方ある程度混むとその後渋滞が発生する」といった2つ特徴をもつ道路の場合、渋滞発生パターンが2通りあるため、fnはn=2となる。この特徴は渋滞予想データから算出する。 In addition, regarding the above statistical function fn, in the above example (two-lane road), there are two characteristics such as "when the right lane is extremely crowded, then traffic jam occurs" or "when both right and left are crowded to some extent, then traffic jam occurs". In the case of a road with a road, fn is n = 2 because there are two patterns of congestion occurrence. This feature is calculated from the congestion forecast data.
右車線入力交通量は、ナビゲーション装置300が撮影した画像から算出された右車線の交通量であり、図7(b)車線別車両情報ID702「1」(車線別撮影ID「1」の道路は3車線道路)における位置「3」の行数(つまり3車線道路の右車線に存在する車両数)で示される。左車線入力交通量は、図7(b)車線別車両情報ID702「1」における位置「1」の行数(つまり3車線道路の左車線に存在する車両数)で示される。
The right lane input traffic volume is the traffic volume in the right lane calculated from the image taken by the
右(左)車線統計交通量は、渋滞予測データの中の該当パターンにおける位置「3」の交通量の平均や最頻値の統計値である。また、右(左)車線予測係数は、右(左)車線統計交通量と右車線入力交通量の差分に重みを付ける係数である。例えば、道路において「右車線が極めて混むとその後渋滞が発生する」というパターンがあれば、右車線予測係数を大きくする。これにより右車線の差分が最終的な渋滞発生値に大きく反映される。 The right (left) lane statistical traffic volume is a statistical value of the average or mode of the traffic volume at position "3" in the corresponding pattern in the congestion prediction data. The right (left) lane prediction coefficient is a coefficient that weights the difference between the right (left) lane statistical traffic volume and the right lane input traffic volume. For example, if there is a pattern on the road that "when the right lane is extremely crowded, traffic jam will occur after that", the right lane prediction coefficient is increased. As a result, the difference in the right lane is greatly reflected in the final congestion occurrence value.
上記渋滞予測の具体例について説明する。渋滞予測装置100は、ある道路の時刻t時において、渋滞が発生する前30分の統計データ(格納部104のデータ)に「右車線が極めて混む」、「右左両車線やや混んでいる」という2パターンがあったとする。この道路においては30分前に渋滞の予兆が現れることがわかる。この2パターンをこの道路のt時渋滞予想データとして格納部104に格納しておく。
A specific example of the above-mentioned congestion prediction will be described. The traffic
そして、ナビゲーション装置300のユーザから時刻t時に画像が送信されたとする。渋滞予測装置100では、この画像の画像解析により、右車線がとても混んでいると判断したとする。渋滞予測装置100は、画像解析結果について、渋滞予想データとの類似度を統計関数により計算すると、「右車線が極めて混む」パターンにとても類似していたとする。この場合、渋滞予測装置100の交通情報処理部103は、この画像が送られてきてから30分後に渋滞が発生すると判断し、渋滞予想情報管理部105に対して、この道路は30分後に渋滞すると出力する。
Then, it is assumed that the image is transmitted from the user of the
渋滞予測装置100の統計関数による計算の具体例について説明する。この道路は渋滞予想を下記の2パターン持っているため、
パターン1:「右車線が極めて混むと渋滞が発生する」
パターン2:「右左両車線やや混んでいると渋滞が発生する」
したがって、統計関数fnは2つ用意する。
f1(X,Y)=a1(x1)+b1(y1)
f2(X,Y)=a2(x2)+b1(y2)
A specific example of calculation by the statistical function of the traffic
Pattern 1: "Congestion occurs when the right lane is extremely crowded"
Pattern 2: "Congestion occurs when both the right and left lanes are slightly crowded"
Therefore, two statistical functions fn are prepared.
f1 (X, Y) = a1 (x1) + b1 (y1)
f2 (X, Y) = a2 (x2) + b1 (y2)
x1:パターン1の予想データの左車線交通量(平均や最頻)→左車線の統計交通量
y1:パターン1の予想データの右車線交通量(平均や最頻)
x2:パターン2の予想データの左車線交通量(平均や最頻)
y2:パターン2の予想データの右車線交通量(平均や最頻)
a1:パターン1の左車線の重み,b1:パターン1の右車線の重み(パターン1では右車線のみに注目したいのでa1の値を大きく、b1の値を小さくする)
a2:パターン2の左車線の重み,b2:パターン2の右車線の重み(パターン2では両車線に注目したいのでa2=b2でよい)
x1: Left lane traffic volume in
x2: Left lane traffic volume in
y2: Right lane traffic volume in
a1: Weight of the left lane of
a2: Weight of the left lane of
そして、渋滞予測情報管理部105は、各車線交通量X、Yが入力された時、
1/f1(|x1-X|,|y1-Y|)と1/f2(|x2-X|,|y2-Y|)を計算する。この値が大きい方を採用し、閾値tnと比べる。tnより大きければ渋滞予測情報を生成する。
Then, when the traffic jam forecast
1 / f1 (| x1-X |, | y1-Y |) and 1 / f2 (| x2-X |, | y2-Y |) are calculated. The one with the larger value is adopted and compared with the threshold value tn. If it is larger than tun, congestion prediction information is generated.
渋滞予測情報管理部105は、渋滞予測情報を格納部104に格納して管理し、ナビゲーション装置300からの渋滞予測要求時に渋滞予測情報をナビゲーション装置300に送信する。
The traffic jam prediction
ナビゲーション装置300からの渋滞予測要求時の要求条件、例えば、天気等の指定があれば、交通情報処理部103は、このパラメータを含めた交通情報704を参照対象とする。要求条件が増えれば、要求に対し高精度な渋滞予測を行えるようになる。
If a requirement condition at the time of a traffic jam prediction request from the
また、上記の処理例では、ナビゲーション装置300からの渋滞予測要求を待って渋滞予測情報を算出する構成としたが、これに限らない。例えば、交通情報処理部103は、交通情報704に基づいて、あらかじめ位置および時刻別の渋滞予測情報を生成しておく構成としても良い。この場合、ナビゲーション装置300からの渋滞予測要求があれば、対応する位置と時刻の渋滞予測情報をナビゲーション装置300に直ちに送信することができる。
Further, in the above processing example, the traffic jam prediction information is calculated after waiting for the traffic jam prediction request from the
(渋滞予測要求と渋滞予測情報の送信について)
図9は、渋滞予測要求から渋滞予測情報の送信までの処理内容を示すフローチャートである。はじめに、ナビゲーション装置300は、指定位置や指定範囲の渋滞予測要求をサーバ400に送信する(ステップS901)。
(About traffic jam prediction request and transmission of traffic jam prediction information)
FIG. 9 is a flowchart showing the processing contents from the traffic jam prediction request to the transmission of the traffic jam prediction information. First, the
サーバ400の渋滞予測情報管理部105は、この渋滞予測要求を受信し(ステップS902)、該当する指定位置や指定範囲の渋滞予測をナビゲーション装置300に送信(配信)する(ステップS903)。
The traffic jam prediction
ナビゲーション装置300は、サーバ400から送信された渋滞予測情報を受信し(ステップS904)、この渋滞予測情報を表示部に表示する(ステップS905)。
The
なお、サーバ400の渋滞予測情報管理部105は、ステップS903の後、時間経過により渋滞の状態が変わる可能性があること等に基づいて、渋滞予測変更発生の有無を監視する構成にしてもよい(ステップS906)。渋滞予測変更発生がない場合には(ステップS906:No)、処理を終了するが、渋滞予測変更発生が生じた場合には(ステップS906:Yes)、ステップS903による渋滞予測情報の再度の演算および送信を行う。
The traffic jam prediction
(渋滞発生について)
図10は、自然渋滞の発生状態を示す説明図である。図10の(a)に示すように、走行する移動体の車両数が多くなってくると、移動体同士の車間が狭くなってくる。次に、図10(b)に示すように、一部の移動体1001の速度が遅くなると、追突しないように後続の移動体1011,1012が次々とブレーキを踏み速度を落とす。この結果、図10(c)に示すように、完全に停止する移動体1021があらわれ、後続する移動体1031,1032,1033,1034も次々に停車し、自然渋滞が発生する。
(About the occurrence of traffic jams)
FIG. 10 is an explanatory diagram showing a state in which natural traffic congestion occurs. As shown in FIG. 10A, as the number of traveling moving objects increases, the distance between the moving objects becomes narrower. Next, as shown in FIG. 10B, when the speed of some of the moving
(渋滞予測について)
実施の形態の渋滞予測は、走行する移動体の台数が多くなると、移動体同士の車間が狭くなる、という点をナビゲーション装置300の撮影画像と、過去のデータベース(交通情報704)を参照して予測するものである。サーバ400は、要求条件に対応する過去の交通情報704を参照することにより、図10に示した自然渋滞の例で見れば、(a)~(c)のどの状態に対応するかを判断するに相当し、渋滞予測要求に含まれる要求された日時等に対応した渋滞予測情報をナビゲーション装置300に送信する。
(About traffic jam forecast)
In the congestion prediction of the embodiment, the point that the distance between the moving bodies becomes narrower as the number of moving bodies increases is referred to the photographed image of the
加えて、要求時刻以降における渋滞がどのように変化するか(例えば、要求が図9(a)に相当する時刻の場合、例えば10分後には、図9(c)の自然渋滞発生が生じる、との予測についても渋滞予測情報としてナビゲーション装置300に送信できる。
In addition, how the congestion changes after the requested time (for example, when the request corresponds to the time shown in FIG. 9A, for example, 10 minutes later, the natural congestion shown in FIG. 9C occurs. Can also be transmitted to the
(渋滞予測情報のルート探索への適用について)
上述した渋滞予測情報が渋滞発生の可能性が高い(渋滞発生値が高い)ことを示す場合、ナビゲーション装置300は、該当する渋滞発生の候補ルート上の道路について、渋滞予測情報を付与してルート案内できる。
(About application of traffic jam prediction information to route search)
When the above-mentioned congestion prediction information indicates that there is a high possibility of congestion occurrence (congestion occurrence value is high), the
実施の形態のナビゲーション装置300は、上述した渋滞予測情報を考慮したルート探索を行う。これにより、渋滞が予想された道路(リンク)の平均旅行時間が多いため、この渋滞地点を避けたルートが探索される。
The
ただし、このように渋滞予測情報を用いたルート探索では、予測した時間になると該当する場所での実際の渋滞の有無が判明することになる。したがって、この予測時間のときに、予測した渋滞が起きていない(渋滞発生していない)場合も考えられる。このような場合には、この予測時間に達したとき、ナビゲーション装置300は、ルートを再探索するとともに、前回用いた渋滞予測情報を利用しないことにする。
However, in the route search using the traffic jam prediction information in this way, the presence or absence of the actual traffic jam at the corresponding place becomes clear at the predicted time. Therefore, it is conceivable that the predicted traffic jam does not occur (traffic jam does not occur) at this predicted time. In such a case, when the predicted time is reached, the
上記ルート探索は、ナビゲーション装置300が行うに限らず、サーバ400が行ってもよい。サーバ400は、ナビゲーション装置300の現在位置、目的地等の位置情報を取得し、時刻等の他の探索条件を含めてルート探索すればよい。
The route search is not limited to the
上記の実施の形態では、撮影画像から車線数、車両数、車間、等を画像処理して交通量を検出する構成としたが、画像処理によってさらに他のパラメータを取得する構成にもできる。例えば、撮影画像の道路の車線上に、工事中の誘導標識がある場合には、工事による突発的な渋滞の発生の可能性がある。このほか、渋滞発生の要因となり得る車種(バス、パトカー)、歩行者横断、等もパラメータとすることができる。 In the above embodiment, the number of lanes, the number of vehicles, the distance between vehicles, etc. are image-processed from the captured image to detect the traffic volume, but it is also possible to acquire other parameters by image processing. For example, if there is a guide sign under construction on the lane of the road in the photographed image, there is a possibility that sudden congestion may occur due to the construction. In addition, vehicle types (buses, police cars), pedestrian crossings, etc. that can cause traffic congestion can also be used as parameters.
したがって、撮影画像そのものについても、渋滞発生前後の画像の共通点、および相違点を統計処理することにより、交通情報704の精度を向上できるようになる。
Therefore, the accuracy of the
また、上記実施の形態では、渋滞予測をサーバ等の渋滞予測装置100が行う構成としたが、ある1台のカーナビゲーション装置やパーソナル・コンピュータ等の端末装置110が渋滞予測する構成とし、渋滞予測を要求した他の端末装置110に送信する構成とすることもできる。
Further, in the above embodiment, the traffic
なお、本実施の形態で説明した渋滞予測に関する方法は、あらかじめ用意されたプログラムをパーソナル・コンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD-ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。 The method related to traffic congestion prediction described in the present embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, flexible disk, CD-ROM, MO, or DVD, and is executed by being read from the recording medium by the computer. Further, this program may be a transmission medium that can be distributed via a network such as the Internet.
100 渋滞予測装置
101 画像処理部
102 情報結合部
103 交通情報処理部
104 格納部
105 渋滞予測情報管理部
110 端末装置
111 撮像部
112 測位部
113 処理部
100
Claims (1)
前記画像中に存在する移動体に関する情報である交通情報を抽出する画像処理部と、
前記画像処理部により抽出された前記交通情報を用いて、撮影された位置に対応する前記道路上の渋滞予測に関する情報を算出する交通情報処理部と、
を有することを特徴とする渋滞予測システム。 An acquisition unit that acquires an image of a moving object on the road and position information indicating the position where the image was taken, and an acquisition unit.
An image processing unit that extracts traffic information that is information about a moving body existing in the image, and an image processing unit.
Using the traffic information extracted by the image processing unit, the traffic information processing unit that calculates information on the traffic congestion prediction on the road corresponding to the photographed position, and the traffic information processing unit.
Congestion prediction system characterized by having.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021168213A JP2022023863A (en) | 2019-12-03 | 2021-10-13 | Congestion prediction system, terminal, congestion prediction method, and congestion prediction program |
JP2023091992A JP2023107841A (en) | 2021-10-13 | 2023-06-02 | Congestion prediction system, terminal, congestion prediction method, and congestion prediction program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019218912A JP2020030870A (en) | 2019-12-03 | 2019-12-03 | Congestion prediction system, terminal, congestion prediction method, and congestion prediction program |
JP2021168213A JP2022023863A (en) | 2019-12-03 | 2021-10-13 | Congestion prediction system, terminal, congestion prediction method, and congestion prediction program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019218912A Division JP2020030870A (en) | 2019-12-03 | 2019-12-03 | Congestion prediction system, terminal, congestion prediction method, and congestion prediction program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023091992A Division JP2023107841A (en) | 2021-10-13 | 2023-06-02 | Congestion prediction system, terminal, congestion prediction method, and congestion prediction program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022023863A true JP2022023863A (en) | 2022-02-08 |
Family
ID=87760963
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021168213A Pending JP2022023863A (en) | 2019-12-03 | 2021-10-13 | Congestion prediction system, terminal, congestion prediction method, and congestion prediction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022023863A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117475646A (en) * | 2023-10-06 | 2024-01-30 | 纬创软件(武汉)有限公司 | Pedestrian detection method based on artificial intelligence |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003256991A (en) * | 2002-03-05 | 2003-09-12 | National Institute Of Advanced Industrial & Technology | Visual probe car system, its traffic information providing method and its information center system |
JP2006221537A (en) * | 2005-02-14 | 2006-08-24 | Denso Corp | Traffic information providing system, traffic information providing center, and on-vehicle information collecting device |
JP2010025709A (en) * | 2008-07-17 | 2010-02-04 | Pioneer Electronic Corp | Driving support apparatus, driving support method, driving support program, and computer-readable storage medium |
JP2010134640A (en) * | 2008-12-03 | 2010-06-17 | Honda Motor Co Ltd | Information acquisition apparatus |
JP2011123840A (en) * | 2009-12-14 | 2011-06-23 | Aisin Aw Co Ltd | Vehicle guide device, vehicle guide method and vehicle guide program |
US20130073192A1 (en) * | 2011-09-20 | 2013-03-21 | Infosys Limited | System and method for on-road traffic density analytics using video stream mining and statistical techniques |
JP2013206325A (en) * | 2012-03-29 | 2013-10-07 | Sumitomo Electric Ind Ltd | Traffic information prediction device, traffic information prediction method and computer program |
-
2021
- 2021-10-13 JP JP2021168213A patent/JP2022023863A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003256991A (en) * | 2002-03-05 | 2003-09-12 | National Institute Of Advanced Industrial & Technology | Visual probe car system, its traffic information providing method and its information center system |
JP2006221537A (en) * | 2005-02-14 | 2006-08-24 | Denso Corp | Traffic information providing system, traffic information providing center, and on-vehicle information collecting device |
JP2010025709A (en) * | 2008-07-17 | 2010-02-04 | Pioneer Electronic Corp | Driving support apparatus, driving support method, driving support program, and computer-readable storage medium |
JP2010134640A (en) * | 2008-12-03 | 2010-06-17 | Honda Motor Co Ltd | Information acquisition apparatus |
JP2011123840A (en) * | 2009-12-14 | 2011-06-23 | Aisin Aw Co Ltd | Vehicle guide device, vehicle guide method and vehicle guide program |
US20130073192A1 (en) * | 2011-09-20 | 2013-03-21 | Infosys Limited | System and method for on-road traffic density analytics using video stream mining and statistical techniques |
JP2013206325A (en) * | 2012-03-29 | 2013-10-07 | Sumitomo Electric Ind Ltd | Traffic information prediction device, traffic information prediction method and computer program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117475646A (en) * | 2023-10-06 | 2024-01-30 | 纬创软件(武汉)有限公司 | Pedestrian detection method based on artificial intelligence |
CN117475646B (en) * | 2023-10-06 | 2024-03-29 | 纬创软件(武汉)有限公司 | Pedestrian detection method based on artificial intelligence |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015076078A (en) | Congestion prediction system, terminal device, congestion prediction method, and congestion prediction program | |
JP2020030870A (en) | Congestion prediction system, terminal, congestion prediction method, and congestion prediction program | |
WO2015129045A1 (en) | Image acquisition system, terminal, image acquisition method, and image acquisition program | |
US20180370530A1 (en) | Predicting apparatus, prediction system, prediction method, and prediction program | |
KR101744963B1 (en) | Traffic information and vehicle information providing system using black box video data and method thereof | |
JP2019032174A (en) | Information processing system and information processing method | |
JP2015076077A (en) | Traffic volume estimation system,terminal device, traffic volume estimation method and traffic volume estimation program | |
JP2018169411A (en) | Image transmission system, terminal, image transmission method, and image transmission program | |
JP2020095565A (en) | Information processing system, program, and method for processing information | |
JP2015075479A (en) | Congestion display device, congestion display method, and congestion display program | |
WO2008072305A1 (en) | Information processing apparatus, information recording apparatus, method of information processing, method of information recording, information processing program, information recording program and computer-readable recording medium | |
JP2022023863A (en) | Congestion prediction system, terminal, congestion prediction method, and congestion prediction program | |
JP2008152364A (en) | Information providing device, information providing method, information providing program and computer-readable recording medium | |
JP2018106762A (en) | Congestion prediction system, terminal, congestion prediction method, and congestion prediction program | |
WO2014097445A1 (en) | Map information generation apparatus and method for generating map information | |
JP2018132529A (en) | Congestion display device, congestion display method, and congestion display program | |
JP2023138609A (en) | Congestion display device, congestion display method, and congestion display program | |
JP2016173270A (en) | Presentation device, presentation method, and presentation program | |
JP2011022004A (en) | Device, method and program for updating of map data, and recording medium | |
JP2017188164A (en) | Image acquisition device, terminal, and image acquisition system | |
WO2007148698A1 (en) | Communication terminal device, communication method, communication program, and recording medium | |
JP2007263755A (en) | Communication device, communication relay installation, communication method, communication program and recording medium | |
JP2023107841A (en) | Congestion prediction system, terminal, congestion prediction method, and congestion prediction program | |
JP5489700B2 (en) | Information providing apparatus, information output apparatus, information providing method, information output method, information providing program, information output program, and recording medium | |
WO2014174648A1 (en) | Information recording system, information acquisition device, information processing method, and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230307 |