[go: nahoru, domu]

JP2022023863A - Congestion prediction system, terminal, congestion prediction method, and congestion prediction program - Google Patents

Congestion prediction system, terminal, congestion prediction method, and congestion prediction program Download PDF

Info

Publication number
JP2022023863A
JP2022023863A JP2021168213A JP2021168213A JP2022023863A JP 2022023863 A JP2022023863 A JP 2022023863A JP 2021168213 A JP2021168213 A JP 2021168213A JP 2021168213 A JP2021168213 A JP 2021168213A JP 2022023863 A JP2022023863 A JP 2022023863A
Authority
JP
Japan
Prior art keywords
information
traffic
traffic jam
congestion
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021168213A
Other languages
Japanese (ja)
Inventor
博之 関谷
Hiroyuki Sekiya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019218912A external-priority patent/JP2020030870A/en
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2021168213A priority Critical patent/JP2022023863A/en
Publication of JP2022023863A publication Critical patent/JP2022023863A/en
Priority to JP2023091992A priority patent/JP2023107841A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To predict congestion at an arbitrary location by collecting images of mobile objects on a road.
SOLUTION: A congestion prediction device 100 collects images of mobile objects on a road captured by a plurality of terminals 110 and position information indicating positions at which the images were captured. An image processing unit 101 performs image processing on the collected images, and extracts traffic information, which is information relating to the mobile objects existing in the images. A traffic information processing unit 103 calculates information relating to congestion prediction for the road corresponding to the captured position using the traffic information extracted by the image processing unit 101, and generates congestion prediction information, which is then transmitted to the terminals 110.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2022,JPO&INPIT

Description

この発明は、移動体から撮像した画像を用いて渋滞を予測する渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラムに関する。ただし、この発明の利用は、渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラムに限らない。 The present invention relates to a traffic jam prediction system, a terminal device, a traffic jam prediction method, and a traffic jam prediction program for predicting traffic jams using images captured from a moving body. However, the use of the present invention is not limited to the traffic jam prediction system, the terminal device, the traffic jam prediction method, and the traffic jam prediction program.

従来、道路の渋滞を予測する技術として、車両からの速度と、車両位置の平均速度に基づいて車両位置における渋滞状況を判断するサーバが開示されている(例えば、下記特許文献1参照。)。この技術では、車両で撮像した画像を画像解析して渋滞の判断に用いることも記載されている。 Conventionally, as a technique for predicting traffic congestion on a road, a server that determines a traffic congestion situation at a vehicle position based on a speed from a vehicle and an average speed of the vehicle position has been disclosed (see, for example, Patent Document 1 below). In this technique, it is also described that an image captured by a vehicle is analyzed and used for determining traffic congestion.

このほか、道路に固定設置されたカメラにより撮像された画像を用いて渋滞を判断するシステムがある。 In addition, there is a system for determining traffic congestion using images taken by a camera fixedly installed on the road.

特開2011-134195号公報Japanese Unexamined Patent Publication No. 2011-134195

しかしながら、上記従来の技術では、任意の場所における渋滞を予測することができなかった。また、画像を用いた渋滞判断の構成では、設置コストがかかるとともに、カメラが固定設置された場所の渋滞判断しか行えない制限が生じる、という問題がある。 However, with the above-mentioned conventional technique, it is not possible to predict a traffic jam at an arbitrary place. Further, in the configuration of the traffic jam judgment using the image, there is a problem that the installation cost is high and there is a limitation that only the traffic jam judgment of the place where the camera is fixedly installed can be performed.

また、車両から受け取った速度などの情報から、当該車両が走行している道路の区間が
渋滞しているかどうかを判別するものであり、将来的に渋滞することを予測することはできない、という問題がある。本発明が解決しようとする課題には、上述した問題が一例として挙げられる。
In addition, from information such as speed received from the vehicle, it is determined whether or not the section of the road on which the vehicle is traveling is congested, and it is not possible to predict that the vehicle will be congested in the future. There is. The above-mentioned problems are given as an example of the problems to be solved by the present invention.

上述した課題を解決し、目的を達成するため、請求項1の発明にかかる渋滞予測システムは、道路上の移動体を撮影した画像と撮影した位置を示す位置情報とを取得する取得部と、前記画像中に存在する移動体に関する情報である交通情報を抽出する画像処理部と、前記画像処理部により抽出された前記交通情報を用いて、撮影された位置に対応する前記道路上の渋滞予測に関する情報を算出する交通情報処理部と、を有することを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the traffic jam prediction system according to the invention of claim 1 has an acquisition unit that acquires an image of a moving object on a road and position information indicating the position where the image was taken. Using the image processing unit that extracts traffic information, which is information about moving objects existing in the image, and the traffic information extracted by the image processing unit, traffic congestion prediction on the road corresponding to the photographed position. It is characterized by having a traffic information processing unit that calculates information about the vehicle.

また、請求項6の発明にかかる端末装置は、道路上の移動体を撮影した画像に基づき、前記道路上の前記移動体の渋滞予測を行う渋滞予測装置に対して、前記画像を送信する端末装置であって、道路上の移動体を撮影した画像を撮影する撮像部と、前記撮像部によって撮影された前記画像に撮影した位置情報を付与し、前記渋滞予測装置に送信する処理部と、を有することを特徴とする。 Further, the terminal device according to the invention of claim 6 is a terminal that transmits the image to a traffic jam prediction device that predicts the traffic jam of the moving body on the road based on an image of a moving body on the road. An image pickup unit that captures an image of a moving object on a road, a processing unit that adds the captured position information to the image captured by the image pickup unit and transmits the captured position information to the congestion prediction device. It is characterized by having.

また、請求項7の発明にかかる端末装置は、道路上の移動体を撮影した画像に基づき、前記道路上の前記移動体の渋滞予測を行う渋滞予測装置に接続される端末装置であって、前記渋滞予測装置に対して、所望する位置および時刻を含む渋滞予測の要求を行い、前記渋滞予測装置から受信した前記渋滞予測に関する情報を出力する処理部を有することを特徴とする。 Further, the terminal device according to the invention of claim 7 is a terminal device connected to a traffic jam prediction device that predicts a traffic jam of the moving body on the road based on an image of a moving body on the road. It is characterized by having a processing unit that requests a traffic jam prediction device including a desired position and time to the traffic jam prediction device and outputs information related to the traffic jam prediction received from the traffic jam prediction device.

また、請求項8の発明にかかる渋滞予測方法は、渋滞予測装置が実施する渋滞予測方法において、道路上の移動体を撮影した画像と撮影した位置を示す位置情報とを取得する取得工程と、前記画像中に存在する移動体に関する情報である交通情報を抽出する画像処理工程と、前記画像処理工程により抽出された前記交通情報を用いて、撮影された位置に対応する前記道路上の渋滞予測に関する情報を算出する交通情報処理工程と、を含むことを特徴とする。 Further, the traffic jam prediction method according to the invention of claim 8 is a traffic jam prediction method carried out by a traffic jam prediction device, in which an acquisition step of acquiring an image of a moving object on a road and position information indicating a shot position is obtained. Using the image processing step of extracting traffic information, which is information about a moving object existing in the image, and the traffic information extracted by the image processing step, the traffic congestion prediction on the road corresponding to the photographed position is used. It is characterized by including a traffic information processing process for calculating information about the vehicle.

また、請求項9の発明にかかる渋滞予測プログラムは、上記記載の渋滞予測方法をコンピュータに実行させることを特徴とする。 Further, the traffic jam prediction program according to the invention of claim 9 is characterized in that the computer executes the traffic jam prediction method described above.

図1は、実施の形態にかかる渋滞予測システムの構成例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of a traffic congestion prediction system according to an embodiment. 図2は、実施の形態にかかる渋滞予測システムの処理手順の一例を示すフローチャートである。FIG. 2 is a flowchart showing an example of the processing procedure of the congestion prediction system according to the embodiment. 図3は、ナビゲーション装置のハードウェア構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the hardware configuration of the navigation device. 図4は、サーバのハードウェア構成の一例を示すブロック図である。FIG. 4 is a block diagram showing an example of the hardware configuration of the server. 図5は、ナビゲーション装置による画像送信の処理内容を示すフローチャートである。FIG. 5 is a flowchart showing the processing contents of image transmission by the navigation device. 図6は、サーバによる交通情報生成の処理内容を示すフローチャートである。FIG. 6 is a flowchart showing the processing contents of traffic information generation by the server. 図7は、交通情報の内容の一例を示す図表である。FIG. 7 is a chart showing an example of the contents of traffic information. 図8は、交通情報を用いた渋滞予測の処理内容を示すフローチャートである。FIG. 8 is a flowchart showing the processing contents of the traffic jam prediction using the traffic information. 図9は、渋滞予測要求から渋滞予測情報の送信までの処理内容を示すフローチャートである。FIG. 9 is a flowchart showing the processing contents from the traffic jam prediction request to the transmission of the traffic jam prediction information. 図10は、自然渋滞の発生状態を示す説明図である。FIG. 10 is an explanatory diagram showing a state in which natural traffic congestion occurs.

(実施の形態)
以下に添付図面を参照して、この発明にかかる渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラムの好適な実施の形態を詳細に説明する。
(Embodiment)
Hereinafter, preferred embodiments of the traffic jam prediction system, the terminal device, the traffic jam prediction method, and the traffic jam prediction program according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、実施の形態にかかる渋滞予測システムの構成例を示すブロック図である。実施の形態にかかる渋滞予測システムは、互いに通信接続された渋滞予測装置100と、端末装置110とによって構成することができる。 FIG. 1 is a block diagram showing a configuration example of a traffic congestion prediction system according to an embodiment. The traffic jam prediction system according to the embodiment can be configured by a traffic jam prediction device 100 and a terminal device 110 that are communication-connected to each other.

渋滞予測装置100は、画像処理部101と、情報結合部102と、交通情報処理部103と、格納部104と、渋滞予測情報管理部105とを含む。端末装置110は、撮像部111と、測位部112と、処理部113とを含む。 The traffic jam prediction device 100 includes an image processing unit 101, an information coupling unit 102, a traffic information processing unit 103, a storage unit 104, and a traffic jam prediction information management unit 105. The terminal device 110 includes an image pickup unit 111, a positioning unit 112, and a processing unit 113.

渋滞予測装置100は、例えば、単一のサーバを用いて構成できるが、これに限らず、画像処理部101と交通情報処理部103の機能別に分散された複数のサーバを用いる構成としてもよい。 The congestion prediction device 100 can be configured by using, for example, a single server, but is not limited to this, and may be configured by using a plurality of servers distributed according to the functions of the image processing unit 101 and the traffic information processing unit 103.

端末装置110は、移動中の前方の画像を撮像部111により撮像し、渋滞予測装置100に送信する。この際、処理部113は、撮像部111の撮影画像とともに、撮影ID、および測位部112により測位された撮影時の位置情報を送信する。このほか、移動時の速度や時刻情報を送信してもよい。また、処理部113は、ユーザ操作等により、渋滞予測装置100に渋滞予測を要求し、渋滞予測装置100から送信された渋滞予測の情報を情報処理して図示しない表示部等に出力する。 The terminal device 110 captures an image of the moving front by the image pickup unit 111 and transmits it to the traffic jam prediction device 100. At this time, the processing unit 113 transmits the shooting ID and the position information at the time of shooting positioned by the positioning unit 112 together with the shot image of the imaging unit 111. In addition, speed and time information at the time of movement may be transmitted. Further, the processing unit 113 requests the traffic jam prediction device 100 for the traffic jam prediction by a user operation or the like, processes the traffic jam prediction information transmitted from the traffic jam prediction device 100, and outputs the information to a display unit or the like (not shown).

端末装置110は、移動体に設けられるナビゲーション装置やユーザが持つスマートフォンや携帯電話、可搬型のパーソナル・コンピュータ等を用いて構成することにより、渋滞予測装置100に対して渋滞予測に用いる画像を送信し、また、渋滞予測装置100に対して渋滞予測を要求することができる。 The terminal device 110 transmits an image used for traffic jam prediction to the traffic jam prediction device 100 by configuring the navigation device provided on the mobile body, a smartphone or mobile phone owned by the user, a portable personal computer, or the like. Further, it is possible to request the traffic jam prediction device 100 to predict the traffic jam.

これらに限らず、端末装置110は、自宅や施設(店舗)等に固設されたパーソナル・コンピュータ等を用いて構成してもよい。この場合、端末装置110は、渋滞予測装置100に対して渋滞予測に用いる画像を送信する機能を省き、渋滞予測装置100に対して渋滞予測を要求する。このような端末装置110の場合、撮像部111と測位部112の機能を省くことができ、端末装置110の処理部113は、ユーザ操作等により渋滞予測を要求し、渋滞予測装置100から送信された渋滞予測の情報を表示部等に出力する。 Not limited to these, the terminal device 110 may be configured by using a personal computer or the like fixedly installed in a home, a facility (store), or the like. In this case, the terminal device 110 omits the function of transmitting an image used for the traffic jam prediction to the traffic jam prediction device 100, and requests the traffic jam prediction device 100 to predict the traffic jam. In the case of such a terminal device 110, the functions of the image pickup unit 111 and the positioning unit 112 can be omitted, and the processing unit 113 of the terminal device 110 requests a traffic jam prediction by a user operation or the like, and is transmitted from the traffic jam prediction device 100. The information of the traffic jam prediction is output to the display unit or the like.

渋滞予測装置100の画像処理部101は、端末装置110から送信されてくる撮影画像を画像処理する。この画像処理では、撮影画像が示す道路と車両を抽出(検出)する。そして、端末装置110(移動体)が走行している走行車線(自車線)と、車線数、車線別の車両数、車間をそれぞれ検出する。このほか、撮影画像に含まれる各車両の車種を検出することもできる。 The image processing unit 101 of the traffic jam prediction device 100 processes the captured image transmitted from the terminal device 110. In this image processing, the road and the vehicle shown in the captured image are extracted (detected). Then, the traveling lane (own lane) in which the terminal device 110 (moving body) is traveling, the number of lanes, the number of vehicles for each lane, and the distance between vehicles are detected. In addition, it is also possible to detect the vehicle type of each vehicle included in the captured image.

情報結合部102は、端末装置110から送信されてくる撮影画像の撮影ID、撮影時刻、および撮影位置の各情報を関連付けて格納部104に格納する。渋滞予測装置100の時刻を用いる場合、撮影画像を受信した時刻を用いることができ、端末装置110側における時刻情報の送信は不要である。また、渋滞予測装置100において、端末装置110が設けられた移動体の速度を把握している場合には、渋滞予測装置100は、例えば、端末装置110の緯度経度の移動量と移動所要時間に基づく計算により移動体の速度を求めることができる。 The information coupling unit 102 stores each information of the shooting ID, the shooting time, and the shooting position of the shot image transmitted from the terminal device 110 in the storage unit 104 in association with each other. When the time of the traffic jam prediction device 100 is used, the time when the captured image is received can be used, and it is not necessary to transmit the time information on the terminal device 110 side. Further, when the traffic jam prediction device 100 grasps the speed of the moving body provided with the terminal device 110, the traffic jam prediction device 100 may, for example, determine the movement amount and the movement required time of the latitude and longitude of the terminal device 110. The velocity of the moving body can be obtained by the calculation based on.

そして、情報結合部102は、画像処理部101により画像処理された結果である、自車線情報を同一の撮影IDにより関連付け(結合)し、交通情報として格納部104に格納する。また、情報結合部102は、撮影ID毎の車線別の車両情報(車両数)を車線別車両情報として格納部104に格納する。交通情報は、道路、位置、時間帯別に分類した状態で格納部104に格納される。 Then, the information combining unit 102 associates (combines) the own lane information, which is the result of image processing by the image processing unit 101, with the same shooting ID, and stores the information in the storage unit 104 as traffic information. Further, the information coupling unit 102 stores the vehicle information (number of vehicles) for each lane for each shooting ID in the storage unit 104 as vehicle information for each lane. The traffic information is stored in the storage unit 104 in a state of being classified by road, position, and time zone.

交通情報処理部103は、格納部104に格納された道路の位置、時間帯毎に分類された交通情報毎に統計関数を用いて位置および時間帯別の渋滞発生の確率を算出し、渋滞予測情報として格納部104に格納する。格納部104には、同一の道路上の複数の撮影画像の変化に基づく交通情報が格納されており、交通情報処理部103は、端末装置110からの要求時の交通情報を過去の交通情報(例えば同一時刻、場所)と比較することにより、渋滞の発生を予測する。 The traffic information processing unit 103 calculates the probability of congestion occurrence for each position and time zone using a statistical function for each traffic information classified by the position and time zone of the road stored in the storage unit 104, and predicts the congestion. It is stored in the storage unit 104 as information. The storage unit 104 stores traffic information based on changes in a plurality of captured images on the same road, and the traffic information processing unit 103 uses the traffic information at the time of request from the terminal device 110 as the past traffic information ( For example, by comparing with the same time and place), the occurrence of traffic congestion is predicted.

交通情報は、同一の道路についての情報に限らず、所定の範囲内(他の道路)の情報とすることができる。 The traffic information is not limited to information about the same road, but can be information within a predetermined range (other roads).

この際、撮影画像に基づいて車線別の交通情報を得ているため、車線別の車両数(車間距離、車両の密度に相当)に基づいて渋滞の度合いを判断し、車線別の渋滞予測を行うことができる。 At this time, since traffic information for each lane is obtained based on the captured image, the degree of congestion is determined based on the number of vehicles for each lane (corresponding to the distance between vehicles and the density of vehicles), and the congestion prediction for each lane is made. It can be carried out.

渋滞予測情報としては、端末装置110の現在位置付近での今後の渋滞予測、端末装置110の目的地までの走行ルート上における渋滞予測、目的地付近での渋滞予測等がある。この渋滞予測情報の算出処理は、あらかじめ道路(場所)毎に算出しておいてもよいし、端末装置110からの要求時に、該当する道路(場所)について算出を行うようにしてもよい。 The traffic jam prediction information includes future traffic jam prediction near the current position of the terminal device 110, traffic jam prediction on the travel route to the destination of the terminal device 110, and traffic jam prediction near the destination. The calculation process of the congestion prediction information may be calculated for each road (location) in advance, or may be calculated for the corresponding road (location) at the time of request from the terminal device 110.

また、渋滞予測情報は、撮影された位置に対応する道路について渋滞予測するに限らない。例えば、撮影された位置情報に最も近い道路や、撮影されたタイミングでマップマッチングされた地図情報上の道路であってもよい。 Further, the traffic jam prediction information is not limited to the traffic jam prediction for the road corresponding to the photographed position. For example, it may be a road closest to the captured position information or a road on the map information that is map-matched at the time of capture.

渋滞予測情報管理部105は、渋滞予測情報を管理する。この渋滞予測情報管理部105は、端末装置110からの渋滞予測の要求に対応した位置やエリアの渋滞予測情報を端末装置110に送信する。 The traffic jam prediction information management unit 105 manages the traffic jam prediction information. The traffic jam prediction information management unit 105 transmits the traffic jam prediction information of the position or area corresponding to the traffic jam prediction request from the terminal device 110 to the terminal device 110.

端末装置110は、例えば、移動体の移動時の走行ルートや目的地近傍の所定エリア内における渋滞予測情報を渋滞予測装置100に要求する。このほか、移動体による経路探索時においても同様に走行ルートや目的地近傍の所定エリア内における渋滞予測情報を要求する。これに対応して、渋滞予測装置100は、端末装置110(移動体)走行ルートや目的地近傍の所定エリア内における渋滞予測情報を抽出して端末装置110に送信することができる。 For example, the terminal device 110 requests the traffic jam prediction device 100 for traffic jam prediction information in a predetermined area near the travel route and the destination when the moving body is moving. In addition, when searching for a route by a moving body, traffic congestion prediction information in a predetermined area near the travel route or the destination is similarly requested. Correspondingly, the traffic jam prediction device 100 can extract the traffic jam prediction information in the predetermined area near the terminal device 110 (moving body) traveling route and the destination and transmit it to the terminal device 110.

図2は、実施の形態にかかる渋滞予測システムの処理手順の一例を示すフローチャートである。渋滞予測装置100が行う渋滞予測の処理内容を示す。はじめに、渋滞予測装置100は、端末装置110から撮影画像と、撮影時の位置情報、速度、時刻を取得する(ステップS201)。上述したように、速度、時刻は端末装置110から受信しなくても取得できる。 FIG. 2 is a flowchart showing an example of the processing procedure of the congestion prediction system according to the embodiment. The processing content of the traffic jam prediction performed by the traffic jam prediction device 100 is shown. First, the traffic jam prediction device 100 acquires a photographed image and a position information, a speed, and a time at the time of photographing from the terminal device 110 (step S201). As described above, the speed and time can be acquired without receiving from the terminal device 110.

次に、渋滞予測装置100は、撮影画像を画像処理する(ステップS202)。この画像処理により、端末装置110(移動体)が走行している走行車線(自車線)、車線数、車線別の車両数、各車両の車種、車間を検出する。検出した情報は、ステップS201により取得した情報(位置情報、速度、時刻)と関連付け(結合)して、交通情報が生成され、格納部104に格納される。 Next, the traffic jam prediction device 100 processes the captured image (step S202). By this image processing, the traveling lane (own lane) in which the terminal device 110 (moving body) is traveling, the number of lanes, the number of vehicles for each lane, the vehicle type of each vehicle, and the distance between vehicles are detected. The detected information is associated (combined) with the information (position information, speed, time) acquired in step S201 to generate traffic information and is stored in the storage unit 104.

同一あるいは異なる複数の端末装置110は、異なる場所や時刻毎に複数の撮影画像を渋滞予測装置100に送信する。これにより、渋滞予測装置100は、ステップS201,ステップS202を繰り返し実行することにより、道路の場所、時刻別に多数の交通情報がデータベース化して格納されることになる。渋滞予測装置100は、この交通情報を用いて、以下の渋滞予測処理を行う。 The same or different plurality of terminal devices 110 transmit a plurality of captured images to the traffic jam prediction device 100 at different places and at different times. As a result, the traffic jam prediction device 100 repeatedly executes steps S201 and S202 to store a large amount of traffic information in a database for each road location and time. The traffic jam prediction device 100 uses this traffic information to perform the following traffic jam prediction processing.

次に、渋滞予測装置100は、端末装置110から渋滞予測の要求を受信待ちする(ステップS203:Noのループ)。渋滞予測の要求を受信すると(ステップS203:Yes)、渋滞予測処理を行う(ステップS204)。この渋滞予測処理では、ステップS202により生成された交通情報を参照し、要求に含まれる場所(範囲)、時刻と同一の場所、時刻における過去の渋滞の発生に基づき、この場所(範囲)、時刻における渋滞の発生を予測する。 Next, the traffic jam prediction device 100 waits for a traffic jam prediction request from the terminal device 110 (step S203: No loop). When the traffic jam prediction request is received (step S203: Yes), the traffic jam prediction process is performed (step S204). In this traffic jam prediction process, the traffic information generated in step S202 is referred to, and this place (range) and time are based on the occurrence of past traffic jams at the same place and time as the place (range) and time included in the request. Predict the occurrence of traffic congestion in.

なお、渋滞の発生を予測する場所は、要求に含まれる場所と完全に同一である必要は無く、要求に含まれる場所と同一の道路や所定の範囲内における過去の交通情報と渋滞の発生に基づいて、予測してもよい。また時刻についても同様で、要求に含まれる時刻を含む所定の時間帯でもよい。 The place where the occurrence of traffic congestion is predicted does not have to be exactly the same as the place included in the request, but the same road as the place included in the request or the past traffic information and the occurrence of traffic congestion within a predetermined range. You may make a prediction based on this. The same applies to the time, and a predetermined time zone including the time included in the request may be used.

この後、渋滞予測情報を端末装置110に送信し(ステップS205)、一連の渋滞予測処理を終了する。 After that, the traffic jam prediction information is transmitted to the terminal device 110 (step S205), and a series of traffic jam prediction processes are completed.

上記実施の形態によれば、端末装置が有するカメラが撮影した道路上の複数の場所および時刻の撮影画像を用いて渋滞予測するため、道路上のカメラやセンサ等のような固定設置されたものを用いた設置場所に限定された渋滞予測だけではなく、道路上の任意の場所の渋滞予測を行うことができる。 According to the above embodiment, in order to predict traffic congestion using images taken at a plurality of places and times on the road taken by a camera of the terminal device, a fixed installation such as a camera or a sensor on the road is used. It is possible not only to predict traffic congestion limited to the installation location using the above, but also to predict traffic congestion at any location on the road.

また、多数の端末装置から送信される画像により、道路の渋滞状態を判断するための交通情報を多数取得できるため、任意の場所における渋滞予測の精度を向上できるようになる。 In addition, since a large amount of traffic information for determining a traffic jam state of a road can be acquired from images transmitted from a large number of terminal devices, the accuracy of traffic jam prediction at an arbitrary place can be improved.

端末装置としては、画像を撮影し、位置情報を送信できるカメラを備えた携帯電話やスマートフォン、カーナビゲーションなど汎用装置を利用できるため、渋滞予測装置は、多数の画像を容易に取得でき、システムコストも軽減できる。 As a terminal device, a general-purpose device such as a mobile phone, a smartphone, or a car navigation system equipped with a camera capable of taking an image and transmitting location information can be used, so that the traffic jam prediction device can easily acquire a large number of images and the system cost. Can also be reduced.

また、渋滞予測情報の生成の際、車間と車両数を用いることとしたが、このほかに、天気や曜日、要求された場所の道路に接続している他の道路の交通情報、要求された場所近傍でのイベント有無など、渋滞要因となる得る他のデータを渋滞予測のパラメータとして加えてもよい。これにより、渋滞予測の精度をより向上できるようになる。 In addition, when generating congestion prediction information, it was decided to use the distance between vehicles and the number of vehicles, but in addition to this, the weather, the day of the day, the traffic information of other roads connected to the road at the requested location, and the requested. Other data that may cause congestion, such as the presence or absence of an event near the location, may be added as a parameter for congestion prediction. This makes it possible to further improve the accuracy of traffic congestion prediction.

そして、渋滞を車両数(車間距離)に基づき判断したが、道路上における任意の場所の渋滞前の画像と、端末装置から送信された現在の画像の類似度を画像処理することにより、画像同士の比較によっても同様に渋滞予測することができる。 Then, the traffic jam was determined based on the number of vehicles (inter-vehicle distance), but the images were processed by image processing the similarity between the image before the traffic jam at any place on the road and the current image transmitted from the terminal device. Congestion can be predicted in the same way by comparing the above.

さらに、端末装置が撮影する画像は、静止画に限らず、動画でもよい。動画であれば他車線の移動体の速度についても判断できるため、より詳細な交通情報を得ることができる。 Further, the image captured by the terminal device is not limited to a still image, but may be a moving image. If it is a video, it is possible to determine the speed of a moving object in another lane, so that more detailed traffic information can be obtained.

また、渋滞予測データの生成には、重回帰分析などの統計学を適用してもよい。この際、道路毎に適切な最適アルゴリズムを組み替えることができる。 In addition, statistics such as multiple regression analysis may be applied to the generation of congestion prediction data. At this time, an appropriate optimum algorithm can be rearranged for each road.

以下に、本発明の実施例について説明する。本実施例では、移動体(車両)にナビゲーション装置300が搭載され、各ユーザのナビゲーション装置300が上述した渋滞予測装置100としてのサーバにアクセスする構成について説明する。ここで、ナビゲーション装置300は、上記の端末装置110としての機能を有し、移動体の移動時の道路を撮影して渋滞予測装置100に送信する。また、このナビゲーション装置300は、渋滞予測装置100(サーバ)に対して所望する場所の渋滞予測情報を要求する。 Hereinafter, examples of the present invention will be described. In this embodiment, a configuration in which a navigation device 300 is mounted on a mobile body (vehicle) and each user's navigation device 300 accesses the server as the above-mentioned congestion prediction device 100 will be described. Here, the navigation device 300 has a function as the terminal device 110 described above, and photographs the road when the moving body is moving and transmits it to the traffic jam prediction device 100. Further, the navigation device 300 requests the traffic jam prediction device 100 (server) for traffic jam prediction information at a desired location.

(ナビゲーション装置300のハードウェア構成)
図3は、ナビゲーション装置のハードウェア構成の一例を示すブロック図である。図3において、ナビゲーション装置300は、CPU301、ROM302、RAM303、磁気ディスクドライブ304、磁気ディスク305、光ディスクドライブ306、光ディスク307、音声I/F(インターフェース)308、マイク309、スピーカ310、入力デバイス311、映像I/F312、ディスプレイ313、通信I/F314、GPSユニット315、各種センサ316、カメラ317、を備えている。各構成部301~317は、バス320によってそれぞれ接続されている。
(Hardware configuration of navigation device 300)
FIG. 3 is a block diagram showing an example of the hardware configuration of the navigation device. In FIG. 3, the navigation device 300 includes a CPU 301, a ROM 302, a RAM 303, a magnetic disk drive 304, a magnetic disk 305, an optical disk drive 306, an optical disk 307, an audio I / F (interface) 308, a microphone 309, a speaker 310, and an input device 311. It is equipped with a video I / F 312, a display 313, a communication I / F 314, a GPS unit 315, various sensors 316, and a camera 317. Each component 301 to 317 is connected by a bus 320.

CPU301は、ナビゲーション装置300の全体の制御を司る。ROM302は、ブートプログラム、渋滞予測プログラム等を記録している。RAM303は、CPU301のワークエリアとして使用される。すなわち、CPU301は、RAM303をワークエリアとして使用しながら、ROM302に記録された各種プログラムを実行することによって、ナビゲーション装置300の全体の制御を司る。 The CPU 301 controls the entire navigation device 300. The ROM 302 records a boot program, a traffic jam prediction program, and the like. The RAM 303 is used as a work area of the CPU 301. That is, the CPU 301 controls the entire navigation device 300 by executing various programs recorded in the ROM 302 while using the RAM 303 as a work area.

磁気ディスクドライブ304は、CPU301の制御にしたがって磁気ディスク305に対するデータの読み取り/書き込みを制御する。磁気ディスク305は、磁気ディスクドライブ304の制御で書き込まれたデータを記録する。磁気ディスク305としては、例えば、HD(ハードディスク)やFD(フレキシブルディスク)を用いることができる。 The magnetic disk drive 304 controls reading / writing of data to the magnetic disk 305 according to the control of the CPU 301. The magnetic disk 305 records the data written under the control of the magnetic disk drive 304. As the magnetic disk 305, for example, an HD (hard disk) or an FD (flexible disk) can be used.

また、光ディスクドライブ306は、CPU301の制御にしたがって光ディスク307に対するデータの読み取り/書き込みを制御する。光ディスク307は、光ディスクドライブ306の制御にしたがってデータが読み出される着脱自在な記録媒体である。光ディスク307は、書き込み可能な記録媒体を利用することもできる。着脱可能な記録媒体として、光ディスク307のほか、MO、メモリカードなどを用いることができる。 Further, the optical disk drive 306 controls reading / writing of data to the optical disk 307 according to the control of the CPU 301. The optical disc 307 is a detachable recording medium from which data is read out under the control of the optical disc drive 306. The optical disc 307 can also use a writable recording medium. As the removable recording medium, in addition to the optical disk 307, an MO, a memory card, or the like can be used.

磁気ディスク305および光ディスク307に記録される情報の一例としては、地図データ、車両情報、道路情報、走行履歴などが挙げられる。地図データは、カーナビゲーションシステムにおいて経路探索するときに用いられ、建物、河川、地表面、エネルギー補給施設などの地物(フィーチャ)をあらわす背景データ、道路の形状をリンクやノードなどであらわす道路形状データなどを含むベクタデータである。 Examples of the information recorded on the magnetic disk 305 and the optical disk 307 include map data, vehicle information, road information, travel history, and the like. Map data is used when searching for routes in car navigation systems, and background data that represents features such as buildings, rivers, ground surfaces, and energy supply facilities, and road shapes that represent road shapes with links and nodes. Vector data including data.

音声I/F308は、音声入力用のマイク309および音声出力用のスピーカ310に接続される。マイク309に受音された音声は、音声I/F308内でA/D変換される。マイク309は、例えば、車両のダッシュボード部などに設置され、その数は単数でも複数でもよい。スピーカ310からは、所定の音声信号を音声I/F308内でD/A変換した音声が出力される。 The voice I / F 308 is connected to a microphone 309 for voice input and a speaker 310 for voice output. The voice received by the microphone 309 is A / D converted in the voice I / F 308. The microphones 309 are installed, for example, on the dashboard of a vehicle, and the number of microphones 309 may be singular or plural. From the speaker 310, a voice obtained by D / A-converting a predetermined voice signal in the voice I / F 308 is output.

入力デバイス311は、文字、数値、各種指示などの入力のための複数のキーを備えたリモコン、キーボード、タッチパネルなどが挙げられる。入力デバイス311は、リモコン、キーボード、タッチパネルのうちいずれか一つの形態によって実現されてもよいが、複数の形態によって実現することも可能である。 Examples of the input device 311 include a remote controller, a keyboard, and a touch panel having a plurality of keys for inputting characters, numerical values, various instructions, and the like. The input device 311 may be realized by any one form of the remote controller, the keyboard, and the touch panel, but it can also be realized by a plurality of forms.

映像I/F312は、ディスプレイ313に接続される。映像I/F312は、具体的には、例えば、ディスプレイ313全体を制御するグラフィックコントローラと、即時表示可能な画像情報を一時的に記録するVRAM(Video RAM)などのバッファメモリと、グラフィックコントローラから出力される画像データに基づいてディスプレイ313を制御する制御ICなどによって構成される。 The video I / F 312 is connected to the display 313. Specifically, the video I / F 312 is output from a graphic controller that controls the entire display 313, a buffer memory such as VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and a graphic controller. It is configured by a control IC or the like that controls the display 313 based on the image data to be generated.

ディスプレイ313には、アイコン、カーソル、メニュー、ウインドウ、あるいは文字や画像などの各種データが表示される。ディスプレイ313としては、例えば、TFT液晶ディスプレイ、有機ELディスプレイなどを用いることができる。 The display 313 displays various data such as icons, cursors, menus, windows, characters and images. As the display 313, for example, a TFT liquid crystal display, an organic EL display, or the like can be used.

カメラ317は、車両外部の道路の映像を撮影する。映像は静止画あるいは動画のどちらでもよい。カメラ317によって車両外部の道路を撮影することにより、道路とともに走行中の他の車両が撮影される。この撮影画像は、CPU301によって画像処理された後、GPSユニット315の位置情報とともに、渋滞予測装置100(後述するサーバ400)に送信処理される。 The camera 317 captures an image of the road outside the vehicle. The video may be either a still image or a moving image. By photographing the road outside the vehicle with the camera 317, other vehicles traveling along with the road are photographed. This captured image is image-processed by the CPU 301 and then transmitted to the traffic jam prediction device 100 (server 400 described later) together with the position information of the GPS unit 315.

通信I/F314は、無線を介してネットワークに接続され、ナビゲーション装置300およびCPU301のインターフェースとして機能する。ネットワークとして機能する通信網には、CANやLIN(Local Interconnect Network)などの車内通信網や、公衆回線網や携帯電話網、DSRC(Dedicated Short Range Communication)、LAN、WANなどがある。通信I/F314は、例えば、公衆回線用接続モジュールやETC(ノンストップ自動料金支払いシステム)ユニット、FMチューナー、VICS(Vehicle Information and Communication System:登録商標)/ビーコンレシーバなどである。 The communication I / F 314 is wirelessly connected to the network and functions as an interface between the navigation device 300 and the CPU 301. Communication networks that function as networks include in-vehicle communication networks such as CAN and LIN (Local Interconnect Network), public line networks, mobile phone networks, DSRC (Dedicated Short Range Communication), LAN, and WAN. The communication I / F 314 is, for example, a connection module for a public line, an ETC (non-stop automatic toll collection system) unit, an FM tuner, a VICS (Vehicle Information and Communication System: registered trademark) / beacon receiver, and the like.

GPSユニット315は、GPS衛星からの電波を受信し、車両の現在位置を示す情報を出力する。GPSユニット315の出力情報は、後述する各種センサ316の出力値とともに、CPU301による車両の現在位置の算出に際して利用される。現在位置を示す情報は、例えば、緯度・経度、高度などの、地図データ上の1点を特定する情報である。 The GPS unit 315 receives radio waves from GPS satellites and outputs information indicating the current position of the vehicle. The output information of the GPS unit 315 is used in calculating the current position of the vehicle by the CPU 301 together with the output values of various sensors 316 described later. The information indicating the current position is information that identifies one point on the map data, such as latitude / longitude and altitude.

各種センサ316は、車速センサ、加速度センサ、角速度センサ、傾斜センサなどの、車両の位置や挙動を判断するための情報を出力する。各種センサ316の出力値は、CPU301による車両の現在位置の算出や、速度や方位の変化量の算出に用いられる。 The various sensors 316 output information for determining the position and behavior of the vehicle, such as a vehicle speed sensor, an acceleration sensor, an angular velocity sensor, and an inclination sensor. The output values of the various sensors 316 are used by the CPU 301 to calculate the current position of the vehicle and the amount of change in speed and direction.

図3に示したCPU301は、ROM302等に格納されたプログラム実行により、図1に示した端末装置110の処理部113の機能を実現する。図3のカメラ317により図1の撮像部111の機能を実現し、図3のGPSユニット315により図1の測位部112の機能を実現する。 The CPU 301 shown in FIG. 3 realizes the function of the processing unit 113 of the terminal device 110 shown in FIG. 1 by executing a program stored in the ROM 302 or the like. The camera 317 of FIG. 3 realizes the function of the image pickup unit 111 of FIG. 1, and the GPS unit 315 of FIG. 3 realizes the function of the positioning unit 112 of FIG.

(サーバの構成例)
図4は、サーバのハードウェア構成の一例を示すブロック図である。渋滞予測装置100を構成するサーバ400についても、図3に示したナビゲーション装置300と同様の構成を有する。なお、サーバ400においては、図3に記載のGPSユニット315、各種センサ316、カメラ317等は不要である。
(Server configuration example)
FIG. 4 is a block diagram showing an example of the hardware configuration of the server. The server 400 that constitutes the traffic congestion prediction device 100 also has the same configuration as the navigation device 300 shown in FIG. In the server 400, the GPS unit 315, various sensors 316, the camera 317, and the like shown in FIG. 3 are unnecessary.

図1に示した渋滞予測装置100は、サーバ400に設けられたROM402等に記録されたプログラムやデータを用いて、CPU401が所定のプログラムを実行することによって渋滞予測の機能を実現する。サーバ400の磁気ディスク405等には、上記の交通情報や、渋滞予測情報が格納される。また、通信I/F414を介してナビゲーション装置300と通信を行い、ナビゲーション装置300からの要求に対応した渋滞予測情報をナビゲーション装置300に出力する。 The traffic jam prediction device 100 shown in FIG. 1 realizes a traffic jam prediction function by executing a predetermined program by the CPU 401 using a program or data recorded in a ROM 402 or the like provided in the server 400. The above traffic information and traffic congestion prediction information are stored in the magnetic disk 405 or the like of the server 400. Further, it communicates with the navigation device 300 via the communication I / F 414, and outputs the congestion prediction information corresponding to the request from the navigation device 300 to the navigation device 300.

また、サーバ400は、各ナビゲーション装置300から送信された画像の送信時刻やナビゲーション装置300が搭載された移動体の速度を算出する機能を有してもよい。サーバ400は、ナビゲーション装置300の緯度経度の移動量と移動所要時間に基づく計算により移動体の速度を計算することができる。 Further, the server 400 may have a function of calculating the transmission time of the image transmitted from each navigation device 300 and the speed of the moving body on which the navigation device 300 is mounted. The server 400 can calculate the speed of the moving body by the calculation based on the movement amount of the latitude and longitude of the navigation device 300 and the movement required time.

図4に示したCPU401は、ROM402等に格納されたプログラム実行により、図1に示した渋滞予測装置100の画像処理部101、情報結合部102、交通情報処理部103、渋滞予測情報管理部105の機能を実現する。図4の磁気ディスク305や光ディスク307等は、図1に示した格納部104の機能を実現する。 The CPU 401 shown in FIG. 4 has an image processing unit 101, an information coupling unit 102, a traffic information processing unit 103, and a traffic jam prediction information management unit 105 of the traffic jam prediction device 100 shown in FIG. 1 by executing a program stored in the ROM 402 or the like. To realize the function of. The magnetic disk 305, the optical disk 307, and the like of FIG. 4 realize the function of the storage unit 104 shown in FIG.

(ナビゲーション装置による画像の送信処理)
図5は、ナビゲーション装置による画像送信の処理内容を示すフローチャートである。ナビゲーション装置300は、移動体の移動時にGPSユニット315等により常に位置を測位している(ステップS501)。そして、例えば、所定のタイミング毎に(例えば1分毎)、カメラ317により道路を撮影する(ステップS502)。例えば、前方の道路を撮影することにより、道路とともに、道路上の移動体がともに撮影される。
(Image transmission process by navigation device)
FIG. 5 is a flowchart showing the processing contents of image transmission by the navigation device. The navigation device 300 always positions the position by the GPS unit 315 or the like when the moving body moves (step S501). Then, for example, the road is photographed by the camera 317 at predetermined timings (for example, every minute) (step S502). For example, by photographing the road ahead, the moving body on the road is photographed together with the road.

また、カメラ317により道路を撮影するトリガ(タイミング)は、サーバ400側からナビゲーション装置300への要求出力や、ナビゲーション装置300等のユーザの指示等とすることができる。 Further, the trigger (timing) for photographing the road by the camera 317 can be a request output from the server 400 side to the navigation device 300, an instruction from the user of the navigation device 300, or the like.

そして、ナビゲーション装置300は、画像の撮影毎に、この撮影画像とともに撮影時の位置情報をサーバ400に送信する(ステップS503)。なお、ナビゲーション装置300は、撮影毎の画像に時刻を付与しておき、所定時間毎にまとめて複数の画像をサーバ400に送信することとしてもよい。 Then, the navigation device 300 transmits the position information at the time of shooting together with the captured image to the server 400 every time the image is captured (step S503). The navigation device 300 may assign a time to the image for each shooting and transmit a plurality of images to the server 400 at a predetermined time.

ナビゲーション装置300は、上記のように画像の撮影を繰り返し行い、サーバ400に送信する。これにより、サーバ400は、複数のナビゲーション装置300が撮影した複数の道路の画像を収集することができる。 The navigation device 300 repeatedly captures an image as described above and transmits the image to the server 400. As a result, the server 400 can collect images of a plurality of roads taken by the plurality of navigation devices 300.

(サーバによる交通情報の生成処理)
図6は、サーバによる交通情報生成の処理内容を示すフローチャートである。はじめに、サーバ400は、ナビゲーション装置300から送信された画像、および位置情報(撮影位置)を受信する(ステップS601)。次に、画像受信時の移動体(ナビゲーション装置300)の速度と時刻を取得する(ステップS602)。
(Traffic information generation processing by the server)
FIG. 6 is a flowchart showing the processing contents of traffic information generation by the server. First, the server 400 receives the image transmitted from the navigation device 300 and the position information (shooting position) (step S601). Next, the speed and time of the moving body (navigation device 300) at the time of receiving the image are acquired (step S602).

サーバ400は、これら移動体の速度と時刻はナビゲーション装置300が送信したものを取得してもよいし、サーバ400内部で生成したものを用いてもよい。サーバ400側で生成する場合、時刻は、画像受信時のサーバ400内部の時刻を用いる。移動体の移動は、移動体(ナビゲーション装置300)の緯度経度の移動量と移動所要時間に基づく計算により移動体の速度を計算したものを用いる。 The server 400 may acquire the speed and time of these moving objects transmitted by the navigation device 300, or may use those generated inside the server 400. When generating on the server 400 side, the time inside the server 400 at the time of receiving the image is used as the time. For the movement of the moving body, the speed of the moving body calculated by the calculation based on the movement amount of the latitude and longitude of the moving body (navigation device 300) and the movement required time is used.

次に、サーバ400は、画像処理部101の画像処理により、取得した画像から車両、走行車線、車線数を検出する(ステップS603)。この際、例えば、撮影画像をオルソ画像に変換して、車両の位置、距離を特定でき、車線別車両数を検出できる。また、オルソ画像において、自車線の幅を導き出し、走行道路の車線数、車間を判断する。 Next, the server 400 detects the vehicle, the traveling lane, and the number of lanes from the acquired image by the image processing of the image processing unit 101 (step S603). At this time, for example, the captured image can be converted into an ortho image, the position and distance of the vehicle can be specified, and the number of vehicles for each lane can be detected. In addition, in the ortho image, the width of the own lane is derived, and the number of lanes and the distance between vehicles on the driving road are determined.

次に、サーバ400は、情報結合部102により、取得した画像(ID)毎に、位置情報、速度、時刻、車線別車両数、自車線、の各情報を関連付け、交通情報として格納部104に格納する(ステップS604)。以上のステップS601~ステップS604の処理は、ナビゲーション装置300から画像を受信する毎に行われる。 Next, the server 400 associates each information of position information, speed, time, number of vehicles for each lane, and own lane for each acquired image (ID) by the information coupling unit 102, and stores the information in the storage unit 104 as traffic information. Store (step S604). The above steps S601 to S604 are performed every time an image is received from the navigation device 300.

(交通情報の一例)
図7は、交通情報の内容の一例を示す図表である。図7の(a)は、ある1ユーザから送信された一つの画像を画像処理して得られた撮影画像処理情報701である。この撮影画像処理情報701は、車線情報(車線数)、自車線情報、車線別車両情報ID、の各情報からなる。図示の例では、自車が3車線道路(車線情報)の左から1番目(自車線情報)であることを示す。
(Example of traffic information)
FIG. 7 is a chart showing an example of the contents of traffic information. FIG. 7A is photographed image processing information 701 obtained by image processing one image transmitted from one user. The captured image processing information 701 includes lane information (number of lanes), own lane information, and vehicle information ID for each lane. In the illustrated example, it is shown that the own vehicle is the first from the left (own lane information) of the three-lane road (lane information).

図7の(a)の車線別車両情報IDの詳細を図7の(b)の702に示す。車線別車両情報ID702は、1枚の画像毎にIDが割り当てられ、画像処理によって得られたID毎の位置(車線位置であり、画像中に存在する移動体の車線位置)と、車線毎の車間(画像中に存在する移動体と自車との車間)、の各情報とを有する。図示の例では、ID=1の場合、自車位置の前方の位置(車線1)に車間45mで移動体が存在し、自車位置の前方の位置(車線3)に車間30mと、車間60mでそれぞれ移動体が存在していることを示す。なお、図示の例では、3車線のうち、左車線の位置が「1」、中央車線の位置が「2」、右車線の位置が「3」で示される。 The details of the vehicle information ID for each lane in FIG. 7A are shown in 702 in FIG. 7B. The vehicle information ID 702 for each lane is assigned an ID for each image, and the position for each ID obtained by image processing (the lane position, which is the lane position of the moving body existing in the image) and each lane. It has each information of the distance between vehicles (the distance between a moving body existing in the image and the own vehicle). In the illustrated example, when ID = 1, a moving body exists at a position (lane 1) in front of the vehicle position with a vehicle distance of 45 m, and a vehicle distance of 30 m and a vehicle distance of 60 m at a position in front of the vehicle position (lane 3). Indicates that each moving object exists. In the illustrated example, of the three lanes, the position of the left lane is indicated by "1", the position of the center lane is indicated by "2", and the position of the right lane is indicated by "3".

図7の(c)に示す撮影条件情報703は、図7の(a)撮影画像処理情報701と、撮影時の条件である撮影位置(図示の例では緯度経度)、速度、時刻とを、撮影IDにより関連付けた情報である。 The shooting condition information 703 shown in FIG. 7 (c) includes the shot image processing information 701 of FIG. 7 (a), the shooting position (latitude / longitude in the illustrated example), the speed, and the time, which are the conditions at the time of shooting. This is information associated with the shooting ID.

図7の(d)は、交通情報704である。図7の(c)に示す撮影条件情報703を同一ユーザの異なる場所や時刻別、および異なるユーザについて蓄積した情報である。この交通情報704の行数を増やすことにより、所望する撮影位置について、時刻別の自車線情報、車線情報、車線別車両情報ID(車線位置、車間)をデータベース構築していくことができる。 FIG. 7D is traffic information 704. This is information obtained by accumulating the shooting condition information 703 shown in FIG. 7 (c) for different places and times of the same user, and for different users. By increasing the number of lines of the traffic information 704, it is possible to construct a database of own lane information, lane information, and vehicle information ID (lane position, inter-vehicle distance) for each lane for a desired shooting position.

(交通情報を用いた渋滞予測処理)
図8は、交通情報を用いた渋滞予測の処理内容を示すフローチャートである。はじめに、サーバ400の交通情報処理部103は、交通情報704を位置、日付、時間帯毎に分類し(ステップS801)、分類されたデータ毎に統計関数を作成する(ステップS802)。この状態で、交通情報処理部103は、ナビゲーション装置300からの渋滞予測要求に含まれる要求条件の入力を待つ(ステップS803:Noのループ)。
(Congestion prediction processing using traffic information)
FIG. 8 is a flowchart showing the processing contents of the traffic jam prediction using the traffic information. First, the traffic information processing unit 103 of the server 400 classifies the traffic information 704 by position, date, and time zone (step S801), and creates a statistical function for each classified data (step S802). In this state, the traffic information processing unit 103 waits for the input of the request condition included in the traffic jam prediction request from the navigation device 300 (step S803: No loop).

交通情報処理部103は、要求条件の入力があれば(ステップS803:Yes)、この要求条件に該当する統計関数を利用して渋滞発生値を算出する(ステップS804)。そして、交通情報処理部103は、渋滞発生値が高い(正の値)かを判断し(ステップS805)、渋滞発生値が所定値より高ければ(ステップS805:Yes)、この渋滞発生値を渋滞予測情報として生成し、格納部104に格納する(ステップS806)。渋滞発生値が低ければ(ステップS805:No)、渋滞発生はないと判断し、今回の処理を終了する。 If the traffic information processing unit 103 has input the requirement condition (step S803: Yes), the traffic information processing unit 103 calculates the congestion occurrence value by using the statistical function corresponding to the requirement condition (step S804). Then, the traffic information processing unit 103 determines whether the congestion occurrence value is high (positive value) (step S805), and if the congestion occurrence value is higher than the predetermined value (step S805: Yes), the congestion occurrence value is used as the congestion occurrence value. It is generated as prediction information and stored in the storage unit 104 (step S806). If the congestion occurrence value is low (step S805: No), it is determined that there is no congestion occurrence, and the current process is terminated.

上記処理の具体例について説明する。上記例では、渋滞発生値を信頼度として所定のしきい値と比較し、渋滞の発生を判断している。例えば、ナビゲーション装置300から送信(入力)される渋滞予測の要求条件が、左車線交通量、右車線交通量、日付(曜日)、時間帯、が指定されている場合で説明する。 A specific example of the above processing will be described. In the above example, the occurrence of traffic congestion is determined by comparing the occurrence value of traffic congestion with a predetermined threshold value as the reliability. For example, the case where the requirement condition of the traffic jam prediction transmitted (input) from the navigation device 300 is specified as the left lane traffic volume, the right lane traffic volume, the date (day of the week), and the time zone will be described.

なお、ナビゲーション装置300は撮影した画像を送信し、サーバ400がその画像を画像分析して左車線交通量、右車線交通量、日付(曜日)、時間帯を割り出す。また、日付時間はサーバのデータ受信時間などで割り出すこととする。交通量の一例としては、単位時間当たりの自動車の数である。 The navigation device 300 transmits the captured image, and the server 400 analyzes the image to determine the left lane traffic volume, the right lane traffic volume, the date (day of the week), and the time zone. In addition, the date and time will be calculated based on the data reception time of the server. An example of traffic is the number of cars per unit time.

はじめに、交通情報処理部103は、格納部104から指定された日付(曜日)と時間帯に対応する交通情報704を参照対象とする。例えば、要求条件がx道路、火曜日、12時~13時のデータを集計した交通情報704を参照する。 First, the traffic information processing unit 103 refers to the traffic information 704 corresponding to the date (day of the week) and the time zone designated by the storage unit 104. For example, the requirement condition is x road, Tuesday, and the traffic information 704 that aggregates the data from 12:00 to 13:00 is referred to.

そして、交通情報処理部103は、渋滞発生に関する統計関数fnと、要求条件X,Yを入力値とし、下記の演算式を用いて渋滞確率を算出する。
fn(X,Y)=an(X)+bn(Y)
fn(xn,yn)=an(xn)+bn(yn)
渋滞発生値=max(1/fn(|X-xn|,|Y-yn|))-tn
Then, the traffic information processing unit 103 uses the statistical function fn regarding the occurrence of traffic congestion and the requirement conditions X and Y as input values, and calculates the traffic congestion probability using the following calculation formula.
fn (X, Y) = an (X) + bn (Y)
fn (xn, yn) = an (xn) + bn (yn)
Congestion occurrence value = max (1 / fn (| X-xn |, | Y-yn |))-tn

ただし、fn:統計関数(n=0,1,…)統計関数fnは、過去の渋滞予想データと現在の交通量を比較して、渋滞発生値を出すための関数である。X:左車線入力交通量,Y:右車線入力交通量,xn:左車線統計交通量,yn:右車線統計交通量,an:左車線予測係数,bn:右車線予測係数,tn:しきい値である。交通量は、画像撮影時の移動体の速度と、撮影された移動体の数から得られる。 However, the fn: statistical function (n = 0,1, ...) Statistical function fn is a function for comparing the past congestion forecast data with the current traffic volume to obtain the congestion occurrence value. X: Left lane input traffic volume, Y: Right lane input traffic volume, xn: Left lane statistical traffic volume, yn: Right lane statistical traffic volume, an: Left lane prediction coefficient, bn: Right lane prediction coefficient, tun: Threshold The value. The traffic volume is obtained from the speed of the moving body at the time of taking an image and the number of moving bodies taken.

渋滞予想データは、ある道路で渋滞発生と判断された場合、その道路において渋滞判断が下された時間から所定時間遡り(遡る時間は道路毎に異なる)、渋滞発生までの交通情報(例えば各車線の交通量と速度と時間)を統計する。この統計データが普段の交通情報と著しく違う場合、この道路における渋滞予測データとなる。ただし、日付時間などのパラメータ別に1つの道路に対して多数の予測データを有する。なお、上記の渋滞発生の判断は、システムの渋滞予測装置100が判断してもよいし、他の外部システムから取得した情報であれば、車間が狭い場合やスピードが低い場合などに、渋滞と判断する。 When it is determined that a traffic jam has occurred on a certain road, the traffic jam forecast data goes back a predetermined time from the time when the traffic jam is judged on that road (the time to go back differs for each road), and the traffic information until the traffic jam occurs (for example, each lane). Traffic volume, speed and time). If this statistical data is significantly different from the usual traffic information, it will be the traffic congestion prediction data on this road. However, it has a large number of forecast data for one road for each parameter such as date and time. The above-mentioned determination of the occurrence of traffic congestion may be made by the congestion prediction device 100 of the system, and if the information is acquired from another external system, it may be determined as congestion when the distance between vehicles is narrow or the speed is low. to decide.

また、上記の統計関数fnについて、上記例(2車線道路)で、「右車線が極めて混むとその後渋滞が発生する」、もしくは「右左両方ある程度混むとその後渋滞が発生する」といった2つ特徴をもつ道路の場合、渋滞発生パターンが2通りあるため、fnはn=2となる。この特徴は渋滞予想データから算出する。 In addition, regarding the above statistical function fn, in the above example (two-lane road), there are two characteristics such as "when the right lane is extremely crowded, then traffic jam occurs" or "when both right and left are crowded to some extent, then traffic jam occurs". In the case of a road with a road, fn is n = 2 because there are two patterns of congestion occurrence. This feature is calculated from the congestion forecast data.

右車線入力交通量は、ナビゲーション装置300が撮影した画像から算出された右車線の交通量であり、図7(b)車線別車両情報ID702「1」(車線別撮影ID「1」の道路は3車線道路)における位置「3」の行数(つまり3車線道路の右車線に存在する車両数)で示される。左車線入力交通量は、図7(b)車線別車両情報ID702「1」における位置「1」の行数(つまり3車線道路の左車線に存在する車両数)で示される。 The right lane input traffic volume is the traffic volume in the right lane calculated from the image taken by the navigation device 300. It is indicated by the number of lines at position "3" (that is, the number of vehicles existing in the right lane of the three-lane road). The left lane input traffic volume is indicated by the number of lines at the position "1" in FIG. 7 (b) vehicle information ID 702 "1" for each lane (that is, the number of vehicles existing in the left lane of a three-lane road).

右(左)車線統計交通量は、渋滞予測データの中の該当パターンにおける位置「3」の交通量の平均や最頻値の統計値である。また、右(左)車線予測係数は、右(左)車線統計交通量と右車線入力交通量の差分に重みを付ける係数である。例えば、道路において「右車線が極めて混むとその後渋滞が発生する」というパターンがあれば、右車線予測係数を大きくする。これにより右車線の差分が最終的な渋滞発生値に大きく反映される。 The right (left) lane statistical traffic volume is a statistical value of the average or mode of the traffic volume at position "3" in the corresponding pattern in the congestion prediction data. The right (left) lane prediction coefficient is a coefficient that weights the difference between the right (left) lane statistical traffic volume and the right lane input traffic volume. For example, if there is a pattern on the road that "when the right lane is extremely crowded, traffic jam will occur after that", the right lane prediction coefficient is increased. As a result, the difference in the right lane is greatly reflected in the final congestion occurrence value.

上記渋滞予測の具体例について説明する。渋滞予測装置100は、ある道路の時刻t時において、渋滞が発生する前30分の統計データ(格納部104のデータ)に「右車線が極めて混む」、「右左両車線やや混んでいる」という2パターンがあったとする。この道路においては30分前に渋滞の予兆が現れることがわかる。この2パターンをこの道路のt時渋滞予想データとして格納部104に格納しておく。 A specific example of the above-mentioned congestion prediction will be described. The traffic jam prediction device 100 says that "the right lane is extremely crowded" and "the right and left lanes are slightly crowded" in the statistical data (data of the storage unit 104) 30 minutes before the traffic jam occurs at the time t of a certain road. Suppose there are two patterns. It can be seen that a sign of traffic jam appears 30 minutes before this road. These two patterns are stored in the storage unit 104 as t-time congestion prediction data of this road.

そして、ナビゲーション装置300のユーザから時刻t時に画像が送信されたとする。渋滞予測装置100では、この画像の画像解析により、右車線がとても混んでいると判断したとする。渋滞予測装置100は、画像解析結果について、渋滞予想データとの類似度を統計関数により計算すると、「右車線が極めて混む」パターンにとても類似していたとする。この場合、渋滞予測装置100の交通情報処理部103は、この画像が送られてきてから30分後に渋滞が発生すると判断し、渋滞予想情報管理部105に対して、この道路は30分後に渋滞すると出力する。 Then, it is assumed that the image is transmitted from the user of the navigation device 300 at time t. It is assumed that the traffic jam prediction device 100 determines that the right lane is very crowded by image analysis of this image. It is assumed that the traffic jam prediction device 100 is very similar to the pattern of "extremely crowded right lane" when the similarity with the traffic jam prediction data is calculated by the statistical function for the image analysis result. In this case, the traffic information processing unit 103 of the traffic jam prediction device 100 determines that the traffic jam will occur 30 minutes after the image is sent, and tells the traffic jam prediction information management unit 105 that the road is congested 30 minutes later. Then it will be output.

渋滞予測装置100の統計関数による計算の具体例について説明する。この道路は渋滞予想を下記の2パターン持っているため、
パターン1:「右車線が極めて混むと渋滞が発生する」
パターン2:「右左両車線やや混んでいると渋滞が発生する」
したがって、統計関数fnは2つ用意する。
f1(X,Y)=a1(x1)+b1(y1)
f2(X,Y)=a2(x2)+b1(y2)
A specific example of calculation by the statistical function of the traffic jam prediction device 100 will be described. This road has the following two patterns of traffic congestion forecasts, so
Pattern 1: "Congestion occurs when the right lane is extremely crowded"
Pattern 2: "Congestion occurs when both the right and left lanes are slightly crowded"
Therefore, two statistical functions fn are prepared.
f1 (X, Y) = a1 (x1) + b1 (y1)
f2 (X, Y) = a2 (x2) + b1 (y2)

x1:パターン1の予想データの左車線交通量(平均や最頻)→左車線の統計交通量
y1:パターン1の予想データの右車線交通量(平均や最頻)
x2:パターン2の予想データの左車線交通量(平均や最頻)
y2:パターン2の予想データの右車線交通量(平均や最頻)
a1:パターン1の左車線の重み,b1:パターン1の右車線の重み(パターン1では右車線のみに注目したいのでa1の値を大きく、b1の値を小さくする)
a2:パターン2の左車線の重み,b2:パターン2の右車線の重み(パターン2では両車線に注目したいのでa2=b2でよい)
x1: Left lane traffic volume in pattern 1 forecast data (average or most frequent) → Left lane statistical traffic volume y1: Right lane traffic volume in pattern 1 forecast data (average or most frequent)
x2: Left lane traffic volume in pattern 2 forecast data (average or mode)
y2: Right lane traffic volume in pattern 2 forecast data (average or mode)
a1: Weight of the left lane of pattern 1, b1: Weight of the right lane of pattern 1 (In pattern 1, we want to focus only on the right lane, so increase the value of a1 and decrease the value of b1).
a2: Weight of the left lane of pattern 2, b2: Weight of the right lane of pattern 2 (in pattern 2, we want to pay attention to both lanes, so a2 = b2 is sufficient).

そして、渋滞予測情報管理部105は、各車線交通量X、Yが入力された時、
1/f1(|x1-X|,|y1-Y|)と1/f2(|x2-X|,|y2-Y|)を計算する。この値が大きい方を採用し、閾値tnと比べる。tnより大きければ渋滞予測情報を生成する。
Then, when the traffic jam forecast information management unit 105 inputs the traffic volumes X and Y of each lane, the traffic jam prediction information management unit 105
1 / f1 (| x1-X |, | y1-Y |) and 1 / f2 (| x2-X |, | y2-Y |) are calculated. The one with the larger value is adopted and compared with the threshold value tn. If it is larger than tun, congestion prediction information is generated.

渋滞予測情報管理部105は、渋滞予測情報を格納部104に格納して管理し、ナビゲーション装置300からの渋滞予測要求時に渋滞予測情報をナビゲーション装置300に送信する。 The traffic jam prediction information management unit 105 stores and manages the traffic jam prediction information in the storage unit 104, and transmits the traffic jam prediction information to the navigation device 300 when the traffic jam prediction request is requested from the navigation device 300.

ナビゲーション装置300からの渋滞予測要求時の要求条件、例えば、天気等の指定があれば、交通情報処理部103は、このパラメータを含めた交通情報704を参照対象とする。要求条件が増えれば、要求に対し高精度な渋滞予測を行えるようになる。 If a requirement condition at the time of a traffic jam prediction request from the navigation device 300, for example, a weather or the like is specified, the traffic information processing unit 103 refers to the traffic information 704 including this parameter. As the requirements increase, it becomes possible to predict traffic congestion with high accuracy for the requirements.

また、上記の処理例では、ナビゲーション装置300からの渋滞予測要求を待って渋滞予測情報を算出する構成としたが、これに限らない。例えば、交通情報処理部103は、交通情報704に基づいて、あらかじめ位置および時刻別の渋滞予測情報を生成しておく構成としても良い。この場合、ナビゲーション装置300からの渋滞予測要求があれば、対応する位置と時刻の渋滞予測情報をナビゲーション装置300に直ちに送信することができる。 Further, in the above processing example, the traffic jam prediction information is calculated after waiting for the traffic jam prediction request from the navigation device 300, but the present invention is not limited to this. For example, the traffic information processing unit 103 may be configured to generate congestion prediction information for each position and time in advance based on the traffic information 704. In this case, if there is a traffic jam prediction request from the navigation device 300, the traffic jam prediction information of the corresponding position and time can be immediately transmitted to the navigation device 300.

(渋滞予測要求と渋滞予測情報の送信について)
図9は、渋滞予測要求から渋滞予測情報の送信までの処理内容を示すフローチャートである。はじめに、ナビゲーション装置300は、指定位置や指定範囲の渋滞予測要求をサーバ400に送信する(ステップS901)。
(About traffic jam prediction request and transmission of traffic jam prediction information)
FIG. 9 is a flowchart showing the processing contents from the traffic jam prediction request to the transmission of the traffic jam prediction information. First, the navigation device 300 transmits a congestion prediction request for a designated position or a designated range to the server 400 (step S901).

サーバ400の渋滞予測情報管理部105は、この渋滞予測要求を受信し(ステップS902)、該当する指定位置や指定範囲の渋滞予測をナビゲーション装置300に送信(配信)する(ステップS903)。 The traffic jam prediction information management unit 105 of the server 400 receives this traffic jam prediction request (step S902), and transmits (delivers) the traffic jam prediction of the corresponding designated position and designated range to the navigation device 300 (step S903).

ナビゲーション装置300は、サーバ400から送信された渋滞予測情報を受信し(ステップS904)、この渋滞予測情報を表示部に表示する(ステップS905)。 The navigation device 300 receives the traffic jam prediction information transmitted from the server 400 (step S904), and displays the traffic jam prediction information on the display unit (step S905).

なお、サーバ400の渋滞予測情報管理部105は、ステップS903の後、時間経過により渋滞の状態が変わる可能性があること等に基づいて、渋滞予測変更発生の有無を監視する構成にしてもよい(ステップS906)。渋滞予測変更発生がない場合には(ステップS906:No)、処理を終了するが、渋滞予測変更発生が生じた場合には(ステップS906:Yes)、ステップS903による渋滞予測情報の再度の演算および送信を行う。 The traffic jam prediction information management unit 105 of the server 400 may be configured to monitor the presence or absence of a change in the traffic jam prediction based on the possibility that the traffic jam state may change with the passage of time after step S903. (Step S906). If the congestion prediction change does not occur (step S906: No), the process ends, but if the congestion prediction change occurs (step S906: Yes), the congestion prediction information is recalculated and the congestion prediction information is calculated again in step S903. Send.

(渋滞発生について)
図10は、自然渋滞の発生状態を示す説明図である。図10の(a)に示すように、走行する移動体の車両数が多くなってくると、移動体同士の車間が狭くなってくる。次に、図10(b)に示すように、一部の移動体1001の速度が遅くなると、追突しないように後続の移動体1011,1012が次々とブレーキを踏み速度を落とす。この結果、図10(c)に示すように、完全に停止する移動体1021があらわれ、後続する移動体1031,1032,1033,1034も次々に停車し、自然渋滞が発生する。
(About the occurrence of traffic jams)
FIG. 10 is an explanatory diagram showing a state in which natural traffic congestion occurs. As shown in FIG. 10A, as the number of traveling moving objects increases, the distance between the moving objects becomes narrower. Next, as shown in FIG. 10B, when the speed of some of the moving bodies 1001 slows down, the following moving bodies 1011 and 1012 step on the brakes one after another to reduce the speed so as not to collide. As a result, as shown in FIG. 10 (c), a completely stopped moving body 1021 appears, and subsequent moving bodies 1031, 1032, 1033, 1034 also stop one after another, causing natural congestion.

(渋滞予測について)
実施の形態の渋滞予測は、走行する移動体の台数が多くなると、移動体同士の車間が狭くなる、という点をナビゲーション装置300の撮影画像と、過去のデータベース(交通情報704)を参照して予測するものである。サーバ400は、要求条件に対応する過去の交通情報704を参照することにより、図10に示した自然渋滞の例で見れば、(a)~(c)のどの状態に対応するかを判断するに相当し、渋滞予測要求に含まれる要求された日時等に対応した渋滞予測情報をナビゲーション装置300に送信する。
(About traffic jam forecast)
In the congestion prediction of the embodiment, the point that the distance between the moving bodies becomes narrower as the number of moving bodies increases is referred to the photographed image of the navigation device 300 and the past database (traffic information 704). It is a prediction. By referring to the past traffic information 704 corresponding to the required condition, the server 400 determines which of the states (a) to (c) corresponds to in the example of the natural traffic jam shown in FIG. Corresponding to, the traffic jam prediction information corresponding to the requested date and time included in the traffic jam prediction request is transmitted to the navigation device 300.

加えて、要求時刻以降における渋滞がどのように変化するか(例えば、要求が図9(a)に相当する時刻の場合、例えば10分後には、図9(c)の自然渋滞発生が生じる、との予測についても渋滞予測情報としてナビゲーション装置300に送信できる。 In addition, how the congestion changes after the requested time (for example, when the request corresponds to the time shown in FIG. 9A, for example, 10 minutes later, the natural congestion shown in FIG. 9C occurs. Can also be transmitted to the navigation device 300 as congestion prediction information.

(渋滞予測情報のルート探索への適用について)
上述した渋滞予測情報が渋滞発生の可能性が高い(渋滞発生値が高い)ことを示す場合、ナビゲーション装置300は、該当する渋滞発生の候補ルート上の道路について、渋滞予測情報を付与してルート案内できる。
(About application of traffic jam prediction information to route search)
When the above-mentioned congestion prediction information indicates that there is a high possibility of congestion occurrence (congestion occurrence value is high), the navigation device 300 assigns congestion prediction information to the road on the corresponding congestion occurrence candidate route and routes. I can guide you.

実施の形態のナビゲーション装置300は、上述した渋滞予測情報を考慮したルート探索を行う。これにより、渋滞が予想された道路(リンク)の平均旅行時間が多いため、この渋滞地点を避けたルートが探索される。 The navigation device 300 of the embodiment performs a route search in consideration of the above-mentioned congestion prediction information. As a result, since the average travel time of the road (link) where congestion is expected is long, a route avoiding this congestion point is searched for.

ただし、このように渋滞予測情報を用いたルート探索では、予測した時間になると該当する場所での実際の渋滞の有無が判明することになる。したがって、この予測時間のときに、予測した渋滞が起きていない(渋滞発生していない)場合も考えられる。このような場合には、この予測時間に達したとき、ナビゲーション装置300は、ルートを再探索するとともに、前回用いた渋滞予測情報を利用しないことにする。 However, in the route search using the traffic jam prediction information in this way, the presence or absence of the actual traffic jam at the corresponding place becomes clear at the predicted time. Therefore, it is conceivable that the predicted traffic jam does not occur (traffic jam does not occur) at this predicted time. In such a case, when the predicted time is reached, the navigation device 300 re-searches the route and does not use the traffic jam prediction information used last time.

上記ルート探索は、ナビゲーション装置300が行うに限らず、サーバ400が行ってもよい。サーバ400は、ナビゲーション装置300の現在位置、目的地等の位置情報を取得し、時刻等の他の探索条件を含めてルート探索すればよい。 The route search is not limited to the navigation device 300, but may be performed by the server 400. The server 400 may acquire position information such as the current position and destination of the navigation device 300, and search for a route including other search conditions such as time.

上記の実施の形態では、撮影画像から車線数、車両数、車間、等を画像処理して交通量を検出する構成としたが、画像処理によってさらに他のパラメータを取得する構成にもできる。例えば、撮影画像の道路の車線上に、工事中の誘導標識がある場合には、工事による突発的な渋滞の発生の可能性がある。このほか、渋滞発生の要因となり得る車種(バス、パトカー)、歩行者横断、等もパラメータとすることができる。 In the above embodiment, the number of lanes, the number of vehicles, the distance between vehicles, etc. are image-processed from the captured image to detect the traffic volume, but it is also possible to acquire other parameters by image processing. For example, if there is a guide sign under construction on the lane of the road in the photographed image, there is a possibility that sudden congestion may occur due to the construction. In addition, vehicle types (buses, police cars), pedestrian crossings, etc. that can cause traffic congestion can also be used as parameters.

したがって、撮影画像そのものについても、渋滞発生前後の画像の共通点、および相違点を統計処理することにより、交通情報704の精度を向上できるようになる。 Therefore, the accuracy of the traffic information 704 can be improved by statistically processing the common points and differences between the captured images themselves and the images before and after the occurrence of the traffic jam.

また、上記実施の形態では、渋滞予測をサーバ等の渋滞予測装置100が行う構成としたが、ある1台のカーナビゲーション装置やパーソナル・コンピュータ等の端末装置110が渋滞予測する構成とし、渋滞予測を要求した他の端末装置110に送信する構成とすることもできる。 Further, in the above embodiment, the traffic jam prediction device 100 such as a server performs the traffic jam prediction, but the traffic jam prediction device 110 such as one car navigation device or a personal computer predicts the traffic jam. Can also be configured to transmit to another terminal device 110 that has requested.

なお、本実施の形態で説明した渋滞予測に関する方法は、あらかじめ用意されたプログラムをパーソナル・コンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD-ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。 The method related to traffic congestion prediction described in the present embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, flexible disk, CD-ROM, MO, or DVD, and is executed by being read from the recording medium by the computer. Further, this program may be a transmission medium that can be distributed via a network such as the Internet.

100 渋滞予測装置
101 画像処理部
102 情報結合部
103 交通情報処理部
104 格納部
105 渋滞予測情報管理部
110 端末装置
111 撮像部
112 測位部
113 処理部
100 Congestion prediction device 101 Image processing unit 102 Information coupling unit 103 Traffic information processing unit 104 Storage unit 105 Congestion prediction information management unit 110 Terminal device 111 Imaging unit 112 Positioning unit 113 Processing unit

Claims (1)

道路上の移動体を撮影した画像と撮影した位置を示す位置情報とを取得する取得部と、
前記画像中に存在する移動体に関する情報である交通情報を抽出する画像処理部と、
前記画像処理部により抽出された前記交通情報を用いて、撮影された位置に対応する前記道路上の渋滞予測に関する情報を算出する交通情報処理部と、
を有することを特徴とする渋滞予測システム。
An acquisition unit that acquires an image of a moving object on the road and position information indicating the position where the image was taken, and an acquisition unit.
An image processing unit that extracts traffic information that is information about a moving body existing in the image, and an image processing unit.
Using the traffic information extracted by the image processing unit, the traffic information processing unit that calculates information on the traffic congestion prediction on the road corresponding to the photographed position, and the traffic information processing unit.
Congestion prediction system characterized by having.
JP2021168213A 2019-12-03 2021-10-13 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program Pending JP2022023863A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021168213A JP2022023863A (en) 2019-12-03 2021-10-13 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
JP2023091992A JP2023107841A (en) 2021-10-13 2023-06-02 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019218912A JP2020030870A (en) 2019-12-03 2019-12-03 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
JP2021168213A JP2022023863A (en) 2019-12-03 2021-10-13 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019218912A Division JP2020030870A (en) 2019-12-03 2019-12-03 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023091992A Division JP2023107841A (en) 2021-10-13 2023-06-02 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program

Publications (1)

Publication Number Publication Date
JP2022023863A true JP2022023863A (en) 2022-02-08

Family

ID=87760963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021168213A Pending JP2022023863A (en) 2019-12-03 2021-10-13 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program

Country Status (1)

Country Link
JP (1) JP2022023863A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117475646A (en) * 2023-10-06 2024-01-30 纬创软件(武汉)有限公司 Pedestrian detection method based on artificial intelligence

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256991A (en) * 2002-03-05 2003-09-12 National Institute Of Advanced Industrial & Technology Visual probe car system, its traffic information providing method and its information center system
JP2006221537A (en) * 2005-02-14 2006-08-24 Denso Corp Traffic information providing system, traffic information providing center, and on-vehicle information collecting device
JP2010025709A (en) * 2008-07-17 2010-02-04 Pioneer Electronic Corp Driving support apparatus, driving support method, driving support program, and computer-readable storage medium
JP2010134640A (en) * 2008-12-03 2010-06-17 Honda Motor Co Ltd Information acquisition apparatus
JP2011123840A (en) * 2009-12-14 2011-06-23 Aisin Aw Co Ltd Vehicle guide device, vehicle guide method and vehicle guide program
US20130073192A1 (en) * 2011-09-20 2013-03-21 Infosys Limited System and method for on-road traffic density analytics using video stream mining and statistical techniques
JP2013206325A (en) * 2012-03-29 2013-10-07 Sumitomo Electric Ind Ltd Traffic information prediction device, traffic information prediction method and computer program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256991A (en) * 2002-03-05 2003-09-12 National Institute Of Advanced Industrial & Technology Visual probe car system, its traffic information providing method and its information center system
JP2006221537A (en) * 2005-02-14 2006-08-24 Denso Corp Traffic information providing system, traffic information providing center, and on-vehicle information collecting device
JP2010025709A (en) * 2008-07-17 2010-02-04 Pioneer Electronic Corp Driving support apparatus, driving support method, driving support program, and computer-readable storage medium
JP2010134640A (en) * 2008-12-03 2010-06-17 Honda Motor Co Ltd Information acquisition apparatus
JP2011123840A (en) * 2009-12-14 2011-06-23 Aisin Aw Co Ltd Vehicle guide device, vehicle guide method and vehicle guide program
US20130073192A1 (en) * 2011-09-20 2013-03-21 Infosys Limited System and method for on-road traffic density analytics using video stream mining and statistical techniques
JP2013206325A (en) * 2012-03-29 2013-10-07 Sumitomo Electric Ind Ltd Traffic information prediction device, traffic information prediction method and computer program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117475646A (en) * 2023-10-06 2024-01-30 纬创软件(武汉)有限公司 Pedestrian detection method based on artificial intelligence
CN117475646B (en) * 2023-10-06 2024-03-29 纬创软件(武汉)有限公司 Pedestrian detection method based on artificial intelligence

Similar Documents

Publication Publication Date Title
JP2015076078A (en) Congestion prediction system, terminal device, congestion prediction method, and congestion prediction program
JP2020030870A (en) Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
WO2015129045A1 (en) Image acquisition system, terminal, image acquisition method, and image acquisition program
US20180370530A1 (en) Predicting apparatus, prediction system, prediction method, and prediction program
KR101744963B1 (en) Traffic information and vehicle information providing system using black box video data and method thereof
JP2019032174A (en) Information processing system and information processing method
JP2015076077A (en) Traffic volume estimation system,terminal device, traffic volume estimation method and traffic volume estimation program
JP2018169411A (en) Image transmission system, terminal, image transmission method, and image transmission program
JP2020095565A (en) Information processing system, program, and method for processing information
JP2015075479A (en) Congestion display device, congestion display method, and congestion display program
WO2008072305A1 (en) Information processing apparatus, information recording apparatus, method of information processing, method of information recording, information processing program, information recording program and computer-readable recording medium
JP2022023863A (en) Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
JP2008152364A (en) Information providing device, information providing method, information providing program and computer-readable recording medium
JP2018106762A (en) Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
WO2014097445A1 (en) Map information generation apparatus and method for generating map information
JP2018132529A (en) Congestion display device, congestion display method, and congestion display program
JP2023138609A (en) Congestion display device, congestion display method, and congestion display program
JP2016173270A (en) Presentation device, presentation method, and presentation program
JP2011022004A (en) Device, method and program for updating of map data, and recording medium
JP2017188164A (en) Image acquisition device, terminal, and image acquisition system
WO2007148698A1 (en) Communication terminal device, communication method, communication program, and recording medium
JP2007263755A (en) Communication device, communication relay installation, communication method, communication program and recording medium
JP2023107841A (en) Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
JP5489700B2 (en) Information providing apparatus, information output apparatus, information providing method, information output method, information providing program, information output program, and recording medium
WO2014174648A1 (en) Information recording system, information acquisition device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230307