[go: nahoru, domu]

JP7533534B2 - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP7533534B2
JP7533534B2 JP2022110106A JP2022110106A JP7533534B2 JP 7533534 B2 JP7533534 B2 JP 7533534B2 JP 2022110106 A JP2022110106 A JP 2022110106A JP 2022110106 A JP2022110106 A JP 2022110106A JP 7533534 B2 JP7533534 B2 JP 7533534B2
Authority
JP
Japan
Prior art keywords
structured data
information
activity
video
history
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022110106A
Other languages
Japanese (ja)
Other versions
JP2022140458A (en
Inventor
圭一 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2022110106A priority Critical patent/JP7533534B2/en
Publication of JP2022140458A publication Critical patent/JP2022140458A/en
Priority to JP2024048835A priority patent/JP2024071543A/en
Application granted granted Critical
Publication of JP7533534B2 publication Critical patent/JP7533534B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Instructional Devices (AREA)

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

従来、GPS(Global Positioning System)を利用して位置情報を検出し、撮影画像の位置情報と時刻情報とに基づいたユーザの移動軌跡上に移動対象を表示し、移動対象が撮像画像の表示位置に到達した場合に対象画像を表示する技術が開示されている(特許文献1参照)。 A technology has been disclosed that uses a GPS (Global Positioning System) to detect location information, displays a moving object on a user's movement trajectory based on the location information and time information of a captured image, and displays the target image when the moving object reaches the display position of the captured image (see Patent Document 1).

特開2015-69313号公報JP 2015-69313 A

しかしながら、従来の技術においては、ユーザが撮像した撮影画像の位置情報に基づいて、ユーザの移動軌跡上に移動対象を表示し、移動対象が撮像画像の表示位置に到達した場合に対象画像を表示するものの、対象画像を画一的な表示形態で表示しているため、単調な表示が行われるものであった。 However, in conventional technology, a moving target is displayed on the user's movement trajectory based on the position information of the captured image taken by the user, and the target image is displayed when the moving target reaches the display position of the captured image. However, the target image is displayed in a uniform display format, resulting in a monotonous display.

本発明は、このような状況に鑑みてなされたものであり、移動軌跡の再生時に多様な情報を付加した表示を行うことを目的とする。 The present invention was made in consideration of these circumstances, and aims to display a variety of additional information when playing back a movement trajectory.

上記目的を達成するため、本発明の一態様の情報処理装置は、
ユーザの移動履歴を含むアクティビティの履歴のデータと、前記アクティビティの種類に基づいて、地図情報として提供される地図表示内において前記移動履歴の軌跡と、前記移動履歴に関連するコンテンツとを表示するための構造化データを生成する構造化データ生成手段を備え、前記構造化データは、前記移動履歴の軌跡における所定の位置に前記コンテンツの表示に関連するイベントが設定されるとともに、前記アクティビティの種類に基づいて前記所定の位置における前記移動履歴の軌跡を辿る注目点の移動速度の変化時間又はズームアップの有無を含むイベント時の動作が設定されていることを特徴とする。
In order to achieve the above object, an information processing device according to one aspect of the present invention comprises:
The device is equipped with a structured data generation means for generating structured data for displaying a trajectory of the movement history and content related to the movement history within a map display provided as map information based on data of activity history including a user's movement history and the type of the activity, wherein the structured data is characterized in that an event related to the display of the content is set at a predetermined position on the trajectory of the movement history, and an operation at the time of the event is set, including a time of change in the movement speed of a point of interest tracing the trajectory of the movement history at the predetermined position or whether or not to zoom in, based on the type of activity .

本発明によれば、移動軌跡の再生時に多様な情報を付加した表示を行うことができる。 According to the present invention, it is possible to display a variety of additional information when playing back a movement trajectory.

本発明の一実施形態に係る情報処理システムのシステム構成を示す模式図である。1 is a schematic diagram showing a system configuration of an information processing system according to an embodiment of the present invention; 情報処理装置のハードウェアの構成を示すブロック図である。FIG. 2 is a block diagram showing a hardware configuration of the information processing device. 情報処理装置のハードウェアの構成を示すブロック図である。FIG. 2 is a block diagram showing a hardware configuration of the information processing device. 図2の情報処理装置によって構成されるリスト端末の機能的構成のうち、履歴記録処理及び構造化データ生成処理を実行するための機能的構成を示す機能ブロック図である。3 is a functional block diagram showing a functional configuration for executing a history recording process and a structured data generating process, among the functional configurations of a wrist terminal constituted by the information processing device of FIG. 2; FIG. 動画属性テーブルの一例を示す模式図である。FIG. 13 is a schematic diagram showing an example of a video attribute table. 位置情報出力用構造化データの一例を示す模式図である。FIG. 13 is a schematic diagram showing an example of structured data for outputting position information. 図3の情報処理装置によって構成される地図情報提供サーバの機能的構成のうち、構造化データ解析処理を実行するための機能的構成を示す機能ブロック図である。4 is a functional block diagram showing a functional configuration for executing structured data analysis processing, among the functional configurations of a map information providing server constituted by the information processing device of FIG. 3; 図3の情報処理装置によって構成されるクラウドストレージサーバの機能的構成のうち、ストレージサービス処理を実行するための機能的構成を示す機能ブロック図である。4 is a functional block diagram showing a functional configuration for executing storage service processing, among the functional configurations of a cloud storage server constituted by the information processing device of FIG. 3. FIG. 図3の情報処理装置によって構成されるPCの機能的構成のうち、動画再生処理を実行するための機能的構成を示す機能ブロック図である。4 is a functional block diagram showing a functional configuration for executing a video playback process, among the functional configurations of a PC constituted by the information processing device of FIG. 3. アクティビティの履歴のデータの一例を示す模式図である。FIG. 4 is a schematic diagram showing an example of activity history data. 図10に示すアクティビティの履歴のデータが動画とされた場合の表示例を示す模式図である。11 is a schematic diagram showing a display example in which the data of the activity history shown in FIG. 10 is converted into a video. FIG. 写真が撮影された位置P4における写真撮影のイベントの動作を示す模式図である。FIG. 13 is a schematic diagram showing the operation of a photography event at position P4 where a photograph was taken. 位置P4において、撮影された写真の画像がポップアップで表示された状態を示す模式図である。FIG. 13 is a schematic diagram showing a state in which an image of a photograph taken at position P4 is displayed in a pop-up. 図4の機能的構成を有するリスト端末が実行する履歴記録処理の流れを説明するフローチャートである。5 is a flowchart illustrating the flow of a history recording process executed by a wrist terminal having the functional configuration of FIG. 4 . 図4の機能的構成を有するリスト端末が実行する構造化データ生成処理の流れを説明するフローチャートである。5 is a flowchart illustrating the flow of a structured data generation process executed by a wrist terminal having the functional configuration of FIG. 4 . 図7の機能的構成を有する地図情報提供サーバが実行する構造化データ解析処理の流れを説明するフローチャートである。8 is a flowchart illustrating the flow of a structured data analysis process executed by a map information providing server having the functional configuration of FIG. 7; 図8の機能的構成を有するクラウドストレージサーバが実行するストレージサービス処理の流れを説明するフローチャートである。9 is a flowchart illustrating the flow of a storage service process executed by a cloud storage server having the functional configuration of FIG. 8 . 図9の機能的構成を有するPCが実行する動画再生処理の流れを説明するフローチャートである。10 is a flowchart illustrating the flow of a video playback process executed by a PC having the functional configuration of FIG. 9 .

以下、本発明の実施形態について、図面を用いて説明する。 The following describes an embodiment of the present invention with reference to the drawings.

図1は、本発明の一実施形態に係る情報処理システム1のシステム構成を示す模式図である。
図1に示すように、情報処理システム1は、リスト端末10と、撮影装置20と、スマートフォン30と、地図情報提供サーバ40と、クラウドストレージサーバ50と、PC(Personal Computer)60とを含んで構成される。
これらのうち、リスト端末10、撮影装置20及びスマートフォン30は、Bluetooth low energy/Bluetooth LE(登録商標)(以下、「BLE」と称する。)あるいはWi-Fi(Wireless Fidelity)等の無線通信によって互いに通信可能に構成されている。また、スマートフォン30、地図情報提供サーバ40、クラウドストレージサーバ50及びPC60は、インターネット等のネットワーク70を介して互いに通信可能に構成されている。なお、本実施形態において、リスト端末10、撮影装置20及びスマートフォン30が、インターネット等のネットワーク70を介して他の装置と通信する機能を備えることも可能である。
FIG. 1 is a schematic diagram showing a system configuration of an information processing system 1 according to an embodiment of the present invention.
As shown in FIG. 1 , the information processing system 1 includes a wrist terminal 10 , an image capturing device 20 , a smartphone 30 , a map information providing server 40 , a cloud storage server 50 , and a PC (Personal Computer) 60 .
Among these, the wrist terminal 10, the photographing device 20, and the smartphone 30 are configured to be able to communicate with each other by wireless communication such as Bluetooth low energy/Bluetooth LE (registered trademark) (hereinafter referred to as "BLE") or Wi-Fi (Wireless Fidelity). In addition, the smartphone 30, the map information providing server 40, the cloud storage server 50, and the PC 60 are configured to be able to communicate with each other via a network 70 such as the Internet. In this embodiment, the wrist terminal 10, the photographing device 20, and the smartphone 30 may also have a function of communicating with other devices via the network 70 such as the Internet.

以下、情報処理システム1を構成する各装置の概要について説明する。
リスト端末10は、腕時計型の情報処理装置(いわゆるスマートウォッチ)によって構成され、登山あるいはロードバイク(サイクリング)等のアクティビティを行うユーザの腕に装着される。また、リスト端末10は、GPSによる測位機能を備えており、ユーザの移動履歴を含むアクティビティの履歴を記録する処理(以下、「履歴記録処理」と称する。)、及び、記録された履歴のデータに基づいて、位置情報及び位置情報に関連するコンテンツを表示するために記述される構造化データ(以下、「位置情報出力用構造化データ」と称する。)を生成する処理(以下、「構造化データ生成処理」と称する。)を実行する。例えば、リスト端末10は、履歴記録処理を実行することにより、リスト端末10を装着したユーザが各種アクティビティを行った場合に、アクティビティの種類と対応付けて、移動履歴を含むアクティビティの履歴のデータを記録する。また、リスト端末10は、構造化データ生成処理を実行することにより、記録した履歴のデータに基づいて、位置情報及び位置情報に関連するコンテンツを表示するために記述される位置情報出力用構造化データを自動的に生成する。そして、リスト端末10は、生成した位置情報出力用構造化データを、スマートフォン30を介してクラウドストレージサーバ50にアップロードする。
Below, an overview of each device constituting the information processing system 1 will be described.
The wrist terminal 10 is configured as a wristwatch-type information processing device (so-called a smart watch) and is worn on the arm of a user who is engaged in activities such as mountain climbing or road biking (cycling). The wrist terminal 10 also has a GPS positioning function and executes a process of recording a history of an activity including a user's movement history (hereinafter referred to as a "history recording process"), and a process of generating structured data (hereinafter referred to as "structured data for outputting position information") that is described to display position information and content related to the position information based on the recorded history data (hereinafter referred to as a "structured data generation process"). For example, when a user wearing the wrist terminal 10 performs various activities, the wrist terminal 10 executes the history recording process to record data of the activity history including the movement history in association with the type of activity. The wrist terminal 10 also executes the structured data generation process to automatically generate structured data for outputting position information that is described to display position information and content related to the position information based on the recorded history data. Then, the wrist terminal 10 uploads the generated structured data for outputting position information to the cloud storage server 50 via the smartphone 30 .

撮影装置20は、デジタルカメラ等の撮影機能を備えた情報処理装置によって構成される。撮影装置20は、ユーザの撮影指示に従って画像(静止画または動画)を撮影し、撮影した画像のデータを撮影日時と対応付けて記憶する。なお、本実施形態において、撮影装置20は、ユーザの指示に応じて、または、設定に従って自動的に、撮影日時と対応付けられた画像のデータを、スマートフォン30を介してクラウドストレージサーバ50にアップロードする。 The photographing device 20 is configured as an information processing device equipped with a photographing function such as a digital camera. The photographing device 20 photographs an image (still image or video) according to a user's photographing instruction, and stores the photographed image data in association with the photographing date and time. In this embodiment, the photographing device 20 uploads the image data associated with the photographing date and time to the cloud storage server 50 via the smartphone 30 in accordance with a user's instruction or automatically according to the settings.

スマートフォン30は、通話機能及び情報処理機能を備えた情報処理装置によって構成される。スマートフォン30は、リスト端末10から送信された位置情報出力用構造化データや、撮影装置20から送信された画像のデータ等を、ネットワーク70を介してクラウドストレージサーバ50にアップロードする。 The smartphone 30 is configured as an information processing device equipped with a calling function and an information processing function. The smartphone 30 uploads structured data for outputting location information transmitted from the wrist terminal 10, image data transmitted from the photographing device 20, etc., to the cloud storage server 50 via the network 70.

地図情報提供サーバ40は、サーバコンピュータあるいはPC等の情報処理装置によって構成される。地図情報提供サーバ40は、3次元の地図情報提供機能を備えており、位置情報出力用構造化データを解釈し、その位置情報出力用構造化データに記述されている位置を時系列に移動しながら地図情報及び関連するコンテンツを表示する処理(以下、「構造化データ解析処理」と称する。)を実行する。本実施形態において、位置情報出力用構造化データには、注目点の位置(緯度、経度、高度)、視点の移動速度、視点の高度、視点の方位(視線が向く方位)、視点の水平アングル(俯角)、各種イベント時の動作等の動画の属性が記述されており、地図情報提供サーバ40は、記述されている動画の属性に従って、地図情報における位置を変化させたり、所定のアクションを行ったりしながら、移動履歴を辿る動画のデータを出力する。なお、地図情報提供サーバ40は、構造化データ解析処理を実行する場合、位置情報出力用構造化データに記述されているコンテンツの格納先(ここでは、クラウドストレージサーバ50とする)から、撮影した画像や発話したコメントのテキスト等のコンテンツを取得し、取得したコンテンツを移動履歴における所定位置で表示する。 The map information providing server 40 is composed of an information processing device such as a server computer or a PC. The map information providing server 40 has a function of providing three-dimensional map information, and executes a process (hereinafter referred to as "structured data analysis process") of interpreting the structured data for outputting positional information and displaying map information and related content while moving the positions described in the structured data for outputting positional information in chronological order. In this embodiment, the structured data for outputting positional information describes the position of the point of interest (latitude, longitude, altitude), the moving speed of the viewpoint, the altitude of the viewpoint, the direction of the viewpoint (the direction of the line of sight), the horizontal angle of the viewpoint (depression angle), the actions during various events, and other video attributes. The map information providing server 40 outputs video data that traces the movement history while changing the position in the map information or performing a specified action according to the described video attributes. When performing the structured data analysis process, the map information providing server 40 obtains content such as captured images and text of spoken comments from the storage destination of the content described in the structured data for outputting location information (here, cloud storage server 50), and displays the obtained content at a specified position in the movement history.

クラウドストレージサーバ50は、サーバコンピュータあるいはPC等の情報処理装置によって構成される。クラウドストレージサーバ50は、クラウドストレージサービスを提供するサーバであり、ユーザによってアップロードされた位置情報出力用構造化データやコンテンツ(画像、音声あるいはテキスト等)を、ユーザの識別情報と対応付けて記憶したり、要求に応じて他の装置に送信したりする処理(以下、「ストレージサービス処理」を称する。)を実行する。 The cloud storage server 50 is composed of an information processing device such as a server computer or a PC. The cloud storage server 50 is a server that provides cloud storage services, and executes a process (hereinafter referred to as "storage service process") of storing structured data for outputting location information and content (images, audio, text, etc.) uploaded by users in association with the user's identification information, and transmitting the data to other devices upon request.

PC60は、ユーザによって使用される情報処理装置であり、ユーザの指示に応じて、位置情報出力用構造化データに基づく動画を再生するための処理(以下、「動画再生処理」と称する。)を実行する。例えば、PC60は、地図情報提供サーバ40に対して、位置情報出力用構造化データと共に動画の再生依頼を送信する。また、PC60は、地図情報提供サーバ40における構造化データ解析処理の実行結果である動画のデータを受信して表示する。 The PC 60 is an information processing device used by a user, and executes a process for playing a video based on the structured data for outputting location information (hereinafter referred to as a "video playback process") in response to a user's instruction. For example, the PC 60 transmits a request to play a video together with the structured data for outputting location information to the map information providing server 40. The PC 60 also receives and displays video data that is the result of execution of the structured data analysis process in the map information providing server 40.

[情報処理装置のハードウェア構成]
次に、情報処理システム1を構成する各装置のハードウェア構成を説明する。
本実施形態においては、一例として、情報処理システム1を構成するリスト端末10、撮影装置20及びスマートフォン30は、携帯型の情報処理装置100によって構成され、地図情報提供サーバ40、クラウドストレージサーバ50及びPC60は、据え付け型の情報処理装置200によって構成される。以下、リスト端末10、撮影装置20及びスマートフォン30を構成する情報処理装置100、及び、地図情報提供サーバ40、クラウドストレージサーバ50及びPC60を構成する情報処理装置200それぞれのハードウェア構成について説明する。なお、情報処理装置100及び情報処理装置200のハードウェア構成は、具体的に実装される装置に応じて適宜変更することが可能である。
[Hardware configuration of information processing device]
Next, the hardware configuration of each device constituting the information processing system 1 will be described.
In the present embodiment, as an example, the wrist terminal 10, the photographing device 20, and the smartphone 30 constituting the information processing system 1 are configured by a portable information processing device 100, and the map information providing server 40, the cloud storage server 50, and the PC 60 are configured by a stationary information processing device 200. Hereinafter, the hardware configurations of the information processing device 100 constituting the wrist terminal 10, the photographing device 20, and the smartphone 30, and the information processing device 200 constituting the map information providing server 40, the cloud storage server 50, and the PC 60 will be described. Note that the hardware configurations of the information processing device 100 and the information processing device 200 can be appropriately changed depending on the device to be specifically implemented.

図2は、情報処理装置100のハードウェアの構成を示すブロック図である。
情報処理装置100は、図2に示すように、CPU(Central Processing Unit)111と、ROM(Read Only Memory)112と、RAM(Random Access Memory)113と、バス114と、入出力インターフェース115と、GPS受信部116と、撮像部117と、センサ部118と、入力部119と、出力部120と、記憶部121と、通信部122と、ドライブ123と、を備えている。
FIG. 2 is a block diagram showing the hardware configuration of the information processing device 100. As shown in FIG.
As shown in FIG. 2 , the information processing device 100 includes a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112, a RAM (Random Access Memory) 113, a bus 114, an input/output interface 115, a GPS receiving unit 116, an imaging unit 117, a sensor unit 118, an input unit 119, an output unit 120, a memory unit 121, a communication unit 122, and a drive 123.

CPU111は、ROM112に記録されているプログラム、または、記憶部121からRAM113にロードされたプログラムに従って各種の処理を実行する。 The CPU 111 executes various processes according to a program recorded in the ROM 112 or a program loaded from the memory unit 121 to the RAM 113.

RAM113には、CPU111が各種の処理を実行する上において必要なデータ等も適宜記憶される。 The RAM 113 also stores data and other information necessary for the CPU 111 to execute various processes.

CPU111、ROM112及びRAM113は、バス114を介して相互に接続されている。このバス114にはまた、入出力インターフェース115も接続されている。入出力インターフェース115には、GPS受信部116、撮像部117、センサ部118、入力部119、出力部120、記憶部121、通信部122及びドライブ123が接続されている。 The CPU 111, ROM 112, and RAM 113 are interconnected via a bus 114. An input/output interface 115 is also connected to this bus 114. A GPS receiver 116, an image capture unit 117, a sensor unit 118, an input unit 119, an output unit 120, a memory unit 121, a communication unit 122, and a drive 123 are connected to the input/output interface 115.

GPS受信部116は、GPS衛星から受信したGPS信号に基づいて、情報処理装置100の位置(緯度、経度、高度)及びGPSによって示される現在時刻を検出する。 The GPS receiver 116 detects the position (latitude, longitude, altitude) of the information processing device 100 and the current time indicated by the GPS based on the GPS signals received from GPS satellites.

撮像部117は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。 Although not shown, the imaging unit 117 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
撮像部117にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens section is composed of lenses that collect light in order to photograph a subject, such as a focus lens and a zoom lens.
A focus lens is a lens that focuses a subject image on the light receiving surface of an image sensor, while a zoom lens is a lens that can freely change the focal length within a certain range.
The imaging unit 117 is also provided with peripheral circuits for adjusting setting parameters such as focus, exposure, and white balance, as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部117の出力信号として、CPU111や図示しない画像処理部等に適宜供給される。
The image sensor is composed of a photoelectric conversion element, an AFE (Analog Front End), and the like.
The photoelectric conversion element is, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element. An object image is incident on the photoelectric conversion element from the optical lens unit. The photoelectric conversion element photoelectrically converts (captures) the object image, accumulates the image signal for a certain period of time, and sequentially supplies the accumulated image signal to the AFE as an analog signal.
The AFE performs various signal processing such as A/D (Analog/Digital) conversion processing on the analog image signal. A digital signal is generated by the various signal processing, and is appropriately supplied to the CPU 111 or an image processing unit (not shown) as an output signal of the imaging unit 117.

センサ部118は、気圧センサ、気温センサ、湿度センサ、風速センサ、生体センサ(脈拍センサ、血圧センサ等)、地磁気センサ、3軸加速度センサ、3軸角速度センサ等の各種センサを備えている。センサ部118として備えられるこれらの各種センサは、情報処理装置100に内蔵する実装形態の他、外付けのユニットと接続する実装形態のいずれとすることも可能である。 The sensor unit 118 includes various sensors such as an air pressure sensor, a temperature sensor, a humidity sensor, a wind speed sensor, a biosensor (a pulse sensor, a blood pressure sensor, etc.), a geomagnetic sensor, a three-axis acceleration sensor, and a three-axis angular velocity sensor. These various sensors included in the sensor unit 118 can be implemented either as built-in sensors in the information processing device 100 or as sensors connected to an external unit.

入力部119は、各種ボタン等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部120は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
なお、本実施形態において、情報処理装置100の入力部119はタッチセンサを備え、このタッチセンサが出力部120のディスプレイと重ねて配置されることにより、タッチパネルが構成されている。
記憶部121は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種データを記憶する。
通信部122は、インターネットを含むネットワークを介して他の装置との間で行う通信を制御する。また、通信部122は、端末間の直接的な無線通信によって他の装置との間で行う通信を制御する。
The input unit 119 is made up of various buttons and the like, and is used to input various pieces of information in response to user instructions.
The output unit 120 is composed of a display, a speaker, etc., and outputs images and sounds.
In this embodiment, the input unit 119 of the information processing device 100 includes a touch sensor, and the touch sensor is arranged so as to overlap the display of the output unit 120 to form a touch panel.
The storage unit 121 is configured with a semiconductor memory such as a dynamic random access memory (DRAM), and stores various types of data.
The communication unit 122 controls communication with other devices via a network including the Internet, and also controls communication with other devices by direct wireless communication between terminals.

ドライブ123には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア131が適宜装着される。ドライブ123によってリムーバブルメディア131から読み出されたプログラムは、必要に応じて記憶部121にインストールされる。また、リムーバブルメディア131は、記憶部121に記憶されている各種データも、記憶部121と同様に記憶することができる。 Removable media 131, which may be a magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, is appropriately attached to drive 123. Programs read from removable media 131 by drive 123 are installed in storage unit 121 as necessary. In addition, removable media 131 can also store various data stored in storage unit 121 in the same way as storage unit 121.

図3は、情報処理装置200のハードウェアの構成を示すブロック図である。
情報処理装置200は、図3に示すように、CPU211と、ROM212と、RAM213と、バス214と、入出力インターフェース215と、入力部216と、出力部217と、記憶部218と、通信部219と、ドライブ220と、を備えている。
図3に示す情報処理装置200において、各部のハードウェア構成は、図2に示す情報処理装置100の対応するハードウェア構成と同様である。
ただし、本実施形態において、通信部219は、端末間の直接的な無線通信によって他の装置との間で通信を行う機能を省略することができる。また、ドライブ220には、ドライブ123と同様に、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア231が適宜装着される。
FIG. 3 is a block diagram showing the hardware configuration of the information processing device 200. As shown in FIG.
As shown in FIG. 3, the information processing device 200 includes a CPU 211, a ROM 212, a RAM 213, a bus 214, an input/output interface 215, an input unit 216, an output unit 217, a memory unit 218, a communication unit 219, and a drive 220.
In the information processing device 200 shown in FIG. 3, the hardware configuration of each unit is similar to the corresponding hardware configuration of the information processing device 100 shown in FIG.
However, in this embodiment, the communication unit 219 may omit the function of communicating with other devices by direct wireless communication between terminals. Similarly to the drive 123, the drive 220 is appropriately equipped with a removable medium 231 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like.

[機能的構成]
次に、情報処理システム1の機能的構成について説明する。
図4は、図2の情報処理装置100によって構成されるリスト端末10の機能的構成のうち、履歴記録処理及び構造化データ生成処理を実行するための機能的構成を示す機能ブロック図である。
履歴記録処理とは、ユーザの移動履歴を含むアクティビティの履歴を記録する一連の処理である。また、構造化データ生成処理とは、記録された履歴のデータに基づいて、位置情報及び位置情報に関連するコンテンツを表示するために記述される位置情報出力用構造化データを生成する一連の処理である。
[Functional configuration]
Next, the functional configuration of the information processing system 1 will be described.
FIG. 4 is a functional block diagram showing the functional configuration for executing the history recording process and the structured data generating process, among the functional configurations of the wrist terminal 10 constituted by the information processing device 100 of FIG.
The history recording process is a series of processes for recording the activity history including the user's movement history, and the structured data generation process is a series of processes for generating structured data for outputting location information, which is written to display location information and content related to the location information, based on the recorded history data.

履歴記録処理及び構造化データ生成処理が実行される場合には、図4に示すように、CPU111において、ユーザインターフェース表示制御部(UI表示制御部)51と、履歴取得部52と、アクティビティ判定部53と、動画属性設定部54と、パラメータ補正受付部55と、構造化データ生成部56と、構造化データ登録部57と、が機能する。
また、記憶部121の一領域には、履歴データ記憶部71が設定される。
履歴データ記憶部71には、ユーザの移動履歴を含むアクティビティの履歴のデータが記憶される。
When the history recording process and the structured data generation process are executed, as shown in FIG. 4, a user interface display control unit (UI display control unit) 51, a history acquisition unit 52, an activity determination unit 53, a video attribute setting unit 54, a parameter correction receiving unit 55, a structured data generation unit 56, and a structured data registration unit 57 function in the CPU 111.
Furthermore, a history data storage section 71 is set in one area of the storage section 121 .
The history data storage unit 71 stores data on the history of activities including the user's movement history.

UI表示制御部51は、リスト端末10において、ユーザが情報を入出力するためのユーザインターフェースの画面を表示する。また、UI表示制御部51は、ユーザインターフェースの画面を介して各種操作を受け付ける。例えば、UI表示制御部51は、ユーザがアクティビティを開始するための操作を行った場合に、複数種類のアクティビティの候補一覧を表示し、ユーザによるアクティビティの選択を受け付ける。また、UI表示制御部51は、ユーザによって、アクティビティの履歴のデータから位置情報出力用構造化データを生成する指示が入力された場合に、そのアクティビティの履歴のデータに手動で関連付けられるコンテンツの入力(記憶領域のアドレスの入力等)を受け付ける。
履歴取得部52は、GPS受信部116によって検出される位置(緯度、経度、高度)及び現在時刻を逐次取得し、ユーザの移動履歴として、履歴データ記憶部71に記憶する。
The UI display control unit 51 displays a user interface screen for the user to input and output information on the wrist terminal 10. The UI display control unit 51 also accepts various operations via the user interface screen. For example, when the user performs an operation to start an activity, the UI display control unit 51 displays a list of multiple types of activity candidates and accepts the user's selection of an activity. When the user inputs an instruction to generate structured data for outputting location information from data of the activity history, the UI display control unit 51 also accepts input of content to be manually associated with the data of the activity history (such as input of an address of a storage area).
The history acquisition unit 52 sequentially acquires the position (latitude, longitude, altitude) and the current time detected by the GPS receiving unit 116, and stores them in the history data storage unit 71 as the user's movement history.

アクティビティ判定部53は、ユーザによるアクティビティの種類を判定する。本実施形態において、アクティビティ判定部53は、アクティビティの履歴のデータに含まれるアクティビティの種類のデータに基づいて、ユーザが行ったアクティビティの種類を判定する。なお、アクティビティ判定部53は、ユーザインターフェースの画面を介してユーザがアクティビティの候補一覧から選択したアクティビティの種類を検出することにより、ユーザが行うアクティビティの種類を判定することもできる。 The activity determination unit 53 determines the type of activity performed by the user. In this embodiment, the activity determination unit 53 determines the type of activity performed by the user based on the activity type data included in the activity history data. Note that the activity determination unit 53 can also determine the type of activity performed by the user by detecting the type of activity selected by the user from a list of activity candidates via the user interface screen.

動画属性設定部54は、ユーザによるアクティビティの種類に応じた動画の属性(注目点の位置(緯度、経度、高度)、視点の移動速度、視点の高度、視点の方位(視線が向く方位)、視点の水平アングル(俯角)、各種イベント時の動作等)を設定する。本実施形態においては、アクティビティの種類と、そのアクティビティの種類に対応する動画の属性とがテーブル形式のデータ(以下、「動画属性テーブル」と称する。)として予め設定されている。そして、動画属性設定部54は、アクティビティの種類に対応する動画の属性を動画属性テーブルから読み出すことにより、動画の属性を設定する。 The video attribute setting unit 54 sets video attributes (position of the focus point (latitude, longitude, altitude), viewpoint movement speed, viewpoint altitude, viewpoint direction (direction of line of sight), viewpoint horizontal angle (depression angle), actions during various events, etc.) according to the type of activity performed by the user. In this embodiment, the type of activity and the video attributes corresponding to that type of activity are set in advance as table-format data (hereinafter referred to as a "video attribute table"). The video attribute setting unit 54 then sets the video attributes by reading the video attributes corresponding to the type of activity from the video attribute table.

図5は、動画属性テーブルの一例を示す模式図である。
図5に示すように、動画属性テーブルには、アクティビティの種類と、そのアクティビティの種類に対応する動画の属性とが対応付けて格納されている。
本実施形態においては、アクティビティの種類として、登山、ロードバイク(サイクリング)、スキー/スノーボード、パドルボード、サーフィン、オフロードバイクが定義されている。
FIG. 5 is a schematic diagram showing an example of a video attribute table.
As shown in FIG. 5, the video attribute table stores types of activities and attributes of videos corresponding to the types of activities in association with each other.
In this embodiment, mountain climbing, road biking (cycling), skiing/snowboarding, paddle boarding, surfing, and off-road biking are defined as activity types.

一般的な例として、登山における移動は、時速1~3[km/h]、標高0~8000[m]、移動距離15[km]程度である。また、ロードバイクにおける移動は、時速10~60[km/h]、移動距離は長距離(20[km]以上程度)である。また、スキー/スノーボードにおける移動は、時速20~50[km/h]、1回の移動距離は短距離(10[km]以下程度)である。また、パドルボードにおける移動は、時速2~10[km/h]、移動距離は不定である。また、サーフィンにおける移動は、時速10~40[km/h]、1回の移動距離は100[m]以下程度である。また、オフロードバイクにおける移動は、時速20~100[km/h]、移動距離は不定である。 As a general example, when climbing mountains, the speed is 1-3 km/h, the altitude is 0-8000 m, and the distance traveled is about 15 km. When riding a road bike, the speed is 10-60 km/h, and the distance traveled is long (about 20 km or more). When skiing/snowboarding, the speed is 20-50 km/h, and the distance traveled in one go is short (about 10 km or less). When paddleboarding, the speed is 2-10 km/h, and the distance traveled is indefinite. When surfing, the speed is 10-40 km/h, and the distance traveled in one go is about 100 m or less. When off-road biking, the speed is 20-100 km/h, and the distance traveled is indefinite.

これらの特徴に鑑み、本実施形態においては、動画の属性として、注目点の位置(緯度、経度、高度)、視点の移動速度、視点の高度、視点の方位(視線が向く方位)、視点の水平アングル(俯角)、各種イベント時の動作(例えば、特定地点で一時停止するか否か、一時停止した場合のズームアップまたは急降下、あるいは、一時停止した場合の停止時間)等が含まれており、アクティビティの種類に応じた数値やアクションが定義されている。 In consideration of these characteristics, in this embodiment, video attributes include the position of the focus point (latitude, longitude, altitude), viewpoint movement speed, viewpoint altitude, viewpoint direction (direction the line of sight is facing), viewpoint horizontal angle (depression angle), and actions during various events (for example, whether to pause at a specific point, zooming in or diving when paused, or stopping time when paused), and values and actions are defined according to the type of activity.

例えば、注目点の位置に関しては、動画における仮想的なカメラの撮影対象位置として、アクティビティの移動履歴における各位置または選択された特定の位置を定義することができる。
また、視点の移動速度に関しては、アクティビティにおける実際の移動速度の定数倍の移動速度または選択された特定の速度を定義したり、全工程を予め設定された時間(例えば3分等)で移動する速度として定義したりすることができる。
また、視点の高度に関しては、登山やトレッキングであれば、移動範囲を広く見渡せる視点の高さを定義したり、ロードバイク(サイクリング)であれば、自転車のスピード感を表現できる視点の高さ(即ち、登山やトレッキングよりも低い視点の高さ)を定義したりすることができる。
For example, regarding the position of the point of interest, each position in the movement history of the activity or a selected specific position can be defined as a target position for shooting a virtual camera in a video.
Furthermore, the speed of movement of the viewpoint can be defined as a constant multiple of the actual movement speed in the activity or a specific selected speed, or it can be defined as the speed at which the entire process is moved in a preset time (e.g., 3 minutes).
Regarding the altitude of the viewpoint, in the case of mountain climbing or trekking, a viewpoint height that allows a wide view of the range of movement can be defined, and in the case of road biking (cycling), a viewpoint height that allows the sense of speed of the bicycle can be defined (i.e., a viewpoint height that is lower than that of mountain climbing or trekking).

また、視点の方位に関しては、アクティビティの種類に応じて、注目点を表示する際に視線(動画における仮想的なカメラの撮影方向)が向く方位を定義することができる。
また、視点の水平アングルに関しては、アクティビティの種類に応じた俯角を定義することができ、例えば、登山やトレッキングであれば、比較的大きい俯角(真下を見下ろす場合に近い角度)を定義したり、ロードバイク(サイクリング)であれば、比較的小さい俯角(進行方向を見る場合に近い角度)を定義したりすることができる。
As for the viewpoint direction, the direction in which the line of sight (the shooting direction of a virtual camera in a video) faces when displaying a point of interest can be defined according to the type of activity.
Regarding the horizontal angle of view, a depression angle can be defined according to the type of activity. For example, for mountain climbing or trekking, a relatively large depression angle (an angle similar to looking straight down) can be defined, while for road biking (cycling), a relatively small depression angle (an angle similar to looking in the direction of travel) can be defined.

各種イベント時の動作に関しては、例えば、写真を撮影した地点での動作は、登山やトレッキングであれば、比較的長い時間(例えば3秒等)、移動を一時停止し、撮影地点に一時的にズームアップする動作の後、撮影した写真の画像をポップアップで表示したり、ロードバイクであれば、比較的短い時間(例えば1.5秒)、移動を一時停止し、撮影地点にズームアップすることなく、撮影した写真の画像をポップアップで表示したりすることができる。また、例えば、ユーザが発話を入力(リスト端末10に音声を入力)した地点での動作は、登山やトレッキングであれば、比較的長い時間(例えば3秒等)、移動速度を低下させ、発話した音声のテキストデータを吹き出し(バルーン)形式で表示したり、ロードバイクであれば、比較的短い時間(例えば1.5秒)、移動速度を低下させ、発話した音声のテキストデータを吹き出し(バルーン)形式で表示したりすることができる。その他、スタート地点やゴール地点、あるいは、ユーザが手動操作でアクティビティの終了後に履歴のデータの特定地点に追加したコメント等に関しては、マーカーとその地点に関するコメントを含むテキストボックスをポップアップで表示したりすることができ、その表示形態をアクティビティの種類に応じて異ならせることができる。 Regarding the actions during various events, for example, the action at the point where a photo was taken, in the case of mountain climbing or trekking, is to temporarily stop moving for a relatively long time (e.g., 3 seconds, etc.), temporarily zoom in on the shooting location, and then display the image of the taken photo in a pop-up, or in the case of road biking, is to temporarily stop moving for a relatively short time (e.g., 1.5 seconds), and display the image of the taken photo in a pop-up without zooming in on the shooting location. Also, for example, the action at the point where the user inputs an utterance (inputs voice into the wrist terminal 10), in the case of mountain climbing or trekking, is to slow down the moving speed for a relatively long time (e.g., 3 seconds, etc.), and display the text data of the uttered voice in a speech bubble (balloon), or in the case of road biking, is to slow down the moving speed for a relatively short time (e.g., 1.5 seconds), and display the text data of the uttered voice in a speech bubble (balloon). In addition, for the start and finish points, or comments that the user manually adds to specific points in the history data after completing an activity, a text box containing a marker and a comment about that point can be displayed in a pop-up, and the display format can be varied depending on the type of activity.

パラメータ補正受付部55は、動画属性設定部54によって設定された動画の属性を表すパラメータに対して、ユーザによる補正の操作を受け付ける。例えば、パラメータ補正受付部55は、動画属性設定部54によって設定された移動速度、視点の高度あるいは視点の水平アングル等について、ユーザの操作に応じて、パラメータを変更する。 The parameter correction receiving unit 55 receives a user's correction operation for the parameters representing the attributes of the video set by the video attribute setting unit 54. For example, the parameter correction receiving unit 55 changes parameters, such as the movement speed, viewpoint altitude, or horizontal angle of the viewpoint, set by the video attribute setting unit 54, in response to a user's operation.

構造化データ生成部56は、ユーザのアクティビティの履歴のデータについて、位置情報出力用構造化データを生成する指示が入力された場合に、そのアクティビティの履歴のデータに設定されている動画の属性に基づいて、アクティビティにおける移動履歴(位置情報)のデータと、その移動履歴に関連するコンテンツとを表示するための位置情報出力用構造化データを生成する。本実施形態において、移動履歴に関連するコンテンツは、記憶領域のアドレスを入力すること等により、ユーザが手動で関連付けたコンテンツであるものとする。 When an instruction to generate structured data for outputting location information for data of a user's activity history is input, the structured data generation unit 56 generates structured data for outputting location information for displaying data of the movement history (location information) in the activity and content related to the movement history, based on the video attributes set in the data of the activity history. In this embodiment, the content related to the movement history is content that the user has manually associated by inputting the address of a storage area, etc.

図6は、位置情報出力用構造化データの一例を示す模式図である。
図6に示すように、位置情報出力用構造化データは、タグによって構造が定義された構造化文書として構成され、位置情報の出力を想定した各種タグが定義されている。このような構造化文書は、例えば、XML(eXtensible Markup Language)形式で記述することができ、視点を設定するタグやイベント時の動作を定義するタグ等、位置情報の出力に有効な各種タグを定義することができる。
本実施形態において、位置情報出力用構造化データは、図6に示すように、機能毎にまとめられた複数のブロックによって構成される。一例として、位置情報出力用構造化データは、各種スタイルを定義するブロック、軌跡の線の描画を定義するブロック、マーカー類の描画を定義するブロック、動画の表示を定義するブロック等を含んでいる。
FIG. 6 is a schematic diagram showing an example of structured data for outputting position information.
As shown in Fig. 6, the structured data for outputting position information is configured as a structured document whose structure is defined by tags, and various tags are defined assuming the output of position information. Such a structured document can be written in, for example, XML (extensible Markup Language) format, and various tags effective for outputting position information, such as a tag for setting a viewpoint and a tag for defining an action at the time of an event, can be defined.
In this embodiment, the structured data for outputting position information is composed of a plurality of blocks grouped by function, as shown in Fig. 6. As an example, the structured data for outputting position information includes a block for defining various styles, a block for defining the drawing of trajectory lines, a block for defining the drawing of markers, a block for defining the display of videos, and the like.

各種スタイルを定義するブロックは、動画の表示における各種要素のスタイルを定義するものであり、例えば、動画の表示における要素としてのマーカーの画像が格納されたURL、マーカーの大きさ、あるいは、マーカーの透明度等が定義される。
軌跡の線の描画を定義するブロックは、動画に表示される軌跡の描画を定義するものであり、ユーザの移動履歴を表す複数の座標が、移動の時系列順に連続的に定義されている。また、軌跡の線の描画を定義するブロックには、軌跡の線幅や線色が定義されている。
The blocks that define various styles define the style of various elements in the display of the video, such as the URL where the image of a marker as an element in the display of the video is stored, the size of the marker, or the transparency of the marker.
The block that defines the drawing of the trajectory line defines the drawing of the trajectory displayed in the video, and defines multiple coordinates that represent the user's movement history consecutively in the chronological order of the movement. In addition, the block that defines the drawing of the trajectory line defines the line width and line color of the trajectory.

マーカー類の描画を定義するブロックは、軌跡に対して表示するマーカー類の描画を定義するものであり、軌跡に付加して表示するマーカー、発話した音声のテキストデータ、写真に関する情報、スタート位置及びゴール位置に関する情報等について、移動軌跡における表示位置及び対応する時刻(写真の撮影時刻等)、適用するスタイル、描画するコンテンツ(写真等)の実体が格納されたURL等が定義される。 The block that defines the drawing of markers defines the drawing of markers to be displayed on the trajectory, and defines the markers to be added to the trajectory, text data of spoken voice, information about the photo, information about the start position and goal position, etc., the display position on the movement trajectory and the corresponding time (such as the time the photo was taken), the style to be applied, the URL where the actual content to be drawn (such as a photo) is stored, etc.

動画の表示を定義するブロックは、動画の演出を定義するものであり、動画におけるマーカー類の表示あるいは消去の動作(各種演出を含む動作)、注目点の位置(緯度、経度、高度)、視点の移動速度、視点の高度、視点の水平アングル、高度の基準(海抜高度等)が定義されている。動画の表示においては、定義された各視点の位置に、定義された視点の速度で順次移動しながら、注目点の位置を、定義された視点の高度及び水平アングル等から視認した風景(地図情報)が表示される。 The block that defines the video display defines the video's presentation, and defines the operation of displaying or erasing markers in the video (operations including various presentations), the position of the point of interest (latitude, longitude, altitude), viewpoint movement speed, viewpoint altitude, horizontal angle of the viewpoint, and altitude reference (altitude above sea level, etc.). When displaying the video, the view (map information) of the position of the point of interest as viewed from the defined viewpoint altitude, horizontal angle, etc. is displayed while moving sequentially to each defined viewpoint position at the defined viewpoint speed.

構造化データ登録部57は、構造化データ生成部56によって生成された位置情報出力用構造化データを、スマートフォン30を介してクラウドストレージサーバ50にアップロードする。 The structured data registration unit 57 uploads the structured data for outputting location information generated by the structured data generation unit 56 to the cloud storage server 50 via the smartphone 30.

図7は、図3の情報処理装置200によって構成される地図情報提供サーバ40の機能的構成のうち、構造化データ解析処理を実行するための機能的構成を示す機能ブロック図である。
構造化データ解析処理とは、位置情報出力用構造化データを解釈し、その位置情報出力用構造化データに記述されている視点の位置を時系列に移動しながら地図情報及び関連するコンテンツ等を表示する一連の処理である。
FIG. 7 is a functional block diagram showing a functional configuration for executing structured data analysis processing, among the functional configurations of the map information providing server 40 constituted by the information processing device 200 of FIG.
The structured data analysis process is a series of processes that interpret structured data for outputting location information and display map information and related content, etc., while moving the viewpoint position described in the structured data for outputting location information in chronological order.

構造化データ解析処理が実行される場合には、図7に示すように、CPU211において、構造化データ受信部151と、構造化データ実行部152と、コンテンツ取得部153と、が機能する。 When the structured data analysis process is executed, as shown in FIG. 7, the structured data receiving unit 151, the structured data executing unit 152, and the content acquisition unit 153 function in the CPU 211.

構造化データ受信部151は、PC60から処理対象の位置情報出力用構造化データを受信する。
構造化データ実行部152は、構造化データ受信部151によって受信された位置情報出力用構造化データを解釈し、関連するコンテンツのアドレス(クラウドストレージサーバ50における記憶領域のURL(Uniform Resource Locator)等)を特定する。構造化データ実行部152は、コンテンツ取得部153を介して、特定したアドレスから関連するコンテンツを取得する。そして、構造化データ実行部152は、位置情報出力用構造化データを実行し、その位置情報出力用構造化データに記述されている視点の位置を時系列に移動しながら地図情報及び関連するコンテンツ等を表示するための動画のデータを生成する。このとき、位置情報出力用構造化データには、アクティビティの種類に応じた動画の属性が記述されていることから、生成される動画のデータは、アクティビティに応じた適切な表示形態を有する動画となる。そして、構造化データ実行部152は、生成した動画のデータを、位置情報出力用構造化データを送信したPC60に送信する。
コンテンツ取得部153は、構造化データ実行部152が位置情報出力用構造化データを解釈することにより特定した関連するコンテンツのアドレスから、各種コンテンツを取得する。
The structured data receiving unit 151 receives structured data for outputting position information to be processed from the PC 60 .
The structured data execution unit 152 interprets the structured data for outputting location information received by the structured data reception unit 151, and specifies the address of the related content (such as the URL (Uniform Resource Locator) of the storage area in the cloud storage server 50). The structured data execution unit 152 acquires the related content from the specified address via the content acquisition unit 153. The structured data execution unit 152 then executes the structured data for outputting location information, and generates video data for displaying map information and related content, etc., while moving the position of the viewpoint described in the structured data for outputting location information in chronological order. At this time, since the structured data for outputting location information describes the attributes of the video according to the type of activity, the generated video data has a display form appropriate to the activity. The structured data execution unit 152 then transmits the generated video data to the PC 60 that transmitted the structured data for outputting location information.
The content acquisition unit 153 acquires various contents from the addresses of the related contents identified by the structured data execution unit 152 by interpreting the structured data for outputting position information.

図8は、図3の情報処理装置200によって構成されるクラウドストレージサーバ50の機能的構成のうち、ストレージサービス処理を実行するための機能的構成を示す機能ブロック図である。
ストレージサービス処理とは、リスト端末10から送信された位置情報出力用構造化データや、撮影装置20から送信された画像のデータ等、ユーザによってアップロードされた各種データをユーザと対応付けて記憶すると共に、地図情報提供サーバ40等の他の装置からの要求に応じて、記憶している各種データを提供する一連の処理である。
FIG. 8 is a functional block diagram showing a functional configuration for executing storage service processing, among the functional configurations of the cloud storage server 50 constituted by the information processing device 200 of FIG.
The storage service processing is a series of processes for storing various data uploaded by the user, such as structured data for outputting location information sent from the wrist terminal 10 and image data sent from the photographing device 20, in association with the user, and for providing the various stored data in response to requests from other devices, such as the map information providing server 40.

ストレージサービス処理が実行される場合には、図8に示すように、CPU211において、構造化データ受信部251と、構造化データ送信部252と、コンテンツ受信部253と、コンテンツ送信部254と、データ管理部255と、が機能する。
また、記憶部218の一領域には、構造化データ記憶部271と、関連コンテンツ記憶部272と、が設定される。
構造化データ記憶部271には、ユーザによってアップロードされた位置情報出力用構造化データがユーザの識別情報と対応付けて記憶される。
関連コンテンツ記憶部272には、ユーザによってアップロードされた各種コンテンツのデータがユーザの識別情報と対応付けて記憶される。
When storage service processing is executed, as shown in FIG. 8, a structured data receiving unit 251, a structured data transmitting unit 252, a content receiving unit 253, a content transmitting unit 254, and a data management unit 255 function in the CPU 211.
In addition, a structured data storage section 271 and a related content storage section 272 are set in one area of the storage section 218 .
The structured data storage unit 271 stores structured data for outputting position information uploaded by a user in association with the user's identification information.
The related content storage unit 272 stores data of various contents uploaded by users in association with the user's identification information.

構造化データ受信部251は、スマートフォン30等の他の装置から送信された位置情報出力用構造化データを受信し、受信した位置情報出力用構造化データを、送信したユーザの識別情報と共にデータ管理部255に出力する。
構造化データ送信部252は、スマートフォン30等の他の装置から位置情報出力用構造化データの送信要求を受信した場合に、受信した送信要求をデータ管理部255に出力する。構造化データの送信要求には、ユーザの識別情報と、送信が要求される構造化データの識別情報とが含まれている。そして、構造化データ送信部252は、データ管理部255から、送信要求に対応する位置情報出力用構造化データが入力されると、入力された位置情報出力用構造化データを、送信を要求した装置に送信する。
The structured data receiving unit 251 receives structured data for outputting location information transmitted from another device such as the smartphone 30, and outputs the received structured data for outputting location information to the data management unit 255 together with the identification information of the user who transmitted it.
When the structured data transmission unit 252 receives a transmission request for structured data for outputting location information from another device such as the smartphone 30, the structured data transmission unit 252 outputs the received transmission request to the data management unit 255. The transmission request for structured data includes the user's identification information and the identification information of the structured data requested to be transmitted. Then, when the structured data transmission unit 252 receives structured data for outputting location information corresponding to the transmission request from the data management unit 255, the structured data transmission unit 252 transmits the input structured data for outputting location information to the device that requested the transmission.

コンテンツ受信部253は、スマートフォン30等の他の装置から送信されたコンテンツを受信し、受信したコンテンツを、送信したユーザの識別情報と共にデータ管理部255に出力する。
コンテンツ送信部254は、PC60等の他の装置からコンテンツの送信要求を受信した場合に、受信した送信要求をデータ管理部255に出力する。コンテンツの送信要求には、ユーザの識別情報と、送信が要求されるコンテンツの識別情報とが含まれている。そして、構造化データ送信部252は、データ管理部255から、送信要求に対応するコンテンツが入力されると、入力されたコンテンツを、送信要求の送信元である装置に送信する。
The content receiving unit 253 receives content transmitted from another device such as the smartphone 30, and outputs the received content to the data management unit 255 together with the identification information of the user who transmitted the content.
When the content transmission unit 254 receives a content transmission request from another device such as the PC 60, it outputs the received transmission request to the data management unit 255. The content transmission request includes the user's identification information and the identification information of the content requested to be transmitted. When the structured data transmission unit 252 receives the content corresponding to the transmission request from the data management unit 255, it transmits the input content to the device that has sent the transmission request.

データ管理部255は、構造化データ受信部251から、位置情報出力用構造化データ及び送信したユーザの識別情報が入力されると、位置情報出力用構造化データとユーザの識別情報とを対応付けて、構造化データ記憶部271に記憶する。また、データ管理部255は、構造化データ送信部252から、位置情報出力用構造化データの送信要求が入力されると、構造化データ記憶部271から、送信要求に示されるユーザの識別情報と対応付けられた位置情報出力用構造化データを読み出し、構造化データ送信部252に出力する。 When the data management unit 255 receives structured data for outputting location information and the identification information of the user who sent it from the structured data receiving unit 251, the data management unit 255 associates the structured data for outputting location information with the user's identification information and stores them in the structured data storage unit 271. Furthermore, when the data management unit 255 receives a request to send structured data for outputting location information from the structured data sending unit 252, it reads out, from the structured data storage unit 271, the structured data for outputting location information that is associated with the user's identification information indicated in the request to send, and outputs it to the structured data sending unit 252.

また、データ管理部255は、コンテンツ受信部253から、コンテンツ及び送信したユーザの識別情報が入力されると、コンテンツとユーザの識別情報とを対応付けて、関連コンテンツ記憶部272に記憶する。また、データ管理部255は、コンテンツ送信部254から、コンテンツの送信要求が入力されると、関連コンテンツ記憶部272から、送信要求に示されるユーザの識別情報と対応付けられたコンテンツを読み出し、コンテンツ送信部254に出力する。 When the data management unit 255 receives content and the identification information of the user who sent it from the content receiving unit 253, the data management unit 255 associates the content with the user's identification information and stores them in the related content storage unit 272. When the data management unit 255 receives a content transmission request from the content transmission unit 254, the data management unit 255 reads out the content associated with the user's identification information indicated in the transmission request from the related content storage unit 272, and outputs it to the content transmission unit 254.

図9は、図3の情報処理装置200によって構成されるPC60の機能的構成のうち、動画再生処理を実行するための機能的構成を示す機能ブロック図である。
動画再生処理とは、ユーザの指示に応じて、位置情報出力用構造化データに基づく動画を再生する一連の処理である。
FIG. 9 is a functional block diagram showing a functional configuration for executing a video playback process, among the functional configurations of the PC 60 constituted by the information processing device 200 of FIG.
The video playback process is a series of processes for playing back a video based on structured data for outputting position information in response to a user instruction.

動画再生処理が実行される場合には、図9に示すように、CPU211において、構造化データ取得部351と、動画再生依頼部352と、動画再生部353と、が機能する。
また、記憶部218の一領域には、構造化データ記憶部371が設定される。
構造化データ記憶部371には、動画の再生対象となる位置情報出力用構造化データが記憶される。
When the video playback process is executed, as shown in FIG. 9, a structured data acquisition unit 351, a video playback request unit 352, and a video playback unit 353 function in the CPU 211.
In addition, a structured data storage section 371 is set in one area of the storage section 218 .
The structured data storage unit 371 stores structured data for outputting position information that is to be the subject of video playback.

構造化データ取得部351は、ユーザによって動画の再生が指示された位置情報出力用構造化データの送信要求を、クラウドストレージサーバ50に送信する。そして、構造化データ取得部351は、クラウドストレージサーバ50から、送信要求に対応する位置情報出力用構造化データを受信し、受信した位置情報出力用構造化データを構造化データ記憶部371に記憶する。 The structured data acquisition unit 351 transmits a request to the cloud storage server 50 to transmit structured data for outputting location information in response to a video playback instruction issued by the user. The structured data acquisition unit 351 then receives structured data for outputting location information corresponding to the transmission request from the cloud storage server 50, and stores the received structured data for outputting location information in the structured data storage unit 371.

動画再生依頼部352は、ユーザによって動画の再生が指示された位置情報出力用構造化データと共に、動画の再生依頼を地図情報提供サーバ40に送信する。
動画再生部353は、地図情報提供サーバ40から送信される位置情報出力用構造化データに基づく動画のデータを受信し、出力部217のディスプレイで再生する。
The video playback request unit 352 transmits a request to play the video to the map information providing server 40 together with the structured data for outputting position information for which playback of the video has been instructed by the user.
The video playback unit 353 receives video data based on the structured data for position information output transmitted from the map information providing server 40 , and plays the data on the display of the output unit 217 .

[具体的表示例]
図10は、アクティビティの履歴のデータの一例を示す模式図である。
図10に示す例では、アクティビティとして登山を行った場合の履歴のデータ全体が示されており、移動履歴の軌跡における位置P1~P6には、各種マーカーが付加されている。なお、図10における破線の太線は、移動履歴における軌跡を表している(図11~13において同様である)。
例えば、位置P1におけるマーカーは、スタート位置を表すマーカーであり、「登山スタート 10:40:00」のテキストが表示されている。また、位置P2におけるマーカーは、ユーザによって追加されたコメントのテキストを表すマーカーであり、「コメント 10:46:45」のテキストが表示されている。また、位置P3におけるマーカーは、ユーザが発話により入力したコメントが音声認識されたテキストを表すマーカーであり、「発話 12:36:54」のテキストが表示されている。また、位置P4におけるマーカーは、写真が撮影された位置を表すマーカーであり、「写真 13:04:22」のテキストが表示されている。また、位置P5におけるマーカーは、写真が撮影された位置を表すマーカーであり、「写真 13:48:04」のテキストが表示されている。また、位置P6におけるマーカーは、ゴール位置を表すマーカーであり、「登山ゴール 14:28:47」のテキストが表示されている。
[Specific display examples]
FIG. 10 is a schematic diagram showing an example of activity history data.
In the example shown in Fig. 10, the entire data of the history of a case where mountain climbing was performed as an activity is shown, and various markers are added to positions P1 to P6 on the trajectory of the movement history. Note that the thick dashed lines in Fig. 10 represent the trajectory in the movement history (similarly in Figs. 11 to 13).
For example, the marker at position P1 is a marker representing a start position, and displays the text "Start of mountain climbing 10:40:00". The marker at position P2 is a marker representing the text of a comment added by a user, and displays the text "Comment 10:46:45". The marker at position P3 is a marker representing the text of a comment input by a user through speech recognition, and displays the text "Speech 12:36:54". The marker at position P4 is a marker representing a position where a photo was taken, and displays the text "Photo 13:04:22". The marker at position P5 is a marker representing a position where a photo was taken, and displays the text "Photo 13:48:04". The marker at position P6 is a marker representing a goal position, and displays the text "Goal of mountain climbing 14:28:47".

このようなアクティビティの履歴のデータは、リスト端末10によって、アクティビティの種類に応じた動画の属性が設定された位置情報出力用構造化データとされ、地図情報提供サーバ40によって解釈・実行されることにより、アクティビティの種類に応じた適切な表示形態の動画とされる。 Such activity history data is converted by the wrist terminal 10 into structured data for outputting location information, in which video attributes according to the type of activity are set, and is interpreted and executed by the map information providing server 40 to produce a video in an appropriate display format according to the type of activity.

図11は、図10に示すアクティビティの履歴のデータが動画とされた場合の表示例を示す模式図である。
図11において、破線の丸印は注目点の位置を示している。なお、注目点を示す丸印は、注目点の位置を模式的に示すために示されているが、本実施形態において、実際の動画には表示されない。ただし、移動するアイコン等を表示することにより、注目点の位置を明示的に示すこととしてもよい。
FIG. 11 is a schematic diagram showing a display example in which the data of the activity history shown in FIG. 10 is displayed as a video.
In Fig. 11, a dotted circle indicates the position of the attention point. Note that the circle indicating the attention point is shown to show the position of the attention point in a schematic manner, but is not displayed in the actual video in this embodiment. However, the position of the attention point may be explicitly shown by displaying a moving icon or the like.

図11に示すように、図10に示す登山の履歴のデータが動画とされた場合、スタート位置から、注目点の位置を逐次移動させつつ、比較的広い範囲を見渡せる高度に設定された視点が移動履歴を辿る表示形態となる。
そして、注目点が、移動履歴の軌跡におけるイベントが設定された位置に到達すると、設定されているイベントの動作が実行される。
As shown in Figure 11, when the data of the mountain climbing history shown in Figure 10 is made into a video, the position of the focus point is moved sequentially from the starting position, and a viewpoint set at a high altitude that overlooks a relatively wide range is displayed in a manner that traces the movement history.
When the attention point reaches a position on the trajectory of the movement history where an event is set, the action of the set event is executed.

図12は、写真が撮影された位置P4における写真撮影のイベントの動作を示す模式図である。
図12において、写真が撮影された位置P4に注目点が到達した場合、比較的長い時間(例えば3秒等)、視点及び注目点の移動が一時停止される。そして、撮影地点(位置P4)に一時的にズームアップされた後、撮影された写真の画像がポップアップで表示される。
FIG. 12 is a schematic diagram showing the operation of a photography event at position P4 where the photograph was taken.
12, when the attention point reaches the position P4 where the photograph was taken, the movement of the viewpoint and attention point is temporarily stopped for a relatively long time (e.g., 3 seconds, etc.) Then, after the photographing point (position P4) is temporarily zoomed in, the image of the photograph is displayed in a pop-up.

図13は、位置P4において、撮影された写真の画像がポップアップで表示された状態を示す模式図である。
なお、図13に示す例では、撮影された写真と共に、ユーザによって入力されたコメントを示すテキストが表示されている。
FIG. 13 is a schematic diagram showing a state in which an image of a photograph taken at position P4 is displayed in a pop-up.
In the example shown in FIG. 13, text indicating a comment entered by the user is displayed together with the captured photograph.

図13に示すように、写真が撮影された位置P4に注目点が到達した場合、比較的長い時間(例えば3秒等)、視点及び注目点の移動が一時停止された後、撮影地点にズームアップされ、撮影地点付近が拡大された画像が表示される。そして、位置P4に関連付けられている写真を含むポップアップが所定時間表示される。その後、ポップアップの表示が消去され、ズームアップされた状態から元の視点の位置に復帰し、動画の表示が継続される。 As shown in FIG. 13, when the point of interest reaches position P4 where the photograph was taken, movement of the viewpoint and point of interest is paused for a relatively long time (e.g., 3 seconds), and then the image is zoomed in on the photographed location and a magnified image of the area around the photographed location is displayed. Then, a pop-up containing the photograph associated with position P4 is displayed for a predetermined time. After that, the pop-up display is cleared, and the image returns from the zoomed-in state to the original viewpoint position, and the video display continues.

図13に示す例では、写真を含むポップアップが移動履歴の軌跡と重ならないように表示されている。そのため、移動履歴の軌跡におけるいずれの位置に対応する写真であるかを容易に把握することができる。なお、位置P4に関連付けられている写真をより大きいサイズあるいは画面全体に表示することとしてもよい。この場合、位置P4に関連付けられている写真をより視認し易い形態で表示することができる。 In the example shown in FIG. 13, the pop-up containing the photo is displayed so as not to overlap with the movement history trajectory. This makes it easy to understand which position in the movement history trajectory the photo corresponds to. Note that the photo associated with position P4 may be displayed in a larger size or across the entire screen. In this case, the photo associated with position P4 can be displayed in a form that is easier to view.

[動作]
次に、情報処理システム1の動作を説明する。
[履歴記録処理]
図14は、図4の機能的構成を有するリスト端末10が実行する履歴記録処理の流れを説明するフローチャートである。
履歴記録処理は、入力部119を介して履歴記録処理の開始を指示する操作が行われることにより開始される。
[Action]
Next, the operation of the information processing system 1 will be described.
[History Recording Process]
FIG. 14 is a flowchart illustrating the flow of a history recording process executed by the wrist terminal 10 having the functional configuration of FIG.
The history recording process is started when an operation to instruct the start of the history recording process is performed via the input unit 119 .

ステップS1において、UI表示制御部51は、ユーザが情報を入出力するためのユーザインターフェースの画面を表示する。
ステップS2において、UI表示制御部51は、履歴記録処理の対象となるアクティビティの種類の入力を受け付ける。このとき、UI表示制御部51は、複数種類のアクティビティの候補一覧を表示し、ユーザによるアクティビティの選択を受け付ける。
In step S1, the UI display control unit 51 displays a user interface screen for the user to input and output information.
In step S2, the UI display control unit 51 receives an input of the type of activity to be the target of the history recording process. At this time, the UI display control unit 51 displays a list of multiple types of activity candidates and receives the user's selection of an activity.

ステップS3において、履歴取得部52は、GPS受信部116によって検出される位置(緯度、経度、高度)及び現在時刻を取得する。
ステップS4において、履歴取得部52は、履歴記録処理の終了が指示されたか否かの判定を行う。
履歴記録処理の終了が指示されていない場合、ステップS4においてNOと判定されて、処理はステップS3に移行する。
一方、履歴記録処理の終了が指示された場合、ステップS4においてYESと判定されて、処理はステップS5に移行する。
In step S3, the history acquisition unit 52 acquires the position (latitude, longitude, altitude) and the current time detected by the GPS receiving unit 116.
In step S4, the history acquisition unit 52 determines whether or not an instruction to end the history recording process has been issued.
If the end of the history recording process has not been instructed, the result of the determination in step S4 is NO, and the process proceeds to step S3.
On the other hand, if an instruction to end the history recording process is given, a YES determination is made in step S4, and the process proceeds to step S5.

ステップS5において、履歴取得部52は、取得した一連の位置のデータを取得された時刻と対応付けて、ユーザの移動履歴として、履歴データ記憶部71に記憶する。なお、このとき記憶されるユーザの移動履歴には、ステップS2において受け付けられたアクティビティの種類のデータが含まれている。
ステップS5の後、履歴記録処理は終了となる。
In step S5, the history acquisition unit 52 associates the acquired series of position data with the acquisition time, and stores the data as the user's movement history in the history data storage unit 71. Note that the user's movement history stored at this time includes the data on the type of activity accepted in step S2.
After step S5, the history recording process ends.

[構造化データ生成処理]
図15は、図4の機能的構成を有するリスト端末10が実行する構造化データ生成処理の流れを説明するフローチャートである。
構造化データ生成処理は、入力部119を介して構造化データ生成処理の開始を指示する操作が行われることにより開始される。
[Structured data generation process]
FIG. 15 is a flowchart illustrating the flow of a structured data generation process executed by the wrist terminal 10 having the functional configuration of FIG.
The structured data generation process is started when an operation to instruct the start of the structured data generation process is performed via input unit 119 .

ステップS11において、UI表示制御部51は、構造化データ生成処理の対象となるアクティビティの履歴のデータの選択を受け付ける。
ステップS12において、アクティビティ判定部53は、アクティビティの履歴のデータに含まれるアクティビティの種類のデータに基づいて、ユーザが行ったアクティビティの種類を判定する。
In step S11, the UI display control unit 51 accepts the selection of data of the history of the activity to be subjected to the structured data generation process.
In step S12, the activity determination unit 53 determines the type of activity performed by the user based on the data on the type of activity included in the activity history data.

ステップS13において、動画属性設定部54は、ユーザによるアクティビティの種類に応じた動画の属性(注目点の位置(緯度、経度、高度)、視点の移動速度、視点の高度、視点の方位(視線が向く方位)、視点の水平アングル(俯角)、各種イベント時の動作等)を設定する。このとき、動画属性設定部54は、アクティビティの種類に対応する動画の属性を動画属性テーブルから読み出すことにより、動画の属性を設定する。
ステップS14において、パラメータ補正受付部55は、動画属性設定部54によって設定された動画の属性を表すパラメータに対して、ユーザによる補正の操作を受け付ける。
In step S13, the video attribute setting unit 54 sets video attributes (position of the focus point (latitude, longitude, altitude), viewpoint movement speed, viewpoint altitude, viewpoint direction (direction the line of sight is facing), viewpoint horizontal angle (depression angle), actions during various events, etc.) according to the type of activity performed by the user. At this time, the video attribute setting unit 54 sets the video attributes by reading the video attributes corresponding to the type of activity from the video attribute table.
In step S 14 , the parameter correction receiving unit 55 receives a user's operation for correcting the parameters representing the attributes of the moving image set by the moving image attribute setting unit 54 .

ステップS15において、構造化データ生成部56は、アクティビティの履歴のデータに設定されている動画の属性に基づいて、アクティビティにおける移動履歴(位置情報)のデータと、その移動履歴に関連するコンテンツとを表示するための位置情報出力用構造化データを生成する。
ステップS16において、構造化データ登録部57は、構造化データ生成部56によって生成された位置情報出力用構造化データを、スマートフォン30を介してクラウドストレージサーバ50にアップロードする。
ステップS16の後、構造化データ解析処理は終了となる。
In step S15, the structured data generation unit 56 generates structured data for outputting location information based on the attributes of the video set in the activity history data, for displaying data on the movement history (location information) in the activity and content related to the movement history.
In step S<b>16 , the structured data registration unit 57 uploads the structured data for outputting position information generated by the structured data generation unit 56 to the cloud storage server 50 via the smartphone 30 .
After step S16, the structured data analysis process ends.

[構造化データ解析処理]
図16は、図7の機能的構成を有する地図情報提供サーバ40が実行する構造化データ解析処理の流れを説明するフローチャートである。
構造化データ解析処理は、入力部216あるいは通信部219を介して構造化データ解析処理の開始を指示する操作が行われることにより開始される。
[Structured Data Analysis Processing]
FIG. 16 is a flowchart illustrating the flow of structured data analysis processing executed by the map information providing server 40 having the functional configuration of FIG.
The structured data analysis process is started when an operation to instruct the start of the structured data analysis process is performed via the input unit 216 or the communication unit 219 .

ステップS21において、構造化データ受信部151は、動画の再生依頼と共に、PC60から処理対象の位置情報出力用構造化データを受信する。
ステップS22において、構造化データ実行部152は、構造化データ受信部151によって受信された位置情報出力用構造化データを解釈する。これにより、関連するコンテンツのアドレス(クラウドストレージサーバ50における記憶領域のURL等)が特定される。
In step S21, the structured data receiving unit 151 receives the structured data for outputting position information to be processed from the PC 60 together with a request to play back a moving image.
In step S22, the structured data execution unit 152 interprets the structured data for outputting location information received by the structured data reception unit 151. This identifies the address of the related content (such as the URL of the storage area in the cloud storage server 50).

ステップS23において、コンテンツ取得部153は、構造化データ実行部152が位置情報出力用構造化データを解釈することにより特定した関連するコンテンツのアドレスから、各種コンテンツを取得し、取得したコンテンツを構造化データ実行部152に出力する。
ステップS24において、構造化データ実行部152は、位置情報出力用構造化データを実行する。これにより、その位置情報出力用構造化データに記述されている視点の位置を時系列に移動しながら地図情報及び関連するコンテンツ等を表示するための動画のデータが生成される。
In step S23, the content acquisition unit 153 acquires various contents from the addresses of the related content identified by the structured data execution unit 152 by interpreting the structured data for outputting location information, and outputs the acquired content to the structured data execution unit 152.
In step S24, the structured data execution unit 152 executes the structured data for outputting positional information, thereby generating video data for displaying map information and related content while moving the viewpoint position described in the structured data for outputting positional information in chronological order.

ステップS25において、構造化データ実行部152は、生成した動画のデータを、位置情報出力用構造化データの送信元であるPC60に送信する。
なお、構造化データ実行部152が動画のデータをPC60に送信する場合、生成された動画のデータ全体を一括して送信したり、動画のデータを小サイズの部分データに分割して送信したりすることのいずれも可能である。
ステップS25の後、構造化データ解析処理が繰り返される。
In step S25, the structured data execution unit 152 transmits the generated video data to the PC 60 which is the transmission source of the structured data for outputting position information.
In addition, when the structured data execution unit 152 transmits video data to the PC 60, it is possible to either transmit the entire generated video data all at once, or to divide the video data into small partial data and transmit them.
After step S25, the structured data analysis process is repeated.

[ストレージサービス処理]
図17は、図8の機能的構成を有するクラウドストレージサーバ50が実行するストレージサービス処理の流れを説明するフローチャートである。
ストレージサービス処理は、入力部216あるいは通信部219を介してストレージサービス処理の開始を指示する操作が行われることにより開始される。
[Storage service processing]
FIG. 17 is a flowchart illustrating the flow of a storage service process executed by the cloud storage server 50 having the functional configuration of FIG.
The storage service process is started when an operation to instruct the start of the storage service process is performed via the input unit 216 or the communication unit 219 .

ステップS31において、構造化データ受信部251は、位置情報出力用構造化データを受信したか否かの判定を行う。
位置情報出力用構造化データを受信していない場合、ステップS31においてNOと判定されて、処理はステップS33に移行する。
一方、位置情報出力用構造化データを受信した場合、ステップS31においてYESと判定されて、処理はステップS32に移行する。
In step S31, the structured data receiving unit 251 determines whether or not structured data for outputting position information has been received.
If the structured data for outputting position information has not been received, the result of the determination in step S31 is NO, and the process proceeds to step S33.
On the other hand, if structured data for outputting position information has been received, a YES determination is made in step S31, and the process proceeds to step S32.

ステップS32において、データ管理部255は、構造化データ受信部251によって受信された位置情報出力用構造化データを、送信したユーザの識別情報と対応付けて構造化データ記憶部271に記憶する。
ステップS33において、構造化データ送信部252は、位置情報出力用構造化データの送信要求を受信したか否かの判定を行う。位置情報出力用構造化データの送信要求には、ユーザの識別情報と、送信が要求される位置情報出力用構造化データの識別情報とが含まれている。
In step S32, the data management unit 255 stores the structured data for outputting position information received by the structured data receiving unit 251 in the structured data storage unit 271 in association with the identification information of the user who transmitted the structured data.
In step S33, the structured data transmission unit 252 determines whether or not a transmission request for structured data for outputting location information has been received. The transmission request for structured data for outputting location information includes the user's identification information and the identification information of the structured data for outputting location information that is requested to be transmitted.

位置情報出力用構造化データの送信要求を受信していない場合、ステップS33においてNOと判定されて、処理はステップS36に移行する。
位置情報出力用構造化データの送信要求を受信した場合、ステップS33においてYESと判定されて、処理はステップS34に移行する。
ステップS34において、データ管理部255は、構造化データ記憶部271から、送信要求に示されるユーザの識別情報と対応付けられた位置情報出力用構造化データの中から、送信要求に示される識別情報に対応する位置情報出力用構造化データを読み出す。
If a request for transmitting structured data for outputting position information has not been received, the result of the determination in step S33 is NO, and the process proceeds to step S36.
If a request for transmitting structured data for outputting position information has been received, a YES determination is made in step S33, and the process proceeds to step S34.
In step S34, the data management unit 255 reads out from the structured data storage unit 271, from among the structured data for outputting location information associated with the user identification information indicated in the transmission request, the structured data for outputting location information that corresponds to the identification information indicated in the transmission request.

ステップS35において、構造化データ送信部252は、読み出された位置情報出力用構造化データを、送信要求の送信元である装置に送信する。
ステップS36において、コンテンツ受信部253は、コンテンツを受信したか否かの判定を行う。
コンテンツを受信していない場合、ステップS36においてNOと判定されて、処理はステップS38に移行する。
一方、コンテンツを受信した場合、ステップS36においてYESと判定されて、処理はステップS37に移行する。
In step S35, the structured data transmission unit 252 transmits the read structured data for outputting position information to the device that is the source of the transmission request.
In step S36, the content receiving unit 253 determines whether or not the content has been received.
If the content has not been received, the result of the determination in step S36 is NO, and the process proceeds to step S38.
On the other hand, if the content has been received, the determination in step S36 is YES, and the process proceeds to step S37.

ステップS37において、データ管理部255は、コンテンツ受信部253によって受信されたコンテンツを、送信したユーザの識別情報と対応付けて関連コンテンツ記憶部272に記憶する。
ステップS38において、コンテンツ送信部254は、コンテンツの送信要求を受信したか否かの判定を行う。コンテンツの送信要求には、ユーザの識別情報と、送信が要求されるコンテンツの識別情報とが含まれている。
コンテンツの送信要求を受信していない場合、ステップS38においてNOと判定されて、ストレージサービス処理が繰り返される。
コンテンツの送信要求を受信した場合、ステップS38においてYESと判定されて、処理はステップS39に移行する。
In step S37, the data management section 255 stores the content received by the content receiving section 253 in the related content storage section 272 in association with the identification information of the user who transmitted the content.
In step S38, the content transmission unit 254 determines whether or not a content transmission request has been received. The content transmission request includes user identification information and identification information of the content that is requested to be transmitted.
If a content transmission request has not been received, the result of step S38 is NO, and the storage service process is repeated.
If a content transmission request has been received, then a YES determination is made in step S38, and the process proceeds to step S39.

ステップS39において、データ管理部255は、関連コンテンツ記憶部272から、送信要求に示されるユーザの識別情報と対応付けられたコンテンツの中から、送信要求に示される識別情報に対応するコンテンツを読み出す。
ステップS40において、コンテンツ送信部254は、読み出されたコンテンツを、送信要求の送信元である装置に送信する。
ステップS40の後、ストレージサービス処理が繰り返される。
In step S39, the data management unit 255 reads out from the related content storage unit 272 the content corresponding to the identification information indicated in the transmission request from the content associated with the user identification information indicated in the transmission request.
In step S40, the content transmission unit 254 transmits the read content to the device that has sent the transmission request.
After step S40, the storage service process is repeated.

[動画再生処理]
図18は、図9の機能的構成を有するPC60が実行する動画再生処理の流れを説明するフローチャートである。
動画再生処理は、入力部119を介して動画再生処理の開始を指示する操作が行われることにより開始される。
[Video playback processing]
FIG. 18 is a flowchart illustrating the flow of a video playback process executed by the PC 60 having the functional configuration of FIG.
The video playback process is started when an operation to instruct the start of the video playback process is performed via the input unit 119 .

ステップS51において、構造化データ取得部351は、ユーザによって動画の再生が指示された位置情報出力用構造化データの送信要求を、クラウドストレージサーバ50に送信することにより、位置情報出力用構造化データを取得する。取得された位置情報出力用構造化データは、構造化データ記憶部371に記憶される。
ステップS52において、動画再生依頼部352は、ユーザによって動画の再生が指示された位置情報出力用構造化データと共に、動画の再生依頼を地図情報提供サーバ40に送信する。
In step S51, the structured data acquisition unit 351 acquires the structured data for outputting location information by transmitting a request for transmitting the structured data for outputting location information instructed by the user to play a video to the cloud storage server 50. The acquired structured data for outputting location information is stored in the structured data storage unit 371.
In step S52, the video playback request unit 352 transmits a request to play the video to the map information providing server 40 together with the structured data for outputting position information for which playback of the video has been instructed by the user.

ステップS53において、動画再生部353は、地図情報提供サーバ40から送信される位置情報出力用構造化データに基づく動画のデータを受信する。
ステップS54において、動画再生部353は、受信した動画のデータを出力部217のディスプレイで再生する。
ステップS54の後、動画再生処理は終了となる。
In step S53, the video playback unit 353 receives data of a video based on the structured data for outputting position information transmitted from the map information providing server 40.
In step S54, the video playback unit 353 plays the received video data on the display of the output unit 217.
After step S54, the video playback process ends.

このような処理により、情報処理システム1においては、アクティビティにおける履歴のデータから、アクティビティの種類に応じて設定されている動画の属性に基づいて、位置情報出力用構造化データが自動的に生成される。
そして、地図情報提供サーバ40によって、位置情報出力用構造化データを基に、ユーザの移動軌跡を辿って地図上を移動する動画のデータが生成される。このとき生成される動画のデータには、マーカー、写真、コメント等、移動履歴の各位置に関連するコンテンツが含まれており、これらのコンテンツ及び動画は、アクティビティの種類に適した表示形態で表示される。
そのため、ユーザが移動履歴のデータに対して、手動で動画の属性を設定して位置情報出力用構造化データを生成することは極めて煩雑であるところ、移動軌跡を辿る動画の演出を簡単に設定することができる。
即ち、動画の移動軌跡の再生時に多様な情報を付加した表示を行うことが可能となる。
Through such processing, in the information processing system 1, structured data for outputting position information is automatically generated from the data of the history of the activity, based on the attributes of the video that are set according to the type of activity.
Then, based on the structured data for outputting position information, the map information providing server 40 generates data of a video that traces the user's movement trajectory and moves on the map. The video data generated at this time includes content related to each position in the movement history, such as markers, photos, comments, etc., and these contents and videos are displayed in a display form suitable for the type of activity.
Therefore, while it is extremely cumbersome for a user to manually set video attributes for movement history data and generate structured data for outputting location information, the presenter can easily set up the presentation of a video that follows the movement trajectory.
That is, it is possible to display a variety of additional information when playing back the moving image trajectory.

[変形例1]
上述の実施形態において、位置情報出力用構造化データに対して動画の属性を設定する場合、アクティビティの種類に対応して予め設定されている動画の属性を自動的に設定するものとしたが、これに限られない。
例えば、移動軌跡における所定の情報の大きさ、変化度または変化率等に基づいて、動画の属性を設定することとしてもよい。一例として、移動履歴における滞在時間、画像の撮像枚数、撮像画像のサイズ(容量)、コメントの数、センサ情報の大きさ、変化度または変化率(最も温度が高い、最も標高が高い、風速が大きい、心拍数の変化率等)に応じて、それらに対応する位置での動画の属性を設定することができる。
これにより、ユーザの移動履歴における特徴的な位置を動画において識別可能に表示することができる。
[Modification 1]
In the above-described embodiment, when setting video attributes for structured data for outputting location information, video attributes that are preset in accordance with the type of activity are automatically set, but this is not limited to this.
For example, the attributes of a video may be set based on the magnitude, degree of change, or rate of change of predetermined information in a movement trajectory, etc. As an example, the attributes of a video at a position corresponding to the duration of stay in the movement history, the number of captured images, the size (volume) of the captured images, the number of comments, the magnitude of sensor information, the degree of change, or rate of change (highest temperature, highest altitude, fastest wind speed, rate of change in heart rate, etc.) can be set.
This makes it possible to display characteristic positions in the user's movement history in a identifiable manner in the video.

[変形例2]
上述の実施形態において、位置情報出力用構造化データに対してユーザが手動で動画の属性を設定する場合、設定の対象とする位置にカテゴリ(評価情報)を設定することにより、動画の属性を設定するようにしてもよい。この場合、例えば、位置の重要度等を表すランクとしてカテゴリを設定し、各カテゴリに対応する動画の属性を予め設定しておく。そして、いずれかのカテゴリが所定位置に設定された場合、その所定位置における動画の属性として、そのカテゴリに対応する動画の属性が設定される。
これにより、ユーザが手動で動画の属性を設定する場合にも、より簡単な操作で動画の属性を設定することが可能となる。
[Modification 2]
In the above-described embodiment, when a user manually sets attributes of a video for structured data for outputting positional information, the attributes of the video may be set by setting a category (evaluation information) for the position to be set. In this case, for example, categories are set as ranks representing the importance of the position, and video attributes corresponding to each category are set in advance. Then, when any category is set for a specific position, the attributes of the video corresponding to that category are set as the attributes of the video at that specific position.
This allows the user to manually set the attributes of a moving image with a simpler operation.

[変形例3]
上述の実施形態において、移動履歴に関連するコンテンツは、記憶領域のアドレスを入力すること等により、ユーザが手動で関連付けたコンテンツであるものとして説明したが、これに限られない。
即ち、移動履歴にコンテンツを関連付ける場合、関連付けの方法として種々の形態を取ることができる。
一例として、リスト端末10を撮影装置20のリモートコントローラとして機能させることができ、この場合、リスト端末10が撮影装置20からライブビュー画像を受信して表示することができる。そして、ユーザによって、リスト端末10において画像を保存する指示または撮影装置20に対する撮影の指示が行われた場合に、リスト端末10は、ライブビュー画像に基づく画像(サムネイル画像等)を記録する。すると、ライブビュー画像に基づく画像の記録日時に基づいて、移動履歴の特定の位置と、記録されたライブビュー画像とを対応付けることが可能となる。
[Modification 3]
In the above embodiment, the content related to the movement history is described as being content that is manually associated by the user by inputting the address of a storage area, etc., but this is not limited thereto.
That is, when associating a movement history with a content, the association method can take various forms.
As an example, the wrist terminal 10 can function as a remote controller for the photographing device 20. In this case, the wrist terminal 10 can receive and display a live view image from the photographing device 20. When a user instructs the wrist terminal 10 to save an image or instructs the photographing device 20 to take a picture, the wrist terminal 10 records an image (such as a thumbnail image) based on the live view image. Then, based on the recording date and time of the image based on the live view image, it becomes possible to associate a specific position in the movement history with the recorded live view image.

また、他の例として、撮影装置20に対する撮影の指示が行われた場合に、撮影装置20からリスト端末10に対して、撮影の実行を示す情報を送信すること等により、リスト端末10において撮影装置20における撮影の実行を検出することができる。リスト端末10は、撮影の実行日時を移動履歴と対応付けて記録しておく。そして、位置情報出力用構造化データが生成される場合、リスト端末10は、所定の記憶領域等に記憶されている画像の撮影日時と、移動履歴と対応付けられている撮影の実行日時とを照合することにより、画像を特定して関連付けることができる。 As another example, when an instruction to capture an image is given to the imaging device 20, the imaging device 20 can transmit information indicating the capture of an image to the wrist terminal 10, thereby making it possible for the wrist terminal 10 to detect the capture of an image on the imaging device 20. The wrist terminal 10 records the capture date and time in association with the movement history. Then, when structured data for outputting position information is generated, the wrist terminal 10 can identify and associate the image by comparing the capture date and time of the image stored in a specified memory area or the like with the capture date and time associated with the movement history.

また、さらに他の例として、リスト端末10が、移動履歴の日時及び位置と、所定の記憶領域等に記憶された写真の撮影日時や撮影位置とを照合し、日時や位置が合致するコンテンツを、移動履歴と自動的に関連付けることができる。
なお、写真以外のコンテンツも、これらの形態で移動履歴と対応付けることができる。
これにより、ユーザは、移動履歴とコンテンツとを手動で関連付けることなく、簡単に適切なコンテンツを移動履歴と対応付けることが可能となる。
As yet another example, the wrist terminal 10 can compare the date, time, and location of the movement history with the shooting date, time, and location of a photograph stored in a specified memory area, etc., and automatically associate content with matching date, time, and location with the movement history.
Content other than photographs can also be associated with movement history in these forms.
This enables the user to easily associate appropriate content with the movement history without having to manually associate the movement history with the content.

[変形例4]
上述の実施形態において、移動履歴を辿る動画が表示される場合、アクティビティの履歴のデータに関連するコンテンツを、各コンテンツに設定された動画の属性に基づいて表示するものとしたが、これに限られない。
例えば、同一の位置または近接する位置(例えば、数十メートル以内程度)に複数のコンテンツが関連付けられている場合、設定されている動画の属性に対して補正を加え、複数のコンテンツ全体として、より適切な表示が行われるようにしてもよい。
一例として、登山において、同一の位置(例えば、山頂)に複数の写真が対応付けられている場合、いずれかの写真を選択して表示し、他の写真を表示しないようにしたり、各写真の表示時間を短縮して表示したりすることができる。
また、所定位置への滞在時間に応じて、その位置にマーカーを自動的に設定する場合等には、単位時間あたりの行動半径が閾値未満であれば、その位置へのマーカーの設定を回避するよう制御すること等が可能である。
[Modification 4]
In the above-described embodiment, when a video tracing a movement history is displayed, content related to the activity history data is displayed based on the video attributes set for each content, but this is not limited to this.
For example, when multiple pieces of content are associated with the same location or nearby locations (e.g., within a few tens of meters), corrections may be made to the attributes of the video that have been set so that the multiple pieces of content as a whole can be displayed more appropriately.
As an example, when mountain climbing, if multiple photos are associated with the same location (e.g., the summit), one of the photos can be selected and displayed, while the other photos can be hidden, or the display time of each photo can be shortened.
In addition, when automatically setting a marker at a specific location depending on the time spent at that location, it is possible to control the system to avoid setting a marker at that location if the action radius per unit time is less than a threshold value.

以上のように構成されるリスト端末10は、構造化データ生成部56を備える。
構造化データ生成部56は、移動軌跡における所定位置に関連する関連情報と、移動軌跡を辿る動画の表示制御情報と、移動軌跡を表す移動軌跡情報とに基づいて、地図情報として提供される地図表示内において移動軌跡を辿る動画の表示を定義する構造化データを生成する。
移動軌跡は、ユーザにおける所定の行動の履歴に対応する移動軌跡である。
構造化データ生成部56は、ユーザにおける所定の行動の内容に応じて、表示制御情報に動画を表示させるように、構造化データを生成する。
これにより、構造化データを実行することで、表示制御情報に従って、移動軌跡に対する関連情報を表示しながら、行動の履歴に対応する移動軌跡を辿る動画を表示することが可能となる。
したがって、移動軌跡の再生時に多様な情報を付加した表示を行うことが可能となる。
The wrist terminal 10 configured as above includes a structured data generating unit 56 .
The structured data generation unit 56 generates structured data that defines the display of a video that follows the movement trajectory within a map display provided as map information, based on associated information related to a specified position on the movement trajectory, display control information of a video that follows the movement trajectory, and movement trajectory information that represents the movement trajectory.
The movement trajectory corresponds to the history of a predetermined action of the user.
The structured data generating unit 56 generates structured data so as to display a video in the display control information in accordance with the content of a predetermined action of the user.
This makes it possible to display a video that follows a movement trajectory corresponding to a behavior history while displaying information related to the movement trajectory in accordance with the display control information by executing the structured data.
Therefore, when the movement trajectory is reproduced, it is possible to display the movement trajectory with various information added thereto.

構造化データ生成部56は、移動軌跡における所定位置に関連する関連情報を、移動軌跡情報における所定位置に対応付けると共に、表示制御情報に基づく表示形態で、移動軌跡を辿る動画における所定位置での関連情報の表示を定義した構造化データを生成する。
これにより、移動軌跡における所定位置で、その位置に関連する情報を所定の表示制御に従って表示する演出を行いつつ、移動軌跡を辿る動画を表示することができる。
The structured data generation unit 56 associates related information relating to a specified position in the movement trajectory with the specified position in the movement trajectory information, and generates structured data that defines the display of the related information at a specified position in the video tracing the movement trajectory in a display form based on the display control information.
This makes it possible to display a video that follows the movement trajectory while providing an effect in which information related to a given position on the movement trajectory is displayed in accordance with a given display control.

構造化データには、注目点の位置、視点に関する情報、及び、予め設定されたイベント時の動作の少なくともいずれかが定義されている。
これにより、移動軌跡を辿る多様な形態の動画を定義することができる。
The structured data defines at least one of the position of the attention point, information about the viewpoint, and an action at the time of a preset event.
This makes it possible to define various types of moving images that follow a movement trajectory.

構造化データ生成部56は、ユーザにおける所定の行動の種類に応じて、表示制御情報に動画を表示させるように、構造化データを生成する。
これにより、ユーザが行った行動の種類に応じて、適切な表示形態で移動軌跡を辿る動画を表示することが可能となる。
The structured data generating unit 56 generates structured data so as to display a video in the display control information in accordance with the type of a predetermined action of the user.
This makes it possible to display a moving image tracing a movement trajectory in an appropriate display form according to the type of action performed by the user.

構造化データ生成部56は、ユーザにおける所定の行動の内容に応じて、表示制御情報を変化させて、構造化データを生成する。
これにより、ユーザが行った行動の内容に応じて、適切な表示形態で移動軌跡を辿る動画となるように表示制御情報を変化させることが可能となる。
The structured data generating unit 56 changes the display control information in accordance with the content of a predetermined action of the user, and generates structured data.
This makes it possible to change the display control information so that a moving image tracing a movement trajectory is displayed in an appropriate manner in accordance with the content of the action performed by the user.

表示制御情報は、関連情報の表示時間、表示サイズの変化、表示における表現方法の少なくともいずれかを制御する情報を含む。
これにより、多様な表示形態で、関連情報を表示することが可能となる。
The display control information includes information for controlling at least one of the display time of the related information, the change in the display size, and the expression method in display.
This makes it possible to display related information in a variety of display formats.

また、リスト端末10は、パラメータ補正受付部55を備える。
パラメータ補正受付部55は、表示制御情報を補正する。
これにより、設定された表示制御情報をユーザの要求等に応じて補正することが可能となる。
The wrist terminal 10 also includes a parameter correction receiving unit 55 .
The parameter correction receiving unit 55 corrects the display control information.
This makes it possible to correct the set display control information in accordance with a user request or the like.

構造化データ生成部56は、予め設定されている表示制御情報を自動で取得する、または、ユーザによって入力された表示制御情報を取得する。
これにより、ユーザによる入力の手間を省略して表示制御情報を設定したり、ユーザの要求に応じて柔軟に表示制御情報を設定したりすることが可能となる。
The structured data generating unit 56 automatically acquires preset display control information, or acquires display control information input by the user.
This makes it possible to set the display control information without the user having to make any input, and to set the display control information flexibly in response to the user's request.

構造化データ生成部56は、移動軌跡における所定の情報の大きさ、変化度または変化率の少なくともいずれかに基づいて、表示制御情報を設定する。
これにより、移動軌跡における特徴的な位置を動画において識別可能に表示することが可能となる。
The structured data generating unit 56 sets the display control information based on at least one of the size, degree of change, and rate of change of predetermined information in the movement trajectory.
This makes it possible to display characteristic positions on the movement trajectory in a identifiable manner in the video.

表示制御情報は、所定のカテゴリに分類され、分類されたカテゴリ毎に制御内容が決定されている。
構造化データ生成部56は、移動軌跡に対して設定されたカテゴリに基づいて、移動軌跡を辿る動画の表示形態を設定する。
これにより、ユーザが手動で表示制御情報を設定する場合にも、より簡単な操作で設定することが可能となる。
The display control information is classified into predetermined categories, and the control content is determined for each classified category.
The structured data generating unit 56 sets the display form of the video that follows the movement trajectory based on the category set for the movement trajectory.
This allows the user to manually set the display control information with a simpler operation.

構造化データ生成部56は、移動軌跡に重なることがないように、関連情報を表示する構造化データを生成する。
これにより、移動軌跡におけるいずれの位置に対応する関連情報であるかを容易に把握することができる。
The structured data generating unit 56 generates structured data that displays related information so as not to overlap with the movement trajectory.
This makes it easy to know which position on the movement trajectory the associated information corresponds to.

関連情報は、撮像された画像、他の装置から取得された画像、コメント、マーカー、センサからの情報を含む。
これにより、多様な関連情報を移動軌跡と関連付けて表示することが可能となる。
The associated information includes captured images, images acquired from other devices, comments, markers, and information from sensors.
This makes it possible to display a variety of related information in association with the movement trajectory.

また、以上のように構成される地図情報提供サーバ40は、構造化データ実行部152を備える。
構造化データ実行部152は、移動軌跡における所定位置に関連する関連情報と、移動軌跡を辿る動画の表示制御情報と、移動軌跡を表す移動軌跡情報とに基づいて作成された、地図情報として提供される地図表示内において移動軌跡を辿る動画の表示が定義された構造化データを実行する。
移動軌跡は、ユーザにおける所定の行動の履歴に対応する移動軌跡である。
構造化データ実行部152は、ユーザにおける前記所定の行動の内容に応じて、表示制御情報に従って動画を実行する。
これにより、表示制御情報に従って、移動軌跡に対する関連情報を表示しながら、行動の履歴に対応する移動軌跡を辿る動画を表示することが可能となる。
したがって、移動軌跡の再生時に多様な情報を付加した表示を行うことが可能となる。
The map information providing server 40 configured as above further includes a structured data execution unit 152 .
The structured data execution unit 152 executes structured data that defines the display of a video that follows a movement trajectory within a map display provided as map information, the structured data being created based on associated information related to a specific position on the movement trajectory, display control information for the video that follows the movement trajectory, and movement trajectory information that represents the movement trajectory.
The movement trajectory corresponds to the history of a predetermined action of the user.
The structured data execution unit 152 executes the video in accordance with the display control information in response to the content of the predetermined action of the user.
This makes it possible to display a video that follows a movement trajectory corresponding to a behavior history while displaying information related to the movement trajectory in accordance with the display control information.
Therefore, when the movement trajectory is reproduced, it is possible to display the movement trajectory with various information added thereto.

また、以上のように構成されるPC60は、動画再生部353を備える。
動画再生部353は、移動軌跡における所定位置に関連する関連情報と、移動軌跡を辿る動画の表示制御情報と、移動軌跡を表す移動軌跡情報とに基づいて、地図情報として提供される地図表示内において移動軌跡を辿る動画の表示が定義された構造化データが実行された結果の動画データを取得して表示する。
移動軌跡は、ユーザにおける所定の行動の履歴に対応する移動軌跡である。
動画再生部353は、ユーザにおける所定の行動の内容に応じて、表示制御情報に従って実行された動画を表示する。
これにより、表示制御情報に従って、移動軌跡に対する関連情報を表示しながら、行動の履歴に対応する移動軌跡を辿る動画を表示することが可能となる。
したがって、移動軌跡の再生時に多様な情報を付加した表示を行うことが可能となる。
The PC 60 configured as above further includes a video playback unit 353 .
The video playback unit 353 acquires and displays video data resulting from the execution of structured data that defines the display of a video that follows the movement trajectory within a map display provided as map information, based on related information related to a specific position on the movement trajectory, display control information for the video that follows the movement trajectory, and movement trajectory information that represents the movement trajectory.
The movement trajectory corresponds to the history of a predetermined action of the user.
The video playback unit 353 displays the video executed according to the display control information in accordance with the content of a predetermined action by the user.
This makes it possible to display a video that follows a movement trajectory corresponding to a behavior history while displaying information related to the movement trajectory in accordance with the display control information.
Therefore, when the movement trajectory is reproduced, it is possible to display the movement trajectory with various information added thereto.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 The present invention is not limited to the above-described embodiment, and any modifications or improvements that achieve the object of the present invention are included in the present invention.

上述の実施形態では、撮影装置20は、アクティビティにおいて撮影を行った場合に、撮影した画像のデータを、スマートフォン30を介してクラウドストレージサーバ50にアップロードすることとしたが、これに限られない。即ち、撮影装置20によって撮影された画像のデータをPC60における動画再生処理に用いることができれば、撮影された画像をクラウドストレージサーバ50以外の装置に記憶しておくこととしてもよい。 In the above embodiment, when the image capturing device 20 captures images during an activity, the captured image data is uploaded to the cloud storage server 50 via the smartphone 30, but this is not limited to the above. In other words, if the image data captured by the image capturing device 20 can be used for video playback processing on the PC 60, the captured images may be stored in a device other than the cloud storage server 50.

また、上述の実施形態では、リスト端末10が移動履歴のデータの取得、及び、位置情報出力用構造化データの生成を行い、地図情報提供サーバ40が位置情報出力用構造化データの解釈・実行を行い、PC60が動画の再生を行うこととして説明したが、これに限られない。即ち、これらの処理を単一の情報処理装置で実行したり、複数の情報処理装置で任意に分担して実行したりすることが可能である。 In the above embodiment, the wrist terminal 10 acquires data on movement history and generates structured data for outputting location information, the map information providing server 40 interprets and executes the structured data for outputting location information, and the PC 60 plays videos, but this is not limited to the above. In other words, these processes can be executed by a single information processing device, or can be arbitrarily shared and executed by multiple information processing devices.

また、上述の実施形態において、移動履歴に関連するコンテンツとしては、撮像された画像(写真)、ネットワーク70等を介して他の装置から取得された画像、コメント、マーカー、センサによって検出された情報(気温、天気(湿度あるいは気圧等)、標高、風速、ユーザの生体情報(体温、心拍))の各種情報を対象とすることができる。 In addition, in the above-described embodiment, the content related to the movement history can include various types of information such as captured images (photographs), images acquired from other devices via the network 70, etc., comments, markers, and information detected by sensors (temperature, weather (humidity or air pressure, etc.), altitude, wind speed, and the user's biometric information (body temperature, heart rate)).

また、上述の実施形態において、コンテンツの演出形態としては、コンテンツの表示時間、表示サイズの変化、表示における表現方法(回転、点滅あるいは半透過表示等)を動画の属性において定義することができる。 In addition, in the above-described embodiment, the presentation format of the content can be defined in the video attributes, such as the display time of the content, changes in the display size, and the method of expression in the display (rotation, blinking, semi-transparent display, etc.).

また、上述の実施形態において生成される位置情報出力用構造化データは、例えば、KLM(Keyhole Markup Language)形式のデータとして出力することが可能である。 In addition, the structured data for outputting location information generated in the above-mentioned embodiment can be output, for example, as data in KLM (Keyhole Markup Language) format.

また、上述の実施形態では、本発明が適用される情報処理装置100,200は、リスト端末10、撮影装置20、スマートフォン30、地図情報提供サーバ40、クラウドストレージサーバ50、あるいは、PC60を例として説明したが、特にこれに限定されない。
例えば、本発明は、構造化データの生成処理機能、構造化データの解釈・実行機能、あるいは、構造化データに基づく動画の再生機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
In addition, in the above-described embodiment, the information processing devices 100, 200 to which the present invention is applied have been described as examples of a wrist terminal 10, a photographing device 20, a smartphone 30, a map information providing server 40, a cloud storage server 50, or a PC 60, but are not limited to these.
For example, the present invention can be applied to electronic devices in general that have a function of generating and processing structured data, a function of interpreting and executing structured data, or a function of playing videos based on structured data. Specifically, the present invention can be applied to notebook personal computers, printers, television receivers, video cameras, portable navigation devices, mobile phones, smartphones, portable game consoles, etc.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図4,7,9の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理装置100,200に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図4,7,9の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
The above-described series of processes can be executed by hardware or software.
In other words, the functional configurations of Figures 4, 7, and 9 are merely examples and are not particularly limited. That is, it is sufficient for the information processing devices 100 and 200 to have a function capable of executing the above-mentioned series of processes as a whole, and the type of functional block used to realize this function is not particularly limited to the examples of Figures 4, 7, and 9.
Furthermore, one functional block may be configured as a single piece of hardware, a single piece of software, or a combination of both.
The functional configuration in this embodiment is realized by a processor that executes arithmetic processing, and processors that can be used in this embodiment include those configured by various processing devices alone, such as a single processor, a multiprocessor, and a multicore processor, as well as those in which these various processing devices are combined with processing circuits, such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array).

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When the series of processes is executed by software, the program constituting the software is installed into a computer or the like from a network or a recording medium.
The computer may be a computer built into dedicated hardware, or may be a computer capable of executing various functions by installing various programs, such as a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図2,3のリムーバブルメディア131,231により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア131,231は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk),Blu-ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2,3のROM112,212や、図2,3の記憶部121,218に含まれるハードディスク等で構成される。 The recording medium containing such a program may be constituted not only by the removable media 131, 231 in Figs. 2 and 3 that are distributed separately from the device main body in order to provide the user with the program, but also by a recording medium provided to the user in a state in which it is pre-installed in the device main body. The removable media 131, 231 may be constituted, for example, by a magnetic disk (including a floppy disk), an optical disk, or a magneto-optical disk. The optical disk may be constituted, for example, by a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or a Blu-ray (registered trademark) Disc. The magneto-optical disk may be constituted, for example, by an MD (Mini-Disk). The recording medium provided to the user in a state where it is pre-installed in the device body is composed of, for example, the ROM 112, 212 in Figures 2 and 3 on which the program is recorded, or the hard disk included in the storage unit 121, 218 in Figures 2 and 3.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In this specification, the steps of describing a program to be recorded on a recording medium include not only processes that are performed chronologically according to the order, but also processes that are not necessarily performed chronologically but are executed in parallel or individually.
In addition, in this specification, the term "system" refers to an overall device that is composed of a plurality of devices, a plurality of means, etc.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described above, these embodiments are merely illustrative and do not limit the technical scope of the present invention. The present invention can take various other embodiments, and various modifications such as omissions and substitutions can be made without departing from the gist of the present invention. These embodiments and their modifications are included in the scope and gist of the invention described in this specification, etc., and are included in the scope of the invention described in the claims and their equivalents.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
移動軌跡における所定位置に関連する関連情報と、前記移動軌跡を辿る動画の表示制御情報と、前記移動軌跡を表す移動軌跡情報とに基づいて、地図情報として提供される地図表示内において前記移動軌跡を辿る前記動画の表示を定義する構造化データを生成する構造化データ生成手段を備え、
前記移動軌跡は、ユーザにおける所定の行動の履歴に対応する移動軌跡であり、
前記構造化データ生成手段は、ユーザにおける前記所定の行動の内容に応じて、前記表示制御情報に前記動画を表示させるように、前記構造化データを生成することを特徴とする情報処理装置。
[付記2]
前記構造化データ生成手段は、前記移動軌跡における所定位置に関連する関連情報を、前記移動軌跡情報における前記所定位置に対応付けると共に、前記表示制御情報に基づく表示形態で、前記移動軌跡を辿る動画における前記所定位置での前記関連情報の表示を定義した前記構造化データを生成することを特徴とする付記1に記載の情報処理装置。
[付記3]
前記構造化データには、注目点の位置、視点に関する情報、及び、予め設定されたイベント時の動作の少なくともいずれかが定義されていることを特徴とする付記1または2に記載の情報処理装置。
[付記4]
前記構造化データ生成手段は、ユーザにおける前記所定の行動の種類に応じて、前記表示制御情報に前記動画を表示させるように、前記構造化データを生成することを特徴とする付記1から3のいずれか1つに記載の情報処理装置。
[付記5]
前記構造化データ生成手段は、ユーザにおける前記所定の行動の内容に応じて、前記表示制御情報を変化させて、前記構造化データを生成することを特徴とする付記1から4のいずれか1つに記載の情報処理装置。
[付記6]
前記表示制御情報は、前記関連情報の表示時間、表示サイズの変化、表示における表現方法の少なくともいずれかを制御する情報を含むことを特徴とする付記1から5のいずれか1つに記載の情報処理装置。
[付記7]
前記表示制御情報を補正する補正手段を備えることを特徴とする付記1から6のいずれか1つに記載の情報処理装置。
[付記8]
前記構造化データ生成手段は、予め設定されている前記表示制御情報を自動で取得する、または、ユーザによって入力された前記表示制御情報を取得することを特徴とする付記1から7のいずれか1つに記載の情報処理装置。
[付記9]
前記構造化データ生成手段は、前記移動軌跡における所定の情報の大きさ、変化度または変化率の少なくともいずれかに基づいて、前記表示制御情報を設定することを特徴とする付記1から8のいずれか1つに記載の情報処理装置。
[付記10]
前記表示制御情報は、所定のカテゴリに分類され、分類されたカテゴリ毎に制御内容が決定されており、
前記構造化データ生成手段は、前記移動軌跡に対して設定された前記カテゴリに基づいて、前記移動軌跡を辿る動画の表示形態を設定することを特徴とする付記1から9のいずれか1つに記載の情報処理装置。
[付記11]
前記構造化データ生成手段は、前記移動軌跡に重なることがないように、前記関連情報を表示する前記構造化データを生成することを特徴とする付記1から10のいずれか1つに記載の情報処理装置。
[付記12]
前記関連情報は、撮像された画像、他の装置から取得された画像、コメント、マーカー、センサからの情報を含むことを特徴とする付記1から11のいずれか1つに記載の情報処理装置。
[付記13]
移動軌跡における所定位置に関連する関連情報と、前記移動軌跡を辿る動画の表示制御情報と、前記移動軌跡を表す移動軌跡情報とに基づいて作成された、地図情報として提供される地図表示内において前記移動軌跡を辿る前記動画の表示が定義された構造化データを実行する構造化データ実行手段を備え、
前記移動軌跡は、ユーザにおける所定の行動の履歴に対応する移動軌跡であり、
前記構造化データ実行手段は、ユーザにおける前記所定の行動の内容に応じて、前記表示制御情報に従って前記動画を実行することを特徴とする情報処理装置。
[付記14]
移動軌跡における所定位置に関連する関連情報と、前記移動軌跡を辿る動画の表示制御情報と、前記移動軌跡を表す移動軌跡情報とに基づいて、地図情報として提供される地図表示内において前記移動軌跡を辿る前記動画の表示が定義された構造化データが実行された結果の動画データを取得して表示する動画表示手段を備え、
前記移動軌跡は、ユーザにおける所定の行動の履歴に対応する移動軌跡であり、
前記動画表示手段は、ユーザにおける前記所定の行動の内容に応じて、前記表示制御情報に従って実行された前記動画を表示することを特徴とする情報処理装置。
[付記15]
移動軌跡における所定位置に関連する関連情報と、前記移動軌跡を辿る動画の表示制御情報と、前記移動軌跡を表す移動軌跡情報とに基づいて、地図情報として提供される地図表示内において前記移動軌跡を辿る前記動画の表示を定義する構造化データを生成する構造化データ生成ステップを含み、
前記移動軌跡は、ユーザにおける所定の行動の履歴に対応する移動軌跡であり、
前記構造化データ生成ステップでは、ユーザにおける前記所定の行動の内容に応じて、前記表示制御情報に前記動画を表示させるように、前記構造化データが生成されることを特徴とする情報処理方法。
[付記16]
移動軌跡における所定位置に関連する関連情報と、前記移動軌跡を辿る動画の表示制御情報と、前記移動軌跡を表す移動軌跡情報とに基づいて作成された、地図情報として提供される地図表示内において前記移動軌跡を辿る前記動画の表示が定義された構造化データを実行する構造化データ実行ステップを含み、
前記移動軌跡は、ユーザにおける所定の行動の履歴に対応する移動軌跡であり、
前記構造化データ実行ステップでは、ユーザにおける前記所定の行動の内容に応じて、前記表示制御情報に従って前記動画が実行されることを特徴とする情報処理方法。
[付記17]
移動軌跡における所定位置に関連する関連情報と、前記移動軌跡を辿る動画の表示制御情報と、前記移動軌跡を表す移動軌跡情報とに基づいて、地図情報として提供される地図表示内において前記移動軌跡を辿る前記動画の表示が定義された構造化データが実行された結果の動画データを取得して表示する動画表示ステップを含み、
前記移動軌跡は、ユーザにおける所定の行動の履歴に対応する移動軌跡であり、
前記動画表示ステップでは、ユーザにおける前記所定の行動の内容に応じて、前記表示制御情報に従って実行された前記動画が表示されることを特徴とする情報処理方法。
[付記18]
コンピュータに、
移動軌跡における所定位置に関連する関連情報と、前記移動軌跡を辿る動画の表示制御情報と、前記移動軌跡を表す移動軌跡情報とに基づいて、地図情報として提供される地図表示内において前記移動軌跡を辿る前記動画の表示を定義する構造化データを生成する構造化データ生成機能を実現させ、
前記移動軌跡は、ユーザにおける所定の行動の履歴に対応する移動軌跡であり、
前記構造化データ生成機能は、ユーザにおける前記所定の行動の内容に応じて、前記表示制御情報に前記動画を表示させるように、前記構造化データを生成することを特徴とするプログラム。
[付記19]
コンピュータに、
移動軌跡における所定位置に関連する関連情報と、前記移動軌跡を辿る動画の表示制御情報と、前記移動軌跡を表す移動軌跡情報とに基づいて作成された、地図情報として提供される地図表示内において前記移動軌跡を辿る前記動画の表示が定義された構造化データを実行する構造化データ実行機能を実現させ、
前記移動軌跡は、ユーザにおける所定の行動の履歴に対応する移動軌跡であり、
前記構造化データ実行機能は、ユーザにおける前記所定の行動の内容に応じて、前記表示制御情報に従って前記動画を実行することを特徴とするプログラム。
[付記20]
コンピュータに、
移動軌跡における所定位置に関連する関連情報と、前記移動軌跡を辿る動画の表示制御情報と、前記移動軌跡を表す移動軌跡情報とに基づいて、地図情報として提供される地図表示内において前記移動軌跡を辿る前記動画の表示が定義された構造化データが実行された結果の動画データを取得して表示する動画表示機能を実現させ、
前記移動軌跡は、ユーザにおける所定の行動の履歴に対応する移動軌跡であり、
前記動画表示機能は、ユーザにおける前記所定の行動の内容に応じて、前記表示制御情報に従って実行された前記動画を表示することを特徴とするプログラム。
The invention as described in the claims of the present application as originally filed is set forth below.
[Appendix 1]
a structured data generating means for generating structured data defining a display of the video tracing the movement trajectory within a map display provided as map information, based on related information relating to a predetermined position on the movement trajectory, display control information of the video tracing the movement trajectory, and movement trajectory information representing the movement trajectory;
the movement trajectory corresponds to a history of a predetermined action of the user,
The information processing device is characterized in that the structured data generation means generates the structured data so as to cause the video to be displayed in the display control information in accordance with the content of the predetermined action of the user.
[Appendix 2]
The information processing device described in Appendix 1, characterized in that the structured data generation means associates related information relating to a predetermined position in the movement trajectory with the predetermined position in the movement trajectory information, and generates the structured data that defines the display of the related information at the predetermined position in a video that follows the movement trajectory in a display form based on the display control information.
[Appendix 3]
3. The information processing device according to claim 1, wherein the structured data defines at least one of a position of a point of interest, information related to a viewpoint, and an action at the time of a preset event.
[Appendix 4]
The information processing device described in any one of appendices 1 to 3, characterized in that the structured data generation means generates the structured data so as to display the video in the display control information in accordance with the type of the specified behavior of the user.
[Appendix 5]
The information processing device according to any one of claims 1 to 4, wherein the structured data generation means generates the structured data by changing the display control information in accordance with the content of the specified action of the user.
[Appendix 6]
6. The information processing device according to claim 1, wherein the display control information includes information for controlling at least one of a display time, a change in display size, and a method of expression in display of the related information.
[Appendix 7]
7. The information processing device according to claim 1, further comprising a correction unit that corrects the display control information.
[Appendix 8]
The information processing device according to any one of claims 1 to 7, wherein the structured data generation means automatically acquires the display control information that has been set in advance, or acquires the display control information that has been input by a user.
[Appendix 9]
The information processing device described in any one of appendix 1 to 8, characterized in that the structured data generation means sets the display control information based on at least one of the size, degree of change, or rate of change of specified information in the movement trajectory.
[Appendix 10]
The display control information is classified into predetermined categories, and control content is determined for each of the classified categories,
The information processing device according to any one of claims 1 to 9, wherein the structured data generation means sets a display form of a video that follows the movement trajectory based on the category set for the movement trajectory.
[Appendix 11]
The information processing device according to any one of claims 1 to 10, wherein the structured data generation means generates the structured data that displays the related information so as not to overlap with the movement trajectory.
[Appendix 12]
12. The information processing device according to claim 1, wherein the related information includes captured images, images obtained from other devices, comments, markers, and information from sensors.
[Appendix 13]
a structured data execution means for executing structured data that defines a display of the video that follows the movement trajectory in a map display provided as map information, the structured data being created based on related information related to a predetermined position in the movement trajectory, display control information of the video that follows the movement trajectory, and movement trajectory information that represents the movement trajectory;
the movement trajectory corresponds to a history of a predetermined action of the user,
The information processing device, wherein the structured data execution means executes the video in accordance with the display control information in response to the content of the predetermined action of the user.
[Appendix 14]
a video display means for acquiring and displaying video data resulting from execution of structured data that defines display of the video that follows the movement trajectory within a map display provided as map information, based on related information related to a predetermined position on the movement trajectory, display control information for the video that follows the movement trajectory, and movement trajectory information that represents the movement trajectory;
the movement trajectory corresponds to a history of a predetermined action of the user,
The information processing apparatus, wherein the video display means displays the video executed according to the display control information in accordance with the content of the predetermined action of the user.
[Appendix 15]
a structured data generating step of generating structured data defining a display of the video following the movement trajectory within a map display provided as map information, based on related information related to a predetermined position on the movement trajectory, display control information of the video following the movement trajectory, and movement trajectory information representing the movement trajectory;
the movement trajectory corresponds to a history of a predetermined action of the user,
An information processing method characterized in that, in the structured data generation step, the structured data is generated so as to cause the video to be displayed in the display control information in accordance with the content of the specified action of the user.
[Appendix 16]
a structured data execution step of executing structured data that defines display of the video following the movement trajectory in a map display provided as map information, the structured data being created based on related information related to a predetermined position in the movement trajectory, display control information of the video following the movement trajectory, and movement trajectory information representing the movement trajectory;
the movement trajectory corresponds to a history of a predetermined action of the user,
The information processing method, wherein in the structured data executing step, the video is executed in accordance with the display control information in response to the content of the predetermined action of the user.
[Appendix 17]
a video display step of acquiring and displaying video data resulting from execution of structured data that defines display of the video that follows the movement trajectory within a map display provided as map information, based on related information related to a predetermined position on the movement trajectory, display control information of the video that follows the movement trajectory, and movement trajectory information that represents the movement trajectory;
the movement trajectory corresponds to a history of a predetermined action of the user,
The information processing method, wherein in the moving image display step, the moving image executed according to the display control information is displayed in accordance with the content of the predetermined action of the user.
[Appendix 18]
On the computer,
a structured data generation function that generates structured data that defines a display of the video that follows the movement trajectory within a map display provided as map information, based on related information related to a predetermined position on the movement trajectory, display control information of the video that follows the movement trajectory, and movement trajectory information that represents the movement trajectory;
the movement trajectory corresponds to a history of a predetermined action of the user,
The structured data generation function is a program characterized by generating the structured data so as to cause the video to be displayed in the display control information in accordance with the content of the specified action of the user.
[Appendix 19]
On the computer,
A structured data execution function is realized that executes structured data that defines the display of the video that follows the movement trajectory within a map display provided as map information, the structured data being created based on related information related to a predetermined position on the movement trajectory, display control information for the video that follows the movement trajectory, and movement trajectory information that represents the movement trajectory,
the movement trajectory corresponds to a history of a predetermined action of the user,
The structured data execution function is a program characterized in that the video is executed in accordance with the display control information depending on the content of the specified action of the user.
[Appendix 20]
On the computer,
a video display function is realized that acquires and displays video data resulting from execution of structured data that defines the display of the video that follows the movement trajectory within a map display provided as map information, based on related information related to a predetermined position on the movement trajectory, display control information for the video that follows the movement trajectory, and movement trajectory information that represents the movement trajectory;
the movement trajectory corresponds to a history of a predetermined action of the user,
The video display function is a program that displays the video executed according to the display control information in response to the content of the predetermined action of the user.

1・・・情報処理システム,10・・・リスト端末,20・・・撮影装置,30・・・スマートフォン,40・・・地図情報提供サーバ,50・・・クラウドストレージサーバ,60・・・PC,70・・・ネットワーク,111、211・・・CPU,112、212・・・ROM,113、213・・・RAM,114、214・・・バス,115、215・・・入出力インターフェース,116・・・GPS部,117・・・撮像部,118・・・センサ部,119、216・・・入力部,120、217・・・出力部,121、218・・・記憶部,122、219・・・通信部,123、220・・・ドライブ,131、231・・・リムーバブルメディア,51・・・ユーザインターフェース表示制御部(UI表示制御部),52・・・履歴取得部,53・・・アクティビティ判定部,54・・・動画属性設定部,55・・・パラメータ補正受付部,56・・・構造化データ生成部,57・・・構造化データ登録部,71・・・履歴データ記憶部,151,251・・・構造化データ受信部,152・・・構造化データ実行部,153・・・コンテンツ取得部,252・・・構造化データ送信部,253・・・コンテンツ受信部,254・・・コンテンツ送信部,255・・・データ管理部,271,371・・・構造化データ記憶部,272・・・関連コンテンツ記憶部,351・・・構造化データ取得部,352・・・動画再生依頼部,353・・・動画再生部 1: Information processing system, 10: Wrist terminal, 20: Photographing device, 30: Smartphone, 40: Map information providing server, 50: Cloud storage server, 60: PC, 70: Network, 111, 211: CPU, 112, 212: ROM, 113, 213: RAM, 114, 214: Bus, 115, 215: Input/output interface, 116: GPS unit, 117: Photographing unit, 118: Sensor unit, 119, 216: Input unit, 120, 217: Output unit, 121, 218: Memory unit, 122, 219: Communication unit, 123, 220: Drive, 131, 231: Removable media, 51: User interface Interface display control unit (UI display control unit), 52... history acquisition unit, 53... activity determination unit, 54... video attribute setting unit, 55... parameter correction reception unit, 56... structured data generation unit, 57... structured data registration unit, 71... history data storage unit, 151, 251... structured data reception unit, 152... structured data execution unit, 153... content acquisition unit, 252... structured data transmission unit, 253... content reception unit, 254... content transmission unit, 255... data management unit, 271, 371... structured data storage unit, 272... related content storage unit, 351... structured data acquisition unit, 352... video playback request unit, 353... video playback unit

Claims (12)

ユーザの移動履歴を含むアクティビティの履歴のデータと、前記アクティビティの種類に基づいて、地図情報として提供される地図表示内において前記移動履歴の軌跡と、前記移動履歴に関連するコンテンツとを表示するための構造化データを生成する構造化データ生成手段を備え、
前記構造化データは、前記移動履歴の軌跡における所定の位置に前記コンテンツの表示に関連するイベントが設定されるとともに、前記アクティビティの種類に基づいて、前記所定の位置における前記移動履歴の軌跡を辿る注目点の移動速度の変化時間又はズームアップの有無を含むイベント時の動作が設定されていることを特徴とする情報処理装置。
a structured data generating means for generating structured data for displaying a trajectory of the movement history and content related to the movement history within a map display provided as map information, based on data of a history of an activity including a movement history of a user and a type of the activity;
The structured data is an information processing device characterized in that an event related to the display of the content is set at a predetermined position on the trajectory of the movement history, and an operation at the time of the event, including a time of change in the movement speed of a point of interest tracing the trajectory of the movement history at the predetermined position or whether or not to zoom in, is set based on the type of activity.
前記構造化データ生成手段は、さらに前記アクティビティの種類に応じた動画の属性に基づいて、前記構造化データを生成することを特徴とする請求項1に記載の情報処理装置。 2 . The information processing apparatus according to claim 1 , wherein the structured data generating means generates the structured data based on attributes of a video according to the type of the activity. 前記構造化データ生成手段は、アクティビティの履歴のデータに含まれるアクティビティの種類のデータに基づいて、ユーザが行ったアクティビティの種類を判定し、前記アクティビティの種類に応じた前記動画の属性を設定することを特徴とする請求項に記載の情報処理装置。 The information processing device according to claim 2, characterized in that the structured data generation means determines the type of activity performed by the user based on data on the type of activity included in the activity history data, and sets attributes of the video according to the type of activity. 前記アクティビティの種類の入力を受け付けるアクティビティ受付手段をさらに備えることを特徴とする請求項1乃至のいずれか一項に記載の情報処理装置。 4. The information processing apparatus according to claim 1, further comprising an activity receiving unit that receives an input of the type of the activity. 前記動画の属性は、前記移動履歴の軌跡を辿る注目点の位置、視点に関する情報、及び、前記設定されたイベント時の動作の少なくともいずれかが定義されていることを特徴とする請求項に記載の情報処理装置。 4. The information processing device according to claim 3, wherein the attributes of the video are defined as at least one of the position of a focus point along the trajectory of the movement history, information related to a viewpoint, and an action at the time of the set event. 前記構造化データ生成手段は、前記コンテンツの内容に応じたマーカーを前記所定の位置に表示させるように、前記構造化データを生成することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。 6. The information processing apparatus according to claim 1, wherein the structured data generating means generates the structured data so that a marker according to the type of the content is displayed at the predetermined position. 前記注目点が、前記イベントが設定された位置に到達すると、前記設定されたイベントの動作が実行されるように、前記構造化データを生成することを特徴とする請求項に記載の情報処理装置。 6. The information processing apparatus according to claim 5 , wherein the structured data is generated so that, when the attention point reaches a position where the event is set, an action of the set event is executed. 前記視点に関する情報として、前記アクティビティにおける実際の移動速度の定数倍の移動速度または選択された特定の速度または、全工程を予め設定された時間で移動する速度が定義されていることを特徴とする請求項に記載の情報処理装置。 6. The information processing device according to claim 5, characterized in that the information regarding the viewpoint is defined as a moving speed that is a constant multiple of the actual moving speed in the activity, a selected specific speed, or a speed at which the entire process is moved in a preset time. 前記視点に関する情報として、前記アクティビティの種類に応じた視点の高度が定義されていることを特徴とする請求項に記載の情報処理装置。 6. The information processing apparatus according to claim 5 , wherein the information regarding the viewpoint defines an altitude of the viewpoint according to the type of the activity. イベント時の動作として、前記コンテンツの内容に応じた動作が定義されていることを特徴とする請求項に記載の情報処理装置。 6. The information processing apparatus according to claim 5, wherein an action corresponding to the content is defined as an action at the time of an event. ユーザの移動履歴を含むアクティビティの履歴のデータと、前記アクティビティの種類に基づいて、地図情報として提供される地図表示内において前記移動履歴の軌跡と、前記移動履歴に関連するコンテンツとを表示するための構造化データを生成する構造化データ生成工程を備え、
前記構造化データは、前記移動履歴の軌跡における所定の位置に前記コンテンツの表示に関連するイベントが設定されるとともに、前記アクティビティの種類に基づいて、前記所定の位置における前記移動履歴の軌跡を辿る注目点の移動速度の変化時間又はズームアップの有無を含むイベント時の動作が設定されていることを特徴とする情報処理方法。
a structured data generating step of generating structured data for displaying a trajectory of the movement history and content related to the movement history within a map display provided as map information, based on data of a history of an activity including a movement history of a user and a type of the activity;
The information processing method is characterized in that the structured data sets an event related to the display of the content at a predetermined position on the trajectory of the movement history, and sets, based on the type of activity, an operation at the time of the event, including the time of change in the movement speed of a point of interest tracing the trajectory of the movement history at the predetermined position or whether or not to zoom in.
コンピュータに、
ユーザの移動履歴を含むアクティビティの履歴のデータと、前記アクティビティの種類に基づいて、地図情報として提供される地図表示内において前記移動履歴の軌跡と、前記移動履歴に関連するコンテンツとを表示するための構造化データを生成する構造化データ生成機能を実現させ、
前記構造化データは、前記移動履歴の軌跡における所定の位置に前記コンテンツの表示に関連するイベントが設定されるとともに、前記アクティビティの種類に基づいて、前記所定の位置における前記移動履歴の軌跡を辿る注目点の移動速度の変化時間又はズームアップの有無を含むイベント時の動作が設定されていることを特徴とするプログラム。
On the computer,
A structured data generation function is provided for generating structured data for displaying a trajectory of the movement history and content related to the movement history within a map display provided as map information, based on data of a history of activity including a user's movement history and a type of the activity;
The structured data is a program characterized in that an event related to the display of the content is set at a specific position on the trajectory of the movement history, and an action at the time of the event is set based on the type of activity, including the time of change in the movement speed of a point of interest tracing the trajectory of the movement history at the specific position or whether or not to zoom in.
JP2022110106A 2017-09-25 2022-07-08 Information processing device, information processing method, and program Active JP7533534B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022110106A JP7533534B2 (en) 2017-09-25 2022-07-08 Information processing device, information processing method, and program
JP2024048835A JP2024071543A (en) 2017-09-25 2024-03-26 Information processing device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017184210A JP2019061386A (en) 2017-09-25 2017-09-25 Information processing system, information processing apparatus, information processing method and program
JP2022110106A JP7533534B2 (en) 2017-09-25 2022-07-08 Information processing device, information processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017184210A Division JP2019061386A (en) 2017-09-25 2017-09-25 Information processing system, information processing apparatus, information processing method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024048835A Division JP2024071543A (en) 2017-09-25 2024-03-26 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2022140458A JP2022140458A (en) 2022-09-26
JP7533534B2 true JP7533534B2 (en) 2024-08-14

Family

ID=66176648

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017184210A Pending JP2019061386A (en) 2017-09-25 2017-09-25 Information processing system, information processing apparatus, information processing method and program
JP2022110106A Active JP7533534B2 (en) 2017-09-25 2022-07-08 Information processing device, information processing method, and program
JP2024048835A Pending JP2024071543A (en) 2017-09-25 2024-03-26 Information processing device, information processing method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017184210A Pending JP2019061386A (en) 2017-09-25 2017-09-25 Information processing system, information processing apparatus, information processing method and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024048835A Pending JP2024071543A (en) 2017-09-25 2024-03-26 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (3) JP2019061386A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023073834A (en) * 2021-11-16 2023-05-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Management system, management method, and program
CN114511149B (en) * 2022-02-16 2022-12-02 长沙祥云瑞风信息技术有限公司 Layered distributed meteorological prediction platform, method, medium and equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012085246A (en) 2010-09-15 2012-04-26 Casio Comput Co Ltd Reproduction display device, image pick-up device, reproduction display method and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3295672B2 (en) * 1993-03-19 2002-06-24 株式会社日立製作所 Information processing device having operation history output function
JP4640578B2 (en) * 2004-11-12 2011-03-02 ノーリツ鋼機株式会社 Image processing system and image processing method
JP2015069313A (en) * 2013-09-27 2015-04-13 株式会社日立ソリューションズ東日本 Electronic album device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012085246A (en) 2010-09-15 2012-04-26 Casio Comput Co Ltd Reproduction display device, image pick-up device, reproduction display method and program

Also Published As

Publication number Publication date
JP2019061386A (en) 2019-04-18
JP2024071543A (en) 2024-05-24
JP2022140458A (en) 2022-09-26

Similar Documents

Publication Publication Date Title
JP7533534B2 (en) Information processing device, information processing method, and program
CN111033444B (en) Wearable multimedia device and cloud computing platform with application ecosystem
US9639940B2 (en) Imaging apparatus and methods for generating a guide display showing a photographing technique for approximating a composition of a subject image to that of a sample image
US9779775B2 (en) Automatic generation of compilation videos from an original video based on metadata associated with the original video
CN102263899B (en) Photographing device and control method therefor
US20160364103A1 (en) Method and apparatus for using gestures during video playback
US20150243325A1 (en) Automatic generation of compilation videos
WO2012011226A1 (en) Information processing apparatus, information processing method, and recording medium
US9712750B2 (en) Display control device and associated methodology of identifying a subject in an image
US20130155293A1 (en) Image pickup apparatus, method of providing composition of image pickup and computer-readable recording medium
US11782572B2 (en) Prioritization for presentation of media based on sensor data collected by wearable sensor devices
JP2009267792A (en) Imaging apparatus
US20160320203A1 (en) Information processing apparatus, information processing method, program, and recording medium
JP6380634B2 (en) Image reproducing apparatus, image reproducing method and program
JP6623568B2 (en) Imaging device, imaging control method, and program
US20170289089A1 (en) Helmet with information-sharing function
JP2012253421A (en) Image display device, imaging apparatus, and image display program
JP6914480B2 (en) Indicator display device, indicator display method, program, and indicator display system
US20180181800A1 (en) Information processing device capable of distinguishing move types
CN107872637B (en) Image reproducing apparatus, image reproducing method, and recording medium
JP6057142B2 (en) Imaging apparatus, control method thereof, and program
TW201738649A (en) Corresponding method between panorama video and message and system thereof having cloud software calculator to obtain an angle value and a first time point from the cloud database, and calculate and search a picture of panorama video corresponding to the message
JP2016213658A (en) Communication system, server, and image provision method
US20170374310A1 (en) Display apparatus, display method, storage medium and display system
WO2015127385A1 (en) Automatic generation of compilation videos

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220727

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240715

R150 Certificate of patent or registration of utility model

Ref document number: 7533534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150