JP6294054B2 - Video display device, video presentation method, and program - Google Patents
Video display device, video presentation method, and programInfo
- Publication number
- JP6294054B2 JP6294054B2 JP2013239137A JP2013239137A JP6294054B2 JP 6294054 B2 JP6294054 B2 JP 6294054B2 JP 2013239137 A JP2013239137 A JP 2013239137A JP 2013239137 A JP2013239137 A JP 2013239137A JP 6294054 B2 JP6294054 B2 JP 6294054B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- user
- unit
- video presentation
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 54
- 238000003384 imaging method Methods 0.000 claims description 36
- 238000001514 detection method Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 description 30
- 230000004048 modification Effects 0.000 description 21
- 238000012986 modification Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 16
- 210000003811 finger Anatomy 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 238000012937 correction Methods 0.000 description 9
- 239000011521 glass Substances 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 210000003813 thumb Anatomy 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 210000004936 left thumb Anatomy 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 210000004935 right thumb Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は、実環境に映像コンテンツを重畳してユーザに提示する技術に関する。 The present invention relates to a technique for superimposing video content on a real environment and presenting it to a user.
拡張現実(AR;Augmented Reality)を利用して画像を提示する技術が知られている。特許文献1及び非特許文献1には、実環境中にマーカを設置する等の事前処理を行うことなく、広告等の画像を提示する技術が開示されている。特許文献1は、撮影画像から背景画像内の面を有する領域を推定し、推定した領域内の各画素の画素値が単色又は単色のグラデーションを示し、且つ、所定サイズ以上の領域を、提示画像を重畳する領域として選択することを開示している。非特許文献1は、市街地を撮影した画像である市街地画像から広告提示の対象である平面群を検出し、壁面の高さを計算した結果に基づいて提示画像の表示に適する領域を選択して、市街地画像にCG画像を重畳することを開示している。
A technique for presenting an image using augmented reality (AR) is known.
特許文献1及び非特許文献1に記載された技術では、実環境を撮影した画像の特徴に応じて当該実環境に重畳される画像の表示領域が定まる。
これに対し、本発明の目的は、ユーザが観察する実環境に当該ユーザが映像コンテンツを配置できるようにすることである。
In the techniques described in
In contrast, an object of the present invention is to enable a user to place video content in an actual environment observed by the user.
上述した課題を解決するため、本発明の映像表示装置は、ユーザにより観察される像を撮影して撮影データを生成する撮影部と、前記観察される像に重ねて映像コンテンツを表示する表示部と、前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識するジェスチャ認識部と、前記ジェスチャ認識部が認識したジェスチャに基づいて、前記ユーザの位置から見て前記空間領域の延長線上に映像提示領域を設定する設定部と、前記設定部が設定した映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させる表示制御部とを備える。 In order to solve the above-described problems, a video display device according to the present invention includes a shooting unit that captures an image observed by a user and generates shooting data, and a display unit that displays video content superimposed on the observed image. And a gesture recognition unit for recognizing a gesture performed in a spatial region by the user based on shooting data generated by the shooting unit, and a gesture from the position of the user based on the gesture recognized by the gesture recognition unit. A setting unit for setting a video presentation area on an extension line of the spatial area, and displaying the video content on the display unit so that the user can observe the video content in the video presentation area set by the setting unit. A display control unit.
本発明の映像表示装置において、前記ジェスチャ認識部は、前記ユーザにより行われた前記空間領域を平面的に囲むジェスチャを認識してもよい。
本発明の映像表示装置において、前記延長線上に存在する平面領域を検出する平面領域検出部を備え、前記設定部は、前記平面領域検出部が検出した前記平面領域上に、前記映像提示領域を設定してもよい。
In the video display device according to the aspect of the invention, the gesture recognition unit may recognize a gesture that surrounds the space area planarly performed by the user.
The video display device of the present invention further includes a plane area detection unit that detects a plane area existing on the extension line, and the setting unit displays the video presentation area on the plane area detected by the plane area detection unit. It may be set.
本発明の映像表示装置において、前記表示制御部は、前記ユーザにより前記映像提示領域が観察されなくなった場合には、当該映像提示領域における映像コンテンツの再生を中断し、当該映像提示領域が再び観察されたときに前記再生を再開してもよい。 In the video display device of the present invention, when the video presentation area is no longer observed by the user, the display control unit interrupts reproduction of video content in the video presentation area, and the video presentation area is observed again. The playback may be resumed when done.
本発明の映像表示装置において、前記表示制御部は、前記ユーザによって複数の前記映像提示領域が観察される場合に、一の前記映像提示領域の映像コンテンツを、前記ユーザにより観察されないようにするか又は他の前記映像提示領域の映像コンテンツよりも観察されにくくする制御を行ってもよい。 In the video display device according to the aspect of the invention, the display control unit may prevent the user from observing video content in one video presentation area when the user observes the plurality of video presentation areas. Or you may perform control which makes it harder to observe than the video content of the said other video presentation area | region .
本発明の映像表示装置において、自装置でない他の映像表示装置から前記映像提示領域の設定を示す設定情報を取得する設定情報取得部を備え、前記設定部は、前記設定情報取得部が取得した設定情報に基づいて前記映像提示領域を設定し、前記表示制御部は、前記他の映像表示装置と同じ前記映像コンテンツを表示させてもよい。 The video display device of the present invention includes a setting information acquisition unit that acquires setting information indicating the setting of the video presentation area from another video display device that is not its own device, and the setting unit is acquired by the setting information acquisition unit The video presentation area may be set based on setting information, and the display control unit may display the same video content as that of the other video display device.
本発明の映像表示装置において、前記設定部が設定した映像提示領域を、前記ジェスチャ認識部が認識したジェスチャに基づいて補正する補正部を備え、前記ジェスチャ認識部は、前記設定した映像提示領域が前記表示部に表示されているときに、当該映像提示領域を補正するためのジェスチャを認識してもよい。 In the video display device of the present invention, the video display device includes a correction unit that corrects the video presentation area set by the setting unit based on the gesture recognized by the gesture recognition unit, and the gesture recognition unit includes the set video presentation region. When displayed on the display unit, a gesture for correcting the video presentation area may be recognized.
本発明の映像提示方法は、ユーザにより観察される像を撮影して撮影データを生成する撮影部と、前記観察される像に重ねて映像コンテンツを表示する表示部とを備える映像表示装置の映像提示方法であって、前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識するステップと、認識した前記ジェスチャに基づいて、前記ユーザの位置から見て前記空間領域の延長線上に映像提示領域を設定するステップと、設定した前記映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させるステップとを有する。 The video presentation method of the present invention is a video of a video display device comprising: a photographing unit that captures an image observed by a user to generate captured data; and a display unit that displays video content superimposed on the observed image. A method of presentation, comprising: recognizing a gesture made in a spatial region by the user based on photographing data generated by the photographing unit; and viewing from the user's position based on the recognized gesture A step of setting a video presentation area on an extension line of the space area, and a step of displaying the video content on the display unit so that the user can observe the video content in the set video presentation area.
本発明のプログラムは、ユーザにより観察される像を撮影して撮影データを生成する撮影部と、前記観察される像に重ねて映像コンテンツを表示する表示部とを備える映像表示装置のコンピュータに、前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識するステップと、認識した前記ジェスチャに基づいて、前記ユーザの位置から見て前記空間領域の延長線上に映像提示領域を設定するステップと、設定した前記映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させるステップとを実行させるためのプログラムである。 The program of the present invention is provided in a computer of a video display device including a photographing unit that shoots an image observed by a user and generates photographing data, and a display unit that displays a video content on the observed image. The step of recognizing a gesture made in the spatial region by the user based on the photographing data generated by the photographing unit, and on the extension line of the spatial region as seen from the position of the user based on the recognized gesture A program for executing a step of setting a video presentation area and a step of displaying the video content on the display unit so that the user can observe the video content in the set video presentation area.
本発明によれば、ユーザが観察する実環境に当該ユーザが映像コンテンツを配置できる。 According to the present invention, the user can place video content in an actual environment that the user observes.
[実施形態]
以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態の眼鏡型端末1の外観構成を示す図である。図1には、ユーザ2に装着されているときの眼鏡型端末1が示されている。眼鏡型端末1は、ユーザ2の頭部に装着された状態で使用される映像表示装置である。眼鏡型端末1は、ユーザ2の頭部を挟むようにして装着される。このとき、眼鏡型端末1は、アーム部と呼ばれる部品がユーザの両耳2aに接する。眼鏡型端末1を装着したユーザ2は、眼鏡部10のレンズを通して像を観察する。以下に説明するユーザ2は、特に断りのない限り、眼鏡型端末1を装着した状態であるものとする。
[Embodiment]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing an external configuration of a glasses-
眼鏡型端末1の眼鏡部10は、電気的な構成として、撮影部11と、表示部12と、距離センサ13と、位置方向センサ14とを備える。撮影部11は、CCD(Charge Coupled Device)等の撮像素子を含み、動画像及び静止画像の撮影が可能である。撮影部11は、眼鏡部10を通してユーザに観察される像を撮影する。撮影部11は、撮影する像の位置(範囲)が、眼鏡部10を通してユーザ2により観察される像の位置(範囲)と一致するとみなせる位置に配置される。撮影部11は、動画像又は静止画像を撮影すると、撮影した画像(すなわち撮影画像)を表す撮影データを生成する。
The
表示部12は、光学シースルー型のヘッドマウントディスプレイ(HMD;Head Mounted Display)を含み、眼鏡部10を通してユーザに観察される像に重ねて映像コンテンツを表示する。ここでは、表示部12は、ユーザの左目で映像が視認されるように、眼鏡部10の左眼側のレンズに重ねて映像コンテンツを表示する。
The
距離センサ13は、例えば光学式又は超音波式の距離センサであり、ユーザ2から見て前方(例えばユーザ2の視線方向)にある目標物までの距離を検出する距離検出手段である。
位置方向センサ14は、例えば3軸加速度、3軸角速度及び3軸地磁気を含む9軸センサであり、眼鏡型端末1の位置及び眼鏡型端末1が向く方向を検出する位置方向検出手段である。
The
The position /
図2は、眼鏡型端末1が有する映像提示機能の概要を説明する図である。
眼鏡型端末1は、ユーザ2が観察する実環境中に、映像コンテンツを提示するための仮想的な領域(以下「映像提示領域」という。)を設定(定義)する。そして、眼鏡型端末1は、設定した映像提示領域においてユーザ2により映像コンテンツが観察されるように、映像コンテンツを表示部12に表示する。映像提示領域に提示される映像コンテンツは、眼鏡型端末1を装着したユーザ2だけが観察することができる。図2には、ユーザ2が居る室空間100に映像提示領域SC1〜SC4が設定された例が示されている。室空間100は、天井C、側壁部W及び床Fに囲まれて形成されている。例えば、ユーザ2は、側壁部Wの方向に視線を向けると、映像提示領域SC1、SC2又はSC3の映像コンテンツを観察することができ、天井Cの方向に視線を向けると、映像提示領域SC4の映像コンテンツを観察することができる。これ以外にも、床Fや室空間100に設置された机やその他の家具に映像提示領域が設定された場合に、ユーザ2は、映像提示領域に視線を向けることで映像コンテンツを観察することができる。図2に示す映像提示領域SC1〜SC4から分かるように、本実施形態の映像提示領域は、矩形(正方形を含む。)の領域である。
FIG. 2 is a diagram for explaining an overview of the video presentation function of the glasses-
The glasses-
図3は、眼鏡型端末1のハードウェア構成を示すブロック図である。図3に示すようい、眼鏡型端末1は、眼鏡部10と、制御部20と、記憶部30と、通信部40とを備える。
眼鏡部10の撮影部11は、撮影して撮影データを生成すると、生成した撮影データを制御部20へ供給する。表示部12は、制御部20が行った表示制御に従って、映像コンテンツを表示する。距離センサ13は、例えば、制御部20が映像提示領域を設定する際に目標物までの距離を検出し、検出結果を制御部20へ供給する。位置方向センサ14は、例えば眼鏡型端末1の動作中において、眼鏡型端末1の位置及び眼鏡型端末1が向く方向を繰り返し検出して、検出結果を制御部20へ供給する。
FIG. 3 is a block diagram illustrating a hardware configuration of the glasses-
When the photographing
制御部20は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を有するマイクロコンピュータを備える。CPUは、ROM又は記憶部30に記憶されたプログラムを、ワークエリアとしてのRAMに読み出して実行することにより、眼鏡型端末1の各部を制御する。記憶部30は、例えばEEPROM(Electrically Erasable Programmable ROM)を有する記憶手段であり、制御部20により実行されるアプリケーションプログラム及び設定テーブル31を記憶する。記憶部30が記憶するアプリケーションプログラムは、例えば、動画コンテンツ又は静止画コンテンツを再生するためのアプリケーションプログラムやブラウザ、メーラである。これらのアプリケーションプログラムは、映像を表示するためのアプリケーションプログラムである。通信部40は、外部装置と通信(典型的には無線通信)するためのインタフェースである。
The
図4は、設定テーブル31の構成例を示す図である。設定テーブル31は、設定された映像提示領域に関する情報を格納したデータテーブルである。
図4に示すように、設定テーブル31では、「レコード番号」フィールドと、「機能」フィールドと、「設定情報」フィールドとが関連付けられている。「レコード番号」フィールドには、設定テーブル31におけるレコードを識別する番号が格納される。図4に示すレコード番号「1」〜「4」の各レコードには、図2で説明した映像提示領域SC1〜SC4のうち、符号の末尾の値が同じ映像提示領域に関する情報が格納される。「機能」フィールドには、各映像提示領域に割り当てられた機能を識別する情報が格納される。本実施形態では、「機能」フィールドには、機能を利用するために実行すべきアプリケーションプログラムを識別する識別子(以下「アプリケーション識別子」という。)が格納される。各映像提示領域に割り当てられた機能を分かりやすくするために、図4の「機能」フィールドには、機能を説明する文字列が示されている。
FIG. 4 is a diagram illustrating a configuration example of the setting table 31. The setting table 31 is a data table that stores information related to the set video presentation area.
As shown in FIG. 4, in the setting table 31, a “record number” field, a “function” field, and a “setting information” field are associated with each other. In the “record number” field, a number for identifying a record in the setting table 31 is stored. Each record of record numbers “1” to “4” shown in FIG. 4 stores information related to the video presentation area having the same code end value among the video presentation areas SC1 to SC4 described in FIG. The “function” field stores information for identifying a function assigned to each video presentation area. In the present embodiment, the “function” field stores an identifier (hereinafter referred to as “application identifier”) that identifies an application program to be executed in order to use the function. In order to make it easy to understand the functions assigned to each video presentation area, the “function” field in FIG. 4 shows a character string describing the function.
「設定情報」フィールドには、映像提示領域の設定を示す設定情報が格納される。「設定情報」フィールドは、詳細には、「方向情報」フィールドと、「サイズ情報」フィールドと、「タグ情報」フィールドとを含む。「方向情報」フィールドには、映像提示領域が設定されたときに眼鏡型端末1が向いていた方向を示す方向情報が格納される。「サイズ情報」フィールドには、映像提示領域の縦横のサイズを示すサイズ情報が格納される。「タグ情報」フィールドには、映像提示領域にタグとして関連付けられたタグ情報が格納される。タグ情報は、具体的には、映像提示領域の撮影画像(ここでは静止画像)を表す撮影データである。
In the “setting information” field, setting information indicating the setting of the video presentation area is stored. Specifically, the “setting information” field includes a “direction information” field, a “size information” field, and a “tag information” field. The “direction information” field stores direction information indicating the direction in which the glasses-
図5は、眼鏡型端末1の制御部20の機能構成を示す機能ブロック図である。図5に示すように、制御部20は、撮影制御部21と、ジェスチャ認識部22と、設定部23と、表示制御部24とに相当する機能を実現する。図5に示す設定情報取得部25及び補正部26は、後述する変形例に関わる機能であり、本実施形態には関係ないものとする。
撮影制御部21は、撮影部11の撮影に関する制御を司る。撮影制御部21は、例えば、映像提示領域を設定する際に、撮影部11に動画像を撮影させる。また、撮影制御部21は、設定部23が設定した映像提示領域の静止画像を撮影部11に撮影させて、タグ情報を生成する。
FIG. 5 is a functional block diagram showing a functional configuration of the
The
ジェスチャ認識部22は、撮影部11が生成した撮影データに基づいて、ユーザ2により行われた空間領域を平面的に囲むジェスチャを認識する。図6は、ユーザ2が行うジェスチャを説明する図である。図6に示すように、ユーザ2は、右手の親指FR1と人差し指FR2とで「L」字を作り、左手の親指FL1と人差し指FL2とで「L」字を作り、それらを組み合わせて、平面状の略矩形の空間領域を作る。ジェスチャ認識部22は、図6で説明したユーザ2のジェスチャを認識して、このジェスチャで指定された空間領域を検出する。ジェスチャ認識部22が検出する空間領域のことを、以下では「ジェスチャ領域」と称する。
The
設定部23は、ジェスチャ認識部22が認識したジェスチャに基づいて、ユーザ2の位置から見てジェスチャ領域の延長線上に映像提示領域を設定する。ユーザ2の位置は、例えばユーザ2の視点の位置であるが、特に断りのない限り、撮影部11の撮影レンズの位置とみなす。設定部23は、映像提示領域を設定したとき、映像提示領域の設定を示す設定情報を、当該映像提示領域に割り当てた機能と関連付けて設定テーブル31に格納する。更に、設定部23は、位置方向センサ14の検出結果に基づいて特定した方向情報を、設定テーブル31に格納する。
Based on the gesture recognized by the
また、設定部23は、平面領域検出部23aを含む。平面領域検出部23aは、距離センサ13の検出結果又は撮影部11が生成した撮影データに基づいて、ユーザ2の前方に存在する(現存する)平面領域を検出する。この平面領域は、例えば、室空間100を構成する天井C、側壁部W又は床Fである。設定部23は、平面領域検出部23aで検出された平面領域上に、映像提示領域を設定する。
The setting
表示制御部24は、設定テーブル31に基づいて、設定部23が設定した映像提示領域においてユーザ2により映像コンテンツが観察されるように、映像コンテンツを表示部12に表示させる。表示制御部24は、映像提示領域に映像コンテンツが映し出されている(投影されている)ような感覚(例えば遠近感)をユーザ2に与えるように、映像コンテンツを表示部12に表示させる。
Based on the setting table 31, the
図7は、眼鏡型端末1が行う映像提示領域の設定に関する処理の流れを示すフローチャートある。
まず、眼鏡型端末1の制御部20は、アプリケーションプログラムを実行する(ステップS1)。ここでは、制御部20は、表示部12に映像コンテンツを表示するためのアプリケーションプログラムを、ユーザ2の指示に従って実行する。
FIG. 7 is a flowchart showing a flow of processing relating to the setting of the video presentation area performed by the glasses-
First, the
次に、制御部20は、眼鏡型端末1の周囲の三次元空間を認識する(ステップS2)。ユーザ2の前方における三次元空間を認識するために、制御部20は、例えば撮影部11が生成した動画像を示す撮影データに基づいてSfM(Structure from Motion)による三次元点群を取得する。具体的には、制御部20は、撮影データが表す撮影画像の中の特徴点を、例えば公知のHarrisオペレータに従って検出する。次に、制御部20は、時間軸上で連続する複数フレームの撮影データに基づいて、例えばKLT(Kanade Lucas Tomasi)トラッカに従って特徴点を追跡する。そして、制御部20は、追跡した特徴点から、SfMにより特徴点の三次元位置を推定する。
別の方法として、制御部20は、例えば、距離センサ13により検出された距離の検出結果に基づいて三次元空間を認識してもよいし、ステレオカメラを用いた方法によって三次元空間を認識してもよい。
Next, the
As another method, for example, the
次に、制御部20は、ユーザ2により行われたジェスチャを認識する(ステップS3)。制御部20は、例えば一のフレームの撮影データに基づいて、或る時点(瞬間)にユーザ2により行われた、図6で説明したジェスチャを認識する。ユーザ2は、図8(a)に示すように、自身の眼前であって眼鏡部10のレンズの向こう側で、このジェスチャを行う。ユーザ2は、図8(a)の斜線部で示した領域を作るジェスチャを行うことで、映像提示領域の位置及びサイズを指定する。
Next, the
ステップS3の処理では、制御部20は、公知のジェスチャの認識技術を用いて、ユーザ2が行ったジェスチャを認識してよい。一例を挙げると、SixSenseと呼ばれるジェスチャの認識技術がある(SixSenseについては、http://www.pranavmistry.com/projects/sixthsense/又はhttp://kissaten-no-heya.blogspot.jp/2012/08/tedmitpattie-maessixth-sense.htmlを参照。)。このジェスチャの認識技術では、ユーザが、両手の親指及び人差し指の各々にマーカを取り付けて、図6で説明したジェスチャを行う。ユーザが持っているカメラは、撮影画像から各マーカを検出することによって、ユーザが行ったジェスチャを認識する。これとは別に、Ubi−Cameraを用いたジェスチャの認識技術がある(Ubi−Cameraについては、http://japanese.engadget.com/2012/03/30/ubi-camera/を参照。)。このジェスチャの認識技術では、ユーザはいずれか1本の指(典型的には右手の人差し指)に小型のカメラを装着して、図6で説明したジェスチャを行う。ユーザの指に装着されたカメラは、別の指(典型的には左手の親指)によって自機の感圧センサが押されたことを検出すると、ユーザが行ったジェスチャを認識する。この技術を眼鏡型端末1に適用した場合、制御部20は、例えば、カメラから撮影データ又は感圧センサが押されたことを示す情報を取得することによって、ジェスチャを認識する。
なお、制御部20は、更に別の方法でジェスチャを認識してもよい。制御部20は、例えば、撮影データが表す撮影画像の中から肌色又は肌色に近い色の画像領域を検出し、画像解析を行うことによってジェスチャを認識してもよい。
In the process of step S <b> 3, the
Note that the
図7の説明に戻る。
制御部20は、眼鏡型端末1が向く方向、及び、ジェスチャ領域のサイズを認識する(ステップS4)。まず、制御部20は、ジェスチャを認識したときに位置方向センサ14が検出した方向に基づいて、眼鏡型端末1が向く方向を認識する。また、制御部20は、図8(b)に示すように、右手の親指FR1と左手の人差し指FL2とが交差する位置にある点P1と、右手の人差し指FR2と左手の親指FL1とが交差する位置にある点P2とを認識する。そして、制御部20は、点P1と点P2とを結ぶ線分を対角線とする矩形(図8(b)の斜線部)を、ジェスチャ領域Tとして検出する。ここでは、制御部20は、点P1と点P2とを結ぶ線分の長さ「A」を、ジェスチャ領域Tのサイズとして認識する。
別の方法として、制御部20は、例えば、図8(a)に示した斜線部の領域(図形)の外接矩形又は内接矩形を特定して、ジェスチャ領域Tを検出してもよい。
Returning to the description of FIG.
The
As another method, for example, the
次に、制御部20は、ユーザ2の前方にある平面領域を検出する(ステップS5)。制御部20は、例えば、ステップS2の処理で認識したユーザ2の前方における三次元空間の認識結果(特徴点群)に基づいて平面領域を検出する(非特許文献1の記載参照)。別の方法として、制御部20は、距離センサ13による距離の検出結果に基づいて、平面領域を検出してもよい。例えば、制御部20は、ユーザ2の前方にある目標物までの距離が閾値以下である場合に、その距離だけ前方に離れた位置に平面領域を検出する。
Next, the
次に、制御部20は、平面領域を検出したかどうかを判断する(ステップS6)。制御部20は、ステップS5の処理で平面領域を検出しなかったと判断した場合には(ステップS6;NO)、ステップS2の処理に戻る。他方、制御部20は、ステップS5の処理で平面領域を検出したと判断した場合には(ステップS6;YES)、検出した平面領域上に映像提示領域を設定する(ステップS7)。
Next, the
図9は、映像提示領域の設定方法を説明する図である。図9(a)には、側壁部Wに映像提示領域SCが設定される場合の撮影部11、ジェスチャ領域T及び側壁部Wの位置関係を説明する図が示されている。図9(b)には、図9(a)の矢印I方向、すなわち、水平方向に平面視したときの撮影部11、ジェスチャ領域T及び側壁部Wの位置関係が示されている。
以下に説明する映像提示領域の設定においては、以下の3つの事項を仮定する。
(仮定1)ユーザ2の位置(つまり視点の位置)と、撮影部11の位置(レンズの位置)とが同一。
(仮定2)ユーザ2の位置(つまり視点の位置)と、ジェスチャ領域の重心とが同一の高さ。
(仮定3)側壁部Wとジェスチャ領域の平面方向とが平行。
FIG. 9 is a diagram illustrating a method for setting a video presentation area. FIG. 9A shows a diagram for explaining the positional relationship among the
In setting the video presentation area described below, the following three items are assumed.
(Assumption 1) The position of the user 2 (that is, the position of the viewpoint) is the same as the position of the photographing unit 11 (the position of the lens).
(Assumption 2) The position of the user 2 (that is, the position of the viewpoint) and the center of gravity of the gesture area are the same height.
(Assumption 3) The side wall W and the plane direction of the gesture region are parallel.
図9(a)に示すように、ジェスチャ領域Tの横方向(ここでは水平方向)の長さを「Ax」とし、縦方向(ここでは鉛直方向)の長さを「Ay」とする。また、図9(b)に示すように、撮影部11の位置とジェスチャ領域Tの重心との間の長さを「B」とする。長さBは、図示せぬ距離センサを用いて実測されてもよいし、見込みに基づいて予め決められていてもよい。ジェスチャ領域Tの重心と側壁部Wとの間の長さを「C」とする。長さCは、距離センサ13の検出結果が使用される。
As shown in FIG. 9A, the length of the gesture region T in the horizontal direction (here, the horizontal direction) is “Ax” and the length of the vertical direction (here, the vertical direction) is “Ay”. Further, as shown in FIG. 9B, the length between the position of the photographing
制御部20は、ユーザ2の位置から見てジェスチャ領域Tの延長線上に、映像提示領域SCを設定する。具体的には、制御部20は、撮影部11の位置と点P1とを結ぶ線分の延長線上で、側壁部Wと交差する点に点Pe1を設定し、撮影部11の位置と点P2とを結ぶ線分の延長線上で、側壁部Wと交差する点に点Pe2を設定する。そして、制御部20は、点Pe1と点Pe2とを結ぶ線分を対角線とする矩形の領域を、映像提示領域SCとして設定する。ここで、映像提示領域SCの横方向の長さを「Dx」とし、縦方向の長さを「Dy」とし、点Pe1と点Pe2とを結ぶ線分の長さを「D」とした場合、下記式(1)の関係を満たすように、制御部20は映像提示領域SCを設定する。
Dx=Ax*C/B、Dy=Ay*C/B、D=A*C/B ・・・(1)
The
Dx = Ax * C / B, Dy = Ay * C / B, D = A * C / B (1)
図9で説明した映像提示領域SCの設定方法によると、ユーザ2の位置とジェスチャ領域Tとで構成される四角錘と、ユーザ2の位置と映像提示領域SCとで構成される四角錘とが相似となる。また、式(1)から分かるように、制御部20は、長さBと長さCとの比に応じた倍率で、ジェスチャ領域Tを縦横に等倍することによって、映像提示領域SCのサイズを決定していることになる。
According to the method for setting the video presentation area SC described with reference to FIG. 9, a square weight composed of the position of the
ところで、図9で説明した映像提示領域の設定方法では、(仮定1)を設けることにより、撮影部11の位置とユーザ2の視点の位置とのずれを無視していた。しかし、撮影部11の位置とユーザ2の視点の位置とは厳密には一致しない。そこで、制御部20は、ユーザ2が眼鏡型端末1を装着した際の撮影部11の位置と、ユーザ2の視点の位置との相対的な位置関係から得られるパラメータ(例えば、撮影部11の外部パラメータ)に基づいて、撮影部11の撮影画像を変換する処理を、撮影データに施すことが望ましい。この場合、制御部20は、撮影部11の撮影画像が、ユーザ2の視点で観察される像と同じとなるように変換処理を施すとよい。
By the way, in the video presentation area setting method described with reference to FIG. 9, the difference between the position of the photographing
また、(仮定2)及び(仮定3)に関し、撮影部11の位置とジェスチャ領域Tの重心とが同一の高さになく、撮影部11が上下に傾く場合がある。この場合、映像提示領域が設定される平面領域(側壁部W)と、ジェスチャ領域Tの平面方向とが非平行となる。この場合、(仮定2)及び(仮定3)が成り立たない。そこで、図10に示すように、撮影部11が水平方向から角度θで下向きに傾いた場合、制御部20は、下記式(2)の関係を満たすように映像提示領域SC'を設定する。
Dx'=Dx、Dy'=Dy*cosθ ・・・(2)
Regarding (Assumption 2) and (Assumption 3), the position of the photographing
Dx ′ = Dx, Dy ′ = Dy * cos θ (2)
式(2)において、映像提示領域SC'の横方向の長さを「Dx'」とし、縦方向の長さを「Dy'」とする。θの値は、例えば、眼鏡型端末1に設けられ、撮影部11又は眼鏡型端末1の姿勢を検出するセンサを用いて算出される。撮影部11又は眼鏡型端末1の姿勢を検出するセンサは、例えば、加速度センサやジャイロセンサ等である。
なお、撮影部11が上向きに傾いた場合も、制御部20は、図10で説明した方法で映像提示領域SC'を設定してよい。
In Expression (2), the horizontal length of the video presentation area SC ′ is “Dx ′”, and the vertical length is “Dy ′”. The value of θ is calculated using, for example, a sensor that is provided in the glasses-
Even when the photographing
ところで、表示部12の視野角は、一般に人間の視界や撮影部11の画角に比べて小さい。このため、図8(b)で説明したジェスチャ領域Tと、ユーザ2の視線とを結ぶ四角錐で要求される視野角(この場合、水平視野角=2arctan(Ax/2C)、垂直視野角=2arctan(Ay/2C))が、表示部12の視野角を超える場合がある。この場合、制御部20は、表示部12の視野角を上限として映像提示領域を設定してもよい。この設定方法とした場合、ユーザ2からは、要求した大きさよりも小さい画面で映像コンテンツが観察されるが、画面全体の映像コンテンツを一度に観察することができる。又は、制御部20は、映像提示領域をユーザの要求どおりに表示部12の視野角以上に設定し、表示部12に表示する映像コンテンツを、画面全体ではなく、画面の一部としてもよい。この設定方法とした場合、ユーザ2からは、要求した大きさとおりで映像コンテンツが観察され、固定した場所からでは画面の一部の映像コンテンツしか観察されない。ユーザ2は、画面全体の映像コンテンツを観察するためには、自身が移動して視界に入る映像提示領域の範囲を移動させることとなる。
By the way, the viewing angle of the
図7に戻り、次に、制御部20は、設定した映像提示領域を撮影部11に撮影させる。ここでは、制御部20は、ユーザ2の手等が映り込まないように、側壁部Wにおける映像提示領域SCに相当する部分を、撮影部11に撮影させる。そして、制御部20は、撮影部11により生成された静止画像を表す撮影データをタグ情報として、設定テーブル31のステップS7の処理と同じレコードに格納する(ステップS8)。
そして、制御部20は、ステップS4の処理で位置方向センサ14が検出した方向を示す方向情報を、設定テーブル31のステップS7,S8の処理と同じレコードに格納する(ステップS9)。
以上が、映像提示領域を設定するときの眼鏡型端末1の動作の説明である。
Returning to FIG. 7, next, the
And the
The above is the description of the operation of the glasses-
図11は、眼鏡型端末1が映像コンテンツをユーザ2に提示するときに行う処理の流れを示すフローチャートある。以下、図2で説明した映像提示領域SC1の映像コンテンツを提示するときの眼鏡型端末1の動作を説明する。以下の動作中において、制御部20は、撮影部11に動画像を撮影させている。
制御部20は、ユーザ2が映像提示領域を観察中か否かを判断する(ステップS11)。制御部20は、撮影部11が生成した撮影データが表す1フレームの撮影画像と、設定テーブル31に格納された各タグ情報が表す撮影画像とを、例えば公知のパターンマッチングの技術を用いて照合する。そして、制御部20は、両者の同一性に基づいて(例えば一致度)、どのタグ情報に対応する映像提示領域が、ユーザ2により観察されているかを判断する。
ステップS11の処理で、制御部20は、設定テーブル31の全てのレコードのタグ情報を検索対象としてもよいが、位置方向センサ14の検出結果に基づいて、検索対象とするレコード(タグ情報)を絞り込んでもよい。例えば、制御部20は、眼鏡型端末1が現在向いている方向を基準として所定の範囲内を示す方向情報を含むレコードを、検索対象とする。この検索対象の絞込みにより、ステップS1の処理に関する制御部20の処理量が減る。
FIG. 11 is a flowchart showing a flow of processing performed when the glasses-
The
In the process of step S <b> 11, the
制御部20は、ユーザ2が映像提示領域を観察中と判断すると(ステップS11;YES)、観察中の映像提示領域における映像コンテンツの表示位置を特定する(ステップS12)。この表示位置は、表示部12における位置である。制御部20は、設定テーブル31に格納されたタグ情報が示す画像とこのタグ情報に対応する映像提示領域との位置関係と、撮影部11の現在の撮影画像と当該映像提示領域との位置関係とが同じとなる(維持する)ように、映像コンテンツの表示位置を特定する。すなわち、制御部20は、映像提示領域を観察するユーザ2に対し、この映像提示領域が側壁部W等の平面領域に固定されているような感覚を与えるような位置関係に維持する。
When the
そして、制御部20は、映像提示領域においてユーザ2により映像コンテンツが観察されるように、ステップS12の処理で特定した表示部12の表示位置に、映像コンテンツを表示させる(ステップS13)。制御部20は、設定テーブル31に基づいて観察中の映像提示領域に割り当てられた機能を特定し、特定した機能を利用するためのアプリケーションプログラムに基づいて、映像コンテンツを表示させる。制御部20は、映像コンテンツの表示に使用するアプリケーションプログラムを予め実行していてもよいし、ステップS13の処理で実行してもよい。図12(a)に示すように、ユーザ2が映像提示領域SC1の全体を観察している場合、ユーザ2は、映像提示領域SC1に割り当てられた機能の映像コンテンツの全体を、映像提示領域SC1(側壁部W)に表示されているような感覚で観察することができる。
And the
次に、制御部20は、ユーザ2が映像提示領域を観察中か否かを判断する(ステップS14)。制御部20は、ユーザ2が映像提示領域を観察中と判断すると(ステップS14;YES)、ステップS12の処理に戻る。映像提示領域の観察中においては、制御部20は、ステップS12〜S14の処理ステップを繰り返し実行する。
Next, the
ここで、ユーザ2が視線の方向を変えた場合の眼鏡型端末1の動作を説明する。
図12(a)で説明した方向を見ていたユーザ2が、例えば右上方向に視線を変更したとする。この場合、制御部20は、映像提示領域SC1の映像コンテンツの表示位置を変更する。図12(b)に示すように、映像提示領域SC1の右上部分のみをユーザ2が観察している場合には、制御部20は、その観察部分に対応する部分の映像コンテンツだけが観察されるように、映像コンテンツの表示位置を変更する。図12(b)に示す方向を見ていたユーザ2が、例えば更に視線を変更して、映像提示領域SC1を全く観察しなかったとする。この場合、制御部20は、図12(c)に示すように映像提示領域SC1の映像コンテンツを表示させない。このとき、ユーザ2は、実空間のみを観察している状態にある。
その後、ステップS14の処理で、制御部20は、映像提示領域の観察中でないと判断すると(ステップS14;NO)、映像コンテンツの表示を終了する(ステップS15)。
Here, the operation of the glasses-
It is assumed that the
Thereafter, when the
以上説明した実施形態の眼鏡型端末1を装着したユーザ2は、眼前で行ったジェスチャにより、ユーザ2が観察する実環境に映像を配置させることができる。このため、ユーザ2は、直感的で、且つ簡単なジェスチャによって仮想的な映像提示領域を配置し、更に、その映像提示領域にあるディスプレイで映像コンテンツが表示されているような感覚で、この映像コンテンツを観察することができる。
また、眼鏡型端末1は、図2で説明したように複数の映像提示領域を同時に設定して、その各々で異なる映像コンテンツを提示しうる。このため、ユーザ2は、マルチタスクで実行される複数の機能の映像コンテンツを、視線の方向や自身の位置を変えながら観察することができる。
また、汎用のHMDでは、ユーザが装着した状態では眼前に常に映像が表示されるため、例えば、ユーザ2にとっては眼精疲労の原因となることがある。また、ユーザ2が一時的に映像を視聴しないようにする場合には、ユーザは映像の再生を中断させるか、又は、装着していたHMDを一旦取り外す必要がある。これに対し、眼鏡型端末1によれば、ユーザ2は映像提示領域を設定した場所を観察しなければ、映像コンテンツが観察されない(図12(c)参照)。このため、ユーザ2にとっての使用負担の軽減の効果も期待できる。
The
Further, as described with reference to FIG. 2, the glasses-
Moreover, in a general-purpose HMD, an image is always displayed in front of the eyes when worn by the user, and for example, it may cause eyestrain for the
[変形例]
本発明は、上述した実施形態と異なる形態で実施することが可能である。本発明は、例えば、以下のような形態で実施することも可能である。また、以下に示す変形例は、各々を適宜に組み合わせてもよい。
(変形例1)
制御部20は、動画コンテンツを表示する場合には、ユーザ2が観察中の期間にのみ、動画コンテンツを再生してもよい。すなわち、眼鏡型端末1の制御部20は、動画コンテンツの再生中に、ユーザ2により映像提示領域の全体が観察されなくなった場合には、その映像提示領域において観察される動画コンテンツの再生を中断(一時停止)する。その後、制御部20は、ユーザ2により映像提示領域の少なくとも一部でも再び観察されたときに、中断していた動画コンテンツの再生を再開する。別の方法として、制御部20は、ユーザ2により映像提示領域の少なくとも一部が観察されなくなった場合には、動画コンテンツの再生を中断し、映像提示領域の全体が再び観察されたときに、動画コンテンツの再生を再開してもよい。この変形例の眼鏡型端末1によれば、ユーザ2が動画コンテンツを部分的に見逃す可能性を低くすることができる。
この変形例において、制御部20は、動画コンテンツ以外の映像コンテンツについて、ユーザ2が観察中の期間にのみ再生してもよい。例えば、制御部20は、指定されたアプリケーションプログラムに関連付けられた映像提示領域を、ユーザ2が観察していない期間においては、そのアプリケーションプログラムを利用した処理(作業)を中断させ、また、映像コンテンツの表示を中断させる。ユーザ2が映像提示領域を観察中でないときに処理を中断するか否かについては、アプリケーションプログラム毎に予め設定されていてもよいし、ユーザ2が逐次明示的に指定してもよい。ユーザ2が指定する場合の指定方法は、例えば、手や指を用いたジェスチャを用いる方法や音声入力を用いる方法等がある。
[Modification]
The present invention can be implemented in a form different from the above-described embodiment. The present invention can also be implemented in the following forms, for example. Further, the following modifications may be combined as appropriate.
(Modification 1)
When displaying the moving image content, the
In this modification, the
(変形例2)
制御部20は、ユーザ2によって複数の映像提示領域が同時に観察される場合には、いずれか1つの映像提示領域で映像コンテンツが観察されるように表示させ、他の映像提示領域では映像コンテンツを表示させないようにしてもよい。制御部20は、どのような条件に基づいて映像コンテンツを表示させる映像提示領域を決定してもよいが、例えば、ユーザ2によって観察される複数の映像提示領域のうち、最も面積が大きい映像提示領域、撮影部11の撮影画像において最も中心に近い位置に配置されている映像提示領域、又は、優先度が最も高い機能の映像提示領域で映像コンテンツが観察されるようにする。
(Modification 2)
When a plurality of video presentation areas are observed simultaneously by the
また、制御部20は、ユーザ2によって複数の映像提示領域が同時に観察される場合に、いずれか1つの映像提示領域で映像コンテンツを表示させ、他の映像提示領域の映像コンテンツをユーザ2により観察されにくくする制御を行ってもよい。例えば、制御部20は、ユーザ2により観察されにくくする映像コンテンツの透過度を高くする映像処理を施す。これ以外にも、制御部20は、ユーザ2により観察されにくくする映像コンテンツについては、解像度を低くしたり、映像提示領域のサイズを一時的に小さくしたり、色を変化させたりする映像処理を施してもよい。
この変形例の眼鏡型端末1によれば、ユーザ2が複数の映像コンテンツが同時に観察したことを原因して、提示中の映像コンテンツへの注意力が低下することを抑制することができる。
In addition, when a plurality of video presentation areas are observed simultaneously by the
According to the glasses-
(変形例3)
眼鏡型端末1は、自装置でない他の映像表示装置(ここでは他の眼鏡型端末。以下「他装置」という。)と映像提示領域、及び、映像コンテンツを共有する機能を有していてもよい。他の眼鏡型端末は、眼鏡型端末1と同じ構成を有する。
この変形例の眼鏡型端末1の制御部20は、図5で説明した機能構成に加え、更に、設定情報取得部25に相当する機能を実現する。設定情報取得部25は、他装置で設定された映像提示領域の設定を示す設定情報を、通信部40を介して取得する。設定情報取得部25が取得する設定情報は、図4で説明した「設定情報」フィールドに格納される情報と同じでよい。設定情報取得部25は、取得した設定情報とアプリケーション識別子とを対応付けて、設定テーブル31の同じレコードに格納する。
表示制御部24は、設定情報取得部25が取得した設定情報に基づいて映像提示領域を設定し、この映像提示領域に他装置と同じ映像コンテンツを表示させる。
(Modification 3)
The glasses-
In addition to the functional configuration described with reference to FIG. 5, the
The
図13は、眼鏡型端末1が他装置から取得した設定情報に基づいて映像提示領域を設定するときに行う処理の流れを示すフローチャートある。
制御部20は、他装置から設定情報とアプリケーション識別子とを取得して、それらを対応付けて設定テーブル31に格納する(ステップS21)。次に、制御部20は、ステップS21の処理で取得した設定情報に基づいて映像提示領域を設定し、この映像提示領域に他装置と同じ映像コンテンツを表示させる(ステップS22)。制御部20は、他装置と同じ映像コンテンツが記憶部30に記憶されている場合には、記憶部30から読み出した映像コンテンツを表示部12に表示させる。また、制御部20は、他装置等から通信部40を介して取得した映像コンテンツを表示部12に表示させてもよい。以降、制御部20は、上述した実施形態と同じ手順で、ステップS11〜S15の処理ステップを実行する。
FIG. 13 is a flowchart showing a flow of processing performed when the glasses-
The
この変形例において、眼鏡型端末1と他装置とで、ユーザにより観察される映像コンテンツが同期していることが望ましい。そこで、動画コンテンツを再生する場合には、制御部20は、他装置と同期するように動画コンテンツを再生してもよい。同期再生を実現するために、表示制御部24は、例えば、他装置との間で共有する同期信号を通信部40を介して取得し、取得した同期信号に基づいて映像コンテンツを再生する。この眼鏡型端末1によれば、複数のユーザで同時に同じ映像を観察しているような使用感を与えることができる。
In this modification, it is desirable that the video content observed by the user is synchronized between the glasses-
(変形例4)
制御部20は、設定した映像提示領域を、ユーザ2が行ったジェスチャに基づいて補正(例えば微調整)する機能を有していてもよい。
この変形例の眼鏡型端末1の制御部20は、図5で説明した機能構成に加え、更に、補正部26に相当する機能を実現する。補正部26は、設定部23が設定した映像提示領域を、ジェスチャ認識部22が認識したジェスチャに基づいて補正する。映像提示領域を補正する場合には、補正部26は、設定テーブル31に格納された設定情報を書き替える。ジェスチャ認識部22は、設定部23が設定した映像提示領域が表示部12に表示されているときに、映像提示領域を補正するためのジェスチャを認識する。
(Modification 4)
The
In addition to the functional configuration described with reference to FIG. 5, the
図14は、眼鏡型端末1が映像提示領域を補正するときに行う処理の流れを示すフローチャートある。
制御部20は、ステップS1〜S7の処理ステップを実行して映像提示領域を設定すると、設定した映像提示領域を表示部12に表示させる(ステップS101)。制御部20は、映像提示領域に映像コンテンツを表示させてもよいし、映像提示領域の範囲を示す画像を表示させてもよい。そして、制御部20は、映像提示領域の表示中に認識したユーザ2のジェスチャに基づいて、この映像提示領域を補正する(ステップS102)。例えば、制御部20は、ユーザ2が設定済みの映像提示領域に重ねて図6や図8で説明したジェスチャを行った場合、このジェスチャを認識して映像提示領域を補正する。この際、制御部20は、上述した実施形態と同じ方法で映像提示領域を再設定すればよい。そして、制御部20は、映像提示領域の補正結果に応じて設定テーブル31の情報を書き替える。
制御部20は、ユーザ2による別のジェスチャに基づいて映像提示領域を補正してもよい。例えば、制御部20は、補正対象の映像提示領域に指を重ねた状態で、所定の方向に指が移動させられると、指の移動方向に映像提示領域を移動させる補正を行う。
FIG. 14 is a flowchart showing a flow of processing performed when the glasses-
When the
The
(変形例5)
上述した実施形態では、制御部20は、ユーザ2の前方にある平面領域を検出して、検出した平面領域上に映像提示領域を設定していた。しかし、ユーザ2が広い室空間に居る場合等、近傍に平面領域が存在しない可能性もある。この場合、制御部20は、ユーザ2の前方の予め決められた距離の位置に、映像提示領域を設定してもよい。この場合の眼鏡型端末1の映像提示領域の設定方法は、上述した実施形態と同じでよく、実空間中の決められた距離だけ離れた位置に平面領域が存在すると仮定して、映像提示領域を設定すればよい。制御部20は、例えば、眼鏡部10のレンズの無限縁の位置や予め決められた固定距離の位置に映像提示領域を設定する。
この変形例において、眼鏡型端末1における平面領域の検出に係る構成(例えば平面領域検出部23aの機能)が省略されてもよい。
(Modification 5)
In the embodiment described above, the
In this modification, the configuration related to the detection of the planar area in the glasses-type terminal 1 (for example, the function of the planar
(変形例6)
眼鏡型端末1は、距離センサ13を備えないようにしてもよい。この場合、制御部20は、撮影部11により生成された撮影データを解析して、三次元空間を認識したり、平面領域を検出したり、平面領域までの距離を検出したりするとよい。
また、眼鏡型端末1は、タグ情報を記憶しない構成であってもよい。この場合、眼鏡型端末1は、位置方向センサ14の検出結果に基づいて、映像提示領域の設定時の位置及び方向を特定して、位置情報及び方向情報を設定テーブル31に格納する。そして、眼鏡型端末1は、位置方向センサ14の現在の検出結果と、設定テーブル31に格納された位置情報及び方向情報とを照合して、両者の同一性に基づいて映像提示領域の位置を特定する。
また、眼鏡型端末1は、位置方向センサ14に代えて、眼鏡型端末1が向く方向を検出する方向センサを備えてもよい。この方向センサは、例えば、加速度センサ、地磁気センサ又はジャイロセンサである。
また、眼鏡型端末1は、位置方向センサ14を備えないようにしてもよい。この場合、眼鏡型端末1は、方向情報を使用せず、タグ情報を用いて映像提示領域の位置を特定する。
(Modification 6)
The glasses-
The glasses-
The glasses-
The glasses-
上述した実施形態で説明した眼鏡型端末1の制御部20が行う映像提示領域に対する機能(アプリケーションプログラム)の割り当て方法は、あくまで一例である。例えば、制御部20は、映像提示領域を設定した後、ユーザ2が行った所定の操作に従って機能を割り当ててもよい。また、制御部20は、映像提示領域を設定して設定テーブル31に情報を格納した後に、割り当てる機能を変更してもよい。
The function (application program) assignment method for the video presentation area performed by the
また、制御部20は、式(1)及び(2)で説明した関係以外の関係で、映像提示領域を決定してもよい。例えば、制御部20は、ユーザ2の両手の指が交差する2点(P1,P2)を認識して矩形領域であるジェスチャ領域を検出していたが、矩形領域の頂点となる4点を認識してジェスチャ領域を検出してもよい。また、制御部20は、ジェスチャ領域と同じサイズの映像提示領域を設定してもよい。この場合、ユーザ2が右手と左手とを使ったジェスチャで所望する映像提示領域のサイズを指定し、制御部20はこのジェスチャを認識してジェスチャ領域を検出する。
Moreover, the
(変形例7)
上述した実施形態の眼鏡型端末1の制御部20は、ユーザ2により行われた空間領域を平面的に囲むジェスチャを認識して、映像提示領域を設定していた。制御部20は、別のジェスチャを認識して、映像提示領域を設定してもよい。例えば、ユーザ2が、空間領域において点によって映像コンテンツの提示位置を指定するジェスチャをすると、制御部20は、ユーザ2が視認可能な映像提示領域のサイズを計算する。そして、制御部20は、ユーザ2の位置から見てユーザ2が指定した提示位置の延長線上に、計算したサイズの映像提示領域を設定する。この際、制御部20は、側面部W等の平面領域までの距離を用いて映像提示領域のサイズを計算してもよい。
すなわち、制御部20は、ユーザ2の位置から見て、ユーザ2のジェスチャで指定された空間領域の延長線上に、ユーザ2が映像コンテンツを観察可能なサイズで映像提示領域を設定すればよい。具体的なジェスチャや、ジェスチャと映像提示領域との関係については、種々の変形が可能である。
(Modification 7)
The
That is, the
(変形例8)
眼鏡型端末1(眼鏡部10)の具体的な形状は、図1に示した形状に限定されない。
本発明の映像表示装置は、眼鏡型の映像表示装置に限らず、ユーザによって観察される像に重ねて映像を表示する機能を有する映像表示装置であればよい。例えば、本発明の映像表示装置は、ユーザが把持して使用する形態の映像表示装置であってもよいし、ユーザが装着するヘルメット等の装着物に取り付けて使用される形態の映像表示装置であってもよい。
(Modification 8)
The specific shape of the glasses-type terminal 1 (glasses unit 10) is not limited to the shape shown in FIG.
The video display device of the present invention is not limited to a glasses-type video display device, and may be any video display device having a function of displaying a video image superimposed on an image observed by a user. For example, the video display device of the present invention may be a video display device that is held and used by a user, or a video display device that is used by being attached to an attachment such as a helmet worn by the user. There may be.
(変形例9)
上述した眼鏡型端末1の制御部20の機能は、ハードウェア資源、ソフトウェア資源又はこれらの組み合わせのいずれによって実現されてもよい。制御部20の機能がプログラムを用いて実現される場合、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD(Hard Disk Drive)、FD(Flexible Disk))等)、光記録媒体(光ディスク等)、光磁気記録媒体、半導体メモリ等のコンピュータ読取可能な記録媒体に記憶した状態で提供されてもよいし、ネットワークを介して配信されてもよい。また、本発明は、コンピュータが行う映像提示方法として実施することも可能である。
(Modification 9)
The function of the
1…眼鏡型端末、2…ユーザ、10…眼鏡部、11…撮影部、12…表示部、13…距離センサ、14…位置方向センサ、20…制御部、21…撮影制御部、22…ジェスチャ認識部、23…設定部、23a…平面領域検出部、24…表示制御部、25…設定情報取得部、26…補正部、30…記憶部、31…設定テーブル、40…通信部。
DESCRIPTION OF
Claims (12)
前記観察される像に重ねて映像コンテンツを表示する表示部と、
前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識するジェスチャ認識部と、
前記ジェスチャ認識部が認識したジェスチャに基づいて、前記ユーザの位置から見て前記ジェスチャで指定された空間領域の延長線上に映像提示領域を設定する設定部と、
前記設定部が設定した映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させる表示制御部と
を備え、
前記表示制御部は、
前記ユーザによって複数の前記映像提示領域が観察される場合に、一の前記映像提示領域の映像コンテンツを、前記ユーザにより観察されないようにするか又は他の前記映像提示領域の映像コンテンツよりも観察されにくくする制御を行う
ことを特徴とする映像表示装置。 An imaging unit that captures an image observed by the user and generates imaging data;
A display unit that displays video content superimposed on the observed image;
A gesture recognition unit for recognizing a gesture made in a spatial region by the user based on shooting data generated by the shooting unit;
Based on the gesture recognized by the gesture recognition unit, a setting unit that sets a video presentation region on an extension line of the spatial region specified by the gesture as viewed from the user position;
A display control unit for displaying the video content on the display unit so that the video content is observed by the user in the video presentation area set by the setting unit;
With
The display control unit
When a plurality of the video presentation areas are observed by the user, the video content of one video presentation area is not observed by the user or is observed more than the video contents of the other video presentation areas. Film image display apparatus you and performs control to Nikuku.
前記観察される像に重ねて映像コンテンツを表示する表示部と、
前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識するジェスチャ認識部と、
前記ジェスチャ認識部が認識したジェスチャに基づいて、前記ユーザの位置から見て前記ジェスチャで指定された空間領域の延長線上に映像提示領域を設定する設定部と、
前記設定部が設定した映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させる表示制御部と、
自装置でない他の映像表示装置から前記映像提示領域の設定を示す設定情報を取得する設定情報取得部と
を備え、
前記設定部は、
前記設定情報取得部が取得した設定情報に基づいて前記映像提示領域を設定し、
前記表示制御部は、
前記他の映像表示装置と同じ前記映像コンテンツを表示させる
ことを特徴とする映像表示装置。 An imaging unit that captures an image observed by the user and generates imaging data;
A display unit that displays video content superimposed on the observed image;
A gesture recognition unit for recognizing a gesture made in a spatial region by the user based on shooting data generated by the shooting unit;
Based on the gesture recognized by the gesture recognition unit, a setting unit that sets a video presentation region on an extension line of the spatial region specified by the gesture as viewed from the user position;
A display control unit for displaying the video content on the display unit so that the video content is observed by the user in the video presentation area set by the setting unit;
And a setting information acquisition unit that acquires setting information indicating settings of the video presentation area from another image display device is not a self apparatus,
The setting unit
Set the video presentation area based on the setting information acquired by the setting information acquisition unit,
The display control unit
The other movies image display device you characterized in that display the same said video contents and the video display device.
前記観察される像に重ねて映像コンテンツを表示する表示部と、
前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識するジェスチャ認識部と、
前記ジェスチャ認識部が認識したジェスチャに基づいて、前記ユーザの位置から見て前記ジェスチャで指定された空間領域の延長線上に映像提示領域を設定する設定部と、
前記設定部が設定した映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させる表示制御部と、
前記設定部が設定した映像提示領域を、前記ジェスチャ認識部が認識したジェスチャに基づいて補正する補正部と
を備え、
前記ジェスチャ認識部は、
前記設定した映像提示領域が前記表示部に表示されているときに、当該映像提示領域を補正するためのジェスチャを認識する
ことを特徴とする映像表示装置。 An imaging unit that captures an image observed by the user and generates imaging data;
A display unit that displays video content superimposed on the observed image;
A gesture recognition unit for recognizing a gesture made in a spatial region by the user based on shooting data generated by the shooting unit;
Based on the gesture recognized by the gesture recognition unit, a setting unit that sets a video presentation region on an extension line of the spatial region specified by the gesture as viewed from the user position;
A display control unit for displaying the video content on the display unit so that the video content is observed by the user in the video presentation area set by the setting unit;
The image presentation area where the setting unit has set, and a correcting section that corrects, based on the gesture the gesture recognition unit recognizes,
The gesture recognition unit
When the video presenting regions the setting is displayed on the display unit, film image display device you characterized by recognizing a gesture for correcting the video presentation area.
前記ユーザにより行われた前記空間領域を平面的に囲むジェスチャを認識する
ことを特徴とする請求項1乃至3のいずれか1項に記載の映像表示装置。 The gesture recognition unit
Video display according to any one of claims 1 to 3, characterized in that recognize gestures that surrounds the space region made by the user in a plane.
前記設定部は、
前記平面領域検出部が検出した前記平面領域上に、前記映像提示領域を設定する
ことを特徴とする請求項1乃至請求項4のいずれか1項に記載の映像表示装置。 A plane area detecting unit for detecting a plane area existing on the extension line;
The setting unit
Wherein the plane area detection unit the flat region in which the detected image display device according to any one of claims 1 to 4 and sets the video presentation area.
前記ユーザにより前記映像提示領域が観察されなくなった場合には、当該映像提示領域における映像コンテンツの再生を中断し、当該映像提示領域が再び観察されたときに前記再生を再開する
ことを特徴とする請求項1乃至請求項5のいずれか1項に記載の映像表示装置。 The display control unit
When the video presentation area is no longer observed by the user, the reproduction of the video content in the video presentation area is interrupted, and the reproduction is resumed when the video presentation area is observed again. video display according to any one of claims 1 to 5.
前記観察される像に重ねて映像コンテンツを表示する表示部とA display unit for displaying video content superimposed on the observed image;
を備える映像表示装置の映像提示方法であって、A video presentation method for a video display device comprising:
前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識する第1ステップと、A first step of recognizing a gesture made in a spatial region by the user based on photographing data generated by the photographing unit;
認識した前記ジェスチャに基づいて、前記ユーザの位置から見て前記ジェスチャで指定された空間領域の延長線上に映像提示領域を設定する第2ステップと、A second step of setting a video presentation area on an extension line of a spatial area specified by the gesture as viewed from the user's position based on the recognized gesture;
設定した前記映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させる第3ステップとA third step of displaying the video content on the display unit so that the video content is observed by the user in the set video presentation area;
を有し、Have
前記第3ステップは、前記ユーザによって複数の前記映像提示領域が観察される場合に、一の前記映像提示領域の映像コンテンツを、前記ユーザにより観察されないようにするか又は他の前記映像提示領域の映像コンテンツよりも観察されにくくする制御を行うステップであることを特徴とする映像提示方法。In the third step, when a plurality of the video presentation areas are observed by the user, the video content of one video presentation area is not observed by the user, or other video presentation areas A video presentation method, characterized by being a step of performing control to make observation more difficult than video content.
前記観察される像に重ねて映像コンテンツを表示する表示部とA display unit for displaying video content superimposed on the observed image;
を備える映像表示装置の映像提示方法であって、A video presentation method for a video display device comprising:
前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識する第1ステップと、A first step of recognizing a gesture made in a spatial region by the user based on photographing data generated by the photographing unit;
認識した前記ジェスチャに基づいて、前記ユーザの位置から見て前記ジェスチャで指定された空間領域の延長線上に映像提示領域を設定する第2ステップと、A second step of setting a video presentation area on an extension line of a spatial area specified by the gesture as viewed from the user's position based on the recognized gesture;
設定した前記映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させる第3ステップと、A third step of displaying the video content on the display unit so that the video content is observed by the user in the set video presentation area;
自装置でない他の映像表示装置から前記映像提示領域の設定を示す設定情報を取得する第4ステップとA fourth step of acquiring setting information indicating the setting of the video presentation area from another video display device that is not its own device;
を有し、Have
前記第2ステップは、取得した前記設定情報に基づいて前記映像提示領域を設定するステップであり、The second step is a step of setting the video presentation area based on the acquired setting information,
前記第3ステップは、前記他の映像表示装置と同じ前記映像コンテンツを表示させるステップであるThe third step is a step of displaying the same video content as that of the other video display device.
ことを特徴とする映像提示方法。A video presentation method characterized by the above.
前記観察される像に重ねて映像コンテンツを表示する表示部とA display unit for displaying video content superimposed on the observed image;
を備える映像表示装置の映像提示方法であって、A video presentation method for a video display device comprising:
前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識する第1ステップと、A first step of recognizing a gesture made in a spatial region by the user based on photographing data generated by the photographing unit;
認識した前記ジェスチャに基づいて、前記ユーザの位置から見て前記ジェスチャで指定された空間領域の延長線上に映像提示領域を設定する第2ステップと、A second step of setting a video presentation area on an extension line of a spatial area specified by the gesture as viewed from the user's position based on the recognized gesture;
設定した前記映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させる第3ステップと、A third step of displaying the video content on the display unit so that the video content is observed by the user in the set video presentation area;
設定した前記映像提示領域を、認識した前記ジェスチャに基づいて補正する第4ステップとA fourth step of correcting the set video presentation area based on the recognized gesture;
を備え、With
前記第1ステップは、前記設定した映像提示領域が前記表示部に表示されているときに、当該映像提示領域を補正するためのジェスチャを認識するステップであることを特徴とする映像提示方法。The first step is a step of recognizing a gesture for correcting the video presentation area when the set video presentation area is displayed on the display unit.
前記観察される像に重ねて映像コンテンツを表示する表示部とA display unit for displaying video content superimposed on the observed image;
を備える映像表示装置のコンピュータに、In a computer of a video display device comprising
前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識する第1ステップと、A first step of recognizing a gesture made in a spatial region by the user based on photographing data generated by the photographing unit;
認識した前記ジェスチャに基づいて、前記ユーザの位置から見て前記ジェスチャで指定された空間領域の延長線上に映像提示領域を設定する第2ステップと、A second step of setting a video presentation area on an extension line of a spatial area specified by the gesture as viewed from the user's position based on the recognized gesture;
設定した前記映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させる第3ステップとA third step of displaying the video content on the display unit so that the video content is observed by the user in the set video presentation area;
を実行させるためのプログラムであって、A program for executing
前記第3ステップは、前記ユーザによって複数の前記映像提示領域が観察される場合に、一の前記映像提示領域の映像コンテンツを、前記ユーザにより観察されないようにするか又は他の前記映像提示領域の映像コンテンツよりも観察されにくくする制御を行うステップであることを特徴とするプログラム。In the third step, when a plurality of the video presentation areas are observed by the user, the video content of one video presentation area is not observed by the user, or other video presentation areas A program characterized in that it is a step of performing control to make it less observable than video content.
前記観察される像に重ねて映像コンテンツを表示する表示部とA display unit for displaying video content superimposed on the observed image;
を備える映像表示装置のコンピュータに、In a computer of a video display device comprising
前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識する第1ステップと、A first step of recognizing a gesture made in a spatial region by the user based on photographing data generated by the photographing unit;
認識した前記ジェスチャに基づいて、前記ユーザの位置から見て前記ジェスチャで指定された空間領域の延長線上に映像提示領域を設定する第2ステップと、A second step of setting a video presentation area on an extension line of a spatial area specified by the gesture as viewed from the user's position based on the recognized gesture;
設定した前記映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させる第3ステップと、A third step of displaying the video content on the display unit so that the video content is observed by the user in the set video presentation area;
自装置でない他の映像表示装置から前記映像提示領域の設定を示す設定情報を取得する第4ステップとA fourth step of acquiring setting information indicating the setting of the video presentation area from another video display device that is not its own device;
を実行させるためのプログラムであって、A program for executing
前記第2ステップは、取得した前記設定情報に基づいて前記映像提示領域を設定するステップであり、The second step is a step of setting the video presentation area based on the acquired setting information,
前記第3ステップは、前記他の映像表示装置と同じ前記映像コンテンツを表示させるステップであるThe third step is a step of displaying the same video content as that of the other video display device.
ことを特徴とするプログラム。A program characterized by that.
前記観察される像に重ねて映像コンテンツを表示する表示部とA display unit for displaying video content superimposed on the observed image;
を備える映像表示装置のコンピュータに、In a computer of a video display device comprising
前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識する第1ステップと、A first step of recognizing a gesture made in a spatial region by the user based on photographing data generated by the photographing unit;
認識した前記ジェスチャに基づいて、前記ユーザの位置から見て前記ジェスチャで指定された空間領域の延長線上に映像提示領域を設定する第2ステップと、A second step of setting a video presentation area on an extension line of a spatial area specified by the gesture as viewed from the user's position based on the recognized gesture;
設定した前記映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させる第3ステップと、A third step of displaying the video content on the display unit so that the video content is observed by the user in the set video presentation area;
設定した前記映像提示領域を、認識した前記ジェスチャに基づいて補正する第4ステップとA fourth step of correcting the set video presentation area based on the recognized gesture;
を実行させるためのプログラムであって、A program for executing
前記第1ステップは、前記設定した映像提示領域が前記表示部に表示されているときに、当該映像提示領域を補正するためのジェスチャを認識するステップであることを特徴とするプログラム。The first step is a step of recognizing a gesture for correcting the video presentation area when the set video presentation area is displayed on the display unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013239137A JP6294054B2 (en) | 2013-11-19 | 2013-11-19 | Video display device, video presentation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013239137A JP6294054B2 (en) | 2013-11-19 | 2013-11-19 | Video display device, video presentation method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015100032A JP2015100032A (en) | 2015-05-28 |
JP6294054B2 true JP6294054B2 (en) | 2018-03-14 |
Family
ID=53376401
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013239137A Active JP6294054B2 (en) | 2013-11-19 | 2013-11-19 | Video display device, video presentation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6294054B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6529383B2 (en) * | 2015-08-11 | 2019-06-12 | 京セラ株式会社 | Wearable device and output system |
KR102610120B1 (en) | 2016-01-20 | 2023-12-06 | 삼성전자주식회사 | Head mounted display and control method thereof |
WO2017191703A1 (en) * | 2016-05-02 | 2017-11-09 | 株式会社ソニー・インタラクティブエンタテインメント | Image processing device |
JP6600113B1 (en) * | 2019-03-29 | 2019-10-30 | スターティアラボ株式会社 | AR image processing apparatus, image processing system, and program |
US11334212B2 (en) | 2019-06-07 | 2022-05-17 | Facebook Technologies, Llc | Detecting input in artificial reality systems based on a pinch and pull gesture |
US10991163B2 (en) * | 2019-09-20 | 2021-04-27 | Facebook Technologies, Llc | Projection casting in virtual environments |
US11189099B2 (en) | 2019-09-20 | 2021-11-30 | Facebook Technologies, Llc | Global and local mode virtual object interactions |
US11991222B1 (en) | 2023-05-02 | 2024-05-21 | Meta Platforms Technologies, Llc | Persistent call control user interface element in an artificial reality environment |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006059136A (en) * | 2004-08-20 | 2006-03-02 | Seiko Epson Corp | Viewer apparatus and its program |
JP2012243007A (en) * | 2011-05-18 | 2012-12-10 | Toshiba Corp | Image display device and image area selection method using the same |
US8558759B1 (en) * | 2011-07-08 | 2013-10-15 | Google Inc. | Hand gestures to signify what is important |
JP2013034237A (en) * | 2012-10-17 | 2013-02-14 | Sony Corp | Image processor, image processing method and image processing system |
-
2013
- 2013-11-19 JP JP2013239137A patent/JP6294054B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015100032A (en) | 2015-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6294054B2 (en) | Video display device, video presentation method, and program | |
JP6393367B2 (en) | Tracking display system, tracking display program, tracking display method, wearable device using them, tracking display program for wearable device, and operation method of wearable device | |
US10078367B2 (en) | Stabilization plane determination based on gaze location | |
EP3195595B1 (en) | Technologies for adjusting a perspective of a captured image for display | |
TW201902212A (en) | a near-eye display with an extended eye movement range that is tracked by the eye | |
TWI669635B (en) | Method and device for displaying barrage and non-volatile computer readable storage medium | |
JP6177872B2 (en) | I / O device, I / O program, and I / O method | |
US12112449B2 (en) | Camera-based transparent display | |
US20210225017A1 (en) | Structuring visual data | |
JP2018511098A (en) | Mixed reality system | |
JP7182920B2 (en) | Image processing device, image processing method and program | |
JP6250024B2 (en) | Calibration apparatus, calibration program, and calibration method | |
CN112655202B (en) | Reduced bandwidth stereoscopic distortion correction for fisheye lenses of head-mounted displays | |
WO2014128751A1 (en) | Head mount display apparatus, head mount display program, and head mount display method | |
WO2022022449A1 (en) | Method and apparatus for spatial positioning | |
CN113628322B (en) | Image processing, AR display and live broadcast method, device and storage medium | |
WO2020090316A1 (en) | Information processing device, information processing method, and program | |
US11212502B2 (en) | Method of modifying an image on a computational device | |
JP6456551B1 (en) | OPTICAL DEVICE CONTROL DEVICE, OPTICAL DEVICE CONTROL METHOD, AND OPTICAL DEVICE CONTROL PROGRAM | |
WO2018083757A1 (en) | Image provision device, image provision method, program, and non-transitory computer-readable information recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170821 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6294054 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |