JP4985531B2 - Mirror system - Google Patents
Mirror system Download PDFInfo
- Publication number
- JP4985531B2 JP4985531B2 JP2008109490A JP2008109490A JP4985531B2 JP 4985531 B2 JP4985531 B2 JP 4985531B2 JP 2008109490 A JP2008109490 A JP 2008109490A JP 2008109490 A JP2008109490 A JP 2008109490A JP 4985531 B2 JP4985531 B2 JP 4985531B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- operation target
- image
- hand
- display unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Position Input By Displaying (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、ミラーシステムに関する。 The present invention relates to a mirror system.
従来、ユーザの鏡像を映し出すハーフミラーと、ハーフミラーのユーザ反対側に設けられた拡散層に投射光を投射して情報等を表示する情報表示機能付きミラーシステムが知られている。このミラーシステムによると、鏡像の他に、鏡像として映るユーザに対応して、小鳥や犬などの映像を映し出すことができ、ユーザ自身の鏡像と映像とが一体となった表示を行うことができる(特許文献1参照)。
ここで、特許文献1に記載のシステムは、カメラにより撮影された人の形と大きさから、表示装置に対する人の位置と距離とを計算して鏡に反射されている人の鏡像を推定し、推定された鏡像に応じて、小鳥や犬などの映像の位置や大きさを決定している。このため、特許文献1に記載のシステムは、ユーザの鏡像を推定するという複雑な処理が必要となってしまう。
Here, the system disclosed in
また、特許文献1に記載のシステムを含む従来のミラーシステムは、ユーザの鏡像の手が、映像光によって示される映像に触れる(すなわちユーザから重なって見える)動作を行ったとしても、その動作は何ら反映されることがなかった。また、特許文献1に記載のシステムの技術を応用し、ユーザが操作対象映像光によって映し出される操作対象に触れる動作を行ったときに何らかの制御を行うシステムを提供しようとした場合、処理が非常に複雑となってしまう。すなわち、特許文献1に記載のシステムの技術を応用した場合、ユーザの鏡像を推定し、ユーザの鏡像のうち、手の位置が操作対象映像光の投射位置に合致することを演算等により求める必要がある。このため、激しく動かすことが可能な手について手が動くごとに鏡像を推定する必要があり、処理が非常に複雑となってしまう。
Moreover, even if the conventional mirror system including the system described in
本発明は、上記問題点を解決するために成されたものであり、その目的とするところは、ユーザが操作対象映像光によって示される操作対象に触れる動作を行った場合の判断における処理負荷を軽減させることが可能なミラーシステムを提供することである。 The present invention has been made to solve the above-described problems, and the object of the present invention is to reduce the processing load in the determination when the user performs an operation that touches the operation target indicated by the operation target video light. To provide a mirror system that can be reduced.
本発明に係るミラーシステムは、映像光を投射する投光手段と、投光手段に投射された映像光を映して映像をユーザに視認可能とさせると共に、ユーザ自身の鏡像を表示可能な表示部と、ユーザを撮像するカメラと、カメラにより撮像された画像上におけるユーザの目の位置を検出する目位置検出手段と、カメラにより撮像された画像上におけるユーザの手の位置を検出する手位置検出手段と、投光手段から投射される映像光のうち、ユーザの操作対象を映し出す操作対象映像光の表示部上における投射位置を制御値に基づいて制御する制御手段と、を備え、制御手段は、目位置検出手段により検出された画像上における目の位置と、手位置検出手段により検出された画像上における手の位置との中間位置と、制御値との対応関係から、ユーザ自身の鏡像の手が操作対象映像光によって示される操作対象に触れたか否かを判断することを特徴とする。 A mirror system according to the present invention includes a light projecting unit that projects video light, and a display unit that displays the video light projected on the light projecting unit so that the user can view the video and can display a mirror image of the user. A camera for imaging the user, eye position detection means for detecting the position of the user's eyes on the image captured by the camera, and hand position detection for detecting the position of the user's hand on the image captured by the camera And control means for controlling the projection position on the display unit of the operation target video light for projecting the user's operation target out of the video light projected from the light projection means, based on the control value. From the correspondence between the eye position on the image detected by the eye position detecting means and the intermediate position between the hand position on the image detected by the hand position detecting means and the control value, Wherein the hand of its mirror image it is determined whether the touched operation target indicated by the operation subject image light.
このミラーシステムによれば、目位置検出手段により検出された画像上における目の位置と、手位置検出手段により検出された画像上における手の位置との中間位置と、制御値との対応関係から、ユーザ自身の鏡像の手が操作対象映像光によって示される操作対象に触れたか否かを判断する。ここで、ユーザは、ユーザから表示部までの距離の約2倍の位置に自己の鏡像を視認する。すなわち、ユーザとユーザの鏡像との中間に表示部が存在するような状態ともいえる。しかも、表示部は、ユーザから表示部との距離に拘わらず、常に中間に位置している。そして、ユーザの目と鏡像の手との中間にも表示部が存在するといえ、ユーザの視点からすると、ユーザの目の位置と鏡像の手の位置との中間地点に、操作対象映像光の投射位置が位置していれば、ユーザには手が操作対象に触れたように認識される。このように、ユーザが操作対象に触れたか否かを判断するにあたり、鏡像の推定は必要なく、ユーザの目の位置の情報と、ユーザの手の位置の情報と、操作対象映像光の投射位置を示す制御値の情報があれば足りる。従って、ユーザが操作対象映像光によって示される操作対象に触れる動作を行った場合の判断における処理負荷を軽減させる。 According to this mirror system, the correspondence between the control position and the intermediate position between the eye position on the image detected by the eye position detection means and the hand position on the image detected by the hand position detection means Then, it is determined whether or not the mirror image hand of the user touches the operation target indicated by the operation target video light. Here, the user visually recognizes his / her mirror image at a position approximately twice the distance from the user to the display unit. That is, it can be said that the display unit exists between the user and the mirror image of the user. Moreover, the display unit is always located in the middle regardless of the distance from the user to the display unit. Further, it can be said that there is a display unit between the user's eyes and the mirror image hand. From the user's viewpoint, the projection of the operation target image light is performed at an intermediate point between the user's eye position and the mirror image hand position. If the position is located, the user recognizes that the hand has touched the operation target. Thus, in determining whether or not the user has touched the operation target, it is not necessary to estimate the mirror image, but the user's eye position information, the user's hand position information, and the operation target image light projection position. It is sufficient to have control value information indicating. Accordingly, the processing load in the determination when the user performs an operation of touching the operation target indicated by the operation target video light is reduced.
また、本発明に係るミラーシステムにおいて、制御手段は、カメラにより撮像された画像上における中間位置の座標値を座標変換して表示部上における第1座標値とすると共に、この第1座標値と、制御値が示す表示部上における第2座標値との差が所定値以内である場合に、ユーザ自身の鏡像の手が操作対象映像光によって示される操作対象に触れたと判断することが好ましい。 In the mirror system according to the present invention, the control means performs coordinate conversion of the coordinate value of the intermediate position on the image captured by the camera to obtain the first coordinate value on the display unit, and the first coordinate value and When the difference from the second coordinate value on the display unit indicated by the control value is within a predetermined value, it is preferable to determine that the hand of the mirror image of the user touches the operation target indicated by the operation target video light.
このミラーシステムによれば、画像上における中間位置の座標値を座標変換して表示部上における第1座標値を求め、この第1座標値と制御値が示す第2座標値との差が所定値以内である場合に、ユーザ自身の鏡像の手が操作対象映像光によって示される操作対象に触れたと判断する。このため、中間位置を求めた後は、既存技術である座標値の変換と、制御値が示す座標値との比較のみで、操作対象映像光に触れたか否かを判断でき、処理負荷を軽減させることができる。 According to this mirror system, the coordinate value of the intermediate position on the image is transformed to obtain the first coordinate value on the display unit, and the difference between the first coordinate value and the second coordinate value indicated by the control value is predetermined. If it is within the value, it is determined that the mirror image hand of the user touches the operation target indicated by the operation target video light. For this reason, after obtaining the intermediate position, it is possible to determine whether or not the operation target image light has been touched only by converting the coordinate value, which is an existing technology, and comparing the coordinate value indicated by the control value, thereby reducing the processing load. Can be made.
また、本発明に係るミラーシステムにおいて、制御手段は、ユーザ自身の鏡像の手が操作対象映像光によって示される操作対象に触れたと判断した場合、予め定められた制御を実行することが好ましい。 In the mirror system according to the present invention, it is preferable that the control unit executes a predetermined control when it is determined that the hand of the mirror image of the user touches the operation target indicated by the operation target video light.
このミラーシステムによれば、ユーザ自身の鏡像の手が操作対象映像光によって示される操作対象に触れたと判断した場合、予め定められた制御を実行するため、ユーザが操作対象映像光を操作して機器等を制御させるという新たな機器操作を提案することができる。 According to this mirror system, when it is determined that the user's own mirror image hand touches the operation target indicated by the operation target video light, the user operates the operation target video light to execute predetermined control. It is possible to propose a new device operation for controlling a device or the like.
また、本発明に係るミラーシステムにおいて、制御手段は、表示部に向き合った状態でユーザに運動を促すエクササイズコンテンツを選択させる操作対象を表示させ、ユーザ自身の鏡像の手が操作対象映像光によって示される操作対象に触れたと判断した場合、エクササイズコンテンツを実行することが好ましい。 In the mirror system according to the present invention, the control means displays an operation target for selecting exercise content that prompts the user to exercise while facing the display unit, and the user's own mirror image hand is indicated by the operation target video light. When it is determined that the touched operation target is touched, it is preferable to execute the exercise content.
このミラーシステムによれば、表示部に向き合った状態でユーザに運動を促すエクササイズコンテンツを選択させる操作対象を表示させ、ユーザ自身の鏡像の手が操作対象映像光によって示される操作対象に触れたと判断した場合、エクササイズコンテンツを実行する。このため、エクササイズのコンテンツを実行するにあたり、ユーザは各機器のスイッチ操作等を行うために、表示部の前から離れ、その後表示部の前に移動し、エクササイズを行うという煩わしさがなく、表示部の前から移動しないまま、操作対象に触れてエクササイズコンテンツを実行させることができる。 According to this mirror system, an operation target for selecting exercise content that encourages the user to exercise while facing the display unit is displayed, and it is determined that the user's own mirror image hand touches the operation target indicated by the operation target video light. If so, exercise content is executed. For this reason, when executing the exercise content, the user leaves the front of the display unit and then moves to the front of the display unit to perform the switch operation of each device. The exercise content can be executed by touching the operation target without moving from the front of the section.
また、本発明に係るミラーシステムにおいて、エクササイズコンテンツは、ユーザ以外から与えられた動力によって動作する他動運動器具をユーザが使用している際に、ユーザに運動を促すコンテンツであって、制御手段は、エクササイズコンテンツの実行中において、表示部に操作対象映像光を投射させ、この操作対象映像光によって示される操作対象にユーザ自身の鏡像の手が触れたと判断した場合、得点を加算又は減算させることが好ましい。 Further, in the mirror system according to the present invention, the exercise content is content that prompts the user to exercise when the user uses a passive exercise device that operates with power given by a person other than the user, and is a control means. During execution of the exercise content, the operation target video light is projected on the display unit, and if it is determined that the mirror image of the user touches the operation target indicated by the operation target video light, the score is added or subtracted. It is preferable.
このミラーシステムによれば、他動運動器具をユーザが使用している際に表示部に操作対象映像光を投射させ、この操作対象映像光によって示される操作対象にユーザ自身の鏡像の手が触れたと判断した場合、得点を加算又は減算させるため、単に他動運動器具を使用しているだけでなく、他動運動器具の使用に加えて、エクササイズを行うことができ、一層エクササイズ効果を高めることができる。さらに、得点の加減算を行っているため、ゲーム感覚を与えることができる。 According to this mirror system, when the user uses the passive exercise apparatus, the operation target video light is projected on the display unit, and the user's own mirror image touches the operation target indicated by the operation target video light. In addition to using passive exercise equipment, in addition to the use of passive exercise equipment, exercise can be performed to further increase the exercise effect. Can do. Furthermore, since the score is added or subtracted, a game feeling can be given.
また、本発明に係るミラーシステムにおいて、制御手段は、エクササイズコンテンツ実行中において、ユーザの手の位置を動かす経路を示す操作対象映像光を表示部に投射させ、この操作対象映像光に沿ってユーザの手が動いていると判断した場合、操作対象映像光によって示される操作対象の色を変化させることが好ましい。 Further, in the mirror system according to the present invention, the control means projects an operation target video light indicating a path for moving the position of the user's hand on the display unit during execution of the exercise content, and the user follows the operation target video light. When it is determined that the hand is moving, it is preferable to change the color of the operation target indicated by the operation target image light.
このミラーシステムによれば、ユーザの手の位置を動かす経路を示す操作対象映像光を表示部に投射させるため、ユーザが行うべき動きを表現することができる。また、操作対象に沿ってユーザの手が動いていると判断した場合、操作対象の色を変化させる。このため、ユーザが適切な動きを行った場合に、その告知を行うことができる。 According to this mirror system, since the operation target image light indicating the path for moving the position of the user's hand is projected on the display unit, the movement to be performed by the user can be expressed. When it is determined that the user's hand is moving along the operation target, the color of the operation target is changed. For this reason, when a user performs an appropriate motion, the notification can be performed.
本発明に係るミラーシステムよれば、ユーザが操作対象映像光によって示される操作対象に触れる動作を行った場合の判断における処理負荷を軽減させることができる。 According to the mirror system of the present invention, it is possible to reduce the processing load in the determination when the user performs an operation of touching the operation target indicated by the operation target video light.
以下、図面を参照して、本発明の実施の形態を説明する。図1は、本発明の実施形態に係るミラーシステムを示す外観構成図である。ミラーシステム1は、ユーザHの鏡像を映し出すと共に、映像を表示するものである。このミラーシステム1は、プロジェクタ(投光手段)10と、表示部20と、正面カメラ(カメラ)30と、コンピュータ(制御手段)40とを備えている。なお、図1では、ユーザHが表示部20の表示面に対して正対している例を図示している。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is an external configuration diagram showing a mirror system according to an embodiment of the present invention. The
プロジェクタ10は、映像光を投射するものである。表示部20は、プロジェクタ10によって投射された映像光を映して映像をユーザHに視認可能とさせると共に、ユーザH自身の鏡像を表示可能なものである。正面カメラ30は、ユーザHを撮像するものである。コンピュータ40は、正面カメラ30により撮像された撮像画像に基づいて、各種制御を行うものである。以下、各部について詳細に説明する。
The
プロジェクタ10は、表示部20の裏側BSに設置され、映像光を表示部20の裏側BSから投射するものである。このプロジェクタ10は、コンピュータ40から映像ケーブル或いは無線通信により映像データを受信し、この受信した映像データに基づいて映像光を投射する構成となっている。また、プロジェクタ10は、コンピュータ40からの指示に基づいて、操作対象映像光を投射する。操作対象映像光とは、映像光の1種であって、ユーザの操作対象となるアイコン映像や丸形の映像(後述の図6及び図7等参照)などを映し出す光である。
The
表示部20は、プロジェクタ10が投射する映像光を拡散する拡散層21と、入射する光の一部を反射し、一部を透過するハーフミラー23と、拡散層21とハーフミラー23の間に位置する透明板22とを備えている。すなわち、表示部20は、拡散層21及びハーフミラー23を、透明板22を介して重ね合わせることにより構成されている。
The
拡散層21は、例えばシート状の拡散部材で形成されており、透明板22に貼り付けられて設置されている。なお、拡散層21は、透明板22の一部に研磨加工などを施して透明板22の裏側BSの主面に拡散機能を持たせることにより形成されていてもよい。
The
透明板22はアクリル又はガラスを材料として構成されている。なお、透明板22は、これに限らず、透明材料であれば他の材料により構成されていてもよい。ハーフミラー23は、半透過膜シートを透明板22の表面に貼り付けて構成されている。また、ハーフミラー23は、透明板22の表面に金属膜を金属蒸着させて構成されていてもよい。
The
また、表示部20は、透明板22を有さず、拡散層21とハーフミラー23とを直接貼り合わせたものであってもよい。なお、透明板22を有する方が有さない場合よりも表示部20の平面度を保つ点で有利である。さらに、表示部20は、表側FSからみて、拡散層21、透明板22及びハーフミラー23の順に配置されていなくともよく、ハーフミラー23、拡散層21及び透明板22の順に配置されていてもよいし、透明板22、ハーフミラー23及び拡散層21の順に配置されていてもよい。
Further, the
正面カメラ30は、表示部20の裏側BSに配置され、ハーフミラー23の上記性質(一部光を透過する性質)を利用することにより、表示部20を介してユーザHを撮像するものである。また、正面カメラ30は、例えば、USBケーブルにより通信が可能なUSBカメラにより構成されている。この場合、正面カメラ30は、コンピュータ40とUSBケーブルにより接続されることとなる。なお、本実施形態では、正面カメラ30は表示部20の裏側BSに設置されているが、設置位置はこれに限らず、表示部20の表面FSに設置されていてもよい。また、正面カメラ30のように、ユーザを正面から撮像するものでなくともよく、側方や上方等から撮像するものであってもよい。
The
図2は、図1に示したコンピュータ40の詳細を示す構成図である。コンピュータ40は、データの演算処理機能を備える処理演算部(CPU)41と、データを格納するデータベース42と、プロジェクタ10、及び正面カメラ30との間でデータの入出力を制御する入出力部43を備える。
FIG. 2 is a configuration diagram showing details of the
処理演算部41は、正面カメラ30により撮像された画像上におけるユーザHの目の位置を検出する目位置検出部(目位置検出手段)41aと、正面カメラ30により撮像された画像上におけるユーザHの手の位置を検出する手位置検出部(手位置検出手段)41bとを備えている。また、処理演算部41は、プロジェクタ10からの投射される操作対象映像光の表示部20上における投射位置を制御値に基づいて制御する投射位置制御部41cと、ユーザH自身の鏡像の手が操作対象映像光によって示される操作対象に触れたか否かを判断する接触判断部41dと、接触判断部41dによりユーザH自身の鏡像の手が操作対象に触れたと判断された場合に予め定められた制御を実行する対応制御部41eを備えている。
The
データベース42は、映像データ格納部42aと、プログラムデータ部42bとを備えている。映像データ格納部42aは、プロジェクタ10から投射される映像光のデータを格納しており、例えば後述するアイコン映像のデータや、丸形の映像のデータなどを格納している。プログラムデータ部42bは、処理演算部41が行う演算処理のアルゴリズムを規定したコンピュータプログラムのデータを格納したものである。コンピュータプログラムには、正面カメラ30で撮影した映像をプロジェクタ10で表示部20に投影するためのアプリケーションソフトウェア(FLASH、C++などのプログラミング言語で記述されたもの)やオペレーティングシステム(OS)等の基本ソフトウェアが含まれる。
The
次に、処理演算部41の各部について詳細に説明する。目位置検出部41aは、正面カメラ30により撮像された画像を処理し、画像内から目を抽出して画像上における目の位置を検出する。具体的に、目位置検出部41aは、まず画像内からユーザHの顔を特定する。次いで、目位置検出部41aは、顔の画像を2値化処理し、顔の暗い部分(例えば、眉、アイライン、鼻の穴、上唇と下唇との境界)を抽出する。その後、目位置検出部41aは、顔の暗い部分の配置関係から、目の位置を検出する。なお、目の位置の検出については、種々の方法があり、目位置検出部41aは、テンプレートマッチングや濃淡画像マッチングなど他の方法により、目の位置を検出してもよい。
Next, each part of the
手位置検出部41bは、正面カメラ30により撮影された画像から手を抽出して画像上におけるユーザHの手の位置を検出するものである。例えば、手位置検出部41bは、ユーザの身体画像のうち、肌色の部分や、体の輪郭などを利用して手の位置を検出する。
The hand
投射位置制御部41cは、操作対象映像光の表示部20上における投射位置を制御するものである。この投射位置制御部41cは、操作対象映像光を投射させる際、データベース42から表示部20上のどの位置に投射するかを示す制御値の情報を読み出し、読み出した制御値に従って投射位置を決定する。そして、投射位置制御部41cは、決定した投射位置に操作対象が映るように、プロジェクタ10を制御することとなる。
The projection
接触判断部41dは、目位置検出部41aにより検出された画像上における目の位置と、手位置検出部41bにより検出された画像上における手の位置との中間位置と、制御値との対応関係から、ユーザH自身の手の鏡像が操作対象映像光によって示される操作対象に触れたか否かを判断するものである。
The
図3は、図2に示した接触判断部41dによる接触判断方法を説明する側面図である。図3に示すように、ユーザHは、ユーザHの目からハーフミラー23の反射面までの距離αの2倍離れた位置に自己の目の位置を視認することができる。また、ユーザHは、ユーザHの目からハーフミラー23の反射面までの距離α’の2倍離れた位置に自己の手の位置を視認することができる。このとき、ユーザHは、自己の手を表示部20上において点Sの位置で視認することとなる。
FIG. 3 is a side view for explaining a contact determination method by the
そして、点Sの位置は、ユーザHの表示部20に対する距離に拘わらず、ほぼ不変となっている。図4は、距離に応じた手の位置を説明する簡略図であり、(a)は距離が短い場合を示し、(b)は距離が長い場合を示している。
The position of the point S is almost unchanged regardless of the distance of the user H to the
図4(a)に示すように、ユーザHの目の位置eとし、ユーザHの手の位置hとし、鏡像における目の位置e’とし、鏡像における手の位置h’とした場合、ユーザHは、表示部20上において、点e,h’の中間位置である点Sの位置で手の鏡像を確認することとなる。一方、図4(b)に示すように、表示部20に対する距離が離れた場合、ユーザHは、表示部20上において、点e,h’の中間位置である点Sの位置で手の鏡像を確認することとなる。この点Sは、図4(a)及び図4(b)に示すように、地面からの距離がγであり、一致している。
As shown in FIG. 4A, in the case where the eye position of the user H is set to e, the hand position of the user H is set to the eye position e ′ in the mirror image, and the hand position h ′ in the mirror image is set, the user H Will confirm the mirror image of the hand at the position of the point S, which is an intermediate position between the points e and h ′, on the
このように、ユーザHの表示部20に対する距離に拘わらず、点Sは同じとなる。より数学的に説明すると、点Sの位置は、図3から明らかなように、ユーザの目の位置とユーザの手の位置とを結ぶ直線lの中点mから表示部20に対して法線を引いた位置に該当し、ユーザHの目と手との位置にのみ依存することがわかる。このため、ユーザHの目の位置や手の位置が変わらない限り、ユーザHが表示部20に対して離れたり近寄ったりしても、点Sの位置は不変となる。そして、点Sの位置は、ユーザHの目の位置や手の位置が変化した場合のみ、他の位置に変位することとなる。よって、本実施形態では、ユーザHの目の位置と手の位置とを検出し、点Sに該当する位置を求め、投射位置が点S(具体的には表示部20の厚みを考慮して点S’)の位置となっていれば、ユーザH自身の手の鏡像が操作対象映像光によって示される操作対象に触れたか否かを判断できることとなる。
Thus, the point S is the same regardless of the distance of the user H to the
この点Sを求めるにあたり、接触判断部41dは、まず、正面カメラ30により撮像された画像上における目の位置と手の位置との情報を取得し、画像上においてこれらの中間位置の座標値を求める。そして、接触判断部41dは、求めた座標値を座標変換して、表示部20上における第1座標値(すなわち図3でいうところの点Sの位置)を求める。
In obtaining this point S, the
具体的に説明すると、画像上における目の位置が座標(x0,y0)にあり、手の位置が座標(x1,y1)であるとすると、接触判断部41dは、中間位置である座標値((x1−x0)/2,(y1−y0)/2)を算出する。そして、接触判断部41dは、座標変換を行って、例えば表示部20上における第1座標値(例えば(x2,y2))を算出する。
More specifically, if the position of the eye on the image is at the coordinates (x 0 , y 0 ) and the position of the hand is at the coordinates (x 1 , y 1 ), the
また、投射位置は投射位置制御部41cからの制御値に基づいて判断できる。このため、接触判断部41dは、投射位置制御部41cから制御値の情報を読み込んで、制御値から表示部20上における第2座標値(例えば(x2’,y2’))を求める。そして、接触判断部41dは、第1座標値と第2座標値との差が所定値以内である場合(すなわち(x2,y2)と(x2’,y2’)との距離が所定値よりも近い場合)、ユーザH自身の手の鏡像が操作対象映像光によって示される操作対象に触れたと判断する。
Further, the projection position can be determined based on the control value from the projection
以上から、本実施形態に係る接触判断部41dは、ユーザHの鏡像を推定することなく、簡易にユーザHが操作対象映像光に触れた状態を判断することとなる。
As described above, the
なお、上記実施形態ではユーザHを撮影するものとして正面カメラ30が1つだけ設けられているが、これに限らず、複数のカメラを備えていてもよい。
In the above embodiment, only one
図5は、本実施形態に係るミラーシステム1の変形例を示す構成図である。図5に示すように、変形例に係るミラーシステム1は、表示部20の裏面BSに2つのカメラ30a,30bを有している。これらのカメラ30a,30bは、プロジェクタ10のからの投射光の邪魔にならない位置、具体的には表示部20の左右両端位置に設けられている。この構成により、ステレオ立体視の原理を用いて、ユーザHの目及び手について、より詳細に求めることができる。すなわち、正面カメラ30が1つだけであると、正面カメラ30に対して真っ直ぐに手を近づけたり離したりしても、画像上における手の位置は同じ位置に検出されてしまう。このため、座標変換をして点Sの位置を求めようとしても、不正確となってしまう可能性がある。ところが、複数のカメラ30a,30bを備える場合、表示部20からユーザHの手までの距離を求めることができ、点Sの位置を正確に求めることができる。なお、上記では手の位置について説明したが、目の位置についても同様であり、表示部20からユーザHの目までの距離を求めることで、点Sの位置を正確に求めることができる。また、上記では複数のカメラ30a,30bを備える場合を説明したが、これに限らず、距離画像カメラや距離センサ(レーザ方式及び超音波方式など)を用いてもよい。
FIG. 5 is a configuration diagram showing a modification of the
再度、図2を参照する。図2に示す対応制御部41eは、接触判断部41dによりユーザH自身の手の鏡像が操作対象映像光によって示される操作対象に触れたと判断された場合に予め定められた制御を実行するものであって、例えば、後述する図6に示すようなアイコン映像(操作対象映像光によって示される操作対象の1つ)が表示部20上に表示された状態において、ユーザH自身の手の鏡像がアイコン映像に触れたと判断した場合に、アイコンの指定操作の制御を行う構成となっている。この対応制御部41eについて詳細に説明する。
Reference is again made to FIG. The correspondence control unit 41e shown in FIG. 2 executes a predetermined control when the
図6は、アイコンの指定操作画面を示す図である。図6に示すように、プロジェクタ10からの投射光によって、表示部20上にアイコン映像101〜104が表示されている。第1アイコン映像101は、ユーザHに運動を促すエクササイズコンテンツを選択させるための操作対象である。第2アイコン映像102は、ユーザHの身体特徴(体重、身長及び体脂肪率など)を表示するための操作対象である。第3アイコン映像103は、ユーザHが過去に行ったエクササイズの履歴を参照するための操作対象である。第4アイコン映像104は、ユーザHのエクササイズや身体的特徴について、より詳細に参照させるための詳細表示用の操作対象である。
FIG. 6 is a diagram illustrating an icon designation operation screen. As shown in FIG. 6,
このようなアイコン映像101〜104が表示されている状態において、ユーザHの手が鏡像上において第1アイコン映像101と重なるように移動させられたとする。この場合、接触判断部41dは、図3及び図4に示した理論に基づいて、ユーザH自身の手の鏡像が操作対象である第1アイコン映像101に触れたと判断する。そして、対応制御部41eは、プロジェクタ10からサブアイコン映像101a,101b(操作対象映像光によって示される操作対象の1つ)を投射させ、表示部20は、サブアイコン映像101a,101bを表示させる。
It is assumed that the user H's hand is moved so as to overlap the
第1サブアイコン映像101aは、他動運動器具をユーザHが使用している際に、ユーザHに運動を促す運動コンテンツを実行するための操作対象である。ここで、他動運動器具とは、ユーザH以外から与えられた動力によって動作する器具である。また、第2サブアイコン映像101aは、ユーザHのバランスを矯正するための矯正コンテンツを実行するための操作対象である。
The first
このようなサブアイコン映像101a,101bが表示されている状態において、ユーザHの鏡像の手が表示部20上においてサブアイコン映像101a,101bと重なるように移動させられたとする。この場合、接触判断部41dは、図3及び図4に示した理論に基づいて、ユーザH自身の手の鏡像が操作対象映像光によって示されるサブアイコン映像101a,101bに触れたと判断する。そして、対応制御部41eは、運動コンテンツ又は矯正コンテンツを実行する。
It is assumed that the mirror image hand of the user H is moved on the
図7は、ユーザH自身の手の鏡像が第1サブアイコン映像101aに触れたと判断した場合に実行される運動コンテンツを示す図である。図7に示すように、運動コンテンツにおいては、丸形の操作対象110a〜110fがユーザHの周囲に映し込まれている。また、ユーザHは、他動運動器具111である乗馬型振動マシーンに乗っており、その鏡像Iが表示部20に写し込まれている。
FIG. 7 is a diagram illustrating exercise content executed when it is determined that the mirror image of the hand of the user H himself / herself touches the first
このような状態において、ユーザHの手が操作対象110a〜110fの位置と重なるように移動させられると、接触判断部41dは、図3及び図4に示した理論に基づいて、ユーザH自身の手の鏡像が操作対象110a〜110fに触れたと判断する。そして、対応制御部41eは、得点を加算又は減算させていき、ユーザHの運動結果を得点により示すように制御する。これにより、ユーザHにゲーム性を感じさせつつ、運動を促すようにしている。
In such a state, when the user H's hand is moved so as to overlap with the positions of the operation objects 110a to 110f, the
なお、運動コンテンツでは、複数の操作対象110a〜110fのうち、いずれか1つを順次表示させ、ユーザH自身の手の鏡像が順番に各操作対象110a〜110fに触れるように促してもよい。さらに、触れるべき操作対象110a〜110fについてのみ色を変更して表示するようにしてもよい。
In the exercise content, any one of the plurality of
図8は、ユーザHが第2サブアイコン映像101bに触れたと判断した場合に実行される矯正コンテンツを示す図であり、(a)が矯正運動前の状態を示し、(b)は矯正運動中の状態を示している。図8(a)に示すように、矯正コンテンツにおいては、丸形の操作対象120がユーザHの左側に映し込まれている。また、ユーザHの鏡像Iが表示部20に写し込まれている。
FIGS. 8A and 8B are diagrams illustrating correction content executed when it is determined that the user H has touched the second
このような状態において、ユーザH自身の手の鏡像が丸形の操作対象120の位置と重なるように移動させられると、接触判断部41dは、図3及び図4に示した理論に基づいて、ユーザH自身の手の鏡像が操作対象120に触れたと判断する。そして、対応制御部41eは、プロジェクタ10から図8(b)に示す8の字型の操作対象121を投射させる。
In such a state, when the mirror image of the user's own hand is moved so as to overlap the position of the
これにより、ユーザHは8の字型の操作対象121に沿って手を動かすようにしむけられることとなる。そして、腕の振り、体重移動、腰の向きの変化、及び膝の動きなどから、バランスが矯正されることとなる。なお、矯正コンテンツにおいて接触判断部41dが操作対象121に沿ってユーザの手が動いていると判断した場合、対応制御部41eは、操作対象121の色を変化させる。これにより、ユーザHが正確に手を動かしたことをユーザHに告知することとなる。このときの接触判断についても、図3及び図4に示した理論に基づくこととなる。特に、操作対象121が長い距離を有するため、接触判断部41dは、所定距離毎にポイントを設け、ユーザH自身の手の鏡像が各ポイントに触れたか否かを判断するようにしている。
As a result, the user H is forced to move his / her hand along the 8-shaped
次に、本実施形態に係るミラーシステム1の動作について説明する。図9は、本実施形態に係るミラーシステム1の動作を示すフローチャートである。図9に示すように、まず、投射位置制御部41cは、操作対象映像光の投射位置を決定する(S1)。このとき、投射位置制御部41cは、制御値を求めることにより投射位置を決定する。次に、処理演算部41は、制御値に基づいてプロジェクタ10を駆動させて投射位置に操作対象映像光を投射させる(S2)。
Next, the operation of the
その後、目位置検出部41aは、正面カメラ30により撮影された画像上におけるユーザHの目の位置を検出する(S3)。次に、手位置検出部41bは、正面カメラ30により撮影された画像上におけるユーザHの手の位置を検出する(S4)。
Thereafter, the eye position detection unit 41a detects the position of the eyes of the user H on the image photographed by the front camera 30 (S3). Next, the hand
次いで、接触判断部41dは、ステップS3において検出した目の位置、及び、ステップS4において検出した手の位置から、画像上における目と手との中間位置を算出する(S5)。その後、接触判断部41dは、中間位置の座標値を座標変換して表示部20上における第1座標値を算出する(S6)。その後、接触判断部41dは、制御値の情報を入力し(S7)、第2座標値を求める(S8)。
Next, the
次いで、接触判断部41dは、ステップS6において算出した第1座標値、及び、ステップS7において算出した第2座標値に基づいて、ユーザHの手が操作対象映像光に触れたか否かを判断する(S9)。このとき、接触判断部41dは、第1座標値と第2座標値との距離が所定距離以内であるかに基づいて、ユーザH自身の手の鏡像が操作対象映像光によって示される操作対象に触れたか否かを判断することとなる。
Next, the
ユーザH自身の手の鏡像が操作対象映像光によって示される操作対象に触れていないと判断した場合(S9:NO)、処理はステップS3に移行する。一方、ユーザH自身の手の鏡像が操作対象映像光によって示される操作対象に触れたと判断した場合(S9:YES)、対応制御部41eは、予め定められた制御を実行する(S10)。このときの制御は、図6を参照して説明したアイコン映像101〜104及びサブアイコン映像101a,101bの指定制御であったり、図7を参照して説明した得点の加減算制御であったりする。また、図8を参照して説明した制御であってもよい。
If it is determined that the mirror image of the user H's own hand does not touch the operation target indicated by the operation target video light (S9: NO), the process proceeds to step S3. On the other hand, when it is determined that the mirror image of the hand of the user H himself touches the operation target indicated by the operation target video light (S9: YES), the response control unit 41e executes a predetermined control (S10). The control at this time is the designation control of the
そして、予め定められた制御の実行後、図9に示す処理は終了する。なお、図9に示す処理は、ミラーシステム1の電源がオフとなるまで、繰り返し実行される。
Then, after execution of the predetermined control, the process shown in FIG. 9 ends. The process shown in FIG. 9 is repeatedly executed until the power of the
このようにして、本実施形態に係るミラーシステム1によれば、目位置検出部41aにより検出された画像上における目の位置と、手位置検出部41bにより検出された画像上における手の位置との中間位置と、制御値との対応関係から、ユーザH自身の鏡像の手が操作対象映像光によって示される操作対象に触れたか否かを判断する。ここで、ユーザHは、ユーザHから表示部20までの距離の約2倍の位置に自己の鏡像Iを視認する。すなわち、ユーザHとユーザHの鏡像Iとの中間に表示部20が存在するような状態ともいえる。しかも、表示部20は、ユーザHから表示部20との距離に拘わらず、常に中間に位置している。そして、ユーザHの目と鏡像Iの手との中間にも表示部20が存在するといえ、ユーザHの視点からすると、ユーザHの目の位置と鏡像Iの手の位置との中間地点に、操作対象映像光の投射位置が位置していれば、ユーザHには手が操作対象に触れたように認識される。このように、ユーザHが操作対象に触れたか否かを判断するにあたり、鏡像Iの推定は必要なく、ユーザHの目の位置の情報と、ユーザHの手の位置の情報と、操作対象映像光の投射位置を示す制御値の情報があれば足りる。従って、ユーザHが操作対象映像光によって示される操作対象に触れる動作を行った場合の判断における処理負荷を軽減させる。
Thus, according to the
また、画像上における中間位置の座標値を座標変換して表示部20上における第1座標値を求め、この第1座標値と制御値が示す第2座標値との差が所定値以内である場合に、ユーザH自身の鏡像Iの手が操作対象映像光によって示される操作対象に触れたと判断する。このため、中間位置を求めた後は、既存技術である座標値の変換と、制御値が示す座標値との比較のみで、操作対象映像光に触れたか否かを判断でき、処理負荷を軽減させることができる。
Further, the coordinate value of the intermediate position on the image is transformed to obtain the first coordinate value on the
また、ユーザH自身の鏡像Iの手が操作対象映像光によって示される操作対象に触れたと判断した場合、予め定められた制御を実行するため、ユーザHが操作対象映像光を操作して機器等を制御させるという新たな機器操作を提案することができる。 In addition, when it is determined that the hand of the mirror image I of the user H touches the operation target indicated by the operation target video light, the user H operates the operation target video light to perform a predetermined control. It is possible to propose a new device operation for controlling the device.
また、表示部20に向き合った状態でユーザに運動を促すエクササイズコンテンツを選択させるアイコン映像101,101a,101bを表示させ、ユーザH自身の鏡像Iの手がアイコン映像101,101a,101bに触れたと判断した場合、エクササイズコンテンツを実行する。このため、エクササイズのコンテンツを実行するにあたり、ユーザHは各機器のスイッチ操作等を行うために、表示部20の前から離れ、その後表示部20の前に移動し、エクササイズを行うという煩わしさがなく、表示部20の前から移動しないまま、アイコン映像101,101a,101bに触れてエクササイズコンテンツを実行させることができる。
Also,
また、他動運動器具111をユーザHが使用している際に表示部20に操作対象映像光110a〜110fを投射させ、この操作対象映像光によって示される操作対象110a〜110fにユーザH自身の鏡像Iの手が触れたと判断した場合、得点を加算又は減算させるため、単に他動運動器具111を使用しているだけでなく、他動運動器具111の使用に加えて、エクササイズを行うことができ、一層エクササイズ効果を高めることができる。さらに、得点の加減算を行っているため、ゲーム感覚を与えることができる。
In addition, when the user H is using the
また、ユーザHの手の位置を動かす経路を示す操作対象映像光121を表示部20に投射させるため、ユーザHが行うべき動きを表現することができる。また、操作対象映像光によって示される操作対象121に沿ってユーザの手が動いていると判断した場合、操作対象121の色を変化させる。このため、ユーザが適切な動きを行った場合に、その告知を行うことができる。
In addition, since the operation target image light 121 indicating the path for moving the position of the hand of the user H is projected on the
以上、本発明に係るミラーシステムを実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、本発明の趣旨を逸脱しない範囲で、変更を加えてもよい。 As described above, the mirror system according to the present invention has been described based on the embodiment. However, the present invention is not limited to this, and modifications may be made without departing from the spirit of the present invention.
例えば、本実施形態では、図6〜図8に示す各操作対象映像光を説明したが、これらに限らず、他の操作対象映像光を表示してもよい。 For example, in the present embodiment, each of the operation target image lights illustrated in FIGS. 6 to 8 has been described. However, the present invention is not limited thereto, and other operation target image lights may be displayed.
また、上記実施形態において接触判断部41dは座標変換を行っているが、この座標変換の精度を向上させるため、以下のような制御を行ってもよい。すなわち、プロジェクタ10は、予め表示部20上における座標値(x3,y3)の位置に操作対象映像光を投射する。そして、ユーザHに、音声や表示によって操作対象映像光によって示される操作対象に触れる旨を提示する。これにより、ユーザHの鏡像Iの手は操作対象に触れることとなり、触れたときの目と手の位置の中間位置と、座標値(x3,y3)とが対応関係にあることが明らかとなる。そして、接触判断部41dは、この対応関係を基準に座標変換式を構築し、以後の座標変換処理に用いるようにするとよい。
In the above embodiment, the
なお、この場合、画像の歪みなどを考慮して、表示部20上における各位置に操作対象映像光によって示される操作対象を表示させる。例えば表示部20を16分割して16個の操作対象を表示させる。そして、ユーザHにそれぞれの操作対象に触れる旨を提示する。これにより、画像の歪みを考慮して、より詳細な座標変換式を構築することができ、一層精度を高めることができる。
In this case, the operation target indicated by the operation target video light is displayed at each position on the
さらに、上記の処理は、定期的に行うことが望ましい。これにより、ミラーシステム1を長期に使用して、プロジェクタ10や正面カメラ30の設置位置にずれが生じたとしても、ズレを補正するような座標変換式を構築でき、一層精度を高めることができる。
Furthermore, it is desirable to perform the above processing periodically. Accordingly, even if the
1 ミラーシステム
10 プロジェクタ
20 表示部
21 拡散層
22 透明板
23 ハーフミラー
30 正面カメラ(カメラ)
40 コンピュータ(制御手段)
41 処理演算部
41a 目位置検出部(目位置検出手段)
41b 手位置検出部(手位置検出手段)
41c 投射位置制御部
41d 接触判断部
41e 対応制御部
42 データベース
42a 映像データ格納部
42b プログラムデータ部
43 入出力部
DESCRIPTION OF
40 Computer (control means)
41 processing calculation part 41a eye position detection part (eye position detection means)
41b Hand position detection unit (hand position detection means)
41c Projection
Claims (6)
前記投光手段に投射された映像光を映して映像をユーザに視認可能とさせると共に、ユーザ自身の鏡像を表示可能な表示部と、
ユーザを撮像するカメラと、
前記カメラにより撮像された画像上におけるユーザの目の位置を検出する目位置検出手段と、
前記カメラにより撮像された画像上におけるユーザの手の位置を検出する手位置検出手段と、
前記投光手段から投射される映像光のうち、ユーザの操作対象を映し出す操作対象映像光の前記表示部上における投射位置を制御値に基づいて制御する制御手段と、を備え、
前記制御手段は、前記目位置検出手段により検出された画像上における目の位置と、前記手位置検出手段により検出された画像上における手の位置との中間位置と、前記制御値との対応関係から、ユーザ自身の鏡像の手が前記操作対象映像光によって示される操作対象に触れたか否かを判断する
ことを特徴とするミラーシステム。 A light projecting means for projecting image light;
Displaying the image light projected on the light projecting means to make the image visible to the user, and a display unit capable of displaying a mirror image of the user,
A camera that images the user;
Eye position detection means for detecting the position of the user's eyes on the image captured by the camera;
Hand position detecting means for detecting the position of the user's hand on the image captured by the camera;
Control means for controlling the projection position on the display unit of the operation target video light for projecting the user's operation target out of the video light projected from the light projecting means,
The control means is a correspondence relationship between the control value and an intermediate position between the eye position on the image detected by the eye position detection means and the hand position on the image detected by the hand position detection means. Then, it is determined whether or not the hand of the mirror image of the user touches the operation target indicated by the operation target video light.
ことを特徴とする請求項1に記載のミラーシステム。 The control means converts the coordinate value of the intermediate position on the image captured by the camera into a first coordinate value on the display unit, and the first coordinate value and the control value indicate The determination that the hand of the mirror image of the user touches the operation target indicated by the operation target image light when the difference from the second coordinate value on the display unit is within a predetermined value. The mirror system described in 1.
ことを特徴とする請求項1又は請求項2のいずれかに記載のミラーシステム。 3. The control unit according to claim 1, wherein when the control unit determines that the hand of the mirror image of the user touches the operation target indicated by the operation target video light, the control unit executes predetermined control. A mirror system according to any one of the above.
ことを特徴とする請求項1から請求項3のいずれか1項に記載のミラーシステム。 The control means displays an operation target for selecting exercise content that prompts the user to exercise while facing the display unit, and determines that the user's own mirror image hand touches the operation target indicated by the operation target video light. In this case, exercise content is executed. The mirror system according to any one of claims 1 to 3, wherein exercise content is executed.
前記制御手段は、前記エクササイズコンテンツの実行中において、前記表示部に前記操作対象映像光を投射させ、この操作対象映像光によって示される操作対象にユーザ自身の鏡像の手が触れたと判断した場合、得点を加算又は減算させる
ことを特徴とする請求項4に記載のミラーシステム。 The exercise content is content that prompts the user to exercise when the user is using a passive exercise device that operates with power given by someone other than the user,
When the control unit projects the operation target video light on the display unit during execution of the exercise content, and determines that the user's own mirror image touches the operation target indicated by the operation target video light, The mirror system according to claim 4, wherein the score is added or subtracted.
ことを特徴とする請求項4に記載のミラーシステム。 When the exercise content is being executed, the control unit projects operation target image light indicating a path for moving the position of the user's hand onto the display unit, and the user's hand moves along the operation target image light. The mirror system according to claim 4, wherein, when determined, the color of the operation target indicated by the operation target video light is changed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008109490A JP4985531B2 (en) | 2008-04-18 | 2008-04-18 | Mirror system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008109490A JP4985531B2 (en) | 2008-04-18 | 2008-04-18 | Mirror system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009259117A JP2009259117A (en) | 2009-11-05 |
JP4985531B2 true JP4985531B2 (en) | 2012-07-25 |
Family
ID=41386438
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008109490A Active JP4985531B2 (en) | 2008-04-18 | 2008-04-18 | Mirror system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4985531B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5685036B2 (en) * | 2010-09-27 | 2015-03-18 | パナソニックIpマネジメント株式会社 | Center of gravity movement training system |
WO2012043540A1 (en) * | 2010-09-27 | 2012-04-05 | パナソニック株式会社 | Center of gravity shifting training system |
JP5789738B2 (en) * | 2011-02-04 | 2015-10-07 | パナソニックIpマネジメント株式会社 | Center of gravity movement training system |
JP6643825B2 (en) * | 2014-08-25 | 2020-02-12 | キヤノン株式会社 | Apparatus and method |
JP2019150545A (en) * | 2018-03-06 | 2019-09-12 | 株式会社 Mtg | Movement booth installation structure and method |
WO2019172298A1 (en) * | 2018-03-06 | 2019-09-12 | 株式会社Mtg | Exercise booth installation structure and method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4323180B2 (en) * | 2003-02-13 | 2009-09-02 | 日本電信電話株式会社 | Interface method, apparatus, and program using self-image display |
JP3847753B2 (en) * | 2004-01-30 | 2006-11-22 | 株式会社ソニー・コンピュータエンタテインメント | Image processing apparatus, image processing method, recording medium, computer program, semiconductor device |
JP2006004330A (en) * | 2004-06-21 | 2006-01-05 | Nec Viewtechnology Ltd | Video display system |
JP4005060B2 (en) * | 2004-06-30 | 2007-11-07 | 株式会社ソニー・コンピュータエンタテインメント | Information processing system, program, and game character movement control method |
-
2008
- 2008-04-18 JP JP2008109490A patent/JP4985531B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009259117A (en) | 2009-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11262840B2 (en) | Gaze detection in a 3D mapping environment | |
JP6074494B2 (en) | Shape recognition device, shape recognition program, and shape recognition method | |
US10511778B2 (en) | Method and apparatus for push interaction | |
JP4985531B2 (en) | Mirror system | |
JP5881136B2 (en) | Information processing apparatus and method, and program | |
US8113953B2 (en) | Image-linked sound output method and device | |
EP2894851B1 (en) | Image processing device, image processing method, program, and computer-readable storage medium | |
JP6840697B2 (en) | Line-of-sight direction estimation device, line-of-sight direction estimation method, and line-of-sight direction estimation program | |
JP2002351603A (en) | Portable information processor | |
JP2013041431A (en) | Input device, input control method, and input control program | |
KR102125254B1 (en) | User-recognized walking motion measurement system and method for measuring walking motion using the same | |
JP2019053603A (en) | Display control program, apparatus and method | |
JP3792907B2 (en) | Hand pointing device | |
JP4870651B2 (en) | Information input system and information input method | |
JP2010266510A (en) | Mirror system | |
JP5482412B2 (en) | Robot, position estimation method and program | |
JP6975001B2 (en) | Tilt measuring device and tilt measuring method | |
KR20150073754A (en) | Motion training apparatus and method for thereof | |
JP2010266918A (en) | Mirror system | |
JP2018054747A (en) | Image display device, image formation apparatus and program | |
JP2009169109A (en) | Mirror system | |
US11604517B2 (en) | Information processing device, information processing method for a gesture control user interface | |
JP2017049662A (en) | Information processing apparatus, control method thereof, program, and storage medium | |
JP7397282B2 (en) | Stationary determination system and computer program | |
WO2016151869A1 (en) | Information processing apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101222 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20120111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120329 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120403 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120416 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4985531 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150511 Year of fee payment: 3 |