JP2012208719A - Imaging device, imaging method, and program - Google Patents
Imaging device, imaging method, and program Download PDFInfo
- Publication number
- JP2012208719A JP2012208719A JP2011073615A JP2011073615A JP2012208719A JP 2012208719 A JP2012208719 A JP 2012208719A JP 2011073615 A JP2011073615 A JP 2011073615A JP 2011073615 A JP2011073615 A JP 2011073615A JP 2012208719 A JP2012208719 A JP 2012208719A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- image
- unit
- virtual
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 237
- 238000000034 method Methods 0.000 claims description 173
- 230000008569 process Effects 0.000 claims description 117
- 238000012545 processing Methods 0.000 claims description 53
- 239000000203 mixture Substances 0.000 abstract description 19
- 230000006870 function Effects 0.000 description 22
- 230000003287 optical effect Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 101150100956 VSP2 gene Proteins 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、ユーザが身体を固定したまま撮像装置のみを移動させるだけで、所望の構図の画像を視認することが可能になる、撮像装置及び撮像方法、並びにプログラムに関する。 The present invention relates to an imaging apparatus, an imaging method, and a program that enable a user to visually recognize an image having a desired composition only by moving the imaging apparatus while keeping his body fixed.
従来より、デジタルカメラ等の撮像装置は、その裏面等に表示部を有しており、シャッタ釦の押下操作等の記録指示操作がなされる前の段階から、被写体を撮像方向(レンズの光軸の方向)からみた様子を示す画像を表示部にリアルタイム表示している。
このような画像は、一般的に、「ライブビュー画像」や「スルー画像」と呼ばれている。なお、本明細書では、「スルー画像」という呼称に統一して説明することにする。
2. Description of the Related Art Conventionally, an imaging apparatus such as a digital camera has a display unit on its back surface, and the subject is captured in the imaging direction (the optical axis of the lens) from the stage before a recording instruction operation such as a shutter button pressing operation is performed. An image showing a state seen from the direction of () is displayed on the display unit in real time.
Such an image is generally called a “live view image” or a “through image”. In the present specification, the term “through image” will be used in the description.
ユーザは、撮像装置を手等で保持した状態で移動させたり回転させたりして、その都度、スルー画像をみて所望の構図となっているか否かを確認する。そして、ユーザは、所望の構図のスルー画像が表示部に映っていることを確認すると、その状態を維持したまま、シャッタ釦の押下操作等の記録指示操作をする。
すると、撮像装置は、記録指示操作がなされた段階で撮像している画像のデータ、即ち、当該所望の構図のスルー画像と略同一の画像のデータを、メモリカード等に記録する。
The user moves or rotates the image pickup apparatus while being held by a hand or the like, and checks whether or not a desired composition is obtained by looking at the through image each time. When the user confirms that a through image having a desired composition is displayed on the display unit, the user performs a recording instruction operation such as a shutter button pressing operation while maintaining the state.
Then, the image capturing apparatus records data of an image captured at the stage when the recording instruction operation is performed, that is, data of an image substantially the same as the through image of the desired composition on a memory card or the like.
このように、ユーザは、記録指示操作をする前に、所望の構図を決定するために、スルー画像を活用することが多い。
しかしながら、スルー画像とは、上述の如く、現時点の撮像方向(レンズの光軸の方向)から被写体をみた様子を示す画像である。このため、ユーザが直立不動して撮像装置のみを手で移動させただけでは所望の構図が得られない場合、ユーザ自身の身体を移動させなければならないため、ユーザにとって、所望の構図を決定する操作は負担なものになっている。
このような状況から、ユーザが身体を固定したまま撮像装置のみを移動させるだけで、所望の構図の画像を視認したいという要求が、近年多くのユーザから挙げられている。ただし、当該要求に応えるためには、現時点で肉眼視できないものを表示させる技術が必要になる。
As described above, a user often uses a through image to determine a desired composition before performing a recording instruction operation.
However, the through image, as described above, is an image showing a state in which the subject is viewed from the current imaging direction (the direction of the optical axis of the lens). For this reason, when the user cannot move upright and cannot move the imaging apparatus only by hand, the user's own body must be moved. Therefore, the user determines the desired composition. Operation is burdensome.
From such a situation, many users have recently demanded that a user wants to visually recognize an image having a desired composition only by moving the imaging apparatus while the body is fixed. However, in order to meet this requirement, a technique for displaying what cannot be seen with the naked eye at the present time is required.
現時点で肉眼視できないものを表示させる従来の技術として、赤外線カメラ、暗視カメラ、赤外線サーモグラフィカメラ等で特殊な画像を表示させる技術が知られている。
ただし、これらの特殊な画像は、あくまでも、現時点の撮像方向(レンズの光軸の方向)の画角の範囲内に映る画像である。
しかしながら、現時点で肉眼視できないものとして表示させる対象は、現在の視点からは肉眼視できない対象、即ち、現時点の撮像方向の画角の範囲外にある対象である。換言すると、仮に視点を移動させれば肉眼視が可能になる対象であって、視点を移動させるためにはユーザが身体を移動させなければならない対象を、表示させることが必要になる。例えば、撮像装置が、所定物体の正面側に向いている場合、当該所定物体の背面側を表示させることが必要になる。
As a conventional technique for displaying what cannot be seen with the naked eye at present, a technique for displaying a special image with an infrared camera, a night vision camera, an infrared thermography camera, or the like is known.
However, these special images are only images that fall within the field angle range of the current imaging direction (the direction of the optical axis of the lens).
However, an object to be displayed as being invisible to the naked eye at the present time is an object that cannot be viewed with the naked eye from the current viewpoint, that is, an object outside the range of the angle of view in the current imaging direction. In other words, if the viewpoint is moved, it is an object that can be seen with the naked eye, and in order to move the viewpoint, it is necessary to display an object on which the user must move the body. For example, when the imaging device faces the front side of a predetermined object, it is necessary to display the back side of the predetermined object.
このような必要性に応え得る従来の技術としては、仮想世界を構築可能なCG(Computer Graphics)の技術(以下、「CG技術」と呼ぶ)が存在する。
例えば、非特許文献1には、予め用意された3次元形状のモデルを用いて、所定視点から当該モデルを眺めた様子を示す画像を描画可能なCG技術が開示されている(非特許文献1参照)。
このような非特許文献1の技術を受けて、特許文献1や2には、予め用意された対象物体の3次元形状データに基づいて、任意の視点から当該対象物体を眺めた様子を示す画像を表示可能なCG技術が記載されている。
As a conventional technique that can meet such a need, there is a CG (Computer Graphics) technique (hereinafter referred to as “CG technique”) that can construct a virtual world.
For example, Non-Patent
In response to such a technique of Non-Patent
しかしながら、非特許文献1並びに特許文献1及び2に記載のCG技術を含め、従来のCG技術を適用して、任意の視点から眺めた所定物体の画像を表示するためには、当該所定物体の3次元モデル(3次元形状データ)が予め用意されていることが前提になる。
従って、このような前提が必要になる従来のCG技術をそのまま適用しても、上述の要望に応えること、即ち、ユーザが身体を固定したまま撮像装置のみを移動させるだけで、所望の構図の画像を視認したいという要求に応えることは困難である。
However, in order to display an image of a predetermined object viewed from an arbitrary viewpoint by applying conventional CG techniques including the CG techniques described in Non-Patent
Therefore, even if the conventional CG technology that requires such a premise is applied as it is, it is possible to satisfy the above-mentioned demand, that is, the user can move only the imaging device while fixing the body, and the desired composition can be obtained. It is difficult to meet the demand for viewing images.
本発明は、このような状況に鑑みてなされたものであり、ユーザが身体を固定したまま撮像装置のみを移動させるだけで、所望の構図の画像を視認可能にすることを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to make it possible to visually recognize an image having a desired composition only by moving the imaging apparatus while the user is fixing his body.
上記目的を達成するため、本発明の一態様の撮像装置は、
1以上の被写体を所定の撮像方向から撮像し、その結果得られる撮像画像のデータを出力する撮像手段と、
前記撮像手段から出力された前記撮像画像のデータに基づいて、前記1以上の被写体の中から、処理対象として注目すべき注目被写体を決定する注目被写体決定手段と、
前記注目被写体決定手段により決定された前記注目被写体の3次元モデルを生成又は取得する3次元モデル生成取得手段と、
前記撮像手段の位置及び姿勢を示す位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された前記位置情報に応じて特定される視点であって、前記所定の撮像方向とは異なる方向の視点から、前記3次元モデル生成取得手段により生成又は取得された前記注目被写体の3次元モデルを眺望した様子を示す画像のデータを、仮想画像のデータとして生成する仮想画像生成手段と、
前記仮想画像生成手段によりデータとして生成された前記仮想画像の表示を制御する表示制御手段と、
を備えることを特徴とする。
In order to achieve the above object, an imaging device of one embodiment of the present invention includes:
Imaging means for imaging one or more subjects from a predetermined imaging direction and outputting data of a captured image obtained as a result;
Subject-of-interest determining means for determining a subject of interest to be noted as a processing target from among the one or more subjects based on the data of the captured image output from the imaging means;
3D model generation and acquisition means for generating or acquiring the 3D model of the target object determined by the target object determination means;
Position information acquisition means for acquiring position information indicating the position and orientation of the imaging means;
The viewpoint identified according to the position information acquired by the position information acquisition means, and generated or acquired by the three-dimensional model generation acquisition means from a viewpoint in a direction different from the predetermined imaging direction. Virtual image generation means for generating, as virtual image data, image data indicating a view of the three-dimensional model of the subject of interest;
Display control means for controlling display of the virtual image generated as data by the virtual image generation means;
It is characterized by providing.
本発明によれば、ユーザが身体を固定したまま撮像装置のみを移動させるだけで、所望の構図の画像を視認することが可能となる。 According to the present invention, it is possible to visually recognize an image with a desired composition simply by moving only the imaging device while the body is fixed.
以下、本発明の実施形態について、図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の一実施形態に係る撮像装置1のハードウェアの構成を示すブロック図である。
撮像装置1は、例えばデジタルカメラとして構成される。
FIG. 1 is a block diagram showing a hardware configuration of an
The
撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、画像処理部14と、バス15と、入出力インターフェース16と、撮像部17と、操作部18と、センサ部19と、表示部20と、記憶部21と、通信部22と、ドライブ23と、を備えている。
The
CPU11は、ROM12に記録されているプログラム、又は、記憶部21からRAM13にロードされたプログラムに従って各種の処理を実行する。
The
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The
画像処理部14は、DSP(Digital Signal Processor)や、VRAM(Video Random Access Memory)等から構成されており、CPU11と協働して、画像のデータに対して各種画像処理を施す。
The
CPU11、ROM12、RAM13、及び画像処理部14は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、操作部18、センサ部19、表示部20、記憶部21、通信部22及びドライブ23が接続されている。
The
撮像部17は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
Although not shown, the
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.
イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、デジタル信号が生成され、撮像部17の出力信号として出力される。
このような撮像部17の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the
Such an output signal of the
操作部18は、シャッタ釦等の各種釦で構成され、ユーザの指示操作に応じて各種情報を入力する。
The
センサ部19は、例えば、3軸地磁気センサ、3軸加速度センサ、傾斜センサ、距離センサ等で構成され、撮像部17の姿勢や位置を検出する。
CPU11は、センサ部19の検出結果に基づいて、撮像装置1の方位角、撮像装置1の傾斜、被写体と撮像装置1との間の距離等、被写体に対する相対的な撮像装置1の姿勢や位置を示す情報(以下、「撮像装置1の位置情報」と呼ぶ)を算出する。
例えば、センサ部19の3軸地磁気センサは、地磁気の方向の3軸(X,Y,Z)成分を検出する。CPU11は、この3軸地磁気センサの検出結果に基づいて、撮像装置1の方位角を算出する。
また例えば、傾斜センサは、例えば、圧電振動ジャイロで構成され、加えられた角速度に対応した電圧値を出力する。CPU11は、傾斜センサから出力される電圧値を積分することによって、傾斜の変化量を算出し、当該傾斜の変化量に基づいて撮像装置1の傾斜を算出する。
なお、CPU11は、3軸地磁気センサや傾斜センサの検出結果を、任意の姿勢(傾斜角度)状態においても方位及び傾斜の計測が可能な3軸加速度センサの検出結果を用いて補正し、その補正結果に基づいて撮像装置1の方位角や傾斜を算出するようにしてもよい。
距離センサは、非接触の対象物との距離を検出する。CPU11は、距離センサの検出結果に基づいて、被写体と撮像装置1との間の距離を算出する。
The
Based on the detection result of the
For example, the triaxial geomagnetic sensor of the
Further, for example, the tilt sensor is constituted by, for example, a piezoelectric vibration gyro, and outputs a voltage value corresponding to the applied angular velocity. The
The
The distance sensor detects a distance from a non-contact object. The
表示部20は、液晶ディスプレイ等で構成され、撮像画像等の各種画像を表示する。
記憶部21は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部22は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The
The
The
ドライブ23には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ23によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部21にインストールされる。また、リムーバブルメディア31は、記憶部21に記憶されている画像のデータ等の各種データも、記憶部21と同様に記憶することができる。
A
このような構成の撮像装置1は、被写体を撮像し、その結果得られる撮像画像のデータをリムーバブルメディア31等に記録するまでの一連の処理(以下、「撮像記録処理」と呼ぶ)を実行することができる。
本実施形態の撮像記録処理においては、CPU11は、操作部18のシャッタ釦の押下操作がなされたことを、撮像画像の記録指示であると認識し、当該押下操作直後に撮像された撮像画像のデータをリムーバブルメディア31等に記録する。
The
In the imaging / recording process of the present embodiment, the
このような撮像画像の記録指示の前には、CPU11は、スルー撮像処理及びスルー表示処理を実行することで、スルー画像を表示部20に表示させる。
具体的には、CPU11は、撮像記録処理が開始されると、撮像部17による撮像動作を継続させる。そして、CPU11は、撮像部17による撮像動作が継続されている間、当該撮像部17から順次出力される撮像画像のデータを、メモリ(本実施形態では記憶部21)に一時的に記憶させる。このような一連の制御処理が、ここでいう「スルー撮像処理」である。
また、CPU11は、スルー撮像処理の最中にメモリ(本実施形態では記憶部21)に一時的に記録された各撮像画像のデータを順次読み出して、当該撮像画像を表示部20に順次表示させる。このような一連の制御処理が、ここでいう「スルー表示処理」であり、スルー表示処理により表示部20に表示されている撮像画像が、ここでいう「スルー画像」である。
Prior to such an instruction to record a captured image, the
Specifically, when the imaging recording process is started, the
Further, the
本実施形態では、撮像装置1は、スルー表示処理中の動作モード(以下、「スルー表示モード」と呼ぶ)として、通常表示モードと仮想表示モードとを有しており、これら2種類の動作モードを自在に切り替えることができる。
「通常表示モード」とは、通常通り、現時点で撮像された撮像画像そのものをスルー画像として表示部20に表示させるモードをいう。なお、以下、通常表示モードにおけるスルー表示処理を、「通常スルー表示処理」と呼ぶ。
「仮想表示モード」とは、次のような一連の処理の結果得られる、仮想的な画像のスルー画像(以下、「仮想スルー画像」と呼ぶ)を表示部20に表示させるモードをいう。
即ち、CPU11は、現時点で撮像された撮像画像のデータに基づいて、当該撮像画像に含まれる被写体のうち、処理の対象として注目すべき被写体(以下、「注目被写体」と呼ぶ)を認識し、当該注目被写体の3次元モデルを作成又は取得する。CPU11は、当該3次元モデルに基づいて、現時点の状態とは異なる姿勢又は位置で撮像部17が注目被写体を撮像したと仮定した場合に得られる仮想的な画像のデータを、推定演算する。そして、CPU11は、当該仮想的な画像を仮想スルー画像として表示部20に表示させる。なお、以下、このような一連の処理、即ち、仮想表示モードにおけるスルー表示処理を、「仮想スルー表示処理」と呼ぶ。
In the present embodiment, the
The “normal display mode” refers to a mode in which the
The “virtual display mode” refers to a mode in which a through image of a virtual image (hereinafter referred to as “virtual through image”) obtained as a result of the following series of processes is displayed on the
That is, the
図2は、撮像装置1の機能的構成のうち、このような仮想スルー表示処理を含む撮像記録処理の実行機能を実現する機能的構成を示す機能ブロック図である。
FIG. 2 is a functional block diagram illustrating a functional configuration that realizes an execution function of an imaging recording process including such a virtual through display process, among the functional configurations of the
撮像記録処理が実行される場合、CPU11においては、スルー表示モード選択部51と、切替部52と、表示制御部53と、記録制御部54と、が機能する。
なお、スルー表示モード選択部51乃至記録制御部54の各々の機能の説明については、後述する図3の撮像記録処理のうち、関連するステップの処理の説明の際に併せて行うものとする。
本実施形態では、スルー表示モード選択部51乃至記録制御部54の各々は、図1に示す構成のうち、CPU11というハードウェアと、ROM12等に記憶されたプログラム(ソフトウェア)との組み合わせとして構成されている。
しかしながら、これは例示にすぎず、スルー表示モード選択部51乃至記録制御部54の各機能のうち少なくとも一部を、CPU11以外の他の構成要素(画像処理部14等)に移譲させることも当然可能である。
When the imaging recording process is executed, the through display
Note that the functions of the through display
In the present embodiment, each of the through display
However, this is merely an example, and at least a part of the functions of the through display
撮像記録処理が実行される場合、画像処理部14においては、注目被写体決定部61と、3次元モデル生成取得部62と、仮想スルー画像生成部63と、が機能する。
なお、注目被写体決定部61乃至仮想スルー画像生成部63の各々の機能の説明については、後述する図3の撮像記録処理のうち、関連するステップの処理の説明の際に併せて行うものとする。
本実施形態では、注目被写体決定部61乃至仮想スルー画像生成部63の各々は、図1に示す構成のうち、画像処理部14単体、又は、当該画像処理部14というハードウェアと、ROM12等に記憶されたプログラム(ソフトウェア)との組み合わせとして構成されている。
しかしながら、これは例示にすぎず、注目被写体決定部61乃至仮想スルー画像生成部63の各機能のうち少なくとも一部を、画像処理部14以外の他の構成要素(CPU11等)に移譲させることも当然可能である。
When the imaging and recording process is executed, in the
Note that the functions of the target
In the present embodiment, each of the subject-of-
However, this is merely an example, and at least a part of the functions of the subject-of-
また、本実施形態では、記憶部21の一領域として、撮像画像記憶部71と、3次元モデル記憶部72、とが設けられている。
撮像画像記憶部71及び3次元モデル記憶部72の各々の記憶内容の具体例については、後述する図3の撮像記録処理のうち、関連するステップの処理の説明の際に併せて示すものとする。
なお、撮像画像記憶部71及び3次元モデル記憶部72が記憶部21の一領域として設けられているが、これも例示にすぎず、撮像画像記憶部71及び3次元モデル記憶部72は、記憶部21以外の記憶領域、例えばリムーバブルメディア31の一領域として設けるようにしてもよい。また、撮像画像記憶部71及び3次元モデル記憶部72は、撮像装置1に設けられている必要は特になく、例えば通信部22を介して接続される他の装置内に設けられていてもよい。
In the present embodiment, a captured
Specific examples of the stored contents of the captured
Note that the captured
次に、図3を参照して、このような図2の機能的構成を有する撮像装置1が実行する撮像記録処理について説明する。
図3は、図2の機能的構成を有する撮像装置1が実行する撮像記録処理の流れの一例を説明するフローチャートである。
Next, with reference to FIG. 3, an imaging recording process executed by the
FIG. 3 is a flowchart for explaining an example of the flow of imaging recording processing executed by the
撮像記録処理は、例えば、ユーザの操作部18に対する所定操作により、撮像装置1の動作モードが撮像モード等の特定モードに切り替えられると、それを契機として開始される。
なお、撮像記録処理が開始されてから終了するまでの間、撮像部17は撮像動作を継続し、その間、当該撮像部17から順次出力される撮像画像のデータは、撮像画像記憶部71に記憶されるものとする。
For example, when the operation mode of the
The
ステップS1において、スルー表示モード選択部51は、スルー表示モードとして、仮想スルー表示モードが選択されたか否かを判定する。
即ち、ユーザは、操作部18に対する所定の操作をすることで、スルー表示モードとして、通常スルー表示モードと仮想スルー表示モードとのうちの所望のモードを選択することができる。
In step S1, the through display
That is, the user can select a desired mode of the normal through display mode and the virtual through display mode as the through display mode by performing a predetermined operation on the
このようなユーザの操作により通常スルー表示モードが選択された場合、ステップS1においてNOであると判定される。この場合、スルー表示モード選択部51は、切替部52の出力端を表示制御部53側に切り替える。すると、撮像部17から出力されて撮像画像記憶部71に一旦記憶されていた撮像画像のデータは、切替部52を介して、表示制御部53に供給される。
ステップS2において、CPU11の表示制御部53は、通常スルー表示処理を実行して、このような撮像画像をそのままスルー画像として表示部20に表示させる。
When the normal through display mode is selected by such user operation, it is determined as NO in step S1. In this case, the through display
In step S <b> 2, the
これに対して、ユーザの操作により仮想スルー表示モードが選択された場合、ステップS1においてYESであると判定される。この場合、スルー表示モード選択部51は、切替部52の出力端を画像処理部14の注目被写体決定部61側に切り替える。すると、撮像部17から出力されて撮像画像記憶部71に一旦記憶されていた撮像画像のデータは、切替部52を介して、画像処理部14の注目被写体決定部61に供給される。
ステップS3において、画像処理部14及びCPU11は、仮想スルー表示処理を実行して、仮想スルー画像を表示部20に表示させる。
On the other hand, when the virtual through display mode is selected by the user's operation, it is determined as YES in Step S1. In this case, the through display
In step S <b> 3, the
このようにして、ステップS2の通常スルー表示処理で通常のスルー画像が表示されるか、或いは、ステップS3の仮想スルー表示処理で仮想スルー画像が表示されると、処理はステップS4に進む。
ステップS4において、記録制御部54は、操作部18のシャッタ釦が押下操作されたか否かを判定する。
ユーザによりシャッタ釦が押下操作されていない場合、ステップS4においてNOであると判定されて、処理はステップS1に戻され、それ以降の処理が繰り返される。即ち、シャッタ釦が押下操作されるまでの間、ステップS1乃至S4のループ処理が繰り返し実行され、通常のスルー画像又は仮想スルー画像が表示部20に表示される。
In this way, when a normal through image is displayed in the normal through display process in step S2, or when a virtual through image is displayed in the virtual through display process in step S3, the process proceeds to step S4.
In step S4, the
If the shutter button is not pressed by the user, it is determined as NO in step S4, the process returns to step S1, and the subsequent processes are repeated. That is, until the shutter button is pressed, the loop processing of steps S1 to S4 is repeatedly executed, and a normal through image or virtual through image is displayed on the
例えば、仮想スルー表示モードが維持されている場合には、ステップS1:YES、ステップS3、及びステップS4:NOのループ処理が繰り返し実行され、仮想スルー画像があたかもリアルタイム表示のように表示される。即ち、撮像部17は、連続的に繰り返して撮像し、その都度得られる撮像画像のデータを逐次出力する。この場合、注目被写体決定部61、3次元モデル生成取得部62、位置情報取得部55、仮想スルー画像生成部63、及び表示制御部53は、撮像部17から撮像画像のデータが逐次出力される毎に、後述する各機能に基づく処理をそれぞれ実行する。これにより、撮像部17から逐次データとして出力される撮像画像の各々に対応する仮想スルー画像の各々が、表示部20に連続的に繰り返して表示される。
よって、ユーザは、身体をほぼ固定した状態で、仮想スルー画像を適宜見ながら撮像装置1の位置及び姿勢を移動させ、所望の構図の画像が仮想スルー画像として表示されたか否かを確認することができる。
ここで、上述したように、表示制御部53の制御によりスルー画像を表示させるモードとして、撮像部17からデータとして逐次出力される撮像画像を通常のスルー画像として表示させる通常スルー表示モードと、撮像部17から逐次データとして出力される撮像画像の各々に対応する仮想スルー画像の各々を表示させる仮想スルー表示モードとが存在する。スルー表示モード選択部51は、これらの通常スルー表示モードと仮想スルー表示モードとのうち一方を選択することができる。
そこで、仮想スルー画像として所望の構図の画像が得られた場合には、今度は、ユーザは、操作部18を操作して、スルー表示モードとして通常表示スルーモードを指示することができる。これにより、スルー表示モード選択部51は、通常スルー表示モードを選択する。すると、ステップS1:NO、ステップS2、及びステップS4:NOのループ処理が繰り返し実行され、今度は、通常スルー画像がリアルタイム表示される。
これにより、ユーザは、所望の構図の通常のスルー画像が表示されるまで、撮像装置1の位置及び姿勢を移動させると共に、必要に応じて、その身体も移動させる。
このようにして、ユーザは、通常のスルー画像又は仮想スルー画像を適宜見ながら撮像装置1の位置及び姿勢を移動させ、或いはその身体を適宜移動させて、所望の構図の通常のスルー画像が表示されたことを確認すると、その段階で、操作部18のシャッタ釦を押下操作する。
すると、ステップS4においてYESであると判定されて、処理はステップS5の処理に進む。ステップS5において、記録制御部54は、その時点で撮像画像記憶部71に記憶されている撮像画像のデータを取得して、リムーバブルメディア31に記録させる。
これにより、撮像記録処理が終了となる。
For example, when the virtual through display mode is maintained, the loop process of step S1: YES, step S3, and step S4: NO is repeatedly executed, and the virtual through image is displayed as if it were a real-time display. That is, the
Therefore, the user moves the position and posture of the
Here, as described above, as a mode for displaying a through image under the control of the
Therefore, when an image having a desired composition is obtained as a virtual through image, the user can instruct the normal display through mode as the through display mode by operating the
As a result, the user moves the position and posture of the
In this way, the user moves the position and posture of the
Then, it determines with it being YES in step S4, and a process progresses to the process of step S5. In step S <b> 5, the
Thereby, the imaging recording process ends.
さらに以下、このような撮像記録処理のうち、ステップS3の仮想スルー表示処理について説明する。 Further, the virtual through display process in step S3 will be described below among such imaging and recording processes.
図4は、仮想スルー表示処理の結果について、通常スルー表示処理の結果と比較しながら説明する図である。
図4(A)は、図3の撮像記録処理の開始直後の初期状態において、撮像装置1が、人物Maの前面と対向する姿勢で、当該人物Maを撮像した様子を示している。
なお、初期状態では、撮像装置1の基準姿勢を確定する必要があるため、通常スルー表示処理が実行された場合のみならず、仮想スルー表示処理が実行された場合でも、図4(A)に示すように、撮像装置1が人物Maを撮像した結果得られる撮像画像がそのまま、スルー画像SP1として表示されるものとする。
図4(B)は、撮像装置1が、初期状態の基準姿勢に対して、図示せぬユーザ(撮像装置1の操作者)からみて左方向に回転移動して、人物Maの斜め側面と対向する姿勢で、通常スルー表示処理(図3のステップS2)を実行して、当該人物Maを撮像した様子を示している。
この場合、図4(B)に示すように、撮像装置1が人物Maを撮像した結果得られる撮像画像がそのまま、スルー画像SP2として表示部20に表示される。
図4(C)は、撮像装置1が、初期状態の基準姿勢に対して、図示せぬユーザ(撮像装置1の操作者)からみて左方向に回転移動した姿勢、即ち図4(B)と同一の姿勢で、仮想スルー表示処理(図3のステップS3)を実行して、当該人物Maを撮像した様子を示している。
この場合、本来、撮像装置1の画角の範囲内の人物Maの斜め側面が写るところ(図4(B)のスルー画像SP2参照)、撮像装置1の画角の範囲外の人物Maの背面(後頭部)があたかも写っている仮想スルー画像VSP2が、表示部20に表示される。
FIG. 4 is a diagram for explaining the result of the virtual through display process while comparing it with the result of the normal through display process.
FIG. 4A shows a state in which the
In the initial state, since it is necessary to determine the reference posture of the
FIG. 4B shows that the
In this case, as shown in FIG. 4B, the captured image obtained as a result of the
FIG. 4C shows a posture in which the
In this case, the oblique side surface of the person Ma within the range of the field of view of the
このように、ユーザ(撮像装置1の操作者)は、操作部18を操作して仮想スルー表示モードを選択した後、自身が実際に長い距離を移動して回り込む等することなく、撮像装置1の位置や姿勢を少し移動させるだけで、撮像装置1により仮想スルー表示処理(図3のステップS3)が実行される。その結果、ユーザは、自身が移動して回り込んで撮像した場合に得られる撮像画像と等価な仮想スルー画像を容易に視認することができる。
また、被写体の存在位置によっては回り込むことが不可能な場所も存在する。このような場合であっても、ユーザは、そのような場所で撮像した場合に得られる撮像画像と等価な仮想スルー画像を容易に視認することができる。
これにより、ユーザにとっては、被写体の撮像アングルを決める作業が著しく楽になり、被写体を撮影するまでに要する時間が短縮される。また、モデル(被写体)にとっても、長時間同一のポーズを強いられたり、立ち位置を変えて同一ポーズを取ったりする苦痛から開放される。
以上まとめると、ユーザは、その手で撮像装置1を保持して、傾けたり回したりして、当該撮像装置1の位置及び姿勢を少しだけ変化させるだけの直感的操作をするだけで、被写体を様々な視点から眺望することが容易にできる。その結果、ユーザは、被写体の周囲を回ったり、或いは被写体の方を動かしたりする必要はなくなる。このため、ユーザは、被写体の外観や形状を、わかりやすく把握したり、詳しく調べたりすることが容易に可能になる。即ち、ユーザは、その場から大きく動くことなく、撮像方向、撮像角度、構図等の理想的な撮像条件を詳しく吟味や検討して、所望の撮像条件で被写体を撮像することが容易にできる。
即ち、ユーザが身体を固定したまま撮像装置1のみを移動させるだけで、所望の構図の画像を仮想スルー画像により視認することが可能になる。
As described above, the user (operator of the imaging apparatus 1) operates the
There are also places where it is impossible to go around depending on the position of the subject. Even in such a case, the user can easily visually recognize a virtual through image equivalent to a captured image obtained when capturing an image in such a place.
As a result, for the user, the task of determining the imaging angle of the subject is remarkably facilitated, and the time required for photographing the subject is shortened. Also, the model (subject) is freed from the pain of being forced to take the same pose for a long time or changing the standing position to take the same pose.
In summary, the user holds the
That is, it is possible to visually recognize an image with a desired composition as a virtual through image only by moving only the
さらに以下、このような仮想スルー表示処理の詳細について説明する。
図5は、図3の撮像記録処理のうち、ステップS3の仮想スルー表示処理の流れの詳細の一例を説明するフローチャートである。
Further details of such virtual through display processing will be described below.
FIG. 5 is a flowchart illustrating an example of details of the flow of the virtual through display process in step S3 in the imaging recording process of FIG.
ステップS21において、図2の画像処理部14の注目被写体決定部61は、撮像画像のデータに基づいて、当該撮像画像に含まれる被写体の中から、注目被写体を決定する。
なお、注目被写体の決定手法は、特に限定されず、例えば図示はしないがユーザが操作部18を操作して選択した被写体を、注目被写体として決定する手法を採用してもよい。或いはまた、公知の又は今後登場するであろう顔検出処理や注目領域検出処理の結果に基づいて注目被写体を決定する手法を、注目被写体の決定手法として採用することもできる。
ステップS21の処理で決定された注目被写体に関する情報と、当該注目被写体を含む撮像画像のデータとが、注目被写体決定部61から3次元モデル生成取得部62に供給されると、処理はステップS22に進む。
In step S21, the target
Note that the method of determining the subject of interest is not particularly limited. For example, although not shown, a method of determining a subject selected by the user by operating the
When the information related to the subject of interest determined in the process of step S21 and the data of the captured image including the subject of interest are supplied from the subject of
ステップS22において、CPU11の位置情報取得部55は、センサ部19の検出結果に基づいて、撮像装置1の方位角、撮像装置1の傾斜、注目被写体と撮像装置1との間の距離等、撮像装置1の位置及び姿勢を示す情報を、注目被写体に対する相対的な撮像装置1の位置情報として取得する。
撮像装置1の位置情報が、位置情報取得部55から3次元モデル生成取得部62に供給されると、処理はステップS23に進む。
In step S <b> 22, the position
When the position information of the
ステップS23において、画像処理部14の3次元モデル生成取得部62は、注目被写体の3次元モデルは生成済みか否かを判定する。
注目被写体と同一又は類似する3次元モデルが3次元モデル記憶部72に既に記憶されている場合、例えば過去に実行されたステップS25の3次元モデル生成処理(処理内容は後述する)の結果として既に記憶されている場合、ステップS23においてYESであると判定されて、処理はステップS24に進む。
ステップS24において、3次元モデル生成取得部62は、注目被写体の3次元モデルを3次元モデル記憶部72から取得する。
これに対して、注目被写体と同一又は類似する3次元モデルが3次元モデル記憶部72に1つも記憶されていない場合、ステップS23においてNOであると判定されて、処理はステップS25に進む。
ステップS25において、3次元モデル生成取得部62は、注目被写体の3次元モデルを生成して、3次元モデル記憶部72に記憶させるまでの一連の処理(以下、このような一連の処理を「3次元モデル生成処理」と呼ぶ)を実行する。なお、3次元モデル生成処理の詳細については、図6のフローチャートを参照して後述する。
このようにして、ステップS24の処理で取得されるか又はステップS25の処理で生成された注目被写体の3次元モデルが、ステップS22の処理で取得された撮像装置1の位置情報、及び撮像画像のデータとともに、3次元モデル生成取得部62から仮想スルー画像生成部63に供給されると、処理はステップS26に進む。
In step S23, the 3D model generation /
When a three-dimensional model that is the same as or similar to the subject of interest is already stored in the three-dimensional
In step S <b> 24, the 3D model generation /
On the other hand, if no three-dimensional model identical or similar to the subject of interest is stored in the three-dimensional
In step S25, the three-dimensional model generation /
In this way, the three-dimensional model of the subject of interest acquired in the process of step S24 or generated in the process of step S25 is the position information of the
ステップS26において、画像処理部14の仮想スルー画像生成部63は、撮像装置1の位置情報と、注目被写体の3次元モデルと、撮像画像のデータとに基づいて、仮想スルー画像のデータを生成する。
ステップS27において、CPU11の表示制御部53は、ステップS26の処理で仮想スルー画像生成部63によりデータとして生成された仮想スルー画像を、表示部20に表示させる。
In step S26, the virtual through
In step S27, the
例えば、仮想スルー画像生成部63は、ステップS26の処理として、撮像装置1の位置情報に対応付けられた視点から、注目被写体の3次元モデルを眺望した様子を示す2次元像(当該視点からみた場合の注目被写体の像)を、撮像画像の背景等の像に合成した合成画像のデータを、仮想スルー画像のデータとして生成する。
ここで、撮像装置1の位置情報に対応付けられた視点とは、撮像装置1の撮像方向(撮像部17の光軸方向)とは異なる方向からの視点である。具体的には、図4の例でいえば、撮像装置1の撮像方向(撮像部17の光軸方向)の視点で人物Maを眺望した様子(人物Maの斜め側面をみた様子)が、図4(B)に示す通常のスルー画像SP2である。これに対して、撮像装置1の撮像方向(撮像部17の光軸方向)とは異なる方向からの視点で人物Maの3次元モデルを眺望した様子(人物Maの3次元モデルの背面、即ち後頭部をみた様子)が、図4(C)に示す仮想スルー画像VSP2である。即ち、ステップS27の処理で、図4に示す仮想スルー画像VSP2等が表示部20に表示される。
より具体的には、図4(A)に示す撮像装置1の基準姿勢の水平方向の角度を0度とするならば、撮像装置1の水平方向の実際の回転角度θの位置を視点として採用すると、単に、図4(B)に示す通常のスルー画像SP2と等価な画像しか表示されない。そこで、図4の例では、実際の回転角度θに所定の係数A(>1)を掛けて得られる回転角度α(=A×θ)、即ち、実際の回転角度θよりも大きな回転角度αの仮想位置が視点として採用されており、当該視点で人物Maの3次元モデルを眺望した様子が、図4(C)に示す仮想スルー画像VSP2として、ステップS27の処理で表示部20に表示されるのである。
このようにして、仮想スルー画像VSP2等が表示部20に表示されると、仮想スルー表示処理が終了する。即ち、図3のステップS3の処理が終了し、処理はステップS4に進む。
For example, the virtual through
Here, the viewpoint associated with the position information of the
More specifically, if the horizontal angle of the reference posture of the
In this way, when the virtual through image VSP2 or the like is displayed on the
次に、このような図5の仮想スルー表示処理のうち、ステップS25の3次元モデル生成処理の詳細について説明する。
図6は、図5の仮想スルー表示処理のうち、ステップS25の3次元モデル生成処理の流れの詳細の一例を説明するフローチャートである。
Next, details of the three-dimensional model generation process of step S25 in the virtual through display process of FIG. 5 will be described.
FIG. 6 is a flowchart for explaining an example of the details of the flow of the three-dimensional model generation process of step S25 in the virtual through display process of FIG.
ステップS41において、3次元モデル生成取得部62は、異なる視点から注目被写体を撮像した結果得られる複数の撮像画像のデータを、撮像画像記憶部71から切替部52を介して取得する。
なお、このステップS41の処理時点に、複数の撮像画像のデータが存在すれば足り、当該複数の撮像画像の撮像タイミングは、特に限定されない。また、注目被写体そのもの(原物)を撮像したものである必要はなく、類似のものを過去に撮像した結果得られる撮像画像のデータが取得されてもよい。さらに、このような複数の撮像画像のデータの取得先は、撮像画像記憶部71である必要は特になく、その他、リムーバブルメディア31や、通信部22により通信が可能な他の装置であってもよい。
In step S <b> 41, the three-dimensional model generation /
Note that it is sufficient that data of a plurality of captured images exist at the time of processing in step S41, and the imaging timing of the plurality of captured images is not particularly limited. Further, it is not necessary to capture the subject of interest itself (original), and captured image data obtained as a result of capturing a similar object in the past may be acquired. Further, the acquisition destination of the data of the plurality of captured images is not particularly required to be the captured
ステップS42において、3次元モデル生成取得部62は、ステップS21の処理で取得された複数の画像データに対して、前処理(例えば、鮮鋭化、ノイズ除去、傾斜補正等の各種画像処理)を施す。
In step S42, the three-dimensional model generation /
ステップS43において、3次元モデル生成取得部62は、ステップS21の処理で取得された複数の撮像画像のデータに関し、それらが撮像された時点の撮像装置の位置情報が取得されたか否かを判定する。
ここで、複数の撮像画像が撮像部17により撮像されたものである場合、センサ部19の検出結果に基づいて位置情報取得部55によって取得される「撮像装置1の位置情報」が、ステップS43における「撮像装置の位置情報」に該当する。一方、複数の撮像画像が他の撮像装置によって撮像されたものである場合、当該他の撮像装置によって取得された、「撮像装置1の位置情報」と等価な情報が、「撮像装置の位置情報」に該当する。
これらの「撮像装置の位置情報」が取得できなかった場合、ステップS43においてNOであると判定されて、処理はステップS47に進む。ただし、ステップS47以降の処理については後述する。
これに対して、これらの「撮像装置の位置情報」が取得できた場合、ステップS43においてYESであると判定されて、処理はステップS44に進む。
In step S43, the three-dimensional model generation /
Here, when a plurality of captured images are captured by the
When these “position information of the imaging device” cannot be acquired, it is determined as NO in Step S43, and the process proceeds to Step S47. However, the processing after step S47 will be described later.
On the other hand, when these “position information of the imaging device” can be acquired, it is determined as YES in Step S43, and the process proceeds to Step S44.
ステップS44において、3次元モデル生成取得部62は、ステップS41の処理で取得された複数の撮像画像のデータの各々から、注目被写体の輪郭(エッジ)を抽出し、当該輪郭を特定可能な画像のデータ(以下、「輪郭画像データ」と呼ぶ)を生成する。
In step S44, the three-dimensional model generation /
ステップS45において、3次元モデル生成取得部62は、ステップS41の処理でデータとして取得された複数の撮像画像の各々についての、「撮像装置の位置情報」と輪郭画像データとに基づいて、注目被写体の3次元モデル(3次元形状データ)を生成する。
ステップS46において、3次元モデル生成取得部62は、このようにして生成した注目被写体の3次元モデルを、3次元モデル記憶部72に記憶させる。
なお、注目被写体の3次元モデルを3次元モデル記憶部72に記憶させる場合のデータ構造は、特に限定されず、例えば、ワイヤーフレーム・モデル、サーフェス・モデル、ソリッド・モデル、CSG(Constructive Solid Geometry)表現、又は境界表現等に基づくデータ構造を採用することができる。
In step S45, the three-dimensional model generation /
In step S <b> 46, the three-dimensional model generation /
Note that the data structure when the 3D model of the subject of interest is stored in the 3D
このようにして、ステップS41の処理で取得された複数の撮像画像のデータの各々に関する「撮像装置の位置情報」が取得できた場合には、ステップS43の処理でYESであると判定された後、ステップS44乃至S46の処理が実行されて、注目被写体の3次元モデルが生成されて、3次元モデル記憶部72に記憶される。これにより、3次元モデル生成処理が終了し、即ち図5のステップS25の処理が終了し、処理はステップS26に進む。
In this way, when “positional information of the imaging device” regarding each of the plurality of captured image data acquired in the process of step S41 can be acquired, it is determined that YES is determined in the process of step S43. Steps S44 to S46 are executed, and a three-dimensional model of the subject of interest is generated and stored in the three-dimensional
これに対して、ステップS41の処理で取得された複数の撮像画像のデータの各々に関する「撮像装置の位置情報」が取得できなかった場合には、ステップS43の処理でNOであると判定されて、処理はステップS47に進む。
ステップS47において、3次元モデル生成取得部62は、因子分解法を適用するか否かを判定する。
On the other hand, if “position information of the imaging device” regarding each of the plurality of captured image data acquired in the process of step S41 cannot be acquired, it is determined as NO in the process of step S43. The process proceeds to step S47.
In step S47, the three-dimensional model generation /
因子分解法を適用すると判定された場合、ステップS47においてYESであると判定されて、処理はステップS48に進む。
ステップS48において、3次元モデル生成取得部62は、因子分解法で、注目被写体の3次元モデルを生成する。
因子分解法とは、被写体の奥行きがカメラ(ここでは撮像装置1)との距離に比べて十分に小さい場合に、当該被写体の3次元形状(3次元モデル)を求める式が、行列の因子分解で解ける線形の連立方程式になることを利用した手法をいう。因子分解法は、被写体から十分な距離をとって撮像した複数の撮像画像のデータから3次元形状(3次元モデル)を求める場合に適用すると好適である。
具体的には、ステップS48の処理として、次のような処理が実行される。
3次元モデル生成取得部62は、ステップS41の処理で取得された複数の撮像画像(異なる視点からの各注目被写体の撮像画像)のデータから、注目被写体の輪郭外形や顔の特徴部位を表す要素、例えば、線分、曲線、特徴点等の要素を抽出する。
3次元モデル生成取得部62は、ステップS41の処理で取得された複数の撮像画像のデータから、主要点の点特徴を抽出し、各特徴点と対応付ける。
3次元モデル生成取得部62は、このような対応付けに基づいて、主要被写体の3次元形状情報を復元するようにして、主要被写体の3次元モデルを生成する。
なお、因子分解法のさらなる詳細については、非特許文献1を参照するとよい。
If it is determined that the factorization method is to be applied, YES is determined in step S47, and the process proceeds to step S48.
In step S48, the three-dimensional model generation /
In the factorization method, when the depth of the subject is sufficiently smaller than the distance to the camera (here, the imaging device 1), the formula for obtaining the three-dimensional shape (three-dimensional model) of the subject is a factorization of the matrix. This is a technique that uses the fact that it becomes a linear simultaneous equation that can be solved by The factorization method is preferably applied when obtaining a three-dimensional shape (three-dimensional model) from data of a plurality of captured images taken at a sufficient distance from the subject.
Specifically, the following process is executed as the process of step S48.
The three-dimensional model generation /
The three-dimensional model generation /
The three-dimensional model generation /
Refer to
このような因子分解法を適用しないと判定された場合、ステップS47においてNOであると判定されて、処理はステップS49に進む。
ステップS49において、3次元モデル生成取得部62は、視体積交差法で、注目被写体の3次元モデルを生成する。
具体的には、ステップS49の処理として、次のような処理が実行される。
3次元モデル生成取得部62は、形状を記憶する3次元ボクセル空間を用意し、これを立方格子に分割する。
3次元モデル生成取得部62は、ステップS41の処理で取得された複数の撮像画像(異なる視点からの各注目被写体の撮像画像)のデータから、処理対象となる各多視点画像のシルエット画像のデータを生成する。
3次元モデル生成取得部62は、処理対象となる各多視点画像のシルエット画像のデータを用いて、立方格子に分割した各ボクセルに対して正射影による逆投影を実施する。
3次元モデル生成取得部62は、各ボクセルについて処理対象画像のシルエットが内在するか否かを判定し、内在するボクセルを残し、他のボクセルを削除する。
3次元モデル生成取得部62は、残存したボクセルの集合に基づいて、主要被写体の3次元形状モデルを生成する。
If it is determined that such a factorization method is not applied, it is determined as NO in step S47, and the process proceeds to step S49.
In step S49, the three-dimensional model generation /
Specifically, the following process is executed as the process of step S49.
The three-dimensional model generation /
The three-dimensional model generation /
The three-dimensional model generation /
The three-dimensional model generation /
The three-dimensional model
このようにして、ステップS48の処理においては因子分解法で、或いはステップS49の処理においては視体交差法で、注目被写体の3次元モデルが生成されると、次のステップS46の処理で、当該注目被写体の3次元モデルが3次元モデル記憶部72に記憶される。これにより、3次元モデル生成処理が終了し、即ち図5のステップS25の処理が終了し、処理はステップS26に進む。
In this way, when the three-dimensional model of the subject of interest is generated by the factorization method in the process of step S48 or the visual object intersection method in the process of step S49, the process in the next step S46 A three-dimensional model of the subject of interest is stored in the three-dimensional
なお、注目被写体の3次元モデルの生成手法は、図6に示される手法に特に限定されず、例えば、撮像装置1として2眼カメラやステレオカメラ等を採用し、これらの2眼カメラやステレオカメラ等の撮像画像のデータを用いる手法を採用してもよい。
Note that the method of generating the three-dimensional model of the subject of interest is not particularly limited to the method illustrated in FIG. 6. For example, a binocular camera, a stereo camera, or the like is employed as the
以上説明したように、本実施形態の撮像装置1は、撮像部17と、注目被写体決定部61と、3次元モデル記憶部72と、3次元モデル生成取得部62と、仮想スルー画像生成部63と、を備える。
撮像部17は、1以上の被写体を所定の撮像方向から撮像し、その結果得られる撮像画像のデータを出力する。
注目被写体決定部61は、撮像部17から出力された撮像画像のデータに基づいて、1以上の被写体の中から、処理対象として注目すべき注目被写体を決定する。
3次元モデル生成取得部62は、注目被写体決定部61により決定された注目被写体の3次元モデルを生成又は取得する。
位置情報取得部55は、撮像装置1の位置及び姿勢を示す撮像装置1の位置情報、より正確には撮像部17の位置及び姿勢を示す位置情報を取得する。
仮想スルー画像生成部63は、位置情報取得部55により取得された位置情報に応じて特定される視点であって、所定の撮像方向とは異なる方向の視点から、3次元モデル生成取得部62により生成又は取得された注目被写体の3次元モデルを眺望した様子を示す画像のデータを、仮想スルー画像のデータとして生成する。
表示制御部53は、仮想スルー画像生成部63によりデータとして生成された仮想スルー画像の表示を制御する。
これにより、ユーザは、その手で撮像装置1を保持して、傾けたり回したりして、当該撮像装置1の位置及び勢姿勢を少しだけ変化させるだけの直感的操作をするだけで、注目被写体を様々な視点から眺望することが容易にできる。その結果、ユーザは、注目被写体の周囲を回ったり、或いは注目被写体の方を動かしたりする必要はなくなる。このため、ユーザは、注目被写体の外観や形状を、わかりやすく把握したり、詳しく調べたりすることが容易に可能になる。即ち、ユーザは、その場から大きく動くことなく、撮像方向、撮像角度、構図等の理想的な撮像条件を詳しく吟味や検討して、所望の撮像条件で被写体を撮像することが容易にできる。
即ち、ユーザが身体を固定したまま撮像装置1のみを移動させるだけで、所望の構図の画像を仮想スルー画像により視認することが可能になる。
As described above, the
The
The target
The three-dimensional model generation /
The position
The virtual through
The
As a result, the user can hold the
That is, it is possible to visually recognize an image with a desired composition as a virtual through image only by moving only the
以上、本発明の実施形態について説明した。しかしながら、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 The embodiment of the present invention has been described above. However, the present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within a scope that can achieve the object of the present invention are included in the present invention.
例えば、表示部20として、上述の実施形態では液晶や有機EL(Electro−Luminescence)等フラットな平面形状の表示パネルが採用されている。
この場合には、撮像装置1の姿勢角度や傾斜角の量(大きさ)をそのまま、視線方向(例えば物体像の観察角度の方向)の変化量に用いると、表示面と視線方向との角度が小さくなってしまい、仮想スルー画像に表示される主要被写体の像が見にくくなったり、表示できる角度範囲も限られてしまったりすることになる。例えば、主要被写体の側面は見られても、裏側(背面)までは見ることができなくなる問題がある。
そこで、上述の実施形態では、当該問題を解決する手法として、次のような手法を採用していた。即ち、撮像装置1の回転角θ(姿勢角θ)に比べて、主要被写体の像の視線方向(仮想的な回転角)αを大きくして、例えばα=A×θ(Aは、1より大きい整数値であって、例えば1.5〜3程度)と大きくする手法が、本実施形態では採用されている。これにより、撮像装置1の小さな姿勢変化に応じて、より広い視線方向の範囲での主要被写体の像を含む仮想スルー画像が見られるようになる。
しかしながら、上述の問題を解決する手法は、特に本実施形態の手法(以下、「第1の手法」と呼ぶ)に限定されず、各種各様の手法、例えば、次の第2乃至第7の手法を採用することができる。
For example, as the
In this case, if the amount (size) of the attitude angle or tilt angle of the
Therefore, in the above-described embodiment, the following technique is adopted as a technique for solving the problem. That is, the line-of-sight direction (virtual rotation angle) α of the image of the main subject is made larger than the rotation angle θ (attitude angle θ) of the
However, the technique for solving the above-described problem is not particularly limited to the technique of the present embodiment (hereinafter referred to as “first technique”), and various various techniques such as the following second to seventh techniques. Techniques can be employed.
第2の手法とは、表示部20の表示面を、球面状、半球面状、又は凸面状にして、見やすく表示できる角度範囲を広くする、という手法である。
The second method is a method in which the display surface of the
第3の手法とは、船の舵や、車両のハンドル操作のように、撮像装置1の姿勢角の変化△θ(回転角の変化△θ)に比較して、主要被写体の像の視線方向の変化△α(仮想的な回転角△α)を大きくする、例えば△α=C×△θ(Cは、1より大きい整数値)と大きくする手法である。
第3の手法を採用することで、ユーザ(撮像装置1の操作者)が、視線方向を変えるときに、撮像装置1の姿勢を傾け、所望の視線方向になったら、当該撮像装置1の姿勢を元に戻すと、その視線方向や角度に保つことができる。その結果、表示部20の表示面と視線方向とのなす角度が小さくなったり、表示できる角度範囲も限られたり、といった事態がほぼ生じなくなる。
The third method is the line-of-sight direction of the image of the main subject as compared to the change in the attitude angle Δθ (change in the rotation angle Δθ) of the
By adopting the third method, when the user (operator of the imaging apparatus 1) changes the line-of-sight direction, the attitude of the
第4の手法とは、いわゆる「微分ハンドル」、即ち車両のタイヤの実舵角を、ハンドル操舵角θの微分に比例させることが可能なハンドルのように、撮像装置1の姿勢角の時間当りの変化量(角速度)dθ/dtに応じて、主要被写体の像の視線方向の変化△α(仮想的な回転角△α)を変化させる、という手法である。
具体的には、△α=C×dθ/dtを演算する手法が、第4の手法である。
このような第4の手法を適用することで、「微分ハンドル」と同様の効果、即ち、速く回せば大きな実舵角がつき、ゆっくり回せば小さな実舵角がつくという効果を奏することが可能になる。
具体的には、「微分ハンドル」では、一定の実舵角θを維持するには一定の角速度で回し続けなければならないが、所望の方向になったら、回すのを止めれば(角速度が0)実舵角θが0となり、直進方向に戻れるため、ハンドルを元に戻す必要がない。これと同様に、撮像装置1を一定の角速度で回転移動させた後、所望の方向になったら、回すのを止めれば、撮像装置1(ハンドルと等価)の姿勢を元に戻す必要がなくなる。
The fourth method is a so-called “differential handle”, that is, a steering wheel capable of making the actual steering angle of the vehicle tire proportional to the derivative of the steering angle θ of the vehicle. The change Δα (virtual rotation angle Δα) in the line-of-sight direction of the image of the main subject is changed in accordance with the amount of change (angular velocity) dθ / dt.
Specifically, a method of calculating Δα = C × dθ / dt is a fourth method.
By applying such a fourth method, it is possible to achieve the same effect as the “differential handle”, that is, if it is turned fast, a large actual rudder angle is obtained, and if it is slowly turned, a small actual rudder angle is obtained. become.
Specifically, in the “differential handle”, in order to maintain a constant actual steering angle θ, it is necessary to continue to rotate at a constant angular velocity, but when the desired direction is reached, the rotation is stopped (the angular velocity is 0). Since the actual rudder angle θ becomes 0 and the vehicle can return to the straight traveling direction, there is no need to return the steering wheel. Similarly, after the
第5の手法とは、第3の手法と第4の手法とを組み合わせたもの、即ち、通常ハンドル(第3手法)と「微分ハンドル」(第4手法)とを組み合わせた制御を行う、という手法である。
具体的には、α=C1×θ+C2×dθ/dtを演算する手法が、第5の手法である。
The fifth method is a combination of the third method and the fourth method, that is, control is performed by combining a normal handle (third method) and a “differential handle” (fourth method). It is a technique.
Specifically, a method of calculating α = C1 × θ + C2 × dθ / dt is the fifth method.
第6の手法とは、ユーザが、表示部20の表示面のタッチパネル等に指で触りながら、撮像装置1を傾ける方向や大きさを変化させることで、その視線方向を変化させるが、その指をタッチパネルから離すと、その時点の視線方向を維持させる、という手法である。
これにより、撮像装置1の姿勢を元に戻す操作が省ける。
The sixth method is to change the line-of-sight direction by changing the direction and size of the
Thereby, the operation of returning the posture of the
第7の手法とは、撮像装置1の本体の位置や姿勢に関わりなく、表示部20のタッチパネル上での指でなでる(スイープ)操作や、ダイアルの回転操作等に応じて、表示されている主要被写体を所望方向に回転させた仮想スルー画像を表示させたり、幾つかの視点方向から眺めた仮想スルー画像を順次切り替えて表示させたりする、という手法である。
The seventh technique is displayed according to a stroke operation (sweep) with a finger on the touch panel of the
なお、上述の問題を解決する必要が特にない場合、上述の第1の手法乃至第7の手法を採用しなくても、特に構わない。 Note that when there is no particular need to solve the above-described problem, the above-described first to seventh methods may not be employed.
また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、撮像機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the
For example, the present invention can be applied to general electronic devices having an imaging function. Specifically, for example, the present invention can be applied to a notebook personal computer, a video camera, a portable navigation device, a mobile phone, a portable game machine, and the like.
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部21に含まれるハードディスク等で構成される。
The recording medium including such a program is not only constituted by the
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
1以上の被写体を所定の撮像方向から撮像し、その結果得られる撮像画像のデータを出力する撮像手段と、
前記撮像手段から出力された前記撮像画像のデータに基づいて、前記1以上の被写体の中から、処理対象として注目すべき注目被写体を決定する注目被写体決定手段と、
前記注目被写体決定手段により決定された前記注目被写体の3次元モデルを生成又は取得する3次元モデル生成取得手段と、
前記撮像手段の位置及び姿勢を示す位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された前記位置情報に応じて特定される視点であって、前記所定の撮像方向とは異なる方向の視点から、前記3次元モデル生成取得手段により生成又は取得された前記注目被写体の3次元モデルを眺望した様子を示す画像のデータを、仮想画像のデータとして生成する仮想画像生成手段と、
前記仮想画像生成手段によりデータとして生成された前記仮想画像の表示を制御する表示制御手段と、
を備える撮像装置。
[付記2]
前記撮像手段は、連続的に繰り返して撮像し、その都度得られる撮像画像のデータを逐次出力し、
前記注目被写体決定手段、前記3次元モデル生成取得手段、前記位置情報取得手段、前記仮想画像生成手段、及び前記表示制御手段は、前記撮像手段から前記撮像画像のデータが逐次出力される毎に処理を実行することで、前記撮像手段から逐次データとして出力される前記撮像画像の各々に対応する前記仮想画像の各々を、連続的に繰り返して表示させる、
付記1に記載の撮像装置。
[付記3]
前記表示制御手段の制御により画像を表示させるモードとして、前記撮像手段からデータとして逐次出力される前記撮像画像を通常のスルー画像として表示させる通常スルー表示モードと、前記撮像手段から逐次データとして出力される前記撮像画像の各々に対応する前記仮想画像の各々を仮想スルー画像として表示させる仮想スルー表示モードとのうち一方を選択するモード選択手段
をさらに備える付記2に記載の撮像装置。
[付記4]
1以上の被写体を所定の撮像方向から撮像し、その結果得られる撮像画像のデータを出力する撮像手段を備える撮像装置が実行する撮像方法において、
前記撮像手段から出力された前記撮像画像のデータに基づいて、前記1以上の被写体の中から、処理対象として注目すべき注目被写体を決定する注目被写体決定ステップと、
前記注目被写体決定ステップの処理により決定された前記注目被写体の3次元モデルを生成又は取得する3次元モデル生成取得ステップと、
前記撮像手段の位置及び姿勢を示す位置情報を取得する位置情報取得ステップと、
前記位置情報取得ステップの処理により取得された前記位置情報に応じて特定される視点であって、前記所定の撮像方向とは異なる方向の視点から、前記3次元モデル生成取得ステップの処理により生成又は取得された前記注目被写体の3次元モデルを眺望した様子を示す画像のデータを、仮想画像のデータとして生成する仮想画像生成ステップと、
前記仮想画像生成ステップの処理によりデータとして生成された前記仮想画像の表示を制御する表示制御ステップと、
を含む撮像方法。
[付記5]
1以上の被写体を所定の撮像方向から撮像し、その結果得られる撮像画像のデータを出力する撮像手段を備える撮像装置を制御するコンピュータに、
前記撮像手段から出力された前記撮像画像のデータに基づいて、前記1以上の被写体の中から、処理対象として注目すべき注目被写体を決定する注目被写体決定機能、
前記注目被写体決定機能により決定された前記注目被写体の3次元モデルを生成又は取得する3次元モデル生成取得機能、
前記撮像手段の位置及び姿勢を示す位置情報を取得する位置情報取得機能、
前記位置情報取得機能により取得された前記位置情報に応じて特定される視点であって、前記所定の撮像方向とは異なる方向の視点から、前記3次元モデル生成取得機能により生成又は取得された前記注目被写体の3次元モデルを眺望した様子を示す画像のデータを、仮想画像のデータとして生成する仮想画像生成機能、
前記仮想画像生成機能によりデータとして生成された前記仮想画像の表示を制御する表示制御機能、
を実現させるためのプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Imaging means for imaging one or more subjects from a predetermined imaging direction and outputting data of a captured image obtained as a result;
Subject-of-interest determining means for determining a subject of interest to be noted as a processing target from among the one or more subjects based on the data of the captured image output from the imaging means;
3D model generation and acquisition means for generating or acquiring the 3D model of the target object determined by the target object determination means;
Position information acquisition means for acquiring position information indicating the position and orientation of the imaging means;
The viewpoint identified according to the position information acquired by the position information acquisition means, and generated or acquired by the three-dimensional model generation acquisition means from a viewpoint in a direction different from the predetermined imaging direction. Virtual image generation means for generating, as virtual image data, image data indicating a view of the three-dimensional model of the subject of interest;
Display control means for controlling display of the virtual image generated as data by the virtual image generation means;
An imaging apparatus comprising:
[Appendix 2]
The imaging unit continuously and repeatedly captures images, sequentially outputs captured image data obtained each time,
The target subject determination unit, the three-dimensional model generation / acquisition unit, the position information acquisition unit, the virtual image generation unit, and the display control unit are processed each time the captured image data is sequentially output from the imaging unit. By executing the above, each of the virtual images corresponding to each of the captured images sequentially output as data from the imaging unit is displayed continuously and repeatedly.
The imaging apparatus according to
[Appendix 3]
As a mode for displaying an image under the control of the display control unit, a normal through display mode for displaying the captured image sequentially output as data from the imaging unit as a normal through image, and a sequential data output from the imaging unit. The imaging apparatus according to appendix 2, further comprising mode selection means for selecting one of a virtual through display mode in which each of the virtual images corresponding to each of the captured images is displayed as a virtual through image.
[Appendix 4]
In an imaging method executed by an imaging apparatus including an imaging unit that images one or more subjects from a predetermined imaging direction and outputs data of a captured image obtained as a result,
An object-of-interest determination step for determining an object of interest to be noted as a processing object from among the one or more objects, based on the data of the captured image output from the imaging unit;
A three-dimensional model generation acquisition step of generating or acquiring a three-dimensional model of the target subject determined by the processing of the target subject determination step;
A position information acquisition step of acquiring position information indicating the position and orientation of the imaging means;
Generated by the process of the 3D model generation acquisition step from the viewpoint specified according to the position information acquired by the process of the position information acquisition step and in a direction different from the predetermined imaging direction. A virtual image generation step of generating, as virtual image data, data of an image showing a view of the acquired three-dimensional model of the subject of interest;
A display control step for controlling display of the virtual image generated as data by the processing of the virtual image generation step;
An imaging method including:
[Appendix 5]
A computer that controls an imaging apparatus including an imaging unit that captures one or more subjects from a predetermined imaging direction and outputs data of a captured image obtained as a result;
A target subject determination function for determining a target subject to be noted as a processing target from among the one or more subjects based on the data of the captured image output from the imaging unit;
A three-dimensional model generation / acquisition function for generating or acquiring a three-dimensional model of the target object determined by the target object determination function;
A position information acquisition function for acquiring position information indicating the position and orientation of the imaging means;
The viewpoint identified according to the position information acquired by the position information acquisition function, and generated or acquired by the three-dimensional model generation acquisition function from a viewpoint in a direction different from the predetermined imaging direction. A virtual image generation function for generating, as virtual image data, image data showing a view of a three-dimensional model of the subject of interest;
A display control function for controlling display of the virtual image generated as data by the virtual image generation function;
A program to realize
11・・・CPU、12・・・ROM、13・・・RAM、14・・・画像処理部、17・・・撮像部、18・・・操作部、19・・・センサ部、20・・・表示部、21・・・記憶部、22・・・通信部、23・・・ドライブ、31・・・リムーバブルメディア、51・・・スルー表示モード選択部、52・・・切替部、53・・・表示制御部、54・・・記録制御部、55・・・位置情報取得部、61・・・注目被写体決定部、62・・・3次元モデル生成取得部、63・・・仮想スルー画像生成部、71・・・撮像画像記憶部、72・・・3次元モデル記憶部
DESCRIPTION OF
Claims (5)
前記撮像手段から出力された前記撮像画像のデータに基づいて、前記1以上の被写体の中から、処理対象として注目すべき注目被写体を決定する注目被写体決定手段と、
前記注目被写体決定手段により決定された前記注目被写体の3次元モデルを生成又は取得する3次元モデル生成取得手段と、
前記撮像手段の位置及び姿勢を示す位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された前記位置情報に応じて特定される視点であって、前記所定の撮像方向とは異なる方向の視点から、前記3次元モデル生成取得手段により生成又は取得された前記注目被写体の3次元モデルを眺望した様子を示す画像のデータを、仮想画像のデータとして生成する仮想画像生成手段と、
前記仮想画像生成手段によりデータとして生成された前記仮想画像の表示を制御する表示制御手段と、
を備える撮像装置。 Imaging means for imaging one or more subjects from a predetermined imaging direction and outputting data of a captured image obtained as a result;
Subject-of-interest determining means for determining a subject of interest to be noted as a processing target from among the one or more subjects based on the data of the captured image output from the imaging means;
3D model generation and acquisition means for generating or acquiring the 3D model of the target object determined by the target object determination means;
Position information acquisition means for acquiring position information indicating the position and orientation of the imaging means;
The viewpoint identified according to the position information acquired by the position information acquisition means, and generated or acquired by the three-dimensional model generation acquisition means from a viewpoint in a direction different from the predetermined imaging direction. Virtual image generation means for generating, as virtual image data, image data indicating a view of the three-dimensional model of the subject of interest;
Display control means for controlling display of the virtual image generated as data by the virtual image generation means;
An imaging apparatus comprising:
前記注目被写体決定手段、前記3次元モデル生成取得手段、前記位置情報取得手段、前記仮想画像生成手段、及び前記表示制御手段は、前記撮像手段から前記撮像画像のデータが逐次出力される毎に処理を実行することで、前記撮像手段から逐次データとして出力される前記撮像画像の各々に対応する前記仮想画像の各々を、連続的に繰り返して表示させる、
請求項1に記載の撮像装置。 The imaging unit continuously and repeatedly captures images, sequentially outputs captured image data obtained each time,
The target subject determination unit, the three-dimensional model generation / acquisition unit, the position information acquisition unit, the virtual image generation unit, and the display control unit are processed each time the captured image data is sequentially output from the imaging unit. By executing the above, each of the virtual images corresponding to each of the captured images sequentially output as data from the imaging unit is displayed continuously and repeatedly.
The imaging device according to claim 1.
をさらに備える請求項2に記載の撮像装置。 As a mode for displaying an image under the control of the display control unit, a normal through display mode for displaying the captured image sequentially output as data from the imaging unit as a normal through image, and a sequential data output from the imaging unit. The imaging apparatus according to claim 2, further comprising mode selection means for selecting one of a virtual through display mode in which each of the virtual images corresponding to each of the captured images is displayed as a virtual through image.
前記撮像手段から出力された前記撮像画像のデータに基づいて、前記1以上の被写体の中から、処理対象として注目すべき注目被写体を決定する注目被写体決定ステップと、
前記注目被写体決定ステップの処理により決定された前記注目被写体の3次元モデルを生成又は取得する3次元モデル生成取得ステップと、
前記撮像手段の位置及び姿勢を示す位置情報を取得する位置情報取得ステップと、
前記位置情報取得ステップの処理により取得された前記位置情報に応じて特定される視点であって、前記所定の撮像方向とは異なる方向の視点から、前記3次元モデル生成取得ステップの処理により生成又は取得された前記注目被写体の3次元モデルを眺望した様子を示す画像のデータを、仮想画像のデータとして生成する仮想画像生成ステップと、
前記仮想画像生成ステップの処理によりデータとして生成された前記仮想画像の表示を制御する表示制御ステップと、
を含む撮像方法。 In an imaging method executed by an imaging apparatus including an imaging unit that images one or more subjects from a predetermined imaging direction and outputs data of a captured image obtained as a result,
An object-of-interest determination step for determining an object of interest to be noted as a processing object from among the one or more objects, based on the data of the captured image output from the imaging unit;
A three-dimensional model generation acquisition step of generating or acquiring a three-dimensional model of the target subject determined by the processing of the target subject determination step;
A position information acquisition step of acquiring position information indicating the position and orientation of the imaging means;
Generated by the process of the 3D model generation acquisition step from the viewpoint specified according to the position information acquired by the process of the position information acquisition step and in a direction different from the predetermined imaging direction. A virtual image generation step of generating, as virtual image data, data of an image showing a view of the acquired three-dimensional model of the subject of interest;
A display control step for controlling display of the virtual image generated as data by the processing of the virtual image generation step;
An imaging method including:
前記撮像手段から出力された前記撮像画像のデータに基づいて、前記1以上の被写体の中から、処理対象として注目すべき注目被写体を決定する注目被写体決定機能、
前記注目被写体決定機能により決定された前記注目被写体の3次元モデルを生成又は取得する3次元モデル生成取得機能、
前記撮像手段の位置及び姿勢を示す位置情報を取得する位置情報取得機能、
前記位置情報取得機能により取得された前記位置情報に応じて特定される視点であって、前記所定の撮像方向とは異なる方向の視点から、前記3次元モデル生成取得機能により生成又は取得された前記注目被写体の3次元モデルを眺望した様子を示す画像のデータを、仮想画像のデータとして生成する仮想画像生成機能、
前記仮想画像生成機能によりデータとして生成された前記仮想画像の表示を制御する表示制御機能、
を実現させるためのプログラム。 A computer that controls an imaging apparatus including an imaging unit that captures one or more subjects from a predetermined imaging direction and outputs data of a captured image obtained as a result;
A target subject determination function for determining a target subject to be noted as a processing target from among the one or more subjects based on the data of the captured image output from the imaging unit;
A three-dimensional model generation / acquisition function for generating or acquiring a three-dimensional model of the target object determined by the target object determination function;
A position information acquisition function for acquiring position information indicating the position and orientation of the imaging means;
The viewpoint identified according to the position information acquired by the position information acquisition function, and generated or acquired by the three-dimensional model generation acquisition function from a viewpoint in a direction different from the predetermined imaging direction. A virtual image generation function for generating, as virtual image data, image data showing a view of a three-dimensional model of the subject of interest;
A display control function for controlling display of the virtual image generated as data by the virtual image generation function;
A program to realize
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011073615A JP5672109B2 (en) | 2011-03-29 | 2011-03-29 | Imaging apparatus, imaging method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011073615A JP5672109B2 (en) | 2011-03-29 | 2011-03-29 | Imaging apparatus, imaging method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2012208719A true JP2012208719A (en) | 2012-10-25 |
JP2012208719A5 JP2012208719A5 (en) | 2014-03-20 |
JP5672109B2 JP5672109B2 (en) | 2015-02-18 |
Family
ID=47188389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011073615A Expired - Fee Related JP5672109B2 (en) | 2011-03-29 | 2011-03-29 | Imaging apparatus, imaging method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5672109B2 (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108510595A (en) * | 2017-02-28 | 2018-09-07 | 佳能株式会社 | Image processing apparatus, image processing method and storage medium |
JP2021073563A (en) * | 2016-09-23 | 2021-05-13 | アップル インコーポレイテッドApple Inc. | Image data for enhanced user interactions |
US11302061B2 (en) | 2018-01-22 | 2022-04-12 | Canon Kabushiki Kaisha | Image processing apparatus and method, for gerneration of a three-dimensional model used for generating a virtual viewpoint image |
US11380077B2 (en) | 2018-05-07 | 2022-07-05 | Apple Inc. | Avatar creation user interface |
US11393258B2 (en) | 2017-09-09 | 2022-07-19 | Apple Inc. | Implementation of biometric authentication |
US11468155B2 (en) | 2007-09-24 | 2022-10-11 | Apple Inc. | Embedded authentication systems in an electronic device |
US11494046B2 (en) | 2013-09-09 | 2022-11-08 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs |
US11532112B2 (en) | 2017-05-16 | 2022-12-20 | Apple Inc. | Emoji recording and sending |
US11619991B2 (en) | 2018-09-28 | 2023-04-04 | Apple Inc. | Device control using gaze information |
US11676373B2 (en) | 2008-01-03 | 2023-06-13 | Apple Inc. | Personal computing device control using face detection and recognition |
US11755712B2 (en) | 2011-09-29 | 2023-09-12 | Apple Inc. | Authentication with secondary approver |
US11809784B2 (en) | 2018-09-28 | 2023-11-07 | Apple Inc. | Audio assisted enrollment |
US11836725B2 (en) | 2014-05-29 | 2023-12-05 | Apple Inc. | User interface for payments |
US11928200B2 (en) | 2018-06-03 | 2024-03-12 | Apple Inc. | Implementation of biometric authentication |
US12033296B2 (en) | 2018-05-07 | 2024-07-09 | Apple Inc. | Avatar creation user interface |
US12079458B2 (en) | 2016-09-23 | 2024-09-03 | Apple Inc. | Image data for enhanced user interactions |
US12099586B2 (en) | 2021-01-25 | 2024-09-24 | Apple Inc. | Implementation of biometric authentication |
US12124770B2 (en) | 2023-08-24 | 2024-10-22 | Apple Inc. | Audio assisted enrollment |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002269580A (en) * | 2001-03-07 | 2002-09-20 | Japan Science & Technology Corp | Animation creating system |
JP2010109783A (en) * | 2008-10-31 | 2010-05-13 | Casio Computer Co Ltd | Electronic camera |
JP2010193050A (en) * | 2009-02-17 | 2010-09-02 | Nikon Corp | Electronic camera |
JP2010237804A (en) * | 2009-03-30 | 2010-10-21 | Casio Computer Co Ltd | System and method for searching image |
-
2011
- 2011-03-29 JP JP2011073615A patent/JP5672109B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002269580A (en) * | 2001-03-07 | 2002-09-20 | Japan Science & Technology Corp | Animation creating system |
JP2010109783A (en) * | 2008-10-31 | 2010-05-13 | Casio Computer Co Ltd | Electronic camera |
JP2010193050A (en) * | 2009-02-17 | 2010-09-02 | Nikon Corp | Electronic camera |
JP2010237804A (en) * | 2009-03-30 | 2010-10-21 | Casio Computer Co Ltd | System and method for searching image |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11468155B2 (en) | 2007-09-24 | 2022-10-11 | Apple Inc. | Embedded authentication systems in an electronic device |
US11676373B2 (en) | 2008-01-03 | 2023-06-13 | Apple Inc. | Personal computing device control using face detection and recognition |
US11755712B2 (en) | 2011-09-29 | 2023-09-12 | Apple Inc. | Authentication with secondary approver |
US11494046B2 (en) | 2013-09-09 | 2022-11-08 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs |
US11768575B2 (en) | 2013-09-09 | 2023-09-26 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs |
US11836725B2 (en) | 2014-05-29 | 2023-12-05 | Apple Inc. | User interface for payments |
JP7158509B2 (en) | 2016-09-23 | 2022-10-21 | アップル インコーポレイテッド | Image data for enhanced user interaction |
US12079458B2 (en) | 2016-09-23 | 2024-09-03 | Apple Inc. | Image data for enhanced user interactions |
JP2021073563A (en) * | 2016-09-23 | 2021-05-13 | アップル インコーポレイテッドApple Inc. | Image data for enhanced user interactions |
CN108510595B (en) * | 2017-02-28 | 2023-11-28 | 佳能株式会社 | Image processing apparatus, image processing method, and storage medium |
CN108510595A (en) * | 2017-02-28 | 2018-09-07 | 佳能株式会社 | Image processing apparatus, image processing method and storage medium |
US11532112B2 (en) | 2017-05-16 | 2022-12-20 | Apple Inc. | Emoji recording and sending |
US12045923B2 (en) | 2017-05-16 | 2024-07-23 | Apple Inc. | Emoji recording and sending |
US11393258B2 (en) | 2017-09-09 | 2022-07-19 | Apple Inc. | Implementation of biometric authentication |
US11765163B2 (en) | 2017-09-09 | 2023-09-19 | Apple Inc. | Implementation of biometric authentication |
US11302061B2 (en) | 2018-01-22 | 2022-04-12 | Canon Kabushiki Kaisha | Image processing apparatus and method, for gerneration of a three-dimensional model used for generating a virtual viewpoint image |
US12033296B2 (en) | 2018-05-07 | 2024-07-09 | Apple Inc. | Avatar creation user interface |
US11380077B2 (en) | 2018-05-07 | 2022-07-05 | Apple Inc. | Avatar creation user interface |
US11682182B2 (en) | 2018-05-07 | 2023-06-20 | Apple Inc. | Avatar creation user interface |
US11928200B2 (en) | 2018-06-03 | 2024-03-12 | Apple Inc. | Implementation of biometric authentication |
US11809784B2 (en) | 2018-09-28 | 2023-11-07 | Apple Inc. | Audio assisted enrollment |
US11619991B2 (en) | 2018-09-28 | 2023-04-04 | Apple Inc. | Device control using gaze information |
US12105874B2 (en) | 2018-09-28 | 2024-10-01 | Apple Inc. | Device control using gaze information |
US12099586B2 (en) | 2021-01-25 | 2024-09-24 | Apple Inc. | Implementation of biometric authentication |
US12124770B2 (en) | 2023-08-24 | 2024-10-22 | Apple Inc. | Audio assisted enrollment |
Also Published As
Publication number | Publication date |
---|---|
JP5672109B2 (en) | 2015-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5672109B2 (en) | Imaging apparatus, imaging method, and program | |
US10645371B2 (en) | Inertial measurement unit progress estimation | |
CN109615703B (en) | Augmented reality image display method, device and equipment | |
JP4262014B2 (en) | Image photographing apparatus and image processing method | |
JP5337915B2 (en) | Information presentation device, digital camera, head mounted display, projector, information presentation method, information presentation program | |
US9516223B2 (en) | Motion-based image stitching | |
US9106906B2 (en) | Image generation system, image generation method, and information storage medium | |
JP6126821B2 (en) | Image generation method, image display method, image generation program, image generation system, and image display apparatus | |
JP5510238B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
WO2011048773A1 (en) | Image display apparatus, image display method, and program | |
JP6126820B2 (en) | Image generation method, image display method, image generation program, image generation system, and image display apparatus | |
US10339700B2 (en) | Manipulating virtual objects on hinged multi-screen device | |
US11252398B2 (en) | Creating cinematic video from multi-view capture data | |
JP6294054B2 (en) | Video display device, video presentation method, and program | |
US11361455B2 (en) | Systems and methods for facilitating the identifying of correspondences between images experiencing motion blur | |
JP6621565B2 (en) | Display control apparatus, display control method, and program | |
JP6219037B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
US20230196658A1 (en) | Enclosed multi-view visual media representation | |
US11128836B2 (en) | Multi-camera display | |
JPWO2018117099A1 (en) | Image processing apparatus and program | |
JP2006309626A (en) | Arbitrary viewpoint image generation device | |
JP2015061200A (en) | Image display device, image display method, and image display program | |
JP2021061504A (en) | Imaging apparatus, image display apparatus, image generation apparatus, and image generation program | |
KR20230039466A (en) | Electronic device for generating stereoscopy based on images obtained from multiple cameras and method thereof | |
CN117994314A (en) | Image processing method and electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140130 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5672109 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |