[go: nahoru, domu]

JP2012208719A - Imaging device, imaging method, and program - Google Patents

Imaging device, imaging method, and program Download PDF

Info

Publication number
JP2012208719A
JP2012208719A JP2011073615A JP2011073615A JP2012208719A JP 2012208719 A JP2012208719 A JP 2012208719A JP 2011073615 A JP2011073615 A JP 2011073615A JP 2011073615 A JP2011073615 A JP 2011073615A JP 2012208719 A JP2012208719 A JP 2012208719A
Authority
JP
Japan
Prior art keywords
imaging
image
unit
virtual
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011073615A
Other languages
Japanese (ja)
Other versions
JP5672109B2 (en
JP2012208719A5 (en
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011073615A priority Critical patent/JP5672109B2/en
Publication of JP2012208719A publication Critical patent/JP2012208719A/en
Publication of JP2012208719A5 publication Critical patent/JP2012208719A5/ja
Application granted granted Critical
Publication of JP5672109B2 publication Critical patent/JP5672109B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a user to visually confirm an image with desired composition by only moving an imaging device while fixing a user's body.SOLUTION: A target subject determination unit 61 determines a target subject from one or more subjects included in a captured image. A three-dimensional model generation/acquisition unit 62 generates or acquires a three-dimensional model of the target object. A positional information acquisition unit 55 acquires positional information indicating a position and a posture of an imaging device 1. As virtual through image data, a virtual through image generation unit 63 generates data of an image showing an appearance of the three-dimensional model of the target subject generated or acquired by the three-dimensional model generation/acquisition unit 62 that is viewed from a viewpoint which is specified according to the positional information acquired by the positional information acquisition unit 55 and is in a direction different from a predetermined imaging direction. A display control unit 53 controls display of the virtual through image data generated by the virtual through image generation unit 63.

Description

本発明は、ユーザが身体を固定したまま撮像装置のみを移動させるだけで、所望の構図の画像を視認することが可能になる、撮像装置及び撮像方法、並びにプログラムに関する。   The present invention relates to an imaging apparatus, an imaging method, and a program that enable a user to visually recognize an image having a desired composition only by moving the imaging apparatus while keeping his body fixed.

従来より、デジタルカメラ等の撮像装置は、その裏面等に表示部を有しており、シャッタ釦の押下操作等の記録指示操作がなされる前の段階から、被写体を撮像方向(レンズの光軸の方向)からみた様子を示す画像を表示部にリアルタイム表示している。
このような画像は、一般的に、「ライブビュー画像」や「スルー画像」と呼ばれている。なお、本明細書では、「スルー画像」という呼称に統一して説明することにする。
2. Description of the Related Art Conventionally, an imaging apparatus such as a digital camera has a display unit on its back surface, and the subject is captured in the imaging direction (the optical axis of the lens) from the stage before a recording instruction operation such as a shutter button pressing operation is performed. An image showing a state seen from the direction of () is displayed on the display unit in real time.
Such an image is generally called a “live view image” or a “through image”. In the present specification, the term “through image” will be used in the description.

ユーザは、撮像装置を手等で保持した状態で移動させたり回転させたりして、その都度、スルー画像をみて所望の構図となっているか否かを確認する。そして、ユーザは、所望の構図のスルー画像が表示部に映っていることを確認すると、その状態を維持したまま、シャッタ釦の押下操作等の記録指示操作をする。
すると、撮像装置は、記録指示操作がなされた段階で撮像している画像のデータ、即ち、当該所望の構図のスルー画像と略同一の画像のデータを、メモリカード等に記録する。
The user moves or rotates the image pickup apparatus while being held by a hand or the like, and checks whether or not a desired composition is obtained by looking at the through image each time. When the user confirms that a through image having a desired composition is displayed on the display unit, the user performs a recording instruction operation such as a shutter button pressing operation while maintaining the state.
Then, the image capturing apparatus records data of an image captured at the stage when the recording instruction operation is performed, that is, data of an image substantially the same as the through image of the desired composition on a memory card or the like.

このように、ユーザは、記録指示操作をする前に、所望の構図を決定するために、スルー画像を活用することが多い。
しかしながら、スルー画像とは、上述の如く、現時点の撮像方向(レンズの光軸の方向)から被写体をみた様子を示す画像である。このため、ユーザが直立不動して撮像装置のみを手で移動させただけでは所望の構図が得られない場合、ユーザ自身の身体を移動させなければならないため、ユーザにとって、所望の構図を決定する操作は負担なものになっている。
このような状況から、ユーザが身体を固定したまま撮像装置のみを移動させるだけで、所望の構図の画像を視認したいという要求が、近年多くのユーザから挙げられている。ただし、当該要求に応えるためには、現時点で肉眼視できないものを表示させる技術が必要になる。
As described above, a user often uses a through image to determine a desired composition before performing a recording instruction operation.
However, the through image, as described above, is an image showing a state in which the subject is viewed from the current imaging direction (the direction of the optical axis of the lens). For this reason, when the user cannot move upright and cannot move the imaging apparatus only by hand, the user's own body must be moved. Therefore, the user determines the desired composition. Operation is burdensome.
From such a situation, many users have recently demanded that a user wants to visually recognize an image having a desired composition only by moving the imaging apparatus while the body is fixed. However, in order to meet this requirement, a technique for displaying what cannot be seen with the naked eye at the present time is required.

現時点で肉眼視できないものを表示させる従来の技術として、赤外線カメラ、暗視カメラ、赤外線サーモグラフィカメラ等で特殊な画像を表示させる技術が知られている。
ただし、これらの特殊な画像は、あくまでも、現時点の撮像方向(レンズの光軸の方向)の画角の範囲内に映る画像である。
しかしながら、現時点で肉眼視できないものとして表示させる対象は、現在の視点からは肉眼視できない対象、即ち、現時点の撮像方向の画角の範囲外にある対象である。換言すると、仮に視点を移動させれば肉眼視が可能になる対象であって、視点を移動させるためにはユーザが身体を移動させなければならない対象を、表示させることが必要になる。例えば、撮像装置が、所定物体の正面側に向いている場合、当該所定物体の背面側を表示させることが必要になる。
As a conventional technique for displaying what cannot be seen with the naked eye at present, a technique for displaying a special image with an infrared camera, a night vision camera, an infrared thermography camera, or the like is known.
However, these special images are only images that fall within the field angle range of the current imaging direction (the direction of the optical axis of the lens).
However, an object to be displayed as being invisible to the naked eye at the present time is an object that cannot be viewed with the naked eye from the current viewpoint, that is, an object outside the range of the angle of view in the current imaging direction. In other words, if the viewpoint is moved, it is an object that can be seen with the naked eye, and in order to move the viewpoint, it is necessary to display an object on which the user must move the body. For example, when the imaging device faces the front side of a predetermined object, it is necessary to display the back side of the predetermined object.

このような必要性に応え得る従来の技術としては、仮想世界を構築可能なCG(Computer Graphics)の技術(以下、「CG技術」と呼ぶ)が存在する。
例えば、非特許文献1には、予め用意された3次元形状のモデルを用いて、所定視点から当該モデルを眺めた様子を示す画像を描画可能なCG技術が開示されている(非特許文献1参照)。
このような非特許文献1の技術を受けて、特許文献1や2には、予め用意された対象物体の3次元形状データに基づいて、任意の視点から当該対象物体を眺めた様子を示す画像を表示可能なCG技術が記載されている。
As a conventional technique that can meet such a need, there is a CG (Computer Graphics) technique (hereinafter referred to as “CG technique”) that can construct a virtual world.
For example, Non-Patent Document 1 discloses a CG technique capable of drawing an image showing a state of viewing a model from a predetermined viewpoint using a three-dimensional model prepared in advance (Non-Patent Document 1). reference).
In response to such a technique of Non-Patent Document 1, Patent Documents 1 and 2 show images showing the target object viewed from an arbitrary viewpoint based on the three-dimensional shape data of the target object prepared in advance. Is described.

特開2002−298160号公報JP 2002-298160 A 特開2004−271671号公報JP 2004-271671 A

渋沢英次郎『代数学的誤差の最小化に基づく未校正多視点画像からの三次元復元に関する研究』博士学位論文,電気通信大学 大学院 電気通信学研究科,March,2010.Eijiro Shibusawa “Research on 3D reconstruction from uncalibrated multi-view images based on minimization of algebraic error” Doctoral dissertation, University of Electro-Communications Graduate School of Electro-Communications, March, 2010.

しかしながら、非特許文献1並びに特許文献1及び2に記載のCG技術を含め、従来のCG技術を適用して、任意の視点から眺めた所定物体の画像を表示するためには、当該所定物体の3次元モデル(3次元形状データ)が予め用意されていることが前提になる。
従って、このような前提が必要になる従来のCG技術をそのまま適用しても、上述の要望に応えること、即ち、ユーザが身体を固定したまま撮像装置のみを移動させるだけで、所望の構図の画像を視認したいという要求に応えることは困難である。
However, in order to display an image of a predetermined object viewed from an arbitrary viewpoint by applying conventional CG techniques including the CG techniques described in Non-Patent Document 1 and Patent Documents 1 and 2, It is assumed that a three-dimensional model (three-dimensional shape data) is prepared in advance.
Therefore, even if the conventional CG technology that requires such a premise is applied as it is, it is possible to satisfy the above-mentioned demand, that is, the user can move only the imaging device while fixing the body, and the desired composition can be obtained. It is difficult to meet the demand for viewing images.

本発明は、このような状況に鑑みてなされたものであり、ユーザが身体を固定したまま撮像装置のみを移動させるだけで、所望の構図の画像を視認可能にすることを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to make it possible to visually recognize an image having a desired composition only by moving the imaging apparatus while the user is fixing his body.

上記目的を達成するため、本発明の一態様の撮像装置は、
1以上の被写体を所定の撮像方向から撮像し、その結果得られる撮像画像のデータを出力する撮像手段と、
前記撮像手段から出力された前記撮像画像のデータに基づいて、前記1以上の被写体の中から、処理対象として注目すべき注目被写体を決定する注目被写体決定手段と、
前記注目被写体決定手段により決定された前記注目被写体の3次元モデルを生成又は取得する3次元モデル生成取得手段と、
前記撮像手段の位置及び姿勢を示す位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された前記位置情報に応じて特定される視点であって、前記所定の撮像方向とは異なる方向の視点から、前記3次元モデル生成取得手段により生成又は取得された前記注目被写体の3次元モデルを眺望した様子を示す画像のデータを、仮想画像のデータとして生成する仮想画像生成手段と、
前記仮想画像生成手段によりデータとして生成された前記仮想画像の表示を制御する表示制御手段と、
を備えることを特徴とする。
In order to achieve the above object, an imaging device of one embodiment of the present invention includes:
Imaging means for imaging one or more subjects from a predetermined imaging direction and outputting data of a captured image obtained as a result;
Subject-of-interest determining means for determining a subject of interest to be noted as a processing target from among the one or more subjects based on the data of the captured image output from the imaging means;
3D model generation and acquisition means for generating or acquiring the 3D model of the target object determined by the target object determination means;
Position information acquisition means for acquiring position information indicating the position and orientation of the imaging means;
The viewpoint identified according to the position information acquired by the position information acquisition means, and generated or acquired by the three-dimensional model generation acquisition means from a viewpoint in a direction different from the predetermined imaging direction. Virtual image generation means for generating, as virtual image data, image data indicating a view of the three-dimensional model of the subject of interest;
Display control means for controlling display of the virtual image generated as data by the virtual image generation means;
It is characterized by providing.

本発明によれば、ユーザが身体を固定したまま撮像装置のみを移動させるだけで、所望の構図の画像を視認することが可能となる。   According to the present invention, it is possible to visually recognize an image with a desired composition simply by moving only the imaging device while the body is fixed.

本発明の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the imaging device which concerns on one Embodiment of this invention. 図1の撮像装置の機能的構成のうち、仮想スルー表示処理を含む撮像記録処理の実行機能を実現する機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure which implement | achieves the execution function of the imaging recording process containing a virtual through display process among the functional structures of the imaging device of FIG. 図2の機能的構成を有する図1の撮像装置が実行する撮像記録処理の流れを説明するフローチャートである。3 is a flowchart illustrating a flow of an imaging recording process executed by the imaging apparatus of FIG. 1 having the functional configuration of FIG. 2. 仮想スルー表示処理の結果について、通常スルー表示処理の結果と比較しながら説明する図である。It is a figure explaining comparing the result of virtual through display processing with the result of normal through display processing. 図3の撮像記録処理のうち、仮想スルー表示処理の流れの詳細の一例を説明するフローチャートである。FIG. 4 is a flowchart illustrating an example of details of a flow of a virtual through display process in the imaging recording process of FIG. 3. 図5の仮想スルー表示処理のうち、3次元モデル生成処理の流れの詳細の一例を説明するフローチャートである。It is a flowchart explaining an example of the detail of the flow of a three-dimensional model generation process among the virtual through display processes of FIG.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る撮像装置1のハードウェアの構成を示すブロック図である。
撮像装置1は、例えばデジタルカメラとして構成される。
FIG. 1 is a block diagram showing a hardware configuration of an imaging apparatus 1 according to an embodiment of the present invention.
The imaging device 1 is configured as a digital camera, for example.

撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、画像処理部14と、バス15と、入出力インターフェース16と、撮像部17と、操作部18と、センサ部19と、表示部20と、記憶部21と、通信部22と、ドライブ23と、を備えている。   The imaging device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an image processing unit 14, a bus 15, an input / output interface 16, and an imaging unit. 17, an operation unit 18, a sensor unit 19, a display unit 20, a storage unit 21, a communication unit 22, and a drive 23.

CPU11は、ROM12に記録されているプログラム、又は、記憶部21からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 21 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

画像処理部14は、DSP(Digital Signal Processor)や、VRAM(Video Random Access Memory)等から構成されており、CPU11と協働して、画像のデータに対して各種画像処理を施す。   The image processing unit 14 is configured by a DSP (Digital Signal Processor), a VRAM (Video Random Access Memory), and the like, and performs various image processing on image data in cooperation with the CPU 11.

CPU11、ROM12、RAM13、及び画像処理部14は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、操作部18、センサ部19、表示部20、記憶部21、通信部22及びドライブ23が接続されている。   The CPU 11, ROM 12, RAM 13, and image processing unit 14 are connected to each other via a bus 15. An input / output interface 16 is also connected to the bus 15. An imaging unit 17, an operation unit 18, a sensor unit 19, a display unit 20, a storage unit 21, a communication unit 22, and a drive 23 are connected to the input / output interface 16.

撮像部17は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 17 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、デジタル信号が生成され、撮像部17の出力信号として出力される。
このような撮像部17の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the imaging unit 17.
Such an output signal of the imaging unit 17 is hereinafter referred to as “captured image data”. The captured image data is appropriately supplied to the CPU 11 or the like.

操作部18は、シャッタ釦等の各種釦で構成され、ユーザの指示操作に応じて各種情報を入力する。   The operation unit 18 includes various buttons such as a shutter button, and inputs various information in accordance with a user instruction operation.

センサ部19は、例えば、3軸地磁気センサ、3軸加速度センサ、傾斜センサ、距離センサ等で構成され、撮像部17の姿勢や位置を検出する。
CPU11は、センサ部19の検出結果に基づいて、撮像装置1の方位角、撮像装置1の傾斜、被写体と撮像装置1との間の距離等、被写体に対する相対的な撮像装置1の姿勢や位置を示す情報(以下、「撮像装置1の位置情報」と呼ぶ)を算出する。
例えば、センサ部19の3軸地磁気センサは、地磁気の方向の3軸(X,Y,Z)成分を検出する。CPU11は、この3軸地磁気センサの検出結果に基づいて、撮像装置1の方位角を算出する。
また例えば、傾斜センサは、例えば、圧電振動ジャイロで構成され、加えられた角速度に対応した電圧値を出力する。CPU11は、傾斜センサから出力される電圧値を積分することによって、傾斜の変化量を算出し、当該傾斜の変化量に基づいて撮像装置1の傾斜を算出する。
なお、CPU11は、3軸地磁気センサや傾斜センサの検出結果を、任意の姿勢(傾斜角度)状態においても方位及び傾斜の計測が可能な3軸加速度センサの検出結果を用いて補正し、その補正結果に基づいて撮像装置1の方位角や傾斜を算出するようにしてもよい。
距離センサは、非接触の対象物との距離を検出する。CPU11は、距離センサの検出結果に基づいて、被写体と撮像装置1との間の距離を算出する。
The sensor unit 19 includes, for example, a triaxial geomagnetic sensor, a triaxial acceleration sensor, a tilt sensor, a distance sensor, and the like, and detects the posture and position of the imaging unit 17.
Based on the detection result of the sensor unit 19, the CPU 11 determines the orientation and position of the imaging device 1 relative to the subject, such as the azimuth angle of the imaging device 1, the tilt of the imaging device 1, and the distance between the subject and the imaging device 1. (Hereinafter referred to as “positional information of the imaging device 1”) is calculated.
For example, the triaxial geomagnetic sensor of the sensor unit 19 detects triaxial (X, Y, Z) components in the direction of geomagnetism. The CPU 11 calculates the azimuth angle of the imaging device 1 based on the detection result of the triaxial geomagnetic sensor.
Further, for example, the tilt sensor is constituted by, for example, a piezoelectric vibration gyro, and outputs a voltage value corresponding to the applied angular velocity. The CPU 11 integrates the voltage value output from the tilt sensor to calculate the change amount of the tilt, and calculates the tilt of the imaging device 1 based on the change amount of the tilt.
The CPU 11 corrects the detection result of the triaxial geomagnetic sensor or the tilt sensor using the detection result of the triaxial acceleration sensor capable of measuring the azimuth and the tilt even in an arbitrary posture (tilt angle) state, and the correction. The azimuth angle and inclination of the imaging device 1 may be calculated based on the result.
The distance sensor detects a distance from a non-contact object. The CPU 11 calculates the distance between the subject and the imaging device 1 based on the detection result of the distance sensor.

表示部20は、液晶ディスプレイ等で構成され、撮像画像等の各種画像を表示する。
記憶部21は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部22は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The display unit 20 includes a liquid crystal display and displays various images such as a captured image.
The storage unit 21 is configured with a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various image data.
The communication unit 22 controls communication with other devices (not shown) via a network including the Internet.

ドライブ23には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ23によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部21にインストールされる。また、リムーバブルメディア31は、記憶部21に記憶されている画像のデータ等の各種データも、記憶部21と同様に記憶することができる。   A removable medium 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 23. The program read from the removable medium 31 by the drive 23 is installed in the storage unit 21 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 21 in the same manner as the storage unit 21.

このような構成の撮像装置1は、被写体を撮像し、その結果得られる撮像画像のデータをリムーバブルメディア31等に記録するまでの一連の処理(以下、「撮像記録処理」と呼ぶ)を実行することができる。
本実施形態の撮像記録処理においては、CPU11は、操作部18のシャッタ釦の押下操作がなされたことを、撮像画像の記録指示であると認識し、当該押下操作直後に撮像された撮像画像のデータをリムーバブルメディア31等に記録する。
The imaging apparatus 1 having such a configuration executes a series of processes (hereinafter referred to as “imaging recording process”) until the subject is imaged and the data of the captured image obtained as a result is recorded in the removable medium 31 or the like. be able to.
In the imaging / recording process of the present embodiment, the CPU 11 recognizes that the operation of pressing the shutter button of the operation unit 18 is an instruction to record the captured image, and the CPU 11 captures the captured image captured immediately after the pressing operation. Data is recorded on the removable medium 31 or the like.

このような撮像画像の記録指示の前には、CPU11は、スルー撮像処理及びスルー表示処理を実行することで、スルー画像を表示部20に表示させる。
具体的には、CPU11は、撮像記録処理が開始されると、撮像部17による撮像動作を継続させる。そして、CPU11は、撮像部17による撮像動作が継続されている間、当該撮像部17から順次出力される撮像画像のデータを、メモリ(本実施形態では記憶部21)に一時的に記憶させる。このような一連の制御処理が、ここでいう「スルー撮像処理」である。
また、CPU11は、スルー撮像処理の最中にメモリ(本実施形態では記憶部21)に一時的に記録された各撮像画像のデータを順次読み出して、当該撮像画像を表示部20に順次表示させる。このような一連の制御処理が、ここでいう「スルー表示処理」であり、スルー表示処理により表示部20に表示されている撮像画像が、ここでいう「スルー画像」である。
Prior to such an instruction to record a captured image, the CPU 11 displays a through image on the display unit 20 by executing a through imaging process and a through display process.
Specifically, when the imaging recording process is started, the CPU 11 continues the imaging operation by the imaging unit 17. Then, while the imaging operation by the imaging unit 17 is continued, the CPU 11 temporarily stores the captured image data sequentially output from the imaging unit 17 in the memory (the storage unit 21 in the present embodiment). Such a series of control processes is the “through imaging process” referred to herein.
Further, the CPU 11 sequentially reads the data of each captured image temporarily recorded in the memory (the storage unit 21 in the present embodiment) during the through imaging process, and sequentially displays the captured image on the display unit 20. . Such a series of control processes is the “through display process” here, and the captured image displayed on the display unit 20 by the through display process is the “through image” here.

本実施形態では、撮像装置1は、スルー表示処理中の動作モード(以下、「スルー表示モード」と呼ぶ)として、通常表示モードと仮想表示モードとを有しており、これら2種類の動作モードを自在に切り替えることができる。
「通常表示モード」とは、通常通り、現時点で撮像された撮像画像そのものをスルー画像として表示部20に表示させるモードをいう。なお、以下、通常表示モードにおけるスルー表示処理を、「通常スルー表示処理」と呼ぶ。
「仮想表示モード」とは、次のような一連の処理の結果得られる、仮想的な画像のスルー画像(以下、「仮想スルー画像」と呼ぶ)を表示部20に表示させるモードをいう。
即ち、CPU11は、現時点で撮像された撮像画像のデータに基づいて、当該撮像画像に含まれる被写体のうち、処理の対象として注目すべき被写体(以下、「注目被写体」と呼ぶ)を認識し、当該注目被写体の3次元モデルを作成又は取得する。CPU11は、当該3次元モデルに基づいて、現時点の状態とは異なる姿勢又は位置で撮像部17が注目被写体を撮像したと仮定した場合に得られる仮想的な画像のデータを、推定演算する。そして、CPU11は、当該仮想的な画像を仮想スルー画像として表示部20に表示させる。なお、以下、このような一連の処理、即ち、仮想表示モードにおけるスルー表示処理を、「仮想スルー表示処理」と呼ぶ。
In the present embodiment, the imaging apparatus 1 has a normal display mode and a virtual display mode as operation modes during the through display process (hereinafter referred to as “through display mode”), and these two types of operation modes. Can be switched freely.
The “normal display mode” refers to a mode in which the display unit 20 displays the captured image itself captured at the present time as a through image as usual. Hereinafter, the through display process in the normal display mode is referred to as “normal through display process”.
The “virtual display mode” refers to a mode in which a through image of a virtual image (hereinafter referred to as “virtual through image”) obtained as a result of the following series of processes is displayed on the display unit 20.
That is, the CPU 11 recognizes a subject to be noted as a processing target (hereinafter referred to as “target subject”) among subjects included in the captured image based on data of the captured image captured at the present time. A three-dimensional model of the subject of interest is created or acquired. Based on the three-dimensional model, the CPU 11 estimates and calculates virtual image data obtained when it is assumed that the imaging unit 17 has captured the subject of interest with a posture or position different from the current state. Then, the CPU 11 causes the display unit 20 to display the virtual image as a virtual through image. Hereinafter, such a series of processes, that is, the through display process in the virtual display mode is referred to as “virtual through display process”.

図2は、撮像装置1の機能的構成のうち、このような仮想スルー表示処理を含む撮像記録処理の実行機能を実現する機能的構成を示す機能ブロック図である。   FIG. 2 is a functional block diagram illustrating a functional configuration that realizes an execution function of an imaging recording process including such a virtual through display process, among the functional configurations of the imaging apparatus 1.

撮像記録処理が実行される場合、CPU11においては、スルー表示モード選択部51と、切替部52と、表示制御部53と、記録制御部54と、が機能する。
なお、スルー表示モード選択部51乃至記録制御部54の各々の機能の説明については、後述する図3の撮像記録処理のうち、関連するステップの処理の説明の際に併せて行うものとする。
本実施形態では、スルー表示モード選択部51乃至記録制御部54の各々は、図1に示す構成のうち、CPU11というハードウェアと、ROM12等に記憶されたプログラム(ソフトウェア)との組み合わせとして構成されている。
しかしながら、これは例示にすぎず、スルー表示モード選択部51乃至記録制御部54の各機能のうち少なくとも一部を、CPU11以外の他の構成要素(画像処理部14等)に移譲させることも当然可能である。
When the imaging recording process is executed, the through display mode selection unit 51, the switching unit 52, the display control unit 53, and the recording control unit 54 function in the CPU 11.
Note that the functions of the through display mode selection unit 51 to the recording control unit 54 will be described together with the description of the processing of related steps in the imaging recording process of FIG. 3 to be described later.
In the present embodiment, each of the through display mode selection unit 51 to the recording control unit 54 is configured as a combination of hardware called the CPU 11 and a program (software) stored in the ROM 12 or the like in the configuration shown in FIG. ing.
However, this is merely an example, and at least a part of the functions of the through display mode selection unit 51 to the recording control unit 54 may be transferred to other components (image processing unit 14 or the like) other than the CPU 11. Is possible.

撮像記録処理が実行される場合、画像処理部14においては、注目被写体決定部61と、3次元モデル生成取得部62と、仮想スルー画像生成部63と、が機能する。
なお、注目被写体決定部61乃至仮想スルー画像生成部63の各々の機能の説明については、後述する図3の撮像記録処理のうち、関連するステップの処理の説明の際に併せて行うものとする。
本実施形態では、注目被写体決定部61乃至仮想スルー画像生成部63の各々は、図1に示す構成のうち、画像処理部14単体、又は、当該画像処理部14というハードウェアと、ROM12等に記憶されたプログラム(ソフトウェア)との組み合わせとして構成されている。
しかしながら、これは例示にすぎず、注目被写体決定部61乃至仮想スルー画像生成部63の各機能のうち少なくとも一部を、画像処理部14以外の他の構成要素(CPU11等)に移譲させることも当然可能である。
When the imaging and recording process is executed, in the image processing unit 14, the target subject determination unit 61, the 3D model generation / acquisition unit 62, and the virtual through image generation unit 63 function.
Note that the functions of the target subject determination unit 61 to the virtual through image generation unit 63 will be described together with the description of the processing of related steps in the imaging recording processing of FIG. 3 to be described later. .
In the present embodiment, each of the subject-of-interest determination unit 61 to the virtual through image generation unit 63 is included in the image processing unit 14 alone or the hardware such as the image processing unit 14 and the ROM 12 in the configuration illustrated in FIG. It is configured as a combination with a stored program (software).
However, this is merely an example, and at least a part of the functions of the subject-of-interest determination unit 61 to the virtual through image generation unit 63 may be transferred to other components (CPU 11 or the like) other than the image processing unit 14. Of course it is possible.

また、本実施形態では、記憶部21の一領域として、撮像画像記憶部71と、3次元モデル記憶部72、とが設けられている。
撮像画像記憶部71及び3次元モデル記憶部72の各々の記憶内容の具体例については、後述する図3の撮像記録処理のうち、関連するステップの処理の説明の際に併せて示すものとする。
なお、撮像画像記憶部71及び3次元モデル記憶部72が記憶部21の一領域として設けられているが、これも例示にすぎず、撮像画像記憶部71及び3次元モデル記憶部72は、記憶部21以外の記憶領域、例えばリムーバブルメディア31の一領域として設けるようにしてもよい。また、撮像画像記憶部71及び3次元モデル記憶部72は、撮像装置1に設けられている必要は特になく、例えば通信部22を介して接続される他の装置内に設けられていてもよい。
In the present embodiment, a captured image storage unit 71 and a three-dimensional model storage unit 72 are provided as one area of the storage unit 21.
Specific examples of the stored contents of the captured image storage unit 71 and the three-dimensional model storage unit 72 will be shown together with the description of the processing of related steps in the imaging recording process of FIG. 3 to be described later. .
Note that the captured image storage unit 71 and the three-dimensional model storage unit 72 are provided as one area of the storage unit 21, but this is only an example, and the captured image storage unit 71 and the three-dimensional model storage unit 72 are stored in the storage unit 21. A storage area other than the unit 21, for example, an area of the removable medium 31 may be provided. Further, the captured image storage unit 71 and the three-dimensional model storage unit 72 are not particularly required to be provided in the imaging device 1, and may be provided in another device connected via the communication unit 22, for example. .

次に、図3を参照して、このような図2の機能的構成を有する撮像装置1が実行する撮像記録処理について説明する。
図3は、図2の機能的構成を有する撮像装置1が実行する撮像記録処理の流れの一例を説明するフローチャートである。
Next, with reference to FIG. 3, an imaging recording process executed by the imaging apparatus 1 having the functional configuration of FIG. 2 will be described.
FIG. 3 is a flowchart for explaining an example of the flow of imaging recording processing executed by the imaging apparatus 1 having the functional configuration of FIG.

撮像記録処理は、例えば、ユーザの操作部18に対する所定操作により、撮像装置1の動作モードが撮像モード等の特定モードに切り替えられると、それを契機として開始される。
なお、撮像記録処理が開始されてから終了するまでの間、撮像部17は撮像動作を継続し、その間、当該撮像部17から順次出力される撮像画像のデータは、撮像画像記憶部71に記憶されるものとする。
For example, when the operation mode of the imaging apparatus 1 is switched to a specific mode such as an imaging mode by a predetermined operation on the operation unit 18 by the user, the imaging recording process is started as a trigger.
The imaging unit 17 continues the imaging operation from the start to the end of the imaging recording process, and the captured image data sequentially output from the imaging unit 17 is stored in the captured image storage unit 71 during that time. Shall be.

ステップS1において、スルー表示モード選択部51は、スルー表示モードとして、仮想スルー表示モードが選択されたか否かを判定する。
即ち、ユーザは、操作部18に対する所定の操作をすることで、スルー表示モードとして、通常スルー表示モードと仮想スルー表示モードとのうちの所望のモードを選択することができる。
In step S1, the through display mode selection unit 51 determines whether or not the virtual through display mode is selected as the through display mode.
That is, the user can select a desired mode of the normal through display mode and the virtual through display mode as the through display mode by performing a predetermined operation on the operation unit 18.

このようなユーザの操作により通常スルー表示モードが選択された場合、ステップS1においてNOであると判定される。この場合、スルー表示モード選択部51は、切替部52の出力端を表示制御部53側に切り替える。すると、撮像部17から出力されて撮像画像記憶部71に一旦記憶されていた撮像画像のデータは、切替部52を介して、表示制御部53に供給される。
ステップS2において、CPU11の表示制御部53は、通常スルー表示処理を実行して、このような撮像画像をそのままスルー画像として表示部20に表示させる。
When the normal through display mode is selected by such user operation, it is determined as NO in step S1. In this case, the through display mode selection unit 51 switches the output end of the switching unit 52 to the display control unit 53 side. Then, the captured image data output from the imaging unit 17 and temporarily stored in the captured image storage unit 71 is supplied to the display control unit 53 via the switching unit 52.
In step S <b> 2, the display control unit 53 of the CPU 11 executes normal through display processing, and displays such a captured image on the display unit 20 as a through image as it is.

これに対して、ユーザの操作により仮想スルー表示モードが選択された場合、ステップS1においてYESであると判定される。この場合、スルー表示モード選択部51は、切替部52の出力端を画像処理部14の注目被写体決定部61側に切り替える。すると、撮像部17から出力されて撮像画像記憶部71に一旦記憶されていた撮像画像のデータは、切替部52を介して、画像処理部14の注目被写体決定部61に供給される。
ステップS3において、画像処理部14及びCPU11は、仮想スルー表示処理を実行して、仮想スルー画像を表示部20に表示させる。
On the other hand, when the virtual through display mode is selected by the user's operation, it is determined as YES in Step S1. In this case, the through display mode selection unit 51 switches the output end of the switching unit 52 to the target subject determination unit 61 side of the image processing unit 14. Then, the captured image data output from the imaging unit 17 and temporarily stored in the captured image storage unit 71 is supplied to the target subject determination unit 61 of the image processing unit 14 via the switching unit 52.
In step S <b> 3, the image processing unit 14 and the CPU 11 execute a virtual through display process to display a virtual through image on the display unit 20.

このようにして、ステップS2の通常スルー表示処理で通常のスルー画像が表示されるか、或いは、ステップS3の仮想スルー表示処理で仮想スルー画像が表示されると、処理はステップS4に進む。
ステップS4において、記録制御部54は、操作部18のシャッタ釦が押下操作されたか否かを判定する。
ユーザによりシャッタ釦が押下操作されていない場合、ステップS4においてNOであると判定されて、処理はステップS1に戻され、それ以降の処理が繰り返される。即ち、シャッタ釦が押下操作されるまでの間、ステップS1乃至S4のループ処理が繰り返し実行され、通常のスルー画像又は仮想スルー画像が表示部20に表示される。
In this way, when a normal through image is displayed in the normal through display process in step S2, or when a virtual through image is displayed in the virtual through display process in step S3, the process proceeds to step S4.
In step S4, the recording control unit 54 determines whether or not the shutter button of the operation unit 18 has been pressed.
If the shutter button is not pressed by the user, it is determined as NO in step S4, the process returns to step S1, and the subsequent processes are repeated. That is, until the shutter button is pressed, the loop processing of steps S1 to S4 is repeatedly executed, and a normal through image or virtual through image is displayed on the display unit 20.

例えば、仮想スルー表示モードが維持されている場合には、ステップS1:YES、ステップS3、及びステップS4:NOのループ処理が繰り返し実行され、仮想スルー画像があたかもリアルタイム表示のように表示される。即ち、撮像部17は、連続的に繰り返して撮像し、その都度得られる撮像画像のデータを逐次出力する。この場合、注目被写体決定部61、3次元モデル生成取得部62、位置情報取得部55、仮想スルー画像生成部63、及び表示制御部53は、撮像部17から撮像画像のデータが逐次出力される毎に、後述する各機能に基づく処理をそれぞれ実行する。これにより、撮像部17から逐次データとして出力される撮像画像の各々に対応する仮想スルー画像の各々が、表示部20に連続的に繰り返して表示される。
よって、ユーザは、身体をほぼ固定した状態で、仮想スルー画像を適宜見ながら撮像装置1の位置及び姿勢を移動させ、所望の構図の画像が仮想スルー画像として表示されたか否かを確認することができる。
ここで、上述したように、表示制御部53の制御によりスルー画像を表示させるモードとして、撮像部17からデータとして逐次出力される撮像画像を通常のスルー画像として表示させる通常スルー表示モードと、撮像部17から逐次データとして出力される撮像画像の各々に対応する仮想スルー画像の各々を表示させる仮想スルー表示モードとが存在する。スルー表示モード選択部51は、これらの通常スルー表示モードと仮想スルー表示モードとのうち一方を選択することができる。
そこで、仮想スルー画像として所望の構図の画像が得られた場合には、今度は、ユーザは、操作部18を操作して、スルー表示モードとして通常表示スルーモードを指示することができる。これにより、スルー表示モード選択部51は、通常スルー表示モードを選択する。すると、ステップS1:NO、ステップS2、及びステップS4:NOのループ処理が繰り返し実行され、今度は、通常スルー画像がリアルタイム表示される。
これにより、ユーザは、所望の構図の通常のスルー画像が表示されるまで、撮像装置1の位置及び姿勢を移動させると共に、必要に応じて、その身体も移動させる。
このようにして、ユーザは、通常のスルー画像又は仮想スルー画像を適宜見ながら撮像装置1の位置及び姿勢を移動させ、或いはその身体を適宜移動させて、所望の構図の通常のスルー画像が表示されたことを確認すると、その段階で、操作部18のシャッタ釦を押下操作する。
すると、ステップS4においてYESであると判定されて、処理はステップS5の処理に進む。ステップS5において、記録制御部54は、その時点で撮像画像記憶部71に記憶されている撮像画像のデータを取得して、リムーバブルメディア31に記録させる。
これにより、撮像記録処理が終了となる。
For example, when the virtual through display mode is maintained, the loop process of step S1: YES, step S3, and step S4: NO is repeatedly executed, and the virtual through image is displayed as if it were a real-time display. That is, the imaging unit 17 continuously and repeatedly captures images, and sequentially outputs captured image data obtained each time. In this case, the subject-of-interest determination unit 61, the three-dimensional model generation / acquisition unit 62, the position information acquisition unit 55, the virtual through image generation unit 63, and the display control unit 53 sequentially output captured image data from the imaging unit 17. Each time, processing based on each function described later is executed. Thereby, each of the virtual through images corresponding to each of the captured images output as sequential data from the imaging unit 17 is continuously and repeatedly displayed on the display unit 20.
Therefore, the user moves the position and posture of the imaging device 1 while appropriately viewing the virtual through image with the body substantially fixed, and confirms whether the image of the desired composition is displayed as the virtual through image. Can do.
Here, as described above, as a mode for displaying a through image under the control of the display control unit 53, a normal through display mode for displaying a captured image sequentially output as data from the imaging unit 17 as a normal through image, and imaging There is a virtual through display mode in which each virtual through image corresponding to each captured image output as sequential data from the unit 17 is displayed. The through display mode selection unit 51 can select one of the normal through display mode and the virtual through display mode.
Therefore, when an image having a desired composition is obtained as a virtual through image, the user can instruct the normal display through mode as the through display mode by operating the operation unit 18 this time. Thereby, the through display mode selection unit 51 selects the normal through display mode. Then, the loop process of Step S1: NO, Step S2, and Step S4: NO is repeatedly executed, and this time, the normal through image is displayed in real time.
As a result, the user moves the position and posture of the imaging apparatus 1 until a normal through image with a desired composition is displayed, and moves the body as necessary.
In this way, the user moves the position and posture of the imaging apparatus 1 while appropriately viewing the normal through image or virtual through image, or moves the body as appropriate, so that the normal through image of the desired composition is displayed. If it is confirmed that the shutter button is pressed, the shutter button of the operation unit 18 is pressed at that stage.
Then, it determines with it being YES in step S4, and a process progresses to the process of step S5. In step S <b> 5, the recording control unit 54 acquires the captured image data stored in the captured image storage unit 71 at that time, and records it in the removable medium 31.
Thereby, the imaging recording process ends.

さらに以下、このような撮像記録処理のうち、ステップS3の仮想スルー表示処理について説明する。   Further, the virtual through display process in step S3 will be described below among such imaging and recording processes.

図4は、仮想スルー表示処理の結果について、通常スルー表示処理の結果と比較しながら説明する図である。
図4(A)は、図3の撮像記録処理の開始直後の初期状態において、撮像装置1が、人物Maの前面と対向する姿勢で、当該人物Maを撮像した様子を示している。
なお、初期状態では、撮像装置1の基準姿勢を確定する必要があるため、通常スルー表示処理が実行された場合のみならず、仮想スルー表示処理が実行された場合でも、図4(A)に示すように、撮像装置1が人物Maを撮像した結果得られる撮像画像がそのまま、スルー画像SP1として表示されるものとする。
図4(B)は、撮像装置1が、初期状態の基準姿勢に対して、図示せぬユーザ(撮像装置1の操作者)からみて左方向に回転移動して、人物Maの斜め側面と対向する姿勢で、通常スルー表示処理(図3のステップS2)を実行して、当該人物Maを撮像した様子を示している。
この場合、図4(B)に示すように、撮像装置1が人物Maを撮像した結果得られる撮像画像がそのまま、スルー画像SP2として表示部20に表示される。
図4(C)は、撮像装置1が、初期状態の基準姿勢に対して、図示せぬユーザ(撮像装置1の操作者)からみて左方向に回転移動した姿勢、即ち図4(B)と同一の姿勢で、仮想スルー表示処理(図3のステップS3)を実行して、当該人物Maを撮像した様子を示している。
この場合、本来、撮像装置1の画角の範囲内の人物Maの斜め側面が写るところ(図4(B)のスルー画像SP2参照)、撮像装置1の画角の範囲外の人物Maの背面(後頭部)があたかも写っている仮想スルー画像VSP2が、表示部20に表示される。
FIG. 4 is a diagram for explaining the result of the virtual through display process while comparing it with the result of the normal through display process.
FIG. 4A shows a state in which the imaging device 1 has captured the person Ma in an initial state immediately after the start of the imaging recording process of FIG. 3 in a posture facing the front surface of the person Ma.
In the initial state, since it is necessary to determine the reference posture of the imaging apparatus 1, not only when the normal through display process is executed, but also when the virtual through display process is executed, FIG. As illustrated, a captured image obtained as a result of the imaging device 1 imaging a person Ma is displayed as it is as a through image SP1.
FIG. 4B shows that the imaging apparatus 1 rotates to the left as viewed from a user (an operator of the imaging apparatus 1) (not shown) with respect to the reference posture in the initial state, and faces the oblique side surface of the person Ma. The normal through display process (step S2 in FIG. 3) is executed in such a posture as to capture the person Ma.
In this case, as shown in FIG. 4B, the captured image obtained as a result of the imaging device 1 imaging the person Ma is displayed as it is on the display unit 20 as the through image SP2.
FIG. 4C shows a posture in which the imaging device 1 is rotated to the left as viewed from a user (an operator of the imaging device 1) (not shown) with respect to the reference posture in the initial state, that is, FIG. The virtual through display process (step S3 in FIG. 3) is executed with the same posture and the person Ma is imaged.
In this case, the oblique side surface of the person Ma within the range of the field of view of the imaging device 1 is originally shown (see the through image SP2 in FIG. 4B), and the back surface of the person Ma outside the range of the field of view of the imaging device 1 A virtual through image VSP <b> 2 in which (the back of the head) is reflected is displayed on the display unit 20.

このように、ユーザ(撮像装置1の操作者)は、操作部18を操作して仮想スルー表示モードを選択した後、自身が実際に長い距離を移動して回り込む等することなく、撮像装置1の位置や姿勢を少し移動させるだけで、撮像装置1により仮想スルー表示処理(図3のステップS3)が実行される。その結果、ユーザは、自身が移動して回り込んで撮像した場合に得られる撮像画像と等価な仮想スルー画像を容易に視認することができる。
また、被写体の存在位置によっては回り込むことが不可能な場所も存在する。このような場合であっても、ユーザは、そのような場所で撮像した場合に得られる撮像画像と等価な仮想スルー画像を容易に視認することができる。
これにより、ユーザにとっては、被写体の撮像アングルを決める作業が著しく楽になり、被写体を撮影するまでに要する時間が短縮される。また、モデル(被写体)にとっても、長時間同一のポーズを強いられたり、立ち位置を変えて同一ポーズを取ったりする苦痛から開放される。
以上まとめると、ユーザは、その手で撮像装置1を保持して、傾けたり回したりして、当該撮像装置1の位置及び姿勢を少しだけ変化させるだけの直感的操作をするだけで、被写体を様々な視点から眺望することが容易にできる。その結果、ユーザは、被写体の周囲を回ったり、或いは被写体の方を動かしたりする必要はなくなる。このため、ユーザは、被写体の外観や形状を、わかりやすく把握したり、詳しく調べたりすることが容易に可能になる。即ち、ユーザは、その場から大きく動くことなく、撮像方向、撮像角度、構図等の理想的な撮像条件を詳しく吟味や検討して、所望の撮像条件で被写体を撮像することが容易にできる。
即ち、ユーザが身体を固定したまま撮像装置1のみを移動させるだけで、所望の構図の画像を仮想スルー画像により視認することが可能になる。
As described above, the user (operator of the imaging apparatus 1) operates the operation unit 18 and selects the virtual through display mode, and then the imaging apparatus 1 does not actually move around and move around a long distance. The virtual through display process (step S3 in FIG. 3) is executed by the imaging device 1 by slightly moving the position and orientation of the image. As a result, the user can easily visually recognize a virtual through image equivalent to a captured image obtained when the user moves around and captures an image.
There are also places where it is impossible to go around depending on the position of the subject. Even in such a case, the user can easily visually recognize a virtual through image equivalent to a captured image obtained when capturing an image in such a place.
As a result, for the user, the task of determining the imaging angle of the subject is remarkably facilitated, and the time required for photographing the subject is shortened. Also, the model (subject) is freed from the pain of being forced to take the same pose for a long time or changing the standing position to take the same pose.
In summary, the user holds the imaging device 1 with his / her hand, tilts and turns it, and performs an intuitive operation that slightly changes the position and orientation of the imaging device 1. It can be easily viewed from various viewpoints. As a result, the user does not need to go around the subject or move the subject. For this reason, the user can easily understand the appearance and shape of the subject in an easy-to-understand manner or can examine the details in detail. That is, the user can easily examine and examine ideal imaging conditions such as the imaging direction, imaging angle, composition, and the like without moving greatly from the spot, and can easily image the subject under the desired imaging conditions.
That is, it is possible to visually recognize an image with a desired composition as a virtual through image only by moving only the imaging device 1 while the user is fixed.

さらに以下、このような仮想スルー表示処理の詳細について説明する。
図5は、図3の撮像記録処理のうち、ステップS3の仮想スルー表示処理の流れの詳細の一例を説明するフローチャートである。
Further details of such virtual through display processing will be described below.
FIG. 5 is a flowchart illustrating an example of details of the flow of the virtual through display process in step S3 in the imaging recording process of FIG.

ステップS21において、図2の画像処理部14の注目被写体決定部61は、撮像画像のデータに基づいて、当該撮像画像に含まれる被写体の中から、注目被写体を決定する。
なお、注目被写体の決定手法は、特に限定されず、例えば図示はしないがユーザが操作部18を操作して選択した被写体を、注目被写体として決定する手法を採用してもよい。或いはまた、公知の又は今後登場するであろう顔検出処理や注目領域検出処理の結果に基づいて注目被写体を決定する手法を、注目被写体の決定手法として採用することもできる。
ステップS21の処理で決定された注目被写体に関する情報と、当該注目被写体を含む撮像画像のデータとが、注目被写体決定部61から3次元モデル生成取得部62に供給されると、処理はステップS22に進む。
In step S21, the target subject determination unit 61 of the image processing unit 14 in FIG. 2 determines a target subject from the subjects included in the captured image based on the captured image data.
Note that the method of determining the subject of interest is not particularly limited. For example, although not shown, a method of determining a subject selected by the user by operating the operation unit 18 as the subject of interest may be adopted. Alternatively, a method for determining a subject of interest based on a result of a face detection process or a region-of-interest detection process that is publicly known or will appear in the future can be adopted as a method of determining a subject of interest.
When the information related to the subject of interest determined in the process of step S21 and the data of the captured image including the subject of interest are supplied from the subject of interest determination unit 61 to the 3D model generation / acquisition unit 62, the process proceeds to step S22. move on.

ステップS22において、CPU11の位置情報取得部55は、センサ部19の検出結果に基づいて、撮像装置1の方位角、撮像装置1の傾斜、注目被写体と撮像装置1との間の距離等、撮像装置1の位置及び姿勢を示す情報を、注目被写体に対する相対的な撮像装置1の位置情報として取得する。
撮像装置1の位置情報が、位置情報取得部55から3次元モデル生成取得部62に供給されると、処理はステップS23に進む。
In step S <b> 22, the position information acquisition unit 55 of the CPU 11 captures images such as the azimuth angle of the imaging device 1, the tilt of the imaging device 1, the distance between the subject of interest and the imaging device 1 based on the detection result of the sensor unit 19. Information indicating the position and orientation of the apparatus 1 is acquired as position information of the imaging apparatus 1 relative to the subject of interest.
When the position information of the imaging device 1 is supplied from the position information acquisition unit 55 to the three-dimensional model generation acquisition unit 62, the process proceeds to step S23.

ステップS23において、画像処理部14の3次元モデル生成取得部62は、注目被写体の3次元モデルは生成済みか否かを判定する。
注目被写体と同一又は類似する3次元モデルが3次元モデル記憶部72に既に記憶されている場合、例えば過去に実行されたステップS25の3次元モデル生成処理(処理内容は後述する)の結果として既に記憶されている場合、ステップS23においてYESであると判定されて、処理はステップS24に進む。
ステップS24において、3次元モデル生成取得部62は、注目被写体の3次元モデルを3次元モデル記憶部72から取得する。
これに対して、注目被写体と同一又は類似する3次元モデルが3次元モデル記憶部72に1つも記憶されていない場合、ステップS23においてNOであると判定されて、処理はステップS25に進む。
ステップS25において、3次元モデル生成取得部62は、注目被写体の3次元モデルを生成して、3次元モデル記憶部72に記憶させるまでの一連の処理(以下、このような一連の処理を「3次元モデル生成処理」と呼ぶ)を実行する。なお、3次元モデル生成処理の詳細については、図6のフローチャートを参照して後述する。
このようにして、ステップS24の処理で取得されるか又はステップS25の処理で生成された注目被写体の3次元モデルが、ステップS22の処理で取得された撮像装置1の位置情報、及び撮像画像のデータとともに、3次元モデル生成取得部62から仮想スルー画像生成部63に供給されると、処理はステップS26に進む。
In step S23, the 3D model generation / acquisition unit 62 of the image processing unit 14 determines whether or not a 3D model of the subject of interest has been generated.
When a three-dimensional model that is the same as or similar to the subject of interest is already stored in the three-dimensional model storage unit 72, for example, as a result of the three-dimensional model generation process in step S25 executed in the past (the processing content will be described later). If stored, it is determined as YES in step S23, and the process proceeds to step S24.
In step S <b> 24, the 3D model generation / acquisition unit 62 acquires the 3D model of the subject of interest from the 3D model storage unit 72.
On the other hand, if no three-dimensional model identical or similar to the subject of interest is stored in the three-dimensional model storage unit 72, it is determined as NO in Step S23, and the process proceeds to Step S25.
In step S25, the three-dimensional model generation / acquisition unit 62 generates a three-dimensional model of the subject of interest and stores it in the three-dimensional model storage unit 72 (hereinafter, such a series of processes is referred to as “3 (Referred to as “dimensional model generation process”). The details of the three-dimensional model generation process will be described later with reference to the flowchart of FIG.
In this way, the three-dimensional model of the subject of interest acquired in the process of step S24 or generated in the process of step S25 is the position information of the imaging apparatus 1 and the captured image acquired in the process of step S22. When the data is supplied from the three-dimensional model generation / acquisition unit 62 to the virtual through image generation unit 63 together with the data, the process proceeds to step S26.

ステップS26において、画像処理部14の仮想スルー画像生成部63は、撮像装置1の位置情報と、注目被写体の3次元モデルと、撮像画像のデータとに基づいて、仮想スルー画像のデータを生成する。
ステップS27において、CPU11の表示制御部53は、ステップS26の処理で仮想スルー画像生成部63によりデータとして生成された仮想スルー画像を、表示部20に表示させる。
In step S26, the virtual through image generation unit 63 of the image processing unit 14 generates virtual through image data based on the position information of the imaging device 1, the three-dimensional model of the subject of interest, and the captured image data. .
In step S27, the display control unit 53 of the CPU 11 causes the display unit 20 to display the virtual through image generated as data by the virtual through image generation unit 63 in the process of step S26.

例えば、仮想スルー画像生成部63は、ステップS26の処理として、撮像装置1の位置情報に対応付けられた視点から、注目被写体の3次元モデルを眺望した様子を示す2次元像(当該視点からみた場合の注目被写体の像)を、撮像画像の背景等の像に合成した合成画像のデータを、仮想スルー画像のデータとして生成する。
ここで、撮像装置1の位置情報に対応付けられた視点とは、撮像装置1の撮像方向(撮像部17の光軸方向)とは異なる方向からの視点である。具体的には、図4の例でいえば、撮像装置1の撮像方向(撮像部17の光軸方向)の視点で人物Maを眺望した様子(人物Maの斜め側面をみた様子)が、図4(B)に示す通常のスルー画像SP2である。これに対して、撮像装置1の撮像方向(撮像部17の光軸方向)とは異なる方向からの視点で人物Maの3次元モデルを眺望した様子(人物Maの3次元モデルの背面、即ち後頭部をみた様子)が、図4(C)に示す仮想スルー画像VSP2である。即ち、ステップS27の処理で、図4に示す仮想スルー画像VSP2等が表示部20に表示される。
より具体的には、図4(A)に示す撮像装置1の基準姿勢の水平方向の角度を0度とするならば、撮像装置1の水平方向の実際の回転角度θの位置を視点として採用すると、単に、図4(B)に示す通常のスルー画像SP2と等価な画像しか表示されない。そこで、図4の例では、実際の回転角度θに所定の係数A(>1)を掛けて得られる回転角度α(=A×θ)、即ち、実際の回転角度θよりも大きな回転角度αの仮想位置が視点として採用されており、当該視点で人物Maの3次元モデルを眺望した様子が、図4(C)に示す仮想スルー画像VSP2として、ステップS27の処理で表示部20に表示されるのである。
このようにして、仮想スルー画像VSP2等が表示部20に表示されると、仮想スルー表示処理が終了する。即ち、図3のステップS3の処理が終了し、処理はステップS4に進む。
For example, the virtual through image generation unit 63 performs the processing in step S26 from a viewpoint associated with the position information of the imaging device 1 from a viewpoint corresponding to a two-dimensional image (viewed from the viewpoint). In this case, synthesized image data obtained by synthesizing the image of the subject of interest in this case with an image such as a background of the captured image is generated as virtual through image data.
Here, the viewpoint associated with the position information of the imaging apparatus 1 is a viewpoint from a direction different from the imaging direction of the imaging apparatus 1 (the optical axis direction of the imaging unit 17). Specifically, in the example of FIG. 4, a state in which the person Ma is viewed from the viewpoint of the image capturing direction of the image capturing apparatus 1 (the optical axis direction of the image capturing unit 17) (a state in which the oblique side of the person Ma is viewed) is illustrated in FIG. 4B is a normal through image SP2. On the other hand, a state in which the three-dimensional model of the person Ma is viewed from a viewpoint from a direction different from the imaging direction of the imaging device 1 (the optical axis direction of the imaging unit 17) (the back of the three-dimensional model of the person Ma, that is, the back of the head) Is a virtual through image VSP2 shown in FIG. That is, in the process of step S27, the virtual through image VSP2 shown in FIG.
More specifically, if the horizontal angle of the reference posture of the image pickup apparatus 1 shown in FIG. 4A is set to 0 degree, the position of the actual rotation angle θ in the horizontal direction of the image pickup apparatus 1 is adopted as a viewpoint. Then, only an image equivalent to the normal through image SP2 shown in FIG. 4B is displayed. Therefore, in the example of FIG. 4, a rotation angle α (= A × θ) obtained by multiplying the actual rotation angle θ by a predetermined coefficient A (> 1), that is, a rotation angle α larger than the actual rotation angle θ. Is used as the viewpoint, and the state of viewing the three-dimensional model of the person Ma from the viewpoint is displayed on the display unit 20 as the virtual through image VSP2 shown in FIG. It is.
In this way, when the virtual through image VSP2 or the like is displayed on the display unit 20, the virtual through display process ends. That is, the process of step S3 in FIG. 3 ends, and the process proceeds to step S4.

次に、このような図5の仮想スルー表示処理のうち、ステップS25の3次元モデル生成処理の詳細について説明する。
図6は、図5の仮想スルー表示処理のうち、ステップS25の3次元モデル生成処理の流れの詳細の一例を説明するフローチャートである。
Next, details of the three-dimensional model generation process of step S25 in the virtual through display process of FIG. 5 will be described.
FIG. 6 is a flowchart for explaining an example of the details of the flow of the three-dimensional model generation process of step S25 in the virtual through display process of FIG.

ステップS41において、3次元モデル生成取得部62は、異なる視点から注目被写体を撮像した結果得られる複数の撮像画像のデータを、撮像画像記憶部71から切替部52を介して取得する。
なお、このステップS41の処理時点に、複数の撮像画像のデータが存在すれば足り、当該複数の撮像画像の撮像タイミングは、特に限定されない。また、注目被写体そのもの(原物)を撮像したものである必要はなく、類似のものを過去に撮像した結果得られる撮像画像のデータが取得されてもよい。さらに、このような複数の撮像画像のデータの取得先は、撮像画像記憶部71である必要は特になく、その他、リムーバブルメディア31や、通信部22により通信が可能な他の装置であってもよい。
In step S <b> 41, the three-dimensional model generation / acquisition unit 62 acquires data of a plurality of captured images obtained as a result of imaging the subject of interest from different viewpoints from the captured image storage unit 71 via the switching unit 52.
Note that it is sufficient that data of a plurality of captured images exist at the time of processing in step S41, and the imaging timing of the plurality of captured images is not particularly limited. Further, it is not necessary to capture the subject of interest itself (original), and captured image data obtained as a result of capturing a similar object in the past may be acquired. Further, the acquisition destination of the data of the plurality of captured images is not particularly required to be the captured image storage unit 71, and may be other devices that can communicate with the removable medium 31 or the communication unit 22. Good.

ステップS42において、3次元モデル生成取得部62は、ステップS21の処理で取得された複数の画像データに対して、前処理(例えば、鮮鋭化、ノイズ除去、傾斜補正等の各種画像処理)を施す。   In step S42, the three-dimensional model generation / acquisition unit 62 performs preprocessing (for example, various image processing such as sharpening, noise removal, and inclination correction) on the plurality of image data acquired in step S21. .

ステップS43において、3次元モデル生成取得部62は、ステップS21の処理で取得された複数の撮像画像のデータに関し、それらが撮像された時点の撮像装置の位置情報が取得されたか否かを判定する。
ここで、複数の撮像画像が撮像部17により撮像されたものである場合、センサ部19の検出結果に基づいて位置情報取得部55によって取得される「撮像装置1の位置情報」が、ステップS43における「撮像装置の位置情報」に該当する。一方、複数の撮像画像が他の撮像装置によって撮像されたものである場合、当該他の撮像装置によって取得された、「撮像装置1の位置情報」と等価な情報が、「撮像装置の位置情報」に該当する。
これらの「撮像装置の位置情報」が取得できなかった場合、ステップS43においてNOであると判定されて、処理はステップS47に進む。ただし、ステップS47以降の処理については後述する。
これに対して、これらの「撮像装置の位置情報」が取得できた場合、ステップS43においてYESであると判定されて、処理はステップS44に進む。
In step S43, the three-dimensional model generation / acquisition unit 62 determines whether or not the position information of the imaging device at the time when the captured image data is captured is acquired regarding the data of the plurality of captured images acquired in the process of step S21. .
Here, when a plurality of captured images are captured by the image capturing unit 17, the “position information of the image capturing apparatus 1” acquired by the position information acquiring unit 55 based on the detection result of the sensor unit 19 is step S43. Corresponds to “position information of imaging device”. On the other hand, when a plurality of captured images are captured by another imaging device, information equivalent to “position information of imaging device 1” acquired by the other imaging device is “position information of imaging device”. It corresponds to.
When these “position information of the imaging device” cannot be acquired, it is determined as NO in Step S43, and the process proceeds to Step S47. However, the processing after step S47 will be described later.
On the other hand, when these “position information of the imaging device” can be acquired, it is determined as YES in Step S43, and the process proceeds to Step S44.

ステップS44において、3次元モデル生成取得部62は、ステップS41の処理で取得された複数の撮像画像のデータの各々から、注目被写体の輪郭(エッジ)を抽出し、当該輪郭を特定可能な画像のデータ(以下、「輪郭画像データ」と呼ぶ)を生成する。   In step S44, the three-dimensional model generation / acquisition unit 62 extracts the contour (edge) of the subject of interest from each of the plurality of captured image data acquired in the process of step S41, and determines the contour that can identify the contour. Data (hereinafter referred to as “contour image data”) is generated.

ステップS45において、3次元モデル生成取得部62は、ステップS41の処理でデータとして取得された複数の撮像画像の各々についての、「撮像装置の位置情報」と輪郭画像データとに基づいて、注目被写体の3次元モデル(3次元形状データ)を生成する。
ステップS46において、3次元モデル生成取得部62は、このようにして生成した注目被写体の3次元モデルを、3次元モデル記憶部72に記憶させる。
なお、注目被写体の3次元モデルを3次元モデル記憶部72に記憶させる場合のデータ構造は、特に限定されず、例えば、ワイヤーフレーム・モデル、サーフェス・モデル、ソリッド・モデル、CSG(Constructive Solid Geometry)表現、又は境界表現等に基づくデータ構造を採用することができる。
In step S45, the three-dimensional model generation / acquisition unit 62 recognizes the subject of interest based on the “position information of the imaging device” and the contour image data for each of the plurality of captured images acquired as data in the process of step S41. A three-dimensional model (three-dimensional shape data) is generated.
In step S <b> 46, the three-dimensional model generation / acquisition unit 62 stores the three-dimensional model of the subject of interest generated in this manner in the three-dimensional model storage unit 72.
Note that the data structure when the 3D model of the subject of interest is stored in the 3D model storage unit 72 is not particularly limited. For example, a wire frame model, a surface model, a solid model, CSG (Constructive Solid Geometry) is used. A data structure based on an expression, a boundary expression, or the like can be employed.

このようにして、ステップS41の処理で取得された複数の撮像画像のデータの各々に関する「撮像装置の位置情報」が取得できた場合には、ステップS43の処理でYESであると判定された後、ステップS44乃至S46の処理が実行されて、注目被写体の3次元モデルが生成されて、3次元モデル記憶部72に記憶される。これにより、3次元モデル生成処理が終了し、即ち図5のステップS25の処理が終了し、処理はステップS26に進む。   In this way, when “positional information of the imaging device” regarding each of the plurality of captured image data acquired in the process of step S41 can be acquired, it is determined that YES is determined in the process of step S43. Steps S44 to S46 are executed, and a three-dimensional model of the subject of interest is generated and stored in the three-dimensional model storage unit 72. Thereby, the three-dimensional model generation process ends, that is, the process of step S25 of FIG. 5 ends, and the process proceeds to step S26.

これに対して、ステップS41の処理で取得された複数の撮像画像のデータの各々に関する「撮像装置の位置情報」が取得できなかった場合には、ステップS43の処理でNOであると判定されて、処理はステップS47に進む。
ステップS47において、3次元モデル生成取得部62は、因子分解法を適用するか否かを判定する。
On the other hand, if “position information of the imaging device” regarding each of the plurality of captured image data acquired in the process of step S41 cannot be acquired, it is determined as NO in the process of step S43. The process proceeds to step S47.
In step S47, the three-dimensional model generation / acquisition unit 62 determines whether to apply the factorization method.

因子分解法を適用すると判定された場合、ステップS47においてYESであると判定されて、処理はステップS48に進む。
ステップS48において、3次元モデル生成取得部62は、因子分解法で、注目被写体の3次元モデルを生成する。
因子分解法とは、被写体の奥行きがカメラ(ここでは撮像装置1)との距離に比べて十分に小さい場合に、当該被写体の3次元形状(3次元モデル)を求める式が、行列の因子分解で解ける線形の連立方程式になることを利用した手法をいう。因子分解法は、被写体から十分な距離をとって撮像した複数の撮像画像のデータから3次元形状(3次元モデル)を求める場合に適用すると好適である。
具体的には、ステップS48の処理として、次のような処理が実行される。
3次元モデル生成取得部62は、ステップS41の処理で取得された複数の撮像画像(異なる視点からの各注目被写体の撮像画像)のデータから、注目被写体の輪郭外形や顔の特徴部位を表す要素、例えば、線分、曲線、特徴点等の要素を抽出する。
3次元モデル生成取得部62は、ステップS41の処理で取得された複数の撮像画像のデータから、主要点の点特徴を抽出し、各特徴点と対応付ける。
3次元モデル生成取得部62は、このような対応付けに基づいて、主要被写体の3次元形状情報を復元するようにして、主要被写体の3次元モデルを生成する。
なお、因子分解法のさらなる詳細については、非特許文献1を参照するとよい。
If it is determined that the factorization method is to be applied, YES is determined in step S47, and the process proceeds to step S48.
In step S48, the three-dimensional model generation / acquisition part 62 generates a three-dimensional model of the subject of interest by a factorization method.
In the factorization method, when the depth of the subject is sufficiently smaller than the distance to the camera (here, the imaging device 1), the formula for obtaining the three-dimensional shape (three-dimensional model) of the subject is a factorization of the matrix. This is a technique that uses the fact that it becomes a linear simultaneous equation that can be solved by The factorization method is preferably applied when obtaining a three-dimensional shape (three-dimensional model) from data of a plurality of captured images taken at a sufficient distance from the subject.
Specifically, the following process is executed as the process of step S48.
The three-dimensional model generation / acquisition unit 62 represents the contour outline of the subject of interest and the characteristic part of the face from the data of a plurality of captured images (captured images of the subject of interest from different viewpoints) acquired in the process of step S41. For example, elements such as line segments, curves, and feature points are extracted.
The three-dimensional model generation / acquisition unit 62 extracts the point feature of the principal point from the data of the plurality of captured images acquired in the process of step S41 and associates it with each feature point.
The three-dimensional model generation / acquisition unit 62 generates a three-dimensional model of the main subject by restoring the three-dimensional shape information of the main subject based on such association.
Refer to Non-Patent Document 1 for further details of the factorization method.

このような因子分解法を適用しないと判定された場合、ステップS47においてNOであると判定されて、処理はステップS49に進む。
ステップS49において、3次元モデル生成取得部62は、視体積交差法で、注目被写体の3次元モデルを生成する。
具体的には、ステップS49の処理として、次のような処理が実行される。
3次元モデル生成取得部62は、形状を記憶する3次元ボクセル空間を用意し、これを立方格子に分割する。
3次元モデル生成取得部62は、ステップS41の処理で取得された複数の撮像画像(異なる視点からの各注目被写体の撮像画像)のデータから、処理対象となる各多視点画像のシルエット画像のデータを生成する。
3次元モデル生成取得部62は、処理対象となる各多視点画像のシルエット画像のデータを用いて、立方格子に分割した各ボクセルに対して正射影による逆投影を実施する。
3次元モデル生成取得部62は、各ボクセルについて処理対象画像のシルエットが内在するか否かを判定し、内在するボクセルを残し、他のボクセルを削除する。
3次元モデル生成取得部62は、残存したボクセルの集合に基づいて、主要被写体の3次元形状モデルを生成する。
If it is determined that such a factorization method is not applied, it is determined as NO in step S47, and the process proceeds to step S49.
In step S49, the three-dimensional model generation / acquisition unit 62 generates a three-dimensional model of the subject of interest by the visual volume intersection method.
Specifically, the following process is executed as the process of step S49.
The three-dimensional model generation / acquisition unit 62 prepares a three-dimensional voxel space for storing the shape and divides it into a cubic lattice.
The three-dimensional model generation / acquisition unit 62 acquires the silhouette image data of each multi-viewpoint image to be processed from the data of a plurality of captured images (captured images of each subject of interest from different viewpoints) acquired in step S41. Is generated.
The three-dimensional model generation / acquisition unit 62 performs back projection by orthographic projection on each voxel divided into cubic lattices using the silhouette image data of each multi-viewpoint image to be processed.
The three-dimensional model generation / acquisition unit 62 determines whether or not the silhouette of the processing target image is inherent for each voxel, leaves the inherent voxel, and deletes the other voxels.
The three-dimensional model generation acquisition unit 62 generates a three-dimensional shape model of the main subject based on the remaining set of voxels.

このようにして、ステップS48の処理においては因子分解法で、或いはステップS49の処理においては視体交差法で、注目被写体の3次元モデルが生成されると、次のステップS46の処理で、当該注目被写体の3次元モデルが3次元モデル記憶部72に記憶される。これにより、3次元モデル生成処理が終了し、即ち図5のステップS25の処理が終了し、処理はステップS26に進む。   In this way, when the three-dimensional model of the subject of interest is generated by the factorization method in the process of step S48 or the visual object intersection method in the process of step S49, the process in the next step S46 A three-dimensional model of the subject of interest is stored in the three-dimensional model storage unit 72. Thereby, the three-dimensional model generation process ends, that is, the process of step S25 of FIG. 5 ends, and the process proceeds to step S26.

なお、注目被写体の3次元モデルの生成手法は、図6に示される手法に特に限定されず、例えば、撮像装置1として2眼カメラやステレオカメラ等を採用し、これらの2眼カメラやステレオカメラ等の撮像画像のデータを用いる手法を採用してもよい。   Note that the method of generating the three-dimensional model of the subject of interest is not particularly limited to the method illustrated in FIG. 6. For example, a binocular camera, a stereo camera, or the like is employed as the imaging device 1. For example, a method using captured image data may be employed.

以上説明したように、本実施形態の撮像装置1は、撮像部17と、注目被写体決定部61と、3次元モデル記憶部72と、3次元モデル生成取得部62と、仮想スルー画像生成部63と、を備える。
撮像部17は、1以上の被写体を所定の撮像方向から撮像し、その結果得られる撮像画像のデータを出力する。
注目被写体決定部61は、撮像部17から出力された撮像画像のデータに基づいて、1以上の被写体の中から、処理対象として注目すべき注目被写体を決定する。
3次元モデル生成取得部62は、注目被写体決定部61により決定された注目被写体の3次元モデルを生成又は取得する。
位置情報取得部55は、撮像装置1の位置及び姿勢を示す撮像装置1の位置情報、より正確には撮像部17の位置及び姿勢を示す位置情報を取得する。
仮想スルー画像生成部63は、位置情報取得部55により取得された位置情報に応じて特定される視点であって、所定の撮像方向とは異なる方向の視点から、3次元モデル生成取得部62により生成又は取得された注目被写体の3次元モデルを眺望した様子を示す画像のデータを、仮想スルー画像のデータとして生成する。
表示制御部53は、仮想スルー画像生成部63によりデータとして生成された仮想スルー画像の表示を制御する。
これにより、ユーザは、その手で撮像装置1を保持して、傾けたり回したりして、当該撮像装置1の位置及び勢姿勢を少しだけ変化させるだけの直感的操作をするだけで、注目被写体を様々な視点から眺望することが容易にできる。その結果、ユーザは、注目被写体の周囲を回ったり、或いは注目被写体の方を動かしたりする必要はなくなる。このため、ユーザは、注目被写体の外観や形状を、わかりやすく把握したり、詳しく調べたりすることが容易に可能になる。即ち、ユーザは、その場から大きく動くことなく、撮像方向、撮像角度、構図等の理想的な撮像条件を詳しく吟味や検討して、所望の撮像条件で被写体を撮像することが容易にできる。
即ち、ユーザが身体を固定したまま撮像装置1のみを移動させるだけで、所望の構図の画像を仮想スルー画像により視認することが可能になる。
As described above, the imaging apparatus 1 according to the present embodiment includes the imaging unit 17, the target subject determination unit 61, the 3D model storage unit 72, the 3D model generation acquisition unit 62, and the virtual through image generation unit 63. And comprising.
The imaging unit 17 images one or more subjects from a predetermined imaging direction, and outputs captured image data obtained as a result.
The target subject determination unit 61 determines a target subject to be noted as a processing target from one or more subjects based on the captured image data output from the imaging unit 17.
The three-dimensional model generation / acquisition unit 62 generates or acquires a three-dimensional model of the target subject determined by the target subject determination unit 61.
The position information acquisition unit 55 acquires position information of the imaging device 1 that indicates the position and orientation of the imaging device 1, more precisely position information that indicates the position and orientation of the imaging unit 17.
The virtual through image generation unit 63 is a viewpoint identified according to the position information acquired by the position information acquisition unit 55, and is generated by the three-dimensional model generation acquisition unit 62 from a viewpoint different from a predetermined imaging direction. Data of an image showing a view of the generated or acquired three-dimensional model of the subject of interest is generated as virtual through image data.
The display control unit 53 controls the display of the virtual through image generated as data by the virtual through image generation unit 63.
As a result, the user can hold the imaging device 1 with his hand, tilt and rotate, and perform an intuitive operation that slightly changes the position and posture of the imaging device 1. Can be easily viewed from various viewpoints. As a result, the user does not need to go around the subject of interest or move the subject of interest. For this reason, the user can easily understand the appearance and shape of the subject of interest in an easy-to-understand manner or can examine it in detail. That is, the user can easily examine and examine ideal imaging conditions such as the imaging direction, imaging angle, composition, and the like without moving greatly from the spot, and can easily image the subject under the desired imaging conditions.
That is, it is possible to visually recognize an image with a desired composition as a virtual through image only by moving only the imaging device 1 while the user is fixed.

以上、本発明の実施形態について説明した。しかしながら、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   The embodiment of the present invention has been described above. However, the present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within a scope that can achieve the object of the present invention are included in the present invention.

例えば、表示部20として、上述の実施形態では液晶や有機EL(Electro−Luminescence)等フラットな平面形状の表示パネルが採用されている。
この場合には、撮像装置1の姿勢角度や傾斜角の量(大きさ)をそのまま、視線方向(例えば物体像の観察角度の方向)の変化量に用いると、表示面と視線方向との角度が小さくなってしまい、仮想スルー画像に表示される主要被写体の像が見にくくなったり、表示できる角度範囲も限られてしまったりすることになる。例えば、主要被写体の側面は見られても、裏側(背面)までは見ることができなくなる問題がある。
そこで、上述の実施形態では、当該問題を解決する手法として、次のような手法を採用していた。即ち、撮像装置1の回転角θ(姿勢角θ)に比べて、主要被写体の像の視線方向(仮想的な回転角)αを大きくして、例えばα=A×θ(Aは、1より大きい整数値であって、例えば1.5〜3程度)と大きくする手法が、本実施形態では採用されている。これにより、撮像装置1の小さな姿勢変化に応じて、より広い視線方向の範囲での主要被写体の像を含む仮想スルー画像が見られるようになる。
しかしながら、上述の問題を解決する手法は、特に本実施形態の手法(以下、「第1の手法」と呼ぶ)に限定されず、各種各様の手法、例えば、次の第2乃至第7の手法を採用することができる。
For example, as the display unit 20, a flat planar display panel such as a liquid crystal or an organic EL (Electro-Luminescence) is employed in the above-described embodiment.
In this case, if the amount (size) of the attitude angle or tilt angle of the imaging device 1 is used as it is for the amount of change in the viewing direction (for example, the direction of the observation angle of the object image), the angle between the display surface and the viewing direction. Becomes smaller, making it difficult to see the image of the main subject displayed in the virtual through image, and limiting the range of angles that can be displayed. For example, there is a problem that even if the side surface of the main subject is seen, the back side (back side) cannot be seen.
Therefore, in the above-described embodiment, the following technique is adopted as a technique for solving the problem. That is, the line-of-sight direction (virtual rotation angle) α of the image of the main subject is made larger than the rotation angle θ (attitude angle θ) of the imaging device 1, for example, α = A × θ (A is greater than 1). A method of increasing the value to a large integer value, for example, about 1.5 to 3) is employed in the present embodiment. As a result, a virtual through image including an image of the main subject in a wider range of the line-of-sight direction can be seen according to a small change in posture of the imaging device 1.
However, the technique for solving the above-described problem is not particularly limited to the technique of the present embodiment (hereinafter referred to as “first technique”), and various various techniques such as the following second to seventh techniques. Techniques can be employed.

第2の手法とは、表示部20の表示面を、球面状、半球面状、又は凸面状にして、見やすく表示できる角度範囲を広くする、という手法である。   The second method is a method in which the display surface of the display unit 20 is spherical, hemispherical, or convex so as to widen an angle range that can be displayed easily.

第3の手法とは、船の舵や、車両のハンドル操作のように、撮像装置1の姿勢角の変化△θ(回転角の変化△θ)に比較して、主要被写体の像の視線方向の変化△α(仮想的な回転角△α)を大きくする、例えば△α=C×△θ(Cは、1より大きい整数値)と大きくする手法である。
第3の手法を採用することで、ユーザ(撮像装置1の操作者)が、視線方向を変えるときに、撮像装置1の姿勢を傾け、所望の視線方向になったら、当該撮像装置1の姿勢を元に戻すと、その視線方向や角度に保つことができる。その結果、表示部20の表示面と視線方向とのなす角度が小さくなったり、表示できる角度範囲も限られたり、といった事態がほぼ生じなくなる。
The third method is the line-of-sight direction of the image of the main subject as compared to the change in the attitude angle Δθ (change in the rotation angle Δθ) of the imaging device 1, such as a ship rudder or a steering wheel operation of the vehicle. The change Δα (virtual rotation angle Δα) is increased, for example, Δα = C × Δθ (C is an integer value greater than 1).
By adopting the third method, when the user (operator of the imaging apparatus 1) changes the line-of-sight direction, the attitude of the imaging apparatus 1 is tilted. By returning to the original position, it is possible to maintain the viewing direction and angle. As a result, a situation in which the angle between the display surface of the display unit 20 and the line-of-sight direction becomes small or the range of angles that can be displayed is limited hardly occurs.

第4の手法とは、いわゆる「微分ハンドル」、即ち車両のタイヤの実舵角を、ハンドル操舵角θの微分に比例させることが可能なハンドルのように、撮像装置1の姿勢角の時間当りの変化量(角速度)dθ/dtに応じて、主要被写体の像の視線方向の変化△α(仮想的な回転角△α)を変化させる、という手法である。
具体的には、△α=C×dθ/dtを演算する手法が、第4の手法である。
このような第4の手法を適用することで、「微分ハンドル」と同様の効果、即ち、速く回せば大きな実舵角がつき、ゆっくり回せば小さな実舵角がつくという効果を奏することが可能になる。
具体的には、「微分ハンドル」では、一定の実舵角θを維持するには一定の角速度で回し続けなければならないが、所望の方向になったら、回すのを止めれば(角速度が0)実舵角θが0となり、直進方向に戻れるため、ハンドルを元に戻す必要がない。これと同様に、撮像装置1を一定の角速度で回転移動させた後、所望の方向になったら、回すのを止めれば、撮像装置1(ハンドルと等価)の姿勢を元に戻す必要がなくなる。
The fourth method is a so-called “differential handle”, that is, a steering wheel capable of making the actual steering angle of the vehicle tire proportional to the derivative of the steering angle θ of the vehicle. The change Δα (virtual rotation angle Δα) in the line-of-sight direction of the image of the main subject is changed in accordance with the amount of change (angular velocity) dθ / dt.
Specifically, a method of calculating Δα = C × dθ / dt is a fourth method.
By applying such a fourth method, it is possible to achieve the same effect as the “differential handle”, that is, if it is turned fast, a large actual rudder angle is obtained, and if it is slowly turned, a small actual rudder angle is obtained. become.
Specifically, in the “differential handle”, in order to maintain a constant actual steering angle θ, it is necessary to continue to rotate at a constant angular velocity, but when the desired direction is reached, the rotation is stopped (the angular velocity is 0). Since the actual rudder angle θ becomes 0 and the vehicle can return to the straight traveling direction, there is no need to return the steering wheel. Similarly, after the imaging apparatus 1 is rotated at a constant angular velocity and then turned in a desired direction, it is not necessary to return the orientation of the imaging apparatus 1 (equivalent to a handle) to its original position if the rotation is stopped.

第5の手法とは、第3の手法と第4の手法とを組み合わせたもの、即ち、通常ハンドル(第3手法)と「微分ハンドル」(第4手法)とを組み合わせた制御を行う、という手法である。
具体的には、α=C1×θ+C2×dθ/dtを演算する手法が、第5の手法である。
The fifth method is a combination of the third method and the fourth method, that is, control is performed by combining a normal handle (third method) and a “differential handle” (fourth method). It is a technique.
Specifically, a method of calculating α = C1 × θ + C2 × dθ / dt is the fifth method.

第6の手法とは、ユーザが、表示部20の表示面のタッチパネル等に指で触りながら、撮像装置1を傾ける方向や大きさを変化させることで、その視線方向を変化させるが、その指をタッチパネルから離すと、その時点の視線方向を維持させる、という手法である。
これにより、撮像装置1の姿勢を元に戻す操作が省ける。
The sixth method is to change the line-of-sight direction by changing the direction and size of the imaging device 1 while the user touches the touch panel or the like on the display surface of the display unit 20 with the finger. This is a method of maintaining the line-of-sight direction at the time when the button is moved away from the touch panel.
Thereby, the operation of returning the posture of the imaging device 1 to the original state can be omitted.

第7の手法とは、撮像装置1の本体の位置や姿勢に関わりなく、表示部20のタッチパネル上での指でなでる(スイープ)操作や、ダイアルの回転操作等に応じて、表示されている主要被写体を所望方向に回転させた仮想スルー画像を表示させたり、幾つかの視点方向から眺めた仮想スルー画像を順次切り替えて表示させたりする、という手法である。   The seventh technique is displayed according to a stroke operation (sweep) with a finger on the touch panel of the display unit 20 or a dial rotation operation, regardless of the position and orientation of the main body of the imaging apparatus 1. This is a technique of displaying a virtual through image obtained by rotating a main subject in a desired direction or sequentially switching and displaying virtual through images viewed from several viewpoint directions.

なお、上述の問題を解決する必要が特にない場合、上述の第1の手法乃至第7の手法を採用しなくても、特に構わない。   Note that when there is no particular need to solve the above-described problem, the above-described first to seventh methods may not be employed.

また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、撮像機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the imaging apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having an imaging function. Specifically, for example, the present invention can be applied to a notebook personal computer, a video camera, a portable navigation device, a mobile phone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the imaging apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部21に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. The recording medium etc. provided in The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preinstalled in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which the program is recorded, the hard disk included in the storage unit 21 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
1以上の被写体を所定の撮像方向から撮像し、その結果得られる撮像画像のデータを出力する撮像手段と、
前記撮像手段から出力された前記撮像画像のデータに基づいて、前記1以上の被写体の中から、処理対象として注目すべき注目被写体を決定する注目被写体決定手段と、
前記注目被写体決定手段により決定された前記注目被写体の3次元モデルを生成又は取得する3次元モデル生成取得手段と、
前記撮像手段の位置及び姿勢を示す位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された前記位置情報に応じて特定される視点であって、前記所定の撮像方向とは異なる方向の視点から、前記3次元モデル生成取得手段により生成又は取得された前記注目被写体の3次元モデルを眺望した様子を示す画像のデータを、仮想画像のデータとして生成する仮想画像生成手段と、
前記仮想画像生成手段によりデータとして生成された前記仮想画像の表示を制御する表示制御手段と、
を備える撮像装置。
[付記2]
前記撮像手段は、連続的に繰り返して撮像し、その都度得られる撮像画像のデータを逐次出力し、
前記注目被写体決定手段、前記3次元モデル生成取得手段、前記位置情報取得手段、前記仮想画像生成手段、及び前記表示制御手段は、前記撮像手段から前記撮像画像のデータが逐次出力される毎に処理を実行することで、前記撮像手段から逐次データとして出力される前記撮像画像の各々に対応する前記仮想画像の各々を、連続的に繰り返して表示させる、
付記1に記載の撮像装置。
[付記3]
前記表示制御手段の制御により画像を表示させるモードとして、前記撮像手段からデータとして逐次出力される前記撮像画像を通常のスルー画像として表示させる通常スルー表示モードと、前記撮像手段から逐次データとして出力される前記撮像画像の各々に対応する前記仮想画像の各々を仮想スルー画像として表示させる仮想スルー表示モードとのうち一方を選択するモード選択手段
をさらに備える付記2に記載の撮像装置。
[付記4]
1以上の被写体を所定の撮像方向から撮像し、その結果得られる撮像画像のデータを出力する撮像手段を備える撮像装置が実行する撮像方法において、
前記撮像手段から出力された前記撮像画像のデータに基づいて、前記1以上の被写体の中から、処理対象として注目すべき注目被写体を決定する注目被写体決定ステップと、
前記注目被写体決定ステップの処理により決定された前記注目被写体の3次元モデルを生成又は取得する3次元モデル生成取得ステップと、
前記撮像手段の位置及び姿勢を示す位置情報を取得する位置情報取得ステップと、
前記位置情報取得ステップの処理により取得された前記位置情報に応じて特定される視点であって、前記所定の撮像方向とは異なる方向の視点から、前記3次元モデル生成取得ステップの処理により生成又は取得された前記注目被写体の3次元モデルを眺望した様子を示す画像のデータを、仮想画像のデータとして生成する仮想画像生成ステップと、
前記仮想画像生成ステップの処理によりデータとして生成された前記仮想画像の表示を制御する表示制御ステップと、
を含む撮像方法。
[付記5]
1以上の被写体を所定の撮像方向から撮像し、その結果得られる撮像画像のデータを出力する撮像手段を備える撮像装置を制御するコンピュータに、
前記撮像手段から出力された前記撮像画像のデータに基づいて、前記1以上の被写体の中から、処理対象として注目すべき注目被写体を決定する注目被写体決定機能、
前記注目被写体決定機能により決定された前記注目被写体の3次元モデルを生成又は取得する3次元モデル生成取得機能、
前記撮像手段の位置及び姿勢を示す位置情報を取得する位置情報取得機能、
前記位置情報取得機能により取得された前記位置情報に応じて特定される視点であって、前記所定の撮像方向とは異なる方向の視点から、前記3次元モデル生成取得機能により生成又は取得された前記注目被写体の3次元モデルを眺望した様子を示す画像のデータを、仮想画像のデータとして生成する仮想画像生成機能、
前記仮想画像生成機能によりデータとして生成された前記仮想画像の表示を制御する表示制御機能、
を実現させるためのプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Imaging means for imaging one or more subjects from a predetermined imaging direction and outputting data of a captured image obtained as a result;
Subject-of-interest determining means for determining a subject of interest to be noted as a processing target from among the one or more subjects based on the data of the captured image output from the imaging means;
3D model generation and acquisition means for generating or acquiring the 3D model of the target object determined by the target object determination means;
Position information acquisition means for acquiring position information indicating the position and orientation of the imaging means;
The viewpoint identified according to the position information acquired by the position information acquisition means, and generated or acquired by the three-dimensional model generation acquisition means from a viewpoint in a direction different from the predetermined imaging direction. Virtual image generation means for generating, as virtual image data, image data indicating a view of the three-dimensional model of the subject of interest;
Display control means for controlling display of the virtual image generated as data by the virtual image generation means;
An imaging apparatus comprising:
[Appendix 2]
The imaging unit continuously and repeatedly captures images, sequentially outputs captured image data obtained each time,
The target subject determination unit, the three-dimensional model generation / acquisition unit, the position information acquisition unit, the virtual image generation unit, and the display control unit are processed each time the captured image data is sequentially output from the imaging unit. By executing the above, each of the virtual images corresponding to each of the captured images sequentially output as data from the imaging unit is displayed continuously and repeatedly.
The imaging apparatus according to appendix 1.
[Appendix 3]
As a mode for displaying an image under the control of the display control unit, a normal through display mode for displaying the captured image sequentially output as data from the imaging unit as a normal through image, and a sequential data output from the imaging unit. The imaging apparatus according to appendix 2, further comprising mode selection means for selecting one of a virtual through display mode in which each of the virtual images corresponding to each of the captured images is displayed as a virtual through image.
[Appendix 4]
In an imaging method executed by an imaging apparatus including an imaging unit that images one or more subjects from a predetermined imaging direction and outputs data of a captured image obtained as a result,
An object-of-interest determination step for determining an object of interest to be noted as a processing object from among the one or more objects, based on the data of the captured image output from the imaging unit;
A three-dimensional model generation acquisition step of generating or acquiring a three-dimensional model of the target subject determined by the processing of the target subject determination step;
A position information acquisition step of acquiring position information indicating the position and orientation of the imaging means;
Generated by the process of the 3D model generation acquisition step from the viewpoint specified according to the position information acquired by the process of the position information acquisition step and in a direction different from the predetermined imaging direction. A virtual image generation step of generating, as virtual image data, data of an image showing a view of the acquired three-dimensional model of the subject of interest;
A display control step for controlling display of the virtual image generated as data by the processing of the virtual image generation step;
An imaging method including:
[Appendix 5]
A computer that controls an imaging apparatus including an imaging unit that captures one or more subjects from a predetermined imaging direction and outputs data of a captured image obtained as a result;
A target subject determination function for determining a target subject to be noted as a processing target from among the one or more subjects based on the data of the captured image output from the imaging unit;
A three-dimensional model generation / acquisition function for generating or acquiring a three-dimensional model of the target object determined by the target object determination function;
A position information acquisition function for acquiring position information indicating the position and orientation of the imaging means;
The viewpoint identified according to the position information acquired by the position information acquisition function, and generated or acquired by the three-dimensional model generation acquisition function from a viewpoint in a direction different from the predetermined imaging direction. A virtual image generation function for generating, as virtual image data, image data showing a view of a three-dimensional model of the subject of interest;
A display control function for controlling display of the virtual image generated as data by the virtual image generation function;
A program to realize

11・・・CPU、12・・・ROM、13・・・RAM、14・・・画像処理部、17・・・撮像部、18・・・操作部、19・・・センサ部、20・・・表示部、21・・・記憶部、22・・・通信部、23・・・ドライブ、31・・・リムーバブルメディア、51・・・スルー表示モード選択部、52・・・切替部、53・・・表示制御部、54・・・記録制御部、55・・・位置情報取得部、61・・・注目被写体決定部、62・・・3次元モデル生成取得部、63・・・仮想スルー画像生成部、71・・・撮像画像記憶部、72・・・3次元モデル記憶部   DESCRIPTION OF SYMBOLS 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Image processing part, 17 ... Imaging part, 18 ... Operation part, 19 ... Sensor part, ... Display unit, 21 ... storage unit, 22 ... communication unit, 23 ... drive, 31 ... removable media, 51 ... through display mode selection unit, 52 ... switching unit, 53 ..Display control unit 54... Recording control unit 55 .. position information acquisition unit 61... Subject of interest determination unit 62... 3D model generation and acquisition unit 63. Generation unit, 71 ... captured image storage unit, 72 ... 3D model storage unit

Claims (5)

1以上の被写体を所定の撮像方向から撮像し、その結果得られる撮像画像のデータを出力する撮像手段と、
前記撮像手段から出力された前記撮像画像のデータに基づいて、前記1以上の被写体の中から、処理対象として注目すべき注目被写体を決定する注目被写体決定手段と、
前記注目被写体決定手段により決定された前記注目被写体の3次元モデルを生成又は取得する3次元モデル生成取得手段と、
前記撮像手段の位置及び姿勢を示す位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された前記位置情報に応じて特定される視点であって、前記所定の撮像方向とは異なる方向の視点から、前記3次元モデル生成取得手段により生成又は取得された前記注目被写体の3次元モデルを眺望した様子を示す画像のデータを、仮想画像のデータとして生成する仮想画像生成手段と、
前記仮想画像生成手段によりデータとして生成された前記仮想画像の表示を制御する表示制御手段と、
を備える撮像装置。
Imaging means for imaging one or more subjects from a predetermined imaging direction and outputting data of a captured image obtained as a result;
Subject-of-interest determining means for determining a subject of interest to be noted as a processing target from among the one or more subjects based on the data of the captured image output from the imaging means;
3D model generation and acquisition means for generating or acquiring the 3D model of the target object determined by the target object determination means;
Position information acquisition means for acquiring position information indicating the position and orientation of the imaging means;
The viewpoint identified according to the position information acquired by the position information acquisition means, and generated or acquired by the three-dimensional model generation acquisition means from a viewpoint in a direction different from the predetermined imaging direction. Virtual image generation means for generating, as virtual image data, image data indicating a view of the three-dimensional model of the subject of interest;
Display control means for controlling display of the virtual image generated as data by the virtual image generation means;
An imaging apparatus comprising:
前記撮像手段は、連続的に繰り返して撮像し、その都度得られる撮像画像のデータを逐次出力し、
前記注目被写体決定手段、前記3次元モデル生成取得手段、前記位置情報取得手段、前記仮想画像生成手段、及び前記表示制御手段は、前記撮像手段から前記撮像画像のデータが逐次出力される毎に処理を実行することで、前記撮像手段から逐次データとして出力される前記撮像画像の各々に対応する前記仮想画像の各々を、連続的に繰り返して表示させる、
請求項1に記載の撮像装置。
The imaging unit continuously and repeatedly captures images, sequentially outputs captured image data obtained each time,
The target subject determination unit, the three-dimensional model generation / acquisition unit, the position information acquisition unit, the virtual image generation unit, and the display control unit are processed each time the captured image data is sequentially output from the imaging unit. By executing the above, each of the virtual images corresponding to each of the captured images sequentially output as data from the imaging unit is displayed continuously and repeatedly.
The imaging device according to claim 1.
前記表示制御手段の制御により画像を表示させるモードとして、前記撮像手段からデータとして逐次出力される前記撮像画像を通常のスルー画像として表示させる通常スルー表示モードと、前記撮像手段から逐次データとして出力される前記撮像画像の各々に対応する前記仮想画像の各々を仮想スルー画像として表示させる仮想スルー表示モードとのうち一方を選択するモード選択手段
をさらに備える請求項2に記載の撮像装置。
As a mode for displaying an image under the control of the display control unit, a normal through display mode for displaying the captured image sequentially output as data from the imaging unit as a normal through image, and a sequential data output from the imaging unit. The imaging apparatus according to claim 2, further comprising mode selection means for selecting one of a virtual through display mode in which each of the virtual images corresponding to each of the captured images is displayed as a virtual through image.
1以上の被写体を所定の撮像方向から撮像し、その結果得られる撮像画像のデータを出力する撮像手段を備える撮像装置が実行する撮像方法において、
前記撮像手段から出力された前記撮像画像のデータに基づいて、前記1以上の被写体の中から、処理対象として注目すべき注目被写体を決定する注目被写体決定ステップと、
前記注目被写体決定ステップの処理により決定された前記注目被写体の3次元モデルを生成又は取得する3次元モデル生成取得ステップと、
前記撮像手段の位置及び姿勢を示す位置情報を取得する位置情報取得ステップと、
前記位置情報取得ステップの処理により取得された前記位置情報に応じて特定される視点であって、前記所定の撮像方向とは異なる方向の視点から、前記3次元モデル生成取得ステップの処理により生成又は取得された前記注目被写体の3次元モデルを眺望した様子を示す画像のデータを、仮想画像のデータとして生成する仮想画像生成ステップと、
前記仮想画像生成ステップの処理によりデータとして生成された前記仮想画像の表示を制御する表示制御ステップと、
を含む撮像方法。
In an imaging method executed by an imaging apparatus including an imaging unit that images one or more subjects from a predetermined imaging direction and outputs data of a captured image obtained as a result,
An object-of-interest determination step for determining an object of interest to be noted as a processing object from among the one or more objects, based on the data of the captured image output from the imaging unit;
A three-dimensional model generation acquisition step of generating or acquiring a three-dimensional model of the target subject determined by the processing of the target subject determination step;
A position information acquisition step of acquiring position information indicating the position and orientation of the imaging means;
Generated by the process of the 3D model generation acquisition step from the viewpoint specified according to the position information acquired by the process of the position information acquisition step and in a direction different from the predetermined imaging direction. A virtual image generation step of generating, as virtual image data, data of an image showing a view of the acquired three-dimensional model of the subject of interest;
A display control step for controlling display of the virtual image generated as data by the processing of the virtual image generation step;
An imaging method including:
1以上の被写体を所定の撮像方向から撮像し、その結果得られる撮像画像のデータを出力する撮像手段を備える撮像装置を制御するコンピュータに、
前記撮像手段から出力された前記撮像画像のデータに基づいて、前記1以上の被写体の中から、処理対象として注目すべき注目被写体を決定する注目被写体決定機能、
前記注目被写体決定機能により決定された前記注目被写体の3次元モデルを生成又は取得する3次元モデル生成取得機能、
前記撮像手段の位置及び姿勢を示す位置情報を取得する位置情報取得機能、
前記位置情報取得機能により取得された前記位置情報に応じて特定される視点であって、前記所定の撮像方向とは異なる方向の視点から、前記3次元モデル生成取得機能により生成又は取得された前記注目被写体の3次元モデルを眺望した様子を示す画像のデータを、仮想画像のデータとして生成する仮想画像生成機能、
前記仮想画像生成機能によりデータとして生成された前記仮想画像の表示を制御する表示制御機能、
を実現させるためのプログラム。
A computer that controls an imaging apparatus including an imaging unit that captures one or more subjects from a predetermined imaging direction and outputs data of a captured image obtained as a result;
A target subject determination function for determining a target subject to be noted as a processing target from among the one or more subjects based on the data of the captured image output from the imaging unit;
A three-dimensional model generation / acquisition function for generating or acquiring a three-dimensional model of the target object determined by the target object determination function;
A position information acquisition function for acquiring position information indicating the position and orientation of the imaging means;
The viewpoint identified according to the position information acquired by the position information acquisition function, and generated or acquired by the three-dimensional model generation acquisition function from a viewpoint in a direction different from the predetermined imaging direction. A virtual image generation function for generating, as virtual image data, image data showing a view of a three-dimensional model of the subject of interest;
A display control function for controlling display of the virtual image generated as data by the virtual image generation function;
A program to realize
JP2011073615A 2011-03-29 2011-03-29 Imaging apparatus, imaging method, and program Expired - Fee Related JP5672109B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011073615A JP5672109B2 (en) 2011-03-29 2011-03-29 Imaging apparatus, imaging method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011073615A JP5672109B2 (en) 2011-03-29 2011-03-29 Imaging apparatus, imaging method, and program

Publications (3)

Publication Number Publication Date
JP2012208719A true JP2012208719A (en) 2012-10-25
JP2012208719A5 JP2012208719A5 (en) 2014-03-20
JP5672109B2 JP5672109B2 (en) 2015-02-18

Family

ID=47188389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011073615A Expired - Fee Related JP5672109B2 (en) 2011-03-29 2011-03-29 Imaging apparatus, imaging method, and program

Country Status (1)

Country Link
JP (1) JP5672109B2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108510595A (en) * 2017-02-28 2018-09-07 佳能株式会社 Image processing apparatus, image processing method and storage medium
JP2021073563A (en) * 2016-09-23 2021-05-13 アップル インコーポレイテッドApple Inc. Image data for enhanced user interactions
US11302061B2 (en) 2018-01-22 2022-04-12 Canon Kabushiki Kaisha Image processing apparatus and method, for gerneration of a three-dimensional model used for generating a virtual viewpoint image
US11380077B2 (en) 2018-05-07 2022-07-05 Apple Inc. Avatar creation user interface
US11393258B2 (en) 2017-09-09 2022-07-19 Apple Inc. Implementation of biometric authentication
US11468155B2 (en) 2007-09-24 2022-10-11 Apple Inc. Embedded authentication systems in an electronic device
US11494046B2 (en) 2013-09-09 2022-11-08 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US11532112B2 (en) 2017-05-16 2022-12-20 Apple Inc. Emoji recording and sending
US11619991B2 (en) 2018-09-28 2023-04-04 Apple Inc. Device control using gaze information
US11676373B2 (en) 2008-01-03 2023-06-13 Apple Inc. Personal computing device control using face detection and recognition
US11755712B2 (en) 2011-09-29 2023-09-12 Apple Inc. Authentication with secondary approver
US11809784B2 (en) 2018-09-28 2023-11-07 Apple Inc. Audio assisted enrollment
US11836725B2 (en) 2014-05-29 2023-12-05 Apple Inc. User interface for payments
US11928200B2 (en) 2018-06-03 2024-03-12 Apple Inc. Implementation of biometric authentication
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
US12079458B2 (en) 2016-09-23 2024-09-03 Apple Inc. Image data for enhanced user interactions
US12099586B2 (en) 2021-01-25 2024-09-24 Apple Inc. Implementation of biometric authentication
US12124770B2 (en) 2023-08-24 2024-10-22 Apple Inc. Audio assisted enrollment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269580A (en) * 2001-03-07 2002-09-20 Japan Science & Technology Corp Animation creating system
JP2010109783A (en) * 2008-10-31 2010-05-13 Casio Computer Co Ltd Electronic camera
JP2010193050A (en) * 2009-02-17 2010-09-02 Nikon Corp Electronic camera
JP2010237804A (en) * 2009-03-30 2010-10-21 Casio Computer Co Ltd System and method for searching image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269580A (en) * 2001-03-07 2002-09-20 Japan Science & Technology Corp Animation creating system
JP2010109783A (en) * 2008-10-31 2010-05-13 Casio Computer Co Ltd Electronic camera
JP2010193050A (en) * 2009-02-17 2010-09-02 Nikon Corp Electronic camera
JP2010237804A (en) * 2009-03-30 2010-10-21 Casio Computer Co Ltd System and method for searching image

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11468155B2 (en) 2007-09-24 2022-10-11 Apple Inc. Embedded authentication systems in an electronic device
US11676373B2 (en) 2008-01-03 2023-06-13 Apple Inc. Personal computing device control using face detection and recognition
US11755712B2 (en) 2011-09-29 2023-09-12 Apple Inc. Authentication with secondary approver
US11494046B2 (en) 2013-09-09 2022-11-08 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US11768575B2 (en) 2013-09-09 2023-09-26 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US11836725B2 (en) 2014-05-29 2023-12-05 Apple Inc. User interface for payments
JP7158509B2 (en) 2016-09-23 2022-10-21 アップル インコーポレイテッド Image data for enhanced user interaction
US12079458B2 (en) 2016-09-23 2024-09-03 Apple Inc. Image data for enhanced user interactions
JP2021073563A (en) * 2016-09-23 2021-05-13 アップル インコーポレイテッドApple Inc. Image data for enhanced user interactions
CN108510595B (en) * 2017-02-28 2023-11-28 佳能株式会社 Image processing apparatus, image processing method, and storage medium
CN108510595A (en) * 2017-02-28 2018-09-07 佳能株式会社 Image processing apparatus, image processing method and storage medium
US11532112B2 (en) 2017-05-16 2022-12-20 Apple Inc. Emoji recording and sending
US12045923B2 (en) 2017-05-16 2024-07-23 Apple Inc. Emoji recording and sending
US11393258B2 (en) 2017-09-09 2022-07-19 Apple Inc. Implementation of biometric authentication
US11765163B2 (en) 2017-09-09 2023-09-19 Apple Inc. Implementation of biometric authentication
US11302061B2 (en) 2018-01-22 2022-04-12 Canon Kabushiki Kaisha Image processing apparatus and method, for gerneration of a three-dimensional model used for generating a virtual viewpoint image
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
US11380077B2 (en) 2018-05-07 2022-07-05 Apple Inc. Avatar creation user interface
US11682182B2 (en) 2018-05-07 2023-06-20 Apple Inc. Avatar creation user interface
US11928200B2 (en) 2018-06-03 2024-03-12 Apple Inc. Implementation of biometric authentication
US11809784B2 (en) 2018-09-28 2023-11-07 Apple Inc. Audio assisted enrollment
US11619991B2 (en) 2018-09-28 2023-04-04 Apple Inc. Device control using gaze information
US12105874B2 (en) 2018-09-28 2024-10-01 Apple Inc. Device control using gaze information
US12099586B2 (en) 2021-01-25 2024-09-24 Apple Inc. Implementation of biometric authentication
US12124770B2 (en) 2023-08-24 2024-10-22 Apple Inc. Audio assisted enrollment

Also Published As

Publication number Publication date
JP5672109B2 (en) 2015-02-18

Similar Documents

Publication Publication Date Title
JP5672109B2 (en) Imaging apparatus, imaging method, and program
US10645371B2 (en) Inertial measurement unit progress estimation
CN109615703B (en) Augmented reality image display method, device and equipment
JP4262014B2 (en) Image photographing apparatus and image processing method
JP5337915B2 (en) Information presentation device, digital camera, head mounted display, projector, information presentation method, information presentation program
US9516223B2 (en) Motion-based image stitching
US9106906B2 (en) Image generation system, image generation method, and information storage medium
JP6126821B2 (en) Image generation method, image display method, image generation program, image generation system, and image display apparatus
JP5510238B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
WO2011048773A1 (en) Image display apparatus, image display method, and program
JP6126820B2 (en) Image generation method, image display method, image generation program, image generation system, and image display apparatus
US10339700B2 (en) Manipulating virtual objects on hinged multi-screen device
US11252398B2 (en) Creating cinematic video from multi-view capture data
JP6294054B2 (en) Video display device, video presentation method, and program
US11361455B2 (en) Systems and methods for facilitating the identifying of correspondences between images experiencing motion blur
JP6621565B2 (en) Display control apparatus, display control method, and program
JP6219037B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
US20230196658A1 (en) Enclosed multi-view visual media representation
US11128836B2 (en) Multi-camera display
JPWO2018117099A1 (en) Image processing apparatus and program
JP2006309626A (en) Arbitrary viewpoint image generation device
JP2015061200A (en) Image display device, image display method, and image display program
JP2021061504A (en) Imaging apparatus, image display apparatus, image generation apparatus, and image generation program
KR20230039466A (en) Electronic device for generating stereoscopy based on images obtained from multiple cameras and method thereof
CN117994314A (en) Image processing method and electronic device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141208

R150 Certificate of patent or registration of utility model

Ref document number: 5672109

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees