[go: nahoru, domu]

JP2016038811A - Virtual try-on apparatus, virtual try-on method and program - Google Patents

Virtual try-on apparatus, virtual try-on method and program Download PDF

Info

Publication number
JP2016038811A
JP2016038811A JP2014163120A JP2014163120A JP2016038811A JP 2016038811 A JP2016038811 A JP 2016038811A JP 2014163120 A JP2014163120 A JP 2014163120A JP 2014163120 A JP2014163120 A JP 2014163120A JP 2016038811 A JP2016038811 A JP 2016038811A
Authority
JP
Japan
Prior art keywords
try
image
unit
information
clothing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014163120A
Other languages
Japanese (ja)
Inventor
邦男 長田
Kunio Osada
邦男 長田
外志正 土橋
Toshimasa Dobashi
外志正 土橋
寿朗 吉岡
Toshiaki Yoshioka
寿朗 吉岡
茂 三上
Shigeru Mikami
茂 三上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Solutions Corp filed Critical Toshiba Corp
Priority to JP2014163120A priority Critical patent/JP2016038811A/en
Priority to CN201510075310.4A priority patent/CN105989617A/en
Priority to US14/672,339 priority patent/US10423220B2/en
Publication of JP2016038811A publication Critical patent/JP2016038811A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Human Computer Interaction (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a virtual try-on service according to respective try-on person.SOLUTION: A virtual try-on apparatus 10 includes: a first acquisition section 12A; a first display control section 12B; a reception section 12C; a generation section 12D; and a second display control section 12E. The first acquisition section 12A acquires feature information of a try-on person. The first display control section 12B displays a clothing image corresponding to the acquired feature information in a first information, in which at least the feature information and a clothing image are associated with each other, on a first display unit. The reception section 12C receives, from the try-on person, a selection of a target try-on clothing image from the clothing images displayed on the first display unit. The generation section 12D generates a composite image try-on person image and the selected clothing image. The second display control section 12E controls to display the composite image on the second display unit 18.SELECTED DRAWING: Figure 3

Description

本発明の実施の形態は、仮想試着装置、仮想試着方法、およびプログラムに関する。   Embodiments described herein relate generally to a virtual try-on device, a virtual try-on method, and a program.

試着対象の衣服を着用した状態を示す仮想画像を表示する技術が開示されている。例えば、ユーザが衣服を試着した状態を示す合成画像を表示する技術が開示されている。   A technique for displaying a virtual image indicating a state of wearing a clothing to be tried on is disclosed. For example, a technique for displaying a composite image indicating a state in which a user has tried on clothes has been disclosed.

特開2006−249618号公報JP 2006-249618 A

しかしながら、従来では、各々の試着者に応じた仮想試着サービスを提供することは困難であった。   However, conventionally, it has been difficult to provide a virtual try-on service corresponding to each try-on person.

本発明が解決しようとする課題は、各々の試着者に応じた仮想試着サービスを提供することができる、仮想試着装置、仮想試着方法、およびプログラムを提供することである。   The problem to be solved by the present invention is to provide a virtual try-on device, a virtual try-on method, and a program that can provide a virtual try-on service according to each try-on.

実施の形態の仮想試着装置は、第1取得部と、第1表示制御部と、受付部と、生成部と、第2表示制御部と、を備える。第1取得部は、試着者の特徴情報を取得する。第1表示制御部は、前記特徴情報と、衣服画像と、を少なくとも対応づけた第1情報における、取得した前記特徴情報に対応する前記衣服画像を第1表示部に表示する。受付部は、前記第1表示部に表示された前記衣服画像の内、試着対象の衣服の衣服画像の選択を試着者から受け付ける。生成部は、前記試着者の試着者画像と、選択された前記衣服画像と、の合成画像を生成する。第2表示制御部は、前記合成画像を第2表示部に表示する。   The virtual try-on device of the embodiment includes a first acquisition unit, a first display control unit, a reception unit, a generation unit, and a second display control unit. A 1st acquisition part acquires the feature information of a try-on. The first display control unit displays the clothing image corresponding to the acquired feature information in the first information in which the feature information and at least the clothing image are associated with each other on the first display unit. The accepting unit accepts selection of a clothing image of a clothing to be tried on from among the clothing images displayed on the first display unit. The generation unit generates a composite image of the try-on image of the try-on and the selected clothing image. The second display control unit displays the composite image on the second display unit.

仮想試着システムの模式図。The schematic diagram of a virtual fitting system. 本体部と試着者との位置関係を示す模式図。The schematic diagram which shows the positional relationship of a main-body part and a fitting person. 仮想試着装置の機能ブロック図。The functional block diagram of a virtual fitting device. 第1情報のデータ構造の一例を示す図。The figure which shows an example of the data structure of 1st information. 第2情報のデータ構造の一例を示す図。The figure which shows an example of the data structure of 2nd information. 第1端末の機能ブロック図。The functional block diagram of a 1st terminal. 第2端末の機能ブロック図。The functional block diagram of a 2nd terminal. 第1サーバ装置の機能ブロック図。The functional block diagram of a 1st server apparatus. 第3情報のデータ構造の一例を示す図。The figure which shows an example of the data structure of 3rd information. 第2サーバ装置の機能ブロック図。The functional block diagram of a 2nd server apparatus. 第3サーバ装置の機能ブロック図。The functional block diagram of a 3rd server apparatus. 仮想試着処理の手順を示すシーケンス図。The sequence diagram which shows the procedure of a virtual try-on process. 選択画面の一例を示す図。The figure which shows an example of a selection screen. 合成画像の一例を示す図。The figure which shows an example of a synthesized image. 残り時間表示の説明図。Explanatory drawing of remaining time display. 残り時間表示の説明図。Explanatory drawing of remaining time display. 仮想試着装置の機能ブロック図。The functional block diagram of a virtual fitting device. 第4情報のデータ構造の一例を示す図。The figure which shows an example of the data structure of 4th information. 仮想試着処理の手順を示すシーケンス図。The sequence diagram which shows the procedure of a virtual try-on process. 仮想試着装置の機能ブロック図。The functional block diagram of a virtual fitting device. 第5情報のデータ構造の一例を示す図。The figure which shows an example of the data structure of 5th information. 仮想試着処理の手順を示すシーケンス図。The sequence diagram which shows the procedure of a virtual try-on process. 表示画面の一例を示す図。The figure which shows an example of a display screen. ハードウェア構成例を示すブロック図。The block diagram which shows the hardware structural example.

以下に添付図面を参照して、仮想試着装置、仮想試着方法、およびプログラムの一の実施の形態を詳細に説明する。   Exemplary embodiments of a virtual fitting device, a virtual fitting method, and a program will be described below in detail with reference to the accompanying drawings.

(第1の実施の形態)
図1は、本実施の形態の仮想試着システム1の模式図である。
(First embodiment)
FIG. 1 is a schematic diagram of a virtual fitting system 1 according to the present embodiment.

仮想試着システム1は、仮想試着装置10と、第1端末24と、第2端末26と、第1サーバ装置28と、第3サーバ装置30と、第2サーバ装置32と、を備える。仮想試着装置10と、第1端末24と、第2端末26と、第1サーバ装置28と、第3サーバ装置30と、第2サーバ装置32と、は、インターネット等の公知の通信網を介して接続されている。   The virtual try-on system 1 includes a virtual try-on device 10, a first terminal 24, a second terminal 26, a first server device 28, a third server device 30, and a second server device 32. The virtual try-on device 10, the first terminal 24, the second terminal 26, the first server device 28, the third server device 30, and the second server device 32 are connected via a known communication network such as the Internet. Connected.

本実施の形態では、仮想試着装置10と、第1端末24と、第2端末26と、は、ある領域(本実施の形態では店舗A)内で使用され、店舗A内に構築された構内通信網(LAN:Local Area Network)34を介して接続されている。また、仮想試着装置10、第1端末24、および第2端末26は、LAN34、GW(gateway)35、およびインターネット36を介して、第1サーバ装置28、第3サーバ装置30、および第2サーバ装置32と通信可能に接続されている。   In the present embodiment, the virtual try-on device 10, the first terminal 24, and the second terminal 26 are used in a certain area (store A in the present embodiment) and are constructed in the store A. It is connected via a communication network (LAN: Local Area Network) 34. The virtual try-on device 10, the first terminal 24, and the second terminal 26 are connected to the first server device 28, the third server device 30, and the second server via the LAN 34, a GW (gateway) 35, and the Internet 36. The device 32 is communicably connected.

本実施の形態では、一例として、仮想試着装置10、第2端末26、および第1端末24が、特定の領域内で使用される場合を想定している。また、本実施の形態では、特定の領域として、顧客に対して商品の販売やサービスの提供などを行う店舗Aを想定している。なお、特定の領域は、店舗に限定されない。   In the present embodiment, as an example, it is assumed that the virtual try-on device 10, the second terminal 26, and the first terminal 24 are used in a specific area. In this embodiment, store A which sells products or provides services to customers is assumed as a specific area. The specific area is not limited to the store.

なお、仮想試着システム1は、仮想試着装置10、第2端末26、および第1端末24を特定の領域内で使用する形態に限定されない。例えば、仮想試着システム1は、仮想試着装置10、第2端末26、および第1端末24の少なくとも1つを、異なる領域で使用する形態であってもよい。   The virtual try-on system 1 is not limited to a form in which the virtual try-on device 10, the second terminal 26, and the first terminal 24 are used within a specific area. For example, the virtual try-on system 1 may be configured to use at least one of the virtual try-on device 10, the second terminal 26, and the first terminal 24 in different areas.

また、本実施の形態では、1つの店舗A内に配置された1台の仮想試着装置10に対して、1台の第2端末26と、1または複数台の第1端末24が接続される形態を説明する。なお、1つの領域(例えば、店舗A)内に配置される仮想試着装置10の数、各仮想試着装置10に接続可能な第1端末24および第2端末26の数は、これらの数に限定されない。   In the present embodiment, one second terminal 26 and one or a plurality of first terminals 24 are connected to one virtual fitting device 10 arranged in one store A. A form is demonstrated. Note that the number of virtual try-on devices 10 arranged in one area (for example, store A) and the number of first terminals 24 and second terminals 26 that can be connected to each virtual try-on device 10 are limited to these numbers. Not.

また、図1では、説明を簡略化するために、1つの領域(店舗A)を示したが、複数の領域内の各々に、仮想試着装置10、第1端末24、および第2端末26を配置した構成としてもよい。   In FIG. 1, one region (store A) is shown for simplicity of explanation, but the virtual try-on device 10, the first terminal 24, and the second terminal 26 are provided in each of the plurality of regions. An arrangement may be adopted.

仮想試着装置10は、試着者の試着者画像と、衣服画像と、の合成画像を表示する装置である。   The virtual try-on device 10 is a device that displays a composite image of a try-on wearer image and a clothing image.

仮想試着装置10は、制御部12と、記憶部14と、本体部16と、を備える。制御部12は、仮想試着装置10に設けられた装置各部を制御する。本体部16は、第2表示部18と、撮影部20と、照射部22と、を備える。なお、仮想試着装置10は、合成画像を印刷する印刷装置や、ネットワークなどを介して合成画像を外部装置へ送信する送信部を更に備えていてもよい。   The virtual try-on device 10 includes a control unit 12, a storage unit 14, and a main body unit 16. The control unit 12 controls each unit provided in the virtual try-on device 10. The main body unit 16 includes a second display unit 18, a photographing unit 20, and an irradiation unit 22. The virtual try-on device 10 may further include a printing device that prints the composite image, and a transmission unit that transmits the composite image to an external device via a network or the like.

撮影部20は、第1撮影部20A及び第2撮影部20Bを含む。   The imaging unit 20 includes a first imaging unit 20A and a second imaging unit 20B.

第1撮影部20Aは、試着者を撮影し、試着者の試着者画像を得る。第1撮影部20Aは、所定時間毎に試着者を撮影する。第1撮影部20Aは、撮影によって取得した試着者画像を、順次、制御部12へ出力する。第1撮影部20Aが、連続して試着者を撮影して制御部12へ出力することで、制御部12は、撮影時間の異なる複数の試着者画像を含む動画像を得ることとなる。   The first photographing unit 20A photographs a try-on and obtains a try-on image of the try-on. The first photographing unit 20A photographs a try-on person every predetermined time. The first photographing unit 20A sequentially outputs the try-on image acquired by photographing to the control unit 12. The first photographing unit 20A continuously photographs a try-on and outputs it to the control unit 12, so that the control unit 12 obtains a moving image including a plurality of try-on images having different photographing times.

試着者は、衣服を試着する対象である。試着者は、衣服を試着する対象であればよく、生物であってもよいし、非生物であってもよい。生物には、例えば、人物が挙げられる。なお、生物は、人物に限られず、犬や猫等の、人物以外の動物であってもよい。また、非生物には、人体や動物の形状を模したマネキンや、その他の物体等が挙げられるが、これに限られない。また、試着者は、衣服を着用した状態の生物や非生物であってもよい。   The try-on is an object to try on clothes. The fitting person may be an object to try on clothes, and may be a living thing or a non-living thing. For example, a person may be mentioned as a living thing. The living thing is not limited to a person, and may be an animal other than a person such as a dog or a cat. Non-living materials include, but are not limited to, mannequins that imitate the shape of human bodies and animals, and other objects. The try-on may be a living creature or a non-living creature wearing clothes.

また、衣服とは、試着者が着用可能な品物である。衣服としては、例えば、上着、スカート、ズボン、靴、帽子などが挙げられる。なお、衣服は、上着、スカート、ズボン、靴、帽子などに限定されない。   The clothes are items that can be worn by the try-on. Examples of the clothes include a jacket, a skirt, trousers, shoes, and a hat. The clothes are not limited to outerwear, skirts, trousers, shoes, hats and the like.

試着者画像は、本実施の形態では、ビットマップ画像である。試着者画像は、画素毎に、試着者の色や輝度等を示す画素値の規定された画像である。第1撮影部20Aは、試着者画像を取得可能な公知の撮影装置である。   The fitting person image is a bitmap image in the present embodiment. The try-on image is an image in which pixel values indicating the color, brightness, etc. of the try-on are defined for each pixel. The first photographing unit 20A is a known photographing device that can acquire a fitting person image.

第2撮影部20Bは、撮影によりデプスマップを取得する。   The second photographing unit 20B acquires a depth map by photographing.

デプスマップは、距離画像と称される場合がある。デプスマップは、画素毎に、第2撮影部20Bからの距離を規定した画像である。本実施の形態では、デプスマップは、試着者画像から、ステレオマッチング等の公知の方法により作成してもよいし、試着者画像と同じ撮影条件で、第2撮影部20Bを用いて撮影することで取得してもよい。第2撮影部20Bには、デプスマップを取得可能な公知の撮影装置を用いる。   The depth map may be referred to as a distance image. The depth map is an image that defines the distance from the second imaging unit 20B for each pixel. In the present embodiment, the depth map may be created from a fitting person image by a known method such as stereo matching, or may be shot using the second shooting unit 20B under the same shooting conditions as the fitting person image. You may get it at A known imaging device capable of acquiring a depth map is used for the second imaging unit 20B.

本実施の形態では、第1撮影部20A及び第2撮影部20Bは、同じタイミングで試着者の撮影を行う。第1撮影部20A及び第2撮影部20Bは、制御部12によって、同じタイミングで同期して撮影を順次行うように制御されている。そして、撮影部20は、撮影によって得た試着者の試着者画像及びデプスマップを、順次、制御部12へ出力する。   In the present embodiment, the first photographing unit 20A and the second photographing unit 20B photograph a try-on person at the same timing. The first photographing unit 20A and the second photographing unit 20B are controlled by the control unit 12 so as to sequentially perform photographing at the same timing. Then, the photographing unit 20 sequentially outputs the try-on image and the depth map of the try-on obtained by photographing to the control unit 12.

第2表示部18は、各種画像を表示する装置である。第2表示部18は、例えば、液晶表示装置等の公知の表示装置である。本実施の形態では、第2表示部18は、制御部12で生成された後述する合成画像を表示する。   The second display unit 18 is a device that displays various images. The second display unit 18 is a known display device such as a liquid crystal display device. In the present embodiment, the second display unit 18 displays a composite image (described later) generated by the control unit 12.

第2表示部18は、例えば矩形状の筐体の一の面に組み込まれている。本実施の形態では、第2表示部18は、人物の等身大以上の大きさで構成されている場合を説明する。なお、第2表示部18の大きさは、この大きさに限定されない。   The second display unit 18 is incorporated on one surface of a rectangular housing, for example. In the present embodiment, a case will be described in which the second display unit 18 is configured with a size equal to or greater than the size of a person. Note that the size of the second display unit 18 is not limited to this size.

図2は、本実施の形態における、本体部16と試着者Pとの位置関係を示す模式図である。   FIG. 2 is a schematic diagram showing the positional relationship between the main body 16 and the fitting person P in the present embodiment.

制御部12は(図2では図示省略)、試着者Pが各種衣服を試着した状態を示す合成画像Wを、第2表示部18に表示する。図2には、一例として、試着者画像40と衣服画像42との合成画像Wを示した。人物等の試着者Pは、例えば、該第2表示部18の表示面に対面した位置から、該第2表示部18に提示された合成画像Wを視認する。また、第2撮影部20Bおよび第1撮影部20Aは、第2表示部18の表示面に対面した位置の試着者Pを撮影可能となるように、撮影方向を予め調整されている。   The control unit 12 (not shown in FIG. 2) displays on the second display unit 18 a composite image W indicating a state in which the try-on person P has tried on various clothes. FIG. 2 shows a composite image W of a try-on person image 40 and a clothing image 42 as an example. The person trying on P such as a person visually recognizes the composite image W presented on the second display unit 18 from a position facing the display surface of the second display unit 18, for example. In addition, the photographing direction of the second photographing unit 20B and the first photographing unit 20A is adjusted in advance so that the fitting person P at a position facing the display surface of the second display unit 18 can be photographed.

図1に戻り、第2表示部18の両側面には、照射部22が設けられている。照射部22は、公知の光源である。照射部22は、第2表示部18の表示面に対面した位置の試着者Pに対して光を照射可能となるように、光照射方向を予め調整されている。なお、本体部16は、照射部22を備えない構成であってもよい。   Returning to FIG. 1, irradiation units 22 are provided on both side surfaces of the second display unit 18. The irradiation unit 22 is a known light source. The irradiation unit 22 has the light irradiation direction adjusted in advance so that light can be irradiated to the fitting person P at the position facing the display surface of the second display unit 18. The main body 16 may be configured not to include the irradiation unit 22.

記憶部14は、各種データを記憶する、公知のハードディスクデバイスである。   The storage unit 14 is a known hard disk device that stores various data.

第1端末24は、公知のパーソナルコンピュータである。本実施の形態では、第1端末24は、携帯可能な端末である場合を説明する。第1端末24は、試着者が試着対象の衣服画像を選択するときに操作する端末である。本実施の形態では、一例として、第1端末24は、店舗A内に1または複数設けられている場合を説明する。しかし、第1端末24は、試着者の有する携帯端末などであってもよい。   The first terminal 24 is a known personal computer. In the present embodiment, the case where the first terminal 24 is a portable terminal will be described. The first terminal 24 is a terminal that is operated when the try-on selects a clothing image to be tried on. In the present embodiment, as an example, a case where one or a plurality of first terminals 24 are provided in the store A will be described. However, the first terminal 24 may be a portable terminal of a try-onr.

第2端末26は、公知のパーソナルコンピュータである。本実施の形態では、第2端末26は、仮想試着装置10へ各種指示を送信する操作端末として用いる。   The second terminal 26 is a known personal computer. In the present embodiment, the second terminal 26 is used as an operation terminal that transmits various instructions to the virtual try-on device 10.

なお、本実施の形態では、第1端末24と第2端末26とを別体として構成する場合を説明する。しかし、第1端末24と第2端末26とを一体的に構成してもよい。また、仮想試着装置10と、第2端末26と、第1端末24と、の少なくとも2つを、一体的に構成してもよい。   In the present embodiment, a case where the first terminal 24 and the second terminal 26 are configured separately will be described. However, the first terminal 24 and the second terminal 26 may be integrally configured. In addition, at least two of the virtual try-on device 10, the second terminal 26, and the first terminal 24 may be integrally configured.

第1サーバ装置28は、インターネット上に配置されたコンテンツ配信サーバ装置である。本実施の形態では、第1サーバ装置28は、試着者、および該試着者の選択した試着対象の衣服画像の少なくとも一方に応じた特典情報(詳細後述)を生成する。   The first server device 28 is a content distribution server device arranged on the Internet. In the present embodiment, the first server device 28 generates privilege information (details will be described later) according to at least one of the try-on and the clothes image of the try-on target selected by the try-on.

第2サーバ装置32は、第1情報(詳細後述)を更新し、仮想試着装置10などへ配信する。第3サーバ装置30は、ビッグデータを処理可能なサーバ装置であり、インターネット上の各種サーバ装置に蓄積されたユーザの購買情報などを分析するサーバ装置である。本実施の形態では、第3サーバ装置30は、試着者に対する、推奨する衣服を示す推奨画像を生成する。   The second server device 32 updates the first information (details will be described later) and distributes it to the virtual try-on device 10 and the like. The third server device 30 is a server device that can process big data, and is a server device that analyzes user purchase information stored in various server devices on the Internet. In the present embodiment, the third server device 30 generates a recommended image indicating recommended clothing for the try-on.

なお、本実施の形態では、ユーザとは、試着者、試着者以外の人物、を含む、操作者の総称を意味する。   In the present embodiment, the user means a generic name of operators including a try-on and a person other than the try-on.

なお、本実施の形態では、第1サーバ装置28と、第2サーバ装置32と、第3サーバ装置30と、が別体として構成された場合を説明する。しかし、第1サーバ装置28と、第2サーバ装置32と、第3サーバ装置30と、の少なくとも2つを一体的に構成した形態であってもよい。   In the present embodiment, a case will be described in which the first server device 28, the second server device 32, and the third server device 30 are configured separately. However, at least two of the first server device 28, the second server device 32, and the third server device 30 may be integrally configured.

図3は、仮想試着装置10の機能ブロック図である。   FIG. 3 is a functional block diagram of the virtual try-on device 10.

仮想試着装置10は、制御部12と、撮影部20と、記憶部14と、第2表示部18と、照射部22と、を備える。撮影部20、記憶部14、第2表示部18、および照射部22は、制御部12に信号授受可能に接続されている。   The virtual try-on device 10 includes a control unit 12, a photographing unit 20, a storage unit 14, a second display unit 18, and an irradiation unit 22. The imaging unit 20, the storage unit 14, the second display unit 18, and the irradiation unit 22 are connected to the control unit 12 so that signals can be exchanged.

記憶部14は、各種データを記憶する。本実施の形態では、記憶部14は、第1情報、および第2情報、などの各種データを記憶する。   The storage unit 14 stores various data. In the present embodiment, the storage unit 14 stores various data such as first information and second information.

図4は、第1情報のデータ構造の一例を示す図である。   FIG. 4 is a diagram illustrating an example of a data structure of the first information.

第1情報は、衣服の種類と、衣服の識別情報(以下、衣服IDと称する)と、特徴情報と、姿勢情報と、重畳順と、位置合せ情報と、衣服画像と、を対応づけた情報である。第1情報は、データベースであってもよいし、テーブルであってもよく、データ形式は限定されない。なお、第1情報は、少なくとも、衣服画像と、特徴情報と、を対応づけた情報であればよく、更に他の情報を対応づけた形態であってもよい。   The first information is information that associates the type of clothing, clothing identification information (hereinafter referred to as clothing ID), feature information, posture information, superposition order, alignment information, and clothing image. It is. The first information may be a database or a table, and the data format is not limited. Note that the first information may be information that associates at least a clothing image with feature information, and may be in a form in which other information is associated.

衣服の種類は、衣服を予め定めた分類条件で複数の種類に分類したときの、各種類を示す。分類条件は、例えば、人体の何れの部位(例えば、上半身側、下半身側)に着用される洋服であるかを示す条件や、組み合わせて着用するときの一般的な重畳順などである。なお、分類条件は、これらに限定されない。衣服の種類は、例えば、トップス、アウター、ボトムス、インナーなどであるが、これらに限定されない。   The type of clothes indicates each type when clothes are classified into a plurality of types under predetermined classification conditions. The classification condition is, for example, a condition indicating which part of the human body (for example, the upper body side or the lower body side) the clothes are worn, a general superposition order when combined and used. The classification conditions are not limited to these. Examples of the types of clothes include, but are not limited to, tops, outers, bottoms, inners, and the like.

衣服ID(衣服の識別情報)は、衣服を識別するための情報である。衣服は、例えば、既製服を示す。衣服IDには、例えば、製品番号や、衣服の名称等が挙げられるが、これらに限られない。製品番号には、例えば、公知のEAN(European Article Number)コードや、JAN(Japanese Article Number)コードなどが挙げられるが、これらに限定されない。名称には、例えば、衣服の品名等を用いる。   The clothes ID (clothing identification information) is information for identifying clothes. The clothes indicate ready-made clothes, for example. Examples of the clothes ID include, but are not limited to, product numbers and clothes names. Examples of the product number include, but are not limited to, a known EAN (European Article Number) code and a JAN (Japan Article Number) code. As the name, for example, the name of clothes is used.

特徴情報は、試着者の特徴を示す情報である。特徴情報は、衣服IDによって特定される衣服の色や素材などに応じて、予め何れの衣服IDに対応づけられるか分類され、第1情報に格納されているものとする。   The feature information is information indicating the feature of the fitting person. The feature information is classified in advance as to which clothing ID is associated with the color or material of the clothing specified by the clothing ID, and is stored in the first information.

特徴情報は、具体的には、試着者の外観的特徴、および内面的特徴の少なくとも一方を含む。内面的特徴は、試着者の趣向などを示す。なお、内面的特徴は、更に他の特徴を示す形態であってもよい。   Specifically, the characteristic information includes at least one of an appearance characteristic of the fitting person and an internal characteristic. The internal features indicate the taste of the try-on. In addition, the form which shows another feature may be sufficient as an internal feature.

外観的特徴は、例えば、試着者の体型を示す体型パラメータ、試着者の特徴色、試着者の年齢層などである。なお、外観的特徴は、更に、他の特徴を示す形態であってもよい。   The appearance features include, for example, a body shape parameter indicating the body shape of the try-on, a feature color of the try-on, and the age group of the try-on. The appearance feature may further be a form showing another feature.

試着者の特徴色は、試着者の肌の色、眼の色、髪の毛の色、などに応じて予め対応づけた、該試着者に似合う色を示す。似合う色とは、該試着者の肌や眼や髪の毛などの色と同じまたは類似する色相などである。特徴色は、米国や日本では、「パーソナルカラー」と称されるものに相当する。なお、特徴色は、これらの色に限定されない。例えば、特徴色は、試着者の好みの色であってもよい。   The characteristic color of the try-on indicates a color that matches the try-in in advance according to the skin color, eye color, hair color, and the like of the try-on. The suitable color is a hue that is the same as or similar to the color of the wearer's skin, eyes, hair, or the like. The characteristic color corresponds to what is called “personal color” in the United States and Japan. Note that the characteristic colors are not limited to these colors. For example, the characteristic color may be a color desired by the try-on.

体型パラメータは、体型を示す情報である。体型パラメータは、1または複数のパラメータを含む。パラメータは、人体の1または複数の箇所の採寸値である。なお、採寸値は、実際に採寸した値に限定されず、採寸値を推測した値や、採寸値に相当する値(例えば、ユーザが任意に入力した値など)を含む。   The body type parameter is information indicating the body type. The body type parameter includes one or more parameters. The parameter is a measurement value of one or a plurality of locations on the human body. The measuring value is not limited to the actually measured value, and includes a value estimated from the measuring value and a value corresponding to the measuring value (for example, a value arbitrarily input by the user).

具体的には、体型パラメータは、胸囲、胴囲、腰囲、身長、肩幅、及び体重の少なくとも1つのパラメータを含む。なお、体型パラメータに含まれるパラメータは、これらのパラメータに限定されない。例えば、体型パラメータは、袖丈、股下、などのパラメータを更に含んでもよい。   Specifically, the body type parameter includes at least one parameter of chest measurement, waist measurement, waist measurement, height, shoulder width, and weight. The parameters included in the body type parameters are not limited to these parameters. For example, the body shape parameter may further include parameters such as a sleeve length and an inseam.

衣服画像は、対応する衣服IDによって特定される衣服の画像である。本実施の形態では、衣服画像は、人体または人体形状の模型などに衣服を着用させた状態を示す画像である場合を説明する。なお、第1情報は、衣服画像として、上記模型などに着用させた状態を示す第1衣服画像と、床面等に衣服を、形状を整えて載置した状態を示す第2衣服画像と、を衣服画像として含む形態であってもよい。すなわち、第1衣服画像は、着用された状態の衣服の画像である。第2衣服画像は、形状を整えて載置された状態の衣服の画像である。   The clothes image is an image of clothes specified by the corresponding clothes ID. In the present embodiment, a case will be described in which a clothing image is an image showing a state in which clothing is worn on a human body or a human body shape model. The first information includes, as a clothing image, a first clothing image indicating a state worn on the model and the like, a second clothing image indicating a state in which the clothing is placed on a floor surface or the like, May be included as a clothing image. That is, the first clothing image is an image of the worn clothing. The second clothes image is an image of clothes in a state where the shape is placed and placed.

重畳順とは、対応する衣服IDによって特定される衣服を人体等に重ねて着用したときに、該衣服が、人体に最も接する下位階層側から人体から離れる上位階層側の各階層の内、何れの階層に着用するか、を示す情報である。第1情報には、対応する衣服IDによって特定される衣服の、推奨される重畳順が予め登録されている。   The superposition order means that when the clothes specified by the corresponding clothes ID are worn on the human body or the like, each of the layers on the upper layer side where the clothing is separated from the human body from the lower layer side closest to the human body. It is the information which shows whether it wears in the hierarchy of. In the first information, a recommended superposition order of clothes specified by the corresponding clothes ID is registered in advance.

位置合わせ情報は、対応する衣服画像の、ユーザに着用されたときにユーザの体型を特徴づける部分の輪郭を示す。例えば、位置合わせ情報は、対応する衣服画像における、人体の肩部、首部、胸部、脇部、膝部、大腿部、頭部、足首部、などに対応する部分の輪郭を示す。中でも、位置合わせ情報には、衣服画像における人体の肩部に相当する部分の輪郭を用いることが好ましいが、これに限定されない。   The alignment information indicates the outline of the portion of the corresponding clothing image that characterizes the user's body shape when worn by the user. For example, the alignment information indicates a contour of a part corresponding to a shoulder part, a neck part, a chest part, a side part, a knee part, a thigh part, a head part, an ankle part, and the like of a human body in a corresponding clothing image. Among them, for the alignment information, it is preferable to use the contour of the portion corresponding to the shoulder portion of the human body in the clothing image, but it is not limited to this.

姿勢情報は、衣服画像の取得時の衣服の着用対象である被写体の姿勢を示す情報である。詳細には、姿勢情報は、上記第1衣服画像の取得時の被写体の姿勢を示す情報である。姿勢情報は、衣服画像(第1衣服画像)を撮影する撮影装置に対する、被写体の向きや動き等を示す。   The posture information is information indicating the posture of the subject that is the subject of the clothing at the time of acquiring the clothing image. Specifically, the posture information is information indicating the posture of the subject when the first clothes image is acquired. The posture information indicates the orientation, movement, and the like of the subject with respect to the photographing apparatus that photographs the clothing image (first clothing image).

被写体の向きとは、衣服画像の取得時の、該衣服画像の衣服を着用した被写体の撮影装置に対する向きを示す。例えば、被写体の向きとしては、顔及び身体が撮影装置に対して正面を向いている正面方向、顔及び身体が撮影装置に対して側面を向いている側面方向、正面方向及び側面方向以外の他の方向等がある。   The orientation of the subject indicates the orientation of the subject wearing the clothing of the clothing image with respect to the photographing device when acquiring the clothing image. For example, the direction of the subject is other than the front direction in which the face and the body are facing the front with respect to the photographing apparatus, the side direction in which the face and the body are facing the side with respect to the photographing apparatus, the front direction, and the side direction. There are directions.

なお、本実施の形態では、第1情報は、1つの衣服IDに対して、1つの特徴情報と、1つの重畳順と、複数の姿勢情報と、を対応づけている。そして、さらに、第1情報は、複数の姿勢情報の各々に対応する、複数の衣服画像の各々と、各衣服画像に対応する位置合わせ情報と、を対応づけている。   In the present embodiment, the first information associates one piece of feature information, one superposition order, and a plurality of posture information with one piece of clothing ID. Further, the first information associates each of the plurality of clothing images corresponding to each of the plurality of posture information with the alignment information corresponding to each clothing image.

なお、第1情報は、更に、衣服に関する他の情報を更に対応づけた情報であってもよい。例えば、第1情報は、対応する衣服の着用対象として想定される人物の、性別、年齢層、衣服のサイズ(既製服のサイズ)、などを更に対応づけた情報であってもよい。また、第1情報は、対応する衣服画像に対応する衣服属性情報を更に対応づけた情報であってもよい。衣服属性情報は、対応する衣服IDによって特定される衣服の、販売店、製造元、ブランド名などを示す。   The first information may be information further associated with other information related to clothes. For example, the first information may be information that further associates the gender, age group, size of clothes (size of ready-made clothes), and the like of a person assumed to be a target of wearing the corresponding clothes. Further, the first information may be information in which clothing attribute information corresponding to the corresponding clothing image is further associated. The clothing attribute information indicates a store, a manufacturer, a brand name, and the like of the clothing specified by the corresponding clothing ID.

次に、第2情報について説明する。   Next, the second information will be described.

第2情報は、ユーザによる第1端末24の操作によって入力された、試着対象の衣服画像の衣服IDを含む情報である。仮想試着装置10は、第1端末24から第2情報を受信し、記憶部14に格納する。   The second information is information including the clothing ID of the clothing image to be tried on, which is input by the user operating the first terminal 24. The virtual try-on device 10 receives the second information from the first terminal 24 and stores it in the storage unit 14.

図5は、第2情報のデータ構造の一例を示す図である。第2情報は、送信日時と、店舗IDと、試着者IDと、組合せIDと、1または複数の衣服IDと、を対応づけた情報である。   FIG. 5 is a diagram illustrating an example of a data structure of the second information. The second information is information in which a transmission date / time, a store ID, a try-on ID, a combination ID, and one or more clothes IDs are associated with each other.

送信日時は、第1端末24から仮想試着装置10へ第2情報を送信した送信日時を示す。店舗IDは、仮想試着装置10の配置されている領域(本実施の形態では店舗A)を識別する情報である。試着者IDは、試着者を一意に識別する情報である。組合せIDは、試着対象の1または複数の衣服IDの組合せを識別する情報である。組合せIDによって特定される組合せの衣服の衣服IDとして、第2情報は、例えば、衣服の種類ごとの1または複数の衣服IDを含む。図5に示す例では、第2情報は、各組合せIDに対応する衣服IDとして、衣服の種類「トップス」に対応する衣服IDと、衣服の種類「インナー」に対応する衣服IDと、衣服の種類「ボトムス」に対応する衣服IDと、を含む。   The transmission date / time indicates the transmission date / time when the second information is transmitted from the first terminal 24 to the virtual try-on device 10. The store ID is information for identifying an area where the virtual try-on device 10 is arranged (store A in the present embodiment). The try-on ID is information that uniquely identifies the try-on. The combination ID is information for identifying a combination of one or more clothes IDs to be tried on. As the clothes ID of the combination of clothes specified by the combination ID, the second information includes, for example, one or more clothes IDs for each type of clothes. In the example illustrated in FIG. 5, the second information includes a clothing ID corresponding to each combination ID, a clothing ID corresponding to the clothing type “tops”, a clothing ID corresponding to the clothing type “inner”, and a clothing ID. And a clothing ID corresponding to the type “bottoms”.

すなわち、試着者IDおよび組合せIDに対応する、複数の衣服IDは、試着者によって選択された、組合せて試着する試着対象の複数の衣服の衣服画像を示す。   That is, the plurality of clothes IDs corresponding to the try-on ID and the combination ID indicate clothes images of a plurality of clothes to be tried on in combination selected by the try-on.

図3に戻り、仮想試着装置10の制御部12は、第1取得部12Aと、第1表示制御部12Bと、受付部12Cと、生成部12Dと、第2表示制御部12Eと、第2取得部12Fと、通信部12Gと、出力部12Jと、更新部12Kと、を含む。   Returning to FIG. 3, the control unit 12 of the virtual try-on device 10 includes a first acquisition unit 12A, a first display control unit 12B, a reception unit 12C, a generation unit 12D, a second display control unit 12E, and a second display unit. An acquisition unit 12F, a communication unit 12G, an output unit 12J, and an update unit 12K are included.

第1取得部12A、第1表示制御部12B、受付部12C、生成部12D、第2表示制御部12E、第2取得部12F、通信部12G、出力部12J、および更新部12Kの一部またはすべては、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。   Part of the first acquisition unit 12A, the first display control unit 12B, the reception unit 12C, the generation unit 12D, the second display control unit 12E, the second acquisition unit 12F, the communication unit 12G, the output unit 12J, and the update unit 12K For example, all of them may be realized by causing a processing device such as a CPU (Central Processing Unit) to execute a program, that is, by software, or by hardware such as an IC (Integrated Circuit), You may implement | achieve combining software and hardware.

第1取得部12Aは、試着者の特徴情報を取得する。本実施の形態では、第1取得部12Aは、試着者の特徴情報を第1端末24から取得する。試着者が、第1端末24を操作することで特徴情報を入力すると、第1端末24が仮想試着装置10へ特徴情報を送信する(詳細後述)。これにより、第1取得部12Aは、特徴情報を取得する。   12 A of 1st acquisition parts acquire the feature information of a try-on person. In the present embodiment, the first acquisition unit 12 </ b> A acquires the feature information of the try-on from the first terminal 24. When the fitting person inputs the feature information by operating the first terminal 24, the first terminal 24 transmits the feature information to the virtual fitting device 10 (details will be described later). Thereby, the first acquisition unit 12A acquires feature information.

第1表示制御部12Bは、第1情報における、第1取得部12Aで取得した特徴情報に対応する衣服画像を、第1端末24の第1表示部24C(詳細後述、図6参照)に表示する。第1表示部24Cは、詳細は後述するが、第1端末24に設けられた表示部である。   The first display control unit 12B displays the clothing image corresponding to the feature information acquired by the first acquisition unit 12A in the first information on the first display unit 24C (details will be described later, see FIG. 6) of the first terminal 24. To do. The first display unit 24C is a display unit provided in the first terminal 24, details of which will be described later.

詳細には、第1表示制御部12Bは、第1情報における、第1取得部12Aで取得した特徴情報に対応する衣服画像を、第1端末24へ送信することで、第1表示部24Cへの表示を制御する。   Specifically, the first display control unit 12B transmits, to the first display unit 24C, the clothing image corresponding to the feature information acquired by the first acquisition unit 12A in the first information to the first terminal 24. Control the display of.

なお、図4を用いて説明したように、第1情報には、1つの特徴情報に対して、複数の姿勢情報と、複数の姿勢情報の各々に対応する衣服画像と、が対応づけられている。このため、第1表示制御部12Bは、取得した特徴情報に対応する複数の姿勢情報の内、予め定めた姿勢情報(例えば、正面方向)に対応する衣服画像を読取り、第1端末24へ送信すればよい。   As described with reference to FIG. 4, in the first information, a plurality of posture information and a clothing image corresponding to each of the plurality of posture information are associated with one piece of feature information. Yes. For this reason, the first display control unit 12B reads a clothing image corresponding to predetermined posture information (for example, the front direction) from among a plurality of posture information corresponding to the acquired feature information, and transmits the clothing image to the first terminal 24. do it.

また、第1情報が、衣服画像として、模型などに着用させた状態を示す第1衣服画像と、床面等に衣服の形状を整えて載置した状態を示す第2衣服画像と、を含む形態である場合、第1表示制御部12Bは、特徴情報、および姿勢情報「表面」に対応する、第2衣服画像を読取り、第1端末24へ送信すればよい。この場合、仮想試着装置10は、形状を整えて載置した状態を示す第2衣服画像を、第1端末24に表示させることができる。   Further, the first information includes a first clothing image indicating a state worn on a model or the like as a clothing image, and a second clothing image indicating a state in which the shape of the clothing is arranged and placed on a floor surface or the like. In the case of the form, the first display control unit 12 </ b> B may read the second clothing image corresponding to the feature information and the posture information “surface” and transmit it to the first terminal 24. In this case, the virtual try-on device 10 can cause the first terminal 24 to display a second clothing image indicating a state in which the virtual fitting device 10 is placed with the shape adjusted.

なお、第1表示制御部12Bは、第1取得部12で取得した特徴情報に対応する衣服属性情報を、第1端末24の第1表示部24Cに表示してもよい。   The first display control unit 12B may display the clothing attribute information corresponding to the feature information acquired by the first acquisition unit 12 on the first display unit 24C of the first terminal 24.

なお、第1表示制御部12Bは、仮想試着システム1側で推奨する推奨画像を、更に第1表示部24Cに表示することが好ましい。推奨画像は、第1情報に登録されている複数の衣服画像の内、予め定めた抽出条件に応じて抽出された、衣服画像の推奨画像である。なお、推奨画像は、複数の衣服画像の組合せによって示される、推奨組合せ画像であってもよい。推奨組合せ画像は、複数の衣服画像の組合せによって示される。例えば、推奨組合せ画像は、複数の衣服の種類の各々に属する衣服画像を組み合わせたものである。第1表示制御部12Bは、第3サーバ装置30から推奨組合せ画像を取得し、第1表示部24Cに表示させる。なお、以下では、一例として、推奨画像は、推奨組合せ画像である場合を説明する。しかし、推奨画像は、衣服画像の組合せに限定されない。   In addition, it is preferable that the first display control unit 12B further displays a recommended image recommended on the virtual try-on system 1 side on the first display unit 24C. The recommended image is a recommended image of a clothing image extracted according to a predetermined extraction condition among a plurality of clothing images registered in the first information. The recommended image may be a recommended combination image indicated by a combination of a plurality of clothes images. The recommended combination image is indicated by a combination of a plurality of clothes images. For example, the recommended combination image is a combination of clothes images belonging to each of a plurality of clothes types. The first display control unit 12B acquires a recommended combination image from the third server device 30 and displays the recommended combination image on the first display unit 24C. In the following, a case where the recommended image is a recommended combination image will be described as an example. However, the recommended image is not limited to a combination of clothes images.

抽出条件は、例えば、試着者の特徴情報、試着者が過去に選択した衣服画像、他の試着者が過去に選択した衣服画像、衣服を販売する販売店が推奨する衣服画像、試着者が予め選択した他の試着者の推奨する衣服画像、試着者の体型に一致または類似する体型に応じた衣服画像、試着者の嗜好に一致または類似する嗜好の他の試着者が過去に選択した衣服画像、の少なくとも1つである。他の試着者は、例えば、試着者の特徴情報に、一致または類似する特徴情報を有する他の試着者であることが好ましい。また、試着者が予め選択した他の試着者とは、例えば、試着者の好みの有名人や著名人などである。   The extraction conditions are, for example, the feature information of the try-on, the clothing image selected by the try-in in the past, the clothing image selected by the other try-in in the past, the clothing image recommended by the store selling the clothing, Clothing images recommended by other selected tryers, clothing images that match or similar to the body shape of the try-on, clothing images that have been previously selected by other try-on users with preferences that match or similar to the taster's preferences , At least one of It is preferable that the other try-on is, for example, another try-on who has feature information that matches or is similar to the feature information of the try-on. Further, the other try-onrs selected in advance by the try-on are, for example, celebrities and celebrities that are preferred by the try-on.

推奨組合せ画像は、後述する第3サーバ装置30によって生成される(詳細後述)。   The recommended combination image is generated by a third server device 30 described later (details will be described later).

受付部12Cは、第1端末24の第1表示部24Cに表示された衣服画像の内、試着対象の衣服の衣服画像の選択を試着者から受け付ける。本実施の形態では、受付部12Cは、第1端末24の試着者による操作によって選択された衣服画像の衣服IDを、第1端末24から受け付けることで、試着者による選択を受け付ける。具体的には、受付部12Cは、上述した第2情報を第1端末24から受け付けることで、試着対象の衣服の衣服画像の選択を受け付ける。   The accepting unit 12C accepts selection of a clothing image of a clothing to be tried on from among the clothing images displayed on the first display unit 24C of the first terminal 24 from the try-on person. In the present embodiment, the accepting unit 12C accepts the selection by the try-on by accepting, from the first terminal 24, the clothing ID of the clothing image selected by the operation by the try-on of the first terminal 24. Specifically, the reception unit 12 </ b> C receives the second information described above from the first terminal 24, thereby receiving the selection of the clothing image of the clothing to be tried on.

なお、受付部12Cで受け付ける、試着対象の選択された衣服画像の衣服IDは、1つに限定されず、複数であってもよい。すなわち、受付部12Cは、組み合わせて試着する対象の複数の衣服画像の選択を、試着者から受付けても良い。この場合、受付部12Cは、複数の衣服IDと、複数の衣服IDによって特定される複数の衣服画像の組合せを示す組合せIDと、試着者IDと、送信日時と、店舗IDと、を含む第2情報を第1端末24から受付ければよい。   Note that the clothing ID of the clothing image selected for the try-on that is accepted by the accepting unit 12C is not limited to one and may be plural. That is, the reception unit 12C may receive selection of a plurality of clothes images to be tried on in combination from a try-on person. In this case, the reception unit 12C includes a plurality of clothes IDs, a combination ID indicating a combination of a plurality of clothes images specified by the plurality of clothes IDs, a try-on ID, a transmission date and time, and a store ID. 2 information may be received from the first terminal 24.

また、受付部12Cは、試着対象の衣服の衣服属性情報の選択を、試着者から受付けてもよい。この場合、受付部12Cは、第1端末24の試着者による操作によって選択された衣服属性情報に対応する衣服IDを、第1端末24から受け付けることで、試着者による選択を受け付ける。具体的には、受付部12Cは、上述した第2情報を第1端末24から受け付けることで、試着対象の衣服の衣服属性情報の選択を受け付ける。   In addition, the reception unit 12C may receive selection of clothes attribute information of clothes to be tried on from a try-onr. In this case, the accepting unit 12C accepts the selection by the try-on by accepting from the first terminal 24 the clothing ID corresponding to the clothing attribute information selected by the operation by the try-on of the first terminal 24. Specifically, the reception unit 12 </ b> C receives the second information described above from the first terminal 24, thereby receiving selection of clothing attribute information of clothes to be tried on.

第2取得部12Fは、試着者の体型を示す体型パラメータを取得する。   The second acquisition unit 12F acquires a body type parameter indicating the body type of the try-on.

本実施の形態では、第2取得部12Fは、試着者の体型パラメータをデプスマップから算出することで、体型パラメータを取得する。   In the present embodiment, the second acquisition unit 12F acquires the body parameters by calculating the body parameters of the try-on from the depth map.

詳細には、第2取得部12Fは、まず、第2撮影部20Bから取得したデプスマップから、人物領域を抽出することで、試着者のデプスマップを取得する。   Specifically, the second acquisition unit 12F first acquires the depth map of the try-on by extracting a person region from the depth map acquired from the second imaging unit 20B.

第2取得部12Fは、例えば、デプスマップを構成する各画素の3次元位置のうち、奥行き方向の距離について閾値を設定することで、人物領域を抽出する。たとえば、第2撮影部20Bのカメラ座標系において、第2撮影部20Bの位置を原点とし、Z軸正方向が、第2撮影部20Bの原点から被写体(試着者)方向に伸びるカメラの光軸であるとする。この場合、デプスマップを構成する各画素の内、奥行き方向(Z軸方向)の位置座標が予め定めた閾値(例えば、1mを示す値)以上の画素を除外する。これにより、第2取得部12Fは、第2撮影部20Bから該閾値の範囲内に存在する人物領域の画素からなるデプスマップ、すなわち、試着者のデプスマップを得る。   For example, the second acquisition unit 12F extracts a person region by setting a threshold value for the distance in the depth direction among the three-dimensional positions of the pixels constituting the depth map. For example, in the camera coordinate system of the second imaging unit 20B, the optical axis of the camera in which the position of the second imaging unit 20B is the origin, and the positive Z-axis direction extends from the origin of the second imaging unit 20B toward the subject (try-on). Suppose that In this case, of the pixels constituting the depth map, pixels whose position coordinates in the depth direction (Z-axis direction) are equal to or greater than a predetermined threshold (for example, a value indicating 1 m) are excluded. Thereby, the second acquisition unit 12F obtains a depth map composed of pixels of the person area existing within the threshold range from the second imaging unit 20B, that is, a depth map of the try-on person.

次に、第2取得部12Fは、第2撮影部20Bから取得した試着者のデプスマップから、試着者の体型パラメータを算出する。   Next, the second acquisition unit 12F calculates the body parameters of the fitting person from the depth map of the fitting person acquired from the second photographing unit 20B.

例えば、第2取得部12Fは、試着者のデプスマップに、人体の三次元モデルデータ(三次元ポリゴンモデル)をあてはめる。そして、第2取得部12Fは、デプスマップと、試着者にあてはめた三次元モデルデータと、を用いて、体型パラメータに含まれる各パラメータの値(例えば、身長、胸囲、胴囲、腰囲、肩幅、などの各々の値)を算出する。このようにして、第2取得部12Fは、試着者の体型パラメータを取得する。   For example, the second acquisition unit 12F applies the three-dimensional model data (three-dimensional polygon model) of the human body to the depth map of the fitting person. Then, the second acquisition unit 12F uses the depth map and the three-dimensional model data applied to the try-on person to set the values of the parameters included in the body type parameters (for example, height, chest measurement, waist measurement, waist measurement, Each value of shoulder width, etc.) is calculated. In this way, the second acquisition unit 12F acquires the body parameters of the try-on.

なお、第2取得部12Fは、試着者による第1端末24の操作指示によって入力された、体型を示すパラメータを第1端末24から受信してもよい。これにより、第2取得部12Fは、体型パラメータを取得してもよい。   Note that the second acquisition unit 12F may receive from the first terminal 24 a parameter indicating the body shape, which is input in accordance with an operation instruction of the first terminal 24 by the try-on person. Thereby, the 2nd acquisition part 12F may acquire a body type parameter.

生成部12Dは、試着者の試着者画像と、選択された衣服画像と、の合成画像を生成する。詳細には、生成部12Dは、第1撮影部20Aで撮影された試着者画像と、選択された衣服画像と、の合成画像を生成する。なお、第1情報が、衣服画像として衣服を模型などに着用させた状態を示す第1衣服画像と、床面等に形状を整えて衣服を載置した状態を示す第2衣服画像と、を含む場合、生成部12Dは、第1衣服画像を合成画像の生成に用いることが好ましい。   The generation unit 12D generates a composite image of the try-on image of the try-on and the selected clothing image. Specifically, the generation unit 12D generates a composite image of the try-on image captured by the first image capturing unit 20A and the selected clothing image. Note that the first information includes a first clothing image indicating a state in which clothing is worn as a clothing image on a model and the like, and a second clothing image indicating a state in which the clothing is placed on a floor surface or the like. If included, the generation unit 12D preferably uses the first clothing image for generation of the composite image.

生成部12Dは、選択された衣服画像を、取得した体型パラメータに応じて補正した補正画像を生成することが好ましい。そして、生成部12Dは、試着者画像上に、体型パラメータに応じて補正した補正画像を重畳することで、合成画像を生成する。   The generation unit 12D preferably generates a corrected image obtained by correcting the selected clothing image in accordance with the acquired body parameter. Then, the generation unit 12D generates a composite image by superimposing the corrected image corrected according to the body type parameter on the try-on person image.

このとき、生成部12Dは、試着者画像上における、人体の特徴領域に相当する部分の輪郭(例えば、肩部、腰部、など)と、重畳対象の衣服画像(または補正画像)に対応する位置合わせ情報によって示される輪郭と、が一致するように位置合わせを行ない、試着者画像上に、衣服画像(または補正画像)を重畳した合成画像を生成する。このため、衣服画像は、試着者画像の身体の輪郭に沿って位置合わせされた上で合成される。   At this time, the generation unit 12D has a position corresponding to the outline (for example, shoulder, waist, etc.) of the portion corresponding to the characteristic region of the human body on the try-on image and the clothing image (or correction image) to be superimposed. Alignment is performed so that the contour indicated by the alignment information matches, and a composite image in which a clothing image (or a correction image) is superimposed on the try-on image is generated. For this reason, the clothes image is synthesized after being aligned along the body contour of the try-on image.

なお、生成部12Dは、試着者画像によって表される試着者の姿勢に対応する姿勢情報の衣服画像を重畳した合成画像を生成することが好ましい。   In addition, it is preferable that the production | generation part 12D produces | generates the synthesized image which superimposed the clothing image of the attitude | position information corresponding to the attitude of the try-on represented by the try-on person image.

この場合、生成部12Dは、まず、第2撮影部20Bから取得した試着者のデプスマップから、試着者の姿勢情報を算出する。   In this case, the generation unit 12D first calculates the posture information of the try-on from the depth map of the try-on acquired from the second photographing unit 20B.

まず、生成部12Dは、取得した試着者のデプスマップを構成する画素毎に、人体の骨格位置を示す、第1骨格情報を生成する。生成部12Dは、デプスマップに人体形状を当てはめることで第1骨格情報を生成する。   First, the generation unit 12D generates first skeleton information indicating the skeleton position of the human body for each pixel constituting the acquired depth map of the fitting person. The generation unit 12D generates first skeleton information by applying a human body shape to the depth map.

そして、生成部12Dは、生成した第1骨格情報の各画素の画素位置の座標系(すなわち、第2撮影部20Bの座標系)を、第1撮影部20Aで取得した試着者の試着者画像の各画素位置の座標系(すなわち、第1撮影部20Aの座標系)に変換する。この座標変換は、公知のキャリブレーションを行うことにより行う。これにより、生成部12Dは、座標変換後の第1骨格情報を、骨格情報として生成する。   Then, the generation unit 12D obtains the try-on image of the try-on obtained by the first imaging unit 20A, with the coordinate system of the pixel position of each pixel of the generated first skeleton information (that is, the coordinate system of the second imaging unit 20B). To the coordinate system of each pixel position (that is, the coordinate system of the first imaging unit 20A). This coordinate conversion is performed by performing known calibration. Accordingly, the generation unit 12D generates the first skeleton information after coordinate conversion as skeleton information.

そして、生成部12Dは、生成した骨格情報から、試着者の姿勢情報を算出する。生成部12Dは、試着者の骨格情報によって示される各関節の位置から、公知の方法により、試着者の向き(姿勢情報)を算出すればよい。   Then, the generation unit 12D calculates the try-on's posture information from the generated skeleton information. The generation unit 12D may calculate the orientation (posture information) of the fitting person from the position of each joint indicated by the skeleton information of the fitting person by a known method.

なお、生成部12Dは、試着者のデプスマップから、OpenNI(Open Natural Interaction)などを用いて、試着者の姿勢情報を算出してもよい。   Note that the generation unit 12D may calculate the posture information of the try-on from the depth map of the try-on using Open NI (Open Natural Interaction) or the like.

そして、生成部12Dは、第1端末24から受け付けた衣服IDごとに、各々の衣服IDに対応する衣服画像の内、算出した試着者の姿勢情報に対応する衣服画像を合成対象として読取る。そして、生成部12Dは、該姿勢情報の算出に用いたデプスマップと同じタイミングで撮影した試着者画像上に、該姿勢情報に対応する、試着者によって選択された衣服画像(補正画像)を合成することで、合成画像を生成する。なお、本実施の形態では、第2表示部18の前に対峙した試着者が、鏡を視認する感覚で合成画像を確認可能となるように、生成部12Dは、試着者画像を鏡像反転させた画像に、選択された衣服画像(補正画像)を構成することで、合成画像を生成する。   Then, for each clothing ID received from the first terminal 24, the generation unit 12D reads, as a composition target, a clothing image corresponding to the calculated fitting person's posture information among the clothing images corresponding to each clothing ID. Then, the generation unit 12D synthesizes the clothes image (corrected image) selected by the try-on person corresponding to the posture information on the try-on image taken at the same timing as the depth map used for calculating the posture information. By doing so, a composite image is generated. In the present embodiment, the generation unit 12D reverses the image of the fitting person so that the fitting person who confronts the second display unit 18 can confirm the composite image as if he / she visually recognizes the mirror. A composite image is generated by forming the selected clothing image (corrected image) in the selected image.

また、第1端末24から受け付けた第2情報に、複数の衣服IDが含まれる場合、すなわち、試着者が、組合せて試着する複数の衣服画像を選択した場合には、生成部12Dは、選択された複数の衣服画像を、上記と同様にして試着者画像に重畳した合成画像を生成すればよい。   In addition, when the second information received from the first terminal 24 includes a plurality of clothes IDs, that is, when the wearer selects a plurality of clothes images to be tried on in combination, the generation unit 12D selects What is necessary is just to produce | generate the synthesized image which superimposed the several clothes image made on the try-on person image like the above.

この場合、生成部12Dは、選択された複数の衣服IDに対応する重畳順を第1情報から読取る。そして、生成部12Dは、試着者画像上に、試着対象として選択された複数の衣服IDの各々に対応する衣服画像を、対応する重畳順に従って順に重畳する。このとき、生成部12Dは、重畳対象の各画像(試着者画像および衣服画像)の各々について、下位階層側の画像(試着者画像および衣服画像)における、上位階層側に重畳される画像(衣服画像)との重複領域を除去した上で、下位階層側から上位階層側に向かって順に重畳する。これによって、生成部12Dは、合成画像を生成する。   In this case, the generation unit 12D reads the superposition order corresponding to the selected plurality of clothes IDs from the first information. Then, the generation unit 12D sequentially superimposes the clothing images corresponding to each of the plurality of clothing IDs selected as the try-on objects on the try-on image according to the corresponding superposition order. At this time, the generation unit 12D, for each of the images to be superimposed (the try-on image and the clothing image), the image (the clothing) that is superimposed on the upper layer side in the lower-layer image (the try-on image and the clothing image). The overlapping area with the image) is removed, and the image is superimposed in order from the lower layer side to the upper layer side. Thereby, the generation unit 12D generates a composite image.

なお、生成部12Dは、仮想試着装置10に設けられた図示を省略する入力部などの試着者による操作指示によって重畳順の変更が指示されると、指示された重畳順に沿って再度合成画像を生成してもよい。   The generation unit 12D, when instructed to change the superposition order by an operation instruction by a wearer such as an input unit (not shown) provided in the virtual try-on device 10, again generates a composite image along the instructed superposition order. It may be generated.

この場合、例えば、試着者は、仮想試着装置10に設けられた図示を省略する入力部を操作することで、重畳順の変更対象に衣服画像および重畳順を入力する。制御部12の生成部12Dは、入力部から受け付けた、衣服画像および新たな重畳順に従って、再度、合成画像を生成すればよい。   In this case, for example, the try-on inputs a clothing image and a superposition order to the superposition order change target by operating an input unit (not shown) provided in the virtual try-on device 10. The generation unit 12D of the control unit 12 may generate the composite image again according to the clothes image and the new superposition order received from the input unit.

なお、生成部12Dは、重畳順の変更の指示を、他の外部装置から受信してもよいし、試着者による手や足の動き等による予め定めた重畳順の変更指示を示すジェスチャーに応じて、重畳順を変更した合成画像を生成してもよい。この場合、例えば、生成部12Dは、第1撮影部20Aで取得した試着者画像を解析することで、試着者が予め定めた変更指示を示すジェスチャーを行ったか否かを判断すればよい。   Note that the generation unit 12D may receive an instruction to change the superimposition order from another external device, or according to a gesture indicating a predetermined superposition order change instruction based on movement of a hand or foot by a wearer. Thus, a composite image in which the superposition order is changed may be generated. In this case, for example, the generation unit 12D may determine whether or not the fitting person has performed a gesture indicating a predetermined change instruction by analyzing the fitting person image acquired by the first photographing unit 20A.

第2表示制御部12Eは、合成画像を第2表示部18に表示する。このため、図2に示すように、第2表示部18には、試着者画像40上に、衣服画像42が重畳された合成画像Wが表示される。また、この合成画像Wは、上述したように、試着者画像40の肩部等の特徴領域と、衣服画像42の肩部などの特徴領域と、が一致するように位置合わせされて合成されたものである。また、この合成画像は、試着者によって選択された試着対象の衣服の衣服画像を、試着者の体型パラメータに応じて補正した後に、試着者画像40上に重畳したものである。このため、より自然な見え方の合成画像Wを提供することができる。   The second display control unit 12E displays the composite image on the second display unit 18. Therefore, as illustrated in FIG. 2, the second display unit 18 displays a composite image W in which the clothing image 42 is superimposed on the try-on image 40. Further, as described above, the synthesized image W is synthesized by being aligned so that the feature region such as the shoulder of the try-on image 40 and the feature region such as the shoulder of the clothing image 42 coincide with each other. Is. In addition, this composite image is obtained by correcting the clothing image of the clothing to be tried selected selected by the try-on according to the body parameter of the try-on, and then superimposing it on the try-on image 40. Therefore, it is possible to provide a composite image W that looks more natural.

図3に戻り、なお、第2表示制御部12Eは、合成画像を、第1端末24の第1表示部24Cに表示してもよい。この場合には、第2表示制御部12Eは、生成した合成画像を第1端末24へ送信すればよい。   Returning to FIG. 3, the second display control unit 12 </ b> E may display the composite image on the first display unit 24 </ b> C of the first terminal 24. In this case, the second display control unit 12E may transmit the generated composite image to the first terminal 24.

通信部12Gは、第1端末24、第2端末26、第1サーバ装置28、第3サーバ装置30、および第2サーバ装置32と通信するための公知の通信インターフェースである。   The communication unit 12G is a known communication interface for communicating with the first terminal 24, the second terminal 26, the first server device 28, the third server device 30, and the second server device 32.

通信部12Gは、第1送信部12Hと、第1受信部12Iと、を含む。   The communication unit 12G includes a first transmission unit 12H and a first reception unit 12I.

第1送信部12Hは、各種データを、第1端末24、第2端末26、第1サーバ装置28、第3サーバ装置30、または、第2サーバ装置32へ送信する。第1受信部12Iは、各種データを、第1端末24、第2端末26、第1サーバ装置28、第3サーバ装置30、または、第2サーバ装置32から受信する。   The first transmission unit 12H transmits various data to the first terminal 24, the second terminal 26, the first server device 28, the third server device 30, or the second server device 32. The first receiving unit 12I receives various data from the first terminal 24, the second terminal 26, the first server device 28, the third server device 30, or the second server device 32.

本実施の形態では、第1送信部12Hは、試着情報を、ネットワークを介して接続された第1サーバ装置28(サーバ装置)へ送信する。試着情報は、試着対象の衣服画像を識別する衣服ID(第1識別情報)と、衣服画像の衣服を試着する試着者の試着者ID(第2識別情報)と、を含む。なお、試着情報は、更に、衣服IDに対応する衣服画像、試着者の試着者画像、および合成画像の少なくとも1つを更に含んだ構成であってもよい。また、試着情報は、更に、他の情報を含んだ形態であってもよい。   In the present embodiment, the first transmission unit 12H transmits the fitting information to the first server device 28 (server device) connected via the network. The try-on information includes a clothes ID (first identification information) for identifying a clothes image to be tried on, and a try-on ID (second identification information) of a try-on who tries on the clothes in the clothes image. Note that the try-on information may further include at least one of a clothes image corresponding to the clothes ID, a try-on wearer image, and a composite image. Further, the fitting information may further include other information.

本実施の形態では、第1送信部12Hは、第2表示部18に合成画像が表示されているときに、試着者による撮影指示を受け付けると、表示されている合成画像に含まれる衣服画像の衣服IDと、該衣服IDに対応する衣服画像と、該合成画像に含まれる試着者画像の試着者の試着者IDと、を含む試着情報を、第1サーバ装置28へ送信する。   In the present embodiment, when the first transmission unit 12H receives a shooting instruction from a try-on while the composite image is displayed on the second display unit 18, the first transmission unit 12H receives the clothing image included in the displayed composite image. Try-on information including a clothes ID, a clothes image corresponding to the clothes ID, and a try-on ID of a try-in person included in the composite image is transmitted to the first server device 28.

第1受信部12Iは、試着情報に含まれる衣服ID(第1識別情報)および試着者ID(第2識別情報)の少なくとも一方に応じた特典情報を第1サーバ装置28から受信する。   The first receiving unit 12I receives privilege information from the first server device 28 according to at least one of a clothes ID (first identification information) and a try-on ID (second identification information) included in the fitting information.

特典情報は、例えば、インターネット上の仮想店舗で使用可能なコード情報や、衣服IDに対応する衣服の販売店で利用可能な各種の金券や割引券などのクーポンなどである。試着者は、例えば、インターネット上の仮想店舗のサイトの入力画面などを介して、コード情報を入力することで、該仮想店舗が提供する各種割引などのサービスを受けることが可能となる。また、試着者は、特典情報としてのクーポンを第1端末24に表示または紙媒体などに印刷し、対象の店舗で提示することで、割引などの各種サービスを受けることができる。   The privilege information is, for example, code information that can be used at a virtual store on the Internet, coupons such as various kinds of cash vouchers and discount coupons that can be used at a clothing store corresponding to a clothing ID. A try-on can enter services such as various discounts provided by the virtual store by inputting code information via an input screen of a virtual store site on the Internet, for example. Moreover, the try-on person can receive various services such as discount by displaying a coupon as privilege information on the first terminal 24 or printing it on a paper medium and presenting it at a target store.

また、第1受信部12Iは、試着情報に含まれる衣服IDに対応する衣服画像や、該衣服画像に対応する属性情報などを配置した、ウェブページのURL(Uniform Resource Locator)を、第1サーバ装置28から受信してもよい。また、このウェブページに、特典情報を含めた形態としてもよい。   The first receiving unit 12I also sends a URL (Uniform Resource Locator) of a web page in which a clothing image corresponding to the clothing ID included in the fitting information, attribute information corresponding to the clothing image, and the like is arranged to the first server. You may receive from the apparatus 28. FIG. Moreover, it is good also as a form which included privilege information in this web page.

出力部12Jは、第1サーバ装置28から受信した特典情報を出力する。出力部12Jは、第1サーバ装置28からURLを受信した場合には、URLを出力する。出力とは、本実施の形態では、表示、送信、および印刷、の少なくとも1つを示す。   The output unit 12J outputs the privilege information received from the first server device 28. When receiving the URL from the first server device 28, the output unit 12J outputs the URL. In this embodiment, the output indicates at least one of display, transmission, and printing.

具体的には、出力部12Jは、第1サーバ装置28から受信した特典情報やURLを、第2表示部18へ表示、第1端末24の第1表示部24Cへ表示、または、仮想試着装置10に接続された図示を省略する印刷装置で記録媒体に印刷させることで、これらの情報を出力する。   Specifically, the output unit 12J displays the privilege information and URL received from the first server device 28 on the second display unit 18, the first display unit 24C of the first terminal 24, or the virtual try-on device. The information is output by printing on a recording medium by a printing apparatus (not shown) connected to the printer 10.

なお、出力部12Jは、第1サーバ装置28から受信した、特典情報や、上記URLなどを、一次元コードや、二次元コードを示す画像に変換し、出力してもよい。二次元コードは、例えば、QRコード(登録商標)、DataMatrix、Maxi−Codeなどである。また、出力部12Jは、特典情報またはURLと、一次元コードまたは二次元コードと、の双方を出力してもよい。   The output unit 12J may convert the privilege information received from the first server device 28, the URL, or the like into an image indicating a one-dimensional code or a two-dimensional code and output the converted information. The two-dimensional code is, for example, a QR code (registered trademark), DataMatrix, Maxi-Code, or the like. The output unit 12J may output both privilege information or URL and a one-dimensional code or a two-dimensional code.

更新部12Kは、第2サーバ装置32から第1情報を受信すると、受信した第1情報を記憶部14に登録することで、記憶部14に記憶されている第1情報を更新する。すなわち、記憶部14に登録されている第1情報は、第2サーバ装置32から配信される第1情報によって更新される。   When receiving the first information from the second server device 32, the updating unit 12 </ b> K registers the received first information in the storage unit 14 to update the first information stored in the storage unit 14. That is, the first information registered in the storage unit 14 is updated with the first information distributed from the second server device 32.

次に、第1端末24について説明する。図6は、第1端末24の機能ブロック図である。   Next, the first terminal 24 will be described. FIG. 6 is a functional block diagram of the first terminal 24.

第1端末24は、入力部24A、記憶部24B、第1表示部24C、および制御部24Dを備える。入力部24A、記憶部24B、および第1表示部24Cは、制御部24Dに信号授受可能に接続されている。   The first terminal 24 includes an input unit 24A, a storage unit 24B, a first display unit 24C, and a control unit 24D. The input unit 24A, the storage unit 24B, and the first display unit 24C are connected to the control unit 24D so as to exchange signals.

第1表示部24Cは、各種画像などを表示する公知の表示装置である。本実施の形態では、第1表示部24Cは、試着者に対して、試着対象の衣服画像の一覧を選択可能に表示する。   The first display unit 24C is a known display device that displays various images. In the present embodiment, the first display unit 24C displays a list of clothing images to be tried on for the try-on person so that the list can be selected.

入力部24Aは、ユーザからの入力を受け付ける。入力部24Aは、ユーザが各種の操作入力を行うための機器である。入力部24Aには、例えば、マウス、ボタン、リモコン、キーボード、マイク等の音声認識装置、及び画像認識装置等の1または複数を組み合せたもの等が挙げられる。   The input unit 24A receives an input from the user. The input unit 24A is a device for the user to perform various operation inputs. Examples of the input unit 24A include a combination of one or more of a voice recognition device such as a mouse, a button, a remote control, a keyboard, and a microphone, and an image recognition device.

本実施の形態では、入力部24Aは、試着者の試着者IDの入力や、試着対象の衣服画像の選択や、試着者の特徴情報を特定するための各種情報などの入力を、ユーザから受け付ける。   In the present embodiment, the input unit 24A accepts input from the user such as input of a try-on's try-on ID, selection of a clothing image to be tried-on, and various information for specifying feature information of the try-in. .

なお、入力部24Aおよび第1表示部24Cは、一体的に構成されていてもよい。具体的には、入力部24Aおよび第1表示部24Cは、入力機能及び表示機能の双方を備えたUI(User Interface)部として構成されていてもよい。UI部には、タッチパネル付LCD(Liquid Crystal Display)等がある。   The input unit 24A and the first display unit 24C may be configured integrally. Specifically, the input unit 24A and the first display unit 24C may be configured as a UI (User Interface) unit having both an input function and a display function. The UI unit includes an LCD (Liquid Crystal Display) with a touch panel.

記憶部24Bは、各種データを記憶する。なお、本実施の形態では、記憶部24Bは、第1情報を記憶しない形態を説明する。しかし、記憶部24Bは、仮想試着装置10の記憶部14と同様に、第1情報を記憶した形態であってもよい。   The storage unit 24B stores various data. In the present embodiment, the storage unit 24B will be described with respect to a mode in which the first information is not stored. However, similarly to the storage unit 14 of the virtual try-on device 10, the storage unit 24B may be configured to store the first information.

この場合、仮想試着装置10の記憶部14と、第1端末24の記憶部24Bと、の各々に格納されている第1情報の内容が同じとなるように、所定時間毎に、下記処理を行う事が好ましい。   In this case, the following processing is performed at predetermined time intervals so that the contents of the first information stored in the storage unit 14 of the virtual try-on device 10 and the storage unit 24B of the first terminal 24 are the same. It is preferable to do so.

例えば、第2サーバ装置32による仮想試着装置10および第1端末24への第1情報の配信や、仮想試着装置10および第1端末24間で公知のミラーリング処理などを、所定時間ごとに行うことが好ましい。なお、第1情報を格納している各装置(例えば、仮想試着装置10や第1端末24など)が、第1情報を用いた各種処理を実行する前に、第2サーバ装置32から最新の第1情報を取得し、更新してもよい。   For example, the distribution of the first information to the virtual try-on device 10 and the first terminal 24 by the second server device 32 and a known mirroring process between the virtual try-on device 10 and the first terminal 24 are performed at predetermined time intervals. Is preferred. In addition, before each apparatus (for example, the virtual try-on device 10, the 1st terminal 24, etc.) which stored 1st information performs the various processes using 1st information, it is the latest from the 2nd server apparatus 32. The first information may be acquired and updated.

制御部24Dは、受付部24Eと、表示制御部24Fと、通信部24Gと、を含む。受付部24E、表示制御部24F、および通信部24Gの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。   The control unit 24D includes a reception unit 24E, a display control unit 24F, and a communication unit 24G. Part or all of the reception unit 24E, the display control unit 24F, and the communication unit 24G may be realized by causing a processing device such as a CPU to execute a program, that is, by software or hardware such as an IC. It may be realized by a combination of software and hardware.

通信部24Gは、仮想試着装置10、第2端末26、および第3サーバ装置30などの外部装置と通信する通信インターフェースである。   The communication unit 24G is a communication interface that communicates with external devices such as the virtual try-on device 10, the second terminal 26, and the third server device 30.

受付部24Eは、入力部24Aから、ユーザによる操作指示を受け付ける。本実施の形態では、受付部24Eは、入力部24Aから、試着者ID、特徴情報、または特徴情報を特定するための各種入力項目、試着対象の衣服画像の衣服IDなどを受け付ける。   The accepting unit 24E accepts an operation instruction from the user from the input unit 24A. In the present embodiment, the accepting unit 24E accepts a try-on ID, feature information, various input items for specifying feature information, a clothing ID of a clothing image to be tried on, and the like from the input unit 24A.

表示制御部24Fは、各種画像を第1表示部24Cへ表示する制御を行う。本実施の形態では、表示制御部24Fは、受付画面や、入力画面や、表示画面などを、第1表示部24Cに表示する。受付画面は、試着者IDの入力を受け付けるための画面である。   The display control unit 24F performs control to display various images on the first display unit 24C. In the present embodiment, the display control unit 24F displays a reception screen, an input screen, a display screen, and the like on the first display unit 24C. The reception screen is a screen for receiving an input of a try-on ID.

入力画面は、特徴情報を特定するための入力項目を試着者に入力させるための画面である。この入力画面は、例えば、試着者の特定情報を特定するための、試着者に対する1または複数の質問項目を含む。質問項目は、具体的には、試着者の特徴情報を特定するための、アンケートである。試着者は、入力画面に含まれる質問項目に対する返答を、入力部24Aを用いて入力する。これにより、受付部24Eは、試着者によって入力された、特徴情報を特定するための入力項目に対応する試着者の返答情報を取得する。   The input screen is a screen for allowing a try-on to input input items for specifying feature information. This input screen includes, for example, one or a plurality of question items for the fitting person for specifying the fitting person's identification information. Specifically, the question item is a questionnaire for specifying the feature information of the try-on. The try-onr inputs a response to the question item included in the input screen using the input unit 24A. Thereby, the reception unit 24E acquires the answer information of the try-on corresponding to the input item for specifying the feature information input by the try-on.

この場合、受付部24Eは、受け付けた1または複数の入力項目に対する試着者の返答情報の組合せに応じて、対応する特徴情報を特定することで、特徴情報を受け付ける。詳細には、記憶部24Bに、予め1または複数の入力項目に対する返答情報の組合せに対応する、特徴情報を予め記憶する。そして、受付部24Eは、入力部24Aから受け付けた返答情報の組合せに対応する特徴情報を記憶部24Bから読取ることで、特徴情報を受け付ければよい。   In this case, the accepting unit 24E accepts the feature information by specifying the corresponding feature information in accordance with the combination of the response information of the try-on to the accepted one or more input items. Specifically, feature information corresponding to a combination of response information for one or a plurality of input items is stored in advance in the storage unit 24B. Then, the receiving unit 24E may receive the feature information by reading the feature information corresponding to the combination of the response information received from the input unit 24A from the storage unit 24B.

表示画面は、試着対象の衣服画像を試着者に選択させるための、複数の衣服画像を含む画面である。   The display screen is a screen including a plurality of clothing images for allowing a try-on to select a clothing image to be tried on.

次に、第2端末26について説明する。図7は、第2端末26の機能ブロック図である。   Next, the second terminal 26 will be described. FIG. 7 is a functional block diagram of the second terminal 26.

第2端末26は、入力部26A、記憶部26B、表示部26C、および制御部26Dを備える。入力部26A、記憶部26B、および表示部26Cは、制御部26Dに信号授受可能に接続されている。   The second terminal 26 includes an input unit 26A, a storage unit 26B, a display unit 26C, and a control unit 26D. The input unit 26A, the storage unit 26B, and the display unit 26C are connected to the control unit 26D so as to exchange signals.

表示部26Cは、各種画像などを表示する公知の表示装置である。本実施の形態では、表示部26Cは、例えば、店舗Aにおいてサービスや商品を提供するユーザが、店舗Aに来店した試着者に対して試着者IDを発行するときに操作する、操作画面を表示する。また、表示部26Cは、店舗Aに来店した試着者が、仮想試着する試着対象の組合せ情報を選択するときに操作する、選択画面を表示する。   The display unit 26C is a known display device that displays various images. In the present embodiment, the display unit 26C displays, for example, an operation screen that is operated when a user who provides a service or a product in the store A issues a try-on ID to a try-on who has visited the store A. To do. In addition, the display unit 26C displays a selection screen that is operated when a try-on who has visited the store A selects combination information of a try-on target to be virtually tried on.

入力部26Aは、ユーザからの入力を受け付ける。入力部26Aは、入力部24Aと同様に、ユーザが各種の操作入力を行うための機器である。   The input unit 26A receives input from the user. Similarly to the input unit 24A, the input unit 26A is a device for the user to perform various operation inputs.

なお、入力部26A及び表示部26Cは、一体的に構成されていてもよい。具体的には、入力部26Aおよび表示部26Cは、入力機能及び表示機能の双方を備えたUI部として構成してもよい。   Note that the input unit 26A and the display unit 26C may be configured integrally. Specifically, the input unit 26A and the display unit 26C may be configured as a UI unit having both an input function and a display function.

記憶部26Bは、各種データを記憶する。本実施の形態では、記憶部26Bは、試着者IDと、試着者の属性情報(例えば、名前など)と、を対応づけた試着者管理情報を記憶する。試着者管理情報は、制御部26Dによって適宜更新される。   The storage unit 26B stores various data. In the present embodiment, the storage unit 26B stores try-onr management information in which a try-on ID is associated with attribute information (for example, a name) of the try-on. The fitting person management information is appropriately updated by the control unit 26D.

制御部26Dは、受付部26Eと、発行部26Fと、表示制御部26Gと、通信部26Hと、を含む。受付部26E、発行部26F、表示制御部26G、および通信部26Hの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。   The control unit 26D includes a receiving unit 26E, an issuing unit 26F, a display control unit 26G, and a communication unit 26H. Part or all of the receiving unit 26E, the issuing unit 26F, the display control unit 26G, and the communication unit 26H may be realized by causing a processing device such as a CPU to execute a program, that is, by software or an IC Such hardware may be used, or software and hardware may be used in combination.

通信部26Hは、仮想試着装置10、および第1端末24などの外部装置と通信する通信インターフェースである。   The communication unit 26 </ b> H is a communication interface that communicates with the virtual try-on device 10 and external devices such as the first terminal 24.

受付部26Eは、入力部26Aから、ユーザによる操作指示を受け付ける。本実施の形態では、受付部26Eは、入力部26Aから、選択された、試着対象の組合せ情報を受け付ける。   The accepting unit 26E accepts an operation instruction from the user from the input unit 26A. In the present embodiment, accepting unit 26E accepts the selected combination information to be tried on from input unit 26A.

発行部26Fは、試着者を識別可能な試着者IDを発行する。発行部26Fは、例えば、試着者管理情報に格納されている試着者IDとは異なる新たな試着者IDを生成し、発行する。なお、予め記憶部26Bに、店舗A内に設置されている、荷物などを入れるためのロッカーの番号(以下、ロッカー番号と称する)の一覧を記憶する。そして、発行部26Fは、記憶したロッカー番号の内、試着者IDとして未使用のロッカー番号を、試着者IDとして発行してもよい。なお、試着者IDは、試着者を識別可能な情報であればよく、ロッカー番号に限定されない。   The issuing unit 26F issues a try-on ID that can identify a try-on. For example, the issuing unit 26F generates and issues a new try-on ID different from the try-on ID stored in the try-on management information. It should be noted that a list of locker numbers (hereinafter referred to as locker numbers) that are installed in the store A and are used for storing packages or the like are stored in the storage unit 26B in advance. Then, the issuing unit 26F may issue an unused locker number as a try-on ID among the stored locker numbers as a try-on ID. Note that the try-on ID is not limited to the locker number as long as it is information that can identify the try-on.

また、発行部26Fは、入力部26Aから、試着者が店舗Aから退出することを示す退出指示と、該試着者に対して発行した試着者IDと、を含む退出情報を受信すると、退出情報に含まれる試着者IDを、試着者管理情報から削除すればよい。退出情報は、例えば、ユーザによる入力部26Aの操作指示によって入力されればよい。   In addition, when the issuing unit 26F receives the exit information including the exit instruction indicating that the try-on is leaving the store A and the try-on ID issued to the try-on from the input unit 26A, the exit information May be deleted from the try-onr management information. The exit information may be input by an operation instruction of the input unit 26A by the user, for example.

表示制御部26Gは、各種画像を表示部26Cへ表示する制御を行う。本実施の形態では、表示制御部26Gは、上記操作画面や、上記選択画面などの各種画像を、表示部26Cへ表示する制御を行う。また、表示制御部26Gは、発行部26Fで発行された試着者IDを、表示部26Cへ表示する。このため、ユーザは、表示部26Cを視認することで、発行された試着者IDを確認することができる。   The display control unit 26G performs control to display various images on the display unit 26C. In the present embodiment, the display control unit 26G performs control to display various images such as the operation screen and the selection screen on the display unit 26C. The display control unit 26G displays the try-on ID issued by the issuing unit 26F on the display unit 26C. For this reason, the user can confirm the issued try-on ID by visually recognizing the display unit 26C.

次に、第1サーバ装置28について説明する。図8は、第1サーバ装置28の機能ブロック図である。   Next, the first server device 28 will be described. FIG. 8 is a functional block diagram of the first server device 28.

第1サーバ装置28は、入力部28A、記憶部28B、表示部28C、および制御部28Dを備える。入力部28A、記憶部28B、および表示部28Cは、制御部28Dに信号授受可能に接続されている。   The first server device 28 includes an input unit 28A, a storage unit 28B, a display unit 28C, and a control unit 28D. The input unit 28A, the storage unit 28B, and the display unit 28C are connected to the control unit 28D so as to exchange signals.

表示部28Cは、各種画像などを表示する公知の表示装置である。入力部28Aは、ユーザからの入力を受け付ける。入力部28Aは、入力部24Aと同様に、ユーザが各種の操作入力を行うための機器である。なお、入力部28A及び表示部28Cは、入力機能及び表示機能の双方を備えたUI部として構成してもよい。   The display unit 28C is a known display device that displays various images. The input unit 28A receives input from the user. Similarly to the input unit 24A, the input unit 28A is a device for the user to perform various operation inputs. The input unit 28A and the display unit 28C may be configured as a UI unit having both an input function and a display function.

記憶部28Bは、各種データを記憶する。本実施の形態では、記憶部28Bは、第3情報を予め記憶する。   The storage unit 28B stores various data. In the present embodiment, storage unit 28B stores the third information in advance.

図9は、第3情報のデータ構造の一例を示す図である。第3情報は、衣服IDと、属性情報と、を対応づけた情報である。   FIG. 9 is a diagram illustrating an example of a data structure of the third information. The third information is information in which the clothes ID is associated with the attribute information.

属性情報は、対応する衣服IDによって特定される衣服の属性を示す情報である。本実施の形態では、属性情報は、対応する衣服IDによって特定される衣服の特典情報や、対応する衣服IDによって特定される衣服の販売店情報を、含む。   The attribute information is information indicating the attribute of the clothes specified by the corresponding clothes ID. In the present embodiment, the attribute information includes the privilege information of the clothes specified by the corresponding clothes ID and the store information of the clothes specified by the corresponding clothes ID.

特典情報は、上述したため、ここでは説明を省略する。販売店情報は、例えば、対応する衣服IDによって特定される衣服の販売店の場所や、販売店が提供する商品の情報や、販売店が提供する各種サービスの情報などを含む。販売店の場所は、例えば、実空間上における場所(地図情報など)や、ウェブサイト上における該販売店のホームページなどのURLなどである。   Since privilege information was mentioned above, explanation is omitted here. The store information includes, for example, the location of the clothing store specified by the corresponding clothing ID, information on products provided by the store, information on various services provided by the store. The location of the store is, for example, a location in the real space (such as map information) or a URL of the store's homepage on the website.

なお、属性情報は、対応する衣服IDによって特定される衣服の衣服画像を更に含んだ構成であってもよい。また、属性情報は、更に、他の情報を含んだ形態であってもよい。   The attribute information may further include a clothing image of the clothing specified by the corresponding clothing ID. Further, the attribute information may further include other information.

図8に戻り、制御部28Dは、通信部28Eと、作成部28Hと、を含む。通信部28E、および作成部28Hの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。   Returning to FIG. 8, the control unit 28D includes a communication unit 28E and a creation unit 28H. A part or all of the communication unit 28E and the creation unit 28H may be realized by causing a processing device such as a CPU to execute a program, that is, by software, or by hardware such as an IC. It may be realized by using software and hardware together.

通信部28Eは、仮想試着装置10などの外部装置と通信する通信インターフェースである。通信部28Eは、第2受信部28Fと、第2送信部28Gと、を含む。第2受信部28Fは、外部装置から各種データを受信する。第2送信部28Gは、外部装置へ各種データを送信する。   The communication unit 28E is a communication interface that communicates with an external device such as the virtual try-on device 10. The communication unit 28E includes a second reception unit 28F and a second transmission unit 28G. The second receiving unit 28F receives various data from an external device. The second transmission unit 28G transmits various data to the external device.

本実施の形態では、第2受信部28Fは、仮想試着装置10から試着情報を受信する。上述したように、試着情報は、試着者によって仮想試着された、1または複数の衣服IDと、試着者IDと、該衣服IDによって特定される衣服の衣服画像と、を含む。   In the present embodiment, the second reception unit 28F receives fitting information from the virtual fitting device 10. As described above, the try-on information includes one or a plurality of clothes IDs virtually tried on by the try-on, the try-on ID, and the clothes image of the clothes specified by the clothes ID.

作成部28Hは、第2受信部28Fで受信した試着情報に含まれる、衣服ID(第1識別情報)、および試着者ID(第2識別情報)の少なくとも一方に応じた、特典情報を生成する。   The creation unit 28H generates privilege information according to at least one of the clothes ID (first identification information) and the try-on ID (second identification information) included in the fitting information received by the second reception unit 28F. .

本実施の形態では、作成部28Hは、受信した試着情報に含まれる衣服IDに対応する衣服画像や、該衣服IDに対応する属性情報を第3情報から読取る。そして、作成部28Hは、読取った属性情報に含まれる特典情報および販売店情報と、受信した試着情報に含まれる衣服IDによって特定される衣服の衣服画像と、を含むウェブページを生成し、記憶部28Bに記憶する。そして、第2送信部28Gが、該ウェブページの記憶場所を示すURLを、該試着情報の送信元の仮想試着装置10へ送信する。   In the present embodiment, creation unit 28H reads the clothing image corresponding to the clothing ID included in the received fitting information and the attribute information corresponding to the clothing ID from the third information. Then, the creation unit 28H generates and stores a web page including the privilege information and the store information included in the read attribute information and the clothes image of the clothes specified by the clothes ID included in the received fitting information. Store in unit 28B. Then, the second transmission unit 28G transmits a URL indicating the storage location of the web page to the virtual try-on device 10 that is the transmission source of the try-on information.

なお、作成部28Hは、特典情報を、仮想試着装置10へ送信してもよい。   Note that the creation unit 28H may transmit the privilege information to the virtual try-on device 10.

次に、第2サーバ装置32について説明する。図10は、第2サーバ装置32の機能ブロック図である。   Next, the second server device 32 will be described. FIG. 10 is a functional block diagram of the second server device 32.

第2サーバ装置32は、入力部32Aと、記憶部32Bと、表示部32Cと、制御部32Dと、を備える。入力部32A、記憶部32B、および表示部32Cは、制御部32Dに信号授受可能に接続されている。   The second server device 32 includes an input unit 32A, a storage unit 32B, a display unit 32C, and a control unit 32D. The input unit 32A, the storage unit 32B, and the display unit 32C are connected to the control unit 32D so as to exchange signals.

表示部32Cは、各種画像などを表示する公知の表示装置である。入力部32Aは、ユーザからの入力を受け付ける。入力部32Aは、入力部24Aと同様に、ユーザが各種の操作入力を行うための機器である。なお、入力部32A及び表示部32Cは、入力機能及び表示機能の双方を備えたUI部として構成してもよい。記憶部32Bは、各種データを記憶する。   The display unit 32C is a known display device that displays various images. The input unit 32A receives input from the user. Similarly to the input unit 24A, the input unit 32A is a device for the user to perform various operation inputs. Note that the input unit 32A and the display unit 32C may be configured as a UI unit having both an input function and a display function. The storage unit 32B stores various data.

制御部32Dは、通信部32Eと、収集部32Fと、第2生成部32Gと、配信部32Hと、を含む。通信部32E、収集部32F、第2生成部32G、および配信部32Hの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。   The control unit 32D includes a communication unit 32E, a collection unit 32F, a second generation unit 32G, and a distribution unit 32H. A part or all of the communication unit 32E, the collection unit 32F, the second generation unit 32G, and the distribution unit 32H may be realized by causing a processing device such as a CPU to execute a program, that is, by software, You may implement | achieve by hardware, such as IC, and may implement | achieve combining software and hardware.

通信部32Eは、仮想試着装置10、第2サーバ装置32、および第3サーバ装置30や、インターネット36に接続された各種サーバ装置などの外部装置と通信するインターフェースである。   The communication unit 32E is an interface that communicates with external devices such as the virtual try-on device 10, the second server device 32, the third server device 30, and various server devices connected to the Internet 36.

収集部32Fは、インターネット36に接続された各種サーバ装置などから、衣服画像や衣服画像に対応する属性情報などを収集する。属性情報は、上述したため、ここでは説明を省略する。収集部32Fは、予め定めた時間ごとに、インターネット36に接続された各種サーバ装置などから、衣服画像に関する情報を収集することで、衣服画像および属性情報を収集する。   The collection unit 32F collects clothing images and attribute information corresponding to the clothing images from various server devices connected to the Internet 36. Since the attribute information has been described above, description thereof is omitted here. The collection unit 32F collects clothes images and attribute information by collecting information about clothes images from various server devices connected to the Internet 36 at predetermined time intervals.

第2生成部32Gは、収集した衣服画像および属性情報を用いて、上記第1情報を生成する。なお、第2生成部32Gが生成した第1情報は、ユーザ(例えば、第2サーバ装置32の管理者など)による入力部32Aの操作指示によって、変更、編集、追記などが可能であるものとする。   The second generation unit 32G generates the first information using the collected clothes image and attribute information. Note that the first information generated by the second generation unit 32G can be changed, edited, or added by an operation instruction of the input unit 32A by a user (for example, an administrator of the second server device 32). To do.

また、第2生成部32Gは、収集した衣服画像の衣服の衣服IDと属性情報とを対応づけた第3情報(図9参照)を生成する。   In addition, the second generation unit 32G generates third information (see FIG. 9) in which the clothes ID of the clothes in the collected clothes image is associated with the attribute information.

配信部32Hは、第2生成部32Gで生成された第1情報を、第1情報、および第1情報に含まれる少なくとも一部の情報を格納している各種外部装置へ、通信部32Eを介して配信する。また、配信部32Hは、生成した第3情報を第1サーバ装置28へ配信する。   The distribution unit 32H sends the first information generated by the second generation unit 32G to the first information and various external devices that store at least a part of the information included in the first information via the communication unit 32E. And deliver. The distribution unit 32H distributes the generated third information to the first server device 28.

本実施の形態では、配信部32Hは、仮想試着装置10および第1サーバ装置28へ、第1情報を配信する。なお、配信部32Hは、第2生成部32Gで前回生成された第1情報が更新された場合にのみ、第1情報や第3情報を配信することが好ましい。   In the present embodiment, the distribution unit 32H distributes the first information to the virtual try-on device 10 and the first server device 28. The distribution unit 32H preferably distributes the first information and the third information only when the first information generated last time by the second generation unit 32G is updated.

仮想試着装置10では、第2サーバ装置32から配信された第1情報を受信すると、更新部12K(図3参照)が、受信した第1情報を記憶部14へ記憶する。これにより、仮想試着装置10では、記憶部14に記憶されている第1情報を更新する。   In the virtual try-on device 10, when the first information distributed from the second server device 32 is received, the update unit 12K (see FIG. 3) stores the received first information in the storage unit. Thereby, the virtual try-on device 10 updates the first information stored in the storage unit 14.

第1サーバ装置28では、第2サーバ装置32から配信された第3情報を受信すると、第1サーバ装置28の制御部28Dが、受信した第3情報を記憶部28Bに記憶する。これにより、第1サーバ装置28は、記憶部28Bに記憶されている第3情報を更新する。   When the first server device 28 receives the third information distributed from the second server device 32, the control unit 28D of the first server device 28 stores the received third information in the storage unit 28B. Thereby, the 1st server apparatus 28 updates the 3rd information memorized by storage part 28B.

なお、第1端末24の記憶部24Bについても、第1情報を記憶する形態とする場合には、配信部32Hは、第1端末24へ第1情報を更に配信すればよい。第1端末24の制御部24Dでは、受信した第1情報を記憶部24Bへ記憶することで、第1情報を更新すればよい。   In the case where the storage unit 24B of the first terminal 24 is also configured to store the first information, the distribution unit 32H may further distribute the first information to the first terminal 24. The control unit 24D of the first terminal 24 may update the first information by storing the received first information in the storage unit 24B.

次に、第3サーバ装置30について説明する。図11は、第3サーバ装置30の機能ブロック図である。   Next, the third server device 30 will be described. FIG. 11 is a functional block diagram of the third server device 30.

第3サーバ装置30は、入力部30Aと、記憶部30Bと、表示部30Cと、制御部30Dと、を備える。入力部30A、記憶部30B、および表示部30Cは、制御部30Dに信号授受可能に接続されている。   The third server device 30 includes an input unit 30A, a storage unit 30B, a display unit 30C, and a control unit 30D. The input unit 30A, the storage unit 30B, and the display unit 30C are connected to the control unit 30D so as to exchange signals.

表示部30Cは、各種画像などを表示する公知の表示装置である。入力部30Aは、ユーザからの入力を受け付ける。入力部30Aは、入力部24Aと同様に、ユーザが各種の操作入力を行うための機器である。なお、入力部30A及び表示部30Cは、入力機能及び表示機能の双方を備えたUI部として構成してもよい。記憶部30Bは、各種データを記憶する。   The display unit 30C is a known display device that displays various images. The input unit 30A receives input from the user. Similarly to the input unit 24A, the input unit 30A is a device for the user to perform various operation inputs. Note that the input unit 30A and the display unit 30C may be configured as a UI unit having both an input function and a display function. The storage unit 30B stores various data.

制御部30Dは、通信部30Eと、分析部30Fと、第3生成部30Gと、配信部30Hと、を含む。通信部30E、分析部30F、第3生成部30G、および配信部30Hの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。   Control unit 30D includes a communication unit 30E, an analysis unit 30F, a third generation unit 30G, and a distribution unit 30H. A part or all of the communication unit 30E, the analysis unit 30F, the third generation unit 30G, and the distribution unit 30H may be realized by causing a processing device such as a CPU to execute a program, that is, by software, You may implement | achieve by hardware, such as IC, and may implement | achieve combining software and hardware.

通信部30Eは、仮想試着装置10、および第1端末24などの外部装置と通信するインターフェースである。本実施の形態では、通信部30Eは、第1端末24または仮想試着装置10から、試着者情報を受信する。試着者情報は、試着者によって試着対象として選択された、複数の衣服画像の衣服IDを含む組合せ情報と、試着者IDと、該試着者IDによって特定される試着者の特徴情報と、を含む。試着者情報は、組合せIDなどの他の情報を更に含んだ形態であってもよい。   The communication unit 30 </ b> E is an interface that communicates with the virtual try-on device 10 and external devices such as the first terminal 24. In the present embodiment, the communication unit 30E receives the try-on person information from the first terminal 24 or the virtual try-on device 10. The try-on information includes combination information including clothes IDs of a plurality of clothes images selected as try-on targets by the try-on person, the try-on ID, and the feature information of the try-in person specified by the try-on ID. . The try-on information may be in a form further including other information such as a combination ID.

制御部30Dは、受信した試着者情報を、該試着者情報の受信日時に対応づけて、記憶部30Bに順次格納する。   The control unit 30D sequentially stores the received fitting person information in the storage unit 30B in association with the reception date and time of the fitting person information.

分析部30Fは、通信部30Eで受信した試着者情報を用いて、インターネット36に接続された各種サーバ装置を検索し、試着者情報に関連する情報を分析する。   The analysis unit 30F searches for various server devices connected to the Internet 36 using the fitting person information received by the communication unit 30E, and analyzes information related to the fitting person information.

例えば、試着者IDとして、インターネット上で一意に識別可能な情報(例えば、メールアドレスや電話番号など)を用いていたとする。この場合、分析部30Fは、該試着者IDの過去の購買履歴を、アクセス可能な他のサーバ装置や記憶部30Bから取得することで、購買情報の分析を行う。   For example, it is assumed that information that can be uniquely identified on the Internet (for example, an e-mail address or a telephone number) is used as the try-on ID. In this case, the analysis unit 30F analyzes the purchase information by acquiring the past purchase history of the try-on ID from another accessible server device or the storage unit 30B.

また、分析部30Fは、受信した試着者情報に含まれる特徴情報と同じ特徴情報や、試着者情報に含まれる特徴情報に類似する他の特徴情報に関連づけられた衣服画像および衣服画像の衣服の属性情報を、アクセス可能な他のサーバ装置や記憶部30Bから取得する。   The analysis unit 30F also includes the clothing image associated with the same feature information as the feature information included in the received try-on information, or other feature information similar to the feature information included in the try-on information, and the clothing image of the clothing image. The attribute information is acquired from another accessible server device or storage unit 30B.

特徴情報に類似する他の特徴情報、とは、試着者情報に含まれる特徴情報に含まれる、試着者の体型を示す体型パラメータ、試着者の特徴色、試着者の年齢層、および試着者の性格、試着者の趣向の内の少なくとも1つが一致または予め定めた範囲内である、他の特徴情報を示す。   Other feature information similar to the feature information is the body shape parameter indicating the body shape of the wearer, the feature color of the wearer, the age group of the wearer, and the wearer's age group. Other characteristic information in which at least one of the personality and the taste of the try-on matches or falls within a predetermined range is shown.

また、分析部30Fは、試着者情報に含まれる衣服IDによって特定される衣服の販売店が推奨する他の衣服画像を、アクセス可能なサーバ装置や記憶部30Bから取得する。   In addition, the analysis unit 30F acquires, from an accessible server device or storage unit 30B, other clothing images recommended by the clothing store specified by the clothing ID included in the try-on information.

第3生成部30Gは、受信した試着者情報と、分析部30Fによる分析結果と、に応じて、仮想試着システム1側で推奨する推奨組合せ画像を生成する。   The third generation unit 30G generates a recommended combination image recommended on the virtual try-on system 1 side according to the received try-on information and the analysis result by the analysis unit 30F.

本実施の形態では、第3生成部30Gは、第1情報に登録されている複数の衣服画像から、予め定めた抽出条件に応じて、複数の衣服画像の組合せによって示される推奨組合せ画像を生成する。抽出条件は、上述したため、ここでは説明を省略する。   In the present embodiment, the third generation unit 30G generates a recommended combination image indicated by a combination of a plurality of clothing images from a plurality of clothing images registered in the first information according to a predetermined extraction condition. To do. Since the extraction condition has been described above, the description thereof is omitted here.

また、例えば、第3生成部30Gは、分析結果と、分析結果に対応する複数の衣服IDからなる推奨組合せ画像と、を予め記憶してもよい。そして、第3生成部30Gは、分析部30Fの分析結果に対応する、複数の衣服IDを読取る。そして、第3生成部30Gは、読取った複数の衣服IDに対応する衣服画像を、推奨組合せ画像として生成してもよい。   In addition, for example, the third generation unit 30G may store in advance an analysis result and a recommended combination image including a plurality of clothes IDs corresponding to the analysis result. The third generation unit 30G reads a plurality of clothes IDs corresponding to the analysis result of the analysis unit 30F. Then, the third generation unit 30G may generate clothes images corresponding to the plurality of read clothes IDs as recommended combination images.

配信部30Hは、第3生成部30Gで生成した推奨組合せ画像を、試着者情報の送信元の仮想試着装置10または第1端末24へ、通信部30Eを介して配信する。   The distribution unit 30H distributes the recommended combination image generated by the third generation unit 30G to the virtual try-on device 10 or the first terminal 24 that is the transmission source of the try-on person information via the communication unit 30E.

次に、仮想試着システム1で実行する仮想試着処理の手順を説明する。   Next, a procedure of virtual try-on processing executed in the virtual try-on system 1 will be described.

図12は、仮想試着システム1で実行する仮想試着処理の手順を示すシーケンス図である。   FIG. 12 is a sequence diagram illustrating a procedure of virtual try-on processing executed in the virtual try-on system 1.

まず、第2端末26の発行部26Fが、試着者IDを発行する(SEQ100)。上述したように、表示制御部26Gは、発行部26Fで発行された試着者IDを、表示部26Cへ表示する。ユーザは、表示部26Cを視認することで、試着者IDを確認する。   First, the issuing unit 26F of the second terminal 26 issues a try-on ID (SEQ100). As described above, the display control unit 26G displays the try-on ID issued by the issuing unit 26F on the display unit 26C. The user confirms the try-on ID by visually checking the display unit 26C.

次に、第1端末24が、試着者IDを受け付ける(SEQ102)。ユーザは、第1表示部24Cに表示された受付画面を介して、SEQ100で発行された試着者IDを入力部24Aの操作指示により入力する。これにより、第1端末24の受付部24Eが、試着者IDを受け付ける。   Next, the first terminal 24 receives the try-on ID (SEQ102). The user inputs the try-on ID issued in SEQ100 through an operation instruction of the input unit 24A via the reception screen displayed on the first display unit 24C. Thereby, the reception unit 24E of the first terminal 24 receives the try-on ID.

次に、表示制御部24Fが、特徴情報を特定するための入力項目を入力するための入力画面を第1表示部24Cに表示する(SEQ104)。なお、表示制御部24Fは、特徴情報を直接入力するための入力画面を第1表示部24Cに表示してもよい。   Next, the display control unit 24F displays an input screen for inputting input items for specifying feature information on the first display unit 24C (SEQ104). The display control unit 24F may display an input screen for directly inputting feature information on the first display unit 24C.

次に、受付部24Eが、入力画面を介して試着者によって入力された(または、入力項目に対する返答情報から特定した)特徴情報を受け付ける(SEQ106)。そして、通信部24Gが、特徴情報を仮想試着装置10へ送信する(SEQ108)。   Next, the accepting unit 24E accepts the feature information input by the try-on via the input screen (or specified from the response information for the input item) (SEQ106). Then, the communication unit 24G transmits the feature information to the virtual try-on device 10 (SEQ108).

仮想試着装置10では、第1取得部12Aが特徴情報を受け付ける。そして、第1表示制御部12Bが、受け付けた特徴情報に対応する衣服画像を第1情報から読取る(SEQ110)。そして、第1表示制御部12Bは、読取った衣服画像を、第1端末24へ送信する(SEQ112)。このとき、第1表示制御部12Bは、衣服画像と、対応する衣服IDと、を第1端末24へ送信してもよい。   In the virtual try-on device 10, the first acquisition unit 12A receives feature information. Then, the first display control unit 12B reads a clothing image corresponding to the received feature information from the first information (SEQ110). Then, the first display control unit 12B transmits the read clothing image to the first terminal 24 (SEQ112). At this time, the first display control unit 12 </ b> B may transmit the clothing image and the corresponding clothing ID to the first terminal 24.

第1端末24の受付部24Eは、仮想試着装置10から衣服画像および衣服IDを受け付ける。そして、表示制御部24Fが、受け付けた衣服画像を含む表示画面を、第1表示部24Cに表示する(SEQ114)。   The receiving unit 24E of the first terminal 24 receives a clothing image and a clothing ID from the virtual try-on device 10. Then, the display control unit 24F displays a display screen including the accepted clothing image on the first display unit 24C (SEQ114).

SEQ106〜SEQ114の処理によって、第1情報に含まれる衣服画像の内、試着者の特徴情報に対応する衣服画像の一覧が、第1表示部24Cに表示される。試着者は、入力部24Aを操作することで、試着対象の1または複数の衣服画像を選択する。本実施の形態では、試着者は、試着対象の衣服画像として、組み合わせて試着する対象の複数の衣服画像を選択する場合を説明する。   Through the processing of SEQ106 to SEQ114, a list of clothing images corresponding to the feature information of the try-on among the clothing images included in the first information is displayed on the first display unit 24C. A try-on operates the input unit 24A to select one or more clothes images to be tried on. In the present embodiment, a case will be described in which a try-on person selects a plurality of clothes images to be tried on in combination as clothes images to be tried on.

次に、受付部24Eが、組合せて試着する対象の複数の衣服画像の選択を試着者から受け付ける(SEQ116)。すなわち、受付部24Eは、試着者による入力部24Aの操作指示を受け付けることで、組合せて試着する対象の複数の衣服画像の選択を受け付ける。   Next, the accepting unit 24E accepts selection of a plurality of clothing images to be tried on in combination from the try-onrs (SEQ116). That is, the accepting unit 24E accepts selection of a plurality of clothing images to be tried on in combination by accepting an operation instruction of the input unit 24A from the try-on person.

次に、通信部24Gが、試着者によって選択された、組合せて試着する複数の衣服IDと、組合せIDと、SEQ102で受け付けた試着者IDと、店舗IDと、送信日時と、を含む第2情報を、第2端末26と仮想試着装置10へ送信する(SEQ118、SEQ120)。組合せIDは、対応する複数の衣服IDの組合せを特定可能な情報であればよい。仮想試着装置10は、受け付けた第2情報を記憶部14へ記憶する。   Next, the communication unit 24G includes a plurality of clothes IDs to be tried on in combination, a combination ID, a try-on ID received in SEQ102, a store ID, and a transmission date and time, which are selected by the try-on person. Information is transmitted to the second terminal 26 and the virtual try-on device 10 (SEQ 118, SEQ 120). The combination ID may be information that can identify a combination of a plurality of corresponding clothes IDs. The virtual try-on device 10 stores the received second information in the storage unit 14.

なお、通信部24Gは、該第2情報を送信するタイミングの送信日時を該第2情報へ含めることで、送信日時を含む第2情報を第2端末26および仮想試着装置10へ送信すればよい。また、通信部24Gは、第2情報を送信する対象の店舗を示す店舗IDを予め記憶する。そして、通信部24Gは、該店舗IDを含む第2情報を、第2端末26および仮想試着装置10へ送信すればよい。   The communication unit 24G may transmit the second information including the transmission date and time to the second terminal 26 and the virtual try-on device 10 by including the transmission date and time at the timing of transmitting the second information in the second information. . In addition, the communication unit 24G stores in advance a store ID indicating a store to which the second information is transmitted. And the communication part 24G should just transmit the 2nd information containing this shop ID to the 2nd terminal 26 and the virtual try-on device 10. FIG.

次に、通信部24Gは、組合せて試着する複数の衣服IDを含む組合せ情報と、SEQ102で受け付けた試着者IDと、SEQ106で受け付けた特徴情報と、を含む試着者情報を、第3サーバ装置30へ送信する(SEQ122)。   Next, the communication unit 24G transmits the try-on information including the combination information including a plurality of clothes IDs to be tried on in combination, the try-on ID received in SEQ 102, and the feature information received in SEQ 106 to the third server device. 30 (SEQ122).

第3サーバ装置30の通信部30Eは、第1端末24から試着者情報を受信する。なお、通信部30Eは、仮想試着装置10から試着者情報を受信してもよい。この場合、仮想試着装置10の通信部12Gが、SEQ120で受信した試着者情報を第3サーバ装置30へ送信すればよい。   The communication unit 30 </ b> E of the third server device 30 receives the try-on information from the first terminal 24. The communication unit 30E may receive the try-on information from the virtual try-on device 10. In this case, the communication unit 12 </ b> G of the virtual try-on device 10 may transmit the try-on information received at SEQ 120 to the third server device 30.

第3サーバ装置30の制御部30Dは、受信した試着者情報を、該試着者情報の受信日時に対応づけて、記憶部30Bに順次格納する。このため、試着者情報は、次回の分析処理時に有効利用される。そして、分析部30Fが、受信した試着者情報に関連する情報を分析する(SEQ124)。   The control unit 30D of the third server device 30 sequentially stores the received fitting person information in the storage unit 30B in association with the reception date and time of the fitting person information. For this reason, the try-on information is effectively used in the next analysis process. Then, the analysis unit 30F analyzes information related to the received try-on information (SEQ124).

次に、第3生成部30Gが、試着者情報と、分析結果と、に応じて、仮想試着システム1側で推奨する推奨組合せ画像を生成する(SEQ126)。   Next, the third generation unit 30G generates a recommended combination image recommended on the virtual try-on system 1 according to the try-on information and the analysis result (SEQ126).

そして、配信部30Hは、推奨組合せ画像を、仮想試着装置10へ送信する(SEQ128)。なお、配信部30Hは、推奨組合せ画像を、第1端末24へ送信してもよい。   Then, the distribution unit 30H transmits the recommended combination image to the virtual try-on device 10 (SEQ128). The distribution unit 30H may transmit the recommended combination image to the first terminal 24.

仮想試着装置10では、通信部12Gが推奨組合せ画像を受信し、第1表示制御部12Bが、推奨組合せ画像を第1端末24へ送信する(SEQ129)。第1端末24の受付部24Eが、推奨組合せ画像を受け付けると、表示制御部24Fが、推奨組合せ画像を第1表示部24Cへ表示する(SEQ130)。   In the virtual try-on device 10, the communication unit 12G receives the recommended combination image, and the first display control unit 12B transmits the recommended combination image to the first terminal 24 (SEQ129). When the receiving unit 24E of the first terminal 24 receives the recommended combination image, the display control unit 24F displays the recommended combination image on the first display unit 24C (SEQ130).

SEQ122〜SEQ130の処理によって、仮想試着システム1側が推奨する衣服画像の組合せによって示される推奨組合せ画像が、第1表示部24Cに表示される。   Through the processing of SEQ122 to SEQ130, a recommended combination image indicated by a combination of clothing images recommended by the virtual try-on system 1 is displayed on the first display unit 24C.

次に、受付部24Eが、推奨組合せ画像の選択を試着者から受け付ける(SEQ132)。すなわち、受付部24Eは、試着者による入力部24Aの操作指示を受け付けることで、推奨組合せ画像の内の何れかの選択を受け付ける。   Next, the accepting unit 24E accepts selection of a recommended combination image from the try-onr (SEQ132). That is, the accepting unit 24E accepts selection of one of the recommended combination images by accepting an operation instruction of the input unit 24A from the try-on.

次に、通信部24Gが、SEQ132で試着者によって選択された、組合せて試着する複数の衣服IDと、組合せIDと、SEQ102で受け付けた試着者IDと、店舗IDと、送信日時と、を含む第2情報を、第2端末26と仮想試着装置10へ送信する(SEQ134、SEQ136)。仮想試着装置10は、受け付けた第2情報を記憶部14へ記憶する。   Next, the communication unit 24G includes a plurality of clothes IDs to be tried on in combination, a combination ID, a try-on ID received in SEQ 102, a store ID, and a transmission date and time, which are selected by the try-in at SEQ 132. The second information is transmitted to the second terminal 26 and the virtual try-on device 10 (SEQ134, SEQ136). The virtual try-on device 10 stores the received second information in the storage unit 14.

次に、通信部24Gは、SEQ132で試着者によって選択された、組合せて試着する複数の衣服IDを含む組合せ情報と、SEQ102で受け付けた試着者IDと、SEQ106で受け付けた特徴情報と、を含む試着者情報を、第3サーバ装置30へ送信する(SEQ138)。   Next, the communication unit 24G includes combination information including a plurality of clothes IDs to be tried on in combination, selected by the try-on at SEQ 132, a try-on ID received at SEQ 102, and feature information received at SEQ 106. The try-on information is transmitted to the third server device 30 (SEQ138).

第3サーバ装置30の通信部30Eは、第1端末24から試着者情報を受信する。制御部30Dは、受信した試着者情報を、該試着者情報の受信日時に対応づけて、記憶部30Bに順次格納する(SEQ140)。このため、試着者情報は、次回の分析処理時に有効利用される。   The communication unit 30 </ b> E of the third server device 30 receives the try-on information from the first terminal 24. The control unit 30D sequentially stores the received fitting person information in the storage unit 30B in association with the reception date and time of the fitting person information (SEQ140). For this reason, the try-on information is effectively used in the next analysis process.

一方、SEQ118およびSEQ134の処理によって、第2情報を受け付けた第2端末26では、表示制御部26Gが、受信した第2情報の各々を個別に選択可能に示した選択画面を、表示部26Cに表示する(SEQ142)。   On the other hand, in the second terminal 26 that has received the second information by the processing of SEQ118 and SEQ134, the display control unit 26G displays on the display unit 26C a selection screen indicating that each of the received second information can be individually selected. It is displayed (SEQ142).

図13は、選択画面46の一例を示す図である。選択画面46は、例えば、第2情報の各々を示すボタン画像47(47A〜47C)を含む。各ボタン画像47は、例えば、対応する第2情報に含まれる少なくとも一部の情報を示す文字を含む。図13に示す例では、各ボタン画像47は、第2情報に含まれる、試着者ID(図13では、ロッカー番号1、ロッカー番号3、ロッカー番号5)と、送信日時と、を含む。   FIG. 13 is a diagram illustrating an example of the selection screen 46. The selection screen 46 includes, for example, button images 47 (47A to 47C) indicating each of the second information. Each button image 47 includes, for example, characters indicating at least part of information included in the corresponding second information. In the example illustrated in FIG. 13, each button image 47 includes a try-on ID (in FIG. 13, locker number 1, locker number 3, locker number 5) and transmission date / time included in the second information.

図12に戻り、受付部26Eは、選択画面46に表示した1または複数の第2情報の内、試着者の試着対象の衣服画像の組合せに対応する第2情報の選択を入力部26Aから受け付ける(SEQ144)。すなわち、ユーザ(例えば、試着者、または店舗Aにおけるサービス提供者)が、試着者の試着IDに対応する第2情報のボタン画像47を、入力部26Aの操作指示により入力する。これにより、受付部26Eは、試着者の試着対象の衣服画像の組合せに対応する第2情報の選択を受け付ける。   Returning to FIG. 12, the receiving unit 26 </ b> E receives from the input unit 26 </ b> A the selection of the second information corresponding to the combination of the clothing images to be tried on by the wearer among the one or more pieces of second information displayed on the selection screen 46. (SEQ144). That is, a user (for example, a try-on person or a service provider in the store A) inputs the button image 47 of the second information corresponding to the try-on ID of the try-in person according to an operation instruction of the input unit 26A. Thereby, the reception unit 26E receives the selection of the second information corresponding to the combination of the clothes image to be tried on by the try-on.

次に、通信部26Hが、SEQ144で受け付けた第2情報を、仮想試着装置10へ送信する(SEQ146)。   Next, the communication unit 26H transmits the second information received in SEQ144 to the virtual try-on device 10 (SEQ146).

仮想試着装置10の通信部12Gは、第2情報を第2端末26から受信する。そして、仮想試着装置10の第2取得部12Fが、試着者の体型を示す体型パラメータを取得する(SEQ148)。   The communication unit 12G of the virtual try-on device 10 receives the second information from the second terminal 26. Then, the second acquisition unit 12F of the virtual try-on device 10 acquires a body type parameter indicating the body type of the wearer (SEQ148).

次に、生成部12Dが、第1撮影部20Aで撮影した試着者の試着者画像と、SEQ146で受信した第2情報(図5参照)に含まれる衣服IDに対応する衣服画像と、の合成画像を生成する(SEQ150)。   Next, the generation unit 12D combines the try-on image of the try-on photographed by the first photographing unit 20A and the clothing image corresponding to the clothing ID included in the second information (see FIG. 5) received in SEQ 146. An image is generated (SEQ150).

次に、第2表示制御部12Eが、SEQ150で生成した合成画像を、第2表示部18に表示する(SEQ152)。   Next, the second display control unit 12E displays the composite image generated in SEQ150 on the second display unit 18 (SEQ152).

図14は、第2表示部18に表示された合成画像Wの一例を示す図である。なお、図14では、説明を簡略化するために、試着者画像40A上に、1つの衣服画像42Aを重畳した合成画像Wを示した。なお、撮影部20は、連続して撮影を行う。そして、SEQ152の合成画像の表示中には、生成部12Dは、撮影部20で連続して撮影される被写体画像と、SEQ146で受信した第2情報(図5参照)に含まれる衣服IDに対応し、且つ、該撮影によって得られたデプスマップから算出した姿勢情報に対応する衣服画像と、を合成した合成画像を生成する処理を繰り返し実行する。そして、第2表示制御部御12Eは、合成部12Cで新たな合成画像が生成されるたびに、第2表示部18に表示する合成画像を切り替える。このため、第2表示部18には、その前に対峙した被写体を鏡で映したかのような被写体画像上に、該被写体の姿勢に応じた衣服画像が重畳された合成画像が表示される。   FIG. 14 is a diagram illustrating an example of the composite image W displayed on the second display unit 18. In FIG. 14, in order to simplify the description, a composite image W in which one clothing image 42A is superimposed on the try-on image 40A is shown. Note that the photographing unit 20 continuously performs photographing. During the display of the composite image of SEQ152, the generation unit 12D corresponds to the subject image continuously photographed by the photographing unit 20 and the clothes ID included in the second information (see FIG. 5) received by SEQ146. And the process which produces | generates the synthesized image which synthesize | combined with the clothing image corresponding to the attitude | position information calculated from the depth map obtained by this imaging | photography is repeatedly performed. And the 2nd display control part 12E switches the synthesized image displayed on the 2nd display part 18, whenever a new synthesized image is produced | generated by the synthetic | combination part 12C. For this reason, the second display unit 18 displays a composite image in which a clothing image corresponding to the posture of the subject is superimposed on the subject image as if the subject facing the front was reflected in the mirror. .

図12に戻り、次に、受付部12Cが、合成画像の変更指示を受け付けたか否かを判断する(SEQ154)。本実施の形態では、受付部12Cは、第2表示部18の前に対峙する試着者の身振り手振りを、試着者による各種指示として受け付ける。例えば、受付部12Cは、試着者が右手を挙げる動きを、合成画像の変更指示情報であるものとして予め登録する。そして、第1撮影部20Aで撮影された試着者画像、または、第2撮影部20Bで撮影されたデプスマップを、公知の方法により解析することで、試着者が右手を挙げる動きをしたと判別したときに、合成画像の変更指示情報を受け付けたと判断すればよい。   Returning to FIG. 12, next, the receiving unit 12C determines whether or not a composite image change instruction has been received (SEQ154). In the present embodiment, the accepting unit 12C accepts gesture gestures of the fitting person facing the second display unit 18 as various instructions by the fitting person. For example, the accepting unit 12C registers in advance the movement of the try-on that raises the right hand as the change instruction information of the composite image. Then, it is determined that the fitting person has moved up with his right hand by analyzing the fitting person image photographed by the first photographing unit 20A or the depth map photographed by the second photographing unit 20B by a known method. Then, it may be determined that the composite image change instruction information has been received.

なお、試着者が右手を挙げる動きをしたと判別したときに、第2表示制御部12Eは、該動きに対応する指示情報を示す指示画像を第2表示部18へ表示してもよい。具体的には、試着者が右手を挙げる動きをしたと判別したときに、第2表示制御部12Eは、合成画像の変更指示を示す指示画像(例えば、「次のコーディネート」などの文字や、画像)を、第2表示部18へ表示してもよい。   When it is determined that the try-on moves with the right hand, the second display control unit 12E may display an instruction image indicating instruction information corresponding to the movement on the second display unit 18. Specifically, when the second display control unit 12E determines that the fitting person has made a movement to raise his right hand, the second display control unit 12E displays an instruction image (for example, “next coordination”) indicating an instruction to change the composite image, Image) may be displayed on the second display unit 18.

具体的には、試着者画像における、試着者の右手に相当する領域付近に、該指示画像を重畳して表示すればよい(図15−1(A)〜図15−1(D)中、指示画像44C参照。なお、図15−1(C)は、図15−1(A)の一部を拡大した図である。図15−1(D)は、図15−1(B)の一部を拡大した図である)。   Specifically, the instruction image may be superimposed and displayed in the vicinity of the region corresponding to the right hand of the try-in in the try-on image (in FIGS. 15-1 (A) to 15-1 (D), Refer to the instruction image 44C, where Fig. 15-1 (C) is an enlarged view of a part of Fig. 15-1 (A), and Fig. 15-1 (D) is a diagram of Fig. 15-1 (B). This is a partially enlarged view).

なお、上述したように、本実施の形態では、生成部12Dは、第2表示部18の前に対峙した試着者が、鏡を視認する感覚で合成画像を確認可能となるように、試着者画像を鏡像反転させた画像に、選択された衣服画像(補正画像)を構成することで、合成画像を生成する。このため、図15−1、および後述する図15−2では、試着者画像の左手が、実際の試着者の右手に相当する。   As described above, in the present embodiment, the generation unit 12D allows the try-on so that the try-on who confronts the second display unit 18 can confirm the composite image with a sense of visually recognizing the mirror. A composite image is generated by constructing the selected clothing image (corrected image) in an image obtained by inverting the image. For this reason, in FIG. 15-1 and FIG. 15-2 mentioned later, the left hand of a try-on person image corresponds to the right hand of an actual try-on person.

SEQ154で肯定判断すると(SEQ154:Yes)、生成部12Dは、前回第2表示部18に表示した合成画像に対応する第2情報に含まれる試着者IDを含む、他の第2情報を記憶部14から検索し、合成画像の未表示の1つの第2情報を読取る。そして、生成部12Dは、読取った第2情報を用いて、SEQ150と同様にして合成画像を生成する(SEQ156)。   When an affirmative determination is made in SEQ154 (SEQ154: Yes), the generation unit 12D stores other second information including the try-on ID included in the second information corresponding to the composite image displayed on the second display unit 18 last time. 14, one second information not displayed of the composite image is read. Then, the generation unit 12D generates a composite image in the same manner as SEQ150 using the read second information (SEQ156).

なお、この合成画像の生成時、すなわち、合成画像の変更時には、変更後の合成画像のる残り時間を示す第1時間情報を、第2表示部18に表示することが好ましい。図15−1は、残り時間の表示の説明図である。   It should be noted that when this composite image is generated, that is, when the composite image is changed, first time information indicating the remaining time of the composite image after the change is preferably displayed on the second display unit 18. FIG. 15A is an explanatory diagram of the remaining time display.

合成画像の変更指示を受け付けた場合、図15−1(A)に示すように、第2表示制御部12Eは、変更後の合成画像の表示までに要する残り時間を示す第1時間情報44Aを第2表示部18に表示することが好ましい。第1時間情報44Aは、例えば、残り時間を示す数字や、円形のゲージを含む画像である。このとき、変更後の合成画像が表示されるまで、変更前の合成画像Wを第2表示部18に表示することが好ましい。なお、第1時間情報44Aは、予め定めた時間であってもよいし、変更後の合成画像の表示までに要する時間を算出した時間であってもよい。   When the composite image change instruction is received, as illustrated in FIG. 15A, the second display control unit 12E displays the first time information 44A indicating the remaining time until the composite image after the change is displayed. It is preferable to display on the second display unit 18. The first time information 44A is, for example, an image including a number indicating the remaining time and a circular gauge. At this time, it is preferable to display the composite image W before the change on the second display unit 18 until the composite image after the change is displayed. The first time information 44 </ b> A may be a predetermined time, or may be a time calculated for the time required to display the composite image after the change.

残り時間を示す第1時間情報は、残り時間を視認可能な形式で表示されればよい。例えば、図15−1(B)に示すように、残り時間を示す第1時間情報44Bは、残り時間を示す棒状のゲージであってもよい。このため、例えば、制御部12は、「次のコーディネート」を示す指示画像、および、残り時間を示す第1時間情報としてのゲージを、試着者に対して視認可能に提供し、該残り時間を示すゲージがフル(残り時間「0」)となったときに、変更後の合成画像を第2表示部18に表示することができる。なお、第2表示制御部12Eは、上記指示画像、および、指示情報に対応する処理に要する残り時間(上記では、変更後の合成画像の表示までに要する残り時間)を示す第1時間情報、の少なくとも一方を含む合成画像を、第2表示部18に表示すればよく、双方を表示してもよい。   The 1st time information which shows remaining time should just be displayed in the format which can visually recognize remaining time. For example, as shown in FIG. 15-1 (B), the first time information 44B indicating the remaining time may be a rod-shaped gauge indicating the remaining time. For this reason, for example, the control unit 12 provides the instruction image indicating “next coordination” and the gauge as the first time information indicating the remaining time so as to be visible to the fitting person, and the remaining time is provided. When the gauge shown is full (remaining time “0”), the changed composite image can be displayed on the second display unit 18. The second display control unit 12E includes first time information indicating the remaining time required for processing corresponding to the instruction image and the instruction information (in the above, remaining time required until the composite image after the change is displayed), A composite image including at least one of these may be displayed on the second display unit 18 or both may be displayed.

図12に戻り、そして、第2表示制御部12Eは、SEQ156で生成された合成画像を第2表示部18に表示する(SEQ158)。ここで、撮影部20は、連続して撮影を行う。そして、SEQ158の合成画像の表示中には、生成部12Dは、撮影部20で連続して撮影される被写体画像と、SEQ156で読取った第2情報に含まれる衣服IDに対応し、且つ、該撮影によって得られたデプスマップから算出した姿勢情報に対応する衣服画像と、を合成した合成画像を生成する処理を繰り返し実行する。そして、第2表示制御部御12Eは、合成部12Cで新たな合成画像が生成されるたびに、第2表示部18に表示する合成画像を切り替える。このため、第2表示部18には、その前に対峙した被写体を鏡で映したかのような被写体画像上に、該被写体の姿勢に応じた衣服画像が重畳された合成画像が表示される。   Returning to FIG. 12, the second display control unit 12E displays the composite image generated in SEQ156 on the second display unit 18 (SEQ158). Here, the imaging unit 20 continuously performs imaging. During the display of the synthesized image of SEQ158, the generation unit 12D corresponds to the subject image continuously photographed by the photographing unit 20 and the clothes ID included in the second information read by SEQ156, and the The process of generating a composite image obtained by combining the clothing image corresponding to the posture information calculated from the depth map obtained by shooting is repeatedly executed. And the 2nd display control part 12E switches the synthesized image displayed on the 2nd display part 18, whenever a new synthesized image is produced | generated by the synthetic | combination part 12C. For this reason, the second display unit 18 displays a composite image in which a clothing image corresponding to the posture of the subject is superimposed on the subject image as if the subject facing the front was reflected in the mirror. .

なお、第2表示制御部12Eは、合成画像を表示すると、表示した合成画像に対応する第2情報を、記憶部14から削除してもよい。また、第2表示制御部12Eは、表示した合成画像に対応する第2情報の削除指示を、第2端末26に送信してもよい。第2端末26は、削除指示を受信すると、受信した削除指示によって示される第2情報を記憶部26Bから削除する。このため、第2端末26の表示部26Cに表示される、試着対象の組合せ情報の選択を行うための選択画面には、合成画像の未表示のものが表示されることとなる。   Note that the second display control unit 12E may delete the second information corresponding to the displayed composite image from the storage unit 14 when the composite image is displayed. In addition, the second display control unit 12E may transmit an instruction to delete the second information corresponding to the displayed composite image to the second terminal 26. When receiving the deletion instruction, the second terminal 26 deletes the second information indicated by the received deletion instruction from the storage unit 26B. For this reason, the undisplayed composite image is displayed on the selection screen for selecting the combination information to be tried on, which is displayed on the display unit 26C of the second terminal 26.

なお、更に、試着者の図示を省略する入力部などの操作指示により、合成画像に含まれる衣服画像の重畳順の変更が指示された場合、生成部12Dは、指示された重畳順に沿って再度合成画像を生成してもよい。そして、第2表示制御部12Eは、生成された合成画像を第2表示部18に表示すればよい。重畳順の変更指示についても、上記と同様に、試着者による予め定めた動きがなされたか否かを判別することで、重畳順の変更指示がなされたと判別してもよい。   Furthermore, when an instruction to change the superimposition order of the clothes image included in the composite image is instructed by an operation instruction of an input unit or the like not shown in the illustration of the fitting person, the generation unit 12D again performs the superimposition order instructed. A composite image may be generated. Then, the second display control unit 12E may display the generated composite image on the second display unit 18. With respect to the superimposing order change instruction, it may be determined that the superimposing order changing instruction has been made by determining whether or not a predetermined movement has been made by the wearer, as described above.

一方、SEQ154で否定判断すると(SEQ154:No)、SEQ160へ進む。   On the other hand, if a negative determination is made in SEQ154 (SEQ154: No), the process proceeds to SEQ160.

次に、受付部12Cが、撮影指示を受け付けたか否かを判断する(SEQ160)。本実施の形態では、受付部12Cは、第2表示部18の前に対峙する試着者の身振り手振りを、試着者による各種指示として受け付ける。例えば、受付部12Cは、試着者が左手を挙げる動きを、撮影指示情報であるとして予め登録する。そして、第1撮影部20Aで撮影された試着者画像、または第2撮影部20Bで撮影されたデプスマップを、公知の方法により解析することで、試着者が左手を挙げる動きをしたと判別したときに、撮影指示を受け付けたと判断すればよい。   Next, the receiving unit 12C determines whether a shooting instruction has been received (SEQ160). In the present embodiment, the accepting unit 12C accepts gesture gestures of the fitting person facing the second display unit 18 as various instructions by the fitting person. For example, the reception unit 12C registers in advance the movement of the try-on that raises the left hand as the shooting instruction information. Then, it is determined that the fitting person has moved up with his left hand by analyzing the fitting person image photographed by the first photographing part 20A or the depth map photographed by the second photographing part 20B by a known method. Sometimes, it may be determined that a shooting instruction has been accepted.

なお、試着者が左手を挙げる動きをしたと判別したときに、第2表示制御部12Eは、該動きに対応する指示情報を示す指示画像を第2表示部18へ表示してもよい。具体的には、試着者が左手を挙げる動きをしたと判別したときに、第2表示制御部12Eは、合成画像の撮影指示を示す指示画像(例えば、「カメラ撮影」などの文字や画像)を、第2表示部18へ表示してもよい。具体的には、試着者画像における、試着者の左手付近に、該指示画像を重畳して表示すればよい。また、上記と同様に、第2表示制御部12Eは、残り時間を更に表示してもよい。   Note that when it is determined that the try-on moves with the left hand up, the second display control unit 12E may display an instruction image indicating instruction information corresponding to the movement on the second display unit 18. Specifically, when it is determined that the try-on moves the left hand, the second display control unit 12E displays an instruction image (for example, characters and images such as “camera shooting”) indicating a composite image shooting instruction. May be displayed on the second display unit 18. Specifically, the instruction image may be superimposed and displayed in the vicinity of the left hand of the try-in in the try-on image. Similarly to the above, the second display control unit 12E may further display the remaining time.

図15−2は、撮影指示を示す指示画像を含む、残り時間表示の説明図である。例えば、試着者が左手を挙げる動きをしたと判別したときに、受付部12Cは、第2表示部18へ表示されている合成画像の撮影指示を受け付ける。そして、第2表示制御部御12Eは、指示画像、および、撮影指示の確定までの残り時間を示す第2時間情報、の少なくとも一方を含む合成画像を第2表示部18へ表示する。例えば、図15−2(E)および図15−2(G)に示すように、第2表示制御部12Eは、撮影指示の確定までの残り時間を示す第2時間情報44Dと、指示画像44Eと、の少なくとも一方を含む合成画像Wを第2表示部18に表示する。第2時間情報44Dは、例えば、残り時間を示す数字や、ゲージ(円形のゲージや、棒状のゲージ)を含む画像である。このため、試着者は、この第2時間情報によって示される時間の間に、撮影指示のキャンセルや、他の指示などを行うことができる。なお、図15−2(G)は、図15−2(E)の拡大画像である。   FIG. 15B is an explanatory diagram of a remaining time display including an instruction image indicating a photographing instruction. For example, when it is determined that the try-on moves to raise the left hand, the accepting unit 12C accepts an instruction to capture the composite image displayed on the second display unit 18. Then, the second display control unit 12E displays a composite image including at least one of the instruction image and the second time information indicating the remaining time until the photographing instruction is confirmed on the second display unit 18. For example, as illustrated in FIGS. 15-2 (E) and 15-2 (G), the second display control unit 12E includes second time information 44D indicating the remaining time until the photographing instruction is confirmed, and an instruction image 44E. And the synthesized image W including at least one of them is displayed on the second display unit 18. The second time information 44D is, for example, an image including a number indicating the remaining time and a gauge (a circular gauge or a rod-shaped gauge). For this reason, the try-on can cancel the shooting instruction or perform other instructions during the time indicated by the second time information. FIG. 15-2 (G) is an enlarged image of FIG. 15-2 (E).

そして、第2表示制御部12Eは、第2時間情報によって示される残り時間の経過後に、指示画像(ここでは、例えば、「カメラ撮影」などの文字や画像)、および、撮影指示に応じた処理の実行までの残り時間を示す第3時間情報44F、の少なくとも一方を含む合成画像を第2表示部18へ表示する(図15−2(F)および図15−2(H)参照)。なお、図15−2(H)は、図15−2(F)の拡大画像である。このため、試着者は、この第3時間情報44Fによって示される時間の間に、腕をおろす等の姿勢の変更を行うことができる。   Then, after the remaining time indicated by the second time information has elapsed, the second display control unit 12E performs processing according to the instruction image (here, for example, characters and images such as “camera shooting”) and the shooting instruction. The composite image including at least one of the third time information 44F indicating the remaining time until the execution of is displayed on the second display unit 18 (see FIGS. 15-2 (F) and 15-2 (H)). FIG. 15-2 (H) is an enlarged image of FIG. 15-2 (F). For this reason, the try-on can change the posture such as lifting his arm during the time indicated by the third time information 44F.

なお、上記第1時間情報、上記第2時間情報、または上記第3時間情報が第2表示部19へ表示されているときに、受付部12Cが、試着者の左右方向(右手方向または左手方向)に向かって試着者が手または腕を動かす動きをしたと判別した場合、試着者による各種指示の変更を受け付けたと判断してもよい。試着者の動きは、上記と同様にして、デプスマップや試着者画像から判断すればよい。例えば、受付部12Cが、試着者の左右方向への動きを判別した場合、「合成画像の変更指示」から「撮影指示」への指示の変更、または、「撮影指示」から「合成画像の変更指示」への指示の変更を受け付けたと判断してもよい。そして、制御部12では、変更された指示に応じた上記処理を実行すればよい。   When the first time information, the second time information, or the third time information is displayed on the second display unit 19, the reception unit 12 </ b> C displays the fitting person in the left-right direction (right-hand direction or left-hand direction). ), It may be determined that a change of various instructions by the wearer has been accepted. The movement of the fitting person may be determined from the depth map and the fitting person image in the same manner as described above. For example, when the accepting unit 12C determines the movement of the fitting person in the left-right direction, the instruction is changed from the “composite image change instruction” to the “shooting instruction” or the “shooting instruction” is changed to “the composite image change”. It may be determined that an instruction change to “instruction” has been accepted. And the control part 12 should just perform the said process according to the changed instruction | indication.

SEQ160で否定判断すると(SEQ160:No)、後述するSEQ174へ進む。SEQ160で肯定判断すると(SEQ160:Yes)、SEQ162へ進む。SEQ162では、第1送信部12Hが、試着情報を第1サーバ装置28へ送信する(SEQ162)。この試着情報は、直前に表示していた合成画像に含まれる、1または複数の衣服画像の衣服IDと、該合成画像に含まれる試着者画像の試着者IDと、該衣服IDによって特定される衣服の衣服画像と、を含む。すなわち、第1送信部12Hは、上記第3時間情報によって示される残り時間の経過後に、第2表示部18に表示されている合成画像に関する上記試着情報を、第1サーバ装置28へ送信する。   If a negative determination is made in SEQ160 (SEQ160: No), the process proceeds to SEQ174 described later. If an affirmative determination is made in SEQ 160 (SEQ 160: Yes), the flow proceeds to SEQ 162. In SEQ162, the first transmitter 12H transmits the try-on information to the first server device 28 (SEQ162). This try-on information is specified by the clothes ID of one or more clothes images included in the composite image displayed immediately before, the try-on IDs of the try-in images included in the composite image, and the clothes ID. And a clothing image of the clothing. That is, the first transmission unit 12H transmits the fitting information on the composite image displayed on the second display unit 18 to the first server device 28 after the remaining time indicated by the third time information has elapsed.

第1サーバ装置28の第2受信部28Fは、仮想試着装置10から試着情報を受信する。そして、作成部28Hが、第2受信部28Fで受信した試着情報に含まれる、衣服ID(第1識別情報)、および試着者ID(第2識別情報)の少なくとも一方に応じた、特典情報を生成する(SEQ164)。   The second receiving unit 28 </ b> F of the first server device 28 receives try-on information from the virtual try-on device 10. Then, the creation unit 28H obtains privilege information according to at least one of the clothes ID (first identification information) and the try-on ID (second identification information) included in the fitting information received by the second receiving unit 28F. Generate (SEQ164).

次に、作成部28Hは、受信した試着情報に含まれる衣服IDに対応する衣服画像や、該衣服IDに対応する属性情報を第3情報から読取る。そして、作成部28Hは、読取った属性情報に含まれる特典情報および販売店情報と、受信した試着情報に含まれる衣服IDによって特定される衣服の衣服画像と、を含むウェブページを生成し、記憶部28Bに記憶する(SEQ166、SEQ168)。   Next, the creation unit 28H reads the clothing image corresponding to the clothing ID included in the received fitting information and the attribute information corresponding to the clothing ID from the third information. Then, the creation unit 28H generates and stores a web page including the privilege information and the store information included in the read attribute information and the clothes image of the clothes specified by the clothes ID included in the received fitting information. The data is stored in the unit 28B (SEQ166, SEQ168).

次に、第2送信部28Gが、該ウェブページの記憶場所を示すURLを、仮想試着装置10へ送信する(SEQ170)。   Next, the second transmission unit 28G transmits a URL indicating the storage location of the web page to the virtual try-on device 10 (SEQ 170).

仮想試着装置10では、第1サーバ装置28からURLを受信する。すると、仮想試着装置10の出力部12Jは、第1サーバ装置28から受信したURLを、一次元コードや、二次元コードを示す画像に変換し、第2表示部18へ出力する(SEQ172)。   The virtual try-on device 10 receives the URL from the first server device 28. Then, the output unit 12J of the virtual try-on device 10 converts the URL received from the first server device 28 into an image indicating a one-dimensional code or a two-dimensional code, and outputs the image to the second display unit 18 (SEQ172).

試着者は、第2表示部18に表示された一次元コードや二次元コードを、試着者の有する携帯端末などで読取ることで、携帯端末を介して、生成されたウェブページに容易にアクセスすることができる。また、試着者は、このウェブページを閲覧することで、試着した衣服画像や、衣服画像に対応する属性情報を容易に確認することができる。   The try-on can easily access the generated web page via the portable terminal by reading the one-dimensional code or the two-dimensional code displayed on the second display unit 18 with the portable terminal of the try-on. be able to. Moreover, the try-on person can easily confirm the clothes image and the attribute information corresponding to the clothes image by browsing this web page.

また、第2表示部18に表示された一次元コードや二次元コードが特典情報を示すとする。この場合、試着者は、特典情報を、試着者の有する携帯端末の表示部などに表示させることで、試着した衣服の販売店などで特典情報に応じたサービスを受けることができる。また、試着者は、特典情報を紙媒体などに印刷させることで、衣服の販売店などで、特典情報に応じたサービスを受けることが出来る。   Further, it is assumed that the one-dimensional code or the two-dimensional code displayed on the second display unit 18 indicates privilege information. In this case, the try-on can display the benefit information on the display unit of the portable terminal of the try-on, and can receive a service corresponding to the benefit information at a store of the clothes that are tried on. In addition, the try-on person can receive services according to the privilege information at a clothing store or the like by printing the privilege information on a paper medium or the like.

次に、受付部12Cは、仮想試着の終了指示を受け付けたか否かを判断する(SEQ174)。例えば、受付部12Cは、図示を省略する入力部や外部装置から終了指示を示す信号を受信したか否かを判別することで、仮想試着の終了指示を受け付けたか否かを判断してもよい。また、試着者が予め定めた終了指示を示す動作を行ったと判別したときに、仮想試着の終了指示を受け付けたと判断してもよい。   Next, the receiving unit 12C determines whether or not a virtual fitting end instruction has been received (SEQ174). For example, the reception unit 12C may determine whether a virtual fitting end instruction has been received by determining whether a signal indicating an end instruction has been received from an input unit (not shown) or an external device. . Further, when it is determined that the try-on has performed an operation indicating a predetermined end instruction, it may be determined that a virtual try-on end instruction has been received.

SEQ174で否定判断すると(SEQ174:No)、上記SEQ154へ戻る。一方、SEQ174で肯定判断すると(SEQ174:Yes)、処理を終了する。   If a negative determination is made in SEQ174 (SEQ174: No), the process returns to SEQ154. On the other hand, if an affirmative determination is made in SEQ174 (SEQ174: Yes), the process is terminated.

一方、第2サーバ装置32は、所定時間ごとに、以下の処理を実行する。   On the other hand, the second server device 32 executes the following processing every predetermined time.

まず、収集部32Fが、インターネット36に接続された各種サーバ装置などから、所定時間ごとに、衣服画像や衣服画像に対応する属性情報などを収集する(SEQ180)。   First, the collection unit 32F collects clothing images, attribute information corresponding to the clothing images, and the like at predetermined time intervals from various server devices connected to the Internet 36 (SEQ180).

次に、第2生成部32Gは、収集した衣服画像および属性情報を用いて、第1情報(図4参照)および第3情報(図9参照)を生成する(SEQ182)。   Next, the second generation unit 32G generates first information (see FIG. 4) and third information (see FIG. 9) using the collected clothes image and attribute information (SEQ182).

配信部32Hは、仮想試着装置10および第1サーバ装置28へ、第1情報を配信する(SEQ184)。また、配信部32Hは、第1サーバ装置28へ、第3情報を配信する(SEQ184)。   The distribution unit 32H distributes the first information to the virtual try-on device 10 and the first server device 28 (SEQ184). Also, the distribution unit 32H distributes the third information to the first server device 28 (SEQ184).

仮想試着装置10では、第2サーバ装置32から配信された第1情報を受信すると、更新部12K(図3参照)が、受信した第1情報を記憶部14へ記憶することにより、記憶部14に記憶されている第1情報を更新する。   In the virtual try-on device 10, when the first information distributed from the second server device 32 is received, the update unit 12K (see FIG. 3) stores the received first information in the storage unit 14, whereby the storage unit 14 The first information stored in is updated.

第1サーバ装置28では、第2サーバ装置32から配信された第3情報を受信すると、第1サーバ装置28の制御部28Dが、受信した第3情報を記憶部28Bに記憶することにより、記憶部28Bに記憶されている第3情報を更新する。   When the first server device 28 receives the third information distributed from the second server device 32, the control unit 28D of the first server device 28 stores the received third information in the storage unit 28B, thereby storing the information. The third information stored in the unit 28B is updated.

以上説明したように、本実施の形態の仮想試着装置10は、第1取得部12Aと、第1表示制御部12Bと、受付部12Cと、生成部12Dと、第2表示制御部12Eと、を備える。第1取得部12Aは、試着者の特徴情報を取得する。第1表示制御部12Bは、特徴情報と、衣服画像と、を少なくとも対応づけた第1情報における、取得した特徴情報に対応する衣服画像を第1表示部24Cに表示する。受付部12Cは、第1表示部24Cに表示された衣服画像の内、試着対象の衣服の衣服画像の選択を試着者から受け付ける。生成部12Dは、試着者の試着者画像と、選択された衣服画像と、の合成画像を生成する。第2表示制御部12Eは、合成画像を第2表示部18に表示する。   As described above, the virtual try-on device 10 of the present embodiment includes the first acquisition unit 12A, the first display control unit 12B, the reception unit 12C, the generation unit 12D, the second display control unit 12E, Is provided. 12 A of 1st acquisition parts acquire the feature information of a try-on person. The first display control unit 12B displays, on the first display unit 24C, the clothing image corresponding to the acquired feature information in the first information in which the feature information and the clothing image are associated at least. The receiving unit 12C receives a selection of a clothing image of a clothing to be tried on from among the clothing images displayed on the first display unit 24C. The generation unit 12D generates a composite image of the try-on image of the try-on and the selected clothing image. The second display control unit 12E displays the composite image on the second display unit 18.

このように、本実施の形態の仮想試着装置10では、試着者による試着対象の衣服画像の選択時に、試着者の特徴情報に応じた衣服画像を表示する。このため、試着者は、試着者の特徴情報に応じた衣服画像の中から、試着対象の衣服画像を選択することができる。   As described above, in the virtual try-on device 10 according to the present embodiment, the clothes image corresponding to the feature information of the try-on is displayed when the try-on wearer selects a clothing image to be tried on. For this reason, the try-on can select a clothing image to be tried on from the clothing images corresponding to the feature information of the try-on.

従って、本実施の形態の仮想試着装置10では、各々の試着者に応じた仮想試着サービスを提供することができる。   Therefore, the virtual try-on device 10 of the present embodiment can provide a virtual try-on service according to each try-on person.

また、仮想試着装置10を店舗等の予め定めた領域に設置した場合、該店舗に来店した来店者としての試着者は、該店舗における待ち時間の間に、試着者の特徴情報の入力や、試着対象の衣服画像の選択を行うことで、待ち時間の終了後に、仮想試着を楽しむことが可能となる。   Further, when the virtual try-on device 10 is installed in a predetermined area such as a store, the try-on as a visitor who has visited the store can input the feature information of the try-on during the waiting time in the store, By selecting a clothing image to be tried on, it is possible to enjoy virtual try-on after the end of the waiting time.

具体的には、店舗として美容院に仮想試着装置10を設置した場合を想定する。この場合、美容院に来店した試着者に対して、美容院における待ち時間の間に、特徴情報の入力や、試着対象の衣服画像の選択を、第1端末24により行わせる。そして、試着者が美容院で施されるカラーリングなどのサービスを受けた後に、仮想試着装置10の第2表示部18の前に立ち、所望の第2情報を選択する。これにより、試着者は、カラーリング後の試着者の試着者画像と、事前に試着対象として選択した衣服画像と、の合成画像を、第2表示部18で確認することができる。   Specifically, it is assumed that the virtual try-on device 10 is installed in a beauty salon as a store. In this case, the first terminal 24 causes the first person 24 to enter the feature information and select the clothing image to be tried on during the waiting time at the beauty salon for the dressing person who has visited the beauty salon. Then, after receiving a service such as coloring provided at the beauty salon, the try-on person stands in front of the second display unit 18 of the virtual try-on device 10 and selects desired second information. Thereby, the try-on can confirm a composite image of the try-on image of the try-on after coloring and the clothing image selected as a try-on target in advance on the second display unit 18.

また、第1情報は、各衣服の販売店や各衣服のブランドなどに関わらず、第2サーバ装置32から配信された全ての衣服画像を含む。そして、仮想試着装置10の第1表示制御部12Bは、第1情報における、試着者の特徴情報に対応する衣服画像を第1表示部24Cに表示する。   Further, the first information includes all the clothing images distributed from the second server device 32 regardless of each clothing store or each clothing brand. Then, the first display control unit 12B of the virtual try-on device 10 displays a clothing image corresponding to the feature information of the fitting person in the first information on the first display unit 24C.

このため、試着者は、衣服を提供する特定のブランドや特定の販売店に限定されず、仮想試着システム1や仮想試着装置10で管理している全ての衣服画像の内、試着者の特徴情報に対応する衣服画像の中から、試着対象の衣服画像を選択することができる。   For this reason, the try-on is not limited to a specific brand or a specific store that provides clothes, and the feature information of the try-on among all the clothes images managed by the virtual try-on system 1 and the virtual try-on device 10. The clothing image to be tried on can be selected from the clothing images corresponding to.

また、第1表示制御部12Bは、予め定めた抽出条件に応じて抽出された、複数の衣服画像の組合せによって示される推奨組合せ画像を、更に第1表示部24Cに表示する。このため、本実施の形態の仮想試着装置10は、上記効果に加えて、更に、衣服の販売促進につながる情報を試着者に対して容易に提供することができる。   In addition, the first display control unit 12B further displays a recommended combination image, which is extracted according to a predetermined extraction condition and indicated by a combination of a plurality of clothes images, on the first display unit 24C. For this reason, in addition to the above effects, the virtual try-on device 10 according to the present embodiment can further easily provide information that leads to sales promotion of clothes to the try-on person.

また、仮想試着装置10の第1送信部12Hは、試着対象の衣服画像を識別する衣服ID(第1識別情報)と、衣服画像の衣服を試着する試着者の試着者ID(第2識別情報)と、を含む試着情報を、ネットワークを介して接続された第1サーバ装置28へ送信する。第1受信部12Iは、衣服IDおよび試着者IDの少なくとも一方に応じた特典情報を第1サーバ装置28から受信する。   In addition, the first transmission unit 12H of the virtual try-on device 10 includes a clothes ID (first identification information) for identifying a clothes image to be tried on, and a try-on ID (second identification information) of a try-on that tries on clothes in the clothes image. Are transmitted to the first server device 28 connected via the network. The first reception unit 12I receives privilege information corresponding to at least one of the clothes ID and the try-on ID from the first server device 28.

また、第1サーバ装置28の第2受信部28Fは、試着情報を仮想試着装置10から受信する。作成部28Hは、受信した試着情報に含まれる衣服IDおよび試着者IDの少なくとも一方に応じた特典情報を作成する。第2送信部28Gは、特典情報を仮想試着装置10へ送信する。   In addition, the second receiving unit 28 </ b> F of the first server device 28 receives the try-on information from the virtual try-on device 10. The creation unit 28H creates privilege information corresponding to at least one of the clothes ID and the try-on ID included in the received fitting information. The second transmitter 28G transmits the privilege information to the virtual try-on device 10.

このため、本実施の形態の仮想試着装置10および仮想試着システム1は、試着者によって試着された衣服画像や、試着者の特徴情報に応じた特典情報を、容易に提供することができる。また、仮想試着装置10および仮想試着システム1では、試着者を、衣服を販売する販売店や仮想店舗へ誘導させる特典情報を、容易に提供することができるので、衣服の販売促進につながる情報を容易に提供することができる。   For this reason, the virtual try-on device 10 and the virtual try-on system 1 according to the present embodiment can easily provide privilege information according to the clothes image tried on by the try-on and the feature information of the try-on. In addition, the virtual try-on device 10 and the virtual try-on system 1 can easily provide privilege information that guides a try-on to a store that sells clothes or a virtual store, so information that leads to sales promotion of clothes can be provided. Can be provided easily.

従って、本実施の形態の仮想試着装置10および仮想試着システム1では、各々の試着者に応じた仮想試着サービスを提供することができる。   Therefore, in the virtual try-on device 10 and the virtual try-on system 1 of the present embodiment, a virtual try-on service corresponding to each try-on person can be provided.

また、第2サーバ装置32の収集部32Fは、インターネット36に接続された各種サーバ装置などから、所定時間ごとに、衣服画像や衣服画像に対応する属性情報などを収集する。第2生成部32Gは、収集した衣服画像および属性情報を用いて、第1情報(図4参照)および第3情報(図9参照)を生成する。配信部32Hは、生成した第1情報および第3情報を、仮想試着装置10および第1サーバ装置28へ配信する。   Further, the collection unit 32F of the second server device 32 collects clothing images, attribute information corresponding to the clothing images, and the like from the various server devices connected to the Internet 36 at predetermined time intervals. The second generation unit 32G generates first information (see FIG. 4) and third information (see FIG. 9) using the collected clothes image and attribute information. The distribution unit 32H distributes the generated first information and third information to the virtual try-on device 10 and the first server device 28.

このため、仮想試着装置10および第1サーバ装置28は、最新の衣服画像を用いて、上記各種処理を実行することができる。   For this reason, the virtual try-on device 10 and the first server device 28 can execute the various processes described above using the latest clothing image.

なお、本実施の形態では、特徴情報に対応する衣服画像の読取、体型パラメータの取得、合成画像の生成、などの各種処理を、仮想試着装置10で実行する場合を説明した。しかし、これらの処理を、第1端末24で実行してもよい。この場合、仮想試着装置10の制御部12における各機能部を、第1端末24の制御部24Dに搭載した形態とすればよい。   In the present embodiment, a case has been described in which various processes such as reading of a clothing image corresponding to feature information, acquisition of body parameters, generation of a composite image, and the like are executed by the virtual try-on device 10. However, these processes may be executed by the first terminal 24. In this case, each functional unit in the control unit 12 of the virtual try-on device 10 may be mounted on the control unit 24D of the first terminal 24.

また、この場合、第1端末24は、体型パラメータを、仮想試着装置10から取得してもよいし、第1端末24の入力部24Aから取得してもよい。   In this case, the first terminal 24 may acquire the body shape parameter from the virtual try-on device 10 or may be acquired from the input unit 24 </ b> A of the first terminal 24.

第1端末24が、仮想試着装置10で実行する処理を実行可能とすることで、試着者は、予め定められた領域外(例えば、試着者の自宅)や、任意の場所で、仮想試着を行うことができる。   By enabling the first terminal 24 to execute the process executed by the virtual try-on device 10, the try-on can perform virtual try-on outside a predetermined area (for example, the home of the try-on) or at any place. It can be carried out.

また、本実施の形態では、第1端末24は、店舗内などの予め定められた領域内で用いられる端末である場合を説明した。しかし、第1端末24は、試着者の有する携帯端末であってもよい。   In the present embodiment, the case where the first terminal 24 is a terminal used in a predetermined area such as in a store has been described. However, the first terminal 24 may be a portable terminal of a try-on person.

(第2の実施の形態)
本実施の形態では、試着者の予定待ち時間に応じて、試着対象の衣服画像の選択時に表示する衣服画像の数または種類を調整する形態を説明する。
(Second Embodiment)
In the present embodiment, a mode will be described in which the number or type of clothing images to be displayed when selecting a clothing image to be tried on is adjusted according to the scheduled waiting time of the try-on.

図1は、本実施の形態の仮想試着システム1Aの模式図である。   FIG. 1 is a schematic diagram of a virtual try-on system 1A of the present embodiment.

仮想試着システム1Aは、仮想試着装置10Aと、第1端末24と、第2端末26と、第1サーバ装置28と、第3サーバ装置30と、第2サーバ装置32と、を備える。仮想試着装置10Aと、第1端末24と、第2端末26と、第1サーバ装置28と、第3サーバ装置30と、第2サーバ装置32と、は、インターネット等の公知の通信網を介して接続されている。   The virtual try-on system 1A includes a virtual try-on device 10A, a first terminal 24, a second terminal 26, a first server device 28, a third server device 30, and a second server device 32. The virtual try-on device 10A, the first terminal 24, the second terminal 26, the first server device 28, the third server device 30, and the second server device 32 are connected via a known communication network such as the Internet. Connected.

仮想試着システム1Aは、仮想試着装置10に代えて、仮想試着装置10Aを備えた以外は、第1の実施の形態の仮想試着システム1と同様の構成である。   The virtual try-on system 1A has the same configuration as the virtual try-on system 1 of the first embodiment except that a virtual try-on device 10A is provided instead of the virtual try-on device 10.

仮想試着装置10Aは、制御部13と、記憶部14Aと、本体部16と、を備える。本体部16は、撮影部20と、第2表示部18と、照射部22と、を含む。本体部16は、第1の実施の形態と同様である。記憶部14Aと、制御部13と、本体部16と、は信号授受可能に接続されている。   The virtual try-on device 10 </ b> A includes a control unit 13, a storage unit 14 </ b> A, and a main body unit 16. The main body 16 includes a photographing unit 20, a second display unit 18, and an irradiation unit 22. The main body 16 is the same as that of the first embodiment. The storage unit 14A, the control unit 13, and the main body unit 16 are connected so as to be able to exchange signals.

図16は、仮想試着装置10Aの機能ブロック図である。   FIG. 16 is a functional block diagram of the virtual try-on device 10A.

記憶部14Aは、公知のハードディスクデバイスである。記憶部14Aは、各種データを記憶する。本実施の形態では、記憶部14Aは、第1情報、第2情報、および第4情報などの各種データを記憶する。第1情報、および第2情報は、第1の実施の形態と同様である。   The storage unit 14A is a known hard disk device. The storage unit 14A stores various data. In the present embodiment, the storage unit 14A stores various data such as first information, second information, and fourth information. The first information and the second information are the same as those in the first embodiment.

第4情報は、予測時間と予定待ち時間との関係と、表示条件と、を対応付けた情報である。図17は、第4情報のデータ構造の一例を示す図である。   The fourth information is information in which the relationship between the predicted time and the scheduled waiting time is associated with the display condition. FIG. 17 is a diagram illustrating an example of a data structure of the fourth information.

予測時間は、第1表示部24Cに表示された複数の衣服画像の中から、試着者が試着対象の選択を行うために要する推定の時間を示す。予測時間は、制御部13によって算出される(詳細後述)。   The predicted time indicates an estimated time required for the try-on to select a try-on target from the plurality of clothes images displayed on the first display unit 24C. The predicted time is calculated by the control unit 13 (details will be described later).

予定待ち時間は、試着者が、仮想試着装置10Aの設置された店舗などの領域内で、該店舗が提供するサービスを受けるまでに要する予定待ち時間を示す。予定待ち時間は、制御部13で取得される(詳細後述)。   The scheduled waiting time indicates the scheduled waiting time required for the try-on person to receive the service provided by the store in an area such as the store where the virtual try-on device 10A is installed. The scheduled waiting time is acquired by the control unit 13 (details will be described later).

表示条件は、第1表示部24Cに選択可能に表示する衣服画像の表示条件を示す。本実施の形態では、表示条件には、予定待ち時間に対する予測時間が長いほど、第1表示部24Cに表示する衣服画像の種類及び表示数の少なくとも一方が少なくなるように、表示する衣服画像の数、および表示する衣服画像の種類の少なくとも一方が定められている。   The display condition indicates the display condition of the clothing image displayed on the first display unit 24C so as to be selectable. In the present embodiment, the display condition is that the clothing image to be displayed is displayed such that at least one of the type and the number of display of the clothing images displayed on the first display unit 24C decreases as the predicted time for the scheduled waiting time increases. At least one of the number and the type of clothes image to be displayed is determined.

図17に示す例では、予測時間tsと予定待ち時間twとの関係「ts<tw」には、「衣服画像数M1個」、および「全種類S1の衣服」の少なくとも一方が表示条件として対応づけられている。予測時間tsと予定待ち時間twとの関係「tw<ts<2tw」には、「衣服画像数M2個」、および「全種類の衣服の内のS2種」の少なくとも一方が表示条件として対応づけられている。予測時間tsと予定待ち時間twとの関係「2tw<ts<3tw」には、「衣服画像数M3個」、および「全種類の衣服の内のS3種」の少なくとも一方が表示条件として対応づけられている。予測時間tsと予定待ち時間twとの関係「3tw<ts」には、「衣服画像数M4個」、および「全種類の衣服の内のS4種」の少なくとも一方が表示条件として対応づけられている。   In the example shown in FIG. 17, at least one of “the number of clothes images M1” and “the clothes of all types S1” corresponds to the relationship “ts <tw” between the predicted time ts and the scheduled waiting time tw as the display condition. It is attached. The relationship “tw <ts <2tw” between the predicted time ts and the scheduled waiting time tw is associated with at least one of “M2 clothing images” and “S2 of all types of clothing” as a display condition. It has been. The relationship between the predicted time ts and the scheduled waiting time tw “2tw <ts <3tw” is associated with at least one of “M3 clothing images” and “S3 types of all types of clothing” as a display condition. It has been. The relationship “3tw <ts” between the predicted time ts and the scheduled waiting time tw is associated with at least one of “M4 clothing images” and “S4 of all types of clothing” as a display condition. Yes.

なお、M1、M2、M3、M4の各々は、1以上の整数を示し、M1>M2>M3>M4の関係を示す。また、S1、S2、S3、S4の各々は、1以上の整数を示し、S1>S2>S3>S4の関係を示す。   Note that each of M1, M2, M3, and M4 represents an integer of 1 or more, and represents a relationship of M1> M2> M3> M4. Each of S1, S2, S3, and S4 represents an integer of 1 or more, and indicates a relationship of S1> S2> S3> S4.

衣服の種類は、第1の実施の形態で説明したように、例えば、トップス、ボトムス、アウター、インナーなどである。   The types of clothes are, for example, tops, bottoms, outer, inner, etc., as described in the first embodiment.

なお、表示条件に示される、衣服画像数や衣服の種類は、予定待ち時間内に、試着者が、組合せて試着する少なくとも1種類の組合せの衣服画像を選択可能となるように、予め調整すればよい。少なくとも1種類の組合せの衣服画像とは、例えば、トップス、ボトムス、アウター、などの衣服の種類の各々ごとに、1種類の衣服画像を選択した組合せを示す。   Note that the number of clothing images and the type of clothing shown in the display conditions are adjusted in advance so that the try-on can select at least one type of clothing image to be tried on in combination within the scheduled waiting time. That's fine. The clothes image of at least one type indicates a combination in which one type of clothing image is selected for each type of clothing such as tops, bottoms, and outerwear.

図16に戻り、制御部13は、第1取得部12Aと、第1表示制御部13Bと、受付部12Cと、生成部12Dと、第2表示制御部12Eと、第2取得部12Fと、通信部12G(第1送信部12H、第1受信部12I)と、出力部12Jと、更新部12Kと、第3取得部13Lと、算出部13Mと、決定部13Pと、を含む。   Returning to FIG. 16, the control unit 13 includes a first acquisition unit 12A, a first display control unit 13B, a reception unit 12C, a generation unit 12D, a second display control unit 12E, a second acquisition unit 12F, A communication unit 12G (first transmission unit 12H, first reception unit 12I), an output unit 12J, an update unit 12K, a third acquisition unit 13L, a calculation unit 13M, and a determination unit 13P are included.

第1取得部12A、第1表示制御部13B、受付部12C、生成部12D、第2表示制御部12E、第2取得部12F、通信部12G、出力部12J、更新部12K、第3取得部13L、算出部13M、および決定部13Pの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。   First acquisition unit 12A, first display control unit 13B, reception unit 12C, generation unit 12D, second display control unit 12E, second acquisition unit 12F, communication unit 12G, output unit 12J, update unit 12K, third acquisition unit Part or all of the 13L, the calculation unit 13M, and the determination unit 13P may be realized by causing a processing device such as a CPU to execute a program, that is, by software, or by hardware such as an IC. It may be realized by using software and hardware together.

第1取得部12A、受付部12C、生成部12D、第2表示制御部12E、第2取得部12F、通信部12G(第1送信部12H、第1受信部12I)、出力部12J、および更新部12Kは、第1の実施の形態と同様である。   First acquisition unit 12A, reception unit 12C, generation unit 12D, second display control unit 12E, second acquisition unit 12F, communication unit 12G (first transmission unit 12H, first reception unit 12I), output unit 12J, and update The part 12K is the same as that of the first embodiment.

第3取得部13Lは、試着者の予定待ち時間を取得する。詳細には、第3取得部13Lは、試着者IDと、該試着者IDによって特定される試着者の予定待ち時間と、を取得する。本実施の形態では、第3取得部13Lは、第2端末26から、試着者IDと、予定待ち時間と、を取得する。ユーザは、第2端末26の入力部26Aを操作することで、試着者IDおよび予定待ち時間を入力する。第2端末26は、入力部26Aから受け付けた試着者IDおよび予定待ち時間を、仮想試着装置10Aへ送信すればよい。   The third acquisition unit 13L acquires the scheduled waiting time of the try-on. Specifically, the third acquisition unit 13L acquires the try-on ID and the scheduled waiting time of the try-on specified by the try-on ID. In the present embodiment, the third acquisition unit 13L acquires the try-on ID and the scheduled waiting time from the second terminal 26. The user inputs the try-on ID and the scheduled waiting time by operating the input unit 26 </ b> A of the second terminal 26. The second terminal 26 may transmit the try-on ID and the scheduled waiting time received from the input unit 26A to the virtual try-on device 10A.

なお、第3取得部13Lは、仮想試着装置10Aに設けられた図示を省略する入力部などから、試着者IDと予定待ち時間とを取得してもよい。   Note that the third acquisition unit 13L may acquire the try-on ID and the scheduled waiting time from an input unit (not shown) provided in the virtual try-on device 10A.

算出部13Mは、予測時間を算出する。具体的には、算出部13Mは、第1情報における、第1取得部12Aで取得した特徴情報に対応する衣服画像の数から、予測時間を算出する。   The calculation unit 13M calculates the predicted time. Specifically, the calculation unit 13M calculates the predicted time from the number of clothes images corresponding to the feature information acquired by the first acquisition unit 12A in the first information.

詳細には、算出部13Mは、第1情報における、第1取得部12Aで取得した特徴情報に対応する衣服画像について、衣服の種類ごとの衣服画像の数を算出する。そして、算出部13Mは、各衣服の種類ごとの衣服画像の数の乗算値に、定数を乗じた数を、予測時間として算出する。定数は、予め定めればよい。   Specifically, the calculation unit 13M calculates the number of clothing images for each type of clothing for the clothing images corresponding to the feature information acquired by the first acquisition unit 12A in the first information. Then, the calculation unit 13M calculates, as the predicted time, a number obtained by multiplying the multiplication value of the number of clothes images for each type of clothes by a constant. The constant may be determined in advance.

例えば、第1情報における、特徴情報に対応する衣服画像の数が、衣服の種類「トップス」についてはN個、衣服の種類「インナー」についてはN個、衣服の種類「ボトムス」についてはN個であったとする(すなわち、特徴情報に対応する衣服の種類が3種であったとする)。なお、N、N、およびNは、各々、1以上の整数である。 For example, in the first information, the number of clothing image corresponding to the feature information, one N for garment type "tops", two N for garment type "inner", the garment type "bottoms" are N is assumed to be 3 (that is, there are 3 types of clothes corresponding to the feature information). N 1 , N 2 , and N 3 are each an integer of 1 or more.

この場合、N×N×N通りの衣服画像の組合せが存在することとなる。このため、算出部13Mは、予測時間を、下記式(1)を用いて算出する。 In this case, there are N 1 × N 2 × N 3 combinations of clothing images. Therefore, the calculation unit 13M calculates the predicted time using the following formula (1).

ts=kN ・・・式(1) ts = kN 1 N 2 N 3 Formula (1)

式(1)中、kは定数を示し、tsは予測時間を示す。なお、式(1)中、ts、N、N、およびNは、上記と同じである。 In equation (1), k represents a constant, and ts represents the predicted time. In formula (1), ts, N 1 , N 2 , and N 3 are the same as described above.

決定部13Pは、予定待ち時間に対する予測時間が長いほど、第1表示部24Cに表示する衣服画像の種類及び表示数の少なくとも一方が少なくなるように、第1表示部24Cに表示する対象の衣服画像の種類及び表示数の少なくとも一方を決定する。   The determination unit 13P has a target clothing to be displayed on the first display unit 24C such that the longer the estimated time with respect to the scheduled waiting time, the smaller the type and number of display of the clothing images displayed on the first display unit 24C. At least one of the image type and the display number is determined.

本実施の形態では、決定部13Pは、第4情報(図17参照)における、第3取得部13Lで取得した予定待ち時間と、算出部13Mで算出した予測時間と、の関係に対応する表示条件を読取る。これによって、決定部13Pは、第1表示部24Cに表示する対象の衣服画像の種類及び表示数の少なくとも一方を決定する。   In the present embodiment, the determination unit 13P displays in correspondence with the relationship between the scheduled waiting time acquired by the third acquisition unit 13L and the predicted time calculated by the calculation unit 13M in the fourth information (see FIG. 17). Read the condition. Thereby, the determination unit 13P determines at least one of the type and the number of display of the clothing image to be displayed on the first display unit 24C.

第1表示制御部13Bは、第1の実施の形態の第1表示制御部12Bと同様に、第1情報における、第1取得部12Aで取得した特徴情報に対応する衣服画像を、第1表示部24Cに表示する。   Similar to the first display control unit 12B of the first embodiment, the first display control unit 13B first displays a clothing image corresponding to the feature information acquired by the first acquisition unit 12A in the first information. Displayed on the part 24C.

なお、本実施の形態では、第1表示制御部13Bは、第1情報における、取得した特徴情報に対応する衣服画像の内、決定部13Pで決定した種類および表示数の少なくとも一方の衣服画像を、第1表示部24Cに表示する。   In the present embodiment, the first display control unit 13B selects at least one clothing image of the type and the number of displays determined by the determination unit 13P from among the clothing images corresponding to the acquired feature information in the first information. Displayed on the first display unit 24C.

このため、試着者が試着対象の衣服画像を選択するときに視認する第1端末24の第1表示部24Cには、試着者の特徴情報に対応する衣服画像であって、且つ、予定待ち時間と予測時間との関係に応じた数の衣服画像が表示されることとなる。   For this reason, the first display unit 24C of the first terminal 24 that is visually recognized when the wearer selects a clothing image to be tried on is a clothing image corresponding to the feature information of the wearer and has a scheduled waiting time. The number of clothes images corresponding to the relationship between the estimated time and the estimated time is displayed.

次に、仮想試着システム1Aで実行する仮想試着処理の手順を説明する。   Next, a procedure of virtual try-on processing executed in the virtual try-on system 1A will be described.

図18は、仮想試着システム1Aで実行する仮想試着処理の手順を示すシーケンス図である。なお、仮想試着システム1と同様の処理には、同じシーケンス番号を付与して、説明を省略または簡略化する。   FIG. 18 is a sequence diagram illustrating a procedure of virtual try-on processing executed in the virtual try-on system 1A. In addition, the same sequence number is given to the process similar to the virtual try-on system 1, and description is abbreviate | omitted or simplified.

まず、第2端末26の発行部26Fが、試着者IDを発行する(SEQ100)。次に、第1端末24が、試着者IDを受け付ける(SEQ102)。次に、表示制御部24Fが、特徴情報を特定するための入力項目を入力するための入力画面を第1表示部24Cに表示する(SEQ104)。次に、受付部24Eが、特徴情報を受け付ける(SEQ106)。そして、通信部24Gが、特徴情報を仮想試着装置10Aへ送信する(SEQ108)。   First, the issuing unit 26F of the second terminal 26 issues a try-on ID (SEQ100). Next, the first terminal 24 receives the try-on ID (SEQ102). Next, the display control unit 24F displays an input screen for inputting input items for specifying feature information on the first display unit 24C (SEQ104). Next, the reception unit 24E receives feature information (SEQ106). Then, the communication unit 24G transmits the feature information to the virtual try-on device 10A (SEQ108).

次に、第2端末26が、試着者IDと、予定待ち時間と、を受け付ける(SEQ200)。例えば、ユーザは、第2端末26の入力部26Aを操作することで、試着者IDと、試着者IDによって特定される試着者の予定待ち時間と、を入力する。予定待ち時間は、例えば、店舗内の混雑状況などに応じて、各試着者の予定待ち時間を、ユーザが入力部26Aを用いて入力すればよい。第2端末26の制御部26Dは、入力部26Aから試着者IDと予定待ち時間とを受け付け、仮想試着装置10Aへ送信する(SEQ202)。   Next, the second terminal 26 receives the try-on ID and the scheduled waiting time (SEQ200). For example, the user operates the input unit 26A of the second terminal 26 to input the try-on ID and the scheduled waiting time of the try-on specified by the try-on ID. As for the scheduled waiting time, for example, the user may input the scheduled waiting time of each try-on by using the input unit 26A according to the congestion situation in the store. The control unit 26D of the second terminal 26 receives the try-on ID and the scheduled waiting time from the input unit 26A and transmits them to the virtual try-on device 10A (SEQ202).

仮想試着装置10Aでは、第1取得部12Aが、SEQ108によって第1端末24から送信された特徴情報を取得する。また、仮想試着装置10Aでは、第3取得部13Lが、第2端末26から、試着者IDおよび予定待ち時間を取得する。   In the virtual try-on device 10A, the first acquisition unit 12A acquires the feature information transmitted from the first terminal 24 by SEQ108. In the virtual try-on device 10 </ b> A, the third acquisition unit 13 </ b> L acquires the try-on ID and the scheduled waiting time from the second terminal 26.

次に、算出部13Mが、第1情報と、取得した特徴情報と、を用いて予測時間を算出する(SEQ204)。   Next, the calculation unit 13M calculates the predicted time using the first information and the acquired feature information (SEQ204).

次に、決定部13Pが、SEQ204で算出した予測時間と、SEQ202で取得した予定待ち時間と、の関係に応じて、第1表示部24Cに表示する対象の衣服画像の種類及び表示数の少なくとも一方を決定する(SEQ206)。   Next, according to the relationship between the predicted time calculated in SEQ204 and the scheduled waiting time acquired in SEQ202, the determination unit 13P determines at least the type and the number of display of the clothing images to be displayed on the first display unit 24C. One is determined (SEQ206).

次に、第1表示制御部13Bが、第1情報における、取得した特徴情報に対応する衣服画像の内、決定した種類および表示数の少なくとも一方の衣服画像を読取る(SEQ208)。そして、第1表示制御部13Bは、読取った衣服画像を、第1端末24へ送信する(SEQ112)。   Next, the first display control unit 13B reads at least one clothing image of the determined type and the number of displays among the clothing images corresponding to the acquired feature information in the first information (SEQ208). Then, the first display control unit 13B transmits the read clothing image to the first terminal 24 (SEQ112).

第1端末24の表示制御部24Fは、受け付けた衣服画像を含む表示画面を、第1表示部24Cに表示する(SEQ114)。   The display control unit 24F of the first terminal 24 displays a display screen including the accepted clothing image on the first display unit 24C (SEQ114).

そして、仮想試着システム1Aは、SEQ114〜SEQ184の処理を実行する、なお、SEQ114〜SEQ184の処理は、第1表示制御部12Bで行っていた処理を第1表示制御部13Bが行う以外は、第1の実施の形態と同様である。このため、説明を省略する。   Then, the virtual try-on system 1A executes the processes of SEQ114 to SEQ184. The processes of SEQ114 to SEQ184 are the same as those of the first display control unit 13B except that the process of the first display control unit 12B is performed. This is the same as the first embodiment. Therefore, the description is omitted.

以上説明したように、本実施の形態の仮想試着装置10Aは、第1取得部12Aと、第3取得部13Lと、算出部13Mと、決定部13Pと、第1表示制御部13Bと、受付部12Cと、生成部12Dと、第2表示制御部12Eと、を備える。   As described above, the virtual try-on device 10A of the present embodiment includes the first acquisition unit 12A, the third acquisition unit 13L, the calculation unit 13M, the determination unit 13P, the first display control unit 13B, and the reception. A unit 12C, a generation unit 12D, and a second display control unit 12E are provided.

第1取得部12Aは、試着者の特徴情報を取得する。第3取得部13Lは、試着者の予定待ち時間を取得する。算出部13Mは、第1表示部24Cに表示された複数の衣服画像の中から、試着者が試着対象の選択を行うために要する予測時間を算出する。決定部13Pは、予定待ち時間に対する予測時間が長いほど、第1表示部24Cに表示する衣服画像の種類及び表示数の少なくとも一方が少なくなるように、第1表示部24Cに表示する対象の衣服画像の種類及び表示数の少なくとも一方を決定する。第1表示制御部13Bは、第1情報における、取得した特徴情報に対応する衣服画像の内、決定した種類および表示数の少なくとも一方の衣服画像を、第1表示部24Cに表示する。受付部12Cは、第1表示部24Cに表示された衣服画像の内、試着対象の衣服の衣服画像の選択を試着者から受け付ける。生成部12Dは、試着者の試着者画像と、選択された衣服画像と、の合成画像を生成する。第2表示制御部12Eは、合成画像を第2表示部18に表示する。   12 A of 1st acquisition parts acquire the feature information of a try-on person. The third acquisition unit 13L acquires the scheduled waiting time of the try-on. The calculation unit 13M calculates a predicted time required for the try-on to select a try-on target from the plurality of clothes images displayed on the first display unit 24C. The determination unit 13P has a target clothing to be displayed on the first display unit 24C such that the longer the estimated time with respect to the scheduled waiting time, the smaller the type and number of display of the clothing images displayed on the first display unit 24C. At least one of the image type and the display number is determined. The first display control unit 13B displays, on the first display unit 24C, at least one clothing image of the determined type and the number of displays among the clothing images corresponding to the acquired feature information in the first information. The receiving unit 12C receives a selection of a clothing image of a clothing to be tried on from among the clothing images displayed on the first display unit 24C. The generation unit 12D generates a composite image of the try-on image of the try-on and the selected clothing image. The second display control unit 12E displays the composite image on the second display unit 18.

このように、本実施の形態の仮想試着装置10Aは、第1情報に含まれる衣服画像の内、試着者の特徴情報に対応する衣服画像であって、且つ、予定待ち時間と予測時間との関係に応じた数の衣服画像の一覧を、第1表示部24Cに表示する。   As described above, the virtual try-on device 10A according to the present embodiment is a clothing image corresponding to the feature information of the wearer among the clothing images included in the first information, and includes the scheduled waiting time and the predicted time. A list of clothing images corresponding to the relationship is displayed on the first display unit 24C.

このため、仮想試着装置10Aでは、試着者に対して、予定待ち時間内に、少なくとも1種類の組合せの、試着する対象の複数の衣服画像を選択可能な数および種類の衣服画像を、第1表示部24Cに表示することができる。   Therefore, in the virtual try-on device 10A, the first number of clothes images and the number of kinds of clothes images that can be selected from a plurality of clothes images to be tried on, which are at least one type of combination, within the scheduled waiting time are given to the first person. It can be displayed on the display unit 24C.

従って、本実施の形態の仮想試着装置10Aは、各々の試着者に応じた仮想試着サービスを提供することができる。   Therefore, the virtual try-on device 10A of the present embodiment can provide a virtual try-on service corresponding to each try-on person.

(第3の実施の形態)
本実施の形態では、試着者の特徴情報に応じて、試着対象の衣服画像の選択時に表示する表示画面を変更する形態を説明する。
(Third embodiment)
In the present embodiment, a mode is described in which the display screen displayed when selecting a clothing image to be tried on is changed according to the feature information of the try-on.

図1は、本実施の形態の仮想試着システム1Bの模式図である。   FIG. 1 is a schematic diagram of a virtual fitting system 1B according to the present embodiment.

仮想試着システム1Bは、仮想試着装置10Bと、第1端末24と、第2端末26と、第1サーバ装置28と、第3サーバ装置30と、第2サーバ装置32と、を備える。仮想試着装置10Bと、第1端末24と、第2端末26と、第1サーバ装置28と、第3サーバ装置30と、第2サーバ装置32と、は、インターネット等の公知の通信網を介して接続されている。   The virtual try-on system 1B includes a virtual try-on device 10B, a first terminal 24, a second terminal 26, a first server device 28, a third server device 30, and a second server device 32. The virtual try-on device 10B, the first terminal 24, the second terminal 26, the first server device 28, the third server device 30, and the second server device 32 are connected via a known communication network such as the Internet. Connected.

仮想試着システム1Bは、仮想試着装置10に代えて、仮想試着装置10Bを備えた以外は、第1の実施の形態の仮想試着システム1と同様の構成である。   The virtual try-on system 1B has the same configuration as the virtual try-on system 1 of the first embodiment except that a virtual try-on device 10B is provided instead of the virtual try-on device 10.

仮想試着装置10Bは、制御部15と、記憶部14Bと、本体部16と、を備える。本体部16は、撮影部20と、第2表示部18と、照射部22と、を含む。本体部16は、第1の実施の形態と同様である。記憶部14Bと、制御部15と、本体部16と、は信号授受可能に接続されている。   The virtual try-on device 10 </ b> B includes a control unit 15, a storage unit 14 </ b> B, and a main body unit 16. The main body 16 includes a photographing unit 20, a second display unit 18, and an irradiation unit 22. The main body 16 is the same as that of the first embodiment. The memory | storage part 14B, the control part 15, and the main-body part 16 are connected so that signal transmission / reception is possible.

図19は、仮想試着装置10Bの機能ブロック図である。   FIG. 19 is a functional block diagram of the virtual try-on device 10B.

記憶部14Bは、公知のハードディスクデバイスである。記憶部14Bは、各種データを記憶する。本実施の形態では、記憶部14Bは、第1情報、第2情報、および第5情報などの各種データを記憶する。第1情報、および第2情報は、第1の実施の形態と同様である。   The storage unit 14B is a known hard disk device. The storage unit 14B stores various data. In the present embodiment, the storage unit 14B stores various data such as first information, second information, and fifth information. The first information and the second information are the same as those in the first embodiment.

第5情報は、特徴情報と、画面デザインと、を対応付けた情報である。図20は、第5情報のデータ構造の一例を示す図である。   The fifth information is information in which the feature information is associated with the screen design. FIG. 20 is a diagram illustrating an example of a data structure of the fifth information.

特徴情報は、第1の実施の形態と同様である。すなわち、特徴情報は、試着者の外観的特徴、および内面的特徴の少なくとも一方を含む。詳細には、特徴情報は、試着者の体型を示す体型パラメータ、試着者の特徴色、試着者の年齢層、試着者の性格、試着者の趣向、の少なくとも1つを示す。   The feature information is the same as that in the first embodiment. That is, the feature information includes at least one of an appearance feature and an inner feature of the fitting person. Specifically, the feature information indicates at least one of a body shape parameter indicating the body shape of a try-on, a feature color of the try-on, an age group of the try-on, a personality of the try-on, and a taste of the try-on.

画面デザインは、特徴情報に対応する、表示画面の背景色、表示画面に表示する項目および衣服画像の少なくとも一方の表示サイズ、項目の項目色、および項目および衣服画像の少なくとも一方の表示画面における表示位置などを示す。表示画面に表示する項目とは、表示画面に含まれる、衣服画像以外の画像を示す。表示画面に表示する項目とは、各種操作指示を行うためのボタン画像や、試着者に対する説明を示す文字画像などである。   The screen design corresponds to the feature information, the background color of the display screen, the display size of at least one of the items and clothing images displayed on the display screen, the item color of the items, and the display on the display screen of at least one of the items and clothing images Indicates the location. The item displayed on the display screen indicates an image other than the clothing image included in the display screen. Items to be displayed on the display screen include button images for performing various operation instructions, and character images indicating explanations for try-on users.

第5情報は、予め、ユーザによる図示を省略する入力部の操作指示などによって設定され、記憶部14Bに記憶すればよい。なお、第5情報を外部装置で予め生成し、記憶部14Bに記憶してもよい。   The fifth information may be set in advance by an operation instruction of the input unit (not shown) by the user and stored in the storage unit 14B. Note that the fifth information may be generated in advance by an external device and stored in the storage unit 14B.

第5情報には、例えば、特徴情報に示される年齢層が高いほど、表示画面に表示する項目および衣服画像の少なくとも一方の表示サイズが大きくなるように、対応する画面デザインが設定されている。また、例えば、第5情報には、特徴情報に示される特徴色と同系統の色相の項目色や背景色が、対応する画面デザインとして設定されている。   In the fifth information, for example, a corresponding screen design is set such that the higher the age group indicated in the feature information, the larger the display size of at least one of the items displayed on the display screen and the clothing image. For example, in the fifth information, the item color and background color of the same hue as the feature color indicated in the feature information are set as the corresponding screen design.

図19に戻り、制御部15は、第1取得部12Aと、第1表示制御部15Bと、受付部12Cと、生成部15Dと、第2表示制御部12Eと、第2取得部12Fと、通信部12G(第1送信部12H、第1受信部12I)と、出力部12Jと、更新部12Kと、を含む。   Returning to FIG. 19, the control unit 15 includes a first acquisition unit 12A, a first display control unit 15B, a reception unit 12C, a generation unit 15D, a second display control unit 12E, a second acquisition unit 12F, A communication unit 12G (first transmission unit 12H, first reception unit 12I), an output unit 12J, and an update unit 12K are included.

第1取得部12A、第1表示制御部15B、受付部12C、生成部15D、第2表示制御部12E、第2取得部12F、通信部12G(第1送信部12H、第1受信部12I)、出力部12J、および更新部12Kの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。   First acquisition unit 12A, first display control unit 15B, reception unit 12C, generation unit 15D, second display control unit 12E, second acquisition unit 12F, communication unit 12G (first transmission unit 12H, first reception unit 12I) A part or all of the output unit 12J and the update unit 12K may be realized by causing a processing device such as a CPU to execute a program, that is, by software, or by hardware such as an IC. Alternatively, software and hardware may be used in combination.

第1取得部12A、受付部12C、第2表示制御部12E、第2取得部12F、通信部12G(第1送信部12H、第1受信部12I)、出力部12J、および更新部12Kは、第1の実施の形態と同様である。   The first acquisition unit 12A, the reception unit 12C, the second display control unit 12E, the second acquisition unit 12F, the communication unit 12G (the first transmission unit 12H, the first reception unit 12I), the output unit 12J, and the update unit 12K This is the same as in the first embodiment.

第1表示制御部15Bは、第1の実施の形態の第1表示制御部12Bと同様に、第1情報における、第1取得部12Aで取得した特徴情報に対応する衣服画像を、第1表示部24Cに表示する。   As with the first display control unit 12B of the first embodiment, the first display control unit 15B first displays a clothing image corresponding to the feature information acquired by the first acquisition unit 12A in the first information. This is displayed on the part 24C.

なお、本実施の形態では、第1表示制御部15Bは、第1情報における、取得した特徴情報に対応する衣服画像を含む表示画面を、取得した特徴情報に応じて生成し、第1表示部24Cに表示する。   In the present embodiment, the first display control unit 15B generates a display screen including a clothing image corresponding to the acquired feature information in the first information according to the acquired feature information, and the first display unit 24C is displayed.

すなわち、第1表示制御部15Bは、表示画面に表示する項目および衣服画像の少なくとも一方の表示サイズと、項目の項目色と、項目および衣服画像の少なくとも一方の表示画面における表示位置と、の少なくとも1つを、特徴情報に応じて生成し、第1表示部24Cに表示する。   That is, the first display control unit 15B has at least one of the display size of at least one of the item and the clothing image displayed on the display screen, the item color of the item, and the display position on the display screen of at least one of the item and the clothing image. One is generated according to the feature information and displayed on the first display unit 24C.

詳細には、第1表示制御部15Bは、取得した特徴情報に対応する画面デザインを、第5情報(図20参照)から読取る。そして、第1表示制御部15Bは、第1情報における、取得した特徴情報に対応する衣服画像を、読取った画面デザインに応じた位置および大きさで配置する。また、表示画面に含まれる予め定めた項目を、取得した特徴情報に応じた表示位置、大きさ、および色となるように調整する。これにより、第1表示制御部15Bは、取得した特徴情報に応じた画面デザインの表示画面を生成し、第1表示部24Cに表示する。   Specifically, the first display control unit 15B reads the screen design corresponding to the acquired feature information from the fifth information (see FIG. 20). And the 1st display control part 15B arrange | positions the clothing image corresponding to the acquired feature information in the 1st information in the position and magnitude | size according to the read screen design. Further, the predetermined items included in the display screen are adjusted so as to have the display position, size, and color according to the acquired feature information. Thereby, the first display control unit 15B generates a display screen having a screen design corresponding to the acquired feature information, and displays the display screen on the first display unit 24C.

このため、試着者が試着対象の衣服画像を選択するときに視認する、第1端末24の第1表示部24Cに表示される表示画面は、試着者の特徴情報に応じた画面デザインとなる。   For this reason, the display screen displayed on the first display unit 24C of the first terminal 24, which is visually recognized when the try-on chooses a clothing image to be tried on, has a screen design according to the feature information of the try-on.

生成部15Dは、第1の実施の形態における生成部12Dと同様にして、試着者の試着者画像と、選択された衣服画像と、の合成画像を生成する。本実施の形態では、生成部15Dは、更に、特徴情報に応じた背景画像上に、試着者画像と、選択された衣服画像と、を重畳した合成画像を生成する。   The generation unit 15D generates a composite image of the try-on's try-on image and the selected clothing image in the same manner as the generation unit 12D in the first embodiment. In the present embodiment, the generation unit 15D further generates a composite image in which the try-on image and the selected clothing image are superimposed on the background image corresponding to the feature information.

なお、生成部15Dは、予め特徴情報に応じた背景画像を記憶部14Bに記憶すればよい。背景画像は、例えば、特徴情報に応じた色やシーンなどの画像である。そして、生成部15Dは、記憶部14Bから、試着者の特徴情報に応じた背景画像を読取り、合成画像を生成すればよい。   Note that the generation unit 15D may store a background image corresponding to the feature information in the storage unit 14B in advance. The background image is, for example, an image such as a color or a scene according to the feature information. Then, the generation unit 15D may read the background image corresponding to the feature information of the try-on from the storage unit 14B and generate a composite image.

次に、仮想試着システム1Bで実行する仮想試着処理の手順を説明する。   Next, a procedure of virtual try-on processing executed in the virtual try-on system 1B will be described.

図21は、仮想試着システム1Bで実行する仮想試着処理の手順を示すシーケンス図である。なお、仮想試着システム1と同様の処理には、同じシーケンス番号を付与して、説明を省略または簡略化する。   FIG. 21 is a sequence diagram showing a procedure of virtual try-on processing executed in the virtual try-on system 1B. In addition, the same sequence number is given to the process similar to the virtual try-on system 1, and description is abbreviate | omitted or simplified.

まず、第2端末26の発行部26Fが、試着者IDを発行する(SEQ100)。次に、第1端末24が、試着者IDを受け付ける(SEQ102)。次に、表示制御部24Fが、特徴情報を特定するための入力項目を入力するための入力画面を第1表示部24Cに表示する(SEQ104)。次に、受付部24Eが、特徴情報を受け付ける(SEQ106)。そして、通信部24Gが、特徴情報を仮想試着装置10Bへ送信する(SEQ108)。   First, the issuing unit 26F of the second terminal 26 issues a try-on ID (SEQ100). Next, the first terminal 24 receives the try-on ID (SEQ102). Next, the display control unit 24F displays an input screen for inputting input items for specifying feature information on the first display unit 24C (SEQ104). Next, the reception unit 24E receives feature information (SEQ106). Then, the communication unit 24G transmits the feature information to the virtual try-on device 10B (SEQ108).

次に、第1表示制御部15Bが、第1情報における、取得した特徴情報に対応する衣服画像を読取る(SEQ110)。次に、第1表示制御部15Bが、SEQ108で取得した特徴情報に対応する画面デザインに応じて、SEQ110で読取った衣服画像を含む表示画面を生成する(SEQ311)。そして、第1表示制御部15Bは、生成した表示画面を、第1端末24へ送信する(SEQ312)。   Next, the first display control unit 15B reads a clothing image corresponding to the acquired feature information in the first information (SEQ110). Next, the first display control unit 15B generates a display screen including the clothing image read in SEQ110 according to the screen design corresponding to the feature information acquired in SEQ108 (SEQ311). Then, the first display control unit 15B transmits the generated display screen to the first terminal 24 (SEQ312).

第1端末24の表示制御部24Fは、受信した表示画面を、第1表示部24Cに表示する(SEQ313)。   The display control unit 24F of the first terminal 24 displays the received display screen on the first display unit 24C (SEQ313).

図22は、表示画面の一例を示す図である。図22(A)は、試着者の特徴情報に含まれる、試着者の特徴色が季節「春」をイメージする色であった場合の、表示画面50の一例を示す図である。図22(B)は、試着者の特徴情報に含まれる、試着者の特徴色が季節「秋」をイメージする色であった場合の、表示画面52の一例を示す図である。   FIG. 22 is a diagram illustrating an example of a display screen. FIG. 22A is a diagram illustrating an example of the display screen 50 in the case where the feature color of the try-in included in the feature information of the try-on is an image that represents the season “spring”. FIG. 22B is a diagram showing an example of the display screen 52 in the case where the feature color of the try-in included in the feature information of the try-on is an image that represents the season “autumn”.

図22に示すように、表示画面50内の領域50Aと、表示画面52内の対応する領域52Aと、の色は、試着者の特徴情報に応じて互いに異なる色となる。また、表示画面50内の領域50Bと、表示画面52内の対応する領域52Bと、の色は、試着者の特徴情報に応じて互いに異なる色となる。なお、画面デザインは、図22に示す形態に限定されない。   As shown in FIG. 22, the colors of the area 50 </ b> A in the display screen 50 and the corresponding area 52 </ b> A in the display screen 52 are different from each other according to the feature information of the try-on. The colors of the area 50B in the display screen 50 and the corresponding area 52B in the display screen 52 are different from each other according to the feature information of the try-on. The screen design is not limited to the form shown in FIG.

図21に戻り、次に、仮想試着システム1Bは、SEQ116〜SEQ148の処理を実行する。なお、SEQ116〜SEQ148の処理は、第1の実施の形態と同様であるため、説明を省略する。   Returning to FIG. 21, next, the virtual try-on system 1 </ b> B executes the processing of SEQ <b> 116 to SEQ <b> 148. Note that the processing of SEQ116 to SEQ148 is the same as that of the first embodiment, and thus description thereof is omitted.

そして、次に、生成部15Dが、SEQ106で取得した特徴情報に対応する背景画像上に、第1撮影部20Aで撮影した試着者の試着者画像と、SEQ146で受信した第2情報(図5参照)に含まれる衣服IDに対応する衣服画像と、を重畳した合成画像を生成する(SEQ350)。   Next, the generation unit 15D adds the try-on image of the try-on photographed by the first photographing unit 20A on the background image corresponding to the feature information acquired in SEQ 106, and the second information received in SEQ 146 (FIG. 5). A composite image is generated by superimposing the clothing image corresponding to the clothing ID included in the reference (SEQ350).

次に、第2表示制御部12Eが、SEQ350で生成した合成画像を、第2表示部18に表示する(SEQ152)。次に、受付部12Cが、合成画像の変更指示を受け付けたか否かを判断する(SEQ154)。   Next, the second display control unit 12E displays the composite image generated in SEQ350 on the second display unit 18 (SEQ152). Next, the receiving unit 12C determines whether or not a composite image change instruction has been received (SEQ154).

SEQ154で肯定判断すると(SEQ154:Yes)、生成部12Dは、前回第2表示部18に表示した合成画像に対応する第2情報に含まれる試着者IDを含む、他の第2情報を記憶部14Bから検索し、合成画像の未表示の1つの第2情報を読取る。そして、生成部12Dは、読取った第2情報を用いて、SEQ350と同様にして合成画像を生成する(SEQ356)。   When an affirmative determination is made in SEQ154 (SEQ154: Yes), the generation unit 12D stores other second information including the try-on ID included in the second information corresponding to the composite image displayed on the second display unit 18 last time. A search is performed from 14B, and one second information that has not been displayed in the composite image is read. Then, the generation unit 12D generates a composite image in the same manner as SEQ350, using the read second information (SEQ356).

そして、仮想試着システム1Bは、第1の実施の形態と同様に、SEQ158〜SEQ184を実行する。   Then, the virtual try-on system 1B executes SEQ158 to SEQ184 as in the first embodiment.

以上説明したように、本実施の形態の仮想試着装置10Bは、第1取得部12Aと、第1表示制御部15Bと、受付部12Cと、生成部15Dと、第2表示制御部12Eと、を含む。第1取得部12Aは、試着者の特徴情報を取得する。第1表示制御部15Bは、第1情報における、取得した特徴情報に対応する衣服画像を含む表示画面を、取得した特徴情報に応じて生成し、第1表示部24Cに表示する。受付部12Cは、第1表示部24Cに表示された衣服画像の内、試着対象の衣服の衣服画像の選択を試着者から受け付ける。生成部15Dは、試着者の試着者画像と、選択された衣服画像と、の合成画像を生成する。第2表示制御部12Eは、合成画像を第2表示部18に表示する。   As described above, the virtual try-on device 10B of the present embodiment includes the first acquisition unit 12A, the first display control unit 15B, the reception unit 12C, the generation unit 15D, the second display control unit 12E, including. 12 A of 1st acquisition parts acquire the feature information of a try-on person. The first display control unit 15B generates a display screen including a clothing image corresponding to the acquired feature information in the first information according to the acquired feature information, and displays the display screen on the first display unit 24C. The receiving unit 12C receives a selection of a clothing image of a clothing to be tried on from among the clothing images displayed on the first display unit 24C. The generation unit 15D generates a composite image of the try-on image of the try-on and the selected clothing image. The second display control unit 12E displays the composite image on the second display unit 18.

このように、本実施の形態の仮想試着装置10Bは、第1情報における、取得した特徴情報に対応する衣服画像を含む表示画面を、取得した特徴情報に応じて生成し、第1表示部24Cに表示する。   As described above, the virtual try-on device 10B according to the present embodiment generates a display screen including the clothing image corresponding to the acquired feature information in the first information according to the acquired feature information, and the first display unit 24C. To display.

従って、本実施の形態の仮想試着装置10Bは、各々の試着者に応じた仮想試着サービスを提供することができる。   Therefore, the virtual try-on device 10B of the present embodiment can provide a virtual try-on service according to each try-on person.

(第4の実施の形態)
次に、第1の実施の形態〜第3の実施の形態の、仮想試着装置10、仮想試着装置10A、仮想試着装置10B、第1端末24、第2端末26、第1サーバ装置28、第3サーバ装置30、および第2サーバ装置32のハードウェア構成について説明する。図23は、第1の実施の形態〜第3の実施の形態の、仮想試着装置10、仮想試着装置10A、仮想試着装置10B、第1端末24、第2端末26、第1サーバ装置28、第3サーバ装置30、および第2サーバ装置32のハードウェア構成例を示すブロック図である。
(Fourth embodiment)
Next, the virtual try-on device 10, the virtual try-on device 10A, the virtual try-on device 10B, the first terminal 24, the second terminal 26, the first server device 28, the first of the first to third embodiments. The hardware configuration of the three server device 30 and the second server device 32 will be described. FIG. 23 shows the virtual try-on device 10, the virtual try-on device 10A, the virtual try-on device 10B, the first terminal 24, the second terminal 26, the first server device 28, of the first to third embodiments. It is a block diagram which shows the hardware structural example of the 3rd server apparatus 30 and the 2nd server apparatus 32. FIG.

第1の実施の形態〜第3の実施の形態の、仮想試着装置10、仮想試着装置10A、仮想試着装置10B、第1端末24、第2端末26、第1サーバ装置28、第3サーバ装置30、および第2サーバ装置32は、表示部80、通信I/F部82、入力部94、CPU86、ROM(Read Only Memory)88、RAM(Random Access Memory)90、及びHDD92等がバス96により相互に接続されており、通常のコンピュータを利用したハードウェア構成となっている。   Virtual try-on device 10, virtual try-on device 10A, virtual try-on device 10B, first terminal 24, second terminal 26, first server device 28, third server device of the first to third embodiments. 30, the second server device 32 includes a display unit 80, a communication I / F unit 82, an input unit 94, a CPU 86, a ROM (Read Only Memory) 88, a RAM (Random Access Memory) 90, an HDD 92, and the like via a bus 96. They are connected to each other and have a hardware configuration using a normal computer.

CPU86は、仮想試着装置10、仮想試着装置10A、仮想試着装置10B、第1端末24、第2端末26、第1サーバ装置28、第3サーバ装置30、および第2サーバ装置32の各々の処理を制御する演算装置である。RAM90は、CPU86による各種処理に必要なデータを記憶する。ROM88は、CPU86による各種処理を実現するプログラム等を記憶する。HDD92は、上述した各記憶部14、14A、14Bに格納されるデータを記憶する。通信I/F部82は、外部装置や外部端末に通信回線等を介して接続し、接続した外部装置や外部端末との間でデータを送受信するためのインタフェースである。表示部80は、上述した第2表示部18、第1表示部24C、表示部26C、表示部32C、表示部30C、および表示部28Cの各々に相当する。入力部94は、ユーザからの操作指示を受け付ける。   The CPU 86 processes the virtual try-on device 10, the virtual try-on device 10A, the virtual try-on device 10B, the first terminal 24, the second terminal 26, the first server device 28, the third server device 30, and the second server device 32. Is an arithmetic device for controlling The RAM 90 stores data necessary for various processes by the CPU 86. The ROM 88 stores a program for realizing various processes by the CPU 86 and the like. The HDD 92 stores data stored in each of the storage units 14, 14A, 14B described above. The communication I / F unit 82 is an interface for connecting to an external device or an external terminal via a communication line or the like and transmitting / receiving data to / from the connected external device or external terminal. The display unit 80 corresponds to each of the second display unit 18, the first display unit 24C, the display unit 26C, the display unit 32C, the display unit 30C, and the display unit 28C described above. The input unit 94 receives an operation instruction from the user.

第1の実施の形態〜第3の実施の形態の、仮想試着装置10、仮想試着装置10A、仮想試着装置10B、第1端末24、第2端末26、第1サーバ装置28、第3サーバ装置30、および第2サーバ装置32で実行される上記各種処理を実行するためのプログラムは、ROM88等に予め組み込んで提供される。   Virtual try-on device 10, virtual try-on device 10A, virtual try-on device 10B, first terminal 24, second terminal 26, first server device 28, third server device of the first to third embodiments. 30 and the program for executing the various processes executed by the second server device 32 are provided by being incorporated in advance in the ROM 88 or the like.

なお、第1の実施の形態〜第3の実施の形態の、仮想試着装置10、仮想試着装置10A、仮想試着装置10B、第1端末24、第2端末26、第1サーバ装置28、第3サーバ装置30、および第2サーバ装置32で実行されるプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供するように構成してもよい。   In the first embodiment to the third embodiment, the virtual try-on device 10, the virtual try-on device 10A, the virtual try-on device 10B, the first terminal 24, the second terminal 26, the first server device 28, the third The programs executed in the server device 30 and the second server device 32 are files of a format that can be installed in these devices or an executable format, and are CD-ROM, flexible disk (FD), CD-R, DVD (Digital). It may be configured to be recorded on a computer-readable recording medium such as Versatile Disk).

また、第1の実施の形態〜第3の実施の形態の、仮想試着装置10、仮想試着装置10A、仮想試着装置10B、第1端末24、第2端末26、第1サーバ装置28、第3サーバ装置30、および第2サーバ装置32で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1の実施の形態〜第3の実施の形態の、仮想試着装置10、仮想試着装置10A、仮想試着装置10B、第1端末24、第2端末26、第1サーバ装置28、第3サーバ装置30、および第2サーバ装置32における上記各処理を実行するためのプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。   Also, the virtual try-on device 10, the virtual try-on device 10A, the virtual try-on device 10B, the first terminal 24, the second terminal 26, the first server device 28, the third embodiment of the first to third embodiments. The program executed by the server device 30 and the second server device 32 may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Also, the virtual try-on device 10, the virtual try-on device 10A, the virtual try-on device 10B, the first terminal 24, the second terminal 26, the first server device 28, the third embodiment of the first to third embodiments. You may comprise so that the program for performing each said process in the server apparatus 30 and the 2nd server apparatus 32 may be provided or distributed via networks, such as the internet.

第1の実施の形態〜第3の実施の形態の、仮想試着装置10、仮想試着装置10A、仮想試着装置10B、第1端末24、第2端末26、第1サーバ装置28、第3サーバ装置30、および第2サーバ装置32で実行される上記各種処理を実行するためのプログラムは、上述した各部が主記憶装置上に生成されるようになっている。   Virtual try-on device 10, virtual try-on device 10A, virtual try-on device 10B, first terminal 24, second terminal 26, first server device 28, third server device of the first to third embodiments. As for the program for performing the said various processes performed by 30 and the 2nd server apparatus 32, each part mentioned above is produced | generated on a main memory.

なお、上記HDD92に格納されている各種情報は、外部装置に格納してもよい。この場合には、該外部装置とCPU86と、を、ネットワーク等を介して接続した構成とすればよい。   Various information stored in the HDD 92 may be stored in an external device. In this case, the external device and the CPU 86 may be connected via a network or the like.

なお、上記には、本発明のいくつかの実施の形態を説明したが、これらの実施の形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施の形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although several embodiment of this invention was described above, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1、1A、1B 仮想試着システム
10、10A、10B 仮想試着装置
12A 第1取得部
12B、13B、15B 第1表示制御部
12C 受付部
12D、15D 生成部
12E 第2表示制御部
12F 第2取得部
12H 第1送信部
12I 第1受信部
12J 出力部
13L 第3取得部
13M 算出部
13P 決定部
18 第2表示部
24C 第1表示部
28F 第2受信部
28G 第2送信部
1, 1A, 1B Virtual try-on system 10, 10A, 10B Virtual try-on device 12A First acquisition unit 12B, 13B, 15B First display control unit 12C Reception unit 12D, 15D generation unit 12E Second display control unit 12F Second acquisition unit 12H 1st transmission part 12I 1st reception part 12J Output part 13L 3rd acquisition part 13M Calculation part 13P Determination part 18 2nd display part 24C 1st display part 28F 2nd reception part 28G 2nd transmission part

Claims (13)

試着者の特徴情報を取得する第1取得部と、
前記特徴情報と、衣服画像と、を少なくとも対応づけた第1情報における、取得した前記特徴情報に対応する前記衣服画像を第1表示部に表示する第1表示制御部と、
前記第1表示部に表示された前記衣服画像の内、試着対象の衣服の衣服画像の選択を試着者から受け付ける受付部と、
前記試着者の試着者画像と、選択された前記衣服画像と、の合成画像を生成する生成部と、
前記合成画像を第2表示部に表示する第2表示制御部と、
を備えた、仮想試着装置。
A first acquisition unit for acquiring feature information of the fitting person;
A first display control unit that displays the clothing image corresponding to the acquired feature information on the first display unit in the first information in which the feature information and the clothing image are associated at least;
A reception unit that receives a selection of a clothing image of a clothing to be tried on from among the clothing images displayed on the first display unit;
A generating unit that generates a composite image of the try-on image of the try-on and the selected clothing image;
A second display control unit for displaying the composite image on a second display unit;
Virtual fitting device with
前記受付部は、組み合わせて試着する対象の複数の前記衣服画像の選択を試着者から受け付け、
前記生成部は、前記試着者画像と、選択された複数の前記衣服画像と、の合成画像を生成する、
請求項1に記載の仮想試着装置。
The reception unit receives a selection of a plurality of clothes images to be tried on in combination from a try-onr,
The generation unit generates a composite image of the try-on image and the selected plurality of clothes images.
The virtual try-on device according to claim 1.
前記試着者の体型を示す体型パラメータを取得する第2取得部を備え、
前記生成部は、
選択された前記衣服画像を、取得した前記体型パラメータに応じて補正した補正画像と、前記試着者画像と、の前記合成画像を生成する、
請求項1に記載の仮想試着装置。
A second acquisition unit for acquiring a body type parameter indicating the body type of the fitting person;
The generator is
Generating a composite image of a corrected image obtained by correcting the selected clothing image in accordance with the acquired body parameter and the try-on image;
The virtual try-on device according to claim 1.
前記第2表示制御部は、前記合成画像を前記第2表示部としての前記第1表示部に表示する、請求項1に記載の仮想試着装置。   The virtual try-on device according to claim 1, wherein the second display control unit displays the composite image on the first display unit as the second display unit. 前記特徴情報は、前記試着者の外観的特徴、および内面的特徴の少なくとも一方を含む、請求項1に記載の仮想試着装置。   The virtual fitting device according to claim 1, wherein the feature information includes at least one of an appearance feature and an inside feature of the fitting person. 前記特徴情報は、前記試着者の体型を示す体型パラメータ、前記試着者の特徴色、前記試着者の年齢層、前記試着者の性格、前記試着者の趣向、の少なくとも1つを示す、請求項1に記載の仮想試着装置。   The feature information indicates at least one of a body shape parameter indicating a body shape of the fitting person, a characteristic color of the fitting person, an age group of the fitting person, a character of the fitting person, and a taste of the fitting person. The virtual fitting device according to 1. 前記第1表示制御部は、
予め定めた抽出条件に応じて抽出された、前記衣服画像の推奨画像を、更に前記第1表示部に表示する、
請求項1に記載の仮想試着装置。
The first display control unit includes:
The recommended image of the clothes image extracted according to a predetermined extraction condition is further displayed on the first display unit.
The virtual try-on device according to claim 1.
前記推奨画像は、複数の前記衣服画像の組合せによって示される、請求項7に記載の仮想試着装置。   The virtual try-on device according to claim 7, wherein the recommended image is indicated by a combination of a plurality of clothes images. 前記抽出条件は、取得した前記特徴情報、前記試着者が過去に選択した前記衣服画像、他の試着者が過去に選択した前記衣服画像、衣服を販売する販売店が推奨する前記衣服画像、前記試着者が予め選択した他の試着者の推奨する前記衣服画像、前記試着者の体型に一致または類似する体型に応じた前記衣服画像、前記試着者の嗜好に一致または類似する嗜好の他の試着者が過去に選択した前記衣服画像、の少なくとも1つである、請求項7に記載の仮想試着装置。   The extraction conditions include the acquired feature information, the clothes image selected by the try-in in the past, the clothes image selected by other try-in in the past, the clothes image recommended by a store selling clothes, The clothes image recommended by another try-on selected by the try-on, the clothes image corresponding to the body shape that matches or resembles the body shape of the try-in person, and other try-ons with a taste that matches or resembles the taste of the try-on The virtual try-on device according to claim 7, wherein the virtual try-on device is at least one of the clothing images selected by the person in the past. 前記第1情報に含まれる前記衣服画像は、着用された状態の衣服を示す第1衣服画像と、形状を整えて載置された状態の衣服を示す第2衣服画像と、を含み、
前記第1表示制御部は、前記第1情報における、取得した前記特徴情報に対応する前記第2衣服画像を前記第1表示部に表示し、
前記生成部は、前記試着者画像と、選択された前記衣服画像に対応する前記第1衣服画像と、の合成画像を生成する、
請求項1に記載の仮想試着装置。
The clothes image included in the first information includes a first clothes image indicating clothes in a worn state, and a second clothes image indicating clothes in a state of being placed in a shape.
The first display control unit displays the second clothing image corresponding to the acquired feature information in the first information on the first display unit,
The generating unit generates a composite image of the try-on image and the first clothing image corresponding to the selected clothing image;
The virtual try-on device according to claim 1.
試着者の特徴情報を取得する第1取得部と、
前記特徴情報と、衣服画像と、前記衣服画像に関する属性情報と、を少なくとも対応づけた第1情報における、取得した前記特徴情報に対応する前記属性情報を第1表示部に表示する第1表示制御部と、
前記第1表示部に表示された前記属性情報の内、試着対象の衣服に対応する属性情報の選択を試着者から受け付ける受付部と、
前記試着者の試着者画像と、選択された前記属性情報に対応する前記衣服画像と、の合成画像を生成する生成部と、
前記合成画像を第2表示部に表示する第2表示制御部と、
を備えた、仮想試着装置。
A first acquisition unit for acquiring feature information of the fitting person;
First display control for displaying, on the first display unit, the attribute information corresponding to the acquired feature information in the first information in which the feature information, the clothing image, and the attribute information about the clothing image are associated at least. And
A receiving unit that accepts selection of attribute information corresponding to the clothing to be tried on from among the attribute information displayed on the first display unit;
A generating unit that generates a composite image of the try-on image of the try-on and the clothing image corresponding to the selected attribute information;
A second display control unit for displaying the composite image on a second display unit;
Virtual fitting device with
試着者の特徴情報を取得するステップと、
前記特徴情報と、衣服画像と、を少なくとも対応づけた第1情報における、取得した前記特徴情報に対応する前記衣服画像を第1表示部に表示するステップと、
前記第1表示部に表示された前記衣服画像の内、試着対象の衣服の衣服画像の選択を試着者から受け付けるステップと、
前記試着者の試着者画像と、選択された前記衣服画像と、の合成画像を生成するステップと、
前記合成画像を第2表示部に表示するステップと、
を含む、仮想試着方法。
Obtaining feature information of the fitting person;
Displaying the clothing image corresponding to the acquired feature information on the first display unit in the first information at least associating the feature information with the clothing image;
A step of receiving a selection of a clothing image of a clothing to be tried on from among the clothing images displayed on the first display unit;
Generating a composite image of the fitting person image of the fitting person and the selected clothing image;
Displaying the composite image on a second display unit;
Including virtual fitting methods.
コンピュータに、
試着者の特徴情報を取得するステップと、
前記特徴情報と、衣服画像と、を少なくとも対応づけた第1情報における、取得した前記特徴情報に対応する前記衣服画像を第1表示部に表示するステップと、
前記第1表示部に表示された前記衣服画像の内、試着対象の衣服の衣服画像の選択を試着者から受け付けるステップと、
前記試着者の試着者画像と、選択された前記衣服画像と、の合成画像を生成するステップと、
前記合成画像を第2表示部に表示するステップと、
を実行させる、プログラム。
On the computer,
Obtaining feature information of the fitting person;
Displaying the clothing image corresponding to the acquired feature information on the first display unit in the first information at least associating the feature information with the clothing image;
A step of receiving a selection of a clothing image of a clothing to be tried on from among the clothing images displayed on the first display unit;
Generating a composite image of the fitting person image of the fitting person and the selected clothing image;
Displaying the composite image on a second display unit;
A program that executes
JP2014163120A 2014-08-08 2014-08-08 Virtual try-on apparatus, virtual try-on method and program Pending JP2016038811A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014163120A JP2016038811A (en) 2014-08-08 2014-08-08 Virtual try-on apparatus, virtual try-on method and program
CN201510075310.4A CN105989617A (en) 2014-08-08 2015-02-12 Virtual try-on apparatus and virtual try-on method
US14/672,339 US10423220B2 (en) 2014-08-08 2015-03-30 Virtual try-on apparatus, virtual try-on method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014163120A JP2016038811A (en) 2014-08-08 2014-08-08 Virtual try-on apparatus, virtual try-on method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018022797A Division JP2018106736A (en) 2018-02-13 2018-02-13 Virtual try-on apparatus, virtual try-on method and program

Publications (1)

Publication Number Publication Date
JP2016038811A true JP2016038811A (en) 2016-03-22

Family

ID=55267795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014163120A Pending JP2016038811A (en) 2014-08-08 2014-08-08 Virtual try-on apparatus, virtual try-on method and program

Country Status (3)

Country Link
US (1) US10423220B2 (en)
JP (1) JP2016038811A (en)
CN (1) CN105989617A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018135665A1 (en) * 2017-01-23 2019-11-07 らしさ・ドット・コム株式会社 Proposed system, proposed method, server, and computer program

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6320237B2 (en) 2014-08-08 2018-05-09 株式会社東芝 Virtual try-on device, virtual try-on method, and program
CN106682959A (en) * 2016-11-29 2017-05-17 维沃移动通信有限公司 Virtual reality terminal data processing method and virtual reality terminal
US10796359B2 (en) * 2017-10-18 2020-10-06 Mastercard International Incorporated Consumer sampling webpage linked with digital wallet
CN107767218A (en) * 2017-10-23 2018-03-06 蒋丁贵 A kind of intelligent dressing device
CN110021061B (en) * 2018-01-08 2021-10-29 Oppo广东移动通信有限公司 Collocation model construction method, clothing recommendation method, device, medium and terminal
CN109615476A (en) * 2018-12-12 2019-04-12 平安科技(深圳)有限公司 Network dress tries method, apparatus, server and storage medium on
US10866716B2 (en) * 2019-04-04 2020-12-15 Wheesearch, Inc. System and method for providing highly personalized information regarding products and services
US20220198780A1 (en) * 2019-04-05 2022-06-23 Sony Group Corporation Information processing apparatus, information processing method, and program
FR3101989A1 (en) * 2019-10-11 2021-04-16 Asmodine PROVISION OF A RECOMMENDATION OF AT LEAST ONE CLOTHING FROM A DIGITAL CATALOG OF A PLURALITY OF CLOTHES
CN111050072B (en) * 2019-12-24 2022-02-01 Oppo广东移动通信有限公司 Method, equipment and storage medium for remote co-shooting
CN113159876B (en) * 2020-01-21 2023-08-22 海信集团有限公司 Clothing collocation recommendation device, method and storage medium
KR102624995B1 (en) * 2021-03-26 2024-01-15 엔에이치엔클라우드 주식회사 Method and system for clothing virtual try-on service based on deep learning
CN117616464A (en) * 2021-08-02 2024-02-27 智能传媒私人有限公司 System and method for facilitating purchase of items in an online environment
WO2023083478A1 (en) 2021-11-15 2023-05-19 Huawei Technologies Co., Ltd. Disentangling 3d human reconstruction for virtual garment modelling

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251391A (en) * 1995-03-10 1996-09-27 Canon Inc Device and method for image processing, and device and method for printing
JPH10293529A (en) * 1997-04-18 1998-11-04 Toppan Printing Co Ltd Personal coordinates system
JP2003108593A (en) * 2001-10-01 2003-04-11 Fuji Photo Film Co Ltd Squeezing retrieval device
JP2004003058A (en) * 2002-05-31 2004-01-08 Casio Comput Co Ltd Electronic equipment, and fitting management program
JP2006012050A (en) * 2004-06-29 2006-01-12 Tatsushi Baba Coordinates support method and coordinates support system
US20110078055A1 (en) * 2008-09-05 2011-03-31 Claude Faribault Methods and systems for facilitating selecting and/or purchasing of items
US20120313969A1 (en) * 2009-08-12 2012-12-13 Zugara, Inc. Providing a simulation of wearing items such as garments and/or accessories
JP2013250743A (en) * 2012-05-31 2013-12-12 Dainippon Printing Co Ltd Coordination proposal device, coordination proposal system, coordination proposal method, program and recording medium
JP2014089665A (en) * 2012-10-31 2014-05-15 Toshiba Corp Image processor, image processing method, and image processing program

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020004763A1 (en) 2000-01-20 2002-01-10 Lam Peter Ar-Fu Body profile coding method and apparatus useful for assisting users to select wearing apparel
US7149665B2 (en) * 2000-04-03 2006-12-12 Browzwear International Ltd System and method for simulation of virtual wear articles on virtual models
US20020059248A1 (en) * 2000-07-20 2002-05-16 Samuel Farchione Method for determining proper color for makeup and clothing
JP2002183539A (en) 2000-12-19 2002-06-28 Toshiba Corp Assisting method for selling or lending clothes utilizing communication network and storage medium
JP2004086803A (en) 2002-08-29 2004-03-18 Fujitsu Ltd Information processing method and device for virtual try-on
JP2005286496A (en) 2004-03-29 2005-10-13 Fujitsu Ltd Image processing method, image processing program, and image processing apparatus
US8976160B2 (en) 2005-03-01 2015-03-10 Eyesmatch Ltd User interface and authentication for a virtual mirror
JP4473754B2 (en) 2005-03-11 2010-06-02 株式会社東芝 Virtual fitting device
US8860748B2 (en) * 2005-10-03 2014-10-14 Gary Lynn Campbell Computerized, personal-color analysis system
US7487116B2 (en) * 2005-12-01 2009-02-03 International Business Machines Corporation Consumer representation rendering with selected merchandise
US9691098B2 (en) * 2006-07-07 2017-06-27 Joseph R. Dollens Method and system for managing and displaying product images with cloud computing
US7877346B2 (en) 2007-06-06 2011-01-25 Affinova, Inc. Method and system for predicting personal preferences
CA2659698C (en) 2008-03-21 2020-06-16 Dressbot Inc. System and method for collaborative shopping, business and entertainment
US20130215116A1 (en) 2008-03-21 2013-08-22 Dressbot, Inc. System and Method for Collaborative Shopping, Business and Entertainment
US9189886B2 (en) * 2008-08-15 2015-11-17 Brown University Method and apparatus for estimating body shape
JP5061074B2 (en) 2008-09-26 2012-10-31 株式会社デンソーアイティーラボラトリ In-vehicle device control apparatus and in-vehicle device control method
US8674989B1 (en) * 2009-12-17 2014-03-18 Google Inc. System and method for rendering photorealistic images of clothing and apparel
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
NL1037949C2 (en) * 2010-05-10 2011-11-14 Suitsupply B V METHOD FOR DETERMINING REMOTE SIZES.
US10628729B2 (en) 2010-06-08 2020-04-21 Styku, LLC System and method for body scanning and avatar creation
US8732584B2 (en) 2010-11-09 2014-05-20 Palo Alto Research Center Incorporated System and method for generating an information stream summary using a display metric
US20130179288A1 (en) * 2010-11-17 2013-07-11 Upcload Gmbh Collecting and using anthropometric measurements
GB201102794D0 (en) 2011-02-17 2011-03-30 Metail Ltd Online retail system
CN102156810A (en) 2011-03-30 2011-08-17 北京触角科技有限公司 Augmented reality real-time virtual fitting system and method thereof
US20130057553A1 (en) 2011-09-02 2013-03-07 DigitalOptics Corporation Europe Limited Smart Display with Dynamic Font Management
US20140207611A1 (en) 2011-06-10 2014-07-24 Elizabeth CLEARY Personalized automated shopping system and method
JP2013025290A (en) 2011-07-26 2013-02-04 Kyocera Document Solutions Inc Image forming apparatus
CN102682211A (en) 2012-05-09 2012-09-19 晨星软件研发(深圳)有限公司 Three-dimensional fitting method and device
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US10664901B2 (en) 2012-08-03 2020-05-26 Eyefitu Ag Garment fitting system and method
US9799064B2 (en) 2012-08-03 2017-10-24 Eyefitu Ag Garment fitting system and method
CN103226388B (en) 2013-04-07 2016-05-04 华南理工大学 A kind of handwriting sckeme based on Kinect
CN103400274B (en) * 2013-07-22 2016-06-08 郝芳莉 A kind of fashion statement virtually trying wears method
CN103440587A (en) * 2013-08-27 2013-12-11 刘丽君 Personal image designing and product recommendation method based on online shopping
US20150134302A1 (en) 2013-11-14 2015-05-14 Jatin Chhugani 3-dimensional digital garment creation from planar garment photographs
JP6490430B2 (en) * 2014-03-03 2019-03-27 株式会社東芝 Image processing apparatus, image processing system, image processing method, and program
US20170080346A1 (en) 2014-05-01 2017-03-23 Mohamad Abbas Methods and systems relating to personalized evolving avatars
US9916010B2 (en) 2014-05-16 2018-03-13 Visa International Service Association Gesture recognition cloud command platform, system, method, and apparatus
JP6338966B2 (en) 2014-08-08 2018-06-06 株式会社東芝 Virtual try-on device, virtual try-on system, virtual try-on method, and program
JP6242768B2 (en) 2014-08-08 2017-12-06 株式会社東芝 Virtual try-on device, virtual try-on method, and program
JP6320237B2 (en) 2014-08-08 2018-05-09 株式会社東芝 Virtual try-on device, virtual try-on method, and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251391A (en) * 1995-03-10 1996-09-27 Canon Inc Device and method for image processing, and device and method for printing
JPH10293529A (en) * 1997-04-18 1998-11-04 Toppan Printing Co Ltd Personal coordinates system
JP2003108593A (en) * 2001-10-01 2003-04-11 Fuji Photo Film Co Ltd Squeezing retrieval device
JP2004003058A (en) * 2002-05-31 2004-01-08 Casio Comput Co Ltd Electronic equipment, and fitting management program
JP2006012050A (en) * 2004-06-29 2006-01-12 Tatsushi Baba Coordinates support method and coordinates support system
US20110078055A1 (en) * 2008-09-05 2011-03-31 Claude Faribault Methods and systems for facilitating selecting and/or purchasing of items
US20120313969A1 (en) * 2009-08-12 2012-12-13 Zugara, Inc. Providing a simulation of wearing items such as garments and/or accessories
JP2013250743A (en) * 2012-05-31 2013-12-12 Dainippon Printing Co Ltd Coordination proposal device, coordination proposal system, coordination proposal method, program and recording medium
JP2014089665A (en) * 2012-10-31 2014-05-15 Toshiba Corp Image processor, image processing method, and image processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018135665A1 (en) * 2017-01-23 2019-11-07 らしさ・ドット・コム株式会社 Proposed system, proposed method, server, and computer program

Also Published As

Publication number Publication date
CN105989617A (en) 2016-10-05
US20160042564A1 (en) 2016-02-11
US10423220B2 (en) 2019-09-24

Similar Documents

Publication Publication Date Title
JP6242768B2 (en) Virtual try-on device, virtual try-on method, and program
JP6320237B2 (en) Virtual try-on device, virtual try-on method, and program
JP6338966B2 (en) Virtual try-on device, virtual try-on system, virtual try-on method, and program
JP2016038811A (en) Virtual try-on apparatus, virtual try-on method and program
JP2018106736A (en) Virtual try-on apparatus, virtual try-on method and program
JP6392114B2 (en) Virtual try-on system
KR102425462B1 (en) Fashion preference analysis
JP5605885B1 (en) Virtual try-on system and virtual try-on program
US8818883B2 (en) Personalized shopping avatar
EP3745352B1 (en) Methods and systems for determining body measurements and providing clothing size recommendations
WO2020203656A1 (en) Information processing device, information processing method, and program
JP6262105B2 (en) Image processing apparatus, image processing system, image processing method, and program
KR20200023970A (en) Virtual fitting support system
JP6330238B2 (en) Try-on image display method
US11468651B2 (en) Size measuring system
JP2018113060A (en) Virtual try-on apparatus, virtual try-on system, virtual try-on method and program
JP7039094B1 (en) Information processing equipment, information processing methods, and programs
KR20210130420A (en) System for smart three dimensional garment fitting and the method for providing garment fitting service using there of
CN114556332B (en) Information processing apparatus, 3D system, and information processing method
TWI822476B (en) Information processing equipment, information processing method, information processing system, and program
KR20040000087A (en) The method virtual store account avata use of the internet
JP2019139403A (en) Fitting device, server device, and fitting system
TW201435770A (en) Motion and posture simulated clothing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180612