[go: nahoru, domu]

KR101306221B1 - Method and apparatus for providing moving picture using 3d user avatar - Google Patents

Method and apparatus for providing moving picture using 3d user avatar Download PDF

Info

Publication number
KR101306221B1
KR101306221B1 KR1020110096333A KR20110096333A KR101306221B1 KR 101306221 B1 KR101306221 B1 KR 101306221B1 KR 1020110096333 A KR1020110096333 A KR 1020110096333A KR 20110096333 A KR20110096333 A KR 20110096333A KR 101306221 B1 KR101306221 B1 KR 101306221B1
Authority
KR
South Korea
Prior art keywords
user
avatar
face
facial expression
image
Prior art date
Application number
KR1020110096333A
Other languages
Korean (ko)
Other versions
KR20130032620A (en
Inventor
김용경
Original Assignee
(주) 어펙트로닉스
김용국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 어펙트로닉스, 김용국 filed Critical (주) 어펙트로닉스
Priority to KR1020110096333A priority Critical patent/KR101306221B1/en
Publication of KR20130032620A publication Critical patent/KR20130032620A/en
Application granted granted Critical
Publication of KR101306221B1 publication Critical patent/KR101306221B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Dermatology (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)
  • Biomedical Technology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법에 관한 것으로서, 본 발명의 동영상 제작방법은, 2차원 사용자 영상을 이용하여 3차원 사용자 아바타를 생성하는 단계; 실시간으로 입력되는 사용자 영상에서 상기 사용자의 표정을 인식하여 인식된 표정에 부합되는 동작들을 제시하는 단계; 상기 사용자에 의해 선택된 동작과 상기 인식된 표정을 상기 3차원 사용자 아바타에 적용하여 동적 아바타를 생성하는 단계; 및 상기 사용자의 동적 아바타를 기저장된 배경 동영상과 합성하여 사용자 애니메이션을 생성하는 단계를 포함한다. 이에 의해, 사용자의 얼굴이 반영된 3차원 사용자 아바타를 생성하고 카메라로 촬영된 사용자의 얼굴 표정을 사용자 아바타에 반영하여 표정과 동작이 움직이는 동적 아바타를 생성하며, 사용자의 음성과 사용자 아바타의 영상을 함께 녹화 및 편집할 수 있도록 함으로써 사용자 아바타를 이용한 동영상을 제작할 수 있다.The present invention relates to a video production apparatus and method using a three-dimensional user avatar, the video production method of the present invention, generating a three-dimensional user avatar using a two-dimensional user image; Recognizing the facial expression of the user in a user image input in real time and presenting operations corresponding to the recognized facial expression; Generating a dynamic avatar by applying the action selected by the user and the recognized facial expression to the 3D user avatar; And generating a user animation by synthesizing the dynamic avatar of the user with a pre-stored background video. This creates a 3D user avatar that reflects the user's face, and reflects the user's facial expressions captured by the camera to the user avatar to create a dynamic avatar with moving facial expressions and actions, and combines the user's voice with the image of the user's avatar. By allowing recording and editing, a video using a user avatar can be produced.

Description

3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법{METHOD AND APPARATUS FOR PROVIDING MOVING PICTURE USING 3D USER AVATAR}Video production apparatus and method using 3D user avatar {METHOD AND APPARATUS FOR PROVIDING MOVING PICTURE USING 3D USER AVATAR}

본 발명은 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법에 관한 것으로서, 보다 상세하게는, 사용자의 얼굴이 반영된 3차원 사용자 아바타를 생성하고 카메라로 촬영된 사용자의 얼굴 표정을 사용자 아바타에 반영하여 표정과 동작이 움직이는 동적 아바타를 생성하며, 사용자의 음성과 사용자 아바타의 영상을 함께 녹화 및 편집할 수 있도록 함으로써 사용자 아바타를 이용한 동영상을 제작할 수 있도록 하는 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법에 관한 것이다.
The present invention relates to a video production apparatus and method using a three-dimensional user avatar, and more particularly, to generate a three-dimensional user avatar reflecting the user's face and to reflect the facial expressions of the user taken by the camera to the user avatar The present invention relates to a method and method for producing a video using a 3D user avatar, which generates a dynamic avatar in which a motion and a motion move, and to record and edit a user's voice and an image of the user's avatar together. will be.

최근 콘텐츠 제작 기술의 발전에 따라 개인이 다양한 멀티미디어 콘텐츠를 제작할 수 있는 애플리케이션들이 서비스되고 있다. 하지만 이러한 종래의 멀티미디어 콘텐츠 제작 애플리케이션들은 단순히 사진들을 이용한 뮤직비디오의 제작이나, 간단한 동영상을 편집하는 수준의 영상물 제작에 그치고 있어, 보다 편리하고 활용가치가 높은 개인 멀티미디어 콘텐츠 제작을 원하는 사용자들을 만족시키지 못하고 있다. Recently, with the development of content production technology, applications that allow individuals to produce various multimedia contents are being serviced. However, these conventional multimedia content production applications are not merely for producing music videos using photos or for producing video contents that are simple to edit videos, and do not satisfy users who want to produce more convenient and high-value personal multimedia contents. have.

특히, 종래의 멀티미디어 콘텐츠 제작 애플리케이션의 경우 그 제작에 필요한 소스가 실제 서비스에서 제공하는 몇 안 되는 콘텐츠에 머물거나 또는 개인이 자신의 컴퓨터상에 보유하고 있는 약간의 개인 자료에 제한되어 있기 때문에, 시시각각 변화하는 개인의 취향을 반영하는 진정한 의미의 개인 멀티미디어 콘텐츠의 제작이 어렵다는 문제점이 있다.In particular, in the case of the conventional multimedia content production application, the source required for the production is limited to a small amount of content provided by the actual service, or limited to a small amount of personal data owned by the individual on his computer. There is a problem in that it is difficult to produce a personal multimedia content in a true sense reflecting the changing personal tastes.

한편, 그래픽 처리 기술의 발달에 따라 3차원 영상기술은 하루가 다르게 발전하고 있다. 하지만 아직까지도 3차원 동영상의 제작에는 전문적인 기술이 필요하며 컴퓨터 3차원을 잘 모르는 일반인이 양질의 3차원 동영상을 제작하는 것은 어려운 것이 현실이다.
Meanwhile, with the development of graphic processing technology, 3D imaging technology is developing differently every day. However, the production of 3D video still requires professional skills, and it is difficult for a general person who is not familiar with computer 3D to produce high quality 3D video.

한국공개특허 제2006-0082738호 제목: 이동 통신 단말기의 개인 캐릭터 서비스 방법 및 그 이동통신 단말기Korean Patent Application Publication No. 2006-0082738 Title: Personal character service method of mobile communication terminal and mobile communication terminal

본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 사용자의 얼굴이 반영된 3차원 사용자 아바타를 생성하고, 카메라로 촬영된 사용자의 얼굴 표정을 사용자 아바타에 반영하여 표정과 동작이 움직이는 동적 아바타를 생성하며, 사용자의 음성과 사용자 아바타의 영상을 함께 녹화 및 편집할 수 있도록 함으로써, 사용자 아바타를 이용한 동영상을 제작할 수 있도록 하는 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법을 제공하는데 그 기술적 과제가 있다.
The present invention has been made to solve the above-described problems, generating a three-dimensional user avatar reflecting the user's face, and generates a dynamic avatar moving the facial expression and motion by reflecting the user's facial expressions photographed with the camera to the user avatar In addition, there is a technical problem to provide a video production apparatus and method using a three-dimensional user avatar to be able to record and edit the user's voice and the image of the user avatar together, to produce a video using the user avatar.

상술한 목적을 달성하기 위한 본 발명의 일 측면에 따르면, 2차원 사용자 영상을 이용하여 3차원 사용자 아바타를 생성하는 단계; 실시간으로 입력되는 사용자 영상에서 상기 사용자의 표정을 인식하여 인식된 표정에 부합되는 동작들을 제시하는 단계; 상기 사용자에 의해 선택된 동작과 상기 인식된 표정을 상기 3차원 사용자 아바타에 적용하여 동적 아바타를 생성하는 단계; 및 상기 사용자의 동적 아바타를 기저장된 배경 동영상과 합성하여 사용자 애니메이션을 생성하는 단계를 포함하는 3차원 사용자 아바타를 이용한 동영상 제작방법이 제공된다.According to an aspect of the present invention for achieving the above object, generating a three-dimensional user avatar using a two-dimensional user image; Recognizing the facial expression of the user in a user image input in real time and presenting operations corresponding to the recognized facial expression; Generating a dynamic avatar by applying the action selected by the user and the recognized facial expression to the 3D user avatar; And generating a user animation by synthesizing the dynamic avatar of the user with a pre-stored background video.

여기서, 상기 2차원 사용자 영상을 이용하여 3차원 사용자 아바타를 생성하는 단계는, 상기 2차원 사용자 영상에 AAM을 적용하여 상기 사용자 얼굴의 부분별 비율을 산출하고, 산출 값에 따라 상기 3차원 사용자 아바타의 얼굴 형상(shape)을 모델링하는 단계; 및 상기 2차원 사용자 영상에 AAM을 적용하여 상기 사용자 얼굴의 피부 텍스처를 상기 아바타 얼굴에 합성하는 단계를 포함할 수 있다.Here, in the generating of the 3D user avatar using the 2D user image, a ratio of the part of the user's face is calculated by applying AAM to the 2D user image, and the 3D user avatar is calculated according to the calculated value. Modeling a facial shape of the face; And synthesizing the skin texture of the user face to the avatar face by applying AAM to the two-dimensional user image.

그리고, 상기 2차원 사용자 영상을 이용하여 3차원 사용자 아바타를 생성하는 단계는, 상기 사용자의 선택에 따라 기저장된 아바타의 체형과 의상을 상기 3차원 사용자 아바타의 얼굴에 합성하는 단계; 및 상기 사용자의 선택에 따라 상기 아바타의 체형과 의상을 편집하여 사용자의 3차원 사용자 아바타를 생성하는 단계를 포함할 수 있다.The generating of the 3D user avatar by using the 2D user image may include: synthesizing a pre-stored avatar's body type and clothes according to the user's selection to the face of the 3D user avatar; And generating a 3D user avatar of the user by editing the body shape and clothes of the avatar according to the user's selection.

또한, 상기 실시간으로 입력되는 사용자 영상에서 상기 사용자의 표정을 인식하여 인식된 표정에 부합되는 동작들을 제시하는 단계는, 실시간으로 입력되는 상기 사용자 영상에 AAM을 적용하여 상기 사용자 얼굴의 특징점을 추출하는 단계; 및 상기 특징점을 BPNN 처리하여 상기 사용자의 표정을 인식하는 단계를 포함할 수 있다.In addition, the step of recognizing the expression of the user from the user image input in real time and presenting the operations corresponding to the recognized facial expression, extracting a feature point of the user face by applying AAM to the user image input in real time step; And BPNN processing the feature point to recognize the facial expression of the user.

여기서, 상기 사용자 얼굴의 특징점은, 얼굴 형상(shape)와 피부 텍스처 중 적어도 어느 하나를 포함할 수 있다.The feature point of the user face may include at least one of a face shape and a skin texture.

그리고, 상기 실시간으로 입력되는 사용자 영상에서 상기 사용자의 표정을 인식하여 인식된 표정에 부합되는 동작들을 제시하는 단계는, 정의된 표정에 대응되는 아바타의 동작 데이터를 미리 입력받아 저장하는 단계; 상기 저장된 동작 데이터 중 상기 인식된 사용자의 표정에 부합되는 동작 데이터들을 검색하는 단계; 및 검색된 상기 동작 데이터를 사용자에게 제시하는 단계를 포함할 수 있다.The step of recognizing the facial expression of the user from the user image input in real time and presenting operations corresponding to the recognized facial expression may include: receiving and storing motion data of an avatar corresponding to the defined facial expression in advance; Retrieving motion data corresponding to the recognized expression of the user from the stored motion data; And presenting the retrieved motion data to a user.

한편, 상기 사용자의 동적 아바타를 기저장된 배경 동영상과 합성하여 사용자 애니메이션을 생성하는 단계는, 상기 사용자의 음성을 입력받아 상기 사용자 애니메이션과 함께 저장하는 단계를 포함할 수 있다.Meanwhile, generating a user animation by synthesizing the dynamic avatar of the user with a pre-stored background video may include receiving a voice of the user and storing the same with the user animation.

상술한 목적을 달성하기 위한 본 발명의 다른 측면에 따르면, 휴대단말에서 구동될 때, 2차원 사용자 영상을 이용하여 3차원 사용자 아바타를 생성하는 단계; 실시간으로 입력되는 사용자 영상에서 상기 사용자의 표정을 인식하여 인식된 표정에 부합되는 동작들을 제시하는 단계; 상기 사용자에 의해 선택된 동작과 상기 인식된 표정을 상기 3차원 사용자 아바타에 적용하여 동적 아바타를 생성하는 단계; 및 상기 사용자의 동적 아바타를 기저장된 배경 동영상과 합성하여 사용자 애니메이션을 생성하는 단계를 포함하는 3차원 사용자 아바타를 이용한 동영상 제작방법을 수행하는 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장매체가 제공된다.According to another aspect of the present invention for achieving the above object, when driven in a mobile terminal, generating a three-dimensional user avatar using a two-dimensional user image; Recognizing the facial expression of the user in a user image input in real time and presenting operations corresponding to the recognized facial expression; Generating a dynamic avatar by applying the action selected by the user and the recognized facial expression to the 3D user avatar; And a computer-readable storage medium storing a program for performing a video production method using a three-dimensional user avatar comprising the step of generating a user animation by synthesizing the dynamic avatar of the user with a pre-stored background video.

상술한 목적을 달성하기 위한 본 발명의 또 다른 측면에 따르면, 2차원 사용자 영상을 이용하여 3차원 사용자 아바타의 얼굴을 모델링하고 사용자의 선택에 따라 상기 아바타 얼굴에 매칭되는 아바타의 체형과 의상을 모델링하여 3차원 사용자 아바타를 생성하는 사용자 아바타 생성부; 실시간으로 입력되는 사용자 영상에서 상기 사용자의 표정을 인식하여 인식된 표정에 부합되는 동작들을 제시하고 상기 사용자에 의해 선택된 동작과 상기 인식된 표정을 상기 3차원 사용자 아바타에 적용하여 동적 아바타를 생성하는 동적 아바타 생성부; 배경 동영상이 저장된 기본 애니메이션 DB; 및 상기 배경 동영상에 상기 사용자의 동적 아바타를 합성하여 사용자 애니메이션을 생성하는 사용자 애니메이션 저장부를 포함하는 3차원 사용자 아바타를 이용한 동영상 제작장치가 제공된다.According to another aspect of the present invention for achieving the above object, modeling the face of the three-dimensional user avatar using a two-dimensional user image and modeling the body shape and costume of the avatar matching the avatar face according to the user's selection A user avatar generator to generate a 3D user avatar; Recognize the user's facial expressions from the user image input in real time, present the motions corresponding to the recognized facial expressions, and apply the motions selected by the user and the recognized facial expressions to the 3D user avatar to generate a dynamic avatar. An avatar generator; A basic animation DB storing a background video; And a user animation storage unit for generating a user animation by synthesizing the dynamic avatar of the user with the background video.

여기서, 상기 사용자 아바타 생성부는, 2차원 사용자 영상에 AAM을 적용하여 상기 사용자 얼굴의 부분별 비율을 산출하고 피부 텍스처를 합성하여 3차원 사용자 아바타의 얼굴을 모델링하는 3차원 아바타 얼굴 생성부; 아바타의 체형과 의상 데이터가 저장된 데이터베이스; 및 상기 사용자의 선택에 따라 상기 데이터베이스에 저장된 아바타의 체형과 의상을 상기 3차원 사용자 아바타의 얼굴에 합성하고, 상기 사용자의 선택에 따라 상기 아바타의 체형과 의상을 편집하여 모델링하는 3차원 아바타 체형 및 의상 생성부를 포함할 수 있다.The user avatar generator may include: a 3D avatar face generator configured to apply an AAM to a 2D user image to calculate a proportion of each part of the user face and synthesize a skin texture to model a face of a 3D user avatar; A database in which the body shape and costume data of the avatar are stored; And a three-dimensional avatar body for synthesizing the avatar's body shape and clothing stored in the database to the face of the three-dimensional user avatar, and editing and modeling the avatar's body shape and clothing according to the user's selection. The clothes generating unit may be included.

그리고, 상기 동적 아바타 생성부는, 정의된 표정에 대응되는 아바타의 동작 데이터가 저장된 아바타 동작 데이터베이스; 실시간으로 입력되는 상기 사용자 영상에 AAM을 적용하여 특징점을 추출하고, 상기 특징점을 BPNN 처리하여 상기 사용자의 표정을 인식하는 사용자 표정 인식부; 상기 인식된 표정에 대응되는 아바타의 동작 데이터를 검색하여 사용자에게 제시하는 표정 및 동작 매칭부; 및 상기 사용자가 선택한 아바타의 동작 데이터와 상기 사용자 표정 인식부에서 인식된 사용자 표정을 상기 3차원 사용자 아바타에 적용하여 동적 아바타를 생성하는 아바타 표정 및 동작 합성부를 포함할 수 있다.The dynamic avatar generator may include: an avatar motion database storing motion data of an avatar corresponding to a defined facial expression; A user facial expression recognizing unit which extracts a feature point by applying AAM to the user image input in real time and recognizes the expression of the user by BPNN processing the feature point; A facial expression and motion matching unit for searching for and presenting motion data of an avatar corresponding to the recognized facial expression to a user; And an avatar facial expression and motion synthesizer configured to generate a dynamic avatar by applying the motion data of the avatar selected by the user and the user facial expression recognized by the user facial expression recognizer to the 3D user avatar.

여기서, 상기 사용자 얼굴의 특징점은, 얼굴 형상(shape)와 피부 텍스처 중 적어도 어느 하나를 포함할 수 있다.
The feature point of the user face may include at least one of a face shape and a skin texture.

상술한 바와 같이 본 발명의 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법은, 사용자의 얼굴이 반영된 3차원 사용자 아바타를 생성하고, 카메라로 촬영된 사용자의 얼굴 표정을 사용자 아바타에 반영하여 표정과 동작이 움직이는 동적 아바타를 생성하며, 사용자의 음성과 사용자 아바타의 영상을 함께 녹화 및 편집할 수 있도록 함으로써, 3차원 사용자 아바타를 이용한 동영상을 제작할 수 있도록 한다.
As described above, the apparatus and method for producing a video using the 3D user avatar of the present invention generates a 3D user avatar reflecting the user's face, and reflects the user's facial expression photographed by the camera to the user avatar. This moving dynamic avatar is generated and the user's voice and the video of the user avatar can be recorded and edited together, thereby producing a video using the 3D user avatar.

도 1은 본 발명의 실시예에 따른 3차원 사용자 아바타를 이용한 동영상 제작장치가 적용된 사용자 단말의 제어블럭도,
도 2는 본 발명의 실시예에 따른 사용자 아바타 생성부의 제어블럭도,
도 3은 본 발명의 실시예에 따른 동적 아바타 생성부의 제어블럭도,
도 4는 본 발명의 실시예에 따른 3차원 사용자 아바타를 이용한 동영상 제작장치의 기준 표정데이터의 저장 상태도,
도 5는 본 발명의 실시예에 따른 사용자 표정 인식을 위한 BPNN(Back Propagation Neural Network)의 신경망의 계층구조도,
도 6은 본 발명의 실시예에 따른 3차원 사용자 아바타를 이용한 동영상 제작방법의 아바타 얼굴 생성과정의 흐름도,
도 7은 본 발명의 실시예에 따른 3차원 사용자 아바타를 이용한 동영상 제작방법의 사용자 표정 인식과정의 흐름도,
도 8은 본 발명의 제1실시예에 따른 3차원 사용자 아바타를 이용한 동영상 제작방법의 흐름도,
도 9는 본 발명의 제2실시예에 따른 3차원 사용자 아바타를 이용한 동영상 제작방법의 흐름도,
도 10은 본 발명의 제3실시예에 따른 3차원 사용자 아바타를 이용한 동영상 제작방법의 흐름도이다.
1 is a control block diagram of a user terminal to which a video production apparatus using a 3D user avatar according to an embodiment of the present invention is applied;
2 is a control block diagram of a user avatar generator according to an embodiment of the present invention;
3 is a control block diagram of a dynamic avatar generator according to an embodiment of the present invention;
4 is a state diagram of storing reference facial expression data of a video production apparatus using a 3D user avatar according to an embodiment of the present invention;
5 is a hierarchical structure diagram of a neural network of a BPNN (Back Propagation Neural Network) for user facial expression recognition according to an embodiment of the present invention;
6 is a flowchart of an avatar face generation process of a video production method using a 3D user avatar according to an embodiment of the present invention;
7 is a flowchart illustrating a process of recognizing a user's facial expression of a video production method using a 3D user avatar according to an embodiment of the present invention;
8 is a flowchart of a video production method using a 3D user avatar according to a first embodiment of the present invention;
9 is a flowchart of a video production method using a 3D user avatar according to a second embodiment of the present invention;
10 is a flowchart illustrating a video production method using a 3D user avatar according to a third embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 보다 상세히 설명하기로 한다. 첨부 도면을 참조하여 설명함에 있어 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description with reference to the accompanying drawings, the same or corresponding components will be denoted by the same reference numerals, and redundant description thereof will be omitted.

도 1은 본 발명의 실시예에 따른 3차원 사용자 아바타를 이용한 동영상 제작장치(100)가 적용된 사용자 단말(10)의 제어블럭이다.1 is a control block of a user terminal 10 to which a video production apparatus 100 using a 3D user avatar according to an exemplary embodiment of the present invention is applied.

사용자 단말(10)은 카메라 기능을 지원하고 사용자 인터페이스가 마련된 기기로써, 휴대전화, 넷북, PMP, 태블릿, 스마트폰 등 다양한 기기를 포함할 수 있으며, 도 1의 실시예는 스마트폰에 적용한 경우를 예시하고 있다.The user terminal 10 is a device supporting a camera function and provided with a user interface. The user terminal 10 may include various devices such as a mobile phone, a netbook, a PMP, a tablet, a smartphone, and the embodiment of FIG. 1 is applied to a smartphone. To illustrate.

사용자 단말(10)은 통신부(12), 카메라(14), 디스플레이부(16), 사용자 입력부(18), 동영상 제작장치(100) 및 이들을 제어하는 단말 제어부(20)를 포함한다.The user terminal 10 includes a communication unit 12, a camera 14, a display unit 16, a user input unit 18, a video production apparatus 100, and a terminal control unit 20 controlling them.

통신부(12)는 사용자 단말(10)의 통신 기능을 처리하여, 데이터를 송수신할 수 있다. 통신부(12)를 통해 사용자 얼굴사진을 수신하거나, 동영상 제작을 위한 데이터를 다운로드 받을 수 있다. 또한, 본 발명의 3차원 사용자 아바타를 이용한 동영상 제작장치(100)가 하나의 애플리케이션의 형태로 구현되어 배포되는 경우, 통신부(12)는 유선 혹은 무선 통신부(12)를 통해 동영상 제작장치(100)를 다운로드 받을 수 있다. The communication unit 12 may process a communication function of the user terminal 10 to transmit and receive data. The user may receive a face photograph through the communication unit 12 or may download data for making a video. In addition, when the video production apparatus 100 using the three-dimensional user avatar of the present invention is implemented and distributed in the form of one application, the communication unit 12 is a video production apparatus 100 through a wired or wireless communication unit 12 You can download it.

카메라(14)는 객체, 예컨대, 특정 사람의 얼굴의 영상을 촬영하여 2차원 영상을 생성한다.The camera 14 generates a 2D image by capturing an image of an object, for example, a face of a specific person.

디스플레이부(16)는 3차원 사용자 아바타를 이용한 동영상 제작과정을 사용자에게 표시한다. 사용자는 디스플레이부(16)를 통해 합성된 3차원 아바타를 확인함으로써, 아바타의 형상이나 동작, 표정 등을 확인하여 수정할 수 있다.The display unit 16 displays a video production process using the 3D user avatar to the user. The user may check and modify the shape, motion, and facial expression of the avatar by checking the 3D avatar synthesized through the display unit 16.

사용자 입력부(18)는 사용자가 아바타의 각부 영역이나, 동작 등을 설정 및 수정할 수 있도록 입력 인터페이스를 제공한다. 예컨대, 사용자 입력부(18)가 터치패널로 제공된 경우, 사용자는 터치신호, 핀치신호, 드래그 앤 드랍 신호 등을 입력함으로써, 3차원 아바타의 얼굴 각 부 영역의 크기를 조절하거나 텍스처 색상을 조절할 수 있다.The user input unit 18 provides an input interface for allowing a user to set and modify each area of the avatar, an operation, and the like. For example, when the user input unit 18 is provided as a touch panel, the user may input a touch signal, a pinch signal, a drag and drop signal, or the like to adjust the size of each area of the face of the 3D avatar or the texture color. .

동영상 제작장치(100)는 2차원 형식의 사용자 얼굴사진을 이용하여 사용자의 3차원 아바타를 생성하고, 카메라(14)로 입력되는 사용자의 표정을 분석하여 3차원 아바타의 표정 및 동작에 반영하여 사용자의 3차원 아바타를 이용한 애니메이션을 생성한다. 동영상 제작장치(100)는 3차원 아바타의 표정 및 동작에 사용자의 목소리를 녹화, 편집, 플레이할 수 있는 기능을 제공할 수 있다.The video production apparatus 100 generates a 3D avatar of the user by using the user's face photograph in the 2D format, analyzes the expression of the user input to the camera 14, and reflects the expression and motion of the 3D avatar to the user. Create an animation using your 3D avatar. The video production apparatus 100 may provide a function of recording, editing, and playing a user's voice on the expression and motion of the 3D avatar.

단말 제어부(20)는 버스(BUS)로 연결된 각 구성들과 데이터신호 및 제어신호를 송수신함으로써 사용자 단말(10)의 전반적이 기능을 제어한다. 사용자가 동영상 제작 기능을 실행시킨 경우, 단말 제어부(20)는 동영상 제작장치(100)의 기능을 활성화시키고, 카메라(14) 및 사용자 입력부(18)를 통해 입력된 정보가 동영상 제작장치(100)로 전달되도록 제어하는 한편, 동영상 제작장치(100)에서 출력하는 영상데이터가 디스플레이부(16)로 전달되도록 제어한다.The terminal controller 20 controls the overall function of the user terminal 10 by transmitting and receiving data signals and control signals with respective components connected by a bus. When the user executes the video production function, the terminal controller 20 activates the function of the video production apparatus 100, and the information input through the camera 14 and the user input unit 18 is input to the video production apparatus 100. While controlling to be transmitted to, the video data output from the video production device 100 is controlled to be transmitted to the display unit 16.

동영상 제작장치(100)는 애니메이션 제작 제어부(110), 사용자 아바타 생성부(200), 동적 아바타 생성부(300), 사용자 애니메이션 생성부(400), 사용자 애니메이션 저장부(450), 기본 애니메이션 DB(500)를 포함한다.The video production apparatus 100 may include an animation production controller 110, a user avatar generator 200, a dynamic avatar generator 300, a user animation generator 400, a user animation storage 450, and a basic animation DB ( 500).

애니메이션 제작 제어부(110)는 3차원 사용자 아바타를 이용한 동영상이 생성될 수 있도록 동영상 제작장치(100) 내의 각 구성을 제어한다.The animation production control unit 110 controls each component in the video production apparatus 100 so that a video using a 3D user avatar is generated.

사용자 아바타 생성부(200)는 사용자 얼굴사진을 이용하여 사용자의 얼굴을 3차원 객체로 표현하고 사용자의 선택에 따라 사용자의 체형 및 의상을 모델링함으로써 3차원 사용자 아바타를 생성한다. The user avatar generator 200 generates a 3D user avatar by expressing the user's face as a 3D object using a user's face photograph and modeling the user's body shape and clothes according to the user's selection.

동적 아바타 생성부(300)는 카메라(14)로 입력되는 사용자의 얼굴영상에 대해 실시간 얼굴 표정인식 기술을 이용하여 사용자의 표정을 아바타에 반영한다. 또한, 정의된 감정에 부합될 수 있는 동작들을 사용자가 설정할 수 있도록 함으로써, 다양한 표정과 동작을 표현하는 동적 아바타를 생성한다.The dynamic avatar generator 300 reflects a user's facial expression on the avatar by using real-time facial expression recognition technology for the facial image of the user input to the camera 14. In addition, by allowing the user to set actions that can correspond to the defined emotions, a dynamic avatar representing various expressions and actions is generated.

기본 애니메이션 DB(500)에는 동적 아바타를 합성할 수 있는 애니메이션 배경과, 사용자가 낭독할 텍스트 정보가 저장된다. 기본 애니메이션 DB(500)에는 각기 다른 테마를 갖는 복수개의 애니메이션 배경과 텍스트 정보가 저장될 수 있다. 예컨대, 동영상 제작장치(100)가 구연동화를 제작하기 위해 제공되는 경우 기본 애니메이션 DB(500)에는, 동화의 전개에 부합되는 배경 애니메이션과 구연할 동화 내용이 저장될 수 있다. The basic animation DB 500 stores an animation background for synthesizing a dynamic avatar and text information to be read by the user. The basic animation DB 500 may store a plurality of animation backgrounds and text information having different themes. For example, when the video production apparatus 100 is provided to produce a storytelling story, the basic animation DB 500 may store a background animation corresponding to the development of the storybook and the content of the storybook to be talked about.

사용자 애니메이션 생성부(400)는 기본 애니메이션 DB(500)에 저장된 배경 애니메이션과 사용자가 제작한 동적 아바타를 합성하여, 3차원 사용자 아바타가 등장하는 애니메이션을 생성한다. 또한, 사용자가 낭독하는 애니메이션의 내용, 즉, 동화의 내용도 함께 입력받아 합성함으로써, 사용자의 음성과 사용자의 3차원 아바타에 의해 전개되는 사용자 애니메이션을 생성할 수 있다.The user animation generator 400 synthesizes a background animation stored in the basic animation DB 500 and a dynamic avatar created by the user to generate an animation in which a 3D user avatar appears. In addition, by inputting and synthesizing the contents of the animation read out by the user, that is, the contents of the moving picture, the user animation generated by the user's voice and the user's three-dimensional avatar can be generated.

사용자 애니메이션 저장부(450)에는 사용자가 생성한 사용자 애니메이션이 저장된다.The user animation storage unit 450 stores a user animation generated by the user.

도 2는 본 발명의 실시예에 따른 3차원 사용자 아바타 생성부(200)의 제어블럭도이다.2 is a control block diagram of the 3D user avatar generator 200 according to an exemplary embodiment of the present invention.

사용자 아바타 생성부(200)는, 3차원 아바타 얼굴 생성부(210), 3차원 아바타 체형 및 의상 생성부(220)와 아바타 생성을 위한 각종 데이터가 저장된 데이터베이스(230, 232, 234)를 포함한다.The user avatar generator 200 includes a 3D avatar face generator 210, a 3D avatar body and costume generator 220, and databases 230, 232, and 234 storing various data for generating an avatar. .

데이터베이스는, 아바타 얼굴 DB(230), 아바타 의상 DB(232), 아바타 체형 DB(234)를 포함할 수 있다. 아바타 얼굴 DB(230)에는 3차원 아바타 얼굴을 모델링 하는데 사용되는 기본 아바타 얼굴 정보가 저장된다. 아바타 체형 DB(234)에는 3차원 아바타의 체형을 모델링하는 데 사용되는 기본 아바타 체형 정보가 저장된다 아바타 의상 DB(232)에는 3차원 아바타에 적용할 의상, 액세서리, 소품 등의 정보가 저장된다.The database may include an avatar face DB 230, an avatar costume DB 232, and an avatar body DB 234. The avatar face DB 230 stores basic avatar face information used to model a 3D avatar face. The avatar body DB 234 stores basic avatar body information used to model the body of the 3D avatar. The avatar costume DB 232 stores information such as clothes, accessories, and props to be applied to the 3D avatar.

3차원 아바타 얼굴 생성부(210)는 2차원 영상에서 사용자의 얼굴영상을 인식하여 3차원 사용자 아바타의 얼굴을 생성한다. 사용자의 얼굴이 반영된 3차원 아바타를 생성하는 데에는, AAM(Active Appearance Model)이 적용될 수 있다. AAM은 얼굴을 지정된 메쉬(Mesh) 형태로 지정하여 얼굴이 이동하는 동안 이전 메쉬와의 차이를 계산하여 지속적으로 얼굴을 추적할 수 있으며 얼굴에 정확하게 메쉬가 위치하게 되면 얼굴의 각 부분을 분리할 수 있는 기술이다. The 3D avatar face generator 210 generates a 3D user avatar face by recognizing a face image of the user in the 2D image. An AAM (Active Appearance Model) may be applied to generate the 3D avatar reflecting the user's face. AAM assigns faces in the form of designated meshes to calculate the difference from the previous mesh while the face is moving so that the face can be tracked continuously and once the mesh is precisely positioned on the face, it can separate parts of the face. It is a skill.

이에, 3차원 아바타 얼굴 생성부(210)는 촬영된 카메라(14) 입력영상을 이용하여 3차원 아바타의 형상 및 피부를 생성하고, 입력된 영상에 AAM을 적용시킨 메쉬 간의 비율을 계산하여 아바타 얼굴을 생성하는 한편 사용자의 요구에 따라 변경할 수 있다. 얼굴영역이 인식된 2차원 영상에서 외형(appearance)과 형상(shape)의 파라미터를 추출하고, 추출한 얼굴특징 요소를 토대로 입력된 얼굴이미지에서 눈, 코, 입의 영역을 AAM의 형상에 맞도록 모델링하고, 각 영역의 피부를 가지고 사용자 아바타의 얼굴피부 텍스처를 합성한다.Thus, the 3D avatar face generator 210 generates the shape and skin of the 3D avatar using the captured image of the camera 14 and calculates the ratio between the meshes to which the AAM is applied to the input image. You can create it and change it according to your needs. Extract the parameters of appearance and shape from the 2D image where the face region is recognized, and model the area of the eyes, nose and mouth in the input face image to fit the shape of the AAM based on the extracted facial features The facial skin texture of the user avatar is synthesized using the skin of each region.

3차원 아바타 체형 및 의상 생성부(220)는 아바타 체형 제작과 의상 착용 기능 수행한다. 3차원 아바타 체형 및 의상 생성부(220)는 아바타 체형 DB(234) 및 아바타 의상 DB(232)로부터 각각 체형과 의상 데이터를 제공받아 사용자 아바타의 체형과 의상을 모델링 한다.The 3D avatar body and costume generation unit 220 performs an avatar body production and a costume wearing function. The 3D avatar body and costume generation unit 220 receives body and costume data from the avatar body DB 234 and the avatar costume DB 232 to model the body and costume of the user avatar.

도 3은 본 발명의 실시예에 따른 3차원 사용자 아바타를 이용한 동영상 제작장치(100)의 동적 아바타 생성부(300)의 제어블럭도이다.3 is a control block diagram of the dynamic avatar generating unit 300 of the video production apparatus 100 using the 3D user avatar according to an embodiment of the present invention.

동적 아바타 생성부(300)는 다양한 표정과 동작을 표현하는 동적 아바타를 모델링하며, 사용자 표정 인식부(310), 아바타 표정 및 동작 DB(340, 345), 표정 및 동작 매칭부(320) 및 아바타 표정 및 동작 합성부(330)를 포함한다.The dynamic avatar generator 300 models dynamic avatars representing various expressions and actions, and includes a user facial expression recognizer 310, an avatar facial expression and motion DB 340 and 345, a facial expression and motion matcher 320, and an avatar. Expression and motion synthesis unit 330 is included.

아바타 표정 및 동작 DB(340, 345)에는 아바타의 기본 표정과 동작정보가 저장된다. 아바타 표정 DB(340)에는 인간의 지니고 있는 기본 표정은 즐거움(joy), 놀람(surprise), 공포(fear), 화남(anger), 역겨움(disgust), 슬픔(sadness) 등 여섯 가지 표정이 저장된다. 저장되는 얼굴 표정 데이터는 도 4에 도시된 바와 같다. 도 4에 도시된 얼굴 표정 데이터는 국제학회에서 인정하고 있는 표준 얼굴 표정 DB인 Cohn-Kanade DB로써, 표정관련 연구에 가장 기본이 되는 표정 데이터(인종, 성별, 표정)를 제공한다. 이러한 표준 얼굴 표정을 이용하여 카메라(14)를 통해 보이는 사용자의 표정을 인식할 수 있다. 아바타 동작 DB(345)에는 아바타 표정에 따른 동작 데이터가 저장된다. 예컨대, 즐거움, 놀람, 공포, 화남, 역겨움, 슬픔 등의 감정상태에서 취할 수 있는 동작들이 저장될 수 있다.Avatar facial expression and motion DB (340, 345) stores the basic facial expression and motion information of the avatar. Avatar facial expression DB (340) is stored in the six basic expressions such as joy (surprise), fear (fear), anger (anger), disgust, sadness (sadness) are stored . The facial expression data stored is as shown in FIG. 4. The facial expression data shown in FIG. 4 is a Cohn-Kanade DB, which is a standard facial expression DB recognized by the International Society, and provides facial expression data (race, gender, and facial expression) which are the most basic for expression-related research. The standard facial expression may be used to recognize the user's facial expression seen through the camera 14. The avatar motion DB 345 stores motion data according to the avatar expression. For example, actions that can be taken in an emotional state such as pleasure, surprise, fear, anger, disgust, sadness, etc. may be stored.

사용자 표정 인식부(310)는 카메라(14)를 통해 실시간으로 촬영되는 영상을 이용하여 3차원 아바타의 형상 및 피부를 생성한다. 사용자 표정 인식부(310)는 입력된 영상에 AAM을 적용시킨 메쉬 간의 비율을 계산하여 아바타 얼굴을 생성되고 사용자의 요구에 따라 변경이 가능하다. 피부의 생성 또한 적용된 AAM 메쉬의 각 부분을 사용하여 아바타의 피부로 변환시킨다.The user facial expression recognition unit 310 generates the shape and skin of the 3D avatar using an image captured in real time by the camera 14. The user facial recognition unit 310 generates an avatar face by calculating a ratio between meshes to which the AAM is applied to the input image, and may change the image according to a user's request. The creation of the skin is also converted to the avatar's skin using each part of the applied AAM mesh.

사용자 표정 인식부(310)는 얼굴 인식부(312), 특징 추출부(314), BPNN(Back Propagation Neural Network) 처리부(316)를 포함한다.The user facial recognition unit 310 may include a face recognition unit 312, a feature extractor 314, and a BPNN (Back Propagation Neural Network) processor 316.

얼굴 인식부(312)는 입력되는 영상에서 얼굴에 해당되는 영역을 인식한다. The face recognition unit 312 recognizes an area corresponding to the face in the input image.

특징 추출부(314)는 얼굴영상에 대해 AAM(Active Appearance Model)을 적용한다. AAM이 적용되면 입력된 얼굴이미지에서 눈, 코, 입의 영역이 AAM의 형상(Shape)에 맞춰지게 되고 각 영역의 피부를 가지고 사용자 아바타의 얼굴 피부 텍스처(texture)가 생성된다.The feature extractor 314 applies an AAM (Active Appearance Model) to the face image. When AAM is applied, the area of the eyes, nose, and mouth are matched to the shape of the AAM in the input face image, and the facial skin texture of the user avatar is generated with the skin of each area.

BPNN 처리부(316)는 얼굴영상의 특징점을 이용하여 BPNN(Back Propagation Neural Network) 방식으로 표정을 인식함으로써 다양한 표정을 분류할 수 있다. The BPNN processor 316 may classify various facial expressions by recognizing facial expressions using a BPNN (Back Propagation Neural Network) method by using feature points of the facial image.

도 5는 BPNN의 신경망 계층구조를 나타낸 것이다. BPNN은 입력층과 출력층 사이에 은둔층이 존재한다. 계층의 구성은 입력층, 은닉층, 출력층으로 구성되며, 각 층간은 가중치에 의하여 연결되며, 이 가중치의 설정에 의하여 안정된 출력을 형성하게 된다. 이렇게 가중치가 결정된 신경망을 각각의 표정별 생성하여 현재의 AAM 데이터를 각각의 신경망과 비교하여 확률이 높은 것을 현재의 표정으로 인식한다. 5 shows a neural network hierarchy of a BPNN. The BPNN has a hidden layer between the input and output layers. The hierarchical structure is composed of an input layer, a hidden layer, and an output layer. Each layer is connected by a weight, and a stable output is formed by setting the weight. The weighted neural network is generated for each expression, and the current AAM data is compared with each neural network to recognize that the probability is high as the current expression.

본 발명의 실시예에서는 은둔층과 출력층에 비선형 활성함수로서 시그모이드 함수를 적용하여 결정영역이 통상의 직선이 아닌 완만한 곡선으로 경계가 형성되도록 함으로써 은둔층을 학습하는 BPNN 학습 알고리즘을 수행하도록 한다. 이와 같이, 은둔층을 증가시키고 비선형 활성함수를 사용함에 따라서 결정구역이 고급화되는 장점을 확보할 수 있다.In the embodiment of the present invention, by applying a sigmoid function as a nonlinear active function to the reclination layer and the output layer, the crystal region is bounded by a gentle curve rather than a normal straight line, so that the BPNN learning algorithm for learning the reclination layer is performed. do. In this way, it is possible to secure an advantage of increasing the crystallization zone by increasing the recluse layer and using the nonlinear active function.

여기서, 모델을 대상으로 하여 입력층(I)와 은둔층(H) 및 출력층(O)은 다음의 [수식 1] 로서 정의된다.Here, for the model, the input layer I , the hermit layer H , and the output layer O are defined as the following [Formula 1].

[수식 1][Equation 1]

Figure 112011074325041-pat00001
Figure 112011074325041-pat00001

[수식 1]에서 입력층(I)와 은둔층(H)의 2승 오차(Ep)를 줄이기 위한 가중치(Wji)는 다음의 [수식 2] 로서 재조정된다.In Equation 1, the weight W ji for reducing the squared error E p of the input layer I and the hermit layer H is readjusted as Equation 2 below.

[수식 2][Equation 2]

Figure 112011074325041-pat00002
Figure 112011074325041-pat00002

모든 패턴(P)에 대한 2승 오차(Ep)는 식(x)로 나타낼 수 있다. 여기서, (Tpk)는 목표벡터이며, (Qpk)는 출력벡터이다.The squared error E p for all patterns P can be represented by equation (x). Here, (T pk ) is a target vector, and (Q pk ) is an output vector.

[수식 3][Equation 3]

Figure 112011074325041-pat00003
Figure 112011074325041-pat00003

각 패턴P의 학습으로 2승 오차(Ep)를 점차 줄임으로써 전체적으로 오차함수(Et)를 극소화한다. By minimizing the square error (E p ) by learning each pattern P , the overall error function (E t ) is minimized.

이상과 같이 특징점을 이용한 BPNN(Back Propagation Neural Network) 표정 인식 방법을 적용하는 경우, 기본표정만을 적용하는 것보다 다양한 표정을 분류할 수 있다. 이에, 사용자가 표정을 통해 가용한 동작을 제안 받는 인터페이스 역할을 확장할 수 있다.When applying the BPNN (Back Propagation Neural Network) facial expression recognition method using the feature points as described above, it is possible to classify various facial expressions than to apply only the basic expression. Thus, an interface role for which a user is suggested to use available expressions may be extended.

표정 및 동작 매칭부(320)는 사용자 표정 인식부(310)로 인식된 사용자의 표정에 따라 해당 표정에서 취할 수 있는 동작들의 리스트를 아바타 동작 DB(345)로부터 검색한다. 표정과 함께 취하는 동작에 따라 각기 다른 감정이 전달될 수 있다. 예로서 비웃는 장면이라면 똑같이 웃더라도 손가락질을 하거나 배를 부여잡고 발을 동동 굴러야 한다. 반면, 기뻐서 웃는 것이라면 손을 벌리고 큰 동작으로 웃는 것이 어울린다. 이에, 표정 및 동작 매칭부(320)는 사용자 표정 인식부(310)로 인식된 사용자의 표정에서 묘사할 수 있는 상황에 관련된 동작 데이터를 추출하여 사용자에게 제안한다.The facial expression and motion matching unit 320 searches the avatar motion DB 345 for a list of operations that can be taken in the facial expression according to the facial expression of the user recognized by the user facial expression recognition unit 310. Different emotions can be transmitted depending on the action you take with your expression. For example, if you laugh at the same scene, you must finger or grab your stomach and roll your feet. On the other hand, if you are smiling with joy, open your hands and smile with a big gesture. Accordingly, the facial expression and motion matching unit 320 extracts motion data related to a situation that can be described in the facial expression of the user recognized by the user facial expression recognition unit 310 and proposes it to the user.

아바타 표정 및 동작 합성부(330)는 사용자 표정 인식부(310)로 인식된 사용자의 표정과 사용자가 선택한 동작을 사용자 아바타에 적용하여 동적 아바타를 생성한다.The avatar facial expression and motion synthesizer 330 generates a dynamic avatar by applying the facial expression of the user recognized by the user facial expression recognizer 310 and the motion selected by the user to the user avatar.

이상 설명한 바와 같이, 동적 아바타 생성부(300)는 카메라(14)를 통해 실시간으로 촬영되는 영상을 이용하여 사용자의 표정을 인식하고 인식된 표정이 묘사할 수 있는 상황에 관련된 동작 애니메이션들을 제안하여 선택된 동작으로 하여금 다른 상황을 묘사할 수 있도록 구성한다. 이에, 사용자는 무수히 많은 동작 데이터를 일일이 뒤져가며 원하는 동작 데이터를 찾을 필요 없이, 인식된 표정으로 분류된 동작 범위에서 적절한 동작 데이터를 신속히 선택할 수 있다.As described above, the dynamic avatar generator 300 recognizes a user's facial expression using an image captured in real time through the camera 14 and proposes motion animations related to a situation in which the recognized facial expression can be described. Configure the actions to describe different situations. Accordingly, the user can quickly select the appropriate motion data from the motion range classified by the recognized facial expression without having to go through countless motion data one by one and find the desired motion data.

도 6은 본 발명의 실시예에 따른 3차원 사용자 아바타의 아바타 얼굴 생성과정의 흐름도이다.6 is a flowchart illustrating an avatar face generation process of a 3D user avatar according to an exemplary embodiment of the present invention.

사용자는 3차원 아바타 생성 시스템에서 카메라(14)로 자신의 얼굴을 촬영하여 얼굴영상을 입력한다(S210). 여기서, 사용자는 외부로부터 얼굴영상을 수신 혹은 입력받거나, 혹은, 기 저장된 얼굴영상을 이용하는 것도 가능하다.The user inputs a face image by photographing his or her face with the camera 14 in the 3D avatar generation system (S210). Here, the user may receive or receive a face image from the outside or use a pre-stored face image.

입력된 얼굴영상에서 얼굴영역을 인식하고(S215), 얼굴이 인식된 영상에 대해 AAM을 적용하여 얼굴영상에서 눈, 코, 입의 영역이 AAM의 형상(Shape)에 맞춰지도록 한다(S220).The face region is recognized from the input face image (S215), and an AAM is applied to the image on which the face is recognized so that the areas of the eyes, nose, and mouth fit in the shape of the AAM (S220).

AAM이 적용된 영상을 이용하여 아바타 얼굴의 외관을 생성하고(S230), 또한, 각 영역의 피부를 이용하여 텍스처를 합성한다(S225).The appearance of the avatar face is generated using the AAM-applied image (S230), and the texture is synthesized using the skin of each region (S225).

이 후, 아바타 얼굴의 외관과 텍스처를 이용하여 3차원 아바타를 합성하고, 합성 결과를 사용자에게 표시한다(S235).Thereafter, the 3D avatar is synthesized using the appearance and texture of the avatar face, and the synthesis result is displayed to the user (S235).

이에, 사용자가 얼굴 각부의 사이즈를 조절하거나 피부 텍스처를 변경하면 이에 따라 아바타를 수정하고(S240), 수정이 완료된 아바타를 표시한다(S245).Accordingly, when the user adjusts the size of each of the face parts or changes the skin texture, the avatar is modified accordingly (S240), and the modified avatar is displayed (S245).

도 7은 본 발명의 실시예에 따른 3차원 사용자 아바타를 이용한 동영상 제작방법의 사용자 표정 인식 과정의 흐름도이다.7 is a flowchart illustrating a process of recognizing a user's facial expression in a method for producing a video using a 3D user avatar according to an exemplary embodiment of the present invention.

사용자는 카메라(14)로 얼굴을 촬영하여 얼굴영상을 입력할 수 있다(S310).The user may input a face image by photographing a face with the camera 14 (S310).

이에, 얼굴영상에 포함된 국지적인 외형의 특징이 강화되어 얼굴 이 인식된다(S315).Thus, the facial features are recognized by enhancing local features included in the face image (S315).

AAM 모델링부(516)는 입력된 얼굴영상에 대해 AAM 피팅을 수행하여 얼굴영상을 모델링하기 위한 특징점을 검출한다(S320). 이때, 사용되는 특징점으로는 외형(appearance)과 형상(shape)의 파라미터를 들 수 있다.The AAM modeling unit 516 detects a feature point for modeling the face image by performing AAM fitting on the input face image (S320). In this case, the feature points used may include parameters of appearance and shape.

BPNN(Back Propagation Neural Network) 처리부(316)에서는 검출된 특징점에 대해 BPNN을 적용하여 얼굴 표정을 분류한다(S325). The back propagation neural network (BPN) processor 316 classifies facial expressions by applying the BPNN to the detected feature points (S325).

BPNN 방식으로 인식된 표정 인식 결과를 아바타에 반영하여 표시한다(S330).The facial expression recognition result recognized by the BPNN method is reflected and displayed on the avatar (S330).

이러한, BPNN 표정 인식 방법을 적용하는 경우, 기본표정만을 적용하는 것보다 다양한 표정을 분류할 수 있다. 이에, 사용자가 표정을 통해 가용한 동작을 제안받는 인터페이스 역할을 확장할 수 있다.When applying the BPNN facial expression recognition method, it is possible to classify various facial expressions than to apply only the basic expression. Thus, an interface role for which the user is suggested to use the available expression through the facial expression may be extended.

도 8은 본 발명의 제1실시예에 따른 3차원 사용자 아바타를 이용한 동영상 제작방법의 흐름도이다. 본 실시예는 동영상 제작장치(100)를 이용하여 구연동화 동영상을 생성하는 경우 사용자에게 제공되는 인터페이스를 예시하고 있다. 이러한 경우, 동영상 제작장치(100)는 사용자의 스마트폰이나 태블릿 등의 휴대기기에 애플리케이션의 형태로 탑재될 수 있다.8 is a flowchart illustrating a video production method using a 3D user avatar according to a first embodiment of the present invention. This embodiment illustrates an interface provided to a user when generating a storytelling video using the video production device 100. In this case, the video production apparatus 100 may be mounted in the form of an application on a mobile device such as a user's smartphone or tablet.

사용자는 동영상 제작 프로그램인 "구연동화"프로그램을 선택하여 생성하고자 하는 아바타를 선택할 수 있다(S510). 사용자의 프로그램 실행 선택에 따라 동영상 제작장치(100)가 활성화된다.The user may select an avatar to be generated by selecting a "movie sync" program, which is a video production program (S510). The video production apparatus 100 is activated according to the user's program execution selection.

사용자 아바타 생성부(200)는 촬영된 카메라(14) 입력 영상을 이용하여 3차원 아바타의 형상과 피부를 생성하여 3차원 아바타 얼굴을 생성한다(S515). 사용자 아바타 생성부(200)는 입력된 영상에 AAM을 적용시킨 메쉬 간의 비율을 계산하여 아바타 얼굴을 생성할 수 있다. 피부의 생성 또한 적용된 AAM 메쉬의 각 부분을 사용하여 아바타의 피부로 변환시킬 수 있다.The user avatar generating unit 200 generates a 3D avatar face by generating a shape and a skin of the 3D avatar using the captured image of the camera 14 (S515). The user avatar generator 200 may generate an avatar face by calculating a ratio between meshes to which an AAM is applied to the input image. Skin generation can also be converted to the avatar's skin using each part of the applied AAM mesh.

3차원 아바타 얼굴이 생성되면 이를 사용자의 요구에 따라 편집한다(S520). 사용자는 생성된 3차원 아바타 얼굴이 사용자의 얼굴과 더욱 유사하게 표현할 수 있도록 아바타의 형상과 피부를 변경하여 세부적인 설정을 조절할 수 있다.When the 3D avatar face is generated, it is edited according to the user's request (S520). The user may adjust detailed settings by changing the shape and skin of the avatar so that the generated 3D avatar face may be more similar to the face of the user.

이 후, 아바타에 기본 체형을 제공하고 사용자가 신체 각 부의 설정을 자신과 유사하게 조정하도록 한다(S525). 사용자는 제공되는 메뉴를 이용하여 키, 어깨, 배, 팔, 허벅지, 근육량 등의 사이즈 설정을 변경할 수 있다.Thereafter, the basic body shape is provided to the avatar, and the user adjusts the settings of each part of the body to be similar to himself (S525). The user may change size settings such as height, shoulders, belly, arms, thighs, muscle mass, etc. using the provided menu.

체형 설정이 완료되면 의상 시뮬레이션 기술을 이용하여 아바타에 다양한 옷이나 액세서리를 설정한다(S530). 아바타의 의상 설정 시에는 모바일 환경에 적합한 로우 폴리건(Low Polygon)을 기반으로 제작된 의상제작 툴을 적용할 수 있다. 이에, 사용자의 스타일에 더욱 근접한 아바타를 연출할 수 있다.When the body setting is completed, various clothes or accessories are set on the avatar using the costume simulation technology (S530). When setting the avatar's costume, a costume creation tool based on a low polygon suitable for a mobile environment can be applied. As a result, the avatar may be produced closer to the style of the user.

의상 등의 스타일 설정이 완료되면, 생성된 사용자 아바타를 저장한다(S535). When the style setting such as the clothes is completed, the generated user avatar is stored (S535).

도 9는 본 발명의 제2실시예에 따른 3차원 사용자 아바타를 이용한 동영상 제작방법의 흐름도로서, 다양한 표정과 동작을 표현하는 동적 아바타를 모델링하는 과정을 예시한 것이다.9 is a flowchart illustrating a video production method using a 3D user avatar according to a second embodiment of the present invention, which illustrates a process of modeling a dynamic avatar expressing various expressions and actions.

동영상 제작장치(100)에는 아바타의 표정, 아바타의 동작 등의 데이터가 데이터베이스(340, 345)로 구축되어 있다. 또한, 각 표정에 따라 부합되는 동작이 미리 설정되어 있다.In the video production apparatus 100, data such as an expression of an avatar, an operation of an avatar, and the like are constructed as databases 340 and 345. In addition, a matching operation is preset according to each expression.

이에, 사용자는 스마트 기기의 카메라(14)를 이용하여 사용자의 표정을 촬영한다(S410).Thus, the user photographs the expression of the user using the camera 14 of the smart device (S410).

이에, 사용자 표정 인식부(310)는 표정 인식 알고리즘을 통해 사용자의 표정을 인식한다(S415). 여기서, 사용자 표정 인식부(310)는, 얼굴영상의 특징점을 이용하여 BPNN(Back Propagation Neural Network) 방식으로 표정을 인식함으로써 기본표정만을 적용하는 것보다 다양한 표정을 분류할 수 있다. Thus, the user facial expression recognition unit 310 recognizes the user's facial expression through the facial expression recognition algorithm (S415). Here, the user facial recognition unit 310 may classify various facial expressions rather than applying only basic expressions by recognizing facial expressions using a BPNN (Back Propagation Neural Network) method using feature points of the facial image.

표정이 판단되면(S420), 해당 표정에 부합되는 동작 데이터를 아바타 동작 DB(345)로부터 추출한다.When the facial expression is determined (S420), motion data corresponding to the facial expression is extracted from the avatar motion DB 345.

추출된 동작 리스트는 팝업이나, 리스트 제시 등의 제시 방법을 이용하여 사용자에게 제공한다(S430). 여기서, 판단된 표정에 따라 리스트 상의 동작들을 아이콘으로 팝업하고 기타 표정으로 제안할 수 없는 동작들은 고정 아이콘으로 제공하는 것도 가능하다.The extracted action list is provided to the user using a popup or a presentation method such as a list presentation (S430). Here, the operation on the list may be popped up as an icon according to the determined expression, and operations that cannot be suggested by other expressions may be provided as fixed icons.

이와 같이, 표정인식 기술은 사용자의 표정을 아바타에 반영하는 것과 제스처를 효과적으로 선택할 수 있는 인터페이스 역할을 동시에 수행할 수 있다. 만약 표정인식 기술을 사용하지 않은 상태에서 제스처를 선택해야 한다면 사용자는 무수히 많은 제스처를 일일이 뒤져가며 한참을 찾아야 한다. 표정인식으로 하여금 여러 감정을 나타내는 동작 중 웃음이라는 한 묶음으로 단숨에 축소된 동작 범위에서 빠르게 선택할 수 있게 된다.As such, the facial expression recognition technology may simultaneously serve as an interface for effectively reflecting a user's facial expression on an avatar and selecting a gesture. If a user must select a gesture without using facial recognition technology, the user has to go through countless gestures and find a long time. Facial expressions allow you to quickly select from a range of motions that are shrunk in a bundle of laughter.

도 10은 본 발명의 제3실시예에 따른 3차원 사용자 아바타를 이용한 동영상 제작방법의 흐름도로써, 사용자의 동적 아바타를 다른 콘텐츠와 합성하여 사용자 애니메이션을 생성하는 과정을 예시한 것이다.10 is a flowchart illustrating a video production method using a 3D user avatar according to a third embodiment of the present invention, illustrating a process of generating a user animation by synthesizing a dynamic avatar of a user with other content.

구연동화 제작을 위한 동영상 제작장치(100)에는 동화 콘텐츠의 글과 그림을 포함하는 기본 애니메이션이 기본 애니메이션 DB(500)에 저장되어 있다.In the video production apparatus 100 for producing a fairy tale story, a basic animation including a text and a picture of a fairy tale content is stored in the basic animation DB 500.

이에, 사용자가 프로그램을 실행시키면(S610), 미리 제작된 그림이 동화 구연 시 배경 및 글이 표시되고, 사용자의 동작 설정을 위한 화면이 함께 표시된다(S615). 사용자는 동화 구연 장면을 카메라(14)로 촬영하며, 이에, 동영상 제작장치(100)는 사용자의 표정을 실시간으로 인식하여 인식된 표정에 적절한 동작을 제안한다.Accordingly, when the user executes the program (S610), the background and the text are displayed when the previously produced picture is played in the story, and the screen for setting the operation of the user is displayed together (S615). The user photographs the story of a fairy tale story with the camera 14, and thus, the video production apparatus 100 recognizes the user's expression in real time and proposes an action suitable for the recognized expression.

3차원 아바타는 사용자가 선택한 동작을 표현하는 한편(S620), 사용자의 아바타와 동화의 배경을 합성한다(S625). 이에, 사용자의 3차원 아바타가 동화의 내용에 따른 표정과 동작을 표현하는 구현 동화 애니메이션이 생성된다.The 3D avatar expresses the action selected by the user (S620), and synthesizes the background of the user's avatar and the fairy tale (S625). As a result, an animated moving picture animation is generated in which the user's three-dimensional avatar expresses facial expressions and actions according to the contents of the moving picture.

이러한 구성에 의해, 본 발명은 종래의 2차원 이미지의 e-Book 콘텐츠와 차별화된 3차원 이미지를 구현하고, 또한 카메라(14)를 통한 촬영이미지를 아바타로 구현함으로써 다양하고 특징적인 영상이 가능하다. By such a configuration, the present invention implements a three-dimensional image differentiated from the e-book content of the conventional two-dimensional image, and also various and characteristic images are possible by implementing the captured image through the camera 14 as an avatar. .

사용자의 아바타를 이용한 구현동화 애니메이션은 유치원의 선생님을 3차원 아바타로 설정하여 유아교육 현장에서 사용하거나, 가정에서 부모의 아바타를 이용하여 구현동화 애니메이션을 제작할 수 있으며, 기타, 특정인이 출현하는 구현동화 애니메이션을 용이하게 제작하여 사용할 수 있다.The implementation animation animation using the user's avatar can be used in the field of early childhood education by setting the teacher of the kindergarten as a 3D avatar, or the implementation animation animation can be produced using the avatar of the parents at home. You can easily create and use animations.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Thus, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the embodiments described above are to be considered in all respects only as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

본 발명은 사용자의 얼굴이 반영된 3차원 사용자 아바타를 생성하고, 카메라로 촬영된 사용자의 얼굴 표정을 사용자 아바타에 반영하여 표정과 동작이 움직이는 동적 아바타를 생성하며, 사용자의 음성과 사용자 아바타의 영상을 함께 녹화 및 편집할 수 있도록 함으로써, 사용자 아바타를 이용한 동영상을 제작할 수 있도록 하는 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법에 이용할 수 있다.The present invention generates a three-dimensional user avatar reflecting the user's face, and reflects the user's facial expressions photographed with the camera to the user avatar to generate a dynamic avatar moving the expression and motion, and the user's voice and the image of the user avatar By recording and editing together, the present invention can be used for a video production apparatus and method using a 3D user avatar to produce a video using the user avatar.

10 : 사용자 단말 12 : 통신부
14 : 카메라 16 : 디스플레이부
18 : 사용자 입력부 20 : 단말 제어부
100 : 동영상 제작장치 110 : 애니메이션 제작 제어부
200 : 사용자 아바타 생성부
210 : 3차원 아바타 얼굴 생성부
220 : 3차원 아바타 체형 및 의상 생성부
230 : 아바타 얼굴 DB 232 : 아바타 의상 DB
234 : 아바타 체형 DB 300 : 동적 아바타 생성부
310 : 사용자 표정 인식부 312 : 얼굴 인식부
314 : 특징 추출부 316 : BPNN 처리부
320 : 표정 및 동작 매칭부 330 : 아바타 표정 및 동작 합성부
340 : 아바타 표정 DB 345 : 아바타 동작 DB
400 : 사용자 애니메이션 생성부
450 : 사용자 애니메이션 저장부
500 : 기본 애니메이션 DB
10: user terminal 12: communication unit
14 camera 16 display unit
18: user input unit 20: terminal control unit
100: video production device 110: animation production control
200: user avatar generation unit
210: 3D avatar face generator
220: 3D avatar body and costume generator
230: avatar face DB 232: avatar costume DB
234: Avatar body type DB 300: Dynamic avatar generator
310: user facial recognition unit 312: face recognition unit
314: feature extraction unit 316: BPNN processing unit
320: facial expression and motion matching unit 330: avatar facial expression and motion synthesis unit
340: Avatar facial expression DB 345: Avatar motion DB
400: user animation generator
450: user animation storage unit
500: basic animation DB

Claims (12)

하나의 표정에 대응되는 적어도 둘 이상의 아바타의 동작 데이터를 미리 입력받아 저장하는 단계;
2차원 사용자 영상을 이용하여 3차원 사용자 아바타를 생성하는 단계;실시간으로 입력되는 상기 사용자 영상에 AAM을 적용하여 사용자 얼굴의 특징점을 추출하는 단계;
상기 특징점을 BPNN 처리하여 상기 사용자 얼굴의 표정을 인식하는 단계;
인식된 상기 사용자 얼굴의 표정에 대응되는 상기 둘 이상의 아바타의 동작 데이터를 검색하여 사용자에게 제시하는 단계;
상기 사용자에 의해 선택된 동작 데이터와 상기 인식된 표정을 상기 3차원 사용자 아바타에 적용하여 동적 아바타를 생성하는 단계; 및
상기 사용자의 동적 아바타를 기저장된 배경 동영상과 합성하여 사용자 애니메이션을 생성하는 단계를 포함하는 3차원 사용자 아바타를 이용한 동영상 제작방법.
Receiving and storing motion data of at least two avatars corresponding to one facial expression in advance;
Generating a 3D user avatar using a 2D user image; extracting feature points of a user face by applying AAM to the user image input in real time;
Recognizing an expression of the user's face by BPNN processing the feature point;
Retrieving and presenting motion data of the two or more avatars corresponding to the recognized facial expressions of the user's face to the user;
Generating a dynamic avatar by applying the motion data selected by the user and the recognized facial expression to the 3D user avatar; And
Generating a user animation by synthesizing the dynamic avatar of the user with a pre-stored background video.
제1항에 있어서,
상기 2차원 사용자 영상을 이용하여 3차원 사용자 아바타를 생성하는 단계는,
상기 2차원 사용자 영상에 AAM을 적용하여 상기 사용자 얼굴의 부분별 비율을 산출하고, 산출 값에 따라 상기 3차원 사용자 아바타의 얼굴 형상(shape)을 모델링하는 단계; 및
상기 2차원 사용자 영상에 AAM을 적용하여 상기 사용자 얼굴의 피부 텍스처를 상기 아바타 얼굴에 합성하는 단계를 포함하는 것을 특징으로 하는 3차원 사용자 아바타를 이용한 동영상 제작방법.
The method of claim 1,
Generating a 3D user avatar using the 2D user image may include:
Calculating a proportion of each part of the user's face by applying AAM to the two-dimensional user image, and modeling a face shape of the three-dimensional user avatar according to the calculated value; And
And synthesizing the skin texture of the user's face to the avatar's face by applying AAM to the two-dimensional user's image.
제1항에 있어서,
상기 2차원 사용자 영상을 이용하여 3차원 사용자 아바타를 생성하는 단계는,
상기 사용자의 선택에 따라 기저장된 아바타의 체형과 의상을 상기 3차원 사용자 아바타의 얼굴에 합성하는 단계; 및
상기 사용자의 선택에 따라 상기 아바타의 체형과 의상을 편집하여 사용자의 3차원 사용자 아바타를 생성하는 단계를 포함하는 것을 특징으로 하는 3차원 사용자 아바타를 이용한 동영상 제작방법.
The method of claim 1,
Generating a 3D user avatar using the 2D user image may include:
Synthesizing the pre-stored avatar's body type and clothes according to the user's selection to the face of the 3D user avatar; And
And generating a 3D user avatar of the user by editing the body shape and clothes of the avatar according to the user's selection.
삭제delete 제1항에 있어서,
상기 사용자 얼굴의 특징점은,
얼굴 형상(shape)와 피부 텍스처 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 3차원 사용자 아바타를 이용한 동영상 제작방법.

The method of claim 1,
Feature points of the user's face,
A method for producing a video using a 3D user avatar, comprising at least one of a face shape and a skin texture.

삭제delete 제1항에 있어서,
상기 사용자의 동적 아바타를 기저장된 배경 동영상과 합성하여 사용자 애니메이션을 생성하는 단계는,
상기 사용자의 음성을 입력받아 상기 사용자 애니메이션과 함께 저장하는 단계를 포함하는 것을 특징으로 하는 3차원 사용자 아바타를 이용한 동영상 제작방법.
The method of claim 1,
Generating the user animation by synthesizing the dynamic avatar of the user with a pre-stored background video,
And receiving the user's voice and storing the same together with the user's animation.
휴대단말에서 구동될 때,
2차원 사용자 영상을 이용하여 3차원 사용자 아바타를 생성하는 단계; 실시간으로 입력되는 사용자 영상에서 상기 사용자의 표정을 인식하여 인식된 표정에 부합되는 동작들을 제시하는 단계; 상기 사용자에 의해 선택된 동작과 상기 인식된 표정을 상기 3차원 사용자 아바타에 적용하여 동적 아바타를 생성하는 단계; 상기 사용자의 동적 아바타를 기저장된 배경 동영상과 합성하여 사용자 애니메이션을 생성하는 단계를 포함하는 3차원 사용자 아바타를 이용한 동영상 제작방법을 수행하는 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장매체.
When driven from a mobile terminal,
Generating a 3D user avatar using a 2D user image; Recognizing the facial expression of the user in a user image input in real time and presenting operations corresponding to the recognized facial expression; Generating a dynamic avatar by applying the action selected by the user and the recognized facial expression to the 3D user avatar; A computer-readable storage medium having stored thereon a program for performing a video production method using a 3D user avatar including synthesizing the dynamic avatar of the user with a pre-stored background video.
2차원 사용자 영상을 이용하여 3차원 사용자 아바타의 얼굴을 모델링하고 사용자의 선택에 따라 상기 아바타 얼굴에 매칭되는 아바타의 체형과 의상을 모델링하여 3차원 사용자 아바타를 생성하는 사용자 아바타 생성부;
실시간으로 입력되는 사용자 영상에서 상기 사용자의 표정을 인식하여 인식된 표정에 부합되는 동작들을 제시하고 상기 사용자에 의해 선택된 동작과 상기 인식된 표정을 상기 3차원 사용자 아바타에 적용하여 동적 아바타를 생성하는 동적 아바타 생성부;
배경 동영상이 저장된 기본 애니메이션 DB; 및
상기 배경 동영상에 상기 사용자의 동적 아바타를 합성하여 사용자 애니메이션을 생성하는 사용자 애니메이션 저장부를 포함하고,
상기 동적 아바타 생성부는,
정의된 표정에 대응되는 적어도 둘 이상의 아바타의 동작 데이터가 저장된 아바타 동작 데이터베이스; 실시간으로 입력되는 상기 사용자 영상에 AAM을 적용하여 특징점을 추출하고, 상기 특징점을 BPNN 처리하여 사용자 얼굴의 표정을 인식하는 사용자 표정 인식부; 상기 인식된 표정에 대응되는 상기 적어도 둘 이상의 아바타의 동작 데이터를 검색하여 사용자에게 제시하는 표정 및 동작 매칭부; 및 상기 사용자가 선택한 아바타의 동작 데이터와 상기 사용자 표정 인식부에서 인식된 사용자 표정을 상기 3차원 사용자 아바타에 적용하여 동적 아바타를 생성하는 아바타 표정 및 동작 합성부를 포함하는 것을 특징으로 하는 3차원 사용자 아바타를 이용한 동영상 제작장치.

A user avatar generation unit for modeling a face of a 3D user avatar using a 2D user image and generating a 3D user avatar by modeling a body shape and a costume of an avatar matching the avatar face according to a user's selection;
Recognize the user's facial expressions from the user image input in real time, present the motions corresponding to the recognized facial expressions, and apply the motions selected by the user and the recognized facial expressions to the 3D user avatar to generate a dynamic avatar. An avatar generator;
A basic animation DB storing a background video; And
A user animation storage unit configured to generate a user animation by synthesizing the dynamic avatar of the user with the background video,
The dynamic avatar generator,
An avatar motion database storing motion data of at least two avatars corresponding to the defined facial expression; A user expression recognizing unit which extracts a feature point by applying AAM to the user image input in real time and recognizes an expression of a user face by BPNN processing the feature point; An expression and motion matching unit for searching and presenting motion data of the at least two avatars corresponding to the recognized expression to a user; And an avatar facial expression and motion synthesizer configured to generate a dynamic avatar by applying the motion data of the avatar selected by the user and the user facial expression recognized by the user facial expression recognizer to the 3D user avatar. Video production device using.

제9항에 있어서,
상기 사용자 아바타 생성부는,
2차원 사용자 영상에 AAM을 적용하여 상기 사용자 얼굴의 부분별 비율을 산출하고 피부 텍스처를 합성하여 3차원 사용자 아바타의 얼굴을 모델링하는 3차원 아바타 얼굴 생성부;
아바타의 체형과 의상 데이터가 저장된 데이터베이스; 및
상기 사용자의 선택에 따라 상기 데이터베이스에 저장된 아바타의 체형과 의상을 상기 3차원 사용자 아바타의 얼굴에 합성하고, 상기 사용자의 선택에 따라 상기 아바타의 체형과 의상을 편집하여 모델링하는 3차원 아바타 체형 및 의상 생성부를 포함하는 것을 특징으로 하는 3차원 사용자 아바타를 이용한 동영상 제작장치.
10. The method of claim 9,
The user avatar generator,
A three-dimensional avatar face generator for calculating a proportion of each part of the user face by applying AAM to a two-dimensional user image and synthesizing a skin texture to model a three-dimensional user avatar face;
A database in which the body shape and costume data of the avatar are stored; And
3D avatar body shape and costume for synthesizing the body shape and costume of the avatar stored in the database according to the user's selection to the face of the 3D user avatar, and editing and modeling the body shape and costume of the avatar according to the user's selection Video production apparatus using a three-dimensional user avatar comprising a generation unit.
삭제delete 제9항에 있어서,
상기 사용자 얼굴의 특징점은,
얼굴 형상(shape)와 피부 텍스처 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 3차원 사용자 아바타를 이용한 동영상 제작장치.
10. The method of claim 9,
Feature points of the user's face,
An apparatus for producing a video using a 3D user avatar, comprising at least one of a face shape and a skin texture.
KR1020110096333A 2011-09-23 2011-09-23 Method and apparatus for providing moving picture using 3d user avatar KR101306221B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110096333A KR101306221B1 (en) 2011-09-23 2011-09-23 Method and apparatus for providing moving picture using 3d user avatar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110096333A KR101306221B1 (en) 2011-09-23 2011-09-23 Method and apparatus for providing moving picture using 3d user avatar

Publications (2)

Publication Number Publication Date
KR20130032620A KR20130032620A (en) 2013-04-02
KR101306221B1 true KR101306221B1 (en) 2013-09-10

Family

ID=48435365

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110096333A KR101306221B1 (en) 2011-09-23 2011-09-23 Method and apparatus for providing moving picture using 3d user avatar

Country Status (1)

Country Link
KR (1) KR101306221B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017003031A1 (en) * 2015-06-29 2017-01-05 김영자 Method for providing lifelike avatar emoticon-based ultralight data animation creation system, and terminal device providing lifelike avatar emoticon for implementing same
WO2019107639A1 (en) * 2017-11-30 2019-06-06 주식회사 퍼니브라운 Method for releasing song of marionette singer
US11145101B2 (en) 2018-08-08 2021-10-12 Samsung Electronics Co., Ltd. Electronic device for displaying avatar corresponding to external object according to change in position of external object

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9177410B2 (en) * 2013-08-09 2015-11-03 Ayla Mandel System and method for creating avatars or animated sequences using human body features extracted from a still image
KR101681501B1 (en) * 2016-06-28 2016-12-01 (주) 키글 System and method for creating face avatar
KR101893258B1 (en) * 2016-09-27 2018-08-30 이지후 Virtual wedding picture providing apparatus and method of providing virtual wedding picture
KR101926510B1 (en) * 2018-03-14 2019-03-07 주식회사 월드씨엔에스 Wide area surveillance system based on facial recognition using wide angle camera
KR102648993B1 (en) * 2018-12-21 2024-03-20 삼성전자주식회사 Electronic device for providing avatar based on emotion state of user and method thereof
CN109727303B (en) * 2018-12-29 2023-07-25 广州方硅信息技术有限公司 Video display method, system, computer equipment, storage medium and terminal
KR102241287B1 (en) * 2018-12-31 2021-04-16 한국과학기술연구원 Device and method constructing dynamic database for behavior recognition training
KR102639725B1 (en) * 2019-02-18 2024-02-23 삼성전자주식회사 Electronic device for providing animated image and method thereof
KR102467295B1 (en) * 2020-09-23 2022-11-16 주식회사 넥스트키 Apparel wearing system based on face application, and method thereof
CN112182194A (en) * 2020-10-21 2021-01-05 南京创维信息技术研究院有限公司 Method, system and readable storage medium for expressing emotional actions of television avatar
WO2022159038A1 (en) * 2021-01-25 2022-07-28 Buzz Arvr Pte. Ltd. A system and method for generating a 3d avatar
KR102654378B1 (en) * 2021-02-17 2024-04-03 상명대학교산학협력단 Method for generating digital human tutor inducing Sympathy based on Immersion inference, and system adopting the method
CN113096224A (en) * 2021-04-01 2021-07-09 游艺星际(北京)科技有限公司 Three-dimensional virtual image generation method and device
KR102710310B1 (en) * 2021-11-09 2024-09-26 김상철 Electronic apparatus that can personally create the 3d avatar with the costume skin which a user desires applied and the operating method thereof
CN115334325A (en) * 2022-06-23 2022-11-11 联通沃音乐文化有限公司 Method and system for generating live video stream based on editable three-dimensional virtual image
CN115442519B (en) * 2022-08-08 2023-12-15 珠海普罗米修斯视觉技术有限公司 Video processing method, apparatus and computer readable storage medium
KR102629011B1 (en) * 2023-07-24 2024-01-25 주식회사 브이몬스터 Apparatus and method for generating speech video of virtual person using 3d information

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050009504A (en) * 2003-07-16 2005-01-25 정보통신연구진흥원 Animation character creation method and an online animation character creation service system
KR20110020131A (en) * 2009-08-21 2011-03-02 에스케이텔레콤 주식회사 System and method for delivering feeling during video call
KR20110070056A (en) * 2009-12-18 2011-06-24 한국전자통신연구원 Method and apparatus for easy and intuitive generation of user-customized 3d avatar with high-quality

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050009504A (en) * 2003-07-16 2005-01-25 정보통신연구진흥원 Animation character creation method and an online animation character creation service system
KR20110020131A (en) * 2009-08-21 2011-03-02 에스케이텔레콤 주식회사 System and method for delivering feeling during video call
KR20110070056A (en) * 2009-12-18 2011-06-24 한국전자통신연구원 Method and apparatus for easy and intuitive generation of user-customized 3d avatar with high-quality

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017003031A1 (en) * 2015-06-29 2017-01-05 김영자 Method for providing lifelike avatar emoticon-based ultralight data animation creation system, and terminal device providing lifelike avatar emoticon for implementing same
WO2019107639A1 (en) * 2017-11-30 2019-06-06 주식회사 퍼니브라운 Method for releasing song of marionette singer
US11145101B2 (en) 2018-08-08 2021-10-12 Samsung Electronics Co., Ltd. Electronic device for displaying avatar corresponding to external object according to change in position of external object
US11636641B2 (en) 2018-08-08 2023-04-25 Samsung Electronics Co., Ltd Electronic device for displaying avatar corresponding to external object according to change in position of external object
US12073502B2 (en) 2018-08-08 2024-08-27 Samsung Electronics Co., Ltd Electronic device for displaying avatar corresponding to external object according to change in position of external object

Also Published As

Publication number Publication date
KR20130032620A (en) 2013-04-02

Similar Documents

Publication Publication Date Title
KR101306221B1 (en) Method and apparatus for providing moving picture using 3d user avatar
US12094045B2 (en) Generating a background that allows a first avatar to take part in an activity with a second avatar
US11736756B2 (en) Producing realistic body movement using body images
US11783524B2 (en) Producing realistic talking face with expression using images text and voice
KR101894573B1 (en) Smart phone interface management system by 3D digital actor
US11734866B2 (en) Controlling interactive fashion based on voice
CN114930399A (en) Image generation using surface-based neurosynthesis
TWI255141B (en) Method and system for real-time interactive video
US11983826B2 (en) 3D upper garment tracking
US11960792B2 (en) Communication assistance program, communication assistance method, communication assistance system, terminal device, and non-verbal expression program
US20230066179A1 (en) Interactive fashion with music ar
KR102148151B1 (en) Intelligent chat based on digital communication network
KR20180071833A (en) Computer interface management system by 3D digital actor
EP4399686A1 (en) Controlling interactive fashion based on facial expressions
JP7278307B2 (en) Computer program, server device, terminal device and display method
EP4315325A1 (en) Neural networks for changing characteristics of vocals
WO2022256167A1 (en) Video reenactment taking into account temporal information
WO2024086534A1 (en) Stylizing a whole-body of a person
US11836905B2 (en) Image reenactment with illumination disentanglement
WO2023121896A1 (en) Real-time motion and appearance transfer
US20240087266A1 (en) Deforming real-world object using image warping
KR100965622B1 (en) Method and Apparatus for making sensitive character and animation
CN118536616A (en) Machine-learning diffusion model with image encoder for synthetic image generation
WO2024058966A1 (en) Deforming real-world object using image warping
EP4453883A1 (en) Real-time motion and appearance transfer

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee