KR20110012491A - System, management server, terminal and method for transmitting of message using image data and avatar - Google Patents
System, management server, terminal and method for transmitting of message using image data and avatar Download PDFInfo
- Publication number
- KR20110012491A KR20110012491A KR1020090070225A KR20090070225A KR20110012491A KR 20110012491 A KR20110012491 A KR 20110012491A KR 1020090070225 A KR1020090070225 A KR 1020090070225A KR 20090070225 A KR20090070225 A KR 20090070225A KR 20110012491 A KR20110012491 A KR 20110012491A
- Authority
- KR
- South Korea
- Prior art keywords
- message
- avatar
- terminal
- image data
- gesture
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000005540 biological transmission Effects 0.000 claims abstract description 38
- 239000000284 extract Substances 0.000 claims abstract description 24
- 230000002996 emotional effect Effects 0.000 claims abstract description 12
- 230000004044 response Effects 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 14
- 230000014509 gene expression Effects 0.000 claims description 12
- 230000009471 action Effects 0.000 claims description 4
- 230000008451 emotion Effects 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims description 3
- 230000008921 facial expression Effects 0.000 claims description 2
- 230000008859 change Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000007405 data analysis Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/50—Business processes related to the communications industry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/07—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
- H04L51/10—Multimedia information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/7243—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Strategic Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 아바타를 이용한 메시지 전송 기술에 관한 것으로서, 보다 구체적으로, 제1 단말이 작성된 메시지와, 획득된 영상데이터로부터 인식되는 제스처에 대응하여 추출된 아바타를 이용하여 생성된 아바타 메시지를 제2 단말로 전송하는 영상데이터 및 아바타를 이용한 메시지 전송 시스템, 관리서버, 단말 및 방법에 관한 것이다.The present invention relates to a message transmission technology using an avatar, and more particularly, to a second terminal using an avatar message generated using a message generated by a first terminal and an avatar extracted corresponding to a gesture recognized from acquired image data. The present invention relates to a message transmission system, a management server, a terminal, and a method using image data and an avatar to be transmitted.
이동통신 기술의 발전으로 인하여 단말이기를 이용해 시간과 장소에 방해받지 않고 음성 통화, 화상 통화 및 메시지를 이용한 대화 등 상대방과의 의사전달이 가능하게 되었다. With the development of mobile communication technology, it is possible to communicate with other parties, such as voice calls, video calls, and messages, without interrupting time and place using the terminal.
특히, 메시지를 이용한 상대방과의 대화는 음성 통화, 화상 통화보다 장소 등의 환경적인 요인에 대한 제약이 적어서 사용자들이 주로 사용하는 서비스이다. In particular, the conversation with the other party using a message is a service mainly used by users because there is less restriction on environmental factors such as voice call and video call.
그러나 음성 통화, 화상 통화의 경우 상대방의 목소리 또는 얼굴을 확인할 수 있기 때문에 타인의 감정을 고려하지 못함으로 인한 오해가 발생하는 일이 적지 만, 단문메시지, 장문메시지, 모바일 메신저를 이용한 메시지의 경우는 통화와는 달리 상대방의 목소리 또는 얼굴을 확인할 수 없기 때문에 타인의 감정을 고려하지 못함으로 인한 오해가 빈번하게 발생한다. However, in the case of a voice call or a video call, the voice or face of the other party can be identified, so that misunderstandings are rarely caused by not considering other people's feelings. Unlike calls, misunderstandings occur frequently because the other person's voice or face can't be identified.
따라서 사용자들은 자신의 감정을 타인에게 표현할 수 있는 한글, 영문, 특수기호의 조합을 이용한 이모티콘 등을 메시지에 포함하여 타인에게 전송하지만, 이모티콘 등으로는 자신의 감정을 명확하게 전달하기 어렵고, 상대방 역시 사용자의 감정을 명확하게 확인할 수 없는 문제점이 존재한다. Therefore, users include emoticons using a combination of Korean, English, and special symbols that can express their feelings to others, and send them to others, but it is difficult to clearly communicate their feelings with emoticons. There is a problem that can not clearly identify the emotion of the user.
이러한 종래의 문제점을 해결하기 위하여, 본 발명의 목적은 단말 사용자가 메시지 작성 시 사용자의 감정상태를 나타낼 수 있는 아바타를 메시지에 포함시켜 작성한 후 이를 타 단말로 전송하는 아바타를 이용한 메시지 전송 시스템, 관리서버, 단말 및 방법을 제공하기 위한 것이다.In order to solve such a conventional problem, an object of the present invention is to include a message that includes a avatar that can indicate the emotional state of the user when the message is created in the message, and then to the message transmission system using the avatar to transmit it to other terminals, management To provide a server, a terminal and a method.
본 발명의 다른 목적은 아바타가 포함된 메시지를 작성할 때, 카메라로부터 획득된 영상데이터를 분석하여 영상데이터 분석결과에 따라 아바타를 선택한 후 선택된 아바타와 작성된 메시지를 결합하여 전송하는 아바타를 이용한 메시지 전송 시스템, 관리서버, 단말 및 방법을 제공하기 위한 것이다.Another object of the present invention is to create a message containing an avatar, a message transmission system using an avatar that analyzes the image data obtained from the camera to select the avatar according to the image data analysis result and then combines the selected avatar and the created message To provide a management server, terminal and method.
이러한 목적을 달성하기 위하여, 본 발명에 따른 영상데이터 및 아바타를 이용한 메시지 전송 시스템은 제1 단말 및 제2 단말과 연결되어 상기 각 단말 사이의 메시지 전송을 주관하는 메시지서버, 상기 제1 단말로부터 메시지와 영상데이터를 수신하면 상기 영상데이터로부터 상기 제1 단말 사용자의 제스처를 인식한 후 상기 인식된 제스처에 대응하는 아바타를 추출하고 상기 메시지와 결합하여 생성된 아바타 메시지를 상기 제2 단말로 전송하는 관리서버를 포함하는 것을 특징으로 한다.In order to achieve this object, the message transmission system using the image data and the avatar according to the present invention is A message server connected to a first terminal and a second terminal to manage message transmission between the terminals, and when a message and image data are received from the first terminal, the gesture of the first terminal user is recognized from the image data. And a management server extracting the avatar corresponding to the recognized gesture and transmitting the avatar message generated by combining with the message to the second terminal.
아울러, 본 발명에 따른 영상데이터 및 아바타를 이용한 메시지 전송 관리서버는 제1 단말, 제2 단말 및 메시지서버와 통신을 수행하는 송수신부, 상기 제1 단말로부터 메시지와 영상데이터를 수신하면 상기 영상데이터로부터 상기 제1 단말 사용자의 제스처를 인식한 후 상기 인식된 제스처에 대응하는 아바타를 추출하고 상기 메시지와 결합하여 생성된 아바타 메시지를 상기 제2 단말로 전송하는 제어부를 포함하는 것을 특징으로 한다.In addition, the message transmission management server using the image data and the avatar according to the present invention is a transmission and reception unit for communicating with the first terminal, the second terminal and the message server, the image data when receiving the message and the image data from the first terminal And a controller for recognizing a gesture of the first terminal user from the user, extracting an avatar corresponding to the recognized gesture, and transmitting the avatar message generated by combining with the message to the second terminal.
또한, 상기 제어부는 상기 제2 단말로 상기 아바타 메시지를 전송한 이후에 상기 제2 단말로부터 응답메시지 및 영상데이터가 수신되면 상기 영상데이터로부터 상기 제2 단말 사용자의 제스처를 인식한 후 상기 인식된 제스처에 대응하는 아바타를 추출하고 상기 응답메시지와 결합하여 생성된 아바타 메시지를 상기 제1 단말로 전송하는 것을 특징으로 한다.The controller may recognize the gesture of the second terminal user from the image data after receiving the response message and the image data from the second terminal after transmitting the avatar message to the second terminal. And extracting the avatar corresponding to and transmitting the avatar message generated by combining with the response message to the first terminal.
또한, 상기 제어부는 상기 수신된 영상데이터를 분석하여 상기 영상데이터에 포함된 사용자의 제스처를 인식하고, 상기 인식된 제스처에 따라 표정, 행동을 포함하는 감정상태가 적용된 아바타를 추출하는 것을 특징으로 한다.The controller may recognize the user's gesture included in the image data by analyzing the received image data, and extract an avatar to which an emotional state including an expression and an action is applied according to the recognized gesture. .
또한, 다수의 아바타를 저장하는 저장부를 더 포함하는 것을 특징으로 한다.The apparatus may further include a storage unit which stores a plurality of avatars.
아울러, 본 발명에 따른 영상데이터 및 아바타를 이용한 메시지 전송 단말은 메시지서버와 통신을 수행하는 통신부, 아바타 메시지에 포함할 메시지를 작성하고, 카메라를 활성화하여 상기 카메라로부터 획득된 영상데이터로부터 사용자의 제스처를 인식한 후 상기 인식된 제스처에 대응하는 아바타를 추출하고, 상기 작성된 메시지와 상기 추출된 아바타로 생성된 상기 아바타 메시지를 상기 메시지서버를 통해 제2 단말로 전송하는 제어부를 포함하는 것을 특징으로 한다. In addition, the message transmission terminal using the image data and the avatar according to the present invention, a communication unit for communicating with the message server, a message to be included in the avatar message, and to activate the camera gesture of the user from the image data obtained from the camera And a controller for extracting an avatar corresponding to the recognized gesture and transmitting the created message and the avatar message generated by the extracted avatar to a second terminal through the message server. .
또한, 상기 제어부는 상기 영상데이터를 분석한 후 상기 영상데이터에 포함된 상기 사용자의 제스처를 인식하고, 상기 인식된 제스처에 따라 표정, 행동을 포 함하는 감정상태가 적용된 아바타를 추출하는 것을 특징으로 한다.The controller may recognize the gesture of the user included in the image data after analyzing the image data, and extract an avatar to which an emotional state including an expression and an action is applied according to the recognized gesture. do.
또한, 상기 제어부는 상기 작성된 메시지와 상기 추출된 아바타를 결합하여 상기 아바타 메시지를 생성하는 것을 특징으로 한다.The controller may generate the avatar message by combining the created message with the extracted avatar.
또한, 다수의 아바타를 저장하는 저장부를 더 포함하는 것을 특징으로 한다.The apparatus may further include a storage unit which stores a plurality of avatars.
아울러, 본 발명에 따른 영상데이터 및 아바타를 이용한 메시지 전송 방법은 관리서버가 제1 단말로부터 메시지 및 영상데이터를 수신하는 단계, 상기 관리서버가 상기 영상데이터로부터 상기 제1 단말 사용자의 제스처를 인식하는 단계, 상기 관리서버가 상기 인식된 제스처에 대응하는 아바타를 추출하는 단계, 상기 관리서버가 상기 메시지와 상기 아바타를 결합하여 아바타 메시지를 생성하는 단계, 상기 관리서버가 상기 아바타 메시지를 제2 단말로 전송하는 단계를 포함하는 것을 특징으로 한다.In addition, in the message transmission method using the image data and the avatar according to the present invention, a management server receives a message and image data from a first terminal, and the management server recognizes a gesture of the first terminal user from the image data. Step, the management server extracts the avatar corresponding to the recognized gesture, the management server combines the message and the avatar to generate an avatar message, the management server to send the avatar message to the second terminal Characterized in that it comprises the step of transmitting.
아울러, 본 발명에 따른 영상데이터 및 아바타를 이용한 메시지 전송 방법은 제1 단말이 아바타 메시지에 포함할 메시지를 작성하는 단계, 상기 제1 단말이 카메라를 활성화하여 상기 카메라로부터 획득된 영상데이터로부터 사용자의 제스처를 인식하는 단계, 상기 제1 단말이 상기 인식된 제스처에 대응하는 아바타를 추출하는 단계, 상기 제1 단말이 상기 메시지와 상기 추출된 아바타를 결합하여 상기 아바타 메시지를 생성하는 단계, 상기 제1 단말이 상기 아바타 메시지를 메시지서버를 통해 제2 단말로 전송하는 단계를 포함하는 것을 특징으로 한다. In addition, the message transmission method using the image data and the avatar according to the present invention comprises the steps of the first terminal to write a message to be included in the avatar message, the first terminal to activate the camera from the image data obtained from the camera of the user Recognizing a gesture; extracting an avatar corresponding to the recognized gesture by the first terminal; generating the avatar message by combining the message with the extracted avatar; And transmitting, by the terminal, the avatar message to the second terminal through the message server.
이와 같이, 본 발명은 단말 사용자가 메시지 작성 시 사용자의 감정상태를 나타낼 수 있는 아바타를 메시지에 포함시켜 작성한 후 이를 타 단말로 전송함으로써, 아바타를 통해 상대방의 감정상태를 확인할 수 있고, 상대방과의 오해발생을 최소화할 수 있는 효과가 있다. As described above, according to the present invention, the terminal user includes an avatar which can indicate the emotional state of the user when the message is written, and then sends the message to another terminal to confirm the emotional state of the other party through the avatar. There is an effect that can minimize the occurrence of misunderstandings.
또한, 본 발명은 아바타가 포함된 메시지를 작성할 때, 카메라로부터 획득된 영상데이터를 분석하여 영상데이터 분석결과에 따라 아바타를 선택한 후 선택된 아바타와 작성된 메시지를 결합하여 전송함으로써, 사용자의 제스처에 따른 아바타를 이용하여 감정상태를 나타내는 것을 보다 수월하게 수행할 수 있는 효과가 있다.In addition, the present invention, when creating a message containing an avatar, by analyzing the image data obtained from the camera to select the avatar in accordance with the image data analysis results, and transmits the combined message and the selected avatar and the avatar, according to the user's gesture Using to have an effect that can be more easily performed to represent the emotional state.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 보다 상세하게 설명하고자 한다. 다만, 실시예들을 설명함에 있어서 본 발명이 속하는 기술 분야에 잘 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 가급적 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 핵심을 흐리지 않고 더욱 명확히 전달하기 위함이다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, in describing the embodiments, descriptions of technical contents that are well known in the technical field to which the present invention belongs and are not directly related to the present invention are omitted. This is to more clearly communicate without obscure the core of the present invention by omitting unnecessary description.
이하, 본 발명의 실시예에서 단말은 사용자에게 편의를 제공하기 위한 이동통신단말기, 개인정보 단말기(PDA, Personal Digital Assistant), 스마트 폰(Smart Phone) 등의 무선단말일 수 있고, 개인용 컴퓨터(Personal Computer), 노트북 등의 유선단말일 수도 있다. Hereinafter, in an embodiment of the present invention, the terminal may be a wireless terminal such as a mobile communication terminal, a personal digital assistant (PDA), a smart phone, etc. for providing convenience to a user, and a personal computer. It may be a wired terminal such as a computer) or a laptop.
도 1은 본 발명의 실시예에 따른 영상데이터 및 아바타를 이용한 메시지 전송 시스템의 주요 구성을 나타내는 구성도이다. 도 2는 도 1에 도시된 단말의 주요 구성을 나타낸 블록도이다. 1 is a block diagram showing the main configuration of a message transmission system using the image data and the avatar according to an embodiment of the present invention. FIG. 2 is a block diagram illustrating a main configuration of a terminal shown in FIG. 1.
도 1 및 도 2를 참조하면, 영상데이터 및 아바타를 이용한 메시지 전송 시스템(100)은 제1 단말(10), 제2 단말(20), 메시지서버(30)를 포함한다. 1 and 2, a
제1 단말(10)은 아바타 메시지 작성메뉴에 진입하여 제2 단말(20)로 전송하고자 하는 메시지를 작성하고, 제1 단말(10)은 제1 단말(10)에 설치된 카메라를 활성화하여 영상데이터를 획득한다. The
제1 단말(10)은 획득된 영상데이터를 분석하여, 영상데이터에 포함된 사용자의 제스처를 인식한다. 제1 단말(10)은 인식된 제스처에 따라 제스처에 대응되는 아바타를 추출하고, 작성된 메시지와 추출된 아바타를 결합하여 아바타 메시지(이하, 제1 메시지라 함)를 생성한다. The
그리고 제1 단말(10)은 메시지서버(30)를 통해 생성된 제1 메시지를 제2 단말(20)로 전송한다. 이때, 제1 메시지는 문자메시지, 멀티미디어 메시지, 모바일 메신저를 이용한 메시지에 제1 단말(10)에 대한 발신자의 감정상태를 표시하는 아바타가 포함된 메시지를 의미한다. In addition, the
아울러, 제1 단말(10)은 제2 단말(20)로부터 제1 메시지에 대한 답장인 제2 메시지가 수신되면 이를 출력하고 제2 메시지에 대한 답장작성이 선택되지 않으면 대기화면을 출력한다. 반대로, 제2 메시지에 대한 답장작성이 선택되면 제1 단말(10)은 제2 메시지에 대한 답장인 아바타 메시지를 작성한다. In addition, the
제2 단말(20)은 제1 단말(10)에서 작성되어 메시지서버(30)를 통해 수신된 제1 메시지를 출력하고, 제1 메시지에 대한 답장작성을 위한 신호가 입력되면 제1 메시지에 대한 응답메시지를 작성하고, 제2 단말(20)에 설치된 카메라로부터 획득 된 영상데이터를 분석하여 제스처를 인식하고 이에 대응하는 아바타를 추출하여 추출된 아바타와 응답메시지를 제1 단말(10)로 전송한다. The
이때, 제2 단말(20)은 설명의 편의를 위해 아바타 메시지를 작성하는 것으로 설명하고 있으나, 반드시 이에 한정되는 것은 아니며, 아바타가 포함되지 않은 메시지를 작성하여 제1 단말(10)로 전송할 수 있다. In this case, the
이를 위해, 제2 단말(20)은 통신부(21), 입력부(22), 출력부(23), 카메라(24), 제1 저장부(25), 제1 제어부(26)를 포함한다.To this end, the
통신부(21)는 제1 단말(10), 메시지서버(30)와의 통신을 수행한다. 통신부(21)는 메시지서버(30)를 통해 제1 단말(10)로부터 제1 메시지를 수신하고, 메시지서버(30)를 통해 제1 단말(10)로 제1 메시지의 답장인 제2 메시지를 전송한다. The
입력부(22)는 제2 단말(20)의 동작을 제어하기 위하여 착신자로부터 입력된 키에 대응하는 신호를 제1 제어부(26)로 전송한다. 입력부(22)는 통상적인 키패드로 구성될 수 있고, 터치스크린, 터치패드 또는 스크롤 휠 등으로 구성될 수 있다. The
특히, 입력부(22)는 제1 단말(10)로부터 수신된 제1 메시지에 대한 답장작성 신호를 입력받아 제1 제어부(26)로 제공하고, 착신자로부터 응답메시지를 입력받아 제1 제어부(26)로 제공한다. In particular, the
출력부(23)는 제1 제어부(26)의 제어에 의해 제2 단말(20)에서 이루어지는 일련의 동작상태와 동작결과 및 다수의 정보를 표시한다. 이때, 출력부(23)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 등의 디스플레이 장치, 스피커, 제2 단말(20)에 호가 착신되었을 경우 진동알림을 발생하기 위 한 진동센서를 포함하는 출력장치로 구성될 수 있다. 아울러, 출력부(23)가 터치스크린 등으로 구성될 경우 이는 입력부(22) 및 디스플레이 장치의 기능을 동시에 수행할 수 있다.The
특히, 출력부(23)는 제1 제어부(26)의 제어에 의해 제1 단말(10)로부터 수신된 제1 메시지를 출력하고, 제1 메시지에 대한 응답메시지, 카메라(24)로부터 획득되는 영상데이터 등을 출력한다. In particular, the
카메라(24)는 제1 제어부(26)의 제어에 의해 활성화되어 피사체에 대한 영상데이터를 획득한다. 카메라(24)는 피사체의 광 신호를 아날로그 신호로 변환하는 이미지 센서 및 아날로그 신호를 디지털 신호로 변환하는 신호처리부(미도시)를 포함한다. 즉, 카메라(24)는 렌즈를 통해 수집한 광 신호를 디지털 신호로 변환하여 영상데이터를 생성하고 이를 제1 제어부(26)로 제공한다. The
제1 저장부(25)는 제1 제어부(26)의 제어에 의해 제2 단말(20)을 제어하기 위한 프로그램 등을 저장한다. The
특히, 제1 저장부(25)는 카메라(24)로부터 획득된 영상데이터를 분석하기 위한 프로그램 및 분석된 영상데이터로부터 인식된 감정상태에 따라 추출할 수 있는 다수의 아바타를 감정상태와 매핑하여 저장한다. In particular, the
예컨대, 제1 저장부(25)는 분석된 영상데이터에서 인식된 착신자의 표정, 손동작 등의 제스처가 즐거움을 나타내면 웃는 표정의 아바타 또는 뛰는 상태의 아바타를 추출하도록 착신자의 제스처와 아바타를 매핑 테이블로 저장한다. For example, the
제1 제어부(26)는 제2 단말(20)에서 이루어지는 전반적인 동작에 대한 제어 를 담당한다.The
특히, 제1 제어부(26)는 통신부(21)를 통해 제1 단말(10)로부터 수신된 제1 메시지를 출력하도록 출력부(23)를 제어한다. 제1 제어부(26)는 입력부(22)로부터 출력된 제1 메시지에 대한 답장작성이 선택되면 응답메시지를 작성할 수 있는 화면을 출력부(23)에 출력한다. In particular, the
제1 제어부(26)는 입력부(22)의 입력에 따라 응답메시지를 작성하고, 제1 제어부(26)는 카메라(24)를 활성화시켜 카메라(24)로부터 영상데이터를 획득한다.The
제1 제어부(26)는 제1 저장부(25)에 저장된 영상데이터 분석 프로그램을 구동하여 획득된 영상데이터의 분석을 수행한다. 제1 제어부(26)는 영상데이터를 분석결과에 따라 착신자의 제스처를 인식한 후, 인식된 제스처에 매핑된 아바타를 추출한다. The
제1 제어부(26)는 추출된 아바타와 작성된 응답메시지를 결합하여 제1 메시지에 대한 답장인 제2 메시지를 생성하고, 이를 제1 단말(10)로 전송하도록 통신부(21)를 제어한다. The
이때, 제1 제어부(26)는 영상데이터를 분석할 때 영상데이터를 구성하는 다수의 프레임별로 착신자의 표정, 손동작 등의 제스처를 확인할 수 있는 좌표값을 확인한다. 그리고 제1 제어부(26)는 프레임별로 확인된 좌표값의 변화로부터 착신자의 제스처를 확인할 수 있다. In this case, when analyzing the image data, the
예를 들어, 제1 제어부(26)는 영상데이터에 착신자의 얼굴이 포함된 상태이면 착신자의 얼굴에서 입술, 눈썹, 눈꼬리 등 착신자의 표정을 확인할 수 있는 부 위의 특징점의 좌표값을 프레임별로 추출하고, 추출된 좌표값의 변화로부터 착신자의 표정을 확인할 수 있다. 확인된 착신자의 표정이 즐거움을 나타내는 제스처이면 아바타를 웃는 표정으로 수정하거나, 뛰는 상태로 수정한다. For example, the
또한, 제1 제어부(26)는 영상데이터의 분석결과 영상데이터에 착신자의 손이 포함된 상태이면 착신자의 손에서 손가락의 움직임의 확인할 수 있는 특징점의 좌표값를 프레임별로 추출하고, 추출된 좌표값의 변화로부터 착신자의 손동작을 확인할 수 있다. 확인된 착신자의 손동작이 즐거움을 나타내는 제스처이면 이에 대응되는 웃는 표정의 아바타를 추출하거나 뛰는 상태의 아바타를 추출할 수 있다. In addition, if the receiver's hand is included in the image data as a result of the analysis of the image data, the
반대로, 제1 제어부(26)는 입력부(22)로부터 제1 메시지에 대한 답장작성이선택되지 않으면 출력부(23)에 대기화면을 출력한다. On the contrary, the
메시지서버(30)는 제1 단말(10)로부터 수신되는 제1 메시지를 제2 단말(20)로 전송하고, 제2 단말(20)로부터 수신되는 제2 메시지를 제1 단말(10)로 전송한다. The
도 3은 본 발명의 실시예에 따른 영상데이터 및 아바타를 이용한 메시지 전송 방법을 나타내는 순서도이다.3 is a flowchart illustrating a message transmission method using image data and an avatar according to an embodiment of the present invention.
도 3을 참조하면, S61단계에서 제1 단말(10)은 아바타 메시지 작성메뉴에 진입하고, S63단계에서 제1 단말(10)은 외부의 입력에 따라 아바타 메시지에 포함할 메시지를 작성한다. S65단계에서 제1 단말(10)은 설치된 카메라를 활성화한다. Referring to FIG. 3, in step S61, the
S67단계에서 제1 단말(10)은 카메라에서 획득된 영상데이터를 분석하고, S69단계에서 제1 단말(10)은 분석된 영상데이터에서 추출된 제스처를 인식한 후 S71단 계에서 제1 단말(10)은 추출된 제스처에 대응하는 아바타를 추출한다. In step S67, the
이후, S73단계에서 제1 단말(10)은 추출된 아바타와 S63단계에서 작성된 메시지를 결합하여 아바타 메시지인 제1 메시지를 생성하고, S75단계에서 제1 단말(10)은 생성된 메시지를 메시지서버(30)를 통해 제2 단말(20)로 전송한다. Thereafter, in step S73, the
S77단계에서 제2 단말(20)은 제1 단말(10)로부터 수신된 제1 메시지를 출력한다. 그리고 S79단계에서 제2 단말(20)은 수신된 제1 메시지에 대한 답장작성이 선택되면 S81단계로 진행하고, 답장작성이 선택되지 않으면 S101단계로 진행하여 대기화면을 출력한다.In operation S77, the
이어서, S81단계에서 제2 단말(20)은 제1 메시지에 대한 응답메시지를 작성하고, S83단계에서 제2 단말(20)은 카메라(24)를 활성화한다. Subsequently, in step S81, the
S85단계에서 제2 단말(20)은 카메라(24)에서 획득된 영상데이터를 분석하고 S87단계에서 제2 단말(20)은 분석된 영상데이터에 포함된 착신자의 제스처를 인식한다.In operation S85, the
이후, S89단계에서 제2 단말(20)은 인식된 제스처에 매핑되어 저장된 아바타를 추출하고 S91단계로 진행하고, S81단계에서 작성된 응답메시지와 추출된 아바타를 결합하여 제2 메시지를 생성한다. Thereafter, in step S89, the
S93단계에서 제2 단말(20)은 메시지서버(30)를 통해 생성된 제2 메시지를 제1 단말(10)로 전송한다. In operation S93, the
S95단계에서 제1 단말(10)은 제2 단말(20)로부터 수신된 제2 메시지를 출력하고 S97단계에서 제2 단말(20)로부터 수신된 제2 메시지에 대한 답장전송이 선택 되면 S63단계로 회귀한다. In operation S95, the
반대로, S97단계에서 제2 단말(20)로부터 수신된 제2 메시지에 대한 답장전송이 선택되지 않으면 제1 단말(10)은 S99단계로 진행하여 대기화면을 출력한다. On the contrary, if the reply transmission for the second message received from the
도 4는 본 발명의 다른 실시예에 따른 영상데이터 및 아바타를 이용한 메시지 전송 시스템의 주요 구성을 나타내는 구성도이다. 4 is a block diagram showing a main configuration of a message transmission system using image data and avatar according to another embodiment of the present invention.
도 4를 참조하면, 영상데이터 및 아바타를 이용한 메시지 전송 시스템(200)은 제1 단말(10), 제2 단말(20), 메시지서버(30), 관리서버(40), 통신망(50)을 포함한다. Referring to FIG. 4, the
제1 단말(10)은 아바타 메시지 작성메뉴에 진입하여 발신자의 입력에 따라 제2 단말(20)로 전송하고자 하는 메시지를 작성하고, 설치된 카메라를 활성화하여 영상데이터를 획득한다. The
제1 단말(10)은 관리서버(40)에서 영상데이터를 분석하고, 분석결과에 대응하는 아바타를 추출한 후 메시지와 결합하여 생성된 아바타 메시지(이하, 제1 메시지라 함)를 제2 단말(20)로 전송하도록 작성된 메시지와 영상데이터를 관리서버(40)로 전송한다. The
제2 단말(20)은 관리서버(40)에서 수신된 제1 메시지를 출력하고, 착신자로부터 제1 메시지에 대한 답장작성신호가 입력되지 않으면 대기화면을 출력한다. The
반대로, 제2 단말(20)은 제1 메시지에 대한 답장작성신호가 입력되면 제1 메시지에 대한 답장인 응답메시지를 작성하고, 카메라를 활성화하여 획득된 영상데이터를 관리서버(40)로 전송한다. On the contrary, when the reply message for the first message is input, the
이는 관리서버(40)에서 영상데이터의 분석결과에 대응하는 아바타를 추출하고, 응답메시지와 결합하여 제2 메시지를 생성한 후 제1 단말(10)로 전송하도록 하기 위함이다. This is for the
메시지서버(30)는 도 1에서 설명한 메시지서버(30)와 동일한 기능을 수행하므로 상세한 설명을 생략한다. Since the
관리서버(40)는 제1 단말(10)로부터 수신된 영상데이터로부터 인식된 발신자의 제스처에 대응하는 아바타를 추출하고, 제1 단말(10)로부터 수신된 메시지와 아바타를 결합하여 생성된 제1 메시지를 메시지서버(30)를 통해 제2 단말(20)로 전송한다. 그리고 관리서버(40)는 제2 단말(20)로부터 수신된 영상데이터로부터 인식된 착신자의 제스처에 대응하는 아바타를 추출하고, 제2 단말(20)로부터 수신된 응답메시지와 아바타를 결합하여 생성된 제1 메시지에 대한 답장인 제2 메시지를 메시지서버(30)를 통해 제1 단말(10)로 전송한다.The
이를 위해, 관리서버(40)는 송수신부(41), 제2 저장부(42), 제2 제어부(43)를 포함한다. To this end, the
송수신부(41)는 제1 단말(10), 제2 단말(20), 메시지서버(30)와의 통신을 수행한다.The
제2 저장부(42)는 제2 제어부(43)의 제어에 의해 관리서버(40)를 제어하기 위한 프로그램 등을 저장한다. The
특히, 제2 저장부(42)는 제1 단말(10), 제2 단말(20)로부터 수신된 영상데이터를 분석하기 위한 프로그램을 저장하고, 영상데이터로부터 인식된 제스처에 대응 되는 다수의 아바타를 저장한다.In particular, the
제2 제어부(43)는 관리서버(40)에서 이루어지는 전반적인 동작에 대한 제어를 담당한다. The
특히, 제2 제어부(43)는 제1 단말(10)로부터 메시지와 영상데이터가 수신되면 수신된 영상데이터를 분석하여 영상데이터에 포함된 발신자의 제스처를 인식하고, 인식된 제스처에 대응하는 아바타를 추출한다. In particular, when the message and the image data are received from the
제2 제어부(43)는 추출된 아바타와 메시지를 결합하여 제1 메시지를 생성하고, 생성된 제1 메시지를 메시지서버(30)를 통해 제2 단말(20)로 전송한다. The
제2 제어부(43)는 제1 메시지를 제2 단말(20)로 전송한 이후에 메시지서버(30)를 통해 제2 단말(20)로부터 제1 메시지에 대한 응답메시지와 영상데이터가 수신되면 제1 메시지에 대한 답장인 제2 메시지를 생성한다. When the
이때, 제2 제어부(43)는 제2 단말(20)로부터 수신된 영상데이터를 분석하여 영상데이터에 포함된 발신자의 제스처를 인식하고, 인식된 제스처에 대응하는 아바타를 추출한다. 그리고 제2 제어부(43)는 추출된 제스처와 응답메시지를 결합하여 제2 메시지를 생성한다. In this case, the
그리고 제2 제어부(43)는 생성된 제2 메시지를 메시지서버(30)를 통해 제1 단말(10)로 전송한다. The
보다 구체적으로, 제2 제어부(43)는 영상데이터를 분석하여 영상데이터에 포함된 착신자의 제스처를 추출한다. 제2 제어부(43)는 영상데이터를 구성하는 다수의 프레임으로부터 착신자의 표정, 손동작 등의 제스처를 확인할 수 있는 좌표값을 확인한다. 그리고 제2 제어부(43)는 프레임별로 확인된 좌표값의 변화로부터 착신자의 제스처를 인식할 수 있다. More specifically, the
예를 들어, 제2 제어부(43)는 영상데이터에 착신자의 얼굴이 포함된 상태이면 착신자의 얼굴에서 입술, 눈썹, 눈꼬리 등 착신자의 표정을 확인할 수 있는 부위의 특징점의 좌표값을 프레임별로 추출하고, 추출된 좌표값의 변화로부터 착신자의 표정을 확인할 수 있다. 확인된 착신자의 표정이 즐거움을 나타내는 제스처이면 웃는 표정의 아바타를 추출하거나, 뛰는 상태의 아바타를 추출한다. For example, if the receiver's face is included in the image data, the
또한, 제2 제어부(43)는 영상데이터에 착신자의 손이 포함된 상태이면 착신자의 손에서 손가락의 움직임의 확인할 수 있는 특징점의 좌표값를 프레임별로 추출하고, 추출된 좌표값의 변화로부터 착신자의 손동작을 확인할 수 있다. 확인된 착신자의 손동작이 즐거움을 나타내는 제스처이면 웃는 표정의 아바타를 추출하거나, 뛰는 상태의 아바타를 추출한다.In addition, if the receiver includes the receiver's hand in the image data, the
그리고 제2 제어부(43)는 생성된 제2 메시지를 메시지서버(30)를 통해 제1 단말(10)로 전송한다. The
통신망(50)은 제1 단말(10), 제2 단말(20), 메시지서버(30)와 관리서버(40)사이의 통신로를 연결하여 통신이 가능하게 한다. The
도 5는 본 발명의 다른 실시예에 따른 영상데이터 및 아바타를 이용한 메시지 전송 방법을 나타내는 순서도이다. 5 is a flowchart illustrating a message transmission method using image data and an avatar according to another embodiment of the present invention.
도 5를 참조하면, S111단계에서 제1 단말(10)은 아바타 메시지 작성메뉴로 진입하고, S113단계에서 제1 단말(10)은 아바타 메시지에 포함할 메시지를 작성한 다. Referring to FIG. 5, in step S111, the
S115단계에서 제1 단말(10)은 제1 단말(10)에 설치된 카메라를 활성화하여 영상데이터를 획득하고 S117단계에서 제1 단말(10)은 작성된 메시지와 획득된 영상데이터를 관리서버(40)로 전송한다. In operation S 115, the
이어서, S119단계에서 관리서버(40)는 수신된 영상데이터를 분석하고, S121단계에서 관리서버(40)는 분석된 영상데이터에 포함된 발신자의 제스처를 인식한다. In operation S119, the
S123단계에서 관리서버(40)는 인식된 제스처에 대응되는 아바타를 추출하고 S125단계에서 관리서버(40)는 추출된 아바타와 작성된 메시지를 결합하여 제1 메시지를 생성한 후 S127단계에서 관리서버(40)는 생성된 제1 메시지를 메시지서버(30)를 통해 제2 단말(20)로 전송한다. In operation S123, the
이후, S129단계에서 제1 메시지를 수신한 제2 단말(20)은 제1 메시지를 출력하고, S131단계에서 제2 단말(20)은 외부로부터 제1 메시지에 대한 답장작성이 입력되면 S133단계로 진행하고, 답장작성이 입력되지 않으면 S159단계로 진행하여 대기화면을 출력한다.Thereafter, the
S133단계에서 제2 단말(20)은 외부의 입력에 의해 제1 메시지에 대한 답장인 제2 메시지에 포함될 응답메시지를 작성하고, S135단계에서 제2 단말(20)에 설치된 카메라를 활성화하여 영상데이터를 획득한다. In step S133, the
S137단계에서 제2 단말(20)은 작성된 응답메시지와 획득된 영상데이터를 관리서버(40)로 전송한다.In step S137, the
이어서, S139단계에서 관리서버(40)는 수신된 영상데이터를 분석하고, S141단계에서 관리서버(40)는 분석된 영상데이터에 포함된 발신자의 제스처를 인식한다. In operation S139, the
S143단계에서 관리서버(40)는 인식된 제스처에 대응되는 아바타를 추출하고 S145단계에서 관리서버(40)는 추출된 아바타와 작성된 응답메시지를 결합하여 제2 메시지를 생성한 후 S147단계에서 관리서버(40)는 생성된 제2 메시지를 메시지서버(30)로 전송한다. 그리고 S149단계에서 메시지서버(30)는 수신된 제2 메시지를 제2 단말(20)로 전송한다. In operation S143, the
이후, S151단계에서 제1 단말(10)은 수신된 제2 메시지를 출력하고, S153단계에서 제1 단말(10)은 외부로부터 제2 메시지에 대한 답장작성이 선택되면 S113단계로 진행하여 상기의 단계들을 재수행하고, 답장작성이 선택되지 않으면 제1 단말(10)은 S155단계로 진행하여 대기화면을 출력한다. Thereafter, in step S151, the
이상에서 본 발명은 기재된 구체예에 대해서만 상세히 설명되었지만 본 발명의 기술사상 범위 내에서 다양한 변형 및 수정이 가능함은 당업자에게 있어서 명백한 것이며, 이러한 변형 및 수정이 첨부된 특허청구범위에 속함은 당연한 것이다.While the invention has been shown and described with reference to certain exemplary embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention as defined by the appended claims.
본 발명은 영상데이터 및 아바타를 이용한 메시지 전송 시스템, 관리서버, 단말 및 방법에 관한 것으로, 제1 단말이 제2 단말로 전송하고자 하는 메시지 작성 시에 카메라를 통해 획득된 영상데이터로부터 인식된 사용자의 제스처에 대응되는 아바타를 메시지에 포함한 후 제2 단말로 전송함으로써, 자신의 감정을 아바타에 적용하여 상대방에게 효과적으로 감정상태를 전달할 수 있다. The present invention relates to a message transmission system, a management server, a terminal, and a method using image data and an avatar. By including the avatar corresponding to the gesture in the message and transmitting the avatar to the second terminal, the emotion state can be effectively delivered to the counterpart by applying the emotion to the avatar.
도 1은 본 발명의 실시예에 따른 영상데이터 및 아바타를 이용한 메시지 전송 시스템의 주요 구성을 나타내는 구성도1 is a block diagram showing the main configuration of a message transmission system using the image data and avatar according to an embodiment of the present invention
도 2는 도 1에 도시된 단말의 주요 구성을 나타낸 블록도2 is a block diagram showing a main configuration of a terminal shown in FIG.
도 3은 본 발명의 실시예에 따른 영상데이터 및 아바타를 이용한 메시지 전송 방법을 나타내는 순서도3 is a flowchart illustrating a message transmission method using image data and an avatar according to an embodiment of the present invention.
도 4는 본 발명의 다른 실시예에 따른 영상데이터 및 아바타를 이용한 메시지 전송 시스템의 주요 구성을 나타내는 구성도4 is a block diagram showing a main configuration of a message transmission system using image data and avatar according to another embodiment of the present invention.
도 5는 본 발명의 다른 실시예에 따른 영상데이터 및 아바타를 이용한 메시지 전송 방법을 나타내는 순서도5 is a flowchart illustrating a message transmission method using image data and an avatar according to another embodiment of the present invention.
<도면의 주요부분에 대한 설명><Description of main parts of drawing>
10: 제1 단말 20: 제2 단말10: first terminal 20: second terminal
21: 통신부 2: 입력부21: communication unit 2: input unit
23: 출력부 4: 카메라23: output unit 4: camera
25: 제1 저장부 26: 제1 제어부25: first storage unit 26: first control unit
30: 메시지서버 100, 200: 메시지 전송 시스템30:
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090070225A KR20110012491A (en) | 2009-07-30 | 2009-07-30 | System, management server, terminal and method for transmitting of message using image data and avatar |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090070225A KR20110012491A (en) | 2009-07-30 | 2009-07-30 | System, management server, terminal and method for transmitting of message using image data and avatar |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20110012491A true KR20110012491A (en) | 2011-02-09 |
Family
ID=43772404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090070225A KR20110012491A (en) | 2009-07-30 | 2009-07-30 | System, management server, terminal and method for transmitting of message using image data and avatar |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20110012491A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101285076B1 (en) * | 2011-09-09 | 2013-07-17 | 동국대학교 산학협력단 | Communication method using virtual object emulating behavior of human, and communication system thereof |
KR101312771B1 (en) * | 2011-12-14 | 2013-09-27 | 건국대학교 산학협력단 | Apparatus and method for video chatting using avatar |
US9239949B2 (en) | 2013-01-07 | 2016-01-19 | Samsung Electronics Co., Ltd. | Method for user function operation based on face recognition and mobile terminal supporting the same |
KR20190052584A (en) * | 2017-11-08 | 2019-05-16 | 주식회사 하이퍼커넥트 | Terminal and server providing a video call service |
US10554698B2 (en) | 2017-12-28 | 2020-02-04 | Hyperconnect, Inc. | Terminal and server providing video call service |
CN116684370A (en) * | 2016-10-24 | 2023-09-01 | 斯纳普公司 | Generating and displaying custom avatars in electronic messages |
US12050734B2 (en) | 2020-02-27 | 2024-07-30 | Samsung Electronics Co., Ltd. | Electronic device for providing visual effect corresponding to gesture input and operating method thereof |
-
2009
- 2009-07-30 KR KR1020090070225A patent/KR20110012491A/en not_active Application Discontinuation
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101285076B1 (en) * | 2011-09-09 | 2013-07-17 | 동국대학교 산학협력단 | Communication method using virtual object emulating behavior of human, and communication system thereof |
KR101312771B1 (en) * | 2011-12-14 | 2013-09-27 | 건국대학교 산학협력단 | Apparatus and method for video chatting using avatar |
US9239949B2 (en) | 2013-01-07 | 2016-01-19 | Samsung Electronics Co., Ltd. | Method for user function operation based on face recognition and mobile terminal supporting the same |
CN116684370A (en) * | 2016-10-24 | 2023-09-01 | 斯纳普公司 | Generating and displaying custom avatars in electronic messages |
KR20190052584A (en) * | 2017-11-08 | 2019-05-16 | 주식회사 하이퍼커넥트 | Terminal and server providing a video call service |
US10554698B2 (en) | 2017-12-28 | 2020-02-04 | Hyperconnect, Inc. | Terminal and server providing video call service |
US12050734B2 (en) | 2020-02-27 | 2024-07-30 | Samsung Electronics Co., Ltd. | Electronic device for providing visual effect corresponding to gesture input and operating method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102044241B1 (en) | Terminal providing a video call service | |
US11405678B2 (en) | Live streaming interactive method, apparatus, electronic device, server and storage medium | |
US8373799B2 (en) | Visual effects for video calls | |
CN112041791B (en) | Method and terminal for displaying virtual keyboard of input method | |
CN107632706B (en) | Application data processing method and system of multi-modal virtual human | |
US20100177116A1 (en) | Method and arrangement for handling non-textual information | |
KR20110012491A (en) | System, management server, terminal and method for transmitting of message using image data and avatar | |
KR20180057366A (en) | Mobile terminal and method for controlling the same | |
CN105630846B (en) | Head portrait updating method and device | |
WO2014190178A2 (en) | Method, user terminal and server for information exchange communications | |
US11699360B2 (en) | Automated real time interpreter service | |
CN103529934A (en) | Method and apparatus for processing multiple inputs | |
KR102034838B1 (en) | Terminal and server providing a video call service | |
WO2018186416A1 (en) | Translation processing method, translation processing program, and recording medium | |
KR20150128386A (en) | display apparatus and method for performing videotelephony using the same | |
KR20150044830A (en) | Mobile apparatus and wearable apparatus for displaying information, and methods thereof | |
KR20180080986A (en) | artificial intelligence information system for emoticon service based on machine learning | |
CN110311856A (en) | Instant communicating method, equipment and computer readable storage medium | |
CN114630135A (en) | Live broadcast interaction method and device | |
CN108600079B (en) | Chat record display method and mobile terminal | |
CN112764600B (en) | Resource processing method, device, storage medium and computer equipment | |
CN108632465A (en) | A kind of method and mobile terminal of voice input | |
KR20180080987A (en) | artificial intelligence information method for emoticon service based on machine learning | |
KR20190052584A (en) | Terminal and server providing a video call service | |
KR102543656B1 (en) | Screen controlling method and electronic device supporting the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
N231 | Notification of change of applicant | ||
E601 | Decision to refuse application |