[go: nahoru, domu]

KR102590257B1 - Smart interactive white board apparatus using Wi-Fi location tracking technology and its control method - Google Patents

Smart interactive white board apparatus using Wi-Fi location tracking technology and its control method Download PDF

Info

Publication number
KR102590257B1
KR102590257B1 KR1020230057791A KR20230057791A KR102590257B1 KR 102590257 B1 KR102590257 B1 KR 102590257B1 KR 1020230057791 A KR1020230057791 A KR 1020230057791A KR 20230057791 A KR20230057791 A KR 20230057791A KR 102590257 B1 KR102590257 B1 KR 102590257B1
Authority
KR
South Korea
Prior art keywords
location
location tracking
presenter
mode
interactive whiteboard
Prior art date
Application number
KR1020230057791A
Other languages
Korean (ko)
Inventor
고은서
Original Assignee
(주)한성컴퓨터
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)한성컴퓨터 filed Critical (주)한성컴퓨터
Priority to KR1020230057791A priority Critical patent/KR102590257B1/en
Application granted granted Critical
Publication of KR102590257B1 publication Critical patent/KR102590257B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

와이-파이(WiFi)의 위치 추적 기술과 펜의 입력을 이용하여 주변환경을 학습하고, 학습 데이터를 기반으로 발표자(강의나 발표를 진행하는 사람)와 참여자(강의나 발표 또는 회의에 참여하여 발표자의 내용을 청취하거나 대화에 동참한 사람)의 위치 및 제스처에 따라 인터랙티브 화이트보드의 내용을 변화시키도록 한 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치 및 그 제어방법에 관한 것으로서, 주변 환경의 학습 유무를 확인하여, 주변 환경이 학습되지 않았으면 펜 입력모드로 전환하고, 수신한 제1 및 제2 수신신호와 터치 처리부에서 인식한 위치 정보를 기초로 학습을 통해 모션 데이터를 보정하며, 학습 유무를 확인한 결과, 주변 환경이 학습된 상태이면 위치 추적 모드로 전환을 하고, 영상 표시부에 위치 추적 모드임을 표시해주며, 위치 추적 모드로 전환되면 위치 추적 모드가 전체 참여모드인지를 확인하여 전체 참여 모드이면 스마트 인터랙티브 화이트보드 주변의 모든 움직임 및 모션을 인식하고, 전체 참여 모드가 아니면 발표자의 움직임 및 모션을 인식하며, 인식한 움직임 및 모션 정보를 기초로 화면의 콘텐츠를 자동으로 변경하는 과정으로, 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드를 제어한다.It learns the surrounding environment using Wi-Fi location tracking technology and pen input, and based on the learning data, presenters (people giving lectures or presentations) and participants (presenters participating in lectures, presentations, or meetings) It relates to a smart interactive whiteboard device and its control method using Wi-Fi location tracking technology that changes the contents of the interactive whiteboard according to the location and gestures of the person listening to the contents or participating in the conversation, and the surrounding environment. Check whether the surrounding environment has been learned, switch to pen input mode if the surrounding environment has not been learned, and correct the motion data through learning based on the received first and second reception signals and the location information recognized by the touch processing unit, As a result of checking for learning, if the surrounding environment has been learned, it switches to location tracking mode, and the location tracking mode is displayed on the video display. When switched to location tracking mode, it checks whether the location tracking mode is a full participation mode and allows full participation. If in mode, all movements and motions around the smart interactive whiteboard are recognized. If not in full participation mode, the presenter's movements and motions are recognized, and the content on the screen is automatically changed based on the recognized movement and motion information. Controls a smart interactive whiteboard using Wi-Fi location tracking technology.

Description

와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드 장치 및 그 제어방법{Smart interactive white board apparatus using Wi-Fi location tracking technology and its control method}Smart interactive white board apparatus using Wi-Fi location tracking technology and its control method}

본 발명은 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치 및 그 제어방법에 관한 것으로, 특히 와이-파이(WiFi)의 위치 추적 기술과 펜의 입력을 이용하여 주변환경을 학습하고, 학습 데이터를 기반으로 발표자(강의나 발표를 진행하는 사람)와 참여자(강의나 발표 또는 회의에 참여하여 발표자의 내용을 청취하거나 대화에 동참한 사람)의 위치 및 제스처에 따라 인터랙티브 화이트보드의 내용을 변화시키도록 한 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치 및 그 제어방법에 관한 것이다.The present invention relates to a smart interactive whiteboard device using Wi-Fi location tracking technology and a control method thereof. In particular, the present invention relates to a smart interactive whiteboard device using Wi-Fi location tracking technology and pen input to learn the surrounding environment and learn data. Based on this, the contents of the interactive whiteboard can be changed according to the positions and gestures of the presenter (the person conducting the lecture or presentation) and the participant (the person who participated in the lecture, presentation, or meeting and listened to the presenter's content or participated in the conversation). This relates to a smart interactive whiteboard device using Wi-Fi location tracking technology and its control method.

일반적인 스마트 인터랙티브 화이트보드는 사용자(발표자)의 입력을 디지털로 입력받아 다수의 참여자에게 내용을 출력하는 장치로 사용된다. 이는 기존의 화이트보드를 디지털로 전환시켜 사용자의 편의성 증진과 강의의 효율성을 높이기 위해 제안된 첨단시스템이다.A typical smart interactive whiteboard is used as a device that digitally receives user (presenter) input and outputs content to multiple participants. This is a cutting-edge system proposed to improve user convenience and lecture efficiency by converting the existing whiteboard into a digital one.

이러한 스마트 인터랙티브 화이트보드를 이용하여 발표 또는 강의를 할 경우, 발표자가 발표의 내용을 스마트 인터랙티브 화이트보드에 편하게 작성하기 위해서는 발표자가 스마트 인터랙티브 화이트보드와 가장 가까운 화면 부분에 입력을 하게 되는 데, 이 경우 발표자가 작성한 화면 위치는 참여자에게 가장 보이지 않는 위치가 된다는 것이다.When giving a presentation or lecture using such a smart interactive whiteboard, in order for the presenter to comfortably write the content of the presentation on the smart interactive whiteboard, the presenter inputs on the part of the screen closest to the smart interactive whiteboard. The screen location written by the presenter is the location that is least visible to participants.

따라서 스마트 인터랙티브 화이트보드와 발표자의 위치에 따른 상호 연동을 통해 발표자가 작성한 화면 내용이 참여자에게 최적으로 보여질 수 있도록 하는 상호 연동에 대한 연구가 필요하다.Therefore, research is needed on the interconnection between the smart interactive whiteboard and the presenter's location so that the screen content written by the presenter can be optimally displayed to participants.

한편, 카메라를 통해 참여자와 인터랙티브하는 스마트 인터랙티브 화이트보드가 특허문헌 1(10-2031739)과 같이 제안된 바 있다.Meanwhile, a smart interactive whiteboard that interacts with participants through a camera has been proposed as in Patent Document 1 (10-2031739).

특허문헌 1은 카메라와 마이크를 통한 이벤트를 감지하여 사용자와 상호작용하여, 디스플레이 화면과 별도로 수업 진행 모드에 따른 강의화면을 구성하여 실시간 인터넷 방송을 지원하는 기술이다.Patent Document 1 is a technology that detects events through a camera and microphone, interacts with the user, and configures a lecture screen according to the class progress mode separately from the display screen to support real-time Internet broadcasting.

이러한 기술은 카메라와 마이크로 발표자의 상황을 감지할 수 있으나, 일반적인 스마트 인터랙티브 화이트보드를 사용하는 장소는 넓은 장소라서, 멀리 있는 사람의 목소리를 감지하기엔 마이크의 높은 성능이 요구되며, 이에 따라 시스템 구현 비용이 많이 소요되는 단점이 있다. 카메라 또한 넓은 장소를 촬영하기 위해서는 높은 화각과 화질의 고성능 카메라가 요구되며, 카메라 렌즈에 이물질로 인해 화면이 보이지 않을 수 있어 유지보수 관리가 필요한 단점이 있다. 아울러 조명이 너무 밝거나 어두울 경우 영상 처리가 어렵다는 단점도 있으며, 카메라로 촬영되는 것을 원치 않는 참여자의 프라이버시 침해 문제도 발생할 수 있다.This technology can detect the presenter's situation with a camera and microphone, but since the place where a typical smart interactive whiteboard is used is a large place, high performance of the microphone is required to detect the voice of a person from a distance, and accordingly, the cost of implementing the system is high. This has the disadvantage of taking a lot of time. The camera also requires a high-performance camera with a high angle of view and image quality in order to photograph a wide area, and has the disadvantage of requiring maintenance as the screen may not be visible due to foreign substances on the camera lens. In addition, if the lighting is too bright or dark, image processing is difficult, and privacy issues may arise for participants who do not want to be filmed with a camera.

이러한 문제를 해결하기 위해서 초음파 위치 센서, 라이다(LiDAR) 센서 등을 통해 사용자의 위치를 특정할 수 있으나, 이 또한 추가설치 비용과 높은 단가를 요구한다.To solve this problem, the user's location can be specified through ultrasonic position sensors, LiDAR sensors, etc., but this also requires additional installation costs and high unit prices.

또한, 근래에는 발표자 또는 참여자의 위치 인식을 위해, WiFi 전파 신호를 이용한 위치 추적기술이 제안되고 있다. 예를 들어, WiFi sensing, wi-see, wi-vi 등의 기술이 와이-파이 위치 추적기술을 이용한 것이다.Additionally, in recent years, location tracking technology using WiFi radio signals has been proposed to recognize the location of presenters or participants. For example, technologies such as WiFi sensing, wi-see, and wi-vi use WiFi location tracking technology.

와이-파이 전파 신호의 수신 대역인 2.4Ghz, 5Ghz, 6Ghz, 60Ghz 대역에서 데이터 패킷이 전송되었을 때의 특성인 와이파이 CSI(Channel State Information) 데이터의 변화를 이용하여 주변의 동작을 인식하게 된다. Surrounding activity is recognized using changes in Wi-Fi CSI (Channel State Information) data, which is a characteristic when data packets are transmitted in the 2.4Ghz, 5Ghz, 6Ghz, and 60Ghz bands, which are the reception bands of Wi-Fi radio signals.

최근 머신러닝 기술의 발전으로 머신러닝 기술을 접목하여 CSI 데이터를 빅데이터로 처리하여 사물의 위치나 움직임을 더 정확하게 인식할 수 있도록 발전하고 있다.Recently, with the development of machine learning technology, machine learning technology has been applied to process CSI data as big data to more accurately recognize the location or movement of objects.

도 1은 특정 공간에서 발표자(11)가 스마트 인터랙티브 화이트보드(1)에 근접하여 문서를 작성하고, 발표자(110)와 이격된 곳에 참여자(21, 22)가 있는 상황의 예시이다.Figure 1 is an example of a situation in which a presenter 11 writes a document close to the smart interactive whiteboard 1 in a specific space, and participants 21 and 22 are located at a distance from the presenter 110.

이러한 상황에 대하여 이를 와이파이 CSI를 이용하여 위치를 추적하면, 도 2의 좌측 도면과 같은 진폭 신호를 얻을 수 있으며, 이를 정해진 신호처리 방식으로 신호처리하면 우측 도면과 같은 위상을 얻을 수 있다.In this situation, if you track the location using Wi-Fi CSI, you can obtain an amplitude signal like the diagram on the left of FIG. 2, and if you process this signal using a designated signal processing method, you can get a phase like the diagram on the right.

그러나 와이파이 전파 특성은 주변환경 변화에 따라 오차가 크게 발생하는 특성이 있어, 도 2와 같은 위치 인식 정보를 얻기 위해서는 주변 환경의 변화가 없는 한정된 공간에서만 구현 가능하다는 단점이 있다.However, Wi-Fi propagation characteristics have the characteristic of causing large errors depending on changes in the surrounding environment, so obtaining location recognition information as shown in Figure 2 has the disadvantage that it can only be implemented in a limited space where there is no change in the surrounding environment.

대한민국 등록특허 10-2031739(2019.10.07. 등록)(디스플레이 화면과 별도로 수업 진행모드에 따른 강의화면을 구성하여 실시간 인터넷 방송을 지원하는 인터랙티브 화이트보드)Republic of Korea registered patent 10-2031739 (registered on October 7, 2019) (Interactive whiteboard that supports real-time Internet broadcasting by configuring a lecture screen according to the class progress mode separately from the display screen) 대한민국 공개특허 10-2011-0025674(2011.03.10. 공개)(영상 분석 및 초음파 통신을 사용하여 컨트롤러의 3차원 위치 판단)Republic of Korea Patent Publication No. 10-2011-0025674 (published on March 10, 2011) (3-dimensional position determination of controller using image analysis and ultrasonic communication) 대한민국 공개특허 10-2017-0059486(2017.05.30. 공개)(프레젠테이션을 위한 카메라 탐색)Republic of Korea Patent Publication No. 10-2017-0059486 (published on May 30, 2017) (camera search for presentation)

따라서 본 발명은 상기와 같은 일반적인 와이-파이 CSI를 이용하여 물체 위치를 추적할 때 발생하는 제반 문제를 해결하기 위해서 제안된 것으로서, 와이-파이(WiFi)의 위치 추적 기술과 펜의 입력을 이용하여 주변환경을 학습하고, 학습 데이터를 기반으로 발표자(강의나 발표를 진행하는 사람)와 참여자(강의나 발표 또는 회의에 참여하여 발표자의 내용을 청취하거나 대화에 동참한 사람)의 위치 및 제스처에 따라 인터랙티브 화이트보드의 내용을 변화시키도록 한 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치 및 그 제어방법을 제공하는 데 그 목적이 있다.Therefore, the present invention was proposed to solve various problems that occur when tracking the location of an object using the general Wi-Fi CSI as described above, using the location tracking technology of Wi-Fi and pen input. It learns the surrounding environment, and based on the learning data, it follows the positions and gestures of the presenter (the person giving the lecture or presentation) and the participant (the person who participated in the lecture, presentation or meeting and listened to the presenter's content or participated in the conversation). The purpose is to provide a smart interactive whiteboard device and its control method using Wi-Fi location tracking technology to change the contents of the interactive whiteboard.

상기한 바와 같은 목적을 달성하기 위하여, 본 발명에 따른 "와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치"는,In order to achieve the above-mentioned purpose, the “smart interactive whiteboard device using Wi-Fi location tracking technology” according to the present invention,

스마트 인터랙티브 화이트보드를 마주보고 있는 참여자의 후방에서 와이파이 신호를 제1송신신호로 송신하고, 참여자의 전방에서 송신된 와이파이 신호를 제1수신신호로 수신하는 와이파이 송수신기;A Wi-Fi transceiver that transmits a Wi-Fi signal as a first transmission signal from behind the participant facing the smart interactive whiteboard and receives a Wi-Fi signal transmitted from the front of the participant as a first reception signal;

화면 터치를 통해 데이터를 입력하거나 특정 콘텐츠를 선택하기 위한 입력 펜;Input pen for entering data or selecting specific content by touching the screen;

상기 참여자의 전방으로 와이파이 신호를 제2송신신호로 송신하고, 상기 와이파이 송수신기를 통해 송신된 와이파이 신호를 제2수신신호로 수신하며, 상기 제1 및 제2 수신신호와 상기 입력 펜을 통해 입력된 위치 정보를 기초로 주변환경을 학습하며, 학습 결과를 기초로 참여자와 발표자의 위치 및 제스처를 인식하고, 인식한 위치 및 제스처에 대응하여 화면 내용을 변경하는 스마트 인터랙티브 화이트보드를 포함하는 것을 특징으로 한다.Transmit a Wi-Fi signal in front of the participant as a second transmission signal, receive the Wi-Fi signal transmitted through the Wi-Fi transceiver as a second reception signal, and receive the first and second reception signals and the input through the input pen. It features a smart interactive whiteboard that learns the surrounding environment based on location information, recognizes the locations and gestures of participants and presenters based on the learning results, and changes screen content in response to the recognized locations and gestures. do.

상기에서 스마트 인터랙티브 화이트보드는,In the above, the smart interactive whiteboard is,

상기 참여자의 전방으로 와이파이 신호를 제2송신신호로 송신하고, 상기 와이파이 송수신기를 통해 송신된 와이파이 신호를 제2수신신호로 수신하는 와이파이 송수신부;a Wi-Fi transceiver that transmits a Wi-Fi signal as a second transmission signal in front of the participant and receives the Wi-Fi signal transmitted through the Wi-Fi transceiver as a second reception signal;

상기 입력 펜의 터치시 화면에서 해당 터치 부분의 위치 및 입력 정보를 인식하는 터치 처리부;a touch processing unit that recognizes the location and input information of the corresponding touched portion on the screen when the input pen touches the screen;

펜 입력 모드에서 상기 와이파이 송수신부에서 수신한 제2수신신호와 상기 와이파이 송수신기를 통해 수신한 제1수신신호 및 터치 처리부에서 인식한 위치 정보를 기초로 학습을 통해 학습용 모션 데이터를 보정하며, 위치추적 모드에서 상기 제1수신신호와 제2수신신호를 기초로 모션을 인식하고, 모션 인식 정보를 출력하는 물체 인식부; 및In the pen input mode, motion data for learning is corrected through learning based on the second reception signal received from the Wi-Fi transceiver, the first reception signal received through the Wi-Fi transceiver, and the location information recognized by the touch processing unit, and location tracking is performed. an object recognition unit that recognizes motion based on the first and second reception signals in the mode and outputs motion recognition information; and

상기 물체 인식부에서 출력되는 모선 인식 정보에 따라 화면의 내용을 변경하는 영상 표시부를 포함하는 것을 특징으로 한다.It is characterized by including an image display unit that changes the contents of the screen according to the bus bar recognition information output from the object recognition unit.

상기에서 물체 인식부는 상기 터치 처리부에서 인식한 위치 정보를 실측 데이터로 하여, 상기 제2수신신호와 제1수신신호를 통해 인식한 모선 데이터를 보정하는 방식으로 주변 환경에 대하여 학습하는 것을 특징으로 한다.In the above, the object recognition unit is characterized by learning about the surrounding environment by using the location information recognized by the touch processing unit as actual measurement data and correcting the bus bar data recognized through the second reception signal and the first reception signal. .

상기에서 물체 인식부는 상기 제1수신신호를 통해 인식한 모션 정보와 상기 제2수신신호를 통해 인식한 모션 정보를 조합하여 추적자의 모션을 인식하는 것을 특징으로 한다.In the above, the object recognition unit is characterized in that it recognizes the motion of the tracker by combining motion information recognized through the first reception signal and motion information recognized through the second reception signal.

상기에서 물체 인식부는 위치 추적 모드를 발표자 모드와 전체 참여모드로 제어하되, 발표자 모드일 경우에는 발표자만 추적을 하고, 전체 참여모드일 경우에는 발표자와 스마트 인터랙티브 화이트보드 주변의 모든 참여자의 모션을 추적하는 것을 특징으로 한다.In the above, the object recognition unit controls the location tracking mode into presenter mode and full participation mode. In case of presenter mode, only the presenter is tracked, and in case of full participation mode, it tracks the motion of the presenter and all participants around the smart interactive whiteboard. It is characterized by:

상기에서 물체 인식부는 모션 인식 정보를 기초로 발표자의 위치를 인식하고, 발표자가 입력한 콘텐츠를 발표자에 의해 가려지는 화면 위치를 제외한 다른 화면 위치에 디스플레이하도록 영상 표시부를 제어하는 것을 특징으로 한다.In the above, the object recognition unit recognizes the presenter's location based on motion recognition information, and controls the video display unit to display content input by the presenter at a screen location other than the screen location obscured by the presenter.

상기에서 물체 인식부는 모션 인식 정보를 기초로 발표자가 화면에 접근하는 경우, 가장 나중에 디스플레이한 콘텐츠를 발표자의 근접 위치로 이동시켜 디스플레이하도록 상기 영상 표시부를 제어하는 것을 특징으로 한다.In the above, the object recognition unit is characterized in that when the presenter approaches the screen based on the motion recognition information, the video display unit is controlled to move and display the content displayed last to a position close to the presenter.

상기한 바와 같은 목적을 달성하기 위하여, 본 발명에 따른 "와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드 제어방법"은,In order to achieve the above-mentioned purpose, the “smart interactive whiteboard control method using Wi-Fi location tracking technology” according to the present invention,

(a) 주변 환경의 학습 유무를 확인하여, 주변 환경이 학습되지 않았으면 펜 입력모드로 전환하고, 수신한 제1 및 제2 수신신호와 터치 처리부에서 인식한 위치 정보를 기초로 학습을 통해 모션 데이터를 보정하는 단계;(a) Check whether the surrounding environment has been learned, and if the surrounding environment has not been learned, switch to pen input mode and make motion through learning based on the received first and second reception signals and the location information recognized by the touch processing unit. correcting data;

(b) 상기 (a)단계의 학습 유무를 확인한 결과, 주변 환경이 학습된 상태이면 위치 추적 모드로 전환을 하고, 영상 표시부에 위치 추적 모드임을 표시해주는 단계;(b) as a result of checking the learning in step (a), if the surrounding environment is in a learned state, switching to the location tracking mode and displaying the location tracking mode on the video display;

(c) 상기 위치 추적 모드로 전환되면 위치 추적 모드가 전체 참여모드인지를 확인하여 전체 참여 모드이면 스마트 인터랙티브 화이트보드 주변의 모든 움직임 및 모션을 인식하고, 전체 참여 모드가 아니면 발표자의 움직임 및 모션을 인식하는 단계; 및(c) When the location tracking mode is switched to the above, it is checked whether the location tracking mode is a full participation mode. If it is a full participation mode, all movements and motions around the smart interactive whiteboard are recognized, and if it is not a full participation mode, the presenter's movements and motions are recognized. Recognizing step; and

(d) 상기 (c)단계에서 인식한 움직임 및 모션 정보를 기초로 화면의 콘텐츠를 변경하는 단계를 포함하는 것을 특징으로 한다.(d) changing the content of the screen based on the movement and motion information recognized in step (c).

상기에서 (a)단계는,In step (a) above,

상기 제1 및 제2 수신신호를 통해 인식한 모션 정보와 상기 터치 처리부를 통해 인식한 위치 정보의 비교를 통해, 모션 데이터를 보정하는 것을 특징으로 한다.The motion data is corrected by comparing motion information recognized through the first and second received signals with location information recognized through the touch processing unit.

상기에서 (d)단계는,In step (d) above,

상기 물체 인식부에서 출력되는 모션 인식 정보를 기초로 발표자의 위치를 인식하고, 발표자가 입력한 콘텐츠를 발표자에 의해 가려지는 화면 위치를 제외한 다른 화면 위치에 디스플레이하는 것을 특징으로 한다.The presenter's location is recognized based on the motion recognition information output from the object recognition unit, and the content input by the presenter is displayed at a screen location other than the screen location obscured by the presenter.

상기에서 (d)단계는,In step (d) above,

상기 물체 인식부에서 출력되는 모션 인식 정보를 기초로 발표자가 화면에 접근하는 경우, 가장 나중에 디스플레이한 콘텐츠를 발표자의 근접 위치로 이동시켜 디스플레이하는 것을 특징으로 한다.When the presenter approaches the screen based on the motion recognition information output from the object recognition unit, the content displayed last is moved to a position closer to the presenter and displayed.

본 발명에 따르면 와이파이 전파신호를 이용한 위치 추적 기술과 펜의 입력을 이용하여 주변환경을 학습하고, 학습 데이터를 기반으로 발표자와 참여자의 위치 및 제스처를 인식하여 인터랙티브 화이트보드의 내용을 자동으로 변화시킴으로써, 넓은 장소에서도 정확하게 위치 및 제스처를 인식할 수 있는 효과가 있다.According to the present invention, the surrounding environment is learned using location tracking technology using Wi-Fi radio signals and pen input, and the contents of the interactive whiteboard are automatically changed by recognizing the positions and gestures of the presenter and participants based on the learning data. , It has the effect of accurately recognizing location and gestures even in large places.

또한, 와이파이 전파신호를 이용한 위치추적 기술을 활용함으로써, 카메라를 이용할 경우 조도에 영향을 받아 위치 추적에 어려움이 있거나, 마이크를 이용할 경우 장소가 넓거나 주변 소음이 많을 경우 정확한 위치 추적이 어렵다는 문제를 개선함과 동시에 스마트 인터랙티브 화이트보드를 저가로 구현할 수 있는 장점도 제공한다.In addition, by utilizing location tracking technology using Wi-Fi radio signals, it is difficult to track location due to the influence of illumination when using a camera, or when using a microphone, it is difficult to accurately track location when the place is large or there is a lot of surrounding noise. At the same time as improvement, it also provides the advantage of being able to implement a smart interactive whiteboard at low cost.

도 1은 종래 스마트 인터랙티브 화이트보드를 이용한 강의 예시도이고,
도 2는 종래 와이파이 위치 추적 기술을 이용하여 CSI의 진폭과 위상의 예시도이며,
도 3은 본 발명에 따른 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치의 실시 예 블록 구성도이고,
도 4 내지 도 6은 본 발명에 적용된 와이파이 위치 추적 기술의 설명도이며,
도 7은 본 발명에 따른 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드 제어방법을 보인 흐름도이며,
도 8a 내지 도 8d는 본 발명에서 화면의 콘텐츠 표시 예시이며,
도 9a 및 도 9b는 본 발명에서 전체 참여모드에서 발표자 및 참여자를 추적하는 예시이다.
Figure 1 is an example of a lecture using a conventional smart interactive whiteboard.
Figure 2 is an example diagram of the amplitude and phase of CSI using conventional Wi-Fi location tracking technology;
Figure 3 is a block diagram of an embodiment of a smart interactive whiteboard device using Wi-Fi location tracking technology according to the present invention;
4 to 6 are diagrams illustrating the Wi-Fi location tracking technology applied to the present invention;
Figure 7 is a flowchart showing a smart interactive whiteboard control method using Wi-Fi location tracking technology according to the present invention;
8A to 8D are examples of screen content display in the present invention;
Figures 9a and 9b are examples of tracking presenters and participants in full participation mode in the present invention.

이하 본 발명의 바람직한 실시 예에 따른 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치 및 그 제어방법을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, a smart interactive whiteboard device using Wi-Fi location tracking technology and a control method thereof according to a preferred embodiment of the present invention will be described in detail with reference to the attached drawings.

이하에서 설명되는 본 발명에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 안 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.The terms or words used in the present invention described below should not be construed as limited to their usual or dictionary meanings, and the inventor may appropriately define the concept of the term in order to explain his/her invention in the best way. It must be interpreted with meaning and concept consistent with the technical idea of the present invention based on the principle that it can be done.

따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 바람직한 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원 시점에서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in this specification and the configurations shown in the drawings are only preferred embodiments of the present invention and do not represent the entire technical idea of the present invention, and therefore various equivalents and It should be understood that variations may exist.

도 3은 본 발명의 바람직한 실시 예에 따른 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치의 구성도로서, 와이파이 송수신기(100), 입력펜(200) 및 스마트 인터랙티브 화이트보드(300)를 포함할 수 있다.Figure 3 is a configuration diagram of a smart interactive whiteboard device using Wi-Fi location tracking technology according to a preferred embodiment of the present invention, including a Wi-Fi transceiver 100, an input pen 200, and a smart interactive whiteboard 300. can do.

와이파이(WiFi) 송수신기(100)는 스마트 인터랙티브 화이트보드(300)를 마주보고 있는 참여자의 후방에서 와이파이 신호를 제1송신신호로 송신하고, 참여자의 전방에서 송신된 와이파이 신호를 제1수신신호로 수신하는 역할을 한다.The WiFi transceiver 100 transmits a WiFi signal as a first transmission signal from behind the participant facing the smart interactive whiteboard 300, and receives the WiFi signal transmitted from in front of the participant as a first reception signal. It plays a role.

이러한 와이파이 송수신기(100)는 통신모듈을 포함하고, 상기 통신모듈을 이용하여 상기 수신한 제1수신신호를 상기 스마트 인터랙티브 화이트보드(300)에 전송할 수 있다.This Wi-Fi transceiver 100 includes a communication module, and can transmit the received first reception signal to the smart interactive whiteboard 300 using the communication module.

입력 펜(200)은 상기 스마트 인터랙티브 화이트보드(300)의 화면 터치를 통해 데이터를 입력하거나 특정 콘텐츠를 선택하기 위한 역할을 한다. 특정 콘텐츠의 선택은 화면에 별도로 표시된 기능 아이콘을 터치하거나 화면에 표출된 콘텐츠 또는 콘텐츠 기재 영역을 터치하는 것으로 구현할 수 있다. 콘텐츠 기재 영역은 콘텐츠가 문장으로 구성될 경우 해당 문장의 콘텐츠 영역을 의미할 수 있다.The input pen 200 serves to input data or select specific content by touching the screen of the smart interactive whiteboard 300. Selection of specific content can be implemented by touching a function icon separately displayed on the screen or by touching the content displayed on the screen or the content description area. The content description area may refer to the content area of the sentence when the content consists of a sentence.

이러한 입력 펜(200)은 부가적으로 전원 온/오프 버튼, 위치 추적 모드시 전체 참여모드, 발표자 모드, 펜 입력모드를 선택할 수 있는 모드 선택 버튼을 포함할 수 있다. 여기서 입력 펜(200)은 통신 모듈을 구비하고 모드 선택 정보를 상기 스마트 인터랙티브 화이트보드(300)에 전송할 수 있다.This input pen 200 may additionally include a power on/off button and a mode selection button for selecting full participation mode, presenter mode, and pen input mode in the location tracking mode. Here, the input pen 200 is equipped with a communication module and can transmit mode selection information to the smart interactive whiteboard 300.

스마트 인터랙티브 화이트보드(300)는 상기 참여자의 전방으로 와이파이 신호를 제2송신신호로 송신하고, 상기 와이파이 송수신기(100)를 통해 송신된 와이파이 신호를 제2수신신호로 수신하며, 상기 제1 및 제2 수신신호와 상기 입력 펜(200)을 통해 입력된 위치 정보를 기초로 주변환경을 학습하며, 학습 결과를 기초로 참여자와 발표자의 위치 및 제스처를 인식하고, 인식한 위치 및 제스처에 대응하여 화면 내용을 변경하는 역할을 한다.The smart interactive whiteboard 300 transmits a Wi-Fi signal as a second transmission signal in front of the participant, receives the Wi-Fi signal transmitted through the Wi-Fi transceiver 100 as a second reception signal, and receives the Wi-Fi signal transmitted through the Wi-Fi transceiver 100 as a second reception signal. 2 Learns the surrounding environment based on received signals and location information input through the input pen 200, recognizes the locations and gestures of participants and presenters based on the learning results, and displays the screen in response to the recognized locations and gestures. It plays a role in changing the content.

여기서 화면 내용의 변경이란 화면에 표출된 콘텐츠의 위치를 이동시키거나 이전 화면이나 다음 화면으로 화면을 전환하는 것을 의미한다.Here, changing the screen content means moving the position of the content displayed on the screen or switching the screen to the previous or next screen.

이러한 스마트 인터랙티브 화이트보드(300)는 상기 참여자의 전방으로 와이파이 신호를 제2송신신호로 송신하고, 상기 와이파이 송수신기(100)를 통해 송신된 와이파이 신호를 제2수신신호로 수신하는 와이파이 송수신부(301), 상기 입력 펜(200)의 터치시 화면에서 해당 터치 부분의 위치 및 입력 정보를 인식하는 터치 처리부(302), 펜 입력 모드에서 상기 와이파이 송수신부(301)에서 수신한 제2수신신호와 상기 와이파이 송수신기(100)를 통해 수신한 제1수신신호 및 터치 처리부(302)에서 인식한 위치 정보를 기초로 학습을 통해 학습용 모션 데이터를 보정하며, 위치추적 모드에서 상기 제1수신신호와 제2수신신호를 기초로 모션을 인식하고, 모션 인식 정보를 출력하는 물체 인식부(303), 및 상기 물체 인식부(303)에서 출력되는 모선 인식 정보에 따라 화면의 내용을 변경하는 영상 표시부(304)를 포함할 수 있다.This smart interactive whiteboard 300 transmits a Wi-Fi signal as a second transmission signal in front of the participant, and has a Wi-Fi transceiver 301 that receives the Wi-Fi signal transmitted through the Wi-Fi transceiver 100 as a second reception signal. ), a touch processor 302 that recognizes the location and input information of the corresponding touch part on the screen when the input pen 200 is touched, a second reception signal received from the Wi-Fi transceiver 301 in pen input mode, and The motion data for learning is corrected through learning based on the first reception signal received through the Wi-Fi transceiver 100 and the location information recognized by the touch processor 302, and the first reception signal and the second reception are received in the location tracking mode. An object recognition unit 303 that recognizes motion based on a signal and outputs motion recognition information, and an image display unit 304 that changes the contents of the screen according to the busbar recognition information output from the object recognition unit 303. It can be included.

상기 물체 인식부(303)는 상기 터치 처리부(302)에서 인식한 위치 정보를 실측 데이터로 하여, 상기 제2수신신호와 제1수신신호를 통해 인식한 모선 데이터를 보정하는 방식으로 주변 환경에 대하여 학습할 수 있다.The object recognition unit 303 uses the location information recognized by the touch processing unit 302 as actual measurement data to correct the bus data recognized through the second reception signal and the first reception signal, thereby recognizing the surrounding environment. You can learn.

아울러 상기 물체 인식부(303)는 상기 제1수신신호를 통해 인식한 모션 정보와 상기 제2수신신호를 통해 인식한 모션 정보를 조합하여 추적자의 모션을 인식할 수 있다.In addition, the object recognition unit 303 may recognize the tracker's motion by combining motion information recognized through the first reception signal and motion information recognized through the second reception signal.

또한, 상기 물체 인식부(303)는 위치 추적 모드를 발표자 모드와 전체 참여모드로 제어하되, 발표자 모드일 경우에는 발표자만 추적을 하고, 전체 참여모드일 경우에는 스마트 인터랙티브 화이트보드(300) 주변의 모든 참여자를 추적할 수 있다.In addition, the object recognition unit 303 controls the location tracking mode into presenter mode and full participation mode. In case of presenter mode, only the presenter is tracked, and in case of full participation mode, the location tracking mode is tracked around the smart interactive whiteboard 300. All participants can be tracked.

상기 물체 인식부(303)는 상기 모션 인식 정보를 기초로 발표자의 위치를 인식하고, 발표자가 입력한 콘텐츠를 발표자에 의해 가려지는 화면 위치를 제외한 다른 화면 위치에 디스플레이하도록 상기 영상 표시부(304)를 제어할 수 있다.The object recognition unit 303 recognizes the presenter's location based on the motion recognition information, and configures the video display unit 304 to display the content entered by the presenter at a screen location other than the screen location obscured by the presenter. You can control it.

또한, 상기 물체 인식부(303)는 모션 인식 정보를 기초로 발표자가 화면에 접근하는 경우, 가장 나중에 디스플레이한 콘텐츠를 발표자의 근접 위치로 이동시켜 디스플레이하도록 상기 영상 표시부(304)를 제어할 수 있다.In addition, when the presenter approaches the screen based on motion recognition information, the object recognition unit 303 can control the video display unit 304 to move and display the content displayed last to a position close to the presenter. .

도 7은 본 발명에 따른 "와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치 제어방법"을 보인 흐름도로서, (a) 주변 환경의 학습 유무를 확인하여, 주변 환경이 학습되지 않았으면 펜 입력모드로 전환하고, 수신한 제1 및 제2 수신신호와 터치 처리부에서 인식한 위치 정보를 기초로 학습을 통해 모션 데이터를 보정하는 단계(S101 - S103), (b) 상기 (a)단계의 학습 유무를 확인한 결과, 주변 환경이 학습된 상태이면 위치 추적 모드로 전환을 하고, 영상 표시부에 위치 추적 모드임을 표시해주는 단계(S104 - S105), (c) 상기 위치 추적 모드로 전환되면 위치 추적 모드가 전체 참여모드인지를 확인하여 전체 참여 모드이면 스마트 인터랙티브 화이트보드 주변의 모든 움직임 및 모션을 인식하고, 전체 참여 모드가 아니면 발표자의 움직임 및 모션을 인식하는 단계(S106 - S108), 및 (d) 상기 (c)단계에서 인식한 움직임 및 모션 정보를 기초로 화면의 콘텐츠를 변경하는 단계(S109)를 포함할 수 있다.Figure 7 is a flowchart showing a "smart interactive whiteboard device control method using Wi-Fi location tracking technology" according to the present invention. (a) Checking whether the surrounding environment has been learned, and pen input if the surrounding environment has not been learned. Switching to the mode and correcting the motion data through learning based on the received first and second reception signals and the location information recognized by the touch processing unit (S101 - S103), (b) learning of step (a) As a result of checking the presence or absence, if the surrounding environment is learned, switching to the location tracking mode and displaying the location tracking mode on the video display (S104 - S105), (c) When the location tracking mode is switched, the location tracking mode is switched to the location tracking mode. Steps (S106 - S108) of checking whether it is in full participation mode and recognizing all movements and motions around the smart interactive whiteboard if it is in full participation mode, and recognizing the presenter's movements and motions if it is not in full participation mode (S106 - S108), and (d) It may include a step (S109) of changing the content of the screen based on the movement and motion information recognized in step (c).

상기 (a)단계는 상기 제1 및 제2 수신신호를 통해 인식한 모션 정보와 상기 터치 처리부(302)를 통해 인식한 위치 정보의 비교를 통해, 모션 데이터를 보정할 수 있다.In step (a), motion data may be corrected through comparison of motion information recognized through the first and second received signals and location information recognized through the touch processing unit 302.

상기 (d)단계는 상기 물체 인식부(303)에서 출력되는 모션 인식 정보를 기초로 발표자의 위치를 인식하고, 발표자가 입력한 콘텐츠를 발표자에 의해 가려지는 화면 위치를 제외한 다른 화면 위치에 디스플레이할 수 있다.In step (d), the position of the presenter is recognized based on the motion recognition information output from the object recognition unit 303, and the content input by the presenter is displayed at a screen location other than the screen location obscured by the presenter. You can.

상기 (d)단계는 상기 물체 인식부(303)에서 출력되는 모션 인식 정보를 기초로 발표자가 화면에 접근하는 경우, 가장 나중에 디스플레이한 콘텐츠를 발표자의 근접 위치로 이동시켜 디스플레이할 수 있다.In step (d), when the presenter approaches the screen based on the motion recognition information output from the object recognition unit 303, the content displayed last can be moved to a position closer to the presenter and displayed.

이와 같이 구성된 본 발명에 따른 도 3은 본 발명의 바람직한 실시 예에 따른 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치 및 그 제어방법을 첨부한 도면 도 3 내지 도 9b를 참조하여 구체적으로 설명하면 다음과 같다.Figure 3 according to the present invention configured as described above is a detailed explanation with reference to Figures 3 to 9b, which illustrate a smart interactive whiteboard device and its control method using Wi-Fi location tracking technology according to a preferred embodiment of the present invention. If you do so, it is as follows.

먼저, 스마트 인터랙티브 화이트보드(300)에 구동 전원이 공급되면 물체 인식부(303)는 주변 환경의 학습 유무를 확인한다(S101).First, when driving power is supplied to the smart interactive whiteboard 300, the object recognition unit 303 checks whether the surrounding environment has been learned (S101).

여기서 주변 환경의 학습이란, 발표장소(강의장소나 회의장소를 포함하는 개념)의 참여자 후방에 설치된 와이파이 송수신기(100)와 스마트 인터랙티브 화이트보드(300)에 설치된 와이파이 송수신부(301)에서 각각 송신한 와이파이 전파 신호를 수신한 후, 입력 펜(200)을 통해 터치된 화면의 위치 정보를 기초로 상기 수신한 데이터를 보정하여 정확하게 모션 데이터를 인식할 수 있도록 학습하는 것을 의미한다.Here, learning in the surrounding environment refers to the information transmitted from the Wi-Fi transceiver 100 installed behind the participant at the presentation venue (a concept that includes the lecture or meeting venue) and the Wi-Fi transceiver 301 installed on the smart interactive whiteboard 300. This means learning to accurately recognize motion data by correcting the received data based on the location information of the screen touched through the input pen 200 after receiving the Wi-Fi radio signal.

여기서 수신한 와이파이 전파신호를 "CSI 데이터"라고 한다.The Wi-Fi radio signal received here is called “CSI data.”

주변 환경이 학습되지 않은 상황이면, 획득한 CSI 데이터를 이용하여 획득한 움직임, 제스처, 위치, 거리 등에 정확성이 떨어진다. If the surrounding environment has not been learned, the accuracy of movements, gestures, locations, and distances obtained using the acquired CSI data is low.

주변 환경의 학습 유무를 확인한 결과, 주변 환경이 학습되지 않은 상황이면, 물체 인식부(303)는 펜 입력모드로 전환을 한다(S102). 이어, 펜 입력 모드에서 입력 펜(200)을 통해 화면 터치가 이루어지면, 와이파이 송수신기(100)에서 획득한 제1수신신호인 제1CSI 데이터와 와이파이 송수신부(301)를 통해 획득한 제2수신신호인 제2CSI 데이터를 처리하여 획득한 움직임, 제스처, 위치, 거리 데이터와 펜 입력모드를 통해 획득한 화면 터치 위치 정보를 학습 데이터로 하여 학습을 통해 제1CSI 데이터 및 제2CSI 데이터를 보정한다(S103). 제1CSI 데이터 및 제2CSI 데이터의 보정이 이루어지면, 사용자의 움직임 및 거리에 따른 CSI 패턴 변화는 주변 환경에 무관하게 동일한 패턴으로 변화가 되며, 이후 주변환경으로 인한 노이즈만 획득하게 되면 CSI 데이터로부터 사용자의 정확한 위치와 포즈, 거리를 추적할 수 있게 된다.As a result of checking whether the surrounding environment has been learned, if the surrounding environment has not been learned, the object recognition unit 303 switches to the pen input mode (S102). Then, when the screen is touched through the input pen 200 in the pen input mode, the first CSI data, which is the first received signal obtained from the Wi-Fi transceiver 100, and the second received signal obtained through the Wi-Fi transceiver 301 The first CSI data and the second CSI data are corrected through learning using the movement, gesture, position, and distance data obtained by processing the second CSI data and the screen touch location information obtained through the pen input mode as learning data (S103). . Once the first CSI data and the second CSI data are corrected, the CSI pattern change according to the user's movement and distance changes to the same pattern regardless of the surrounding environment. Afterwards, when only noise due to the surrounding environment is acquired, the user can obtain the CSI data from the CSI data. It is possible to track the exact location, pose, and distance of .

주변 환경의 학습 방법으로는, 와이파이 수신기(100)에서 수신한 제1수신신호인 제1CSI 데이터를 수신하고, 와이파이 송수신부(301)를 통해 수신한 제2수신신호인 제2CSI 데이터를 수신한다. 여기서 수신한 제1CSI 데이터 및 제2CSI 데이터를 각각 이미 알려진 와이 파이 위치 추적기술로 처리하여 위치, 제스처, 거리 정보를 추출한다. As a method of learning the surrounding environment, first CSI data, which is the first received signal received from the Wi-Fi receiver 100, is received, and second CSI data, which is the second received signal received through the Wi-Fi transmitting and receiving unit 301, is received. Here, the received first CSI data and second CSI data are processed using already known Wi-Fi location tracking technology to extract location, gesture, and distance information.

여기서 와이 파이 위치 추적기술로는, Fei Wang, Sanping Zhou, Stznislav Panev, Jinsong Han, and Dong Huang.2019. Person-in-WiFi: Fine-graned Person Perception using WiFi/1904.00276 및 Jiaqi Geng, Dong Huang, Fernando De laTorre 2022. DensePose From WiFi/2301.00250v1에 개시된 와이파이 신호를 이용한 위치 추적 기술을 이용할 수 있다.Here, the Wi-Fi location tracking technology is Fei Wang, Sanping Zhou, Stznislav Panev, Jinsong Han, and Dong Huang.2019. The location tracking technology using WiFi signals disclosed in Person-in-WiFi: Fine-grained Person Perception using WiFi/1904.00276 and Jiaqi Geng, Dong Huang, Fernando De laTorre 2022. DensePose From WiFi/2301.00250v1 can be used.

도 4 내지 도 6은 상기 논문에 개시된 와이파이 신호를 이용한 위치 추적 기술의 설명도로서, 도 4는 와이파이 위치 추적 기술을 이용하여 사람을 인식한 예시이며, 도 5는 와이파이 전파신호의 범위를 나타낸 것이고, 도 6은 상기 논문에 개시된 와이파이 센싱의 원리를 나타낸 것이다.Figures 4 to 6 are explanatory diagrams of the location tracking technology using the Wi-Fi signal disclosed in the above paper. Figure 4 is an example of recognizing a person using the Wi-Fi location tracking technology, and Figure 5 shows the range of the Wi-Fi radio signal. , Figure 6 shows the principle of Wi-Fi sensing disclosed in the above paper.

이러한 와이파이 위치 추적 기술을 이용하여 제1 및 제2 CSI 데이터(CSI 진폭 및 위상 데이터)를 처리하여 사용자의 모션, 제스처, 거리 및 위치를 학습 데이터인 모션 데이터로 추출하고, 입력 펜(200)을 통해 입력된 화면의 터치 위치 정보를 학습 데이터로 추출한 후, CNN과 같은 기계학습 알고리즘을 이용하여 모션 데이터 및 터치 위치 학습 데이터를 학습하여 모션 데이터를 보정한다. 즉, 추정한 학습용 모션 데이터를 실측 데이터를 입력 펜 터치 위치 정보로 보정하여 모션 데이터의 정확성을 높인다. 궁극적으로 학습은 모션 데이터의 위치와 입력 펜 터치 위치 정보의 위치를 비교하여, 그 차이를 보정하는 방법으로 구현될 수 있다. 차이 보정은 실측 데이터의 위치 정보를 기초로 추적 데이터인 모션 데이터의 위치를 보정하는 방법으로서, 위치 차이만큼 모션 데이터의 위치를 보정하는 방법을 이용할 수 있다.Using this Wi-Fi location tracking technology, the first and second CSI data (CSI amplitude and phase data) are processed to extract the user's motion, gesture, distance, and location as motion data, which is learning data, and the input pen 200 After extracting the input screen touch location information as learning data, the motion data is corrected by learning the motion data and touch location learning data using a machine learning algorithm such as CNN. In other words, the accuracy of the motion data is improved by correcting the estimated learning motion data with the actual measurement data and the input pen touch position information. Ultimately, learning can be implemented by comparing the location of motion data and the location of input pen touch location information and correcting the difference. Difference correction is a method of correcting the position of motion data, which is tracking data, based on the position information of actual measurement data. A method of correcting the position of the motion data by the position difference can be used.

여기서 학습은 주변환경이 학습되지 않은 상황에서도 수행하나, 위치 추적을 하는 도중에 위치 인식에 오류가 발생하는 경우에도 사용자의 입력 펜을 이용한 화면 터치를 통해 수행할 수도 있다. 사용자의 입력 펜을 이용한 화면 터치를 통해 학습을 수행하기 위해서, 화면의 소정 위치에 학습 아이콘을 표출해주고, 사용자가 입력 펜을 이용하여 이를 터치하는 방식으로 구현할 수 있다.Here, learning is performed even in situations where the surrounding environment has not been learned, but even if an error occurs in location recognition during location tracking, it can also be performed by touching the screen using the user's input pen. In order to perform learning by touching the screen using the user's input pen, a learning icon can be displayed at a predetermined location on the screen and the user touches it using the input pen.

이러한 과정을 통해 주변 환경에 대하여 학습이 완료되면, 물체 인식부(303)는 위치 추적 모드로 전환을 하고, 영상 표시부(304)에 위치 추적 모드를 표시한다(S104 - S105).When learning about the surrounding environment is completed through this process, the object recognition unit 303 switches to the location tracking mode and displays the location tracking mode on the image display unit 304 (S104 - S105).

여기서 영상 표시부(304)에 위치 추적 모드의 표시가 되면, 사용자는 입력 펜(200)을 이용하여 위치 추적 모드의 종류를 선택할 수 있다. 즉, 위치 추적 모드를 전체 참여모드로 선택하거나 발표자 모드로 선택할 수 있다. 여기서 위치 추적 모드는 기본적으로 발표자 모드로 설정된다.Here, when the location tracking mode is displayed on the image display unit 304, the user can select the type of location tracking mode using the input pen 200. In other words, the location tracking mode can be selected as full participation mode or presenter mode. Here, the location tracking mode is set to presenter mode by default.

사용자가 전체 참여모드를 선택하지 않은 상태이면, 설정된 발표자 모드를 기초로 상기 와이파이 위치 추적 기술을 이용하여 발표자의 움직임 및 모션을 인식하고(S107), 위치 추적 모드가 전체 참여모드이면 상기 와이파이 위치 추적 기술을 이용하여 스마트 인터랙티브 화이트보드 주변의 모든 움직임 및 모션을 인식한다(S108).If the user has not selected the full participation mode, the presenter's movements and motions are recognized using the Wi-Fi location tracking technology based on the set presenter mode (S107), and if the location tracking mode is the full participation mode, the Wi-Fi location tracking is performed. Using technology, all movements and motions around the smart interactive whiteboard are recognized (S108).

도 9a는 및 도 9b는 위치 추적 모드가 전체 참여모드일 경우, 전체 참여자의 위치를 추적하는 예시이다.9A and 9B are examples of tracking the locations of all participants when the location tracking mode is the all participation mode.

위치 추적 모드가 발표자 모드이면 발표자의 움직임 및 모션을 인식하고, 전체 참여모드이면 참여자 전체의 움직임 및 모션을 인식한 후, 인식한 움직임 및 모션 정보를 기초로 화면의 콘텐츠를 자동으로 변경한다(S109).If the location tracking mode is the presenter mode, the presenter's movements and motions are recognized. If the location tracking mode is the full participation mode, the movements and motions of all participants are recognized, and then the screen content is automatically changed based on the recognized movement and motion information (S109 ).

여기서 전체 참여모드일 경우, 여러 위치에서 다수의 참여자가 비슷한 시각에 제스처를 취할 수 있는 경우가 있는 데, 이 경우에는 참여자의 움직임 순서를 기초로 움직임 및 모션을 인식하는 것으로 가정한다.Here, in the case of full participation mode, there are cases where multiple participants in various locations may make gestures at similar times. In this case, it is assumed that movement and motion are recognized based on the movement order of the participants.

여기서 사용자의 움직임 및 모션을 정확하게 인식하면 이를 응용하여 내부의 침입 여부를 감지하거나 스마트 인터랙티브 화이트보드의 전원을 자동으로 제어하는 등의 추가 기능 수행도 가능하다.Here, if the user's movements and motions are accurately recognized, additional functions can be performed, such as detecting internal intrusions or automatically controlling the power of the smart interactive whiteboard.

다음으로, 상기와 같이 움직임 및 모션을 인식하면, 이를 기초로 화면의 콘텐츠를 자동으로 변경한다.Next, when movement and motion are recognized as described above, the content on the screen is automatically changed based on this.

화면의 콘텐츠 변경은 발표자가 입력 펜(200)을 이용하여 화면의 특정 위치에 콘텐츠 입력을 마치고 뒤돌아 서면(모선 인식으로 감지), 와이파이 위치 추적 기술을 이용하여 발표자의 위치를 인식하고, 발표자의 위치 인식에 따라 화면에 표출되는 콘텐츠가 발표자에 가려지지 않는 위치로 자동으로 이동시켜 콘텐츠를 표출하도록 영상 표시부(304)를 제어한다. 즉, 콘텐츠 데이터를 영상 표시부(304)에 전달할 때 영상 디스플레이 위치 데이터(좌표 데이터)를 함께 제공하는 방식으로, 간단하게 콘텐츠 표출 위치를 결정할 수 있다.The content on the screen can be changed when the presenter finishes inputting content at a specific location on the screen using the input pen 200 and turns around (detected by mothership recognition). The presenter's location is recognized using Wi-Fi location tracking technology, and the presenter's location is recognized. Based on recognition, the video display unit 304 is controlled to automatically move the content displayed on the screen to a location where it is not obscured by the presenter and display the content. In other words, when transmitting content data to the video display unit 304, video display position data (coordinate data) is also provided, so that the content display location can be easily determined.

이러한 위치 데이터는 실시간으로 발표자의 위치 및 제스처를 지속적으로 추적하고, 추적된 발표 위치 정보를 기초로 콘텐츠의 표출 위치를 자동으로 이동시켜 발표자에 의해 콘텐츠가 가려져 참여자가 콘텐츠를 볼 수 없는 문제를 해결한다.This location data continuously tracks the presenter's location and gestures in real time, and automatically moves the display location of the content based on the tracked presentation location information, solving the problem of participants not being able to see the content because the content is obscured by the presenter. do.

도 8a는 발표자의 위치를 기초로 콘텐츠를 화면의 상부에 표출하여 콘텐츠가 발표자에 의해 가려지는 것을 방지한 예시이며, 도 8b는 발표자의 위치를 기초로 콘텐츠를 화면의 좌측(참여자가 바라보는 시각을 기준으로)에 표출하여 콘텐츠가 발표자에 의해 가려지는 것을 방지한 예시이며, 도 8c 및 도 8d는 발표자의 위치를 기초로 콘텐츠를 발표자를 중심으로 좌측 및 우측으로 분할하여 표출함으로써, 콘텐츠가 발표자에 의해 가려지는 것을 방지한 예시이다.Figure 8a is an example of preventing the content from being obscured by the presenter by displaying the content at the top of the screen based on the presenter's position, and Figure 8b shows the content on the left side of the screen (the participant's viewing angle) based on the presenter's position. This is an example of preventing the content from being obscured by the presenter by displaying the content on the basis of the presenter. Figures 8c and 8d show the content divided into left and right with the presenter at the center based on the presenter's position, so that the content is displayed in the presenter. This is an example of preventing being obscured by .

여기서 콘텐츠 표출 위치의 우선순위는 미리 설정된 것으로 가정하며, 콘텐츠가 복수일 경우에는 전체 콘텐츠를 동시에 이동시키는 방식으로 화면 내용을 변경할 수 있다.Here, the priority of the content display position is assumed to be set in advance, and if there is multiple content, the screen content can be changed by moving all content at the same time.

발표자가 콘텐츠 입력을 마치가 발표를 하는 도중에 와이파이 위치 추적 기술을 이용하여 발표자가 화면에 접근하는 것으로 판단이 되면, 발표자의 위치를 인식하고 마지막으로 표출한 콘텐츠를 발표자의 위치로 자동 이동시킨다. 이는 발표자가 마지막으로 작성한 콘텐츠를 변경할 확률이 가장 높으므로 콘텐츠를 발표자의 위치로 자동 이동시켜 발표자가 내용 변경을 편리하게 하도록 한다. 발표자는 새로운 콘텐츠를 작성하고자 하면 제스처를 통해 현재 콘텐츠를 다른 곳으로 이동하도록 하는 명령을 할 수 있다. 이러한 명령의 제스처가 발생하면 물체 인식부(303)는 와이파이 위치 추적 기술을 이용하여 발표자의 제스처를 인식하고, 제스처 인식이 이루어지면 영상 표시부(304)를 제어하여 콘텐츠를 다른 곳으로 이동하여 표출하도록 제어한다. 따라서 사용자는 화면의 빈 공간에 편리하게 새로운 콘텐츠를 작성하면 된다.If it is determined that the presenter is approaching the screen using Wi-Fi location tracking technology while the presenter is inputting content while presenting, the presenter's location is recognized and the last expressed content is automatically moved to the presenter's location. This is because the presenter is most likely to change the content he last wrote, so the content is automatically moved to the presenter's location so that the presenter can conveniently change the content. When a presenter wants to create new content, he or she can use a gesture to command the current content to move to another location. When such a command gesture occurs, the object recognition unit 303 recognizes the presenter's gesture using Wi-Fi location tracking technology, and when gesture recognition occurs, it controls the video display unit 304 to move the content to another location and display it. Control. Therefore, users can conveniently create new content in the empty space on the screen.

여기서 제스처에 따른 모션 인식을 통해 작성된 콘텐츠를 삭제하거나, 이동시키거나 이전 화면을 불러오거나 다음 화면으로 전환하도록 하는 것도 가능하다. 전체 참여모드에서는 모션 인식을 통해 참여자의 모션을 인식하여, 화면 변경이나 콘텐츠 위치 이동 등이 가능하다.Here, through motion recognition based on gestures, it is possible to delete or move the created content, recall the previous screen, or switch to the next screen. In full participation mode, the motion of the participant is recognized through motion recognition, making it possible to change the screen or move the content location.

필요에 따라 콘텐츠 입력에 필요한 다양한 편집(입력)도구들이 발표자의 위치를 추종할 수 있도록 하여, 사용자가 스마트 인터랙티브 화이트보드의 크기가 매우 큰 환경에서도 다양한 편집 도구를 편리하게 사용할 수 있게 되는 것이다.As needed, various editing (input) tools required for content input can follow the presenter's position, allowing users to conveniently use various editing tools even in an environment where the smart interactive whiteboard is very large.

이상 상술한 본 발명에 따르면 와이파이 전파신호를 이용한 위치 추적 기술과 펜의 입력을 이용하여 주변환경을 학습하고, 학습 데이터를 기반으로 발표자와 참여자의 위치 및 제스처를 인식하여 인터랙티브 화이트보드의 내용을 자동으로 변화시킴으로써, 넓은 장소에서도 정확하게 위치 및 제스처를 인식할 수 있다.According to the present invention described above, the surrounding environment is learned using location tracking technology using Wi-Fi radio signals and pen input, and the contents of the interactive whiteboard are automatically updated by recognizing the positions and gestures of the presenter and participants based on the learning data. By changing it to , you can accurately recognize the location and gesture even in a large place.

또한, 와이파이 전파신호를 이용한 위치추적 기술을 활용함으로써, 카메라를 이용할 경우 조도에 영향을 받아 위치 추적에 어려움이 있거나, 마이크를 이용할 경우 장소가 넓거나 주변 소음이 많을 경우 정확한 위치 추적이 어렵다는 문제를 개선함과 동시에 스마트 인터랙티브 화이트보드를 저가로 구현할 수 있다.In addition, by utilizing location tracking technology using Wi-Fi radio signals, it is difficult to track location due to the influence of illumination when using a camera, or when using a microphone, it is difficult to accurately track location when the place is large or there is a lot of surrounding noise. While making improvements, a smart interactive whiteboard can be implemented at low cost.

이상 본 발명자에 의해서 이루어진 발명을 상기 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시 예에 한정되는 것은 아니고 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 이 기술분야에서 통상의 지식을 가진 자에게 자명하다.Although the invention made by the present inventor has been described in detail according to the above embodiments, the present invention is not limited to the above embodiments, and various changes can be made without departing from the gist of the invention, as is known in the art. It is self-evident to those who have it.

100: 와이파이 송수신기
200: 입력 펜
300: 스마트 인터랙티브 화이트보드
301: 와이파이 송수신부
302: 터치 처리부
303: 물체 인식부
304: 영상 표시부
100: WiFi transceiver
200: input pen
300: Smart interactive whiteboard
301: WiFi transceiver
302: Touch processing unit
303: Object recognition unit
304: Video display unit

Claims (11)

스마트 인터랙티브 화이트보드를 마주보고 있는 참여자의 후방에서 와이파이 신호를 제1송신신호로 송신하고, 참여자의 전방에서 송신된 와이파이 신호를 제1수신신호로 수신하는 와이파이 송수신기;
화면 터치를 통해 데이터를 입력하거나 특정 콘텐츠를 선택하기 위한 입력 펜; 및
상기 참여자의 전방으로 와이파이 신호를 제2송신신호로 송신하고, 상기 와이파이 송수신기를 통해 송신된 와이파이 신호를 제2수신신호로 수신하며, 상기 제1 및 제2 수신신호와 상기 입력 펜을 통해 입력된 위치 정보를 기초로 주변환경을 학습하며, 학습 결과를 기초로 참여자와 발표자의 위치 및 제스처를 인식하고, 인식한 위치 및 제스처에 대응하여 화면 내용을 변경하는 스마트 인터랙티브 화이트보드를 포함하고,
상기 스마트 인터랙티브 화이트보드는,
상기 참여자의 전방으로 와이파이 신호를 제2송신신호로 송신하고, 상기 와이파이 송수신기를 통해 송신된 와이파이 신호를 제2수신신호로 수신하는 와이파이 송수신부; 상기 입력 펜의 터치시 화면에서 해당 터치 부분의 위치 및 입력 정보를 인식하는 터치 처리부; 펜 입력 모드에서 상기 와이파이 송수신부에서 수신한 제2수신신호와 상기 와이파이 송수신기를 통해 수신한 제1수신신호 및 터치 처리부에서 인식한 위치 정보를 기초로 학습을 통해 학습용 모션 데이터를 보정하며, 위치추적 모드에서 상기 제1수신신호와 제2수신신호를 기초로 모션을 인식하고, 모션 인식 정보를 출력하는 물체 인식부; 및 상기 물체 인식부에서 출력되는 모선 인식 정보에 따라 화면의 내용을 변경하는 영상 표시부를 포함하는 것을 특징으로 하는 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치.
A Wi-Fi transceiver that transmits a Wi-Fi signal as a first transmission signal from behind the participant facing the smart interactive whiteboard and receives a Wi-Fi signal transmitted from the front of the participant as a first reception signal;
Input pen for entering data or selecting specific content by touching the screen; and
Transmit a Wi-Fi signal in front of the participant as a second transmission signal, receive the Wi-Fi signal transmitted through the Wi-Fi transceiver as a second reception signal, and receive the first and second reception signals and the input through the input pen. It includes a smart interactive whiteboard that learns the surrounding environment based on location information, recognizes the locations and gestures of participants and presenters based on the learning results, and changes screen content in response to the recognized locations and gestures.
The smart interactive whiteboard is,
a Wi-Fi transceiver that transmits a Wi-Fi signal as a second transmission signal in front of the participant and receives the Wi-Fi signal transmitted through the Wi-Fi transceiver as a second reception signal; a touch processing unit that recognizes the location and input information of the corresponding touched portion on the screen when the input pen touches the screen; In the pen input mode, motion data for learning is corrected through learning based on the second reception signal received from the Wi-Fi transceiver, the first reception signal received through the Wi-Fi transceiver, and the location information recognized by the touch processing unit, and location tracking is performed. an object recognition unit that recognizes motion based on the first and second reception signals in the mode and outputs motion recognition information; And a smart interactive whiteboard device using Wi-Fi location tracking technology, comprising an image display unit that changes the contents of the screen according to the busbar recognition information output from the object recognition unit.
삭제delete 청구항 1에서, 상기 물체 인식부는 상기 터치 처리부에서 인식한 위치 정보를 실측 데이터로 하여, 상기 제2수신신호와 제1수신신호를 통해 인식한 모선 데이터를 보정하는 방식으로 주변 환경에 대하여 학습하는 것을 특징으로 하는 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치.
In claim 1, the object recognition unit learns about the surrounding environment by using the location information recognized by the touch processing unit as actual measurement data and correcting the bus data recognized through the second reception signal and the first reception signal. A smart interactive whiteboard device using Wi-Fi location tracking technology.
청구항 1에서, 상기 물체 인식부는 상기 제1수신신호를 통해 인식한 모션 정보와 상기 제2수신신호를 통해 인식한 모션 정보를 조합하여 추적자의 모션을 인식하는 것을 특징으로 하는 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치.
In claim 1, the object recognition unit combines motion information recognized through the first received signal and motion information recognized through the second received signal to recognize the tracker's motion. Wi-Fi location tracking technology. Smart interactive whiteboard device using.
청구항 1에서, 상기 물체 인식부는 위치 추적 모드를 발표자 모드와 전체 참여모드로 제어하되, 발표자 모드일 경우에는 발표자만 추적을 하고, 전체 참여모드일 경우에는 발표자와 스마트 인터랙티브 화이트보드 주변의 모든 참여자의 모션을 추적하는 것을 특징으로 하는 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치.
In claim 1, the object recognition unit controls the location tracking mode into a presenter mode and a full participation mode. In the presenter mode, only the presenter is tracked, and in the full participation mode, the location tracking mode tracks the presenter and all participants around the smart interactive whiteboard. A smart interactive whiteboard device using Wi-Fi location tracking technology that tracks motion.
청구항 1에서, 상기 물체 인식부는 모션 인식 정보를 기초로 발표자의 위치를 인식하고, 발표자가 입력한 콘텐츠를 발표자에 의해 가려지는 화면 위치를 제외한 다른 화면 위치에 디스플레이하도록 상기 영상 표시부를 제어하는 것을 특징으로 하는 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치.
In claim 1, the object recognition unit recognizes the presenter's location based on motion recognition information and controls the video display unit to display content input by the presenter at a screen location other than the screen location obscured by the presenter. A smart interactive whiteboard device using Wi-Fi location tracking technology.
청구항 1에서, 상기 물체 인식부는 모션 인식 정보를 기초로 발표자가 화면에 접근하는 경우, 가장 나중에 디스플레이한 콘텐츠를 발표자의 근접 위치로 이동시켜 디스플레이하도록 상기 영상 표시부를 제어하는 것을 특징으로 하는 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치.
In claim 1, when the presenter approaches the screen based on motion recognition information, the object recognition unit controls the video display unit to move the content displayed last to a position adjacent to the presenter and display it. Smart interactive whiteboard device using location tracking technology.
청구항 1, 청구항 3 내지 청구항 7중 어느 하나의 청구항에 기재된 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치를 이용하여 스마트 인터랙티브 화이트보드를 제어하는 방법으로서,
(a) 물체 인식부에서 주변 환경의 학습 유무를 확인하여, 주변 환경이 학습되지 않았으면 펜 입력모드로 전환하고, 수신한 제1 및 제2 수신신호와 터치 처리부에서 인식한 위치 정보를 기초로 학습을 통해 모션 데이터를 보정하는 단계;
(b) 상기 (a)단계의 학습 유무를 확인한 결과, 주변 환경이 학습된 상태이면 위치 추적 모드로 전환을 하고, 영상 표시부에 위치 추적 모드임을 표시해주는 단계;
(c) 상기 위치 추적 모드로 전환되면 위치 추적 모드가 전체 참여모드인지를 확인하여 전체 참여 모드이면 스마트 인터랙티브 화이트보드 주변의 모든 움직임 및 모션을 인식하고, 전체 참여 모드가 아니면 발표자의 움직임 및 모션을 인식하는 단계; 및
(d) 상기 (c)단계에서 인식한 움직임 및 모션 정보를 기초로 화면의 콘텐츠를 변경하는 단계를 포함하는 것을 특징으로 하는 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치 제어방법.
A method of controlling a smart interactive whiteboard using a smart interactive whiteboard device using Wi-Fi location tracking technology according to any one of claims 1, 3 to 7, comprising:
(a) The object recognition unit checks whether the surrounding environment has been learned, and if the surrounding environment has not been learned, switches to pen input mode, based on the received first and second reception signals and the location information recognized by the touch processing unit. Compensating motion data through learning;
(b) as a result of checking the learning in step (a), if the surrounding environment is in a learned state, switching to the location tracking mode and displaying the location tracking mode on the video display;
(c) When the location tracking mode is switched to the above, it is checked whether the location tracking mode is a full participation mode. If it is a full participation mode, all movements and motions around the smart interactive whiteboard are recognized, and if it is not a full participation mode, the presenter's movements and motions are recognized. Recognizing step; and
(d) A smart interactive whiteboard device control method using Wi-Fi location tracking technology, comprising the step of changing screen content based on the movement and motion information recognized in step (c).
청구항 8에서, 상기 (a)단계는,
상기 제1 및 제2 수신신호를 통해 인식한 모션 정보와 상기 터치 처리부를 통해 인식한 위치 정보의 비교를 통해, 모션 데이터를 보정하는 것을 특징으로 하는 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치 제어방법.
In claim 8, step (a) includes,
A smart interactive whiteboard using Wi-Fi location tracking technology, characterized in that motion data is corrected by comparing motion information recognized through the first and second received signals with location information recognized through the touch processing unit. Device control method.
청구항 8에서, 상기 (d)단계는,
상기 물체 인식부에서 출력되는 모션 인식 정보를 기초로 발표자의 위치를 인식하고, 발표자가 입력한 콘텐츠를 발표자에 의해 가려지는 화면 위치를 제외한 다른 화면 위치에 디스플레이하는 것을 특징으로 하는 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치 제어방법.
In claim 8, step (d) is,
Wi-Fi location tracking, characterized in that it recognizes the presenter's location based on the motion recognition information output from the object recognition unit and displays the content entered by the presenter at a screen location other than the screen location obscured by the presenter. Smart interactive whiteboard device control method using technology.
청구항 8에서, 상기 (d)단계는,
상기 물체 인식부에서 출력되는 모션 인식 정보를 기초로 발표자가 화면에 접근하는 경우, 가장 나중에 디스플레이한 콘텐츠를 발표자의 근접 위치로 이동시켜 디스플레이하는 것을 특징으로 하는 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드장치 제어방법.
In claim 8, step (d) is,
Smart interactive using Wi-Fi location tracking technology, characterized in that when the presenter approaches the screen based on the motion recognition information output from the object recognition unit, the content displayed last is moved to a location close to the presenter and displayed. How to control a whiteboard device.
KR1020230057791A 2023-05-03 2023-05-03 Smart interactive white board apparatus using Wi-Fi location tracking technology and its control method KR102590257B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230057791A KR102590257B1 (en) 2023-05-03 2023-05-03 Smart interactive white board apparatus using Wi-Fi location tracking technology and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230057791A KR102590257B1 (en) 2023-05-03 2023-05-03 Smart interactive white board apparatus using Wi-Fi location tracking technology and its control method

Publications (1)

Publication Number Publication Date
KR102590257B1 true KR102590257B1 (en) 2023-10-19

Family

ID=88507690

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230057791A KR102590257B1 (en) 2023-05-03 2023-05-03 Smart interactive white board apparatus using Wi-Fi location tracking technology and its control method

Country Status (1)

Country Link
KR (1) KR102590257B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102682079B1 (en) * 2024-04-30 2024-07-08 탐투스 주식회사 Interactive whiteboard that controls power using PIC and its control method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110025674A (en) 2008-05-30 2011-03-10 소니 컴퓨터 엔터테인먼트 아메리카 엘엘씨 Determination of controller three-dimensional location using image analysis and ultrasonic communication
KR101282370B1 (en) * 2012-11-09 2013-07-04 (주)컴버스테크 Interactive touch board using motion sensing, system and method for processing motion using interactive touch board
KR20160047483A (en) * 2013-08-28 2016-05-02 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Manipulation of content on a surface
KR20170059486A (en) 2009-12-17 2017-05-30 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Camera navigation for presentations
KR20180062137A (en) * 2016-11-30 2018-06-08 (주)코어센스 Method for position estimation of hybird motion capture system
KR102031739B1 (en) 2019-06-27 2019-10-14 보은전자방송통신(주) Interactive whiteboard supporting real-time internet broadcasting by constructing a lecture screen according to the class progress mode separately from the display screen
KR20230039965A (en) * 2021-09-15 2023-03-22 한국항공대학교산학협력단 System and method for recognizing CNN-based human behavior using Wi-Fi signals

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110025674A (en) 2008-05-30 2011-03-10 소니 컴퓨터 엔터테인먼트 아메리카 엘엘씨 Determination of controller three-dimensional location using image analysis and ultrasonic communication
KR20170059486A (en) 2009-12-17 2017-05-30 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Camera navigation for presentations
KR101282370B1 (en) * 2012-11-09 2013-07-04 (주)컴버스테크 Interactive touch board using motion sensing, system and method for processing motion using interactive touch board
KR20160047483A (en) * 2013-08-28 2016-05-02 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Manipulation of content on a surface
KR20180062137A (en) * 2016-11-30 2018-06-08 (주)코어센스 Method for position estimation of hybird motion capture system
KR102031739B1 (en) 2019-06-27 2019-10-14 보은전자방송통신(주) Interactive whiteboard supporting real-time internet broadcasting by constructing a lecture screen according to the class progress mode separately from the display screen
KR20230039965A (en) * 2021-09-15 2023-03-22 한국항공대학교산학협력단 System and method for recognizing CNN-based human behavior using Wi-Fi signals

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102682079B1 (en) * 2024-04-30 2024-07-08 탐투스 주식회사 Interactive whiteboard that controls power using PIC and its control method

Similar Documents

Publication Publication Date Title
US9986206B2 (en) User experience for conferencing with a touch screen display
US9118804B2 (en) Electronic device and server, and methods of controlling the electronic device and server
EP3047356B1 (en) Configuration of a touch screen display for conferencing
CN110134321B (en) Method and apparatus for transmitting data, and method and apparatus for receiving data
US10101874B2 (en) Apparatus and method for controlling user interface to select object within image and image input device
KR101858604B1 (en) Mobile terminal and control method thereof
KR101851630B1 (en) Mobile terminal and image converting method thereof
US10545623B2 (en) Information processing device and information processing method to coordinate with a plurality of information processing devices
EP2798445B1 (en) Electronic device and method of controlling the same
US20130082976A1 (en) Pen system and method for performing input operations to mobile device via the same
KR101732076B1 (en) Electronic device and control method for electronic device
KR20150007159A (en) Electronic device and control method thereof
KR20110066901A (en) User interface device, user interface method, and recording medium
KR102590257B1 (en) Smart interactive white board apparatus using Wi-Fi location tracking technology and its control method
KR20140103634A (en) Mobile terminal and method for controlling of the same
US20190312917A1 (en) Resource collaboration with co-presence indicators
CN105094645A (en) Information processing method and electronic equipment
KR101549461B1 (en) Electronic Device And Method Of Performing Function Using Same
KR101676800B1 (en) Mobile terminal and image processing method for mobile terminal
KR101779000B1 (en) Mobile terminal and control method therof
KR101779504B1 (en) Mobile terminal and control method for mobile terminal
KR101642809B1 (en) Mobile terminal and control method for mobile terminal
US20230388445A1 (en) Non-mirrored preview of text based demonstration object in mirrored mobile webcam image
US20230388451A1 (en) Segmented video preview controls by remote participants in a video communication session
US20230409271A1 (en) Function based selective segmented video feed from a transmitting device to different participants on a video communication session

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant