[go: nahoru, domu]

KR20240121342A - Systems and methods for augmented reality - Google Patents

Systems and methods for augmented reality Download PDF

Info

Publication number
KR20240121342A
KR20240121342A KR1020247025189A KR20247025189A KR20240121342A KR 20240121342 A KR20240121342 A KR 20240121342A KR 1020247025189 A KR1020247025189 A KR 1020247025189A KR 20247025189 A KR20247025189 A KR 20247025189A KR 20240121342 A KR20240121342 A KR 20240121342A
Authority
KR
South Korea
Prior art keywords
head
pose
component
coordinate frame
mounted component
Prior art date
Application number
KR1020247025189A
Other languages
Korean (ko)
Inventor
폴 그레코
Original Assignee
매직 립, 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 매직 립, 인코포레이티드 filed Critical 매직 립, 인코포레이티드
Publication of KR20240121342A publication Critical patent/KR20240121342A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0308Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

바람직하게는 증강 또는 혼합 현실 환경에서 복수의 감지 컴포넌트들을 동작시키는 사용자를 로컬화하는 방법이 개시되며, 방법은, 고정된 제어 및 프로세싱 모듈로부터 포즈 데이터를 송신하는 단계 및 포즈 데이터를 제1 감지 컴포넌트에서 수신하는 단계를 포함하며, 그런 다음, 포즈 데이터는 제어 및 프로세싱 모듈에 기반하여 좌표 프레임에서의 제1 컴포넌트 상대적 포즈로 변환된다. 제1 감지 컴포넌트와 통신하는 디스플레이 유닛은 개선된 환경 인식으로 가상 콘텐츠를 렌더링하기 위해, 변환된 제1 컴포넌트 상대적 포즈로 업데이트된다.A method for localizing a user operating a plurality of sensing components in an augmented or mixed reality environment is disclosed, the method comprising the steps of transmitting pose data from a fixed control and processing module and receiving the pose data at a first sensing component, wherein the pose data is then transformed into a first component relative pose in a coordinate frame based on the control and processing module. A display unit in communication with the first sensing component is updated with the transformed first component relative pose to render virtual content with improved environmental awareness.

Description

증강 현실을 위한 시스템들 및 방법들{SYSTEMS AND METHODS FOR AUGMENTED REALITY}SYSTEMS AND METHODS FOR AUGMENTED REALITY

[0001] 본 출원은 2018년 2월 6일자로 출원된 미국 가특허 출원 시리얼 번호 제62/627155호를 우선권으로 주장하고 그 권익을 주장하며, 이 미국 가특허 출원의 내용들은 이로써 인용에 의해 그 전체가 본원에 포함된다.[0001] This application claims the benefit of and the benefit of U.S. Provisional Patent Application Serial No. 62/627155, filed February 6, 2018, the contents of which are hereby incorporated by reference in their entirety.

[0002] 본 개시내용은 증강 현실 시스템들의 콘텍스트에서 하나 이상의 오브젝트들의 포지션 및 배향을 로컬화(localize)하기 위한 시스템들 및 방법들에 관한 것이다.[0002] The present disclosure relates to systems and methods for localizing the position and orientation of one or more objects in the context of augmented reality systems.

[0003] 현대 컴퓨팅 및 디스플레이 기술들은 이른바 "가상 현실" 또는 "증강 현실" 경험들을 위한 시스템들의 개발을 가능하게 하였고, 디지털 방식으로 재생되는 이미지들 또는 그 이미지들의 부분들은, 그들이 실제인 것으로 보이거나 실제로서 지각될 수 있는 방식으로 사용자에게 제시된다. 가상 현실 또는 "VR" 시나리오는 전형적으로, 다른 실제 실세계 시각 입력에 대한 투명도(transparency) 없는 디지털 또는 가상 이미지 정보의 프리젠테이션(presentation)을 수반하고; 증강 현실 또는 "AR" 시나리오는 전형적으로, 사용자 주위 실제 세계의 시각화에 대한 증강으로서 디지털 또는 가상 이미지 정보의 프리젠테이션을 수반한다.[0003] Modern computing and display technologies have enabled the development of systems for so-called "virtual reality" or "augmented reality" experiences, in which digitally reproduced images or portions of images are presented to a user in a manner that makes them appear or can be perceived as real. Virtual reality or "VR" scenarios typically involve the presentation of digital or virtual image information without transparency to other actual real-world visual inputs; augmented reality or "AR" scenarios typically involve the presentation of digital or virtual image information as an augmentation to a visualization of the real world around the user.

[0004] 예컨대, 도 1을 참조하면, AR 기술의 사용자가, 배경의 사람들, 나무들, 빌딩들, 및 콘크리트 플랫폼(1120)을 특징으로 하는 실세계 공원형 장소(6)를 보는 증강 현실 장면(4)이 묘사된다. 이러한 아이템들 외에도, AR 기술의 사용자는 또한, 자신이 실세계 플랫폼(1120) 위에 서 있는 로봇 동상(1110), 및 호박벌의 의인화인 것처럼 보이는 날고 있는 만화형 아바타 캐릭터(2)를 "보는" 것으로 지각하지만, 이러한 엘리먼트들(2, 1110)은 실세계에서 존재하지 않는다. 밝혀진 바와 같이, 인간의 시지각 시스템은 매우 복잡하고, 다른 가상 또는 실세계 이미저리 엘리먼트들 사이에서 가상 이미지 엘리먼트들의 편안하고 자연스러운 느낌의 풍부한 프리젠테이션을 가능하게 하는 VR 또는 AR 기술을 생성하는 것은 난제이다.[0004] For example, referring to FIG. 1, an augmented reality scene (4) is depicted in which a user of AR technology sees a real-world park-like location (6) featuring people, trees, buildings, and a concrete platform (1120) in the background. In addition to these items, the user of AR technology also perceives that he or she "sees" a robot statue (1110) standing on the real-world platform (1120), and a flying cartoon avatar character (2) that appears to be an anthropomorphic bumblebee, but these elements (2, 1110) do not exist in the real world. As it turns out, the human visual perception system is very complex, and creating VR or AR technology that allows for a rich, comfortable and natural-feeling presentation of virtual image elements among other virtual or real-world imagery elements is challenging.

[0005] 예컨대, 머리-착용 AR 디스플레이들(또는 헬멧-장착 디스플레이들, 또는 스마트 안경)은 전형적으로, 사용자의 머리에 적어도 느슨하게 커플링되며, 따라서 사용자의 머리가 움직일 때 움직인다. 사용자의 머리 모션들이 디스플레이 시스템에 의해 검출되면, 디스플레이되고 있는 데이터는 머리 포즈의 변화를 고려하여 업데이트될 수 있다.[0005] For example, head-worn AR displays (or helmet-mounted displays, or smart glasses) are typically at least loosely coupled to the user's head, and thus move as the user's head moves. When the user's head motions are detected by the display system, the data being displayed can be updated to account for changes in head pose.

[0006] 예로서, 머리-착용 디스플레이를 착용하고 있는 사용자가 디스플레이 상의 3D(three-dimensional) 오브젝트의 가상 표현을 보고, 3D 오브젝트가 나타나는 영역 주위를 걷는 경우, 그 3D 오브젝트가 각각의 뷰포인트에 대해 재-렌더링될 수 있어서, 사용자에게 자신이 실제 공간을 점유하는 오브젝트 주위를 걷고 있다는 지각을 제공할 수 있다. 머리­착용 디스플레이가 다수의 오브젝트들을 가상 공간(예컨대, 풍부한 가상 세계) 내에 제시하는 데 사용되는 경우, 머리 포즈(즉, 사용자의 머리의 위치 및 배향)의 측정들은, 사용자의 동적으로 변하는 머리 위치 및 배향을 매칭시키기 위해 장면을 재-렌더링하고 그리고 가상 공간에서 증가된 몰입감(sense of immersion)을 제공하는 데 사용될 수 있다.[0006] For example, when a user wearing a head-mounted display views a virtual representation of a three-dimensional (3D) object on the display and walks around an area in which the 3D object appears, the 3D object may be re-rendered for each viewpoint, thereby providing the user with the perception that he or she is walking around an object that occupies real space. When the head-mounted display is used to present multiple objects in a virtual space (e.g., a rich virtual world), measurements of head pose (i.e., the position and orientation of the user's head) may be used to re-render the scene to match the user's dynamically changing head position and orientation, thereby providing an increased sense of immersion in the virtual space.

[0007] AR 시스템들에서, 머리 포즈의 검출 또는 계산은, 사용자가 감지하게 하는 방식으로 가상 오브젝트들이 실세계의 공간을 점유하는 것처럼 나타나도록, 디스플레이 시스템이 그 가상 오브젝트들을 렌더링하는 것을 가능하게 할 수 있다. 게다가, 사용자의 머리 또는 AR 시스템과 관련하여, 핸드헬드 디바이스(handheld device)(핸드헬드 디바이스는 "토템(totem)"으로 또한 지칭될 수 있음), 햅틱 디바이스, 또는 다른 실제 물리적 오브젝트와 같은 실제 오브젝트의 포지션 및/또는 배향의 검출은 또한, 사용자가 AR 시스템의 특정 양상들과 효율적으로 상호작용할 수 있게 하기 위해 디스플레이 시스템이 디스플레이 정보를 사용자에게 제시하는 것을 가능하게 할 수 있다. 사용자의 머리가 실세계 주위에서 움직일 때, 가상 오브젝트들은 머리 포즈의 함수로써 재-렌더링될 수 있어서, 가상 오브젝트들은 실세계에 대해 안정적으로 유지되는 것처럼 나타난다. 적어도 AR 애플리케이션들에 대해, (예컨대, 2차원 또는 3차원으로 물리적 오브젝트에 공간적으로 근접한 것처럼 나타나도록 제시되는) 물리적 오브젝트들에 대한 공간 관계에서의 가상 오브젝트들의 배치는 중요한 문제일 수 있다. 예컨대, 머리 움직임은 주변 환경들의 뷰에서 가상 오브젝트들의 배치를 상당히 복잡하게 할 수 있다. 이는, 뷰가 주변 환경의 이미지로서 캡처되고, 그런 다음, 최종 사용자에 투사되든지 또는 디스플레이되든지 간에, 또는 최종 사용자가 주변 환경의 뷰를 직접적으로 지각하든지 간에 적용될 수 있다. 예컨대, 머리 움직임은 최종 사용자의 시야가 변하게 할 가능성이 있을 것이며, 이는 다양한 가상 오브젝트들이 최종 사용자의 시야에 디스플레이되는 위치에 대한 업데이트를 요구할 가능성이 있을 것이다.[0007] In AR systems, detection or calculation of head pose may enable the display system to render virtual objects so that they appear to occupy real-world space in a manner that is perceptible to the user. In addition, detection of the position and/or orientation of a real-world object, such as a handheld device (a handheld device may also be referred to as a "totem"), a haptic device, or other real-world physical object, relative to the user's head or the AR system may also enable the display system to present display information to the user so that the user can efficiently interact with certain aspects of the AR system. As the user's head moves around the real-world, the virtual objects may be re-rendered as a function of the head pose, so that the virtual objects appear to remain stable relative to the real world. At least for AR applications, the placement of virtual objects in spatial relationship to physical objects (e.g., presented so that they appear spatially close to the physical objects in two or three dimensions) may be an important issue. For example, head movement may significantly complicate the placement of virtual objects in a view of the surroundings. This may apply whether the view is captured as an image of the surroundings and then projected or displayed to the end user, or whether the end user directly perceives the view of the surroundings. For example, head movement may cause the end user's field of view to change, which may require updates to the positions where various virtual objects are displayed in the end user's field of view.

[0008] 추가적으로, 머리 움직임들은 매우 다양한 범위들 및 스피드들 내에서 발생할 수 있다. 머리 움직임 스피드는 상이한 머리 움직임들 사이에서 변할 수 있을 뿐만 아니라, 단일 머리 움직임의 범위 내에서 또는 그 단일 머리 움직임의 범위에 걸쳐 변할 수 있다. 예컨대, 머리 움직임 스피드는 초기에 시작 포인트로부터 (예컨대, 선형으로 또는 비선형으로) 증가할 수 있고, 종료 포인트에 도달됨에 따라 감소하여, 머리 움직임의 시작 포인트와 종료 포인트 사이의 어딘가에서 최대 스피드를 획득할 수 있다. 빠른 머리 움직임들은 심지어, 최종 사용자에게 균일하게 그리고/또는 부드러운 모션으로서 나타나는 이미지들을 렌더링하기 위한 특정 디스플레이 또는 투사 기술의 능력을 능가할 수 있다.[0008] Additionally, head movements can occur within a wide variety of ranges and speeds. Head movement speeds can vary not only between different head movements, but also within or across a range of a single head movement. For example, head movement speeds can initially increase (e.g., linearly or non-linearly) from a starting point and decrease as they reach an end point, achieving a maximum speed somewhere between the start and end points of the head movement. Rapid head movements can even exceed the ability of a particular display or projection technology to render images that appear to the end user as uniform and/or smooth motion.

[0009] 머리 추적 정확도 및 레이턴시(즉, 사용자가 자신의 머리를 움직이는 시간과, 이미지가 업데이트되고 사용자에게 디스플레이되는 시간 사이에 경과된 시간)는 VR 및 AR 시스템들에 대한 난제들이었다. 특히, 가상 엘리먼트들로 사용자의 시각적 필드(visual field)의 상당 부분을 채우는 디스플레이 시스템들의 경우, 머리-추적의 정확도가 높고 그리고 머리 모션의 최초 검출로부터 디스플레이에 의해 사용자의 시각적 시스템으로 전달되는 광의 업데이트까지 전체 시스템 레이턴시가 매우 낮다는 것은 매우 중요하다. 만약 레이턴시가 높다면, 시스템은 사용자의 전정계(vestibular system)와 시각적 감각계(visual sensory system) 사이의 미스매치를 생성할 수 있고, 멀미(motion sickness) 또는 시뮬레이터 질병(simulator sickness)을 초래할 수 있는 사용자 지각 시나리오를 생성할 수 있다. 만약 시스템 레이턴시가 높다면, 빠른 머리 모션들 동안 가상 오브젝트들의 명백한 위치는 불안정하게 나타날 것이다.[0009] Head tracking accuracy and latency (i.e., the time elapsed between the time a user moves his or her head and the time the image is updated and displayed to the user) have been challenges for VR and AR systems. In particular, for display systems that fill a significant portion of the user's visual field with virtual elements, it is critical that the head tracking accuracy be high and the overall system latency be very low from the initial detection of head motion to the update of the light delivered to the user's visual system by the display. If the latency is high, the system can create a mismatch between the user's vestibular system and the visual sensory system, creating a user perception scenario that can lead to motion sickness or simulator sickness. If the system latency is high, the apparent position of virtual objects will appear unstable during rapid head motions.

[00010] 머리-착용 디스플레이 시스템들 이외에도, 다른 디스플레이 시스템들이 정확하고 낮은 레이턴시의 머리 포즈 검출로부터 이익을 얻을 수 있다. 이들은, 디스플레이가 사용자의 신체에 착용되는 것이 아니라, 예컨대 벽 또는 다른 표면 상에 장착되는 머리-추적 디스플레이 시스템들을 포함한다. 머리-추적 디스플레이는 장면 상의 윈도우처럼 동작하고, 사용자가 "윈도우"에 대해 자신의 머리를 움직일 때, 장면은 사용자의 변화하는 뷰포인트에 매칭되도록 재-렌더링된다. 다른 시스템들은, 머리-착용 디스플레이가 실세계 상으로 광을 투사하는 머리-착용 투사 시스템을 포함한다.[00010] In addition to head-worn display systems, other display systems may benefit from accurate, low-latency head pose detection. These include head-tracked display systems, where the display is not worn on the user's body, but rather mounted on, for example, a wall or other surface. The head-tracked display acts as a window into the scene, and as the user moves his or her head relative to the "window," the scene is re-rendered to match the user's changing viewpoint. Other systems include head-worn projection systems, where the head-worn display projects light onto the real world.

[00011] 추가적으로, 현실적인 증강 현실 경험을 제공하기 위해, AR 시스템들은 사용자와 상호작용하도록 설계될 수 있다. 예컨대, 다수의 사용자들은 가상 공(ball) 및/또는 다른 가상 오브젝트들로 공 게임을 플레이할 수 있다. 한명의 사용자가 가상 공을 "잡을" 수 있고 그 공을 다시 다른 사용자에게 던질 수 있다. 다른 실시예에서, 제1 사용자에게 가상 공을 치기 위한 토템(예컨대, AR 시스템에 통신가능하게 커플링된 실제 배트)이 제공될 수 있다. 다른 실시예들에서, AR 사용자가 많은 옵션들 중 하나를 선택할 수 있게 하기 위해, 가상 사용자 인터페이스가 그 AR 사용자에게 제시될 수 있다. 사용자는 시스템과 상호작용하기 위해 토템들, 햅틱 디바이스들, 웨어러블 컴포넌트들을 사용할 수 있거나, 또는 단순히 가상 스크린을 터치할 수 있다.[00011] Additionally, to provide a realistic augmented reality experience, AR systems may be designed to interact with the user. For example, multiple users may play a ball game with a virtual ball and/or other virtual objects. One user may "catch" the virtual ball and throw the ball back to another user. In another embodiment, a totem (e.g., a real bat communicatively coupled to the AR system) may be provided to the first user to hit the virtual ball. In other embodiments, a virtual user interface may be presented to the AR user to allow the AR user to select one of many options. The user may use totems, haptic devices, wearable components, or simply touch the virtual screen to interact with the system.

[00012] 사용자의 머리 포즈 및 배향을 검출하는 것 및 공간에서의 실제 오브젝트들의 물리적 위치를 검출하는 것은 AR 시스템이 효과적이고 즐거운 방식으로 가상 콘텐츠를 디스플레이하게 할 수 있다. 그러나, 이러한 능력들은 AR 시스템의 핵심사항(key)이지만, 달성하기 어렵다. 다시 말해서, AR 시스템은 실제 오브젝트(예컨대, 사용자의 머리, 토템, 햅틱 디바이스, 웨어러블 컴포넌트, 사용자의 손 등)의 물리적 위치를 인식해야 하고, 실제 오브젝트의 물리적 좌표들을, 사용자에게 디스플레이되고 있는 하나 이상의 가상 오브젝트들에 대응하는 가상 좌표들에 상관시켜야 한다. 이는 하나 이상의 오브젝트들의 포지션 및 배향을 고속으로 추적하는 매우 정확한 센서들 및 센서 인식 시스템들을 요구한다. 현재의 접근법들은 만족스러운 스피드 또는 정밀도 표준들의 로컬화를 수행하지 않는다.[00012] Detecting the user's head pose and orientation and detecting the physical locations of real objects in space can enable AR systems to display virtual content in an effective and enjoyable manner. However, these capabilities are key to AR systems, but are difficult to achieve. In other words, the AR system must recognize the physical locations of real objects (e.g., the user's head, a totem, a haptic device, a wearable component, the user's hand, etc.) and correlate the physical coordinates of the real objects to virtual coordinates corresponding to one or more virtual objects being displayed to the user. This requires highly accurate sensors and sensor recognition systems that can track the positions and orientations of one or more objects at high speed. Current approaches do not perform localization to satisfactory speed or accuracy standards.

[00013] 따라서, AR 및 VR 디바이스들의 콘텍스트에서 더 양호한 로컬화 시스템들이 필요하다.[00013] Therefore, better localization systems are needed in the context of AR and VR devices.

[00014] 도면들은 본 발명의 다양한 실시예들의 설계 및 유용성을 예시한다. 도면들은 실척대로 그려진 것이 아니며 유사한 구조들 또는 기능들의 엘리먼트들은 도면들 전체에 걸쳐 유사한 참조 번호들로 표현된다는 것이 주목되어야 한다. 본 발명의 다양한 실시예들의 위에서 열거된 그리고 다른 장점들 및 목적들을 획득하기 위한 방법을 더 잘 인지하기 위해, 위에서 간략하게 설명된 본 발명들의 더 상세한 설명이 본 발명의 특정 실시예를 참조하여 제공될 것이며, 그 특정 실시예들은 첨부 도면들에서 예시된다. 이러한 도면들이 단지 본 발명의 전형적인 실시예들만을 도시하고, 그에 따라 본 발명의 범위를 제한하는 것으로 간주되지 않아야 한다는 것을 이해하여, 본 발명은 첨부 도면들을 사용하여 추가적인 특성 및 세부사항과 함께 설명되고 기술될 것이다.
[00015] 도 1은 일 실시예에 따른 AR 시스템의 사용자에게 디스플레이되는 AR 장면의 평면도를 예시한다.
[00016] 도 2a-도 2d는 웨어러블 AR 디바이스들의 다양한 실시예들을 예시한다.
[00017] 도 3은 본 발명의 실시예들에 따른, 시스템의 하나 이상의 클라우드 서버들과 상호작용하는 웨어러블 AR 디바이스의 예시적인 실시예를 예시한다.
[00018] 도 4는 본 발명의 실시예들에 따른, 하나 이상의 핸드 헬드 제어기 디바이스들과 상호작용하는 웨어러블 AR 디바이스의 예시적인 실시예를 예시한다.
[00019] 도 5는 본 발명의 실시예들에 따른, 물리적 환경 내에서 로컬화 프로토콜을 동작시키는 사용자의 예를 예시한다.
[00020] 도 6a-도 6c는 본 발명의 실시예들에 따른, 하나 이상의 지원 모듈들을 이용하여 물리적 환경 내에서 로컬화 프로토콜을 동작시키는 사용자의 예를 예시한다.
[00021] 도 7a-도 7c는 본 발명의 실시예들에 따른 지원 모듈들의 예들을 예시한다.
[00022] 도 8a-도 8b는 본 발명의 실시예들을 활용하는 구성들의 예들을 예시한다.
[00023] 도 9a-도 9i는 본 발명의 실시예들에 따른 지원 모듈들 및 웨어러블 AR 시스템들을 위한 커플링 수단의 예들을 예시한다.
[00024] 도 10-도 11은 본 발명의 실시예들에 따른, 로컬화 툴들의 에코시스템(ecosystem)을 활용하기 위한 구성을 예시한다.
[00025] 도 12a-도 12c는 본 발명의 실시예들에 따른 환경 특정 지원 모듈들의 예들을 예시한다.
[00026] 도 13은 본 발명의 실시예들에 따른, 환경 특정 지원 모듈들을 포함하는 로컬화 툴들의 에코시스템을 활용하기 위한 예시적인 구성을 예시한다.
[00014] The drawings illustrate the design and utility of various embodiments of the present invention. It should be noted that the drawings are not drawn to scale and that elements of similar structures or functions are represented by like reference numerals throughout the drawings. In order to better appreciate how the various embodiments of the present invention achieve the above-recited and other advantages and objects, a more detailed description of the inventions briefly described above will now be provided by reference to specific embodiments of the invention, which specific embodiments are illustrated in the accompanying drawings. Understanding that these drawings illustrate only typical embodiments of the invention and are therefore not to be considered limiting of the scope of the invention, the present invention will be described and illustrated with additional features and details by means of the accompanying drawings.
[00015] FIG. 1 illustrates a plan view of an AR scene displayed to a user of an AR system according to one embodiment.
[00016] Figures 2a-2d illustrate various embodiments of wearable AR devices.
[00017] FIG. 3 illustrates an exemplary embodiment of a wearable AR device interacting with one or more cloud servers of the system, according to embodiments of the present invention.
[00018] FIG. 4 illustrates an exemplary embodiment of a wearable AR device interacting with one or more handheld controller devices according to embodiments of the present invention.
[00019] FIG. 5 illustrates an example of a user operating a localization protocol within a physical environment according to embodiments of the present invention.
[00020] FIGS. 6A-6C illustrate examples of a user operating a localization protocol within a physical environment using one or more support modules according to embodiments of the present invention.
[00021] FIGS. 7a-7c illustrate examples of support modules according to embodiments of the present invention.
[00022] Figures 8a-8b illustrate examples of configurations utilizing embodiments of the present invention.
[00023] FIGS. 9A-9I illustrate examples of coupling means for support modules and wearable AR systems according to embodiments of the present invention.
[00024] Figures 10 and 11 illustrate a configuration for utilizing an ecosystem of localization tools according to embodiments of the present invention.
[00025] Figures 12a-12c illustrate examples of environment specific support modules according to embodiments of the present invention.
[00026] FIG. 13 illustrates an exemplary configuration for leveraging an ecosystem of localization tools including environment-specific support modules according to embodiments of the present invention.

[00027] 도 2a-도 2d를 참조하면, 일부 일반적인 컴포넌트 옵션(componentry option)들이 예시된다. 도 2a-도 2d의 논의에 뒤따르는 상세한 설명의 부분들에서, 인간의 VR 및/또는 AR에 대한 고품질의 편안하게-지각되는 디스플레이 시스템을 제공하는 목적들을 해결하기 위한 다양한 시스템들, 서브시스템들, 및 컴포넌트들이 제시된다.[00027] Referring to FIGS. 2a-2d , some general componentry options are illustrated. In the detailed descriptions that follow the discussion of FIGS. 2a-2d , various systems, subsystems, and components are presented to address the goals of providing a high-quality, comfortably-perceived display system for human VR and/or AR.

[00028] 도 2a에 도시된 바와 같이, AR 시스템의 사용자(60)는 사용자의 눈들의 전방에 포지셔닝된 디스플레이 시스템(62)에 커플링된 프레임(64) 구조를 특징으로 하는 머리 장착 컴포넌트(58)를 착용하고 있는 것으로 묘사된다. 스피커(66)는 묘사된 구성에서 프레임(64)에 커플링되고 사용자의 외이도(ear canal)에 인접하게 포지셔닝된다(일 실시예에서, 도시되지 않은 다른 스피커가 사용자의 다른 외이도에 인접하게 포지셔닝되어 스테레오/형상화가능(shapeable) 사운드 제어를 제공함). 디스플레이(62)는, 이를테면, 유선 리드(wired lead) 또는 무선 연결(wireless connectivity)에 의해, 로컬 프로세싱 및 데이터 모듈(70)에 동작가능하게 커플링(68)되며, 그 로컬 프로세싱 및 데이터 모듈(70)은 다양한 구성들로 장착될 수 있는데, 이를테면, 프레임(64)에 고정식으로 부착되거나, 도 2b의 실시예에 도시된 바와 같이 헬멧 또는 모자(80)에 고정식으로 부착되거나, 헤드폰들에 임베딩되거나, 도 2c의 실시예에 도시된 바와 같은 백팩-스타일 구성으로 사용자(60)의 몸통(82)에 제거가능하게 부착되거나, 또는 도 2d의 실시예에 도시된 바와 같이 벨트-커플링 스타일 구성으로 사용자(60)의 엉덩이(84)에 제거가능하게 부착될 수 있다.[00028] As illustrated in FIG. 2a, a user (60) of an AR system is depicted wearing a head-mounted component (58) featuring a frame (64) structure coupled to a display system (62) positioned in front of the user's eyes. A speaker (66) is coupled to the frame (64) in the depicted configuration and positioned adjacent to the user's ear canal (in one embodiment, another speaker, not shown, is positioned adjacent to the other ear canal of the user to provide stereo/shapeable sound control). The display (62) is operatively coupled (68), for example, by a wired lead or wireless connectivity, to a local processing and data module (70), which may be mounted in a variety of configurations, such as fixedly attached to the frame (64), fixedly attached to a helmet or hat (80) as shown in the embodiment of FIG. 2b, embedded in headphones, removably attached to the torso (82) of the user (60) in a backpack-style configuration as shown in the embodiment of FIG. 2c, or removably attached to the hips (84) of the user (60) in a belt-coupled style configuration as shown in the embodiment of FIG. 2d.

[00029] 로컬 프로세싱 및 데이터 모듈(70)은, 전력-효율적인 프로세서 또는 제어기뿐만 아니라 디지털 메모리, 이를테면, 플래시 메모리를 포함할 수 있고, 이들 둘 모두는 데이터의 프로세싱, 캐싱, 및 저장을 돕기 위해 활용될 수 있으며, 그 데이터는 a) 프레임(64)에 동작가능하게 커플링될 수 있는 센서들, 이를테면, 이미지 캡처 디바이스들(이를테면, 카메라들), IR(infrared) 방출기들 및 수신기들, 마이크로폰들, 관성 측정 유닛들, 가속도계들, 컴퍼스들, GPS 유닛들, 라디오 디바이스들 및/또는 자이로(gyro)들로부터 캡처되고; 그리고/또는 b) 원격 프로세싱 모듈(72) 및/또는 원격 데이터 저장소(74)를 사용하여 획득 및/또는 프로세싱된다(가능하게는 그러한 프로세싱 또는 리트리벌 후에 디스플레이(62)로의 전달(passage)을 위해). 로컬 프로세싱 및 데이터 모듈(70)은, 이를테면, 유선 또는 무선 통신 링크들을 통해, 원격 프로세싱 모듈(72) 및 원격 데이터 저장소(74)에 동작가능하게 커플링(76, 78)될 수 있으며, 그에 따라, 이러한 원격 모듈들(72, 74)은 서로 동작가능하게 커플링되고, 로컬 프로세싱 및 데이터 모듈(70)에 대한 자원들로서 이용가능하다.[00029] The local processing and data module (70) may include a power-efficient processor or controller as well as digital memory, such as flash memory, both of which may be utilized to facilitate processing, caching, and storing data, which data is a) captured from sensors operatively coupled to the frame (64), such as image capture devices (e.g., cameras), infrared (IR) emitters and receivers, microphones, inertial measurement units, accelerometers, compasses, GPS units, radio devices, and/or gyros; and/or b) acquired and/or processed using a remote processing module (72) and/or remote data storage (74) (possibly for passage to the display (62) following such processing or retrieval). The local processing and data module (70) may be operatively coupled (76, 78) to a remote processing module (72) and a remote data store (74), for example, via wired or wireless communication links, such that these remote modules (72, 74) are operatively coupled to one another and available as resources to the local processing and data module (70).

[00030] 일 실시예에서, 원격 프로세싱 모듈(72)은 데이터 및/또는 이미지 정보를 분석하고 프로세싱하도록 구성된 하나 이상의 비교적 강력한 프로세서들 또는 제어기들을 포함할 수 있다. 일 실시예에서, 원격 데이터 저장소(74)는, "클라우드" 자원 구성의 인터넷 또는 다른 네트워킹 구성을 통해 이용가능할 수 있는, 비교적 대규모(large-scale) 디지털 데이터 저장 설비를 포함할 수 있다. 일 실시예에서, 로컬 프로세싱 및 데이터 모듈에 모든 데이터가 저장되고 모든 컴퓨테이션(computation)이 수행되어, 임의의 원격 모듈들로부터 완전히 자율적인 사용이 허용된다.[00030] In one embodiment, the remote processing module (72) may include one or more relatively powerful processors or controllers configured to analyze and process data and/or image information. In one embodiment, the remote data storage (74) may include a relatively large-scale digital data storage facility, which may be available via the Internet or other networking configuration of a "cloud" resource configuration. In one embodiment, all data is stored and all computations are performed in the local processing and data module, allowing for completely autonomous use from any remote module.

[00031] 이제 도 3을 참조하면, 개략도는, 도 3에 도시된 바와 같이, 예컨대, 사용자의 머리(120)에 커플링된 머리 장착 컴포넌트(58) 및 사용자의 벨트(308)에 커플링된 로컬 프로세싱 및 데이터 모듈(70)(따라서, 컴포넌트(70)는 또한 "벨트 팩"(70)으로 지칭될 수 있음)에 상주할 수 있는, 클라우드 컴퓨팅 자산들(46)과 로컬 프로세싱 자산들 사이의 조정을 예시한다. 일 실시예에서, 하나 이상의 서버 시스템들(110)과 같은 클라우드(46) 자산들은, 이를테면, 유선 또는 무선 네트워킹(이동성을 위해서는 무선이 선호되고, 요구될 수 있는 특정 고-대역폭 또는 고-데이터-볼륨 전송들을 위해서는 유선이 선호됨)을 통해, 동작가능하게 커플링(115)되고, 위에서 설명된 바와 같이 사용자의 머리(120) 및 벨트(308)에 커플링된, 프로세서 및 메모리 구성들과 같은 로컬 컴퓨팅 자산들 중 하나 또는 둘 모두에 직접적으로 커플링(40, 42)된다. 사용자에게 로컬인 이러한 컴퓨팅 자산들은 또한, 도 8을 참조하여 아래에 논의되는 유선 커플링(68)과 같은 유선 및/또는 무선 연결 구성들(44)을 통해 서로 동작가능하게 커플링될 수 있다. 일 실시예에서, 사용자의 머리(120)에 장착된 저-관성 및 작은 크기의 서브시스템을 유지하기 위해, 사용자와 클라우드(46) 사이의 1차 전송은 벨트(308)에 장착된 서브시스템과 클라우드 사이의 링크를 통해 이루어질 수 있고, 머리(120) 장착 서브시스템은 예컨대, 개인용 컴퓨팅 주변기기 연결 애플리케이션들에 현재 이용되는 것과 같은 "UWB(ultra-wideband)" 연결과 같은 무선 연결을 사용하여 주로 벨트(308)-기반 서브시스템에 데이터-테더링된다(data-tethered).[00031] Now referring to FIG. 3 , a schematic diagram illustrates coordination between cloud computing assets (46) and local processing assets, which may reside, for example, on a head-mounted component (58) coupled to the user's head (120) and a local processing and data module (70) coupled to the user's belt (308) (and thus, the component (70) may also be referred to as a "belt pack" (70)), as shown in FIG. 3 . In one embodiment, cloud (46) assets, such as one or more server systems (110), are operatively coupled (115), such as via wired or wireless networking (wireless is preferred for mobility, wired is preferred for certain high-bandwidth or high-data-volume transfers that may be required), to one or both of the local computing assets, such as processor and memory configurations, coupled to the user's head (120) and belt (308) as described above (40, 42). These computing assets local to the user may also be operatively coupled to one another via wired and/or wireless connection configurations (44), such as the wired coupling (68) discussed below with reference to FIG. 8 . In one embodiment, to maintain the low inertia and small size of the subsystem mounted on the user's head (120), the primary transmission between the user and the cloud (46) may be via a link between the belt-mounted subsystem (308) and the cloud, with the head-mounted subsystem (120) being data-tethered to the belt-based subsystem, primarily using a wireless connection, such as an "ultra-wideband" (UWB) connection, such as is currently utilized in personal computing peripheral connectivity applications.

[00032] 효율적인 로컬 및 원격 프로세싱 조정, 및 사용자를 위한 적합한 디스플레이 디바이스, 이를테면, 도 2a에 도시된 사용자 인터페이스 또는 사용자 디스플레이 시스템(62), 또는 그의 변형들을 이용하여, 사용자의 현재 실제 또는 가상 위치에 관한 하나의 세계의 양상들은 사용자에게 전송 또는 "전달"되고 효율적인 방식으로 업데이트될 수 있다. 다시 말해서, 세계의 맵은, 사용자의 AR 시스템 상에 부분적으로 상주하고 클라우드 자원들에 부분적으로 상주할 수 있는 저장 위치에서 계속해서 업데이트될 수 있다.[00032] Using efficient local and remote processing coordination, and a suitable display device for the user, such as the user interface or user display system (62) illustrated in FIG. 2a, or variations thereof, aspects of the world relative to the user's current real or virtual location can be transmitted or "transmitted" to the user and updated in an efficient manner. In other words, a map of the world can be continually updated from a storage location that may partially reside on the user's AR system and partially reside on cloud resources.

[00033] 맵(또한 "전달가능 세계 모델(passable world model)"로 지칭됨)은, 래스터 이미저리, 3-D 및 2-D 포인트들, 실세계에 관한 파라미터 정보 및 다른 정보를 포함하는 대형 데이터베이스일 수 있다. 점점 더 많은 AR 사용자들이 자신들의 실제 환경에 관한 정보를 (예컨대, 카메라들, 센서들, IMU들 등을 통해) 계속해서 캡처할수록, 맵은 점점 더 정확하고 완전해진다.[00033] The map (also referred to as a "passable world model") may be a large database containing raster imagery, 3-D and 2-D points, parametric information about the real world, and other information. As more and more AR users continue to capture information about their real-world environment (e.g., via cameras, sensors, IMUs, etc.), the map becomes increasingly accurate and complete.

[00034] 클라우드 컴퓨팅 자원들 상에 상주할 수 있고 그리고 클라우드 컴퓨팅 자원들로부터 분산될 수 있는 하나의 세계 모델이 존재하는, 위에서 설명된 바와 같은 구성에 있어서, 그러한 세계는 실시간 비디오 데이터 등을 전달(pass around)하도록 시도하는 것보다 바람직한 비교적 저 대역폭 형태로 하나 이상의 사용자들에게 "전달가능"할 수 있다. 동상(즉, 도 1에 도시된 바와 같음) 근처에 서 있는 사람의 증강된 경험은 클라우드-기반 세계 모델에 의해 알려질 수 있으며, 이의 서브세트는 사람들 및 사람들의 로컬 디스플레이 디바이스로 전달(pass down)되어 뷰를 완성할 수 있다. 데스크 상에 놓여 있는 개인용 컴퓨터와 같이 단순할 수 있는, 원격 디스플레이 디바이스에 앉아 있는 사람은, 클라우드로부터 동일한 섹션의 정보를 효율적으로 다운로드하여 이를 자신의 디스플레이 상에 렌더링할 수 있다. 사실상, 동상 근처의 공원에 실제로 있는 한 사람은 그 공원에서의 산책을 위해 멀리 떨어져 있는 친구를 데리고 갈 수 있는데, 그 친구는 가상 및 증강 현실을 통해 합류(join)한다. 시스템은 도로가 있는 장소, 나무들이 있는 장소, 동상이 있는 장소를 알 필요가 있지만, 클라우드 상에 그 정보가 있으면, 합류한 친구는 클라우드로부터 시나리오의 양상들을 다운로드하고, 그런 다음, 실제로 공원에 있는 사람에 대해 현지의 증강 현실로서 함께 걷기 시작할 수 있다.[00034] In a configuration such as described above, where there is a world model that can reside on and be distributed from cloud computing resources, such a world can be "delivered" to one or more users in a relatively low bandwidth form, which is preferable to trying to pass around real-time video data, etc. The augmented experience of a person standing near a statue (i.e., as shown in FIG. 1 ) can be informed by a cloud-based world model, a subset of which can be passed down to the person and their local display device to complete the view. A person sitting at a remote display device, which can be as simple as a personal computer sitting on a desk, can efficiently download the same section of information from the cloud and render it on their display. In effect, a person physically present in a park near the statue can take a friend who is far away for a walk in the park, and the friend joins them via virtual and augmented reality. The system needs to know where there are roads, where there are trees, where there are statues, but once that information is in the cloud, the friend who joins can download aspects of the scenario from the cloud and then start walking along as an augmented reality of the local person actually in the park.

[00035] 피처(feature)들 또는 그렇지 않으면 3-D 포인트들이 환경으로부터 검출 및 캡처되거나 또는 다르게는 추출될 수 있고, 그러한 이미지들 또는 포인트들을 캡처하는 카메라들의 포즈(즉, 세계에 대한 벡터 및/또는 본래의 포지션 정보)가 결정될 수 있고, 그에 따라, 이들 포인트들 또는 이미지들은 이 포즈 정보로 "태깅"되거나, 또는 이와 연관될 수 있다. 그런 다음, 제2 카메라에 의해(물리적으로 제2 카메라에 의해, 또는 동일한 카메라에 의해서지만 제2 시간 순간에) 캡처된 포인트들은 제2 카메라의 포즈를 결정하는 데 활용될 수 있다. 다시 말해서, 제1 카메라로부터 태깅된 이미지들과의 비교들에 기반하여 제2 카메라를 배향하고 그리고/또는 로컬화할 수 있다. 그런 다음, 이 지식(knowledge)은, 텍스처들을 추출하고, 맵들을 만들고, 그리고 실세계의 가상 카피를 생성하는 데 활용될 수 있다(예컨대, 그 주위에 2개의 카메라가 등록되어 있거나, 또는 공통으로 등록된 데이터를 비교하는 데 사용될 수 있는 2개의 시간 순간들이 있음).[00035] Features or otherwise 3-D points can be detected and captured or otherwise extracted from the environment, and the poses (i.e., vector and/or original positional information relative to the world) of the cameras capturing such images or points can be determined, and accordingly, these points or images can be "tagged" or associated with this pose information. Then, the points captured by the second camera (either physically by the second camera, or by the same camera but at a second time instant) can be utilized to determine the pose of the second camera. In other words, the second camera can be oriented and/or localized based on comparisons with the tagged images from the first camera. This knowledge can then be utilized to extract textures, create maps, and create a virtual copy of the real world (e.g., there are two cameras registered around it, or there are two time instants that can be used to compare commonly registered data).

[00036] 따라서, 베이스 레벨에서, 일 실시예에서, 사람-착용 시스템은 포인트들을 생성한 2-D 이미지들 및 3-D 포인트들 둘 모두를 캡처하는 데 활용될 수 있고, 이러한 포인트들 및 이미지들은 클라우드 저장소 및 프로세싱 자원에 전송될 수 있다. 이들은 또한, 임베딩된 포즈 정보와 함께 로컬로 캐싱될 수 있고(즉, 태깅된 이미지들을 캐싱함); 따라서 클라우드는 3-D 포인트들과 함께, 태깅된 2-D 이미지들(즉, 3-D 포즈로 태깅됨)을 (즉, 이용가능한 캐시 내에) 준비시킬 수 있다. 사용자가 동적인 어떤 것을 관찰하고 있는 경우, 그 사용자는 또한, 모션에 관한 추가적인 정보를 클라우드까지 전송할 수 있다(예컨대, 다른 사람의 얼굴을 보는 경우, 사용자는 얼굴의 텍스처 맵을 취해, 그 외의 주변 세계가 기본적으로 정적인 경우라도, 최적화된 빈도로 이를 푸시 업(push up)할 수 있음).[00036] Thus, at a base level, in one embodiment, the human-worn system can be utilized to capture both 2-D images and 3-D points that generate points, and these points and images can be transmitted to cloud storage and processing resources. These can also be cached locally along with embedded pose information (i.e., caching the tagged images); thus, the cloud can prepare the tagged 2-D images (i.e., tagged with 3-D poses) along with the 3-D points (i.e., within the available cache). If the user is observing something dynamic, the user can also transmit additional information about the motion to the cloud (e.g., if viewing another person's face, the user can take a texture map of the face and push it up at an optimized frequency, even if the rest of the surrounding world is essentially static).

[00037] "전달가능 세계 모델"을 생성하는 데 사용될 수 있는 포인트들을 캡처하기 위해, 세계에 대한 사용자의 위치, 포즈 및 배향을 정확하게 아는 것이 도움이 된다. 더 구체적으로는, 사용자의 포지션이 미세한 정도(granular degree)로 로컬화되어야 하는데, 왜냐하면 사용자의 머리 포즈뿐만 아니라 손 포즈(사용자가 핸드헬드 컴포넌트를 움켜잡고 있거나, 제스처를 취하고 있는 등의 경우)를 아는 것이 중요할 수 있기 때문이다. 하나 이상의 실시예들에서, GPS 및 다른 로컬화 정보는 그러한 프로세싱에 대한 입력들로서 활용될 수 있다. 사용자의 머리, 토템들, 손 제스처들, 햅틱 디바이스들 등의 매우 정확한 로컬화는 적합한 가상 콘텐츠를 사용자에게 디스플레이하는 데 있어 중요하다.[00037] In order to capture points that can be used to generate a "transferable world model", it is helpful to know the user's position, pose, and orientation relative to the world accurately. More specifically, the user's position should be localized to a granular degree, since it may be important to know the user's head pose as well as his hand pose (e.g., if the user is grasping a handheld component, making a gesture, etc.). In one or more embodiments, GPS and other localization information may be utilized as inputs to such processing. Highly accurate localization of the user's head, totems, hand gestures, haptic devices, etc. is important for displaying appropriate virtual content to the user.

[00038] 도 4를 참조하면, 동작가능하게 커플링된 핸드-헬드 제어기(606)를 특징으로 하는 AR 시스템이 도시된다. 하나 이상의 실시예들에서, 핸드-헬드 제어기는, 게이밍과 같은 다양한 사용자 시나리오들에서 활용되는 "토템"으로 지칭될 수 있다. 다른 실시예들에서, 핸드-헬드 제어기는 햅틱 디바이스일 수 있다. 핸드-헬드 제어기(606)는, 아래에서 설명되는 바와 같은 카메라들, IMU들 및 다른 디바이스들을 포함할 수 있는 다양한 상호연결된 컴포넌트들에 전력을 공급하기 위한 배터리 또는 다른 전력 공급부를 포함할 수 있다. 본원에서 설명되는 바와 같이, 로컬 프로세싱 및 데이터 모듈(70)은 클라우드 자원들(630)에 동작가능하게 커플링될 수 있고, 머리 장착 웨어러블 컴포넌트(58)에 동작가능하게 커플링될 수 있다.[00038] Referring to FIG. 4, an AR system is illustrated featuring an operably coupled hand-held controller (606). In one or more embodiments, the hand-held controller may be referred to as a “totem” utilized in various user scenarios, such as gaming. In other embodiments, the hand-held controller may be a haptic device. The hand-held controller (606) may include a battery or other power supply for powering various interconnected components, which may include cameras, IMUs, and other devices, as described below. As described herein, the local processing and data module (70) may be operably coupled to cloud resources (630) and may be operably coupled to a head-mounted wearable component (58).

[00039] 다양한 실시예들에서, 예컨대, 로컬 공간 내에서의 사용자의 동작에 관한 다양한 이슈들, 이를테면, 컴포넌트들이 공간 내에서 서로에 대해 어디에 로케이팅되고 그리고/또는 배향되는가, 사용자가 어떤 타입의 로컬 환경(예컨대, 룸 기하학적 구조, 룸 내의 오브젝트들의 포지션 및/또는 배향 등)을 다루고 있는가, 및/또는 (예컨대, SLAM 분석을 사용하여) 어떤 오브젝트들 및 특징들이 맵핑될 수 있는가의 이해를 향상시키기 위해 다양한 컴포넌트들의 컴퓨팅, 지각력, 및 지각 능력들을 어그리게이팅(aggregate)하는 것이 바람직할 수 있다.[00039] In various embodiments, it may be desirable to aggregate the computational, perceptual, and perceptual capabilities of various components to improve understanding of various issues related to the user's movements within a local space, such as where components are located and/or oriented relative to each other within the space, what type of local environment the user is dealing with (e.g., room geometry, positions and/or orientations of objects within the room, etc.), and/or what objects and features can be mapped (e.g., using SLAM analysis).

[00040] 도 5를 참조하면, 일반적으로 데스크(206)를 바라보고 서 있는 사용자(60), 커피 테이블(204), 및 활용될 때 룸 내로 젖혀져서 열리도록(swing open) 구성되어 있는 도어(202)를 갖춘 룸(200)의 평면도가 도시된다. 위에서 설명된 바와 같이, 다양한 실시예들에서, 웨어러블 컴퓨팅 시스템은 동작가능하게 커플링된 컴포넌트들, 이를테면, 머리 장착 컴포넌트(58), 로컬 프로세싱 및 데이터 모듈(70), 및 핸드 헬드 컴포넌트(606)를 포함한다. 또한 위에서 설명된 바와 같이, 그러한 컴포넌트들 각각은 다양한 센서들 및 프로세서들 및 그 자체의 관련된 능력들, 이를테면, 카메라, IMU, 및 프로세서 컴포넌트들을 포함할 수 있으며, 이들은 다른 것들 중에서도, 그러한 컴포넌트들이 서로에 대해 그리고/또는 포지션 및/또는 배향에 있어서 그들 주위의 환경의 양상들에 대해 어디에 있는지를 결정하기 위해(위에서 설명된 바와 같은, 이른바 "포즈" 결정) 하나 이상의 프로세서들에 의해 활용되는 포즈 결정 알고리즘들에 데이터를 제공하도록 구성될 수 있다.[00040] Referring to FIG. 5, a floor plan of a room (200) is shown, typically having a user (60) standing facing a desk (206), a coffee table (204), and a door (202) configured to swing open into the room when utilized. As described above, in various embodiments, the wearable computing system includes operably coupled components, such as a head-mounted component (58), a local processing and data module (70), and a hand-held component (606). Additionally, as described above, each of such components may include various sensors and processors and associated capabilities of their own, such as cameras, IMUs, and processor components, which may be configured to provide data to pose determination algorithms utilized by one or more processors to determine, among other things, where such components are relative to each other and/or aspects of the environment around them in position and/or orientation (so-called "pose" determination, as described above).

[00041] 도 5를 다시 참조하면, 일 실시예에서, 머리 장착 컴포넌트(58)에 대한 핸드 헬드 컴포넌트(606) 및 로컬 프로세싱 및 데이터 모듈(70)의 상대적 근접도는, 서로에 대한 그러한 컴포넌트들의 포지셔닝 및/또는 배향을 결정하는 관점에서 유리할 수 있지만, 사람 및 그러한 컴포넌트들 둘레의 환경에 관한 정보를 수집하는 것이 최적화되지 않았을 수 있다. 예컨대, 일부 포지션들 및 배향들에서, 사용자 자신의 신체는, 핸드 헬드 컴포넌트(606)를 가리거나 다른 방식으로 간섭하고 그리고 머리 장착 컴포넌트(58)와 효율적으로 통신하는 것을 방해할 할 수 있다. 다른 비-사용자 환경 팩터들이 또한 성능에 영향을 미칠 수 있는데, 예컨대 도 5의 도어(202) ― 도어(202)는 기능적 도어로서의 도어의 이동가능한 성질로 인해 컴포넌트들(58, 70, 및/또는 606)에 대해 포지션 및/또는 배향이 변경될 수 있음 ― 는 묘사된 구성에서 오퍼레이터(60)로부터 거의 완전히 룸을 가로질러 있다. 그러한 구조의 거리 및 각운동(angular motion)은 핸드 헬드 컴포넌트(606) 또는 머리 장착 컴포넌트(58)에 의해 용이하게 검출가능하지 않을 수 있다.[00041] Referring again to FIG. 5, in one embodiment, the relative proximity of the handheld component (606) and the local processing and data module (70) to the head mounted component (58) may be advantageous in terms of determining positioning and/or orientation of such components relative to one another, but may not be optimal for gathering information about the environment surrounding the person and such components. For example, in some positions and orientations, the user's own body may obscure or otherwise interfere with the handheld component (606) and prevent it from communicating effectively with the head mounted component (58). Other non-user environment factors may also affect performance, such as the door (202) of FIG. 5 - which, due to the movable nature of the door as a functional door, may change position and/or orientation relative to the components (58, 70, and/or 606) - is nearly completely across the room from the operator (60) in the depicted configuration. The distance and angular motion of such a structure may not be readily detectable by the handheld component (606) or the head mounted component (58).

[00042] 도 6a를 참조하면, 다양한 실시예들에서, 위에서 설명된 바와 같이, 이를테면, 블루투스 또는 다른 무선 연결 모달리티를 통해 무선으로, 오퍼레이터(60)에 커플링된 다른 컴포넌트들(58, 70, 및/또는 606)의 프로세싱 및 저장 자원들에 상호연결될 수 있는 추가적인 핸드 헬드 컴포넌트 모듈(606)과 같은 하나 이상의 계장화된(instrumented) 컴포넌트들을, 관심있는 것으로 여겨지는 위치 및 배향으로, 이를테면, 도어(202)를 향해 배향된 계장(instrumentation)을 갖는 그러한 도어 근처의 포지션으로 배치하는 것이 바람직할 수 있다. 다시 말해서, 추가적인 핸드 헬드 컴포넌트 모듈(606)은, 사용자의 손에 실제로 홀딩되는 것이 아니라 룸 또는 다른 오브젝트들에 대해 포지셔닝되고 배향되는(즉, 데스크, 플로어, 또는 다른 오브젝트 상에 배치함으로써, 다른 오브젝트에 커플링된 마운트에 의해 홀딩됨으로써, 다른 오브젝트에 제거가능하게 그리고/또는 고정적으로 부착됨으로써 등) 포지션에 배치될 수 있으며; 그러한 구성들에서, 추가적인 핸드 헬드 컴포넌트 모듈(606)은 "지지" 또는 "캡처 및 프로세싱" 모듈(606)로 지칭될 수 있다. 일 실시예에서, 도 6a에 도시된 캡처 및 프로세싱 모듈(606)은, 도 6b의 실시예에 도시된 바와 같이, 플로어 또는 일부 다른 구조물 상에 임시 포지션/배향 구성으로 배치될 수 있거나 또는 구조물에 고정적으로 부착될 수 있으며, 추가적인 캡처 및 프로세싱 모듈(606)이 벽에 커플링되는데, 또한 인근의 도어(202)에 관한 데이터의 수집을 돕기 위해 선택된 포지션 및 배향으로 커플링되며, 그리고 또한 추가적인 캡처 및 프로세싱 모듈(606)은, 이를테면, 블루투스 또는 다른 무선 연결 구성, 이를테면, 위에서 설명된 것들을 통해 대상 시스템의 다른 컴포넌트들(58, 70, 606)에 동작가능하게 커플링된다.[00042] Referring to FIG. 6A , in various embodiments, it may be desirable to place one or more instrumented components, such as additional handheld component modules (606) that may be interconnected to the processing and storage resources of other components (58, 70, and/or 606) coupled to the operator (60) wirelessly, such as via Bluetooth or other wireless connectivity modalities, in a position near the door (202) that is deemed of interest, such as having instrumentation oriented toward the door. In other words, the additional handheld component module (606) may be positioned and oriented relative to the room or other objects (e.g., by being placed on a desk, floor, or other object, by being held by a mount coupled to another object, by being removably and/or fixedly attached to another object, etc.) rather than being actually held in the user's hand; in such configurations, the additional handheld component module (606) may be referred to as a "support" or "capture and processing" module (606). In one embodiment, the capture and processing module (606) depicted in FIG. 6A may be positioned in a temporary position/orientation configuration on the floor or some other structure, as depicted in the embodiment of FIG. 6B , or may be fixedly attached to the structure, with an additional capture and processing module (606) coupled to a wall, also coupled in a selected position and orientation to assist in collecting data regarding a nearby door (202), and further, the additional capture and processing module (606) operably coupled to other components (58, 70, 606) of the target system, such as via Bluetooth or other wireless connectivity configuration, such as those described above.

[00043] 그러한 실시예의 경우, 오퍼레이터(60)에 물리적으로 커플링된 각각의 컴포넌트(58, 70, 606)는, 여기서 핸드 헬드 컴포넌트로서 활용되는 컴포넌트의 추가적인 버전으로서 도시되는 추가적인 캡처 및 프로세싱 모듈(606) 내에 상주하는 추가적인 데이터 캡처 및 프로세싱 능력들로부터 이익을 얻도록 구성될 수 있다. 도 6c는, 복수의 추가적인 캡처 및 프로세싱 모듈들(606)이 그들 주위의 세계를 프로세싱 및 분석하는 것을 돕기 위해 오퍼레이터의 환경 주위에 포지셔닝 및 배향될 수 있다는 것을 예시한다. 복수의 캡처 및 프로세싱 모듈들이 상이한 측정들을 위해 개별적으로 최적화될 수 있다는 것이 인지될 것이다. 예컨대, 도어에 근접한 캡처 및 프로세싱 모듈(606)은, 도어(202)가 개폐될 때에만, 사용자(60)에 의해 활용되는 시스템에 대한 로컬화 데이터를 업데이트하도록 구성될 수 있다. 머리 장착 컴포넌트(58) 또는 핸드 헬드 컴포넌트(606) 상의 센서로부터 먼 거리로부터의 광선 캐스트(ray cast) 또는 콘 캐스트(cone cast)가 준-개방(semi-open) 도어와 폐쇄 도어 사이의 차이를 알려주지 못할 수 있는 반면에, 도어 개방 및 폐쇄의 각도 방향으로 배향된 비행시간(time of flight) 센서를 갖는, 도어에 근접한 센서는, 업데이트된 검출가능한 피처 포지션들로 도어(202)(그리고 더 나아가 룸(200))를 더 신속하게 그리고 더 정확하게 결정할 수 있다.[00043] In such an embodiment, each component (58, 70, 606) physically coupled to the operator (60) may be configured to benefit from additional data capture and processing capabilities residing within an additional capture and processing module (606), which is illustrated here as an additional version of the component utilized as a handheld component. FIG. 6c illustrates that a plurality of additional capture and processing modules (606) may be positioned and oriented around the operator's environment to assist in processing and analyzing the world around them. It will be appreciated that the plurality of capture and processing modules may be individually optimized for different measurements. For example, a capture and processing module (606) proximate a door may be configured to update localization data for the system utilized by the user (60) only when the door (202) is opened and closed. While a ray cast or cone cast from a distance from a sensor on a head mounted component (58) or hand held component (606) may not be able to tell the difference between a semi-open and a closed door, a sensor closer to the door, having a time of flight sensor oriented in the angular direction of the door opening and closing, can more quickly and accurately determine the door (202) (and by extension the room (200)) with updated detectable feature positions.

[00044] 유사하게, 룸(200)의 코너에 있는 캡처 및 프로세싱 모듈(606)은, 캡처 및 프로세싱 모듈(606)이, 사용자(60)가 그에 근접하고 그리고 머리 포즈가 코너 캡처 및 프로세싱 모듈(606) 쪽으로 적어도 부분적으로 향하는 것을 검출할 때, 로컬화 데이터를 활성화 및 제공할 수 있다. 그러한 실시예의 이익은, 사용자가 공간의 물리적 한계, 이를테면, 벽 또는 코너에 접근함에 따라, 로컬화를 검출 및 추출하기 위해 머리 장착 컴포넌트(50) 또는 핸드 헬드 컴포넌트(606) 상의 센서들에 대해 더 적은 피처들이 있다는 것이며, 캡처 및 프로세싱 모듈(606)은 로컬화를 위한 "등대(lighthouse)" 효과를 제공할 수 있다.[00044] Similarly, the capture and processing module (606) at the corner of the room (200) can activate and provide localization data when the capture and processing module (606) detects that the user (60) is approaching and that the head pose is at least partially directed toward the corner capture and processing module (606). An advantage of such an embodiment is that as the user approaches a physical limit of the space, such as a wall or a corner, there are fewer features for the sensors on the head-mounted component (50) or the hand-held component (606) to detect and extract localization, and the capture and processing module (606) can provide a “lighthouse” effect for localization.

[00045] 도 7a 및 도 7b는, 핸들들(210), 데스크톱 스탠드들(212), 및 카메라들(124), IR 방출기들 및/또는 수신기들, IMU들(102), WiFi 통신 디바이스들(114), 블루투스 통신 디바이스들(115), 및 다른 센서들에 적합하게 커플링된 임베디드 및/또는 모바일 프로세서들(128)을 포함하는(그러나 이에 제한되지 않음), 이를테면 위에서 설명된 컴포넌트를 포함할 수 있는 휴대가능한 추가적인 캡처 및 프로세싱 모듈들(606)의 실시예들을 예시한다. 도 7c는, 도시된 바와 같이, 복수의(이를테면, 4개의) 모노크롬 카메라 디바이스들(125), 컬러 카메라(127), 및 심도 카메라(129)를 포함하는 카메라 모듈(124)의 일 실시예의 클로즈업 뷰를 예시하며, 심도 카메라(129)는 그러한 심도 카메라(129)의 캡처 인터페이스에 대한 공간 내에 이미지 엘리먼트들을 배치하는 것을 돕기 위해 비행시간 데이터를 활용하도록 구성된다.[00045] Figures 7a and 7b illustrate embodiments of portable additional capture and processing modules (606) that may include components described above, such as but not limited to, handles (210), desktop stands (212), and embedded and/or mobile processors (128) suitably coupled to cameras (124), IR emitters and/or receivers, IMUs (102), WiFi communication devices (114), Bluetooth communication devices (115), and other sensors. FIG. 7c illustrates a close-up view of one embodiment of a camera module (124) including a plurality of (e.g., four) monochrome camera devices (125), a color camera (127), and a depth camera (129), as depicted, wherein the depth camera (129) is configured to utilize time-of-flight data to assist in positioning image elements within space relative to a capture interface of such depth camera (129).

[00046] 도 9a를 참조하면, 도 5 및 도 7a-도 7c에서 특징지어진 것과 같은 구성이 다양한 컴포넌트들의 상대적 포즈를 결정하는 데 활용될 수 있다. 사용자는 핸드 헬드 제어기(606)에 동작가능하게 커플링된 머리 장착 웨어러블 컴포넌트(58)를 착용하고 있을 수 있으며, 핸드 헬드 제어기(606)는, 이를테면, 오퍼레이터의 손을 통해 오퍼레이터에 또한 커플링된다(214). 머리 장착 웨어러블 컴포넌트(58)는, 머리 장착 웨어러블 컴포넌트(58) 주위의 환경, 이를 테면, 룸 및 룸의 엘리먼트들에 대한 머리 장착 웨어러블 컴포넌트의 포즈의 특정 양상들, 이를 테면, 위치 및/또는 배향, 및/또는 그러한 환경에 관한 특정 특징들, 이를테면, 룸의 형상 또는 거기에 있는 오브젝트들을 결정하기 위해, 자신에 커플링된 센서들을 활용하도록 구성될 수 있다(216).[00046] Referring to FIG. 9a, a configuration such as that characterized in FIGS. 5 and 7a-7c may be utilized to determine relative poses of various components. A user may be wearing a head-mounted wearable component (58) operably coupled to a hand-held controller (606), which is further coupled to the operator, such as via the operator's hand (214). The head-mounted wearable component (58) may be configured to utilize sensors coupled thereto to determine certain aspects of the pose of the head-mounted wearable component relative to an environment around the head-mounted wearable component (58), such as a room and elements of the room, such as a position and/or orientation, and/or certain features of such environment, such as the shape of the room or objects present therein (216).

[00047] 핸드 헬드 제어기(606)는, 핸드 헬드 제어기(606) 주위의 환경에 대한 핸드 헬드 제어기(606)의 포즈의 특정 양상들, 이를 테면, 위치 및/또는 배향, 및/또는 그러한 환경에 관한 특정 특징들(이를테면, 룸의 형상)을 결정하기 위해, 자신에 커플링된 센서들을 활용하도록 구성될 수 있다(218).[00047] The handheld controller (606) may be configured to utilize sensors coupled thereto to determine certain aspects of the pose of the handheld controller (606) relative to the environment surrounding the handheld controller (606), such as position and/or orientation, and/or certain features of such environment, such as the shape of the room (218).

[00048] 핸드 헬드 제어기 및 머리 장착 웨어러블 컴포넌트는, 핸드 헬드 제어기와 머리 장착 웨어러블 컴포넌트 사이의 상대적 포지셔닝 및/또는 배향이 결정될 수 있도록, 그들의 동작가능 커플링들을 통해(이를 테면, 위에서 설명된 바와 같은 블루투스 연결을 통해), 결정된 포즈 정보를 공유하도록 구성될 수 있다(220). 그러한 동작들은, 핸드 헬드 제어기와 머리 장착 웨어러블 컴포넌트 사이의 상대적 포지셔닝 및/또는 배향에 관한 적시의 리프레시 정보를 유지하기 위해 자주 업데이트될 수 있다(222). 어느 한 컴포넌트의 로컬화는 그 어느 한 컴포넌트의 좌표 프레임의 함수로서 제공될 수 있다. 다시 말해서, 핸드 헬드 컴포넌트는, 자신의 센서들을 동작시켜 "핸드 헬드 컴포넌트 프레임워크" 또는 "좌표 프레임"에서의 자신의 포지션 및 배향을 결정하고, 그런 다음, 머리 장착 컴포넌트와 커플링되어 머리 장착 컴포넌트의 상대적 포지션을 결정하여, 머리 장착 컴포넌트에, 동일한 프레임워크에서의 그의 포지션 및 배향을 제공할 수 있다. 머리 장착 컴포넌트가 자신의 포지션 및 배향을 결정하고, 그런 다음, 머리 장착 컴포넌트에 대한 제어기의 포지션 및 배향을 결정하고, 차례로, 머리 장착 컴포넌트 프레임워크 또는 머리 장착 좌표 프레임에서의 핸드 헬드 컴포넌트에 대한 로컬화를 제공할 수 있다는 점에서, 그 반대도 또한 그러하다. 유클리드 거리 매트릭스, 쿼터니언 배향들, 또는 3차원 회전 매트릭스들과 같은, 둘 사이의 매트릭스 변환들은, 컴포넌트들 사이의 그러한 좌표 프레임 변환들을 용이하게 하는 데 이용될 수 있다.[00048] The handheld controller and the head-mounted wearable component may be configured to share determined pose information via their operable couplings (e.g., via a Bluetooth connection as described above) so that relative positioning and/or orientation between the handheld controller and the head-mounted wearable component may be determined (220). Such motions may be frequently updated (222) to maintain timely refresh information regarding relative positioning and/or orientation between the handheld controller and the head-mounted wearable component. The localization of a component may be provided as a function of a coordinate frame of the component. In other words, the handheld component may operate its sensors to determine its position and orientation in a "handheld component framework" or "coordinate frame" and may then be coupled with the head-mounted component to determine the relative position of the head-mounted component, thereby providing the head-mounted component with its position and orientation in the same framework. The converse is also true, in that the head-mounted component can determine its own position and orientation, and then determine the position and orientation of the controller for the head-mounted component, which in turn can provide localization for the hand-held component in the head-mounted component framework or head-mounted coordinate frame. Matrix transformations between the two, such as Euclidean distance matrices, quaternion orientations, or 3D rotation matrices, can be used to facilitate such coordinate frame transformations between the components.

[00049] 일부 실시예들에서, 임의의 하나의 컴포넌트는 복수의 다른 컴포넌트들에 대해 자신을 로컬화할 수 있다. 예컨대, 핸드 헬드 제어기(606)는 머리 장착 컴포넌트(58) 및 캡처 및 프로세싱 모듈(606)에 대한 자신의 포지션을 검출할 수 있다. 상대적 감지의 수단은 또한 주관적일 수 있다. 핸드 컴포넌트(606)는 머리 장착 컴포넌트(58) 상의 IR 신호를 검출하기 위해 IR 어레이 추적을 활용하고, 캡처 및 프로세싱 모듈(606)을 검출하기 위해 가시광 추적(이를테면, 피처 검출 및 추출 또는 기준점(fiducial) 검출)을 사용할 수 있다. 그와 관련하여, 하나의 페어링의 컴포넌트들 사이의 병진 또는 회전 측정들은, 임의의 주어진 시간에 최적화된 로컬화 데이터 세트를 사용자에게 제공하기 위해, 다른 페어링들의 컴포넌트들 사이의 이미지 캡처 피처 검출들을 대체 또는 보완할 수 있다.[00049] In some embodiments, any one component may localize itself relative to a plurality of other components. For example, the handheld controller (606) may detect its position relative to the head-mounted component (58) and the capture and processing module (606). The means of relative sensing may also be subjective. The hand component (606) may utilize IR array tracking to detect IR signals on the head-mounted component (58), and may use visible light tracking (e.g., feature detection and extraction or fiducial detection) to detect the capture and processing module (606). In that regard, translational or rotational measurements between components of one pairing may replace or supplement image capture feature detections between components of other pairings to provide a user with an optimized set of localization data at any given time.

[00050] 이전의 예를 참조하면, 사용자가, 많은 검출가능한 피처들이 없는 빈 벽에 접근하는 경우, 이미지 기반 추적을 사용하는 것은 정확도를 떨어뜨리거나 레이턴시를 증가시킬 것인데, 왜냐하면, 시스템이 계산하는 데 활용하기 위한 감지된 피처가 줄어들 것이기 때문이다. 그러나, 제어 및 프로세싱 모듈(606)이 추가적인 검출가능한 데이터, 이를테면, IR 신호, 비행시간 펄스 또는 전자기 송신을 제공한 경우, 그 제어 및 프로세싱 모듈에 대한 사용자의 회전 및 병진은, 이미지 기반 추적 센서들에 의해 검출가능한 피처들의 부족의 결점을 보상하기 위해 임의의 로컬화 로직을 적어도 보완할 수 있다.[00050] Referring to the previous example, if the user were to approach a blank wall without many detectable features, using image-based tracking would result in reduced accuracy or increased latency, as there would be fewer detected features for the system to utilize in its calculations. However, if the control and processing module (606) provided additional detectable data, such as IR signals, time-of-flight pulses, or electromagnetic transmissions, the user's rotation and translation relative to the control and processing module could at least supplement any localization logic to compensate for the lack of detectable features by the image-based tracking sensors.

[00051] 도 8b를 참조하면, 도 6a-도 6c 및 도 7a-도 7c를 참조하여 위에서 설명된 것들과 같은 구성이 다양한 컴포넌트들의 상대적 또는 절대적 포즈를 결정하는 데 활용될 수 있다. 도 8b에 도시된 바와 같이, 사용자는 복수의 핸드 헬드 제어기들(606) 및/또는 고정식으로 장착된(8) 제어기들에 동작가능하게 커플링된 머리 장착 웨어러블 컴포넌트(58)를 착용하고 있을 수 있으며, 그 중 하나는, 이를테면, 핸드 헬드 커플링을 통해 오퍼레이터의 신체에 물리적으로 커플링될 수 있다(224). 머리 장착 웨어러블 컴포넌트(58)는, 머리 장착 웨어러블 컴포넌트(58) 주위의 환경(이를 테면, 룸)에 대한 머리 장착 웨어러블 컴포넌트의 포즈의 특정 양상들(이를 테면, 위치 및 배향), 및/또는 그러한 환경에 관한 특정 특징들(이를테면, 룸의 형상)을 결정하기 위해, 자신에 커플링된 센서들을 활용하도록 구성될 수 있다(226). 복수의 핸드 헬드 제어기들(606) ― 복수의 핸드 헬드 제어기들(606)은 다른 오브젝트들 위에 놓이도록 구성되거나 또는 그에 고정식으로 장착될 수 있고, 그 중 하나는, 도 6a-도 6c 및 도 7a-도 7c에서와 같이 오퍼레이터에 물리적으로 커플링될 수 있음 ― 은, 그러한 제어기들 주위의 환경(이를 테면, 룸)에 대한 그러한 제어기들의 포즈의 특정 양상들(이를 테면, 위치 및 배향), 및/또는 그러한 환경에 관한 특정 특징들(이를테면, 룸의 형상)을 결정하기 위해, 자신들에 커플링된 센서들을 활용하도록 구성될 수 있다(228). 복수의 핸드 헬드 제어기들(606) ― 복수의 핸드 헬드 제어기들(606)은 다른 오브젝트들에 고정식으로 장착되거나, 다른 오브젝트들 위에 놓이거나, 또는 오퍼레이터에 커플링될 수 있음 ― 및 머리 장착 웨어러블 컴포넌트(58)는, 복수의 핸드 헬드 제어기들(606) 중 하나 이상과 머리 장착 웨어러블 컴포넌트(58) 사이의 상대적 포지셔닝 및/또는 배향이 결정될 수 있도록, 그들의 동작가능 커플링들을 통해(이를 테면, 블루투스 연결을 통해), 결정된 포즈 정보를 공유하도록 구성될 수 있다(230).[00051] Referring to FIG. 8b, configurations such as those described above with reference to FIGS. 6a-6c and 7a-7c may be utilized to determine relative or absolute poses of various components. As illustrated in FIG. 8b, a user may wear a head-mounted wearable component (58) operably coupled to a plurality of hand-held controllers (606) and/or fixedly mounted (8) controllers, one of which may be physically coupled to the operator's body (224), such as via a hand-held coupling. A head-mounted wearable component (58) may be configured to utilize sensors coupled thereto to determine certain aspects of a pose of the head-mounted wearable component (58) relative to an environment (e.g., a room) surrounding the head-mounted wearable component (58) (e.g., position and orientation), and/or certain features of such environment (e.g., the shape of the room) (226). A plurality of handheld controllers (606) — the plurality of handheld controllers (606) may be configured to rest on or be fixedly mounted to other objects, one of which may be physically coupled to an operator as in FIGS. 6A-6C and FIGS. 7A-7C — may be configured to utilize sensors coupled to them to determine particular aspects of the pose of such controllers (such as position and orientation) relative to an environment around such controllers (such as a room), and/or particular features of such environment (such as the shape of the room) (228). A plurality of handheld controllers (606)—the plurality of handheld controllers (606) may be fixedly mounted to other objects, placed on other objects, or coupled to an operator—and a head-mounted wearable component (58) may be configured to share determined pose information via their operable couplings (e.g., via a Bluetooth connection) such that relative positioning and/or orientation between one or more of the plurality of handheld controllers (606) and the head-mounted wearable component (58) may be determined (230).

[00052] 컴포넌트들 각각 사이의 매트릭스 변환들은, 단순히 컴포넌트들 사이의 상대적 포지션이 아니라 절대적 포지션을 제공하도록 최적화될 수 있다. 예컨대, 물리적 환경에 대해, 고정적으로 장착된 컴포넌트들의 포지션들 및 배향들이 알려진 경우, 핸드 헬드 컴포넌트(606) 또는 머리 장착 컴포넌트(58)는 그러한 고정적으로 장착된 컴포넌트들에 대한 그들 개개의 포즈들을 결정할 수 있고, 확장에 의해, "실세계 좌표 프레임" 또는 "환경 좌표 프레임" 포지션 및 배향을 결정할 수 있으며, 이는 절대 포즈로 지칭될 수 있다.[00052] Matrix transformations between each of the components can be optimized to provide absolute positions rather than simply relative positions between the components. For example, if the positions and orientations of the fixedly mounted components are known relative to the physical environment, the handheld component (606) or the head mounted component (58) can determine their individual poses relative to those fixedly mounted components, and by extension, determine "real world coordinate frame" or "environment coordinate frame" positions and orientations, which can be referred to as absolute poses.

[00053] 위에서 논의된 바와 같이, 다른 중간 좌표 프레임들이 존재하거니 또는 유용할 수 있다는 것이 인지될 것이다. 예컨대, (이를테면, 핸드 헬드 컴포넌트에 커플링된 관성 측정 유닛, 가속도계, 또는 카메라들로부터) 포지션 데이터만을 수신하는 핸드 헬드 제어기는 "핸드 헬드 좌표 프레임"에서의 자신의 포즈를 결정할 수 있고, 유사하게 "머리 장착 좌표 프레임" 및 포즈 정보에 대해서는 그것의 센서들이 검출 및 추출한다. 일부 실시예들에서, 개시된 센서들 및 감지 컴포넌트들을 사용한, 포지션을 결정하기 위한 로컬화 시스템 및 프로토콜은 중간 좌표 프레임에서만 동작할 필요가 있을 수 있고, 절대 또는 전체 환경 좌표 프레임 정보를 필요로 하지 않을 수 있다.[00053] As discussed above, it will be appreciated that other intermediate coordinate frames may exist or be useful. For example, a handheld controller that receives only position data (e.g., from an inertial measurement unit, accelerometer, or camera coupled to the handheld component) may determine its pose in a "handheld coordinate frame", and similarly its sensors detect and extract a "head-mounted coordinate frame" and pose information. In some embodiments, a localization system and protocol for determining position using the disclosed sensors and sensing components may need to operate only in an intermediate coordinate frame, and may not require absolute or global environmental coordinate frame information.

[00054] 그러한 동작들은, 복수의 핸드 헬드 제어기들 및/또는 고정식으로 장착된 제어기들과 머리 장착 웨어러블 컴포넌트 사이의 상대적 포지셔닝 및/또는 배향에 관한 적시의 정보를 유지하기 위해 자주 업데이트될 수 있다(232).[00054] Such actions may be frequently updated to maintain timely information regarding the relative positioning and/or orientation between the multiple handheld controllers and/or fixedly mounted controllers and the head-mounted wearable component (232).

[00055] 도 9a를 참조하면, 송신 엘리먼트들, 이를테면, 적외선 송신기들, 또는 리플렉터들, 이를테면, 작은 복수의 거울들, 유리 구체들, 또는 다른 반사 엘리먼트들을 나타낼 수 있는 작은 기준점들(246)은, 기준점들(246) 중 하나 이상의 기준점들 사이에서 알려진 또는 미리 결정된 치수들을 갖는 시스템의 모듈들 사이의 포지션 및/또는 배향의 신속한 결정을 돕기 위해 활용될 수 있다. 예컨대, 도 9b를 참조하면, 복수의 기준점들(246)이 커플링된 머리 장착 컴포넌트(58)의 일 실시예에서, 기준점들(246) 사이의 비교적 긴 알려진 길이들은, 카메라 또는 다른 디바이스를 이용하여 기준점들을 추적하도록 구성된 다른 컴포넌트에 대한 또는 글로벌 좌표계에 대한 공간 내에서의 그러한 머리 장착 컴포넌트(58)의 상대적 포지션 및/또는 배향을 결정 및 추적하는 데 활용될 수 있다. 도 9c는 그러한 구성의 포지셔닝 및/또는 배향에 관한 추가적인 정보를 제공하기 위해 추가적인 기준점들(246)을 갖는 다른 머리 장착 컴포넌트(58) 구성을 예시한다.[00055] Referring to FIG. 9a, small fiducials (246), which may represent transmitting elements, such as infrared transmitters, or reflectors, such as a plurality of small mirrors, glass spheres, or other reflective elements, may be utilized to facilitate rapid determination of position and/or orientation between modules of the system having known or predetermined dimensions between one or more of the fiducials (246). For example, referring to FIG. 9b, in one embodiment of a head-mounted component (58) coupled with a plurality of fiducials (246), the relatively long known lengths between the fiducials (246) may be utilized to determine and track the relative position and/or orientation of such head-mounted component (58) in space relative to another component configured to track the fiducials using a camera or other device, or relative to a global coordinate system. FIG. 9c illustrates another head mounted component (58) configuration having additional reference points (246) to provide additional information regarding positioning and/or orientation of such a configuration.

[00056] 도 9d는 상대적 포즈 결정을 돕기 위해 복수의 기준점들(246)이 또한 커플링된 로컬 프로세싱 및 데이터 모듈(70) 구성을 예시한다. 도 9e는 상대적 포즈 결정을 돕기 위해 더 많은 복수의 기준점들(246)이 커플링된 로컬 프로세싱 및 데이터 모듈(70) 구성의 다른 실시예를 예시한다.[00056] Figure 9d illustrates a local processing and data module (70) configuration in which multiple reference points (246) are also coupled to aid in relative pose determination. Figure 9e illustrates another embodiment of a local processing and data module (70) configuration in which more reference points (246) are coupled to aid in relative pose determination.

[00057] 도 9f는 상대적 포즈 결정을 돕기 위해 복수의 기준점들(246)이 또한 커플링된 핸드 헬드 제어기 모듈(606) 구성을 예시한다. 도 9g는 상대적 포즈 결정을 돕기 위해 더 많은 복수의 기준점들(246)이 커플링된 핸드 헬드 제어기(606) 구성의 다른 실시예를 예시한다.[00057] Figure 9f illustrates a configuration of a handheld controller module (606) that is also coupled with a plurality of reference points (246) to aid in relative pose determination. Figure 9g illustrates another embodiment of a configuration of a handheld controller (606) that is coupled with a greater number of reference points (246) to aid in relative pose determination.

[00058] 도 9h는 상대적 포즈 결정을 돕기 위해 다중-기준점 어레이(248)가 커플링된 핸드 헬드 제어기 모듈(606) 구성을 예시하며; 서브-부분들의 알려진 포지션들을 갖는 그러한 기준점 어레이들은, 예컨대 모바일 컴퓨팅 시스템의 웨어러블 컴포넌트들만큼 많은 기하학적 제약 없이 커피 테이블 등 상에 배치될 추가적인 핸드 헬드 제어기 모듈(606)과 같이, 그들을 위한 기하학적 구조가 제공될 수 있을 때, 포즈 결정에 유용할 수 있다. 도 9i는, 오퍼레이터(60)에 이미 커플링된 하나의 핸드 헬드 제어기(606)에 추가하여, 복수의 추가적인 제어기들, 이를테면, 핸드 헬드 제어기 모듈들(606)이 또한, 상대 컴포넌트들의 서로에 대한 신속한 포즈 결정을 돕기 위해 기준점들(246)로 아웃피팅될(outfitted) 수 있는 구성을 예시한다.[00058] Figure 9h illustrates a configuration of a handheld controller module (606) coupled with a multi-fiducial array (248) to aid in relative pose determination; such fiducial arrays having known positions of sub-parts can be useful for pose determination when geometric structures for them can be provided, such as additional handheld controller modules (606) that can be placed on a coffee table or the like without as many geometric constraints as wearable components of a mobile computing system. Figure 9i illustrates a configuration where, in addition to a single handheld controller (606) already coupled to an operator (60), a plurality of additional controllers, such as handheld controller modules (606), can also be outfitted with fiducials (246) to aid in rapid pose determination of relative components relative to one another.

[00059] 도 10을 참조하면, 도 9a를 참조하여 설명된 것과 같은 실시예에서, 사용자(60)는 핸드 헬드 제어기(606)에 동작가능하게 커플링된 머리 장착 웨어러블 컴포넌트(58)를 착용하고 있을 수 있다(214). 머리 장착 웨어러블 컴포넌트(58)는, 머리 장착 웨어러블 컴포넌트 주위의 환경(이를 테면, 룸)에 대한 머리 장착 웨어러블 컴포넌트의 포즈의 특정 양상들(이를 테면, 위치 및 배향), 및/또는 그러한 환경에 관한 특정 특징들(이를테면, 룸의 형상)을 결정하기 위해, 자신에 커플링된 센서들을 활용하도록 구성될 수 있다(216). 핸드 헬드 제어기(606), 이를테면, 오퍼레이터의 손에 물리적으로 커플링된 핸드 헬드 제어기(606), 및 머리 장착 웨어러블 컴포넌트는, 머리 장착 웨어러블 컴포넌트의 포즈에 대한 핸드 헬드 제어기의 포즈의 특정 양상들(이를 테면, 위치 및 배향)을 결정하기 위해, 이를테면, 자신들에 커플링된 송신기/수신기 페어링들(이를테면, 단일-랩 구성들의 적외선 스펙트럼 비콘들 및 센서들) 또는 트랜시버/리플렉터 페어링들(이를테면, 2-랩 구성들의 적외선 스펙트럼 송신기/수신기 디바이스들 및 리플렉터들)을 통해 기준점들을 활용하도록 구성될 수 있다(234). 핸드 헬드 제어기(606) 및 머리 장착 웨어러블 컴포넌트(58)는, 핸드 헬드 제어기와 머리 장착 웨어러블 컴포넌트 사이의 상대적 포지셔닝 및/또는 배향이 결정될 수 있도록, 그들의 동작가능 커플링을 통해(이를 테면, 블루투스 연결을 통해), 결정된 포즈 정보를 공유하도록 구성될 수 있다(236). 그러한 동작들은, 핸드 헬드 제어기와 머리 장착 웨어러블 컴포넌트 사이의 상대적 포지셔닝 및/또는 배향에 관한 리프레시 정보를 유지하기 위해 자주 업데이트될 수 있다(238).[00059] Referring to FIG. 10, in an embodiment such as that described with reference to FIG. 9a, a user (60) may be wearing a head-mounted wearable component (58) operably coupled to a handheld controller (606) (214). The head-mounted wearable component (58) may be configured to utilize sensors coupled thereto to determine certain aspects of a pose of the head-mounted wearable component (such as position and orientation) relative to an environment (such as a room) surrounding the head-mounted wearable component, and/or certain features of such environment (such as the shape of the room) (216). The handheld controller (606), such as a handheld controller (606) physically coupled to an operator's hand, and the head-mounted wearable component can be configured to utilize reference points, such as via transmitter/receiver pairings (such as infrared spectral beacons and sensors in single-lap configurations) or transceiver/reflector pairings (such as infrared spectral transmitter/receiver devices and reflectors in two-lap configurations) coupled thereto, to determine certain aspects (such as position and orientation) of the pose of the handheld controller relative to the pose of the head-mounted wearable component (234). The handheld controller (606) and the head-mounted wearable component (58) can be configured to share determined pose information via their operable coupling (e.g., via a Bluetooth connection) such that relative positioning and/or orientation between the handheld controller and the head-mounted wearable component can be determined (236). Such actions can be frequently updated to maintain refresh information regarding the relative positioning and/or orientation between the handheld controller and the head-mounted wearable component (238).

[00060] 도 11을 참조하면, 도 9i에 예시된 것과 같은 실시예의 경우, 사용자(60)는 복수의 핸드 헬드 스타일 제어기들(606)에 동작가능하게 커플링된 머리 장착 웨어러블 컴포넌트(58)를 착용하고 있을 수 있으며, 복수의 핸드 헬드 스타일 제어기들(606)은 사용자 또는 주위 룸의 다른 오브젝트들, 이를테면, 벽들(8)에 물리적으로 커플링될 수 있다(224). 머리 장착 웨어러블 컴포넌트(58)는, 머리 장착 웨어러블 컴포넌트(58) 주위의 환경(이를 테면, 룸)에 대한 머리 장착 웨어러블 컴포넌트의 포즈의 특정 양상들(이를 테면, 위치 및 배향), 및/또는 그러한 환경에 관한 특정 특징들(이를테면, 룸의 형상)을 결정하기 위해, 자신에 커플링된 센서들을 활용하도록 구성될 수 있다(226). 복수의 핸드 헬드 제어기들(606) 및 머리 장착 웨어러블 컴포넌트(58)는, 머리 장착 웨어러블 컴포넌트(58)의 포즈에 대한 핸드 헬드 제어기들(606)의 포즈의 특정 양상들(이를 테면, 위치 및 배향)을 결정하기 위해, 기준점 구성들, 이를테면, 자신들에 커플링된 송신기/수신기 페어링들(이를테면, 단일-랩 구성들의 적외선 스펙트럼 비콘들 및 센서들) 또는 트랜시버/리플렉터 페어링들(이를테면, 2-랩 구성들의 적외선 스펙트럼 송신기/수신기 디바이스들 및 리플렉터들)을 활용하도록 구성될 수 있다(240). 복수의 핸드 헬드 제어기들(606) 및 머리 장착 웨어러블 컴포넌트(58)는, 복수의 핸드 헬드 제어기들(606)과 머리 장착 웨어러블 컴포넌트(58) 사이의 상대적 포지셔닝 및/또는 배향이 결정될 수 있도록, 그들의 동작가능 커플링을 통해(이를 테면, 블루투스 연결을 통해), 결정된 포즈 정보를 공유하도록 구성될 수 있다(242). 그러한 동작들은, 복수의 핸드 헬드 제어기들 및/또는 고정식으로 장착된 제어기들과 머리 장착 웨어러블 컴포넌트 사이의 상대적 포지셔닝 및/또는 배향에 관한 리프레시 정보를 유지하기 위해 자주 업데이트될 수 있다(244).[00060] Referring to FIG. 11, for an embodiment such as that illustrated in FIG. 9i, a user (60) may be wearing a head-mounted wearable component (58) operably coupled to a plurality of hand-held style controllers (606), which may be physically coupled to the user or other objects in the surrounding room, such as walls (8) (224). The head-mounted wearable component (58) may be configured to utilize sensors coupled thereto to determine certain aspects of the pose of the head-mounted wearable component (58) relative to an environment (e.g., a room) surrounding the head-mounted wearable component (58), such as position and orientation, and/or certain features of such environment (e.g., a shape of the room) (226). The plurality of hand-held controllers (606) and the head-mounted wearable component (58) can be configured to utilize reference point configurations, such as transmitter/receiver pairings (such as infrared spectrum beacons and sensors in single-lap configurations) or transceiver/reflector pairings (such as infrared spectrum transmitter/receiver devices and reflectors in two-lap configurations) coupled thereto, to determine particular aspects (such as position and orientation) of the pose of the hand-held controllers (606) relative to the pose of the head-mounted wearable component (58) (240). The plurality of handheld controllers (606) and the head-mounted wearable component (58) may be configured to share determined pose information via their operable coupling (e.g., via a Bluetooth connection) such that relative positioning and/or orientation between the plurality of handheld controllers (606) and the head-mounted wearable component (58) may be determined (242). Such operations may be frequently updated (244) to maintain refresh information regarding the relative positioning and/or orientation between the plurality of handheld controllers and/or fixedly mounted controllers and the head-mounted wearable component.

[00061] 도 12a를 참조하면, 다른 실시예는, 핸드 헬드 제어기(606)의 상이한 위치들/배향들로부터의 추가적인 포즈 결정 데이터를 위해, 그 상부에 포함된 계장을 추가로 활용하기 위하여, 핸드 헬드 제어기(606)의 주기적 움직임(248)이 활용될 수 있도록 구성될 수 있다. 다시 말해서, 오퍼레이터(60)가 도어를 둘러싸는 구역의 움직임에 특히 관심이 있는 경우, 오퍼레이터(60)는 상이한 관점들, 벡터들, 및/또는 배향들로부터 그러한 로컬 환경에 관한 추가적인 정보를 캡처하기 위해, 제어기를 포함하는 센서들을 활용하는 데 있어서 제어기를 돕기 위해, 핸드 헬드 제어기(60) 주위를 포기(waive)할 수 있다.[00061] Referring to FIG. 12a, another embodiment may be configured such that the periodic motion (248) of the handheld controller (606) may be utilized to further utilize the instrumentation included thereon for additional pose determination data from different positions/orientations of the handheld controller (606). In other words, if the operator (60) is particularly interested in the motion of the area surrounding the door, the operator (60) may waive the handheld controller (60) around to assist the controller in utilizing the sensors included therein to capture additional information about that local environment from different viewpoints, vectors, and/or orientations.

[00062] 그러한 핸드 헬드 주기적 모션은, 오퍼레이터가 타겟팅된 구조물들에 더 근접할 것을 요구하며, 이는 바람직하지 않거나 실용적이지 않을 수 있으며; 도 12b의 실시예는, 사용자(60)가 대상 도어(202)로부터 비교적 멀리 떨어져 있지만, 2개의 핸드 헬드 제어기들(606)이 관심 영역에 장착된 ― 즉, 하나는 인근의 벽에 그리고 다른 하나는 도어(202) 자체에 장착됨 ― 것을 특징으로 한다. 도 12c는 주기적 모션(248) 및 도 12b에서와 같이 추가적인 감지 디바이스들(606) 둘 모두를 특징으로 하는 실시예를 예시한다.[00062] Such a hand-held periodic motion would require the operator to be closer to the targeted structures, which may be undesirable or impractical; the embodiment of FIG. 12b features the user (60) being relatively far away from the target door (202), but with two hand-held controllers (606) mounted in the area of interest - one mounted on a nearby wall and the other on the door (202) itself. FIG. 12c illustrates an embodiment featuring both the periodic motion (248) and additional sensing devices (606) as in FIG. 12b.

[00063] 도 13은, 도 11의 구성과 유사한 구성을 예시하며, 관심 오브젝트 또는 볼륨, 이를테면, 도어 또는 다른 오브젝트에 관한 정보, 및 핸드 헬드 제어기(606) 및 다른 디바이스들, 이를테면, 하나 이상의 고정식으로 장착된 제어기들(606) 및 머리 장착 웨어러블 컴포넌트(58)에 대한 관심 오브젝트 또는 볼륨의 포지셔닝 및/또는 배향의 추가의 캡처를 용이하게 하기 위해, 사용자(60)가 관심 오브젝트 또는 볼륨 주위의 하나 이상의 핸드 헬드 제어기들을, 이를테면, 주기적 모션 또는 움직임을 통해 이동시키는 것이 추가된다. 그러한 동작들은, 복수의 핸드 헬드 제어기들 및/또는 고정식으로 장착된 제어기들과 머리 장착 웨어러블 컴포넌트 사이의 상대적 포지셔닝 및/또는 배향에 관한 리프레시 정보를 유지하기 위해 자주 업데이트될 수 있다(270).[00063] Figure 13 illustrates a configuration similar to that of Figure 11, with the addition that the user (60) moves one or more hand-held controllers around the object or volume of interest, such as a door or other object, to facilitate additional capture of information about the object or volume of interest, and positioning and/or orientation of the object or volume of interest relative to the hand-held controller (606) and other devices, such as one or more fixedly mounted controllers (606) and the head-mounted wearable component (58), such as through a periodic motion or movement. Such actions may be frequently updated (270) to maintain refresh information about the relative positioning and/or orientation between the plurality of hand-held controllers and/or fixedly mounted controllers and the head-mounted wearable component.

[00064] 본 발명의 다양한 예시적인 실시예들이 본원에서 설명된다. 비-제한적인 의미로 이들 예들에 대한 참조가 이루어진다. 그 예들은 본 발명의 더 광범위하게 적용가능한 양상들을 예시하기 위해 제공된다.[00064] Various exemplary embodiments of the present invention are described herein. Reference is made to these examples in a non-limiting sense. The examples are provided to illustrate aspects of the invention that are more broadly applicable.

[00065] 본 발명은 본 발명의 디바이스들을 사용하여 수행될 수 있는 방법들을 포함한다. 방법들은 그러한 적합한 디바이스를 제공하는 동작을 포함할 수 있다. 그러한 프로비전은 최종 사용자에 의해 수행될 수 있다. 다시 말해서, "제공하는" 동작은 단순히, 본 발명의 방법의 필수적인 디바이스를 제공하기 위해, 최종 사용자가 획득하거나, 액세스하거나, 접근하거나, 포지셔닝하거나, 셋-업하거나, 활성화하거나, 파워-업하거나, 또는 다른 방식으로 수행하도록 요구할 뿐이다. 본원에서 언급된 방법들은 언급된 이벤트들의 논리적으로 가능한 임의의 순서뿐만 아니라 이벤트들의 언급된 순서로 수행될 수 있다.[00065] The present invention includes methods that can be performed using the devices of the present invention. The methods can include the act of providing such a suitable device. Such provisioning can be performed by an end user. In other words, the act of "providing" merely requires that the end user obtain, access, approach, position, set-up, activate, power-up, or otherwise perform the necessary device of the method of the present invention. The methods mentioned herein can be performed in any logically possible order of the mentioned events, as well as in the mentioned order of events.

[00066] 재료 선택 및 제조에 관한 세부사항들과 함께 본 발명의 예시적인 양상들이 위에서 기재되었다. 본 발명의 다른 세부사항들에 대해 말하자면, 이들은 위에서-참조된 특허들 및 공개문헌들과 관련하여 인지될 수 있을 뿐만 아니라 일반적으로 당업자들에게 알려졌거나 또는 당업자들에 의해 인지될 수 있다. 통상적으로 또는 논리적으로 이용되는 바와 같은 추가적인 동작들과 관련하여 본 발명의 방법-기반 양상들에 대해서도 마찬가지일 수 있다.[00066] Exemplary aspects of the present invention have been described above, together with details regarding material selection and manufacturing. As for other details of the present invention, these may be recognized in connection with the above-referenced patents and publications, as well as generally known or may be recognized by those skilled in the art. The same may also be true for method-based aspects of the present invention, with respect to additional operations, as is usually or logically employed.

[00067] 또한, 설명된 본 발명의 변형들의 임의의 선택적인 특징이 독립적으로 또는 본원에서 설명된 특징들 중 임의의 하나 이상과 조합하여 기재되고 청구될 수 있다는 것이 고려된다. 단수형 아이템들에 대한 참조는 복수의 동일한 아이템들이 존재할 가능성을 포함한다. 더 구체적으로는, 본원에서 그리고 그와 연관된 청구항들에서 사용되는 바와 같이, 단수형들은, 구체적으로 달리 언급되지 않는 한 복수의 지시대상들을 포함한다. 다시 말해서, 단수형들의 사용은, 본 개시내용과 연관된 위의 설명뿐만 아니라 청구항들에서 대상 아이템 중 "적어도 하나"를 허용한다. 그러한 청구항들이 임의의 선택적인 엘리먼트를 배제하도록 작성될 수 있다는 것이 추가로 주목된다. 따라서, 이 진술은 청구항 엘리먼트들의 인용과 관련하여 "단독으로", "유일한" 등과 같은 그러한 배타적인 전문용어의 사용 또는 "네거티브" 제한의 사용에 대한 선행 기반의 역할을 하는 것으로 의도된다.[00067] It is also contemplated that any optional feature of the described variations of the invention may be described and claimed independently or in combination with any one or more of the features described herein. Reference to a singular item includes the possibility that there may be plural of the same items. More specifically, as used herein and in the claims associated therewith, the singular includes plural referents unless specifically stated otherwise. In other words, use of the singular allows for "at least one" of the subject item in the claims as well as in the description above associated with the present disclosure. It is further noted that such claims may be drafted to exclude any optional element. Accordingly, this statement is intended to serve as antecedent basis for use of such exclusive terminology as "solely," "only," etc., or use of a "negative" limitation in connection with the recitation of claim elements.

[00068] 그러한 배타적인 전문용어의 사용없이, 본 개시내용과 연관된 청구항들의 용어 "포함하는(comprising)"은, 주어진 수의 엘리먼트들이 그러한 청구항들에서 열거되는지 또는 특징의 추가가 그러한 청구항들에서 기재된 엘리먼트의 성질을 변환시키는 것으로 간주될 수 있는지에 관계없이, 임의의 추가적인 엘리먼트의 포함을 허용해야 한다. 본원에서 구체적으로 정의되는 것을 제외하고, 본원에서 사용되는 모든 기술 및 과학 용어들은 청구 유효성을 유지하면서 가능한 일반적으로 이해되는 의미로 광범위하게 주어질 것이다.[00068] Without using such exclusive terminology, the term "comprising" in claims associated with this disclosure should allow for the inclusion of any additional elements, regardless of whether a given number of elements are recited in such claims or whether the addition of a feature can be considered to change the nature of an element recited in such claims. Except as specifically defined herein, all technical and scientific terms used herein are to be given as broad a commonly understood meaning as possible while maintaining claim validity.

Claims (20)

복수의 감지 컴포넌트들을 동작시키는 사용자를 위치 결정(localize)하는 방법으로서,
하나 이상의 제어 및 프로세싱 모듈들로부터 하나 이상의 기준점(fiducial)들을 포함하는 머리 장착 컴포넌트로 상대적 위치의 양상(aspect)들을 전송하는 단계,
상기 머리 장착 컴포넌트에서 위치 정보를 나타내는 환경 특성들을 수신하는 단계,
상기 수신된 환경 특성들에 기초하여 상기 머리 장착 컴포넌트의 환경 좌표 프레임에서의 머리 장착 컴포넌트 포즈를 결정하는 단계,
상기 머리 장착 컴포넌트에서, 상기 머리 장착 컴포넌트에 대한 적어도 하나의 핸드헬드 컴포넌트의 상대적 위치의 양상들을 수신하는 단계,
상기 하나 이상의 기준점들을 활용하여 머리 장착 컴포넌트 좌표 프레임에서의 상기 적어도 하나의 핸드헬드 컴포넌트의 상대적인 핸드헬드 컴포넌트 포즈를 결정하는 단계,
상기 환경 좌표 프레임에서의 상기 머리 장착 컴포넌트 포즈를 상기 적어도 하나의 핸드헬드 컴포넌트와 공유하는 단계, 및
상기 머리 장착 컴포넌트 좌표 프레임에서의 상기 상대적인 핸드헬드 컴포넌트 포즈를 상기 머리 장착 컴포넌트와 공유하는 단계
를 포함하는,
방법.
A method for localizing a user who operates multiple sensing components,
A step of transmitting aspects of relative position from one or more control and processing modules to a head-mounted component including one or more fiducials;
A step of receiving environmental characteristics representing location information from the head-mounted component;
A step of determining a head-mounted component pose in the environment coordinate frame of the head-mounted component based on the received environmental characteristics;
In the head-mounted component, a step of receiving aspects of a relative position of at least one handheld component with respect to the head-mounted component;
A step of determining a relative handheld component pose of said at least one handheld component in a head-mounted component coordinate frame utilizing said one or more reference points;
a step of sharing the head-mounted component pose in the above environmental coordinate frame with at least one handheld component, and
A step of sharing the relative handheld component pose in the head-mounted component coordinate frame with the head-mounted component.
Including,
method.
제1항에 있어서,
상기 환경 좌표 프레임에서의 상기 머리 장착 컴포넌트 포즈에 기초하여 상기 머리 장착 컴포넌트 좌표 프레임에서의 상기 상대적인 핸드헬드 컴포넌트 포즈를 업데이트하는 단계를 더 포함하는, 방법.
In the first paragraph,
A method further comprising the step of updating the relative handheld component pose in the head-mounted component coordinate frame based on the head-mounted component pose in the environment coordinate frame.
제2항에 있어서,
상기 상대적인 핸드헬드 컴포넌트 포즈에 기초하여 상기 환경 좌표 프레임에서의 상기 머리 장착 컴포넌트 포즈를 업데이트하는 단계를 더 포함하는, 방법.
In the second paragraph,
A method further comprising the step of updating the head-mounted component pose in the environment coordinate frame based on the relative handheld component pose.
제1항에 있어서,
상기 머리 장착 컴포넌트 좌표 프레임에서의 상기 상대적인 핸드헬드 컴포넌트 포즈를 상기 환경 좌표 프레임에서의 상기 핸드헬드 컴포넌트 포즈로 변환하는 단계를 더 포함하는, 방법.
In the first paragraph,
A method further comprising the step of transforming the relative handheld component pose in the head-mounted component coordinate frame into the handheld component pose in the environment coordinate frame.
제1항에 있어서,
상기 환경 좌표 프레임에서 상기 하나 이상의 제어 및 프로세싱 모듈들로부터 상기 적어도 하나의 핸드헬드 컴포넌트로 상기 상대적 위치의 양상들을 전송하는 단계를 더 포함하는, 방법.
In the first paragraph,
A method further comprising the step of transmitting aspects of said relative position from said one or more control and processing modules to said at least one handheld component in said environmental coordinate frame.
제5항에 있어서,
상기 환경 좌표 프레임에서 핸드헬드 컴포넌트 포즈를 결정하는 단계를 더 포함하는, 방법.
In paragraph 5,
A method further comprising the step of determining a handheld component pose in the above environmental coordinate frame.
제6항에 있어서,
상기 환경 좌표 프레임에서의 상기 핸드헬드 컴포넌트 포즈를 이용하여 상기 머리 장착 컴포넌트와 공유된 상기 상대적인 핸드헬드 컴포넌트 포즈를 업데이트하는 단계를 더 포함하는, 방법.
In Article 6,
A method further comprising the step of updating the relative handheld component pose shared with the head-mounted component using the handheld component pose in the environment coordinate frame.
제1항에 있어서,
상기 환경 특성들을 수신하는 단계는 이미지 기반 특징 추출 및 위치 결정을 포함하는, 방법.
In the first paragraph,
A method wherein the step of receiving the above environmental characteristics includes image-based feature extraction and location determination.
제1항에 있어서,
상기 하나 이상의 기준점들을 활용하는 것은 전자기장 신호들을 전송하는 것을 포함하는, 방법.
In the first paragraph,
A method comprising utilizing one or more of said reference points to transmit electromagnetic field signals.
제9항에 있어서,
상기 전자기장 신호는 가시광선 스펙트럼에 있는, 방법.
In Article 9,
The above electromagnetic field signal is in the visible light spectrum, method.
제10항에 있어서,
상기 전자기장 신호는 적외선 스펙트럼에 있는, 방법.
In Article 10,
The above electromagnetic field signal is in the infrared spectrum, method.
복수의 감지 컴포넌트들을 동작시키는 사용자를 위치 결정하는 방법으로서,
하나 이상의 제어 및 프로세싱 모듈들로부터 하나 이상의 기준점들을 포함하는 머리 장착 컴포넌트로 상대적 위치의 양상들을 전송하는 단계,
상기 머리 장착 컴포넌트에서 위치 정보를 나타내는 환경 특성들을 수신하는 단계,
상기 수신된 환경 특성들에 기초하여 상기 머리 장착 컴포넌트의 환경 좌표 프레임에서 머리 장착 컴포넌트의 포즈를 결정하는 단계,
상기 머리 장착 컴포넌트에서, 상기 머리 장착 컴포넌트에 대한 적어도 하나의 고정식 장착 컨트롤러의 상대적 위치의 양상들을 수신하는 단계,
상기 하나 이상의 기준점들을 활용하여 상기 머리 장착 컴포넌트 좌표 프레임에서의 상기 적어도 하나의 고정식 장착 컨트롤러의 상대적인 고정 장착 컨트롤러 포즈를 결정하는 단계,
상기 환경 좌표 프레임에서의 상기 머리 장착 컴포넌트 포즈를 상기 적어도 하나의 고정 장착 컨트롤러와 공유하는 단계, 및
상기 머리 장착 컴포넌트 좌표 프레임에서의 상기 상대적인 고정 장착 컨트롤러 포즈를 상기 머리 장착 컴포넌트와 공유하는 단계
를 포함하는,
방법.
A method for positioning a user who operates multiple detection components, comprising:
A step of transmitting aspects of relative position from one or more control and processing modules to a head-mounted component including one or more reference points;
A step of receiving environmental characteristics representing location information from the head-mounted component;
A step of determining a pose of the head-mounted component in the environment coordinate frame of the head-mounted component based on the received environmental characteristics;
In the head-mounted component, a step of receiving aspects of the relative position of at least one fixed mounting controller with respect to the head-mounted component;
A step of determining a relative fixed mount controller pose of said at least one fixed mount controller in said head-mounted component coordinate frame utilizing said one or more reference points;
a step of sharing the head-mounted component pose in the above environmental coordinate frame with at least one fixed-mounted controller, and
A step of sharing the relative fixed mounted controller pose in the head mounted component coordinate frame with the head mounted component.
Including,
method.
제12항에 있어서,
상기 환경 좌표 프레임에서의 상기 머리 장착 컴포넌트 포즈에 기초하여 상기 머리 장착 컴포넌트 좌표 프레임에서의 상기 상대적인 고정식 장착 컨트롤러 포즈를 업데이트하는 단계를 더 포함하는, 방법.
In Article 12,
A method further comprising the step of updating the relative fixed mounted controller pose in the head mounted component coordinate frame based on the head mounted component pose in the environment coordinate frame.
제13항에 있어서,
상기 상대적인 고정식 장착 컨트롤러 포즈에 기초하여 상기 환경 좌표 프레임에서의 상기 머리 장착 컴포넌트 포즈를 업데이트하는 단계를 더 포함하는, 방법.
In Article 13,
A method further comprising the step of updating the head-mounted component pose in the environment coordinate frame based on the relative fixed-mounted controller pose.
제12항에 있어서,
상기 머리 장착 컴포넌트 좌표 프레임에서의 상기 상대적인 고정식 장착 컨트롤러 포즈를 상기 환경 좌표 프레임에서의 상기 상대적인 고정식 장착 컨트롤러 포즈로 변환하는 단계를 더 포함하는, 방법.
In Article 12,
A method further comprising the step of transforming said relative fixed mounted controller pose in said head mounted component coordinate frame into said relative fixed mounted controller pose in said environment coordinate frame.
제12항에 있어서,
상기 환경 좌표 프레임에서 하나 이상의 제어 및 프로세싱 모듈들로부터 상기 상대적인 고정식 장착 컨트롤러 포즈로 상기 상대적 위치의 측면들을 전송하는 단계를 더 포함하는, 방법.
In Article 12,
A method further comprising the step of transmitting aspects of said relative position from one or more control and processing modules to said relative fixed-mount controller pose in said environmental coordinate frame.
제16항에 있어서,
상기 환경 좌표 프레임에서 상기 상대적인 고정식 장착 컨트롤러 포즈를 결정하는 단계를 더 포함하는, 방법.
In Article 16,
A method further comprising the step of determining the relative fixed mounting controller pose in the environmental coordinate frame.
제17항에 있어서,
상기 환경 좌표 프레임에서의 상기 상대적인 고정식 장착 컨트롤러 포즈로 상기 머리 장착 컴포넌트와 공유된 상기 상대적인 고정식 장착 컨트롤러 포즈를 업데이트하는 단계를 더 포함하는, 방법.
In Article 17,
A method further comprising the step of updating the relative fixed mounted controller pose shared with the head mounted component with the relative fixed mounted controller pose in the environmental coordinate frame.
제12항에 있어서,
상기 환경 특성들을 수신하는 것은 이미지 기반 특징 추출 및 위치 결정을 포함하는, 방법.
In Article 12,
A method wherein receiving said environmental characteristics comprises image-based feature extraction and location determination.
제12항에 있어서,
상기 하나 이상의 기준점들을 활용하는 것은 전자기장 신호들을 전송하는 것을 포함하는, 방법.
In Article 12,
A method comprising utilizing one or more of said reference points to transmit electromagnetic field signals.
KR1020247025189A 2018-02-06 2019-02-05 Systems and methods for augmented reality KR20240121342A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862627155P 2018-02-06 2018-02-06
US62/627,155 2018-02-06
PCT/US2019/016721 WO2019156992A2 (en) 2018-02-06 2019-02-05 Systems and methods for augmented reality
KR1020207022205A KR102689931B1 (en) 2018-02-06 2019-02-05 Systems and methods for augmented reality

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020207022205A Division KR102689931B1 (en) 2018-02-06 2019-02-05 Systems and methods for augmented reality

Publications (1)

Publication Number Publication Date
KR20240121342A true KR20240121342A (en) 2024-08-08

Family

ID=67549617

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020247025189A KR20240121342A (en) 2018-02-06 2019-02-05 Systems and methods for augmented reality
KR1020207022205A KR102689931B1 (en) 2018-02-06 2019-02-05 Systems and methods for augmented reality

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020207022205A KR102689931B1 (en) 2018-02-06 2019-02-05 Systems and methods for augmented reality

Country Status (9)

Country Link
US (2) US11222457B2 (en)
EP (1) EP3750033A4 (en)
JP (2) JP7316282B2 (en)
KR (2) KR20240121342A (en)
CN (1) CN111712780A (en)
AU (1) AU2019217515A1 (en)
CA (1) CA3087738A1 (en)
IL (2) IL312231A (en)
WO (1) WO2019156992A2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL312231A (en) 2018-02-06 2024-06-01 Magic Leap Inc Systems and methods for augmented reality
CN110221690B (en) * 2019-05-13 2022-01-04 Oppo广东移动通信有限公司 Gesture interaction method and device based on AR scene, storage medium and communication terminal
JP7463796B2 (en) * 2020-03-25 2024-04-09 ヤマハ株式会社 DEVICE SYSTEM, SOUND QUALITY CONTROL METHOD AND SOUND QUALITY CONTROL PROGRAM
RU201742U1 (en) * 2020-07-22 2020-12-30 Общество с ограниченной ответственностью "МИКСАР ДЕВЕЛОПМЕНТ" Augmented reality glasses for use in hazardous production environments
CN114694167A (en) * 2020-12-28 2022-07-01 Oppo广东移动通信有限公司 Gesture recognition method, device, equipment, system and storage medium
US11768374B1 (en) 2022-06-24 2023-09-26 Rockwell Collins, Inc. Vehicle including head wearable display device and imperceptible reference fiducials and method therefor
JP7466733B1 (en) 2023-03-27 2024-04-12 株式会社複合現実製作所 Image display device and image display system

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7145478B2 (en) * 2002-12-17 2006-12-05 Evolution Robotics, Inc. Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system
US8542219B2 (en) * 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
EP1851750A4 (en) * 2005-02-08 2010-08-25 Oblong Ind Inc System and method for genture based control system
RU2017115669A (en) 2011-10-28 2019-01-28 Мэджик Лип, Инк. SYSTEM AND METHOD FOR ADDITIONAL AND VIRTUAL REALITY
KR102116697B1 (en) 2011-11-23 2020-05-29 매직 립, 인코포레이티드 Three dimensional virtual and augmented reality display system
US20140168261A1 (en) 2012-12-13 2014-06-19 Jeffrey N. Margolis Direct interaction system mixed reality environments
CN105188516B (en) 2013-03-11 2017-12-22 奇跃公司 For strengthening the System and method for virtual reality
KR102458124B1 (en) 2013-03-15 2022-10-21 매직 립, 인코포레이티드 Display system and method
US9908048B2 (en) 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
CN110542938B (en) 2013-11-27 2023-04-18 奇跃公司 Virtual and augmented reality systems and methods
JP2015118442A (en) * 2013-12-17 2015-06-25 ソニー株式会社 Information processor, information processing method, and program
US9524580B2 (en) * 2014-01-06 2016-12-20 Oculus Vr, Llc Calibration of virtual reality systems
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
JP6355978B2 (en) * 2014-06-09 2018-07-11 株式会社バンダイナムコエンターテインメント Program and image generation apparatus
JP6290020B2 (en) * 2014-07-11 2018-03-07 Kddi株式会社 Image processing apparatus, image processing method, and program
WO2016141373A1 (en) 2015-03-05 2016-09-09 Magic Leap, Inc. Systems and methods for augmented reality
US10180734B2 (en) * 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
CN112836664A (en) 2015-08-21 2021-05-25 奇跃公司 Eyelid shape estimation using eye pose measurements
WO2017037962A1 (en) 2015-08-28 2017-03-09 株式会社タカラトミー Information processing device provided with head-mounted display
US10317989B2 (en) * 2016-03-13 2019-06-11 Logitech Europe S.A. Transition between virtual and augmented reality
JP2017187952A (en) * 2016-04-06 2017-10-12 株式会社コロプラ Display control method and program for causing computer to execute the method
AU2017257549B2 (en) 2016-04-26 2021-09-09 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems
US10198874B2 (en) * 2016-05-13 2019-02-05 Google Llc Methods and apparatus to align components in virtual reality environments
US10365712B2 (en) * 2016-05-17 2019-07-30 Google Llc Object tracking in a head mounted reference frame in an augmented and/or virtual reality environment
US10078377B2 (en) * 2016-06-09 2018-09-18 Microsoft Technology Licensing, Llc Six DOF mixed reality input by fusing inertial handheld controller with hand tracking
US10126553B2 (en) * 2016-06-16 2018-11-13 Microsoft Technology Licensing, Llc Control device with holographic element
US10452133B2 (en) * 2016-12-12 2019-10-22 Microsoft Technology Licensing, Llc Interacting with an environment using a parent device and at least one companion device
US10600203B2 (en) * 2017-06-06 2020-03-24 CapSen Robotics, Inc. Three-dimensional scanner with detector pose identification
GB2565836B (en) * 2017-08-25 2021-04-14 Sony Interactive Entertainment Inc Data processing for position detection using markers in captured images
IL312231A (en) 2018-02-06 2024-06-01 Magic Leap Inc Systems and methods for augmented reality

Also Published As

Publication number Publication date
US11620785B2 (en) 2023-04-04
JP2021512388A (en) 2021-05-13
IL312231A (en) 2024-06-01
IL276254A (en) 2020-09-30
US11222457B2 (en) 2022-01-11
US20220157006A1 (en) 2022-05-19
EP3750033A4 (en) 2021-10-13
CN111712780A (en) 2020-09-25
KR102689931B1 (en) 2024-07-29
JP2023126474A (en) 2023-09-07
US20210019930A1 (en) 2021-01-21
AU2019217515A1 (en) 2020-06-25
KR20200116459A (en) 2020-10-12
WO2019156992A2 (en) 2019-08-15
WO2019156992A3 (en) 2020-04-30
JP7546116B2 (en) 2024-09-05
EP3750033A2 (en) 2020-12-16
JP7316282B2 (en) 2023-07-27
IL276254B2 (en) 2024-09-01
IL276254B1 (en) 2024-05-01
CA3087738A1 (en) 2019-08-15

Similar Documents

Publication Publication Date Title
JP7297028B2 (en) Systems and methods for augmented reality
US10678324B2 (en) Systems and methods for augmented reality
US11222457B2 (en) Systems and methods for augmented reality
US11619988B2 (en) Systems and methods for augmented reality
US8933931B2 (en) Distributed asynchronous localization and mapping for augmented reality
US20150070274A1 (en) Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
JP2018532173A (en) Shared reality content sharing
JP2021060627A (en) Information processing apparatus, information processing method, and program
US11256090B2 (en) Systems and methods for augmented reality
KR102721084B1 (en) Systems and methods for augmented reality
KR20240155973A (en) Systems and methods for augmented reality

Legal Events

Date Code Title Description
A107 Divisional application of patent