KR102872425B1 - Extended reality device and method for controlling the same - Google Patents
Extended reality device and method for controlling the sameInfo
- Publication number
- KR102872425B1 KR102872425B1 KR1020190160817A KR20190160817A KR102872425B1 KR 102872425 B1 KR102872425 B1 KR 102872425B1 KR 1020190160817 A KR1020190160817 A KR 1020190160817A KR 20190160817 A KR20190160817 A KR 20190160817A KR 102872425 B1 KR102872425 B1 KR 102872425B1
- Authority
- KR
- South Korea
- Prior art keywords
- clothes
- user
- virtual
- voice command
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating three-dimensional [3D] models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Tourism & Hospitality (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Computational Linguistics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 XR 디바이스 및 그 제어 방법에 관한 것으로서, 보다 구체적으로는 5G 통신 기술 분야, 로봇 기술 분야, 자율 주행 기술 분야 및 AI (Artificial Intelligence) 기술 분야에도 모두 적용 가능하다.The present invention relates to an XR device and a control method thereof, and more specifically, is applicable to the fields of 5G communication technology, robotics technology, autonomous driving technology, and AI (Artificial Intelligence) technology.
Description
본 발명은 XR 디바이스 및 그 제어 방법에 관한 것으로서, 보다 구체적으로는 5G 통신 기술 분야, 로봇 기술 분야, 자율 주행 기술 분야 및 AI (Artificial Intelligence) 기술 분야에도 모두 적용 가능하다.The present invention relates to an XR device and a control method thereof, and more specifically, is applicable to the fields of 5G communication technology, robotics technology, autonomous driving technology, and AI (Artificial Intelligence) technology.
VR (Virtual Reality) 기술은 현실 세계의 객체나 배경 등을 CG (Computer Graphic) 영상으로만 제공하고, AR (Augmented Reality) 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR (Mixed) 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다. 전술한 VR, AR, MR 등을 모두 간단히 XR (extended reality) 기술로 지칭하기도 한다.VR (Virtual Reality) technology provides real-world objects and backgrounds as CG (Computer Graphic) images only, AR (Augmented Reality) technology provides virtual CG images on top of real-world object images, and MR (Mixed) technology is a computer graphics technology that provides virtual objects by mixing and combining them in the real world. VR, AR, MR, etc. mentioned above are all sometimes simply referred to as XR (extended reality) technology.
특히, 최근에는 XR 기술을 이용하여 사용자에게 가상의 서비스를 적용하고 있다. 예를 들어, 매장이나 집에 설치된 XR 디바이스는 스크린을 통해 가상 피팅 서비스(virtual fitting service)를 제공한다.In particular, XR technology has recently been used to provide virtual services to users. For example, XR devices installed in stores or at home provide virtual fitting services through screens.
따라서, 유저는 가상 피팅 서비스가 제공되는 동안, 자신이 원하는 의상을 빨리 선택하고자 한다.Therefore, users want to quickly select the clothes they want while the virtual fitting service is provided.
그러나, 종래 기술에 따라 제공되는 XR 디바이스는 키보드 등이 별도로 제공되지 않아서, 사용자가 자신이 원하는 의상을 신속하게 선택하는 것이 사실상 불가능한 문제점이 있었다.However, XR devices provided according to conventional technology had the problem that it was virtually impossible for users to quickly select the clothes they wanted because they did not provide a separate keyboard or the like.
본 발명의 일실시예는, XR 디바이스가 가상 피팅 서비스를 제공하는 경우, 사용자가 원하는 의상을 보다 빠르게 선택하기 위한 솔루션을 제공하고자 한다.One embodiment of the present invention seeks to provide a solution for a user to more quickly select a desired outfit when an XR device provides a virtual fitting service.
본 발명의 다른 일실시예는, 가상 피팅 서비스에서 제1 인터페이스를 통해서는 메인 그룹의 옷을 필터링 하고, 제2 인터페이스를 통해서는 서브 그룹의 특정 옷을 정확하게 선택하기 위한 기술을 제공하고자 한다.Another embodiment of the present invention provides a technology for filtering clothes of a main group through a first interface in a virtual fitting service and accurately selecting specific clothes of a subgroup through a second interface.
그리고, 본 발명의 또 다른 일실시예는 XR 디바이스에서 중요한 전력 절감 문제를 해결하고자 한다.Another embodiment of the present invention seeks to address the critical power saving issue in XR devices.
다만, 전술한 목적만으로 제한되는 것은 아니며, 본 명세서 전체 내용에 기초하여 당업자가 유추할 수 있는 다른 목적으로 본 발명의 권리범위가 확장될 수 있다.However, the scope of the present invention is not limited to the aforementioned purposes, and the scope of the present invention may be expanded to other purposes that can be inferred by a person skilled in the art based on the entire contents of this specification.
전술한 목적 등을 달성하기 위한 본 발명의 일실시예에 의한 가상 피팅 서비스를 제공하는 XR 디바이스의 제어 방법은, 적어도 하나의 가상 옷의 정보를 메모리에 저장하는 단계와, 상기 XR 디바이스 주변의 사용자로부터 적어도 하나의 음성 명령을 수신하는 단계와, 상기 수신된 적어도 하나의 음성 명령에 기초하여, 상기 메모리에 저장된 적어도 하나의 가상 옷의 정보 중에서 특정 메인 그룹에 속하는 옷들의 정보를 추출하는 단계와, 상기 사용자의 제스쳐를 인식하는 단계와 그리고 상기 인식된 제스쳐에 기초하여, 상기 특정 메인 그룹에 속하는 옷들 중에서 서브 그룹에 속하는 옷들의 정보를 추출하는 단계를 포함한다.In order to achieve the above-described objects and other purposes, a method for controlling an XR device providing a virtual fitting service according to an embodiment of the present invention comprises the steps of: storing information on at least one virtual clothing in a memory; receiving at least one voice command from a user around the XR device; extracting information on clothing belonging to a specific main group from among information on at least one virtual clothing stored in the memory based on the received at least one voice command; recognizing a gesture of the user; and extracting information on clothing belonging to a subgroup from among clothing belonging to the specific main group based on the recognized gesture.
그리고, 본 발명의 다른 일실시예에 의한 가상 피팅 서비스를 제공하는 XR 디바이스는, 적어도 하나의 가상 옷의 정보를 저장하는 메모리와, 상기 XR 디바이스 주변의 사용자로부터 적어도 하나의 음성 명령을 수신하는 마이크와, 상기 수신된 적어도 하나의 음성 명령에 기초하여, 상기 메모리에 저장된 적어도 하나의 가상 옷의 정보 중에서 특정 메인 그룹에 속하는 옷들의 정보를 추출하는 컨트롤러와, 그리고 상기 사용자의 제스쳐를 인식하는 카메라를 포함한다.And, an XR device providing a virtual fitting service according to another embodiment of the present invention includes a memory that stores information on at least one virtual garment, a microphone that receives at least one voice command from a user around the XR device, a controller that extracts information on garments belonging to a specific main group from among information on at least one virtual garment stored in the memory based on the received at least one voice command, and a camera that recognizes a gesture of the user.
상기 컨트롤러는, 예를 들어 상기 인식된 제스쳐에 기초하여, 상기 특정 메인 그룹에 속하는 옷들 중에서 서브 그룹에 속하는 옷들의 정보를 추출하도록 설계한다.The above controller is designed to extract information on clothes belonging to a sub-group from among clothes belonging to the specific main group, for example, based on the recognized gesture.
본 발명의 다양한 실시예들 중 일실시예에 따르면, XR 디바이스가 가상 피팅 서비스를 제공하는 경우, 사용자가 원하는 의상을 보다 빠르게 선택하기 위한 솔루션을 제공한다.According to one embodiment of the present invention, when an XR device provides a virtual fitting service, a solution is provided for a user to select a desired outfit more quickly.
본 발명의 다른 일실시예에 의하면, 가상 피팅 서비스에서 제1 인터페이스를 통해서는 메인 그룹의 옷을 필터링 하고, 제2 인터페이스를 통해서는 서브 그룹의 특정 옷을 정확하게 선택하기 위한 기술을 제공한다.According to another embodiment of the present invention, a technology is provided for filtering clothes of a main group through a first interface in a virtual fitting service and accurately selecting specific clothes of a subgroup through a second interface.
그리고, 본 발명의 또 다른 일실시예는 XR 디바이스에서 중요한 전력 절감 문제를 해결한다And, another embodiment of the present invention solves an important power saving problem in XR devices.
다만, 전술한 기술적 효과만으로 제한되는 것은 아니며, 본 명세서 전체 내용에 기초하여 당업자가 유추할 수 있는 다른 기술적 효과로 본 발명의 권리범위가 확장될 수 있다.However, the scope of the present invention is not limited to the aforementioned technical effects, and the scope of the present invention may be expanded to other technical effects that can be inferred by a person skilled in the art based on the entire contents of this specification.
도 1은 본 발명의 일실시예에 의한 XR 디바이스를 HMD 타입으로 구현한 경우를 도시하고 있다.
도 2는 본 발명의 일실시예에 의한 XR 디바이스를 AR 글래스 타입으로 구현한 경우를 도시하고 있다.
도 3은 본 발명의 일실시예를 의류 관련 기기에 적용한 경우를 도시하고 있다.
도 4는 본 발명의 일실시예에 의한 XR 디바이스가 가상 피팅 서비스를 제공하는 프로세스를 도시하고 있다.
도 5는 도 4에 도시된 플로우 차트가 적용된 XR 디바이스의 구성 요소들을 도시하고 있다.
도 6 및 도 7은 종래 기술에 의한 가상 피팅 서비스의 문제점들을 도시하고 있다.
도 8은 본 발명의 일실시예에 의한 XR 디바이스가 2개의 서로 다른 인터페이스를 이용하여 특정 옷을 신속하게 디텍트 하는 과정을 도시하고 있다.
도 9 내지 도 11은 본 발명의 일실시예에 의한 XR 디바이스가 음성 인식에 기반하여 1차적으로 가상의 옷을 필터링 하는 프로세스(process)를 도시하고 있다.
도 12 내지 도 14는 본 발명의 일실시예에 의한 XR 디바이스가 제스쳐 인식에 기반하여 2차적으로 가상의 옷을 필터링 하는 프로세스(process)를 도시하고 있다.
도 15 내지 도 17은 본 발명의 일실시예에 의한 XR 디바이스가 음성 인식 및 제스쳐 인식이라는 2가지 이종의 인터페이스를 이용하여 특정 가상의 옷을 신속하게 디텍트 하는 프로세스를 도시하고 있다.
도 18은 본 발명의 일실시예에 의한 XR 디바이스가 정의하는 스크린내 비활성 영역 및 활성 영역 등을 도시하고 있다.
그리고, 도 19 내지 도 21은 도 18에서 정의한 영역 정보에 기초하여, 복수의 가상의 옷을 배열하는 프로세스를 도시하고 있다.Figure 1 illustrates a case where an XR device according to one embodiment of the present invention is implemented as an HMD type.
FIG. 2 illustrates a case where an XR device according to one embodiment of the present invention is implemented as an AR glass type.
Figure 3 illustrates a case where one embodiment of the present invention is applied to a clothing-related device.
FIG. 4 illustrates a process in which an XR device according to one embodiment of the present invention provides a virtual fitting service.
Figure 5 illustrates components of an XR device to which the flow chart illustrated in Figure 4 is applied.
Figures 6 and 7 illustrate problems of virtual fitting services according to the prior art.
FIG. 8 illustrates a process in which an XR device according to one embodiment of the present invention quickly detects specific clothing using two different interfaces.
Figures 9 to 11 illustrate a process in which an XR device according to one embodiment of the present invention primarily filters virtual clothes based on voice recognition.
FIGS. 12 to 14 illustrate a process of secondarily filtering virtual clothes based on gesture recognition by an XR device according to an embodiment of the present invention.
FIGS. 15 to 17 illustrate a process in which an XR device according to one embodiment of the present invention quickly detects specific virtual clothes using two different interfaces, namely voice recognition and gesture recognition.
Figure 18 illustrates an inactive area and an active area within a screen defined by an XR device according to one embodiment of the present invention.
And, FIGS. 19 to 21 illustrate a process of arranging a plurality of virtual clothes based on the area information defined in FIG. 18.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the attached drawings. Regardless of the drawing numbers, identical or similar components will be given the same reference numbers, and redundant descriptions thereof will be omitted. The suffixes "module" and "part" used for components in the following description are assigned or used interchangeably only for the convenience of writing the specification, and do not in themselves have distinct meanings or roles. In addition, when describing the embodiments disclosed in this specification, if it is determined that a specific description of a related known technology may obscure the gist of the embodiments disclosed in this specification, a detailed description thereof will be omitted. In addition, the attached drawings are only intended to facilitate easy understanding of the embodiments disclosed in this specification, and the technical ideas disclosed in this specification are not limited by the attached drawings, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and technical scope of the present invention.
본 발명의 하기의 실시예들은 본 발명을 구체화하기 위한 것일 뿐 본 발명의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 본 발명의 상세한 설명 및 실시예들로부터 본 발명이 속하는 기술 분야의 전문가가 용이하게 유추할 수 있는 것은 본 발명의 권리 범위에 속하는 것으로 해석된다.The following examples of the present invention are intended only to illustrate the invention and are not intended to limit or restrict the scope of the invention. Anything readily inferred by a specialist in the technical field of the invention from the detailed description and examples of the invention is construed as falling within the scope of the invention.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 안되며, 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as limiting in any respect, but rather as illustrative. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are intended to be included within the scope of the present invention.
당해 명세서에서 설명하는 확장 현실은 가상 현실(VR: Virtual Reality), 증강 현실(AR: Augmented Reality), 혼합 현실(MR: Mixed Reality)을 총칭한다. VR 기술은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하고, AR 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다.The extended reality described in this specification is a general term for virtual reality (VR), augmented reality (AR), and mixed reality (MR). VR technology provides real-world objects and backgrounds only as CG images, AR technology provides virtual CG images over images of actual objects, and MR technology is a computer graphics technology that mixes and combines virtual objects with the real world.
MR 기술은 현실 객체와 가상 객체를 함께 보여준다는 점에서 AR 기술과 유사하다. 그러나, AR 기술에서는 가상 객체가 현실 객체를 보완하는 형태로 사용되는 반면, MR 기술에서는 가상 객체와 현실 객체가 동등한 성격으로 사용된다는 점에서 차이점이 있다.MR technology is similar to AR in that it presents both real and virtual objects simultaneously. However, while AR uses virtual objects to complement real objects, MR uses virtual and real objects on an equal footing.
XR 기술은 HMD(Head-Mount Display), HUD(Head-Up Display), 휴대폰, 태블릿 PC, 랩탑, 데스크탑, TV, 디지털 사이니지 등에 적용될 수 있고, XR 기술이 적용된 장치를 XR 장치(XR Device)라 칭할 수 있다.XR technology can be applied to HMD (Head-Mount Display), HUD (Head-Up Display), mobile phones, tablet PCs, laptops, desktops, TVs, digital signage, etc., and devices to which XR technology is applied can be called XR devices.
다만, 최근에는 VR, AR, MR 기술을 명확히 구별하기 보다는 XR (extended Reality) 기술로 부르기도 한다. 따라서, 본 발명의 실시예들은 VR, AR, MR, XR 기술 모두에 적용 가능하다.However, recently, rather than clearly distinguishing between VR, AR, and MR technologies, they are often referred to as XR (extended reality) technologies. Therefore, embodiments of the present invention are applicable to all VR, AR, MR, and XR technologies.
한편, VR, AR, MR, XR 기술에 적용되는 하드웨어(HW) 관련 요소 기술로서, 예를 들어 유/무선 통신 기술, 입력 인터페이스 기술, 출력 인터페이스 기술 및 컴퓨팅 장치 기술 등이 존재한다. 또한, 소프트웨어(SW) 관련 요소 기술로서, 예를 들어 추적 및 정합 기술, 음성 인식 기술, 상호 작용 및 사용자 인터페이스 기술, 위치기반 서비스 기술, 검색 기술, AI (Artificial Intelligence) 기술 등이 존재한다.Meanwhile, hardware-related element technologies applicable to VR, AR, MR, and XR technologies include wired/wireless communication technologies, input interface technologies, output interface technologies, and computing device technologies. Furthermore, software-related element technologies include tracking and alignment technologies, voice recognition technologies, interaction and user interface technologies, location-based service technologies, search technologies, and AI (Artificial Intelligence) technologies.
특히, 본 발명의 실시예들은, 전술한 HW/SW 관련 요소 기술 등을 이용하여, 다른 디바이스와의 통신 문제, 효율적인 메모리 사용 문제, 불편한 UX/UI로 인한 데이터 처리 속도가 낮아지는 문제, 영상 문제, 음향 문제, 멀미 현상 또는 기타 문제 중 적어도 하나를 해결하고자 한다.In particular, embodiments of the present invention seek to solve at least one of the following problems: communication problems with other devices, inefficient memory usage problems, slow data processing speeds due to inconvenient UX/UI, video problems, audio problems, motion sickness, or other problems, by using the aforementioned HW/SW related element technologies.
도 1은 본 발명의 일실시예에 의한 XR 디바이스를 HMD 타입으로 구현한 경우를 도시하고 있다. 후술할 다양한 실시예들은 도 1에 도시된 HMD 타입으로 구현할 수도 있다.FIG. 1 illustrates a case where an XR device according to one embodiment of the present invention is implemented as an HMD type. Various embodiments described below can also be implemented as the HMD type illustrated in FIG. 1.
도 1에 도시된 HMD 타입의 XR 디바이스(100a)는, 커뮤니케이션 유닛(110), 컨트롤 유닛(120), 메모리 유닛(130), I/O 유닛(140a), 센서 유닛(140b), 그리고 파워 공급 유닛(140c) 등을 포함한다. 특히, XR 디바이스(10a)내 커뮤니케이션 유닛(110)은 모바일 터미날(100b)과 유무선 통신이 이루어 진다.The XR device (100a) of the HMD type illustrated in Fig. 1 includes a communication unit (110), a control unit (120), a memory unit (130), an I/O unit (140a), a sensor unit (140b), and a power supply unit (140c). In particular, the communication unit (110) within the XR device (10a) communicates with a mobile terminal (100b) via wired or wireless means.
그리고, 도 2는 본 발명의 일실시예에 의한 XR 디바이스를 AR 글래스 타입으로 구현한 경우를 도시하고 있다. 후술할 다양한 실시예들은 도 2에 도시된 AR 글래스 타입으로 구현할 수도 있다.Also, Fig. 2 illustrates a case where an XR device according to an embodiment of the present invention is implemented as an AR glass type. Various embodiments described below can also be implemented as the AR glass type illustrated in Fig. 2.
도 2에 도시된 바와 같이, AR 글래스는 프레임, 제어부(200) 및 광학 디스플레이부(300)를 포함할 수 있다.As illustrated in FIG. 2, AR glasses may include a frame, a control unit (200), and an optical display unit (300).
프레임은 도 2에 도시된 바와 같이, 사용자(10)의 신체 중 안면에 착용되는 안경 형태를 가질 수 있으나, 이에 반드시 한정되는 것은 아니고, 사용자(10)의 안면에 밀착되어 착용되는 고글 등의 형태를 가질 수도 있다.The frame may have the form of glasses worn on the face of the user's (10) body as shown in FIG. 2, but is not necessarily limited thereto, and may also have the form of goggles or the like worn in close contact with the face of the user (10).
이와 같은 프레임은 전면 프레임(110)과 제1, 2 측면 프레임을 포함할 수 있다.Such a frame may include a front frame (110) and first and second side frames.
전면 프레임(110)은 적어도 하나의 개구부를 구비하고, 제1 수평 방향(x)으로 연장될 수 있으며, 제1, 2 측면 프레임은 전면 프레임(110)과 교차하는 제2 수평 방향(y)으로 연장되어 서로 나란하게 연장될 수 있다.The front frame (110) has at least one opening and can extend in a first horizontal direction (x), and the first and second side frames can extend in a second horizontal direction (y) intersecting the front frame (110) and can extend parallel to each other.
제어부(200)는 사용자(10)에게 보여질 이미지 또는 이미지가 연속되는 영상을 생성할 수 있다. 이와 같은 제어부(200)에는 이미지를 발생시키는 이미지 소스와 이미지 소스에서 발생된 빛을 확산 및 수렴하는 복수의 렌즈 등을 포함할 수 있다. 이와 같이 제어부(200)에서 생성되는 이미지는 제어부(200)와 광학 디스플레이부(300) 사이에 위치하는 가이드 렌즈(P200)을 통해 광학 디스플레이부(300)로 출사될 수 있다. The control unit (200) can generate an image or a video of a series of images to be shown to the user (10). The control unit (200) may include an image source that generates an image and a plurality of lenses that diffuse and converge light generated from the image source. The image generated by the control unit (200) can be output to the optical display unit (300) through a guide lens (P200) positioned between the control unit (200) and the optical display unit (300).
이와 같은 제어부(200)는 제1, 2 측면 프레임 중 어느 하나의 측면 프레임에 고정될 수 있다. 일례로, 제어부(200)는 어느 하나의 측면 프레임 내측 또는 외측에 고정되거나, 어느 하나의 측면 프레임의 내부에 내장되어 일체로 형성될 수 있다.Such a control unit (200) may be fixed to one of the first and second side frames. For example, the control unit (200) may be fixed to the inside or outside of one of the side frames, or may be integrally formed by being built into the inside of one of the side frames.
광학 디스플레이부(300)는 제어부(200)에서 생성된 이미지가 사용자(10)에게 보여지도록 하는 역할을 수행할 수 있으며, 이미지가 사용자(10)에게 보여지도록 하면서, 개구부를 통하여 외부 환경을 볼 수 있도록 하기 위하여, 반투명 재질로 형성될 수 있다.The optical display unit (300) can perform a role of displaying an image generated by the control unit (200) to the user (10), and can be formed of a translucent material to display the image to the user (10) while allowing the external environment to be viewed through the opening.
이와 같은 광학 디스플레이부(300)는 전면 프레임(110)에 포함된 개구부에 삽입되어 고정되거나, 개부구의 배면[즉 개구부와 사용자(10) 사이]에 위치하여, 전면 프레임(110)에 고정되어 구비될 수 있다. 본 발명에서는 일례로, 광학 디스플레이부(300)가 개구부의 배면에 위치하여, 전면 프레임(110)에 고정된 경우를 일예로 도시하였다.Such an optical display unit (300) may be inserted into and fixed to an opening included in a front frame (110), or may be positioned on the back surface of the opening (i.e., between the opening and the user (10)) and fixed to the front frame (110). In the present invention, as an example, a case in which the optical display unit (300) is positioned on the back surface of the opening and fixed to the front frame (110) is illustrated.
이와 같은 XR 디바이스는 도 2에 도시된 바와 같이, 제어부(200)에서 이미지에 대한 이미지를 광학 디스플레이부(300)의 입사 영역(S1)으로 입사시키면, 이미지광이 광학 디스플레이부(300)를 통하여, 광학 디스플레이부(300)의 출사 영역(S2)으로 출사되어, 제어부(200)에서 생성된 이미지를 사용자(10)에게 보여지도록 할 수 있다.As shown in Fig. 2, when an image is input from the control unit (200) to the incident area (S1) of the optical display unit (300), the image light is emitted through the optical display unit (300) to the output area (S2) of the optical display unit (300), so that the image generated by the control unit (200) can be shown to the user (10).
이에 따라, 사용자(10)는 프레임(100)의 개구부를 통하여 외부 환경을 보면서 동시에 제어부(200)에서 생성된 이미지를 함께 볼 수 있다.Accordingly, the user (10) can view the external environment through the opening of the frame (100) and simultaneously view the image generated by the control unit (200).
도 3은 본 발명의 일실시예를 의류 관련 기기에 적용한 경우를 도시하고 있다.Figure 3 illustrates a case where one embodiment of the present invention is applied to a clothing-related device.
당해 명세서의 실시예들은 XR 디바이스 뿐만 아니라 다양한 의류 관련 기기들에도 적용할 수가 있다. Embodiments of the present specification can be applied not only to XR devices but also to various clothing-related devices.
본 발명의 일실시예와 관련하여 추가 설명 하면, 도 3에 도시된 바와 같이, 사용자(100)가 의류 관련 기기(ex: 스타일러, 에어 드레서 등)에 접근하면, 의류 관련 기기에 설치된 카메라 또는 센서를 통해 사용자의 접근을 인식한다.Further explanation in relation to one embodiment of the present invention, as illustrated in FIG. 3, when a user (100) approaches a clothing-related device (e.g., styler, air dresser, etc.), the user's approach is recognized through a camera or sensor installed in the clothing-related device.
그리고, 의류 관련 기기의 전면에 설치된 디스플레이(200)는 인식된 사용자 관련 아바타를 표시하고, 사용자(100)가 원하는 의상, 모자등을 가상으로 입어본 형태의 그래픽이 추가적으로 표시된다. 도 3에 도시된 바와 같이, 실제 사용자(100)는 모자를 쓰지 않았으나, 디스플레이(200)에 표시된 아바타는 가상의 모자를 쓰고 있음을 확인할 수 있다. 나아가, 상기 디스플레이(200)는 사용자 인식이 안된 경우에는 거울로서 동작하는 것도 가능하다.In addition, the display (200) installed on the front of the clothing-related device displays a recognized user-related avatar, and additionally displays a graphic in the form of a virtual wearing of clothing, hat, etc. desired by the user (100). As illustrated in FIG. 3, the actual user (100) is not wearing a hat, but it can be confirmed that the avatar displayed on the display (200) is wearing a virtual hat. Furthermore, the display (200) can also function as a mirror when the user is not recognized.
마지막으로, 도 3에서는 디스플레이(200)가 의류 관련 기기의 전면에 노출되어 있는 것으로 가정하였으나, 사용자가(100)가 의류 관련 기기의 문을 열었을 때 내부에 디스플레이가 위치하도록 설계하는 것도 본 발명의 권리범위에 속한다.Lastly, in FIG. 3, it is assumed that the display (200) is exposed on the front of the clothing-related device, but it is also within the scope of the present invention to design the display to be located inside when the user (100) opens the door of the clothing-related device.
한편, 당해 명세서는 XR 디바이스 및 다양한 멀티미디어 디바이스를 예로 설명하고 있지만, 본 발명은 디스플레이 기능이 있는 디바이스면 충분하다.Meanwhile, although the specification describes XR devices and various multimedia devices as examples, the present invention is sufficient for any device with a display function.
도 4는 본 발명의 일실시예에 의한 XR 디바이스가 가상 피팅 서비스를 제공하는 프로세스를 도시하고 있다.FIG. 4 illustrates a process in which an XR device according to one embodiment of the present invention provides a virtual fitting service.
도 4에 도시된 바와 같이, 본 발명의 일실시예에 의한 XR 디바이스는 가상 피팅 서비스를 제공하며, 특히 대략적인 검색(Coarse search)은 음성 인식 기술을 이용하는 반면, 상세한 검색(Fine search)은 제스쳐 인식 기술을 이용한다는 점에서 전술한 종래 기술의 문제점을 해결할 수가 있다.As illustrated in FIG. 4, an XR device according to an embodiment of the present invention provides a virtual fitting service, and in particular, it can solve the problems of the prior art described above in that a coarse search uses voice recognition technology, while a fine search uses gesture recognition technology.
우선, XR 디바이스는, 적어도 하나의 가상 옷의 정보를 메모리에 저장한다(S410). 물론, 내부 메모리가 아닌 외부 서버로부터 수신하는 것도 본 발명의 권리범위에 속한다.First, the XR device stores information about at least one virtual garment in its memory (S410). Of course, receiving information from an external server rather than internal memory also falls within the scope of the present invention.
XR 디바이스는, 상기 XR 디바이스 주변의 사용자로부터 적어도 하나의 음성 명령을 수신한다(S420).The XR device receives at least one voice command from a user around the XR device (S420).
XR 디바이스는, 상기 수신된 적어도 하나의 음성 명령에 기초하여, 상기 메모리에 저장된 적어도 하나의 가상 옷의 정보 중에서 특정 메인 그룹에 속하는 옷들의 정보를 추출한다(S430).The XR device extracts information on clothes belonging to a specific main group from information on at least one virtual clothes stored in the memory based on at least one voice command received (S430).
XR 디바이스는, 상기 사용자의 제스쳐를 인식하고(S440), 그리고 상기 인식된 제스쳐에 기초하여, 상기 특정 메인 그룹에 속하는 옷들 중에서 서브 그룹에 속하는 옷들의 정보를 추출한다(S450).The XR device recognizes the user's gesture (S440), and based on the recognized gesture, extracts information on clothes belonging to a sub-group from among clothes belonging to the specific main group (S450).
S430 단계에서 메인 그룹에 속하는 옷들의 정보를 우선 추출한 이후, S450 단계에서 서브 그룹에 속하는 옷들의 정보를 추출하는 구체적인 솔루션은 이하 도 8에서 상세히 후술하겠다.A specific solution for extracting information on clothes belonging to the main group at step S430 and then extracting information on clothes belonging to the sub-group at step S450 will be described in detail in FIG. 8 below.
그리고, 도 4에 도시하지 않았으나, 상기 적어도 하나의 음성 명령은 예를 들어, 제1 음성 명령 또는 제2 음성 명령을 포함한다.And, although not shown in FIG. 4, the at least one voice command includes, for example, a first voice command or a second voice command.
전술한 바와 같이, 본 발명이 일실시예의 특징은 음성 인식 기술 및 제스쳐 인식 기술을 최적화함으로써 사용자가 원하는 옷을 신속하게 디텍트 하는 것이다(키보드 등이 없어도). 다만, XR 디바이스가 어떠한 트리거 조건도 없이 항상 음성 인식을 계속 수행하면, 불필요한 전력 소모가 발생하는 문제점이 있다. 따라서, 상기 제1 음성 명령 또는 상기 제2 음성 명령이 수신된 경우, XR 디바이스는 상기 메모리에 저장된 음성 인식 엔진이 동작을 디스인에이블(disenable) 상태로 변경한다.As described above, a feature of one embodiment of the present invention is that it quickly detects the clothes desired by the user (even without a keyboard, etc.) by optimizing voice recognition technology and gesture recognition technology. However, if the XR device continuously performs voice recognition without any trigger conditions, there is a problem that unnecessary power consumption occurs. Therefore, when the first voice command or the second voice command is received, the XR device changes the operation of the voice recognition engine stored in the memory to a disabled state.
나아가, 제스쳐 인식도 필요한 범위 내에서만 이루어 지도록 설계하면, 추가적으로 XR 디바이스의 전력 낭비 문제를 해결할 수가 있다.Furthermore, if gesture recognition is designed to occur only within the necessary range, the power waste problem of XR devices can be additionally solved.
예를 들어, XR 디바이스가 상기 제1 음성 명령(예를 들어, “레터링 추가” 등)을 수신한 경우, XR 디바이스가 상기 사용자의 2개의 손을 모두 인식하도록 설계한다. 나아가, XR 디바이스는 제1 손 및 제2 손에 의해 구성되는 영역내 임의의 글자를 포함하는 옷들을 검색하고, 그리고 상기 임의의 글자를 포함하는 옷들 중 적어도 하나를 디스플레이 한다. 이와 관련하여, 이하 도 15를 참조하여 보다 상세히 후술하겠다.For example, when the XR device receives the first voice command (e.g., “add lettering”), the XR device is designed to recognize both hands of the user. Furthermore, the XR device searches for clothes containing any letters within the area formed by the first and second hands, and displays at least one of the clothes containing the random letters. This will be described in more detail below with reference to FIG. 15.
반면, XR 디바이스가 상기 제2 음성 명령(예를 들어, “색상 세부 조정” 등)을 수신한 경우, XR 디바이스는 옷의 칼라를 상세히 조정하기 위한 옵션을 디스플레이 한다. 나아가, XR 디바이스가, 상기 디스플레이된 옵션의 위치로부터 일정 거리 이내에 있는 상기 사용자의 1개의 손만 인식하도록 설계한다. 그리고, XR 디바이스는, 상기 인식된 1개의 손의 모션에 기초하여, 특정 칼라의 옷들을 제한적으로 검색한다. 이와 관련하여, 이하 도 17을 참조하여 보다 상세히 후술하겠다. 즉, 도 15 및 도 17을 참조하면, 음성 인식으로 인식된 키워드에 따라, 제스쳐 인식 대상이 되는 손의 개수가 미리 결정되므로 불필요한 모션 트래킹을 최소화 하는 기술적 효과가 있다.On the other hand, if the XR device receives the second voice command (e.g., “color fine-tuning”), the XR device displays an option for fine-tuning the color of the clothes. Furthermore, the XR device is designed to recognize only one hand of the user within a certain distance from the location of the displayed option. Then, the XR device searches for clothes of a specific color based on the motion of the recognized one hand. In this regard, this will be described in more detail below with reference to FIG. 17. That is, referring to FIGS. 15 and 17, since the number of hands to be recognized as gestures is predetermined based on keywords recognized by voice recognition, there is a technical effect of minimizing unnecessary motion tracking.
나아가, 본 발명의 일실시예에 의한 XR 디바이스는, 상기 다양한 인터페이스(예를 들어, 음성 인식/제스쳐 인식)를 통해 추출된 옷들의 정보에 기초하여, 상기 XR 디바이스의 스크린을 활성 영역 및 비활성 영역으로 분류한다.Furthermore, an XR device according to an embodiment of the present invention classifies the screen of the XR device into an active area and an inactive area based on information about clothes extracted through the various interfaces (e.g., voice recognition/gesture recognition).
특히, XR 디바이스는, 상기 스크린내 활성 영역의 가상의 옷만, 상기 사용자의 제스쳐에 반응하여 변경되고, 상기 스크린내 비활성 영역의 가상의 옷은, 상기 사용자의 제스쳐에 반응하여 변경되지 않도록 추가 설계된다. 따라서, 사용자가 원하는 가상의 옷을 보다 신속하게 선택할 수 있는 옵션을 제공하는 기술적 효과가 기대된다. 이와 관련해서는 도 18 내지 도 21을 참조하여 후술하도록 하겠다.In particular, the XR device is further designed so that only the virtual clothing in the active area of the screen changes in response to the user's gesture, while the virtual clothing in the inactive area of the screen does not change in response to the user's gesture. Therefore, the technical effect of providing the user with the option to more quickly select the desired virtual clothing is expected. This will be described later with reference to FIGS. 18 to 21.
한편, 도 4에서는 방법 발명을 위주로 설명하였으나, XR 디바이스 장치에서 이를 구현할 수도 있다. 이와 관련하여 이하 도 5를 참조하여 후술하겠다.Meanwhile, while the invention of the method is mainly described in FIG. 4, it can also be implemented in an XR device. This will be described later with reference to FIG. 5.
도 5는 도 4에 도시된 플로우 차트가 적용된 XR 디바이스의 구성 요소들을 도시하고 있다. 물론, 당업자는 도 5에 도시된 XR 디바이스를, 이전 도 1 내지 도 3의 다른 디바이스에서 구현할 수도 있고, 이 또한 본 발명의 권리범위에 속한다.Figure 5 illustrates components of an XR device to which the flow chart illustrated in Figure 4 is applied. Of course, those skilled in the art may implement the XR device illustrated in Figure 5 using other devices of the previous Figures 1 to 3, and this also falls within the scope of the present invention.
본 발명의 일실시예에 따른 가상 피팅 서비스를 제공하는 XR 디바이스는, 도 5에 도시된 바와 같이 메모리(510), 마이크(520), 카메라(530), 스크린(540), 음성 인식 엔진(550) 및 컨트롤러(500)를 포함한다. 특히, 상기 컨트롤러(500)는 XR 디바이스의 전반적인 기능 및 각 구성모듈들의 동작을 제어한다. 다만, 도 5에 도시된 구성모듈들은 일예에 불과하며, 본 발명의 기술적 사상을 구현하기 위해 일부 모듈을 삭제, 추가, 변경하는 것도 본 발명의 권리범위에 속한다.An XR device providing a virtual fitting service according to an embodiment of the present invention includes a memory (510), a microphone (520), a camera (530), a screen (540), a voice recognition engine (550), and a controller (500), as illustrated in FIG. 5. In particular, the controller (500) controls the overall function of the XR device and the operation of each component module. However, the component modules illustrated in FIG. 5 are merely examples, and deleting, adding, or modifying some modules to implement the technical idea of the present invention also falls within the scope of the present invention.
메모리(510)는, 적어도 하나의 가상 옷의 정보를 저장하고, 마이크(520)는 상기 XR 디바이스 주변의 사용자로부터 적어도 하나의 음성 명령을 수신하도록 설계한다.The memory (510) stores information of at least one virtual garment, and the microphone (520) is designed to receive at least one voice command from a user around the XR device.
컨트롤러(500)는, 상기 수신된 적어도 하나의 음성 명령에 기초하여, 상기 메모리(510)에 저장된 적어도 하나의 가상 옷의 정보 중에서 특정 메인 그룹에 속하는 옷들의 정보를 추출한다.The controller (500) extracts information on clothes belonging to a specific main group from among information on at least one virtual clothes stored in the memory (510), based on at least one voice command received.
카메라(530)는, 상기 사용자의 제스쳐를 인식한다. 나아가, 상기 컨트롤러(500)는 상기 인식된 제스쳐에 기초하여, 상기 특정 메인 그룹에 속하는 옷들 중에서 서브 그룹에 속하는 옷들의 정보를 추출한다. 즉, 전술한 바와 같이, 1차 필터링은 음성 인식 기술에 기반하여 이루어 지도록 설계하고, 2차 필터링은 제스쳐 인식 기술에 기반하여 이루어 지도록 함으로써, 키보드의 도움 없이 사용자가 원하는 옷을 신속하게 선택할 수 있는 장점이 있다.The camera (530) recognizes the user's gesture. Furthermore, the controller (500) extracts information on clothes belonging to a subgroup from among clothes belonging to the specific main group based on the recognized gesture. That is, as described above, the first filtering is designed to be performed based on voice recognition technology, and the second filtering is designed to be performed based on gesture recognition technology, thereby providing the advantage of allowing the user to quickly select the desired clothes without the aid of a keyboard.
도 6 및 도 7은 종래 기술에 의한 가상 피팅 서비스의 문제점들을 도시하고 있다.Figures 6 and 7 illustrate problems of virtual fitting services according to the prior art.
도 6의 (a)에 도시된 바와 같이, 종래 기술에 의한 사이니지(611)를 통해서도 가상 피팅 서비스를 제공될 수는 있다. As shown in (a) of Fig. 6, a virtual fitting service can also be provided through signage (611) using conventional technology.
예를 들어, 사용자(610)에 대응하는 가상 아바타가 표시되고, 원하는 상의(예를 들어 셔츠)(612)를 확인할 수가 있다. 그러나, 종래 기술에 의하면, 사용자(610)가 상의(612)를 선택하였을 때는 하의 부분(613)에 어떤 옷을 입었는지 표시되지 않는다는 문제점도 있다. 본 발명의 일실시예는 이와 같은 문제점도 해결하고자 한다.For example, a virtual avatar corresponding to a user (610) is displayed, and a desired top (e.g., a shirt) (612) can be confirmed. However, according to the prior art, when the user (610) selects a top (612), there is a problem in that the type of clothing worn on the lower body (613) is not displayed. One embodiment of the present invention seeks to solve this problem as well.
나아가, 사용자가 상의(612)가 맘에 들지 않아 다른 가상 옷을 선택하기 위해서는, 도 6의 (b)에 도시된 바와 같이 복잡한 화면(620)에서 원하는 의상을 찾기 위하여 일일이 스크롤(621) 해야 하는 문제가 있다. 특히, 가상 아바타에 입혀 볼 수 있는 의상이 매우 많은 경우, 이를 사용자가 수동으로만 스크롤 하는 것은 너무 많은 시간이 소요된다.Furthermore, if a user does not like the top (612) and wants to select a different virtual outfit, there is a problem in that the user must scroll (621) through a complex screen (620) to find the desired outfit, as shown in (b) of Fig. 6. In particular, if there are a large number of outfits that can be tried on on the virtual avatar, manually scrolling through them takes too much time.
또한, 도 6에 도시된 사이지니는 통상적으로 공공의 장소에 설치되어 있으므로 별도의 키보드를 이용하는 것이 사실상 불가능하다. 본 발명의 일실시예는 이와 같은 문제점들을 모두 해결하고자 한다.Furthermore, the signage shown in Figure 6 is typically installed in public places, making it virtually impossible to use a separate keyboard. One embodiment of the present invention seeks to address all of these issues.
한편, 전술한 종래 기술 문제점 해결 위해, 도 7에 도시된 바와 같이 옷의 상의(710)와 하의(720)가 모두 함께 표시되도록 설계한다. 따라서, 사용자는 미리 전체적인 의상들의 느낌을 확인할 수가 있다.Meanwhile, to solve the aforementioned problems of the prior art, the upper garment (710) and lower garment (720) of the clothing are designed to be displayed together, as shown in Fig. 7. Accordingly, the user can check the overall feel of the clothing in advance.
즉, 사용자가 상의 또는 하의 중 하나를 선택하는 단계에서도, 나머지 부분(하의 또는 상의)이 디폴트로 정해진 옷을 입은 상태로 표시한다. 또는, 선택되지 않은 부분에, XR 디바이스가 추천하는 의상을 표시할 수도 있으며, 이는 특정 사용자의 이전 히스토리를 참조하여 결정된다.That is, even when a user selects either a top or bottom, the remaining parts (bottoms or tops) are displayed with the default clothing. Alternatively, the XR device can display recommended clothing for the unselected parts, which is determined based on the user's previous history.
도 8은 본 발명의 일실시예에 의한 XR 디바이스가 2개의 서로 다른 인터페이스를 이용하여 특정 옷을 신속하게 디텍트 하는 프로세스를 도시하고 있다.FIG. 8 illustrates a process in which an XR device according to one embodiment of the present invention quickly detects specific clothing using two different interfaces.
본 발명의 일실시예에 의하면, 도 8에 도시된 바와 같이 음성 인식과 제스쳐 인식의 2가지 서로 다른 타입의 인터페이스들을 이용하여, 사용자가 원하는 옷을 빠르게 확인할 수가 있다.According to one embodiment of the present invention, as illustrated in FIG. 8, a user can quickly check the clothes he or she wants by using two different types of interfaces, namely, voice recognition and gesture recognition.
예를 들어, 음성인식을 통해 다양한 표현 (ex. 청바지, 치마, 모자 등)을 할 수 있고, 음성인식으로는 표현하기 힘든 애매한 치수 및 위치 표현을 제스쳐 인식을 통해 명확히 할 수 있다는 장점이 있다.For example, voice recognition can be used to express various things (e.g. jeans, skirts, hats, etc.), and gesture recognition can be used to clearly express ambiguous dimensions and locations that are difficult to express with voice recognition.
도 8에 도시된 바와 같이, 1단계에서는 음성 인식 기술에 기반하여 코스 필터(Coarse Filter)가 사용된다. 즉, 메모리 및 서버에 저장된 수많은 옷들 중에서 메인 그룹에 속하는 옷들을 추출한다. 예를 들어, 사용자가 하얀색 정장용 셔츠라고 음성 명령을 내린 것으로 가정한다. 그러나, 이 때 구체적인 사이즈를 사용자는 조절하고자 할 가능성이 있는데, 음성 인식만으로는 이를 빠르게 반영할 수 없다.As illustrated in Figure 8, in Step 1, a coarse filter is used based on voice recognition technology. This means that clothing belonging to a main group is extracted from the numerous clothing items stored in memory and on the server. For example, suppose a user gives a voice command for a white suit shirt. However, the user may want to adjust the specific size, and voice recognition alone cannot quickly accommodate this.
따라서, 도 8에 도시된 바와 같이, 2 단계에서는 제스쳐 인식 기술에 기반하여, 파인 필터(Fine Filter)가 사용된다. 즉, 메인 그룹에 속한 옷들 중에서 서브 그룹의 옷들을 다시 추출한다. 예를 들어, 사용자가 셔츠의 특정 부위의 사이즈를 조정하는 제스쳐로, 사용자에게 최적화된 특정 옷을 XR 디바이스가 최종 추천하는 것이 가능하다.Therefore, as illustrated in Figure 8, in Step 2, a fine filter is used based on gesture recognition technology. This means that clothing in a subgroup is extracted from the main group. For example, if a user makes a gesture to adjust the size of a specific part of a shirt, the XR device can ultimately recommend a specific piece of clothing optimized for the user.
도 9 내지 도 11은 본 발명의 일실시예에 의한 XR 디바이스가 음성 인식에 기반하여 1차적으로 가상의 옷을 필터링 하는 프로세스(process)를 도시하고 있다. 도 9 내지 도 11은 도 8에 도시된 코스 필터(Coarse Filter)에 의해 메인 그룹의 옷들을 추출하는 실시예들과 관련되어 있다.Figures 9 to 11 illustrate a process of primarily filtering virtual clothing based on voice recognition by an XR device according to an embodiment of the present invention. Figures 9 to 11 relate to embodiments of extracting clothing from a main group using the coarse filter illustrated in Figure 8.
도 9의 (a)에 도시된 바와 같이, XR 디바이스 주변의 사용자가 “청바지에 흰티” (910)라고 말하면, XR 디바이스는 이를 인식한다. 이 때, 전술한 마이크 및 음성 인식 엔진이 동작한다. 그리고, XR 디바이스는 스크린에 임의의 청바지와 흰티를 입은 가상 아바타(911)를 디스플레이 한다. 따라서, 사용자가 원하는 상의와 하의를 가상 아바타에 입혀서 동시에 확인할 수 있는 장점이 있다.As illustrated in (a) of Fig. 9, when a user near the XR device says “jeans and a white t-shirt” (910), the XR device recognizes this. At this time, the aforementioned microphone and voice recognition engine are activated. Then, the XR device displays a virtual avatar (911) wearing a random pair of jeans and a white t-shirt on the screen. Therefore, there is an advantage in that the user can simultaneously check the virtual avatar by putting on the desired top and bottom.
나아가, 도 9의 (b)에 도시된 바와 같이, XR 디바이스 주변의 사용자가 “야구 점퍼 추가” (920) 라고 말하면, XR 디바이스는 이를 인식한다. 그리고, XR 디바이스는 스크린에 기존 의상에 임의의 야구 점퍼를 입은 가상 아바타(921)를 디스플레이 한다.Furthermore, as illustrated in (b) of FIG. 9, when a user around the XR device says “Add baseball jumper” (920), the XR device recognizes this. Then, the XR device displays a virtual avatar (921) wearing a random baseball jumper on top of the existing clothing on the screen.
다만, 도 9의 (b)에 도시된 스크린을 확인한 유저는, 청바지, 흰티 및 야구 점퍼의 조합이 마음에 들지 않을 가능성 있다. 이 때, 도 9의 (c)에 도시된 바와 같이, XR 디바이스 주변의 사용자가 “점퍼 빼고” (930) 라고 말하면, 가상 아바타에서 “야구 점퍼”를 삭제한다(931). 사용자가 야구 점퍼 라고 말하지 않고, 점퍼라고 말해도, XR 디바이스는 기존 히스토리를 참조해 사용자의 의도를 인식할 수 있는 장점이 있다.However, a user who sees the screen shown in (b) of Fig. 9 may not like the combination of jeans, a white T-shirt, and a baseball jumper. At this time, as shown in (c) of Fig. 9, if a user near the XR device says “take off the jumper” (930), the “baseball jumper” is deleted from the virtual avatar (931). Even if the user says “jumper” instead of “baseball jumper,” the XR device has the advantage of being able to recognize the user’s intention by referring to the existing history.
또한, 도 9에서 도시된 실시예들에서는 우선 음성 인식을 통한 베이스 검색(Coarse Search)가 가능하다는 점에서, 룩앤필(look and feel)을 사용자가 신속하게 확인할 수 있는 장점이 있다.In addition, the embodiments illustrated in FIG. 9 have the advantage of allowing users to quickly check the look and feel, as coarse search through voice recognition is possible first.
한편, 도 10의 (a)에 도시된 바와 같이, XR 디바이스는 흰티를 입은 가상 아바타(1011)를 디스플레이 하고 있는 것으로 가정한다.Meanwhile, as shown in (a) of Fig. 10, it is assumed that the XR device is displaying a virtual avatar (1011) wearing a white T-shirt.
이 때, XR 디바이스 주변의 사용자가 “아니다. 셔츠로 바꿔줘” (1010)라고 말하면, 도 10의 (b)에 도시된 바와 같이, XR 디바이스는 셔츠를 입은 가상 아바타(1012)를 디스플레이 한다. 전술한 도 9의 실시예들과 달리, 색깔 지정이 없었으므로 이전 상의였던 티(1011)의 색깔과 동일한 칼라를 유지하도록 설계한다. 따라서, 사용자가 색깔에 대한 부분을 언급할 필요가 없어서, 데이터 처리 속도를 개선한다.At this time, if a user around the XR device says “No. Change it to a shirt” (1010), the XR device displays a virtual avatar (1012) wearing a shirt, as shown in (b) of FIG. 10. Unlike the embodiments of FIG. 9 described above, since there is no color designation, the design maintains the same color as the previous top, the T-shirt (1011). Therefore, the user does not need to mention the color, thereby improving the data processing speed.
나아가, 도 10의 (c)에 도시된 바와 같이, XR 디바이스 주변의 사용자가 “어울리는 넥타이” 또는 “어울리는 넥타이 추천” (1020) 이라고 말하면, XR 디바이스는 이를 인식한다. 그리고, XR 디바이스는 스크린에 기존 의상에 적절한 넥타이를 맨 가상 아바타(1021)를 디스플레이 한다. 이 때, 추천 넥타이는 인식된 사용자의 구매 히스토리만 참고할 수도 있고 또는, 같은 상황에서 많이 판매된 넥타이가 자동 추천될 수도 있으며 모두 본 발명의 권리범위에 속한다.Furthermore, as illustrated in (c) of FIG. 10, when a user around the XR device says “matching tie” or “matching tie recommendation” (1020), the XR device recognizes this. Then, the XR device displays a virtual avatar (1021) wearing a tie appropriate for an existing outfit on the screen. At this time, the recommended tie may refer only to the purchase history of the recognized user, or a tie that has sold a lot in the same situation may be automatically recommended, all of which fall within the scope of the present invention.
그리고, 이전에 설명한 도 9 및 도 10의 실시예들에서는 사용자가 상의 및 하의의 타입을 모두 지정한 것으로 가정하였다.And, in the previously described embodiments of FIGS. 9 and 10, it was assumed that the user specified both the type of upper and lower garments.
반면, 도 11에 도시된 바와 같이, XR 디바이스 주변의 사용자는 상의를 지정하지 않고 하의에 해당하는 “청바지” (1100)만 지정하는 것도 가능하다. 그러나, 본 발명의 일실시예는 사용자가 상의 또는 하의 중 하나만 말하여도, 말하지 않은 다른 쪽 의상은 자동으로 추천되도록 설계한다.On the other hand, as illustrated in FIG. 11, a user around the XR device may also specify only “jeans” (1100) corresponding to the bottom without specifying the top. However, one embodiment of the present invention is designed so that even if a user specifies only one of the top or bottom, the other unspecified clothing item is automatically recommended.
즉, 도 11에 도시된 바와 같이, XR 디바이스는 사용자가 말한 청바지에 대응하는 가상 옷(1101)을 가상 아바타와 함께 표시할 뿐만 아니라, 사용자의 지정이 없는 상의에 대해서도 추천 의상(1102)을 표시하도록 설계한다. 특정 기간내 청바지와 함께 판매된 상의가 자동으로 추천된다. 특히, XR 디바이스의 위치 정보(EX: GPS 정보 등)를 이용하여 상기 XR 디바이스가 위치한 지점으로부터 특정 거리내 또는 같은 행정 구역내 판매 수량만 제한적으로 필터링 하는 것도 본 발명의 권리범위에 속한다.That is, as illustrated in FIG. 11, the XR device is designed to not only display virtual clothes (1101) corresponding to the jeans mentioned by the user along with a virtual avatar, but also to display recommended clothes (1102) for tops that have not been specified by the user. Tops sold together with jeans within a specific period are automatically recommended. In particular, filtering only the quantity sold within a specific distance from the point where the XR device is located or within the same administrative district by using the location information of the XR device (EX: GPS information, etc.) also falls within the scope of the present invention.
한편, 전술한 도 9 내지 도 11은 음성 인식을 통한 베이스 검색(Coarse search)에 기반하고 있는데, 음성 명령은 디테일한 지정에 에러 가능성이 많다는 문제점이 있다. 예를 들어, “소매가 좀 더 (또는 3cm) 길었으면 좋겠는데?”, “V넥이 좀 더 (또는 2CM) 깊게 파였으면 좋겠는데?”, “체크 패턴이 좀 더 굵었으면 좋겠는데?”, “왼쪽 가슴 약간 아래에 스트라이프 패턴이 있었으면 좋겠는데?” 등의 음성만으로는 임의의 옷에 대한 사용자의 실제 의도를 정확하게 파악할 수 없다. 이는 음성 엔진이 해당 언어를 인식하는 것만으로도 부족하다. 이를 해결하기 위하여 본 발명의 일실시예는 구체적인 필터링에 대해서는 제스쳐 인식으로 전환된다.Meanwhile, the aforementioned FIGS. 9 to 11 are based on coarse search through voice recognition, but voice commands have a problem in that there is a high possibility of error in detailed specifications. For example, it is impossible to accurately determine the user's actual intention for any clothing item with voice alone, such as "I wish the sleeves were a little longer (or 3 cm)?", "I wish the V-neck was a little deeper (or 2 cm)?", "I wish the check pattern was a little thicker?", "I wish there was a stripe pattern slightly below the left chest?". This is because the voice engine's recognition of the language is insufficient. To solve this problem, one embodiment of the present invention switches to gesture recognition for specific filtering.
이와 관련하여, 이하 도면들에서 후술하겠다.In this regard, the drawings below will be described later.
도 12 내지 도 14는 본 발명의 일실시예에 의한 XR 디바이스가 제스쳐 인식에 기반하여 2차적으로 가상의 옷을 필터링 하는 프로세스(process)를 도시하고 있다.FIGS. 12 to 14 illustrate a process of secondarily filtering virtual clothes based on gesture recognition by an XR device according to an embodiment of the present invention.
즉, 음성 인식으로 베이스 검색이 완료된 후, 제스쳐 인식을 통해 세부 조건 검색(Fine search)이 가능하도록 설계한다. 특히, 특정 키워드들에 대한 음성 인식이 이루어진 경우에는, 즉 제스쳐 인식 모드로 진입하는 트리거 조건의 키워드가 음성 인식되면, 본 발명의 일실시예에 의한 XR 디바이스는 더 이상 음성 인식을 위한 마이크 및 음성 인식 엔진을 disenable 상태로 변경하여 불필요한 전력 소모를 최소화 하는 기술적 효과가 있다.That is, after a base search is completed using voice recognition, it is designed to enable a fine search using gesture recognition. In particular, when voice recognition is performed for specific keywords, that is, when a keyword that is a trigger condition for entering gesture recognition mode is voice recognized, the XR device according to an embodiment of the present invention has a technical effect of minimizing unnecessary power consumption by disabling the microphone and voice recognition engine for voice recognition.
나아가, 제스쳐 인식을 통한 세부 조건 검색(fine search) 프로세스 중에도, 특정 상황에 따라 한 개의 손만 인식할지 또는 두 개의 손을 인식할지 구별하여 정의함으로써, 불필요한 전력 소모를 더 줄일 수 있는 기술적 효과가 기대된다.Furthermore, even during the fine search process through gesture recognition, it is expected that there will be a technological effect that can further reduce unnecessary power consumption by distinguishing and defining whether to recognize only one hand or two hands depending on specific situations.
우선, 사용자가 “흰 티에 대한 세부 조정” 이라고 말하면, 이를 인식한 XR 디바이스는 도 12의 (a)에 도시된 바와 같이, 가상 아바타에 입혀진 흰 티의 외곽선을 따라 움직이는 가상의 선(1201)을 표시한다.First, when the user says “detailed adjustments to the white tee,” the XR device that recognizes this displays a virtual line (1201) that moves along the outline of the white tee worn by the virtual avatar, as shown in (a) of Fig. 12.
사용자가 손을 오른쪽 방향으로 이동시키는 제스쳐를 인식한 XR 디바이스는, 도 12의 (b)에 도시된 바와 같이 목 주변으로 이동된 가상의 선(1202)을 표시한다.The XR device, which recognizes the user's gesture of moving his hand to the right, displays a virtual line (1202) moved around the neck as shown in (b) of Fig. 12.
나아가, 사용자가 손을 오른쪽 방향으로 다시 이동시키는 제스쳐를 인식한 XR 디바이스는, 도 12의 (c)에 도시된 바와 같이 흰 티의 오른쪽 어깨 주변으로 이동된 가상의 선(1203)을 표시한다.Furthermore, the XR device, which recognizes the user's gesture of moving his hand back to the right, displays a virtual line (1203) moved around the right shoulder of the white T-shirt, as shown in (c) of FIG. 12.
마지막으로, 사용자가 손을 오른쪽 방향으로 다시 이동시키는 제스쳐를 인식한 XR 디바이스는, 도 12의 (d)에 도시된 바와 같이 흰 티의 오른쪽 옆구리 주변으로 이동된 가상의 선(1204)을 표시한다.Finally, the XR device, which recognizes the user's gesture of moving his hand back to the right, displays a virtual line (1204) moved around the right side of the white tee as shown in (d) of FIG. 12.
전술한 바와 같이, 사용자가 특정 옷의 특정 부위를 선택하는 과정에서는 하나의 손 제스쳐 인식만으로 충분하다. 보다 구체적으로, 선택된 특정 부위의 사이즈를 조정하는 과정에서는 2개의 손이 사용될 수 있다.As mentioned above, a single hand gesture is sufficient for a user to select a specific part of a garment. More specifically, two hands can be used to adjust the size of the selected part.
우선, 도 12의 (d) 에 도시된 바와 같이, 티셔츠의 옆구리 부분에 가상의 선이 디스플레이 된 상태임을 가정한다.First, as shown in (d) of Fig. 12, it is assumed that a virtual line is displayed on the side of the T-shirt.
이 때, 도 13의 (a)에 도시된 바와 같이, 사용자(1310)가 2개의 손(1320)을 자신의 옆구리 부분에서 좌우로 움직여서 가상의 옷의 사이즈를 조정하는 것이 가능하다.At this time, as shown in (a) of Fig. 13, it is possible for the user (1310) to adjust the size of the virtual clothes by moving two hands (1320) left and right at his/her side.
도 13의 (a)에 도시된 사용자 제스쳐에 따라, XR 디바이스는 도 13의 (b)에 도시된 바와 같이, 가상의 옷의 특정 부분을 늘리거나 줄이는 피드백 그래픽 이미지(1330)를 표시한다. 그리고, XR 디바이스가 확정된 옷의 사이즈에 대응하는 실제 존재하는 옷을 찾도록 설계한다. 따라서, 유사한 옷들 중에서도, 특정 부위가 넉넉하거나 타이트한 특정 옷을 신속하게 서치하는 것이 가능한 본 발명 일실시예의 특유의 효과가 있다.In response to the user gesture illustrated in (a) of Fig. 13, the XR device displays a feedback graphic image (1330) that enlarges or reduces a specific portion of a virtual garment, as illustrated in (b) of Fig. 13. Furthermore, the XR device is designed to search for actual garments that correspond to the determined garment size. Therefore, one embodiment of the present invention has the unique effect of enabling rapid searching for specific garments that are loose or tight in specific areas, even among similar garments.
이전 설명한 도 13에 도시된 실시예를, 이하 도 14를 참조하여 보다 상세히 설명하면 다음과 같다.The embodiment illustrated in FIG. 13 described previously will be described in more detail with reference to FIG. 14 below, as follows.
도 14의 (a)에 도시된 가상의 티셔츠(1410)는 음성 인식으로 선택되고 XR 디바이스의 스크린에 표시된 것으로 가정한다. 이 때, XR 디바이스의 제1제스쳐(1420)에 반응하여, 도 14의 (b)에 도시된 바와 같이 티셔츠 옆구리 사이즈가 변경된 가상의 옷(1430)을 디스플레이 한다.It is assumed that the virtual T-shirt (1410) illustrated in (a) of Fig. 14 is selected by voice recognition and displayed on the screen of the XR device. At this time, in response to the first gesture (1420) of the XR device, a virtual garment (1430) with a changed side size of the T-shirt is displayed, as illustrated in (b) of Fig. 14.
그리고, XR 디바이스의 제2제스쳐(1440)에 반응하여, 도 14의 (c)에 도시된 바와 같이 티셔츠 옆구리 사이즈가 다시 변경된 가상의 옷(1450)을 디스플레이 한다.And, in response to the second gesture (1440) of the XR device, a virtual garment (1450) with the side size of the T-shirt changed again is displayed as shown in (c) of FIG. 14.
다만, 사용자 제스쳐에 대응하는 옆구리 사이즈의 티셔츠가 존재하지 않을 수 있다. 이와 같은 문제점 해결을 위하여, 전술한 제2제스쳐(1440)에 대응하는 옆구리 사이즈의 티셔츠가 존재하지 않으면, 도 14의 (c)가 아닌 도 14의 (b)의 이전 가상 옷(1430)을 표시한다. 따라서, 사용자는 해당 옆구리 사이즈의 티셔츠가 존재하지 않다는 피드백을 받을 수 있는 장점이 있다.However, there may not be a T-shirt with a side size corresponding to the user gesture. To address this issue, if there is no T-shirt with a side size corresponding to the second gesture (1440) described above, the previous virtual clothing (1430) of FIG. 14 (b) is displayed instead of FIG. 14 (c). Therefore, the user has the advantage of receiving feedback that there is no T-shirt with the corresponding side size.
도 15 내지 도 17은 본 발명의 일실시예에 의한 XR 디바이스가 음성 인식 및 제스쳐 인식이라는 2가지 이종의 인터페이스를 이용하여 특정 가상의 옷을 신속하게 디텍트 하는 프로세스를 도시하고 있다.FIGS. 15 to 17 illustrate a process in which an XR device according to one embodiment of the present invention quickly detects specific virtual clothes using two different interfaces, namely voice recognition and gesture recognition.
도 15의 (a)에 도시된 바와 같이 사용자가 특정 키워드인 “레터링 추가” 라고 말하면 XR 디바이스는 Coarse search 로서 레터링(문자나 숫자 등)을 포함하는 복수의 티셔츠들을 메인 그룹으로 우선 필터링 한다.As shown in (a) of Fig. 15, when a user says a specific keyword, “add lettering,” the XR device first filters multiple T-shirts containing lettering (letters or numbers, etc.) into a main group through a coarse search.
그리고, 상기 특정 키워드인 “레터링 추가”에 반응하여 XR 디바이스는 더 이상 음성 인식을 위한 마이크 및 음성 인식 엔진을 실행하지 않고 모션(제스쳐) 인식 모드로 전환된다.And, in response to the specific keyword “add lettering”, the XR device no longer runs the microphone and voice recognition engine for voice recognition and switches to motion (gesture) recognition mode.
예를 들어, 도 15의 (b)에 도시된 바와 같이 사용자가 영역을 지정하기 위한 2개의 손들(1520, 1530)을 모두 디텍트 하고, 2개의 손들(1520, 1530)로 구성된 영역에 레터링이 포함된 서브그룹의 옷들만 다시 상세 검색(fine search)을 한다. 특히, 특정 키워드에 대하여 음성 인식 모드에서 제스쳐 인식 모드로 변환됨에 본 발명 일실시예의 특징이 있을 뿐만 아니라, 제스쳐 인식 모드 중에서도 하나의 손만 인식할지 또는 2개의 손을 모두 인식할지 여부를 특정 키워드에 따라 결정하는 것도 본 발명의 권리범위에 속한다.For example, as shown in (b) of FIG. 15, both hands (1520, 1530) used by the user to designate an area are detected, and only clothes in a subgroup containing lettering in the area composed of the two hands (1520, 1530) are subjected to a fine search again. In particular, not only is there a feature of one embodiment of the present invention in that it converts from a voice recognition mode to a gesture recognition mode for a specific keyword, but it is also within the scope of the present invention to determine whether to recognize only one hand or both hands depending on a specific keyword even in the gesture recognition mode.
또는, 1개의 손(1540)이 가리키는 위치 주변에 레터링이 포함된 서브그룹의 옷들만 상세 검색이 이루어 지도록 할 수도 있다.Alternatively, a detailed search can be performed only on clothes in a subgroup that contain lettering around the location pointed to by one hand (1540).
한편, 도 15에 도시된 실시예들에 따라 레터링이 추가된 옷을 확인한 사용자는 레터링이 제거된 옷을 다시 검색하고자 할 수 있다.Meanwhile, a user who has identified clothes with added lettering according to the embodiments illustrated in FIG. 15 may want to search again for clothes with the lettering removed.
이와 같은 니즈를 고려하여, 도 16의 (a)에 도시된 바와 같이 사용자가 “필터 제거” (1610)라고 말하면, 도 16의 (b)에 도시된 바와 같이, 가상의 옷에 표시된 2개의 레터링들(1620, 1630) 중에서 하나(1630)를 선택하고 가상의 옷에서 없애는 제스쳐(1640)를 취할 수 있다.Considering such needs, when a user says “remove filter” (1610) as shown in (a) of FIG. 16, he/she can select one (1630) of the two letterings (1620, 1630) displayed on the virtual clothes and make a gesture (1640) to remove it from the virtual clothes, as shown in (b) of FIG. 16.
이를 인식한 XR 디바이스는, 레터링 하나(1621)만 포함하고 있는 가상의 옷들을 다시 검색하여 스크린에 디스플레이 한다.The XR device, recognizing this, searches for virtual clothes containing only one letter (1621) and displays them on the screen.
그리고, 가상 옷의 칼라를 세부적으로 표시하는 실시예에 대해서는 이하 도 17을 참조하여 설명하겠다.And, an embodiment of displaying the color of virtual clothes in detail will be described below with reference to Fig. 17.
도 17의 (a)에 도시된 바와 같이 사용자가 특정 옷에 대하여 “빨간 색으로 변경” (1710)이라고 말하거나 또는 도 17의 (b)에 도시된 바와 같이 사용자가 “좀 더 밝은 색상으로” (1720)라고 말하면, XR 디바이스는 사용자의 의도를 정확히 인지하는 것이 사실상 불가능하다. 그 이유는, 빨간색도 다양한 빨간색이 존재하기 때문이다.As shown in (a) of Figure 17, if a user says “Change to red” (1710) for a specific piece of clothing, or as shown in (b) of Figure 17, if the user says “Make it a little brighter” (1720), it is virtually impossible for the XR device to accurately recognize the user’s intention. This is because there are many different shades of red.
이와 같은 문제점을 해결하기 위하여, 도 17의 (c)에 도시된 바와 같이 사용자가 “색상 세부 조정” (1730) 이라고 말하고 XR 디바이스가 이를 인식하면, 음성 인식 모드는 중단하고 제스쳐 인식 모드로 자동 스윗칭 된다.To solve this problem, as shown in (c) of Fig. 17, when the user says “color detail adjustment” (1730) and the XR device recognizes it, the voice recognition mode is stopped and automatically switched to gesture recognition mode.
다만, 이전 실시예들과 달리, 음성 인식 모드에서 제스쳐 인식 모드로 스윗칭 되는 중간 단계로서, 칼라를 디테일 하게 조정할 수 있는 옵션(1740)이 디스플레이 된다.However, unlike previous embodiments, an option (1740) for adjusting the color in detail is displayed as an intermediate step in switching from voice recognition mode to gesture recognition mode.
그리고, 상기 디스플레이된 옵션(1740) 주변에서 하나의 손(1741)만 트래킹 및 인식하도록 설계함으로써, 2개의 손을 모두 트래킹할 때 소모되는 전력 대비 장점이 있다.And, by designing to track and recognize only one hand (1741) around the displayed option (1740), there is an advantage in terms of power consumption when tracking both hands.
한편, 이존 도면들에서는 coarse search 로 메인 그룹의 가상의 옷들을 1차적으로 소팅하고, fine search 로 서브 그룹의 가상의 옷들을 2차적으로 소팅하는 프로세스를 설명하였으나, 이러한 과정에도 불구하고 결과적으로 복수의 많은 가상의 옷들이 디텍트될 가능성이 높다. 소팅된 많은 가상의 옷들을 XR 디바이스의 스크린내에서 보다 효율적으로 정렬하는 실시예는 이하 도면들에서 설명하겠다.Meanwhile, the existing drawings describe a process of first sorting virtual clothes in the main group using coarse search, and secondarily sorting virtual clothes in the subgroup using fine search. However, despite this process, there is a high possibility that a large number of virtual clothes will be detected as a result. An embodiment of more efficiently arranging a large number of sorted virtual clothes within the screen of an XR device will be described in the drawings below.
도 18은 본 발명의 일실시예에 의한 XR 디바이스가 정의하는 스크린내 비활성 영역 및 활성 영역 등을 도시하고 있다.Figure 18 illustrates an inactive area and an active area within a screen defined by an XR device according to one embodiment of the present invention.
도 18에 도시된 바와 같이, 본 발명의 일실시예에 의한 XR 디바이스는 얼굴영역, 비활성 영역 및 활성 영역을 포함하고 있다. 얼굴 영역에는 XR 디바이스 주변에 위치한 사용자의 얼굴이 반영될 수 있다. 이 때, 카메라 및 얼굴 인식 알고리즘이 사용된다.As illustrated in FIG. 18, an XR device according to one embodiment of the present invention includes a face area, an inactive area, and an active area. The face area may reflect the face of a user located around the XR device. A camera and a facial recognition algorithm are used at this time.
그리고, 사용자의 제스쳐에 반응하여, XR 디바이스의 스크린내 활성 영역의 가상의 옷은 변경된다. 반면, 상기 사용자의 제스쳐에 반응해서도, XR 디바이스의 스크린내 비활성화 영역의 가상의 옷은 변경되지 않는다. 따라서, 사용자는 전체적인 모습을 보는 것을 유지하면서, 상의 또는 하의를 선택적으로 확정하는 것이 가능한 장점이 있다.In response to the user's gesture, the virtual clothing in the active area of the XR device's screen changes. Conversely, the virtual clothing in the inactive area of the XR device's screen does not change in response to the user's gesture. Therefore, the user has the advantage of being able to selectively select the top or bottom while maintaining a full view of the entire scene.
나아가, 각 영역 전체 또는 각 영역에 부분적으로 우선 순위를 두어, 가능한 많은 가상 옷을 표시하면서도 전체적으로 룩앤필을 사용자가 확인할 수 있는 실시예들은 이하 도 19 내지 도 21에서 후술한다.Furthermore, embodiments that allow the user to check the overall look and feel while displaying as many virtual clothes as possible by prioritizing each area in its entirety or in part in each area are described below in FIGS. 19 to 21.
그리고, 도 19 내지 도 21은 도 18에서 정의한 영역 정보에 기초하여, 복수의 가상의 옷을 배열하는 프로세스를 도시하고 있다.And, FIGS. 19 to 21 illustrate a process of arranging a plurality of virtual clothes based on the area information defined in FIG. 18.
도 19에 도시된 바와 같이, 사용자가 “청바지” (1910) 라고 말하고, 이를 인식한 XR 디바이스는 현재 활성화 되어 있는 영역을 침범하지 않으면서 필터링된 가상의 청바지들을 모두 표시한다. 다만, 이와 같이 설계할 경우, 상의(예를 들어, 티셔츠)를 함꼐 입은 전체적인 느낌을 확인할 수 없는 문제점이 있다.As illustrated in Figure 19, when a user says "jeans" (1910), the XR device recognizes this and displays all filtered virtual jeans without encroaching on the currently active area. However, this design has the drawback of making it difficult to confirm the overall feel of wearing an upper garment (e.g., a T-shirt).
이를 해결하기 위하여, 도 20의 왼쪽 도면 및 가운데 도면에 도시된 바와 같이, 비활성화 영역(가상 티셔츠 상의)과 활성 영역(청바지 하의)를 모두 표시하면서, 다양한 가상의 청바지들을 표시한다. 따라서, 사용자는 상의와 하의를 모두 입은 전체적인 모습을 확인할 수 있는 장점이 있다.To address this, various virtual jeans are displayed, with both the inactive area (the virtual T-shirt top) and the active area (the jeans bottoms) visible, as shown in the left and middle drawings of Figure 20. Therefore, the user has the advantage of being able to see the overall appearance of the top and bottoms.
다만, 검색된 가상의 청바지들의 개수가 스레스홀드값(XR 디바이스의 스크린 사이즈, 가상의 옷 이미지 개수 및 사이즈에 따라 변경됨)을 초과하는 경우, 도 20의 오른쪽 도면에 도시된 바와 같이 비활성화 영역부터 모두 가상의 청바지로 채운다. 즉, 비활성화 영역 보다 활성화 영역에 우선 순위를 두는 것도 본 발명 일실시예의 특징이다.However, if the number of virtual jeans found exceeds a threshold value (which changes depending on the screen size of the XR device, the number of virtual clothing images, and their sizes), the entire area starting from the inactive area is filled with virtual jeans, as shown in the right drawing of FIG. 20. In other words, giving priority to the active area over the inactive area is also a feature of one embodiment of the present invention.
한편, XR 디바이스의 스크린 사이즈가 큰 경우, 표시된 가상의 옷들 중에서 사용자가 원하는 특정 가상의 옷을 선택하는데도 많은 시간이 소요될 것이다.Meanwhile, if the screen size of the XR device is large, it will take a lot of time for the user to select the specific virtual clothes he or she wants from among the displayed virtual clothes.
이를 해결하기 위하여, 도 21에 도시된 바와 같이 사용자가 선택할 가능성이 가장 높은 가상의 청바지를 XR 스크린의 중앙점으로부터 a 반지름(2114)에 위치시킨다. 그리고, 나머지 가상 청바지들은 XR 스크린의 중앙점으로부터 다른 반지름들(2113, 2112, 2111)에 위치시킨다. 참고로, 사용자가 선택할 가능성이 가장 높은 가상 청바지들을 XR 스크린의 중앙점에 가장 가깝도록 설계한다.To address this, as illustrated in Fig. 21, the virtual jeans that the user is most likely to select are positioned at a radius (2114) from the center point of the XR screen. The remaining virtual jeans are positioned at other radii (2113, 2112, 2111) from the center point of the XR screen. For reference, the virtual jeans that the user is most likely to select are designed to be closest to the center point of the XR screen.
그리고, 사용자 선택 가능성을 판단하는 방법으로서, 사용자 얼굴 인식을 통하여 이전 구매 히스토리를 참고하여 가장 많이 구매한 적이 있는 브랜드의 청바지들을 a 반지름(2114)에 위치시킨다.And, as a method of determining the possibility of user selection, the jeans of the most frequently purchased brands are placed in a radius (2114) by referring to the previous purchase history through user facial recognition.
110: Communication unit
120: Control unit
130: Memory unit
140a: I/O unit
140b: Sensor unit
140c: Power supply unit110: Communication unit
120: Control unit
130: Memory unit
140a: I/O unit
140b: Sensor unit
140c: Power supply unit
Claims (15)
적어도 하나의 가상 옷의 정보를 메모리에 저장하는 단계;
상기 XR 디바이스 주변의 사용자로부터 적어도 하나의 음성 명령을 수신하는 단계;
상기 수신된 적어도 하나의 음성 명령에 기초하여, 상기 메모리에 저장된 적어도 하나의 가상 옷의 정보 중에서 특정 메인 그룹에 속하는 옷들의 정보를 추출하는 단계;
상기 사용자의 제스쳐를 인식하는 단계;
상기 인식된 제스쳐에 기초하여, 상기 특정 메인 그룹에 속하는 옷들 중에서 서브 그룹에 속하는 옷들의 정보를 추출하는 단계; 및
상기 추출된 옷들의 정보에 기초하여, 상기 XR 디바이스의 스크린을 활성 영역 및 비활성 영역으로 분류하는 단계를 포함하고,
상기 추출된 옷들의 정보에 기초하여, 상기 XR 디바이스의 스크린을 활성 영역 및 비활성 영역으로 분류하는 단계는,
상기 사용자의 옷 선택 가능성을 판단하여, 상기 사용자가 선택할 가능성이 높은 옷을 상기 비활성 영역 중 상기 스크린의 중앙에 가장 가깝게 배치하는 XR 디바이스의 제어 방법.In a method for controlling an XR device that provides a virtual fitting service,
A step of storing information of at least one virtual garment in memory;
A step of receiving at least one voice command from a user around the XR device;
A step of extracting information on clothes belonging to a specific main group from information on at least one virtual clothes stored in the memory based on at least one voice command received;
A step of recognizing the user's gesture;
A step of extracting information on clothes belonging to a sub-group among clothes belonging to the specific main group based on the recognized gesture; and
A step of classifying the screen of the XR device into an active area and an inactive area based on the information of the extracted clothes,
Based on the information of the extracted clothes, the step of classifying the screen of the XR device into an active area and an inactive area is as follows:
A control method for an XR device that determines the possibility of the user selecting clothes and places clothes that the user is likely to select closest to the center of the screen among the inactive areas.
상기 적어도 하나의 음성 명령은 제1 음성 명령 또는 제2 음성 명령을 포함하는 것을 특징으로 하는 XR 디바이스의 제어 방법.In the first paragraph,
A method for controlling an XR device, wherein the at least one voice command comprises a first voice command or a second voice command.
상기 제1 음성 명령 또는 상기 제2 음성 명령이 수신된 경우, 상기 메모리에 저장된 음성 인식 엔진이 동작을 디스인에이블(disenable) 상태로 변경하는 단계
를 더 포함하는 것을 특징으로 하는 XR 디바이스의 제어 방법.In the second paragraph,
A step of changing the operation of the voice recognition engine stored in the memory to a disenable state when the first voice command or the second voice command is received
A method for controlling an XR device, characterized in that it further includes:
상기 제1 음성 명령이 수신된 경우, 상기 사용자의 2개의 손을 모두 인식하는 단계;
제1 손 및 제2 손에 의해 구성되는 영역내 임의의 글자를 포함하는 옷들을 검색하는 단계; 그리고
상기 임의의 글자를 포함하는 옷들 중 적어도 하나를 디스플레이 하는 단계
를 더 포함하는 것을 특징으로 하는 XR 디바이스의 제어 방법.In the third paragraph,
A step of recognizing both hands of the user when the first voice command is received;
A step of searching for clothes containing any letters within an area formed by the first hand and the second hand; and
A step of displaying at least one of the clothes containing the above arbitrary letters.
A method for controlling an XR device, characterized in that it further includes:
상기 제2 음성 명령이 수신된 경우, 옷의 칼라를 상세히 조정하기 위한 옵션을 디스플레이 하는 단계;
상기 디스플레이된 옵션의 위치로부터 일정 거리 이내에 있는 상기 사용자의 1개의 손만 인식하는 단계;
상기 인식된 1개의 손의 모션에 기초하여, 특정 칼라의 옷들을 검색하는 단계; 그리고
상기 특정 칼라의 옷들 중 적어도 하나를 디스플레이 하는 단계
를 더 포함하는 것을 특징으로 하는 XR 디바이스의 제어 방법.In paragraph 4,
When the second voice command is received, a step of displaying an option for adjusting the color of the clothes in detail;
A step of recognizing only one hand of the user within a certain distance from the location of the displayed option;
A step of searching for clothes of a specific color based on the recognized motion of one hand; and
A step of displaying at least one of the clothes of the above specific color
A method for controlling an XR device, characterized in that it further includes:
상기 스크린내 활성 영역의 가상의 옷만, 상기 사용자의 제스쳐에 반응하여 변경되고,
상기 스크린내 비활성 영역의 가상의 옷은, 상기 사용자의 제스쳐에 반응하여 변경되지 않는 것을 특징으로 하는 XR 디바이스의 제어 방법.In the first paragraph,
Only the virtual clothes in the active area within the above screen are changed in response to the user's gesture,
A method for controlling an XR device, characterized in that the virtual clothes in the inactive area of the screen do not change in response to the user's gesture.
적어도 하나의 가상 옷의 정보를 저장하는 메모리;
상기 XR 디바이스 주변의 사용자로부터 적어도 하나의 음성 명령을 수신하는 마이크;
상기 수신된 적어도 하나의 음성 명령에 기초하여, 상기 메모리에 저장된 적어도 하나의 가상 옷의 정보 중에서 특정 메인 그룹에 속하는 옷들의 정보를 추출하는 컨트롤러; 및
상기 사용자의 제스쳐를 인식하는 카메라를 포함하되,
상기 컨트롤러는,
상기 인식된 제스쳐에 기초하여, 상기 특정 메인 그룹에 속하는 옷들 중에서 서브 그룹에 속하는 옷들의 정보를 추출하고, 상기 추출된 옷들의 정보에 기초하여, 상기 XR 디바이스의 스크린을 활성 영역 및 비활성 영역으로 분류하며,
상기 사용자의 옷 선택 가능성을 판단하여, 상기 사용자가 선택할 가능성이 높은 옷을 상기 비활성 영역 중 상기 스크린의 중앙에 가장 가깝게 배치하는 XR 디바이스.For XR devices that provide virtual fitting services,
A memory storing information about at least one virtual garment;
A microphone for receiving at least one voice command from a user surrounding the XR device;
A controller that extracts information on clothes belonging to a specific main group from information on at least one virtual clothes stored in the memory based on at least one voice command received; and
Including a camera that recognizes the user's gestures,
The above controller,
Based on the recognized gesture, information on clothes belonging to a subgroup is extracted from among clothes belonging to the specific main group, and based on the information on the extracted clothes, the screen of the XR device is classified into an active area and an inactive area.
An XR device that determines the possibility of the user selecting clothes and places clothes that the user is likely to select closest to the center of the screen among the inactive areas.
상기 적어도 하나의 음성 명령은 제1 음성 명령 또는 제2 음성 명령을 포함하는 것을 특징으로 하는 XR 디바이스.In paragraph 8,
An XR device, wherein the at least one voice command comprises a first voice command or a second voice command.
상기 컨트롤러는,
상기 제1 음성 명령 또는 상기 제2 음성 명령이 수신된 경우, 상기 메모리에 저장된 음성 인식 엔진이 동작을 디스인에이블(disenable) 상태로 변경하는 것을 특징으로 하는 XR 디바이스.In paragraph 9,
The above controller,
An XR device characterized in that, when the first voice command or the second voice command is received, the voice recognition engine stored in the memory changes its operation to a disenable state.
상기 컨트롤러는,
상기 제1 음성 명령이 수신된 경우, 상기 사용자의 2개의 손을 모두 인식하고,
제1 손 및 제2 손에 의해 구성되는 영역내 임의의 글자를 포함하는 옷들을 검색하고, 그리고
상기 임의의 글자를 포함하는 옷들 중 적어도 하나를 디스플레이 하도록 제어하는 것을 특징으로 하는 XR 디바이스.In Article 10,
The above controller,
When the above first voice command is received, both hands of the user are recognized,
Search for clothes containing any letters within the area formed by the first hand and the second hand, and
An XR device characterized by controlling to display at least one of the clothes containing the above arbitrary letters.
상기 컨트롤러는,
상기 제2 음성 명령이 수신된 경우, 옷의 칼라를 상세히 조정하기 위한 옵션을 디스플레이 하고,
상기 디스플레이된 옵션의 위치로부터 일정 거리 이내에 있는 상기 사용자의 1개의 손만 인식하고,
상기 인식된 1개의 손의 모션에 기초하여, 특정 칼라의 옷들을 검색하고, 그리고
상기 특정 칼라의 옷들 중 적어도 하나를 디스플레이 하도록 제어하는 것을 특징으로 하는 XR 디바이스.In Article 11,
The above controller,
When the second voice command is received, display options for adjusting the color of the clothes in detail;
Recognize only one hand of the user within a certain distance from the location of the displayed option,
Based on the recognized motion of one hand, clothes of a specific color are searched, and
An XR device characterized by controlling to display at least one of the clothes of the above specific color.
상기 스크린내 활성 영역의 가상의 옷만, 상기 사용자의 제스쳐에 반응하여 변경되고,
상기 스크린내 비활성 영역의 가상의 옷은, 상기 사용자의 제스쳐에 반응하여 변경되지 않는 것을 특징으로 하는 XR 디바이스.In paragraph 8,
Only the virtual clothes in the active area within the above screen are changed in response to the user's gesture,
An XR device characterized in that the virtual clothes in the inactive area of the screen do not change in response to the user's gesture.
상기 XR 디바이스는,
스타일러 제품, 사이니지, 모바일 디바이스 또는 TV에 해당하는 것을 특징으로 하는 XR 디바이스.In paragraph 8,
The above XR device,
An XR device characterized by a styler product, signage, mobile device or TV.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020190160817A KR102872425B1 (en) | 2019-12-05 | 2019-12-05 | Extended reality device and method for controlling the same |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020190160817A KR102872425B1 (en) | 2019-12-05 | 2019-12-05 | Extended reality device and method for controlling the same |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20210070725A KR20210070725A (en) | 2021-06-15 |
| KR102872425B1 true KR102872425B1 (en) | 2025-10-17 |
Family
ID=76412098
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020190160817A Active KR102872425B1 (en) | 2019-12-05 | 2019-12-05 | Extended reality device and method for controlling the same |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102872425B1 (en) |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190108292A1 (en) * | 2017-06-29 | 2019-04-11 | Best Apps, Llc | Computer aided systems and methods for creating custom products |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10310616B2 (en) | 2015-03-31 | 2019-06-04 | Ebay Inc. | Modification of three-dimensional garments using gestures |
| KR102550736B1 (en) * | 2015-10-02 | 2023-07-04 | 삼성전자주식회사 | Smart clothe, User terminal, System comprising the same and Smart clothe design changing method |
| KR102770641B1 (en) * | 2019-08-16 | 2025-02-19 | 엘지전자 주식회사 | Method and device for recommending cloth coordinating information |
-
2019
- 2019-12-05 KR KR1020190160817A patent/KR102872425B1/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190108292A1 (en) * | 2017-06-29 | 2019-04-11 | Best Apps, Llc | Computer aided systems and methods for creating custom products |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20210070725A (en) | 2021-06-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12360558B2 (en) | Altering display of virtual content based on mobility status change | |
| US12554373B2 (en) | Devices, methods, and graphical user interfaces for interacting with window controls in three-dimensional environments | |
| US20240152245A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments | |
| US20220084303A1 (en) | Augmented reality eyewear with 3d costumes | |
| CN120303636A (en) | Methods for managing overlapping windows and applying visual effects | |
| KR102872425B1 (en) | Extended reality device and method for controlling the same | |
| US12271521B2 (en) | Controlling a user selection queue | |
| WO2026045479A1 (en) | Recommendation information-based interaction method and apparatus, device, medium, and product | |
| US11809618B2 (en) | Controlling a user selection queue | |
| KR20210085767A (en) | Extended reality device and method for controlling the same | |
| CN121635774A (en) | User interaction method and system for display interface of small-size AR intelligent glasses | |
| CN118586985A (en) | Element processing method, device, electronic device and storage medium | |
| KR20210067599A (en) | Xr device and method for controlling the same |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-3-3-R10-R17-oth-X000 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| D22 | Grant of ip right intended |
Free format text: ST27 STATUS EVENT CODE: A-1-2-D10-D22-EXM-PE0701 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| F11 | Ip right granted following substantive examination |
Free format text: ST27 STATUS EVENT CODE: A-2-4-F10-F11-EXM-PR0701 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| U11 | Full renewal or maintenance fee paid |
Free format text: ST27 STATUS EVENT CODE: A-2-2-U10-U11-OTH-PR1002 (AS PROVIDED BY THE NATIONAL OFFICE) Year of fee payment: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| Q13 | Ip right document published |
Free format text: ST27 STATUS EVENT CODE: A-4-4-Q10-Q13-NAP-PG1601 (AS PROVIDED BY THE NATIONAL OFFICE) |