WO2016208877A1 - 단말기에서 부가 컨텐츠를 제공하는 방법 및 이를 이용하는 단말기 - Google Patents
단말기에서 부가 컨텐츠를 제공하는 방법 및 이를 이용하는 단말기 Download PDFInfo
- Publication number
- WO2016208877A1 WO2016208877A1 PCT/KR2016/005193 KR2016005193W WO2016208877A1 WO 2016208877 A1 WO2016208877 A1 WO 2016208877A1 KR 2016005193 W KR2016005193 W KR 2016005193W WO 2016208877 A1 WO2016208877 A1 WO 2016208877A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- additional content
- terminal
- user interaction
- wireless communication
- communication device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/438—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/70—Services for machine-to-machine communication [M2M] or machine type communication [MTC]
Definitions
- a method for providing additional content in a terminal and a terminal using the same is a method for providing additional content in a terminal and a terminal using the same.
- the Internet has evolved from a human-centered connection network where humans create and consume information, and an Internet of Things (IoT) network that exchanges and processes information among distributed components such as things.
- IoT Internet of Things
- IoE Internet of Everything
- M2M machine to machine
- MTC Machine Type Communication
- IoT Internet technology
- IoT is a field of smart home, smart building, smart city, smart car or connected car, smart grid, health care, smart home appliances, advanced medical services, etc. through convergence and complex of existing information technology (IT) technology and various industries. It can be applied to.
- a method for a terminal to receive additional content corresponding to a captured image from a server using a wireless communication device and to provide additional content in a terminal in response to a request for additional content detected in a user interaction area, the terminal and a recording medium using the same. To provide.
- a terminal for providing additional content includes a first communication interface configured to transmit an image photographing signal to a wireless communication device within a coverage area of the wireless communication device; A second communication interface configured to receive additional content corresponding to identification information of the wireless communication device from a server providing the additional content at the request of the wireless communication device based on the image photographing signal; And a processor that provides the additional content in response to the additional content request for the user interaction area provided in the captured image corresponding to the image photographing signal.
- the terminal may receive additional content corresponding to the captured image from the server and provide the same to the user.
- FIG. 1 is a diagram illustrating an example in which a terminal receives additional content from a server using a wireless communication device when the additional content is a coupon, according to an exemplary embodiment.
- FIG. 2 is a diagram illustrating an example in which a terminal receives additional content from a server using a wireless communication device when the additional content is sound data according to an embodiment.
- FIG 3 illustrates an example in which a terminal receives additional content from a server using a wireless communication device when the additional content is text according to an embodiment.
- FIG. 4 illustrates an example of displaying additional content when the additional content is a coupon, according to an exemplary embodiment.
- FIG. 5 is a diagram illustrating an example of displaying additional content when the additional content is text according to an exemplary embodiment.
- FIG. 6 illustrates an example of displaying additional content when the additional content is a uniform resource locator (URL) according to an embodiment.
- URL uniform resource locator
- FIG. 7 illustrates an example of providing a plurality of additional contents to a user when the terminal receives the plurality of additional contents according to an embodiment.
- FIG. 8 is a diagram illustrating an example in which an autofocus area set when capturing an image is set as a user interaction area, according to an exemplary embodiment.
- FIG 9 illustrates an example of providing additional content when a plurality of autofocus areas are set during image capturing according to an embodiment.
- FIG. 10 illustrates an example of changing a user interaction area included in interactive content, according to an exemplary embodiment.
- FIG. 11 is a flowchart of a method for providing additional content by a terminal using a wireless communication device according to an embodiment.
- FIG. 12 is a flowchart illustrating a method of providing additional content by a terminal using a wireless communication device, according to an exemplary embodiment.
- FIG. 13 is a diagram illustrating a hardware configuration of a terminal according to an embodiment.
- FIG. 14 is a diagram illustrating a hardware configuration of a terminal according to an embodiment.
- a terminal for providing additional content includes: a first communication interface for transmitting an image capturing signal to a wireless communication device within a coverage area of the wireless communication device; A second communication interface configured to receive additional content corresponding to identification information of the wireless communication device from a server providing the additional content at the request of the wireless communication device based on the image photographing signal; And a processor that provides the additional content in response to the additional content request for the user interaction area provided in the captured image corresponding to the image photographing signal.
- the terminal may further include a user interface that displays the captured image and the user interaction area and detects a signal for requesting additional content in the user interaction area.
- the processor may preset the user interaction area to a predetermined area of the screen included in the user interface based on the user input before capturing the captured image.
- the terminal may further include a camera for capturing the captured image, wherein the processor may set the user interaction region to the auto focus region set when the captured image is captured.
- the processor may generate the interactive content providing the additional content by interworking the additional content with a user interaction area that detects a request for the additional content in the captured image corresponding to the image capture signal.
- the processor may change the position of the user interaction region in the captured image included in the interactive content generated based on the user input, and update the position of the user interaction region included in the interactive content generated with the changed position.
- the processor deletes the information about the coupon from the interactive content, provides a message indicating that the expiration date of the coupon has elapsed, and the expiration date of the coupon If this has not elapsed, the coupon can be displayed.
- the processor may receive the first additional contents in response to the first additional content request for the first user interaction region among the plurality of user interaction regions corresponding to each of the plurality of additional contents. Can provide.
- the processor may provide additional content in response to a request for additional content detected in any one of the plurality of user interaction areas.
- the processor may remove the additional content based on the user input sensed in the user interaction area.
- a method of providing additional content in a terminal includes: transmitting an image photographing signal to a wireless communication device within a coverage area of the wireless communication device; Receiving additional content corresponding to identification information of the wireless communication device from a server providing the additional content in response to a request of the wireless communication device based on the image photographing signal; And providing additional content in response to a request for additional content for the user interaction area provided in the captured image corresponding to the image capture signal.
- the user interaction area may be an auto focus area that was set at the time of capturing the captured image.
- the user interaction region may be preset to a predetermined region on the screen of the terminal based on the user input before capturing the captured image.
- the method for providing additional content in the terminal may include generating interactive content for providing the additional content by interworking the additional content with a user interaction area that detects a request for the additional content in the captured image corresponding to the image photographing signal.
- the providing of the additional content may use the generated interactive content.
- the method for providing additional content in the terminal comprising the steps of changing the position of the user interaction region in the captured image included in the interactive content generated based on the user input; And updating a location of a user interaction area included in the interactive content generated at the changed location.
- the providing of the additional content may include deleting information about the coupon from the interactive content and providing a message informing that the validity period of the coupon has elapsed when the additional content is the coupon. If the expiration date of the coupon has not elapsed, the coupon may be displayed.
- the providing of the additional content may include: in response to the first additional content request for the first user interaction area, among the plurality of user interaction areas corresponding to each of the plurality of additional content items, when the received additional content is plural.
- the first additional content may be provided.
- the additional content when there are a plurality of user interaction areas, the additional content may be provided in response to a request for the additional content detected in any one of the plurality of user interaction areas.
- a recording medium having recorded thereon a program for execution on a computer records as a program for executing on a computer a method for providing additional content in a terminal.
- FIG. 1 is a diagram illustrating an example in which a terminal receives additional content from a server using a wireless communication device when the additional content is a coupon, according to an exemplary embodiment.
- the terminal 100 is a device capable of communicating with an external device, transmitting and receiving information, and providing information to a user.
- the terminal 100 may include a function of capturing an image.
- the terminal 100 may transmit an image photographing signal corresponding to the captured image to the wireless communication device 110 and receive the additional content 140 from the server 120.
- the terminal 100 may be various types of digital image processing apparatuses such as a tablet device, a smartphone, a laptop, a camera, and the like, but is not limited thereto.
- the additional content 140 refers to various types of information or contents thereof for digitally producing and distributing letters, codes, voices, sounds, images, images, etc. for use in wired / wireless telecommunication networks.
- the terminal 100 may be content received from the server 120 in response to an image captured by the terminal 100.
- the additional content 140 may be text, sound data, a coupon, a uniform resource locator (URL), map data, a QR code, or the like, but is not limited thereto.
- the wireless communication device 110 refers to a device that can transmit and receive digital data using a wireless communication network.
- the wireless communication device 110 is a device that receives an image photographing signal from the terminal 100 in the coverage area 150 and requests that the server 120 provide the additional content 140 to the terminal 100.
- the communication method applied to the wireless communication device 110 may include Bluetooth, Bluetooth Low Energy (BLE), Near Field Communication Unit (NFC), WLAN (Wi-Fi), Zigbee, and Infrared ( IrDA, infrared data association (WIRD), Wi-Fi Direct (WFD), ultra wideband (UWB), but is not limited thereto.
- the server 120 refers to an apparatus that provides a result of performing a task or information requested by a client.
- the server 120 may provide the additional content 140 to the terminal 100 based on the request for the additional content 140 of the wireless communication device 110.
- interactive content refers to content that can interact with a user.
- the interactive content may provide the user with additional content 140 corresponding to the content in response to the user's input.
- additional content 140 when there is interactive content including an image and sound data corresponding to the image, when the user requests sound data corresponding to the image by touching a region of the image displayed on the terminal 100, the interactive The content may provide sound data to the user.
- the interactive content when the additional content 140 is visual content, the interactive content may further include information regarding a position where the additional content 140 is displayed on the screen.
- the user interaction area refers to an area where a user receives a signal for requesting an operation in order to perform a preset operation.
- the user interaction area may be an area that may receive a request for additional content 140 from a user on the screen of the terminal 100.
- the user interaction area may be automatically set by the terminal 100 and may be manually set based on a user input.
- an attribute eg, size, shape, width, number, etc.
- the user interaction area may be changed based on the user input.
- the terminal 100 is a smartphone
- the wireless communication device 110 is a beacon receiver
- the additional content 140 is illustrated as being a coupon, but this is for convenience of description only. This is not restrictive.
- the terminal 100 when the terminal 100 photographs an image, the terminal 100 transmits an image photographing signal to the wireless communication device 110.
- the image may be a picture or a video.
- the image capturing signal is a signal indicating that the terminal 100 photographed a predetermined image, and may include identification information and a photographing signal flag of the terminal 100.
- the terminal 100 transmits an image capturing signal by using an advertising packet transmission standard of BLE 4.0.
- BLE 4.0 an advertising packet transmission standard
- the wireless communication device 110 may receive an image photographing signal transmitted by the terminal 100.
- the image capturing signal may be any type of information that may indicate the fact that the subject photographed near the coverage area 150 of the wireless communication device 110 is photographed.
- the subject may be various objects such as buildings, places, objects, animals, and plants.
- the wireless communication device 110 receiving the image photographing signal transmits the identification information of the wireless communication device 110 and the identification information of the terminal 100 to the server 120 to correspond to the identification information of the wireless communication device 110. Request to transmit the additional content 140 to the terminal 100.
- the server 120 transmits the additional content 140 corresponding to the identification information of the wireless communication device 110 to the terminal 100 in response to the request of the wireless communication device 110.
- the identification information of the terminal 100 may be used for communication with the terminal 100 so that the server 120 transmits the additional content 140 to the terminal 100.
- the server 120 may communicate with at least one wireless communication device 110.
- the server 120 may determine the additional content 140 corresponding to a building, a place, an object, an animal, a plant, etc. that exist near the wireless communication device 110 based on the identification information of the wireless communication device 110.
- the server 120 may have a database in which at least one additional content 140 is stored in correspondence with identification information of the wireless communication device 110.
- the terminal 100 may detect the signal for requesting the additional content 140 in the user interaction area and provide the additional content 140.
- the user may take an image using the terminal 100 in the displayed photo zone.
- the photo zone may be displayed in advance in consideration of the coverage area 150 of the wireless communication device 110.
- the terminal 100 may automatically transmit an image capturing signal corresponding to the image to the wireless communication device 110.
- the wireless communication device 110 receives the image capturing signal, the wireless communication device 110 transmits the identification information of the terminal 100 and the identification information of the wireless communication device 110 to the server 120, and the additional content 140 to the server 120. You can request In this case, the identification information of the wireless communication device 110 may be information about the location of the wireless communication device 110.
- the server 120 receiving the request for the additional content 140 may determine the additional content 140 provided to the terminal 100 as a coupon of a coffee shop using the identification information of the wireless communication device 110.
- the server 120 may determine the terminal 100 providing the additional content 140 using the identification information of the terminal 100.
- the server 120 may collect identification information of the terminal 100 and use the same to analyze a specific pattern (for example, the number of visits and preferences) of the user.
- the terminal 100 may repeatedly transmit an image capture signal corresponding to the captured image for a predetermined time. Therefore, when the terminal 100 repeatedly transmitting the image capturing signal arrives within the coverage area 150 of the wireless communication apparatus 110, the wireless communication apparatus 110 may receive the image capturing signal.
- FIG. 2 is a diagram illustrating an example in which a terminal receives additional content from a server using a wireless communication device when the additional content is sound data according to an embodiment.
- the wireless communication device 110 when the wireless communication device 110 is located in a zoo, a user may take an image using the terminal 100 in the displayed photo zone.
- the terminal 100 may transmit an image capturing signal corresponding to the captured image to the wireless communication device 110, and the wireless communication device 110 may request the server 120 for the additional content 140.
- the server 120 may determine the additional content 140 provided to the terminal 100 as sound data (for example, a lion cry) based on the received identification information of the wireless communication device 110. have. After determining the additional content 140, the server 120 may transmit the additional content 140 to the terminal 100 using the identification information of the terminal 100.
- FIG 3 illustrates an example in which a terminal receives additional content from a server using a wireless communication device when the additional content is text according to an embodiment.
- the user may take an image using the terminal 100 in the displayed photo zone.
- the terminal 100 may transmit an image capturing signal corresponding to the captured image to the wireless communication device 110, and the wireless communication device 110 may request the server 120 for the additional content 140.
- the server 120 may determine the additional content 140 provided to the terminal 100 as text (for example, description of the dabotap) based on the identification information of the wireless communication device 110. After determining the additional content 140, the server 120 may transmit the additional content 140 to the terminal 100 using the identification information of the terminal 100.
- FIG. 4 illustrates an example of displaying additional content when the additional content is a coupon, according to an exemplary embodiment.
- the terminal 100 may receive the coupon 430 as the additional content 140 corresponding to the captured image 410 from the server 120. Can be.
- the user interaction area 420 capable of receiving the request for the additional content 140 from the user may be displayed together.
- the terminal 100 may display the coupon 430 at a specific position of the captured image 410 as shown in FIG. 4B.
- an attribute for example, a position, size, transparency, etc. displayed on the screen
- the display of the user interaction area 420 may be omitted based on a user input or an initial setting of the terminal 100.
- the terminal 100 may generate interactive content by interworking a captured image with additional content corresponding to the captured image, and a user interaction area capable of receiving a signal for requesting additional content.
- the terminal 100 may store the generated interactive content.
- the photographed image 410, the coupon 430 and the coupon 430, which are additional content 140 corresponding to the photographed image 410, are requested.
- Interactive content may be generated by interworking a user interaction area 420 capable of receiving a signal.
- the terminal 100 deletes the information related to the coupon 430 from the interactive content, and the coupon ( A message indicating that the validity period of 430 has elapsed may be provided. In addition, if the validity period of the coupon 430 has not elapsed, the terminal 100 may provide the coupon 430 to the user.
- the terminal 100 may remove the provided additional content 140 based on a user input. For example, as shown in FIG. 4B, when the coupon 430 that is the additional content 140 is displayed together with the captured image 410 on the terminal 100, the user touches the user interaction area 420 once more. When the coupon 430 disappears from the screen, only the captured image 410 may be displayed. In this case, in order to remove the additional content 140, the terminal 100 receives a signal input from a user in at least one of the entire image area 410, the user interaction area 420, and the area 430 displaying the additional content. Can be detected, but is not limited thereto.
- FIG. 5 is a diagram illustrating an example of displaying additional content when the additional content is text according to an exemplary embodiment.
- the terminal 100 may display text as additional content 140 corresponding to the captured image 510 from the server 120. (For example, description of Dabotap) 520 may be received.
- the terminal 100 displays the captured image 510
- the user interaction area 520 may be displayed together.
- the terminal 100 displays text (eg, description of Dabotap) 530 at a specific position of the captured image 510, as shown in FIG. 5B.
- the text 530 may be displayed together with the captured image 510, and may be displayed in place of the captured image 510, but is not limited thereto.
- attributes of the text 530 eg, position displayed on the screen, font size, transparency, etc.
- FIG. 6 illustrates an example of displaying additional content when the additional content is a uniform resource locator (URL) according to an embodiment.
- URL uniform resource locator
- the terminal 100 when the wireless communication device 110 is located at a tourist destination (for example, the Eiffel Tower), the terminal 100 is an additional content 140 corresponding to the captured image 610 from the server 120. It may receive a Uniform Resource Locator (URL).
- URL Uniform Resource Locator
- the terminal 100 displays the captured image 610 the user interaction area 620 may be displayed together. If the user touches the user interaction area 620, the terminal 100 displays the network information resource (for example, description of the Eiffel tower of the travel agency site) indicated by the URL on the screen as shown in FIG. 630 may be displayed.
- the network information resource for example, description of the Eiffel tower of the travel agency site
- the network information resource 630 indicated by the URL may be displayed together with the captured image 610 and may be displayed in place of the captured image 610, but is not limited thereto.
- the attributes of the network information resource 630 indicated by the URL may be changed based on a user input.
- FIG. 7 illustrates an example of providing a plurality of additional contents to a user when the terminal receives the plurality of additional contents according to an embodiment.
- the terminal 100 may transmit a plurality of additional contents corresponding to the captured image 710 from the server 120 (eg, a lion cry and a lion). Description).
- the server 120 eg, a lion cry and a lion. Description
- the terminal 100 displays the captured image 710
- the plurality of user interaction regions 720 and 740 may be displayed together.
- the display of at least one of the plurality of user interaction regions 720 and 740 may be omitted, but is not limited thereto. If the user touches the first user interaction area 720 among the plurality of user interaction areas 720 and 740, as shown in FIG. 7B, the terminal 100 corresponds to the first user interaction area 720.
- the first additional content (for example, lion crying) 730 may be played.
- the terminal 100 corresponds to the second user interaction region 740.
- the second additional content (eg, lion description) 750 may be displayed on the screen.
- the plurality of additional contents may be provided in response to a signal received in one user interaction area.
- the plurality of additional contents may be sequentially provided according to a plurality of signals received in one user interaction area, or a plurality of additional contents may be simultaneously provided in response to one signal.
- the order in which the plurality of additional contents are provided may be arbitrarily set by the terminal 100 and may be set based on a user input.
- FIG. 8 is a diagram illustrating an example in which an autofocus area set when capturing an image is set as a user interaction area, according to an exemplary embodiment.
- the terminal 100 may utilize an auto focus (AF) area set when the terminal 100 captures an image.
- the auto focus area refers to an area of focus that the terminal 100 automatically adjusts to a photographing target. Accordingly, the terminal 100 may store an auto focus area set at the time of capturing an image and set a user interaction area.
- the terminal 100 may automatically focus and display the autofocus area 810 on the screen. Thereafter, when the terminal 100 transmits an image capturing signal to the wireless communication device 110, when the wireless communication device 110 requests the server 120 for the additional content 140, the terminal 100 transmits the server. Text 120 (eg, a picture of green light) 840 may be received from the 120 as the additional content 140.
- the terminal 100 may also display the user interaction area 830 together. In this case, the user interaction area 830 may be the same area as the auto focus area 810 that was set when the green light was taken.
- the terminal 100 displays text (for example, the picture of Mugunghwa) at a specific position of the captured image 820 as shown in FIG. 840 may be displayed.
- the text 840 may be displayed together with the captured image 820 and may be displayed in place of the captured image 820, but is not limited thereto.
- the user interaction area may be preset to a predetermined area on the screen based on the user input before capturing an image corresponding to the additional content.
- the user may set attributes (eg, size, shape, number, etc.) of the user interaction area.
- the user interaction area may be an entire screen area.
- the terminal 100 may provide the additional content 140 based on the signals received in all areas of the captured image.
- FIG 9 illustrates an example of providing additional content when a plurality of autofocus areas are set during image capturing according to an embodiment.
- the terminal 100 may set an auto focus (AF) area defined when capturing an image as a user interaction area.
- AF auto focus
- a plurality of user interaction areas may be set.
- the terminal 100 may automatically focus and display a plurality of autofocus areas 910, 920, and 930 on the screen. Thereafter, when the server 120 transmits the additional content 140 to the terminal 100 in response to a request of the wireless communication device 110, the terminal 100 displays the text as the additional content 140 corresponding to the captured image. (Eg, a picture of green light) 980 may be received. In this case, as shown in FIG. 9B, when the terminal 100 displays the captured image 940 on the screen, the terminal 100 may display a plurality of user interaction regions 950, 960, and 970 together.
- the user interaction areas 950, 960, and 970 may be the same areas as the auto focus areas 910, 920, and 930 that were set when the green light was taken. If the user touches one area 970 of the plurality of user interaction areas 950, 960, and 970 displayed on the screen, the terminal 100 may identify the captured image 940 as shown in FIG. 9C. Text (eg, green light description) 980 may be displayed at the location. In this case, the text 980 may be displayed together with the captured image 940 and may be displayed in place of the captured image 940, but is not limited thereto.
- Text eg, green light description
- FIG. 10 illustrates an example of changing a user interaction area included in interactive content, according to an exemplary embodiment.
- the user interaction area may be set to a predetermined area of the screen of the terminal 100 before capturing an image corresponding to the additional content 140, and may be set to a predetermined area of the captured image after capturing the image. .
- the terminal 100 displays an image 1010 taken in a photo zone of a coffee shop, a coupon 430 received from the server 120 and a user interaction area 1040 corresponding to the taken image 1010. Including interactive content.
- the terminal 100 may store the generated interactive content.
- the user may change a property (eg, size, shape, number, etc.) of the user interaction area included in the interactive content.
- the user may change the attributes of the additional content 140 included in the interactive content (for example, position, size, and transparency displayed on the screen), and delete unnecessary additional content 140.
- the terminal 100 may display a user interaction area 1020 included in interactive content along with a captured image 1010 on a screen.
- the user may add a new user interaction area 1040.
- the user may select and delete one region 1020 of the displayed plurality of user interaction regions 1020 and 1040.
- the terminal 100 may store the changed interactive content including the changed user interaction area 1040 as illustrated in FIG. 10C.
- FIG. 11 is a flowchart of a method for providing additional content by a terminal using a wireless communication device according to an embodiment.
- the terminal 100 may transmit an image photographing signal to the wireless communication device 110 within the coverage area 150 of the wireless communication device 110.
- the image may include a picture or a video.
- the image capturing signal may be any type of information representing the fact that the terminal 100 photographed the image, and may include identification information of the terminal 100 and a capturing signal flag.
- the terminal 100 may repeatedly transmit an image capture signal corresponding to the captured image for a predetermined time. have.
- the terminal 100 may receive the additional content 140 from the server 120.
- the server 120 determines the additional content 140 based on the identification information of the wireless communication device 110 received from the wireless communication device 110.
- the terminal 100 may provide the additional content 140 in response to a request for the additional content 140 for the user interaction area provided in the captured image corresponding to the image capture signal.
- the user interaction area may be automatically set by the terminal 100 and may be manually set based on a user input.
- the terminal 100 may automatically use an auto focus (AF) area set when capturing an image in order to automatically set a user interaction area.
- AF auto focus
- the user interaction area may be set before capturing an image corresponding to the additional content 140, and may be set after capturing an image corresponding to the additional content 140.
- the additional content 140 when the additional content 140 is displayed on the screen, the additional content 140 may be displayed together with the captured image and may be displayed in place of the captured image.
- an attribute eg, size, transparency, a position displayed on the screen, etc.
- the additional content 140 may be changed based on a user input.
- FIG. 12 is a flowchart illustrating a method of providing additional content by a terminal using a wireless communication device, according to an exemplary embodiment.
- the terminal 100 may capture an image.
- the image may be a picture or a video.
- the terminal 100 automatically captures the focus and stores the auto focus area.
- the terminal 100 may transmit an image photographing signal to the wireless communication device 110.
- the terminal 100 may transmit an image capturing signal to the wireless communication device 110 using an advertising packet transmission standard of BLE 4.0.
- the image photographing signal transmitted by the terminal 100 may include identification information of the terminal 100 and a photographing signal flag.
- the wireless communication device 110 may receive the image capture signal.
- the wireless communication device 110 may transmit the identification information of the wireless communication device 110 and the identification information of the terminal 100 to the server 120 and request additional content 140.
- the server 120 uses the identification information of the wireless communication device 110.
- the additional content 140 to be provided to the 100 may be determined.
- the server 120 may collect identification information of the terminal 100 received from the wireless communication device 110 and use the same to analyze a specific pattern (eg, the number of visits and preferences) of the user.
- the server 120 may transmit the additional content 140 to the terminal 100.
- the server 120 may designate the terminal 100 that receives the additional content 140 using the identification information of the terminal 100 received from the wireless communication device 110.
- the terminal 100 may display the captured image on the screen.
- the user interaction area may be displayed together with the captured image.
- the display of the user interaction area may be omitted based on an input of a user or an initial setting of the terminal 100.
- the terminal 100 may provide the additional content 140 in response to the request for the additional content 140 received in the user interaction area. Since step S1235 corresponds to step S1130 of FIG. 11, a detailed description thereof will be omitted.
- FIG. 13 is a diagram illustrating a hardware configuration of a terminal according to an embodiment.
- the terminal 100 may include a processor 1310, a first communication interface 1320, and a second communication interface 1330.
- the terminal 100 may include other general-purpose hardware configurations in addition to the configurations shown in FIG. 13.
- the first communication interface 1320 is a hardware configuration for performing wireless communication between the terminal 100 and the wireless communication device 110.
- the first communication interface 1320 may transmit an image capturing signal in the coverage area 150 of the wireless communication device 110.
- the first communication interface 1320 may be connected to the wireless communication device 110 by performing Bluetooth-based short range wireless communication, or may communicate with the wireless communication device 110 by using a WLAN (Wi-Fi) or the like.
- WLAN Wi-Fi
- the present invention is not limited thereto.
- the second communication interface 1330 is a hardware configuration for transmitting and receiving data between the terminal 100 and the server 120.
- the second communication interface 1330 may receive the additional content 140 corresponding to the captured image from the server 120.
- the second communication interface 1330 may be connected to the server 120 through an AP or directly connected to the server 120 using a Wi-Fi Direct (WFD), but is not limited thereto.
- WFD Wi-Fi Direct
- the processor 1310 is a hardware configuration that controls the operation of all components included in the terminal 100.
- the processor 1310 may provide the additional content 140 in response to a request for the additional content 140 for the user interaction area provided in the captured image.
- the processor 1310 may generate and store interactive content including a captured image, an additional content 140 corresponding to the captured image, and a user interaction area for receiving a request for the additional content 140.
- FIG. 14 is a diagram illustrating a hardware configuration of a terminal according to an embodiment.
- the terminal 100 may include a camera 1410, a first communication interface 1420, a second communication interface 1430, a processor 1440, and a user interface 1450.
- the terminal 100 may include other general-purpose hardware components in addition to the components illustrated in FIG. 14.
- the camera 1410 is a hardware configuration for capturing an image.
- the camera 1410 captures an image and transmits the captured image to the processor 1440.
- the camera 1410 may automatically focus and capture an image, and transmit the autofocus area set at the time of capturing to the processor 1440.
- the user interface 1450 is a hardware configuration that obtains a signal for controlling the terminal 100 from the user and provides data and content to the user.
- the user interface 1450 may include an input unit 1451 and an output unit 1455.
- the input unit 1451 may receive a user input for selecting various contents or options displayed on the output unit 1455. Also, the input unit 1451 may receive a signal for capturing an image and a signal for requesting additional content 140 from a user.
- the input unit 1451 includes a sensor 1452 and a microphone 1453, and includes a keypad, a dome switch, a touch pad (contact capacitive type, and a pressure resistive film type). , An infrared sensing method, a piezoelectric effect method, etc.), a jog wheel, a jog switch, and the like, but is not limited thereto.
- the output unit 1455 includes a screen, a speaker, and the like.
- the output unit 1455 may display and output information processed by the terminal 100.
- the output unit 1455 may display an image captured by the camera 1410, and may include a user interaction area that may receive a request for the additional content 140 and the additional content 100 corresponding to the captured image. You can print
- the screen 1456 included in the output unit 1455 may display a GUI screen for controlling the terminal 100 as well as a captured image, or display visual content among the additional content 140 received by the terminal 100. Can be.
- the screen 1456 may display a user interaction area in which the terminal 100 may receive a user input for requesting the additional content 140.
- the screen may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT-LCD), an organic light-emitting diode (OLED), a flexible display ( It can be implemented in various kinds such as a flexible display, a 3D display, an electrophoretic display, and the like.
- the speaker 1457 included in the output unit 1450 may provide audio content among the additional content 140 to the user based on a signal received in the user interaction area.
- some of the screen 1456 of the output unit 1455 and the sensors 1352 of the input unit 1452 may be integrated and implemented in the form of a touch screen which is generally used in a smartphone, a tablet device, and the like. .
- the first communication interface 1420 corresponds to the first communication interface 1320 of FIG. 13.
- the second communication interface 1430 corresponds to the second communication interface 1330 of FIG. 13.
- the processor 1440 corresponds to the processor 1310 of FIG. 13. Therefore, detailed descriptions of the first communication interface 1420, the second communication interface 1430, and the processor 1440 will be omitted.
- Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media.
- Computer readable media may include both computer storage media and communication media.
- Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
- Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery media.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Networks & Wireless Communication (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
본 개시는 센서 네트워크(Sensor Network), 사물 통신(Machine to Machine, M2M), MTC(Machine Type Communication) 및 사물 인터넷(Internet of Things, IoT)을 위한 기술과 관련된 것이다. 본 개시는 상기 기술을 기반으로 하는 지능형 서비스(스마트 홈, 스마트 빌딩, 스마트 시티, 스마트 카 혹은 커넥티드 카, 헬스 케어, 디지털 교육, 소매업, 보안 및 안전 관련 서비스 등)에 활용될 수 있다. 본 개시는 단말기가 무선 통신 장치를 이용하여, 촬영 영상에 대응되는 부가 컨텐츠를 서버로부터 수신하고, 사용자 인터랙션 영역에서 감지된 신호에 기초하여, 부가 컨텐츠를 제공하는 방법, 장치 및 기록매체를 개시한다.
Description
단말기에서 부가 컨텐츠를 제공하는 방법 및 이를 이용하는 단말기에 관한 것이다.
인터넷은 인간이 정보를 생성하고 소비하는 인간 중심의 연결 망에서, 사물 등 분산된 구성 요소들 간에 정보를 주고 받아 처리하는 IoT(Internet of Things, 사물인터넷) 망으로 진화하고 있다. 클라우드 서버 등과의 연결을 통한 빅데이터(Big data) 처리 기술 등이 IoT 기술에 결합된 IoE (Internet of Everything) 기술도 대두되고 있다. IoT를 구현하기 위해서, 센싱 기술, 유무선 통신 및 네트워크 인프라, 서비스 인터페이스 기술, 및 보안 기술과 같은 기술 요소 들이 요구되어, 최근에는 사물간의 연결을 위한 센서 네트워크(sensor network), 사물 통신(Machine to Machine, M2M), MTC(Machine Type Communication)등의 기술이 연구되고 있다.
IoT 환경에서는 연결된 사물들에서 생성된 데이터를 수집, 분석하여 인간의 삶에 새로운 가치를 창출하는 지능형 IT(Internet Technology) 서비스가 제공될 수 있다. IoT는 기존의 IT(information technology)기술과 다양한 산업 간의 융합 및 복합을 통하여 스마트홈, 스마트 빌딩, 스마트 시티, 스마트 카 혹은 커넥티드 카, 스마트 그리드, 헬스 케어, 스마트 가전, 첨단의료서비스 등의 분야에 응용될 수 있다.
단말기가 무선 통신 장치를 이용하여 서버로부터 촬영 영상에 대응되는 부가 컨텐츠를 수신하고, 사용자 인터랙션 영역에서 감지된 부가 컨텐츠의 요청에 응답하여, 단말기에서 부가 컨텐츠를 제공하는 방법, 이를 이용한 단말기 및 기록매체를 제공하는 것이다.
부가 컨텐츠를 제공하는 단말기는, 무선 통신 장치의 커버리지 영역 내에서 무선 통신 장치에게 영상 촬영 신호를 송신하는 제 1 통신 인터페이스; 영상 촬영 신호에 기초한 무선 통신 장치의 요청으로, 부가 컨텐츠를 제공하는 서버로부터 무선 통신 장치의 식별 정보에 대응하는 부가 컨텐츠를 수신하는 제 2 통신 인터페이스; 및 영상 촬영 신호에 대응되는 촬영 영상에 제공된 사용자 인터랙션 영역에 대한 부가 컨텐츠 요청에 응답하여, 부가 컨텐츠를 제공하는 프로세서;를 포함할 수 있다.
사용자 인터랙션 영역에서 감지된 부가 컨텐츠 요청에 응답하여, 단말기가 촬영된 영상과 대응되는 부가 컨텐츠를 서버로부터 수신하여, 사용자에게 제공할 수 있다.
도 1은 일 실시예에 따라, 부가 컨텐츠가 쿠폰인 경우, 단말기가 무선 통신 장치를 이용해서 서버로부터 부가 컨텐츠를 수신하는 예시를 도시한 도면이다.
도 2은 일 실시예에 따라, 부가 컨텐츠가 소리 데이터인 경우, 단말기가 무선 통신 장치를 이용해서 서버로부터 부가 컨텐츠를 수신하는 예시를 도시한 도면이다.
도 3은 일 실시예에 따라, 부가 컨텐츠가 텍스트인 경우, 단말기가 무선 통신 장치를 이용해서 서버로부터 부가 컨텐츠를 수신하는 예시를 도시한 도면이다.
도 4은 일 실시예에 따라, 부가 컨텐츠가 쿠폰인 경우, 부가 컨텐츠를 표시하는 일례를 도시한 도면이다.
도 5은 일 실시예에 따라, 부가 컨텐츠가 텍스트인 경우, 부가 컨텐츠를 표시하는 일례를 도시한 도면이다.
도 6은 일 실시예에 따라, 부가 컨텐츠가 URL(Uniform Resource Locator)인 경우, 부가 컨텐츠를 표시하는 일례를 도시한 도면이다.
도 7은 일 실시예에 따라, 단말기가 복수 개의 부가 컨텐츠를 수신하는 경우, 사용자에게 복수 개의 부가 컨텐츠를 제공하는 일례를 도시한 도면이다.
도 8은 일 실시예에 따라, 영상 촬영시 설정되는 자동 초점 영역이 사용자 인터랙션 영역으로 설정되는 일례를 도시한 도면이다.
도 9은 일 실시예에 따라, 영상 촬영시 복수 개의 자동 초점 영역이 설정될 때, 부가 컨텐츠를 제공하는 일례를 도시한 도면이다.
도 10은 일 실시예에 따른, 대화형 컨텐츠에 포함된 사용자 인터랙션 영역을 변경하는 일례를 도시한 도면이다.
도 11은 일 실시예에 따른, 단말기가 무선 통신 장치를 이용해서 부가 컨텐츠를 제공하는 방법의 흐름도이다.
도 12은 일 실시예에 따른, 단말기가 무선 통신 장치를 이용해서 부가 컨텐츠를 제공하는 방법을 설명하기 위한 순서도이다.
도 13은 일 실시예에 따른, 단말기의 하드웨어 구성을 도시한 도면이다.
도 14은 일 실시예에 따른, 단말기의 하드웨어 구성을 도시한 도면이다.
제 1 측면에 따른, 부가 컨텐츠를 제공하는 단말기는, 무선 통신 장치의 커버리지 영역 내에서 무선 통신 장치에게 영상 촬영 신호를 송신하는 제 1 통신 인터페이스; 영상 촬영 신호에 기초한 무선 통신 장치의 요청으로, 부가 컨텐츠를 제공하는 서버로부터 무선 통신 장치의 식별 정보에 대응하는 부가 컨텐츠를 수신하는 제 2 통신 인터페이스; 및 영상 촬영 신호에 대응되는 촬영 영상에 제공된 사용자 인터랙션 영역에 대한 부가 컨텐츠 요청에 응답하여, 부가 컨텐츠를 제공하는 프로세서;를 포함할 수 있다.
또한, 단말기는 촬영 영상과 사용자 인터랙션 영역을 표시하고, 사용자 인터랙션 영역에서 부가 컨텐츠를 요청하는 신호를 감지하는 사용자 인터페이스를 더 포함할 수 있다.
또한, 프로세서는 사용자 인터랙션 영역을 촬영 영상을 촬영하기 전, 사용자 입력에 기초하여, 사용자 인터페이스에 포함된 스크린의 소정의 영역으로 미리 설정할 수 있다.
또한, 단말기는 촬영 영상을 촬영하는 카메라;를 더 포함하고, 이때 프로세서는 사용자 인터랙션 영역을 촬영 영상의 촬영 시에 설정되었던 자동 초점 영역으로 설정할 수 있다.
또한, 프로세서는 영상 촬영 신호에 대응되는 촬영 영상에 부가 컨텐츠의 요청을 감지하는 사용자 인터랙션 영역과 부가 컨텐츠를 연동하여, 부가 컨텐츠를 제공하는 대화형 컨텐츠를 생성할 수 있다.
또한, 프로세서는 사용자 입력에 기초하여 생성된 대화형 컨텐츠에 포함된 촬영 영상에서 사용자 인터랙션 영역의 위치를 변경하고, 변경된 위치로 생성된 대화형 컨텐츠에 포함된 사용자 인터랙션 영역의 위치를 갱신할 수 있다.
또한, 프로세서는 부가 컨텐츠가 쿠폰일 때, 쿠폰의 유효기간이 경과한 경우, 대화형 컨텐츠에서 쿠폰에 관한 정보를 삭제하고, 쿠폰의 유효기간이 경과함을 알리는 메시지를 제공하고, 쿠폰의 유효기간이 경과하지 않은 경우, 쿠폰을 표시할 수 있다.
또한, 프로세서는 수신된 부가 컨텐츠가 복수 개인 경우, 복수 개의 부가 컨텐츠들 각각에 대응되는 복수 개의 사용자 인터랙션 영역들 중 제 1 사용자 인터랙션 영역에 대한 제 1 부가 컨텐츠 요청에 응답하여, 제 1 부가 컨텐츠를 제공할 수 있다.
또한, 프로세서는 사용자 인터랙션 영역이 복수 개인 경우, 복수 개의 사용자 인터랙션 영역들 중 어느 하나에서 감지된, 부가 컨텐츠의 요청에 응답하여, 부가 컨텐츠를 제공할 수 있다.
또한, 프로세서는 단말기가 부가 컨텐츠를 제공한 후, 사용자 인터랙션 영역에서 감지된 사용자 입력에 기초하여, 부가 컨텐츠를 제거할 수 있다.
제 2 측면에 따른, 단말기에서 부가 컨텐츠를 제공하는 방법은, 무선 통신 장치의 커버리지 영역 내에서 무선 통신 장치에게 영상 촬영 신호를 송신하는 단계; 영상 촬영 신호에 기초한 무선 통신 장치의 요청으로, 부가 컨텐츠를 제공하는 서버로부터 무선 통신 장치의 식별 정보에 대응하는 부가 컨텐츠를 수신하는 단계; 및 영상 촬영 신호에 대응되는 촬영 영상에 제공된 사용자 인터랙션 영역에 대한 부가 컨텐츠 요청에 응답하여, 부가 컨텐츠를 제공하는 단계;를 포함할 수 있다.
또한, 사용자 인터랙션 영역은 촬영 영상의 촬영 시에 설정되었던 자동 초점 영역일 수 있다.
또한, 사용자 인터랙션 영역은 촬영 영상을 촬영하기 전, 사용자 입력에 기초하여 단말기의 스크린에서 소정의 영역으로 미리 설정될 수 있다.
또한, 단말기에서 부가 컨텐츠를 제공하는 방법은, 영상 촬영 신호에 대응되는 촬영 영상에 부가 컨텐츠의 요청을 감지하는 사용자 인터랙션 영역과 부가 컨텐츠를 연동하여, 부가 컨텐츠를 제공하는 대화형 컨텐츠를 생성하는 단계;를 더 포함하고, 이때 부가 컨텐츠를 제공하는 단계는 생성된 대화형 컨텐츠를 이용할 수 있다.
또한, 단말기에서 부가 컨텐츠를 제공하는 방법은, 사용자 입력에 기초하여 생성된 대화형 컨텐츠에 포함된 촬영 영상에서 사용자 인터랙션 영역의 위치를 변경하는 단계; 및 변경된 위치로 생성된 대화형 컨텐츠에 포함된 사용자 인터랙션 영역의 위치를 갱신하는 단계;를 더 포함할 수 있다.
또한, 부가 컨텐츠를 제공하는 단계는 부가 컨텐츠가 쿠폰일 때, 쿠폰의 유효기간이 경과한 경우, 대화형 컨텐츠에서 쿠폰에 관한 정보를 삭제하고, 쿠폰의 유효기간이 경과함을 알리는 메시지를 제공하고, 쿠폰의 유효기간이 경과하지 않은 경우, 쿠폰을 표시할 수 있다.
또한, 부가 컨텐츠를 제공하는 단계는 수신된 부가 컨텐츠가 복수 개인 경우, 복수 개의 부가 컨텐츠들 각각에 대응되는 복수 개의 사용자 인터랙션 영역들 중 제 1 사용자 인터랙션 영역에 대한 제 1 부가 컨텐츠 요청에 응답하여, 제 1 부가 컨텐츠를 제공할 수 있다.
또한, 부가 컨텐츠를 제공하는 단계는 사용자 인터랙션 영역이 복수 개인 경우, 복수 개의 사용자 인터랙션 영역들 중 어느 하나에서 감지된 부가 컨텐츠의 요청에 응답하여, 부가 컨텐츠를 제공할 수 있다.
제 3 측면에 따라, 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체는 단말기에서 부가 컨텐츠를 제공하는 방법을 컴퓨터에서 실행시키기 위한 프로그램으로 기록한다.
이하 첨부된 도면을 참조하면서 오로지 예시를 위한 실시예에 의해 발명을 상세히 설명하기로 한다. 하기 실시예는 발명을 구체화하기 위한 것일 뿐 발명의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 상세한 설명 및 실시예로부터 발명이 속하는 기술분야의 전문가가 용이하게 유추할 수 있는 것은 발명의 권리범위에 속하는 것으로 해석된다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서 사용되는 '구성된다' 또는 '포함한다' 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 본 명세서에서 사용되는 '제 1' 또는 '제 2' 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 일 실시예에 따라, 부가 컨텐츠가 쿠폰인 경우, 단말기가 무선 통신 장치를 이용해서 서버로부터 부가 컨텐츠를 수신하는 예시를 도시한 도면이다.
단말기(100)는 외부 기기와 통신을 수행하여, 정보를 송수신하고, 사용자에게 정보를 제공할 수 있는 장치이다. 단말기(100)는 영상을 촬영하는 기능을 포함할 수 있다. 예를 들어, 단말기(100)는 촬영한 영상에 대응되는 영상 촬영 신호를 무선 통신 장치(110)에 전송하고, 서버(120)로부터 부가 컨텐츠(140)를 수신할 수 있다. 단말기(100)는 태블릿 디바이스, 스마트폰, 노트북, 카메라 등과 같은 다양한 종류의 디지털 영상 처리 장치 일 수 있으나, 이에 제한되지 않는다.
또한, 부가 컨텐츠(140)는 유/무선 전기 통신망에서 사용하기 위하여 문자, 부호, 음성, 음향, 이미지, 영상 등을 디지털 방식으로 제작해 유통하는 각종 정보 또는 그 내용물을 의미한다. 예를 들어, 단말기(100)가 촬영한 영상에 대응하여 단말기(100)가 서버(120)로부터 수신하는 컨텐츠일 수 있다. 부가 컨텐츠(140)는 텍스트, 소리 데이터, 쿠폰, URL(Uniform Resource Locator), 지도 데이터, QR 코드 등일 수 있으나, 이에 제한되지 않는다.
또한, 무선 통신 장치(110)는 무선 통신망을 이용해서 디지털 데이터를 송수신할 수 있는 장치를 말한다. 또한, 무선 통신 장치(110)는 커버리지 영역(150)내에서 단말기(100)로부터 영상 촬영 신호를 수신하고, 서버(120)가 단말기(100)에게 부가 컨텐츠(140)를 제공하도록 요청하는 장치일 수 있다. 예를 들어, 무선 통신 장치(110)에 적용되는 통신 방식은 블루투스(Bluetooth), BLE(Bluetooth Low Energy), NFC(Near Field Communication unit), WLAN(Wi-Fi), 지그비(Zigbee), 적외선(IrDA, infrared Data Association), WFD(Wi-Fi Direct), UWB(ultra wideband) 일 수 있으나, 이에 제한되지 않는다.
또한, 서버(120)는 클라이언트가 요청한 작업이나 정보의 수행 결과를 제공하는 장치를 의미한다. 예를 들어, 서버(120)는 무선 통신 장치(110)의 부가 컨텐츠(140) 요청에 기초하여, 단말기(100)에게 부가 컨텐츠(140)를 제공할 수 있다.
또한, 대화형 컨텐츠는 사용자와 상호작용을 할 수 있는 컨텐츠를 의미한다. 구체적으로, 대화형 컨텐츠는 사용자의 입력에 반응하여 컨텐츠에 대응되는 부가 컨텐츠(140)를 사용자에게 제공할 수 있다. 예를 들어, 영상과 영상에 대응하는 소리 데이터를 포함한 대화형 컨텐츠가 있는 경우, 사용자가 단말기(100)에 표시된 영상의 일 영역을 터치하는 방식으로 영상에 대응되는 소리 데이터를 요청하면, 대화형 컨텐츠는 소리 데이터를 사용자에게 제공할 수 있다. 또한, 부가 컨텐츠(140)가 시각적 컨텐츠인 경우, 대화형 컨텐츠는 부가 컨텐츠(140)가 스크린 상에 표시되는 위치에 관한 정보를 더 포함할 수 있다.
또한, 사용자 인터랙션 영역은 미리 설정된 동작을 수행하기 위해, 사용자가 동작을 요청하는 신호를 수신하는 영역을 의미한다. 예를 들어, 사용자 인터랙션 영역은 단말기(100)의 스크린에서 사용자로부터 부가 컨텐츠(140) 요청을 수신할 수 있는 일 영역일 수 있다. 이때, 사용자 인터랙션 영역은 단말기(100)가 자동으로 설정할 수 있고, 사용자 입력에 기초하여 수동으로 설정할 수 있다. 또한, 사용자 인터랙션 영역이 대화형 컨텐츠에 포함된 경우, 사용자 입력에 기초하여 사용자 인터랙션 영역의 속성(예를 들어, 크기, 모양, 넓이, 개수 등)을 변경할 수 있다.
도 1에서 단말기(100)는 스마트폰이고, 무선 통신 장치(110)는 비콘 수신기이며, 부가 컨텐츠(140)는 쿠폰인 것으로 가정하여 도시되었으나, 이는 설명의 편의를 위한 것을 뿐, 본 실시예는 이에 제한되지 않는다.
도 1을 참조하면, 단말기(100)가 영상을 촬영한 경우, 단말기(100)는 무선 통신 장치(110)에게 영상 촬영 신호를 송신한다. 이때, 영상은 사진 또는 동영상일 수 있다. 영상 촬영 신호란, 단말기(100)가 소정의 영상을 촬영했음을 의미하는 신호이며, 단말기(100)의 식별 정보 및 촬영 신호 플래그를 포함할 수 있다.
도 1에서 단말기(100)는 영상 촬영 신호를 BLE 4.0의 애드버타이징 패킷(Advertising Packet) 전송 표준을 활용하여 송신하는 것으로 가정하여 도시되었으나, 이는 설명의 편의를 위한 것일 뿐, 본 실시예는 이에 제한되지 않는다.
이때 단말기(100)가 무선 통신 장치(110)의 커버리지 영역(150) 내에 있다면, 무선 통신 장치(110)는 단말기(100)가 송신하는 영상 촬영 신호를 수신할 수 있다. 이때, 영상 촬영 신호는 무선 통신 장치(110)의 커버리지 영역(150) 부근에 존재하는 피사체를 촬영한 사실을 나타낼 수 있는 임의의 형태의 정보가 될 수 있다. 피사체는 건물, 장소, 사물, 동물, 식물 등 다양한 객체가 될 수 있다. 영상 촬영 신호를 수신한 무선 통신 장치(110)는 무선 통신 장치(110)의 식별 정보와 단말기(100)의 식별 정보를 서버(120)에 송신하여, 무선 통신 장치(110)의 식별 정보에 대응하는 부가 컨텐츠(140)를 단말기(100)에게 전송할 것을 요청한다. 서버(120)는 무선 통신 장치(110)의 요청에 응답하여, 무선 통신 장치(110)의 식별 정보에 대응하는 부가 컨텐츠(140)를 단말기(100)에게 송신한다. 단말기(100)의 식별 정보는 서버(120)가 단말기(100)에 부가 컨텐츠(140)를 전송하기 위해 단말기(100)와의 통신에 이용될 수 있다. 서버(120)는 적어도 하나의 무선 통신 장치(110)와 통신을 수행할 수 있다. 서버(120)는 무선 통신 장치(110)의 식별 정보에 기초하여, 무선 통신 장치(110) 부근에 존재하는 건물, 장소, 사물, 동물, 식물 등에 대응되는 부가 컨텐츠(140)를 결정할 수 있다. 이를 위해, 서버(120)는 무선 통신 장치(110)의 식별 정보에 적어도 하나의 부가 컨텐츠(140)를 대응시켜 저장한 데이터베이스를 가질 수 있다. 단말기(100)는 서버(120)로부터 부가 컨텐츠(140)를 수신한 후, 사용자 인터랙션 영역에서 부가 컨텐츠(140)를 요청하는 신호를 감지하여, 부가 컨텐츠(140)를 제공할 수 있다.
예를 들어, 도 1을 참조하면, 무선 통신 장치(110)가 커피 전문점에 위치한 경우, 사용자는 표시된 포토존 안에서 단말기(100)를 이용하여 영상을 촬영할 수 있다. 포토존은 무선 통신 장치(110)의 커버리지 영역(150)을 고려하여, 미리 표시될 수 있다. 사용자가 단말기(100)를 이용해서 영상을 촬영하면, 단말기(100)는 영상에 대응되는 영상 촬영 신호를 자동으로 무선 통신 장치(110)에게 송신할 수 있다. 무선 통신 장치(110)는 영상 촬영 신호를 수신하면, 단말기(100)의 식별 정보 및 무선 통신 장치(110)의 식별 정보를 서버(120)로 전송하여, 서버(120)에게 부가 컨텐츠(140)를 요청할 수 있다. 이때, 무선 통신 장치(110)의 식별 정보는 무선 통신 장치(110)의 위치에 관한 정보일 수 있다. 한편, 부가 컨텐츠(140)을 요청 받은 서버(120)는 무선 통신 장치(110)의 식별 정보를 이용하여, 단말기(100)에게 제공하는 부가 컨텐츠(140)를 커피 전문점의 쿠폰으로 결정할 수 있다. 또한, 서버(120)는 단말기 (100)의 식별 정보를 이용하여, 부가 컨텐츠(140)를 제공하는 단말기(100)를 결정할 수 있다. 이때, 서버(120)는 단말기(100)의 식별 정보를 수집하여, 사용자의 특정 패턴(예를 들어, 방문 횟수, 선호도) 분석에 활용할 수 있다.
또한, 단말기(100)가 무선 통신 장치(110)의 커버리지 영역(150)을 벗어나 영상을 촬영한 경우, 촬영 영상에 대응되는 영상 촬영 신호를 소정의 시간 동안 반복적으로 송신할 수 있다. 따라서, 반복적으로 영상 촬영 신호를 송신하는 단말기(100)가 무선 통신 장치(110)의 커버리지 영역(150) 내에 도달하면, 무선 통신 장치(110)는 영상 촬영 신호를 수신할 수 있다.
부가 컨텐츠(140)를 제공하는 방법 및 사용자 인터랙션 영역을 설정하는 방법에 대해서는 이하의 해당 도면들에서 보다 상세히 설명하도록 한다.
도 2은 일 실시예에 따라, 부가 컨텐츠가 소리 데이터인 경우, 단말기가 무선 통신 장치를 이용해서 서버로부터 부가 컨텐츠를 수신하는 예시를 도시한 도면이다.
도 2를 참조하면, 무선 통신 장치(110)가 동물원에 위치한 경우, 사용자는 표시된 포토존에서 단말기(100)를 이용하여 영상을 촬영할 수 있다. 단말기(100)는 촬영한 영상에 대응하는 영상 촬영 신호를 무선 통신 장치(110)에 송신하고, 무선 통신 장치(110)는 서버(120)에게 부가 컨텐츠(140)를 요청할 수 있다. 이때, 서버(120)는 수신된 무선 통신 장치(110)의 식별 정보를 기초로 하여, 단말기(100)에게 제공하는 부가 컨텐츠(140)를 소리 데이터(예를 들어, 사자 울음소리)로 결정할 수 있다. 부가 컨텐츠(140)를 결정하고 난 후, 서버(120)는 단말기(100)의 식별 정보를 이용하여, 단말기(100)에게 부가 컨텐츠(140)를 전송할 수 있다.
부가 컨텐츠(140)를 제공하는 방법 및 사용자 인터랙션 영역을 설정하는 방법에 대해서는 이하의 해당 도면들에서 보다 상세히 설명하도록 한다.
도 3은 일 실시예에 따라, 부가 컨텐츠가 텍스트인 경우, 단말기가 무선 통신 장치를 이용해서 서버로부터 부가 컨텐츠를 수신하는 예시를 도시한 도면이다.
도 3을 참조하면, 무선 통신 장치(110)가 유적지(예를 들어, 다보탑)에 위치한 경우, 사용자는 표시된 포토존에서 단말기(100)를 이용하여 영상을 촬영할 수 있다. 단말기(100)는 촬영한 영상에 대응하는 영상 촬영 신호를 무선 통신 장치(110)에 송신하고, 무선 통신 장치(110)는 서버(120)에게 부가 컨텐츠(140)를 요청할 수 있다. 이때, 서버(120)는 무선 통신 장치(110)의 식별 정보를 기초로 하여, 단말기(100)에게 제공하는 부가 컨텐츠(140)를 텍스트(예를 들어, 다보탑 설명)로 결정할 수 있다. 부가 컨텐츠(140)를 결정하고 난 후, 서버(120)는 단말기(100)의 식별 정보를 이용하여, 단말기(100)에게 부가 컨텐츠(140)를 전송할 수 있다.
부가 컨텐츠(140)를 제공하는 방법 및 사용자 인터랙션 영역을 설정하는 방법에 대해서는 이하의 해당 도면들에서 보다 상세히 설명하도록 한다.
도 4은 일 실시예에 따라, 부가 컨텐츠가 쿠폰인 경우, 부가 컨텐츠를 표시하는 일례를 도시한 도면이다.
도 4를 참조하면, 무선 통신 장치(110)가 커피 전문점에 위치한 경우, 단말기(100)는 서버(120)로부터 촬영 영상(410)에 대응하는 부가 컨텐츠(140)로서 쿠폰(430)을 수신할 수 있다. 이때, 도4의 (a)와 같이, 단말기(100)가 촬영 영상(410)을 표시하면, 사용자로부터 부가 컨텐츠(140) 요청을 수신할 수 있는 사용자 인터랙션 영역(420)이 함께 표시될 수 있다. 이때, 사용자가 사용자 인터랙션 영역(410)을 터치하면, 단말기(100)는 도4의 (b)와 같이, 촬영 영상(410)의 특정 위치에 쿠폰(430)을 표시할 수 있다. 이때, 쿠폰(430)의 속성(예를 들어, 스크린에 표시되는 위치, 크기, 투명도 등)은 사용자 입력에 기초하여 변경될 수 있다. 또한, 사용자 인터랙션 영역(420)의 표시는 사용자 입력 또는 단말기(100)의 초기 설정에 기초하여 생략될 수 있다.
또한, 단말기(100)는 촬영 영상과 촬영 영상에 대응되는 부가 컨텐츠, 및 부가 컨텐츠를 요청하는 신호를 수신할 수 있는 사용자 인터랙션 영역을 연동하여, 대화형 컨텐츠를 생성할 수 있다. 또한, 단말기(100)는 생성된 대화형 컨텐츠를 저장할 수 있다.
예를 들어, 도 4(a) 및 도 4(b)를 참조하면, 촬영 영상(410), 촬영 영상(410)과 대응되는 부가 컨텐츠(140)인 쿠폰(430) 및 쿠폰(430)을 요청하는 신호를 수신할 수 있는 사용자 인터랙션 영역(420)을 연동하여 대화형 컨텐츠를 생성할 수 있다.
만약, 부가 컨텐츠(140)가 쿠폰(430)일 때, 쿠폰(430)의 유효기간이 경과한 경우라면, 단말기(100)는 대화형 컨텐츠에서 쿠폰(430)에 관련된 정보를 삭제하고, 쿠폰(430)의 유효기간이 경과함을 알리는 메시지를 제공할 수 있다. 또한, 쿠폰(430)의 유효기간이 경과하지 않은 경우라면, 단말기(100)는 쿠폰(430)을 사용자에게 제공할 수 있다.
또한, 단말기(100)는 부가 컨텐츠(140)를 제공하고 나서, 사용자 입력에 기초하여, 제공된 부가 컨텐츠(140)를 제거할 수 있다. 예를 들어, 도 4(b)와 같이, 단말기(100)에 촬영 영상(410)과 함께 부가 컨텐츠(140)인 쿠폰(430)이 표시된 경우, 사용자가 사용자 인터랙션 영역(420)을 한번 더 터치하면, 쿠폰(430)이 스크린에서 사라지고, 촬영 영상(410)만 표시될 수 있다. 이때, 단말기(100)는 부가 컨텐츠(140)를 제거하기 위하여, 영상 전체 영역(410), 사용자 인터랙션 영역(420), 부가 컨텐츠를 표시한 영역(430) 중 적어도 일 영역에서 사용자로부터 입력된 신호를 감지할 수 있으나, 이에 제한되지 않는다.
사용자 인터랙션 영역을 설정하는 방법에 대해서는 이하의 해당 도면들에서 보다 상세히 설명하도록 한다.
도 5은 일 실시예에 따라, 부가 컨텐츠가 텍스트인 경우, 부가 컨텐츠를 표시하는 일례를 도시한 도면이다.
도 5를 참조하면, 무선 통신 장치(110)가 유적지(예를 들어, 다보탑)에 위치한 경우, 단말기(100)는 서버(120)로부터 촬영 영상(510)에 대응하는 부가 컨텐츠(140)로서 텍스트(예를 들어, 다보탑의 설명)(520)를 수신할 수 있다. 이때, 도5의 (a)와 같이, 단말기(100)가 촬영 영상(510)을 표시하면, 사용자 인터랙션 영역(520)이 함께 표시될 수 있다. 만약, 사용자가 사용자 인터랙션 영역(520)을 터치하면, 단말기(100)는 도5의 (b)와 같이, 촬영 영상(510)의 특정 위치에 텍스트(예를 들어, 다보탑의 설명)(530)를 표시할 수 있다. 이때, 텍스트(530)는 촬영 영상(510)과 함께 표시될 수 있고, 촬영 영상(510)을 대체하여 표시될 수 있으나, 이에 제한되지 않는다. 또한, 텍스트(530)의 속성(예를 들어, 스크린에서 표시되는 위치, 글자 크기, 투명도 등)은 사용자 입력에 기초하여 변경될 수 있다.
사용자 인터랙션 영역을 설정하는 방법에 대해서는 이하의 해당 도면들에서 보다 상세히 설명하도록 한다.
도 6은 일 실시예에 따라, 부가 컨텐츠가 URL(Uniform Resource Locator)인 경우, 부가 컨텐츠를 표시하는 일례를 도시한 도면이다.
도 6을 참조하면, 무선 통신 장치(110)가 관광지(예를 들어, 에펠탑)에 위치한 경우, 단말기(100)는 서버(120)로부터 촬영 영상(610)에 대응하는 부가 컨텐츠(140)로서 URL(Uniform Resource Locator)을 수신할 수 있다. 이때, 도6의 (a)와 같이, 단말기(100)가 촬영 영상(610)을 표시하면, 사용자 인터랙션 영역(620)이 함께 표시될 수 있다. 만약, 사용자가 사용자 인터랙션 영역(620)을 터치하면, 단말기(100)는 도6의 (b)와 같이, 스크린에 URL이 지시하는 네트워크 정보 자원(예를 들어, 여행사 사이트의 에펠탑 설명)(630)을 표시할 수 있다. 이때, URL이 지시하는 네트워크 정보 자원(630)은 촬영 영상(610)과 함께 표시될 수 있고, 촬영 영상(610)을 대체하여 표시될 수 있으나, 이에 제한되지 않는다. 또한, URL이 지시하는 네트워크 정보 자원(630)의 속성(예를 들어, 스크린에서 표시되는 위치, 글자 크기, 투명도 등)은 사용자 입력에 기초하여 변경될 수 있다.
사용자 인터랙션 영역을 설정하는 방법에 대해서는 이하의 해당 도면들에서 보다 상세히 설명하도록 한다.
도 7은 일 실시예에 따라, 단말기가 복수 개의 부가 컨텐츠를 수신하는 경우, 사용자에게 복수 개의 부가 컨텐츠를 제공하는 일례를 도시한 도면이다.
도 7을 참조하면, 무선 통신 장치(110)가 동물원에 위치한 경우, 단말기(100)는 서버(120)로부터 촬영 영상(710)에 대응하는 복수 개의 부가 컨텐츠(예를 들어, 사자 울음소리와 사자 설명)를 수신할 수 있다. 이때, 도7의 (a)와 같이, 단말기(100)가 촬영 영상(710)을 표시하면, 복수 개의 사용자 인터랙션 영역(720, 740)이 함께 표시될 수 있다. 이때, 복수 개의 사용자 인터랙션 영역(720, 740) 중 적어도 하나의 표시는 생략될 수 있으나, 이에 제한되지 않는다. 만약, 사용자가 복수 사용자 인터랙션 영역(720, 740) 중 제 1 사용자 인터랙션 영역(720)을 터치하면, 도7의 (b)와 같이, 단말기(100)는 제 1 사용자 인터랙션 영역(720)에 대응하는 제 1 부가 컨텐츠(예를 들어, 사자 울음소리)(730)를 재생할 수 있다. 또한, 사용자가 도7의 (c)와 같이, 제 2 사용자 인터랙션 영역(740)을 터치하면, 도7의 (d)와 같이, 단말기(100)는 제 2 사용자 인터랙션 영역(740)에 대응하는 제 2 부가 컨텐츠(예를 들어, 사자 설명)(750)를 스크린에 표시할 수 있다.
또한, 복수 개의 부가 컨텐츠는 하나의 사용자 인터랙션 영역에서 수신하는 신호에 반응하여 제공될 수 있다. 이때, 복수 개의 부가 컨텐츠는 하나의 사용자 인터랙션 영역에서 수신되는 복수 개의 신호에 따라 순차적으로 제공될 수도 있고, 하나의 신호에 반응하여 복수 개의 부가 컨텐츠가 동시에 제공될 수 있다. 또한, 복수 개의 부가 컨텐츠가 순차적으로 제공되는 경우, 복수 개의 부가 컨텐츠가 제공되는 순서는 단말기(100)가 임의로 설정할 수 있고, 사용자의 입력에 기초하여 설정할 수 있다.
사용자 인터랙션 영역을 설정하는 방법에 대해서는 이하의 해당 도면들에서 보다 상세히 설명하도록 한다.
도 8은 일 실시예에 따라, 영상 촬영시 설정되는 자동 초점 영역이 사용자 인터랙션 영역으로 설정되는 일례를 도시한 도면이다.
도 8을 참조하면, 단말기(100)는 자동으로 사용자 인터랙션 영역을 설정하기 위하여, 단말기(100)가 영상을 촬영할 때 설정하는 자동 초점(AF, Auto Focus) 영역을 활용할 수 있다. 자동 초점 영역이란, 단말기(100)가 촬영 대상에 자동으로 맞춰주는 초점의 영역을 의미한다. 따라서, 단말기(100)는 영상을 촬영할 당시 설정되는 자동 초점 영역을 저장하여, 사용자 인터랙션 영역을 설정할 수 있다.
예를 들어, 도 8의 (a)와 같이 사용자가 무궁화를 촬영할 때, 단말기(100)는 자동으로 초점을 맞춰 자동 초점 영역(810)을 스크린에 표시할 수 있다. 그 후, 단말기(100)가 영상 촬영 신호를 무선 통신 장치(110)에 송신함에 따라, 무선 통신 장치(110)가 서버(120)에게 부가 컨텐츠(140)를 요청하면, 단말기(100)는 서버(120)로부터 부가 컨텐츠(140)로서 텍스트(예를 들어, 무궁화 설명)(840)를 수신할 수 있다. 이때 도 8의 (b)와 같이, 단말기(100)가 촬영 영상(820)을 스크린에 표시하면, 사용자 인터랙션 영역(830)을 함께 표시할 수 있다. 이때 사용자 인터랙션 영역(830)은 무궁화를 촬영할 때 설정되었던 자동 초점 영역(810)과 동일한 영역일 수 있다. 만약, 사용자가 스크린에 표시된 사용자 인터랙션 영역(830)을 터치하면, 단말기(100)는 도8의 (c)와 같이, 촬영 영상(820)의 특정 위치에 텍스트(예를 들어, 무궁화 설명)(840)를 표시할 수 있다. 이때, 텍스트(840)는 촬영 영상(820)과 함께 표시될 수 있고, 촬영 영상(820)을 대체하여 표시될 수 있으나, 이에 제한되지 않는다.
또한, 사용자 인터랙션 영역은 부가 컨텐츠에 대응되는 영상을 촬영하기 전에, 사용자 입력에 기초하여, 스크린에서 소정의 영역으로 미리 설정될 수 있다. 이때 사용자는 사용자 인터랙션 영역의 속성(예를 들어, 크기, 모양, 개수 등)을 설정할 수 있다.
또한, 사용자 인터랙션 영역은 스크린 전체 영역일 수 있다. 이때, 단말기(100)는 촬영 영상의 모든 영역에서 수신한 신호에 기초하여, 부가 컨텐츠(140)를 제공할 수 있다.
도 9은 일 실시예에 따라, 영상 촬영시 복수 개의 자동 초점 영역이 설정될 때, 부가 컨텐츠를 제공하는 일례를 도시한 도면이다.
단말기(100)는 영상을 촬영할 때 정의된 자동 초점(AF, Auto Focus) 영역을 사용자 인터랙션 영역으로 설정할 수 있다. 이때, 자동 초점 영역이 복수 일 경우, 사용자 인터랙션 영역도 복수 개로 설정될 수 있다.
예를 들어, 도9의 (a)와 같이, 사용자가 무궁화를 촬영할 때, 단말기(100)는 자동으로 초점을 맞춰 복수의 자동 초점 영역(910, 920, 930)을 스크린에 표시할 수 있다. 그 후, 무선 통신 장치(110)의 요청에 응답하여 서버(120)가 부가 컨텐츠(140)를 단말기(100)에게 전송하면, 단말기(100)는 촬영 영상에 대응하는 부가 컨텐츠(140) 로서 텍스트(예를 들어, 무궁화 설명)(980)를 수신할 수 있다. 이때, 도 9의 (b)와 같이, 단말기(100)가 촬영 영상(940)을 스크린에 표시하면, 복수의 사용자 인터랙션 영역(950, 960, 970)을 함께 표시할 수 있다. 이때, 사용자 인터랙션 영역(950, 960, 970)은 무궁화를 촬영할 때 설정되었던 자동 초점 영역(910, 920, 930)과 동일한 영역일 수 있다. 만약, 사용자가 스크린에 표시된 복수의 사용자 인터랙션 영역(950, 960, 970) 중 한 영역(970)을 터치하면, 단말기(100)는 도9의 (c)와 같이, 촬영 영상(940)의 특정 위치에 텍스트(예를 들어, 무궁화 설명)(980)를 표시할 수 있다. 이때, 텍스트(980)는 촬영 영상(940)과 함께 표시될 수 있고, 촬영 영상(940)을 대체하여 표시될 수 있으나, 이에 제한되지 않는다.
도 10은 일 실시예에 따른, 대화형 컨텐츠에 포함된 사용자 인터랙션 영역을 변경하는 일례를 도시한 도면이다.
사용자 인터랙션 영역은 부가 컨텐츠(140)에 대응되는 영상을 촬영하기 전에 단말기(100)의 스크린의 소정의 영역으로 설정될 수 있고, 영상을 촬영한 후, 촬영 영상의 소정의 영역으로 설정될 수 있다.
도 10을 참조하면, 단말기(100)는 커피 전문점의 포토존에서 촬영한 영상(1010), 촬영 영상(1010)에 대응되어 서버(120)로부터 수신한 쿠폰(430) 및 사용자 인터랙션 영역(1040)을 포함하여 대화형 컨텐츠를 생성할 수 있다. 또한, 단말기(100)는 생성된 대화형 컨텐츠를 저장할 수 있다. 이때 사용자는 대화형 컨텐츠에 포함된 사용자 인터랙션 영역의 속성(예를 들어, 크기, 모양, 개수 등)을 변경할 수 있다. 또한, 사용자는 대화형 컨텐츠에 포함된 부가 컨텐츠(140)의 속성(예를 들어, 스크린에서 표시되는 위치, 크기, 투명도 등)을 변경할 수 있고, 불필요한 부가 컨텐츠(140)를 삭제할 수 있다.
도10의 (a)을 참조하면, 단말기(100)는 촬영된 영상(1010)과 함께 대화형 컨텐츠에 포함된 사용자 인터랙션 영역(1020)을 스크린에 표시할 수 있다. 이때, 사용자는 새로운 사용자 인터랙션 영역(1040)을 추가할 수 있다. 또한, 도10의 (b)을 참조하면, 사용자는 표시된 복수 개의 사용자 인터랙션 영역(1020, 1040) 중 한 영역(1020)을 선택하여 삭제할 수 있다. 사용자 인터랙션 영역의 변경이 완료되면, 단말기(100)는 도10의 (c)와 같이, 변경된 사용자 인터랙션 영역(1040)을 포함하는 변경된 대화형 컨텐츠를 저장할 수 있다.
도 11은 일 실시예에 따른, 단말기가 무선 통신 장치를 이용해서 부가 컨텐츠를 제공하는 방법의 흐름도이다.
단계 S1110에서, 단말기(100)는 무선 통신 장치(110)의 커버리지 영역(150) 내에서 무선 통신 장치(110)에게 영상 촬영 신호를 송신할 수 있다. 이때, 영상은 사진 또는 동영상을 포함할 수 있다. 또한, 영상 촬영 신호는 단말기(100)가 영상을 촬영한 사실을 나타내는 임의의 형태의 정보가 될 수 있으며, 단말기(100)의 식별 정보 및 촬영 신호 플래그를 포함할 수 있다.
또한, 단말기(100)가 무선 통신 장치(110)의 커버리지 영역(150)을 벗어나서 영상을 촬영한 경우, 단말기(100)는 촬영 영상에 대응되는 영상 촬영 신호를 소정의 시간 동안 반복적으로 송신할 수 있다.
단계 S1120에서, 단말기(100)는 서버(120)로부터 부가 컨텐츠(140)를 수신할 수 있다. 이때, 서버(120)는 무선 통신 장치(110)로부터 수신하는 무선 통신 장치(110)의 식별 정보를 기초로 하여 부가 컨텐츠(140)를 결정한다.
단계 S1130에서, 단말기(100)는 영상 촬영 신호에 대응되는 촬영 영상에 제공된 사용자 인터랙션 영역에 대한 부가 컨텐츠(140) 요청에 응답하여, 부가 컨텐츠(140)를 제공할 수 있다.
이때, 사용자 인터랙션 영역은 단말기(100)가 자동으로 설정할 수 있고, 사용자 입력에 기초하여 수동으로 설정할 수 있다. 또한, 단말기(100)는 자동으로 사용자 인터랙션 영역을 설정하기 위하여, 영상 촬영시 설정되는 자동 초점(AF, Auto Focus) 영역을 활용할 수 있다.
또한, 사용자 인터랙션 영역은 부가 컨텐츠(140)에 대응되는 영상을 촬영하기 전에 설정될 수 있고, 부가 컨텐츠(140)에 대응되는 영상을 촬영한 후에 설정될 수 있다.
또한, 부가 컨텐츠(140)를 스크린에 표시하는 경우, 촬영 영상과 함께 표시될 수 있고, 촬영 영상을 대체하여 표시될 수 있다. 또한, 부가 컨텐츠(140)의 속성(예를 들어, 크기, 투명도, 스크린상 표시되는 위치 등)은 사용자의 입력에 기초하여 변경될 수 있다.
도 12은 일 실시예에 따른, 단말기가 무선 통신 장치를 이용해서 부가 컨텐츠를 제공하는 방법을 설명하기 위한 순서도이다.
단계 S1205에서, 단말기(100)는 영상을 촬영할 수 있다. 이때, 영상은 사진 또는 동영상일 수 있다. 이때 단말기(100)는 자동으로 초점을 맞춰 촬영하고, 자동 초점 영역을 저장할 수 있다.
단계 S1210에서, 단말기(100)는 무선 통신 장치(110)에게 영상 촬영 신호를 송신할 수 있다. 예를 들어, 단말기(100)는 무선 통신 장치(110)에게 BLE 4.0의 애드버타이징 패킷(Advertising Packet) 전송 표준을 이용하여 영상 촬영 신호를 송신할 수 있다. 이때, 단말기(100)가 송신하는 영상 촬영 신호는 단말기(100)의 식별 정보 및 촬영 신호 플래그를 포함할 수 있다.
단계 S1215에서, 무선 통신 장치(110)는 단말기(100)가 무선 통신 장치(110)의 커버리지 영역(150)에서 영상 촬영 신호를 송신할 경우, 영상 촬영 신호를 수신할 수 있다. 무선 통신 장치(110)는 영상 촬영 신호를 수신하면, 서버(120)에게 무선 통신 장치(110)의 식별 정보 및 단말기(100)의 식별 정보를 송신하고, 부가 컨텐츠(140)를 요청할 수 있다.
단계 S1220에서, 서버(120)는 무선 통신 장치(110)로부터 무선 통신 장치(110)의 식별 정보 및 단말기(100)의 식별 정보를 수신하면, 무선 통신 장치(110)의 식별 정보를 이용하여 단말기(100)에게 제공할 부가 컨텐츠(140)를 결정할 수 있다. 또한, 서버(120)는, 무선 통신 장치(110)로부터 수신하는 단말기(100)의 식별 정보를 수집하여, 사용자의 특정 패턴(예를 들어, 방문 횟수, 선호도) 분석에 활용할 수 있다.
단계 S1225에서, 서버(120)는 단말기(100)에게 부가 컨텐츠(140)를 송신할 수 있다. 이때, 서버(120)는 무선 통신 장치(110)로부터 수신한 단말기(100)의 식별 정보를 이용하여, 부가 컨텐츠(140)를 수신하는 단말기(100)를 지정할 수 있다.
단계 S1230에서, 단말기(100)는 촬영 영상을 스크린에 표시할 수 있다. 이때, 촬영 영상과 함께 사용자 인터랙션 영역이 표시될 수 있다. 사용자 인터랙션 영역은 사용자의 입력 또는 단말기(100)의 초기 설정에 기초하여, 표시가 생략할 수 있다.
단계 S1235에서, 단말기(100)는 사용자 인터랙션 영역에서 수신된 부가 컨텐츠(140) 요청에 대한 응답으로, 부가 컨텐츠(140)를 제공할 수 있다. 단계 S1235은 도 11의 단계 S1130와 대응되므로, 구체적인 설명은 생략하기로 한다.
도 13은 일 실시예에 따른, 단말기의 하드웨어 구성을 도시한 도면이다.
도 13을 참조하면, 단말기(100)는 프로세서(1310), 제 1 통신 인터페이스(1320) 및 제 2 통신 인터페이스(1330)를 포함할 수 있다. 다만, 단말기(100)에는 도 13에 도시된 구성들 외에도, 다른 범용적인 하드웨어 구성들이 포함될 수 있다는 점을 당해 기술분야의 통상의 기술자라면 이해할 수 있다.
제 1 통신 인터페이스(1320)는 단말기(100)와 무선 통신 장치(110)간 무선 통신을 수행하기 위한 하드웨어 구성이다. 제 1 통신 인터페이스(1320)는 무선 통신 장치(110)의 커버리지 영역(150)에서 영상 촬영 신호를 송신할 수 있다. 제 1 통신 인터페이스(1320)는 블루투스 기반의 근거리 무선 통신을 수행하여 무선 통신 장치(110)와 연결되거나, 또는 WLAN(Wi-Fi) 등을 이용하여 무선 통신 장치(110)와 통신을 수행할 수 있으나, 이에 제한되지 않는다.
제 2 통신 인터페이스(1330)는 단말기(100)와 서버(120)간 데이터 송수신을 위한 하드웨어 구성이다. 제 2 통신 인터페이스(1330)는 서버(120)로부터 촬영 영상에 대응하는 부가 컨텐츠(140)를 수신할 수 있다. 제 2 통신 인터페이스(1330)는 AP를 통해서 서버(120)와 연결되거나, 또는 WFD(Wi-Fi Direct) 등을 이용하여 서버(120)와 직접 연결될 수 있으나, 이에 제한되지 않는다.
프로세서(1310)는 단말기(100)에 포함된 모든 구성들의 동작을 제어하는 하드웨어 구성이다. 프로세서(1310)는 촬영 영상에 제공된 사용자 인터랙션 영역에 대한 부가 컨텐츠(140) 요청에 응답하여, 부가 컨텐츠(140)를 제공할 수 있다. 또한, 프로세서(1310)는 촬영 영상, 촬영 영상에 대응되는 부가 컨텐츠(140) 및 부가 컨텐츠(140)의 요청을 수신하는 사용자 인터랙션 영역을 포함하는 대화형 컨텐츠를 생성하고, 저장할 수 있다.
도 14은 일 실시예에 따른, 단말기의 하드웨어 구성을 도시한 도면이다.
도 14을 참조하면, 단말기(100)는 카메라(1410), 제 1 통신 인터페이스(1420), 제 2 통신 인터페이스(1430), 프로세서(1440) 및 사용자 인터페이스(1450)를 포함할 수 있다. 다만, 단말기(100)에는 도 14에 도시된 구성들 외에도, 다른 범용적인 하드웨어 구성들이 포함될 수 있다는 점을 당해 기술분야의 통상의 기술자라면 이해할 수 있다.
카메라(1410)는 영상을 촬영하기 위한 하드웨어 구성이다. 카메라(1410)는 영상을 촬영하고, 촬영된 영상을 프로세서(1440)에 전달한다. 또한, 카메라(1410)는 자동으로 초점을 맞춰 영상을 촬영할 수 있고, 촬영 시 설정된 자동 초점 영역을 프로세서(1440)에 전달할 수 있다.
사용자 인터페이스(1450)는 사용자로부터 단말기(100)를 제어하기 위한 신호를 획득하고, 데이터 및 컨텐츠를 사용자에게 제공하는 하드웨어 구성이다. 사용자 인터페이스(1450)는 입력부(1451) 및 출력부(1455)를 포함할 수 있다.
입력부(1451)는 출력부(1455)에 표시된 다양한 컨텐츠들 또는 옵션들을 선택하기 위한 사용자 입력을 수신할 수 있다. 또한, 입력부(1451)는 사용자로부터 영상 촬영을 위한 신호와 부가 컨텐츠(140)를 요청하는 신호를 수신할 수 있다. 예를 들어, 입력부(1451)는 센서(1452) 및 마이크(1453)를 포함하여, 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 압전효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나, 이에 제한되는 것은 아니다.
출력부(1455)는 스크린 및 스피커 등을 포함한다. 또한, 출력부(1455)는 단말기(100)에서 처리되는 정보를 표시하고 출력할 수 있다. 예를 들어, 출력부(1455)는 카메라(1410)에서 촬영한 영상을 표시할 수 있고, 촬영 영상과 대응하는 부가 컨텐츠(140)와 부가 컨텐츠(100) 요청을 수신할 수 있는 사용자 인터랙션 영역을 출력할 수 있다.
출력부(1455)에 포함된 스크린(1456)은 촬영 영상뿐 아니라, 단말기(100)를 제어하기 위한 GUI 화면을 표시하거나, 단말기(100)가 수신한 부가 컨텐츠(140) 중에서 시각적 컨텐츠를 표시할 수 있다. 또한, 스크린(1456)은 단말기(100)가 부가 컨텐츠(140)를 요청하는 사용자 입력을 수신할 수 있는 사용자 인터랙션 영역을 표시할 수 있다. 예를 들어, 스크린은 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT-LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 등과 같은 다양한 종류로 구현될 수 있다.
출력부(1450)에 포함된 스피커(1457)는 사용자 인터랙션 영역에서 수신되는 신호에 기초하여, 사용자에게 부가 컨텐츠(140) 중에서 청각적 컨텐츠를 제공할 수 있다.
단말기(100)에서 출력부(1455)의 스크린(1456) 및 입력부(1452)의 센서(1352) 중 일부는 스마트폰, 태블릿 디바이스 등에서 일반적으로 많이 사용되는 터치 스크린의 형태로 일체화되어 구현될 수 있다.
도 14에서 제 1 통신 인터페이스(1420)는 도 13의 제 1 통신 인터페이스(1320)와 대응된다. 또한, 제 2 통신 인터페이스(1430)는 도 13의 제 2 통신 인터페이스(1330)와 대응된다. 프로세서(1440)는 도 13의 프로세서(1310)와 대응된다. 따라서, 제 1 통신 인터페이스(1420), 제 2 통신 인터페이스(1430) 및 프로세서(1440)의 구체적인 설명은 생략하기로 한다.
본 개시는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
Claims (15)
- 무선 통신 장치의 커버리지 영역 내에서 무선 통신 장치에게 영상 촬영 신호를 송신하는 제 1 통신 인터페이스;상기 영상 촬영 신호에 기초한 상기 무선 통신 장치의 요청으로, 부가 컨텐츠를 제공하는 서버로부터 상기 무선 통신 장치의 식별 정보에 대응하는 부가 컨텐츠를 수신하는 제 2 통신 인터페이스; 및상기 영상 촬영 신호에 대응되는 촬영 영상에 제공된 사용자 인터랙션 영역에 대한 상기 부가 컨텐츠 요청에 응답하여, 상기 부가 컨텐츠를 제공하는 프로세서;를 포함하는, 부가 컨텐츠를 제공하는 단말기.
- 제 1 항에 있어서,상기 촬영 영상과 상기 사용자 인터랙션 영역을 표시하고, 상기 사용자 인터랙션 영역에서 상기 부가 컨텐츠를 요청하는 신호를 감지하는 사용자 인터페이스;를 더 포함하는, 부가 컨텐츠를 제공하는 단말기.
- 제 1 항에 있어서,상기 촬영 영상을 촬영하는 카메라;를 더 포함하고,상기 프로세서는, 상기 사용자 인터랙션 영역을 상기 촬영 영상의 촬영 시에 설정되었던 자동 초점 영역으로 설정하는, 부가 컨텐츠를 제공하는 단말기.
- 제 1 항에 있어서,상기 프로세서는,상기 영상 촬영 신호에 대응되는 촬영 영상에 상기 부가 컨텐츠의 요청을 감지하는 상기 사용자 인터랙션 영역과 상기 부가 컨텐츠를 연동하여, 상기 부가 컨텐츠를 제공하는 대화형 컨텐츠를 생성하는, 부가 컨텐츠를 제공하는 단말기.
- 제 4 항에 있어서,상기 프로세서는,사용자 입력에 기초하여 상기 생성된 대화형 컨텐츠에 포함된 상기 촬영 영상에서 상기 사용자 인터랙션 영역의 위치를 변경하고, 상기 변경된 위치로 상기 생성된 대화형 컨텐츠에 포함된 상기 사용자 인터랙션 영역의 위치를 갱신하는, 부가 컨텐츠를 제공하는 단말기.
- 제 1 항에 있어서,상기 프로세서는,상기 수신된 부가 컨텐츠가 복수 개인 경우, 상기 복수 개의 부가 컨텐츠들 각각에 대응되는 복수 개의 사용자 인터랙션 영역들 중 제 1 사용자 인터랙션 영역에 대한 제 1 부가 컨텐츠 요청에 응답하여, 상기 제 1 부가 컨텐츠를 제공하는, 부가 컨텐츠를 제공하는 단말기.
- 제 1 항에 있어서,상기 프로세서는,상기 사용자 인터랙션 영역이 복수 개인 경우, 상기 복수 개의 사용자 인터랙션 영역들 중 어느 하나에서 감지된, 상기 부가 컨텐츠의 요청에 응답하여, 상기 부가 컨텐츠를 제공하는, 부가 컨텐츠를 제공하는 단말기.
- 제 1 항에 있어서,상기 프로세서는,상기 단말기가 상기 부가 컨텐츠를 제공한 후, 상기 사용자 인터랙션 영역에서 감지된 사용자 입력에 기초하여, 상기 부가 컨텐츠를 제거하는, 부가 컨텐츠를 제공하는 단말기.
- 무선 통신 장치의 커버리지 영역 내에서 무선 통신 장치에게 영상 촬영 신호를 송신하는 단계;상기 영상 촬영 신호에 기초한 상기 무선 통신 장치의 요청으로, 부가 컨텐츠를 제공하는 서버로부터 상기 무선 통신 장치의 식별 정보에 대응하는 상기 부가 컨텐츠를 수신하는 단계; 및상기 영상 촬영 신호에 대응되는 촬영 영상에 제공된 사용자 인터랙션 영역에 대한 상기 부가 컨텐츠 요청에 응답하여, 상기 부가 컨텐츠를 제공하는 단계;를 포함하는 단말기에서 부가 컨텐츠를 제공하는 방법.
- 제 9 항에 있어서,상기 사용자 인터랙션 영역은, 상기 촬영 영상의 촬영 시에 설정되었던 자동 초점 영역인, 단말기에서 부가 컨텐츠를 제공하는 방법.
- 제 9 항에 있어서,상기 영상 촬영 신호에 대응되는 촬영 영상에 상기 부가 컨텐츠의 요청을 감지하는 상기 사용자 인터랙션 영역과 상기 부가 컨텐츠를 연동하여, 상기 부가 컨텐츠를 제공하는 대화형 컨텐츠를 생성하는 단계;를 더 포함하고,상기 부가 컨텐츠를 제공하는 단계는,상기 생성된 대화형 컨텐츠를 이용하여, 상기 부가 컨텐츠를 제공하는, 단말기에서 부가 컨텐츠를 제공하는 방법.
- 제 11 항에 있어서,사용자 입력에 기초하여 상기 생성된 대화형 컨텐츠에 포함된 상기 촬영 영상에서 상기 사용자 인터랙션 영역의 위치를 변경하는 단계; 및상기 변경된 위치로 상기 생성된 대화형 컨텐츠에 포함된 상기 사용자 인터랙션 영역의 위치를 갱신하는 단계;를 더 포함하는, 단말기에서 부가 컨텐츠를 제공하는 방법.
- 제 9 항에 있어서,상기 부가 컨텐츠를 제공하는 단계는,상기 수신된 부가 컨텐츠가 복수 개인 경우, 상기 복수 개의 부가 컨텐츠들 각각에 대응되는 복수 개의 사용자 인터랙션 영역들 중 제 1 사용자 인터랙션 영역에 대한 제 1 부가 컨텐츠 요청에 응답하여, 상기 제 1 부가 컨텐츠를 제공하는, 단말기에서 부가 컨텐츠를 제공하는 방법.
- 제 9 항에 있어서,상기 부가 컨텐츠를 제공하는 단계는,상기 사용자 인터랙션 영역이 복수 개인 경우, 상기 복수 개의 사용자 인터랙션 영역들 중 어느 하나에서 감지된 상기 부가 컨텐츠의 요청에 응답하여, 상기 부가 컨텐츠를 제공하는, 단말기에서 부가 컨텐츠를 제공하는 방법.
- 제 9 항에 있어서,상기 단말기가 상기 부가 컨텐츠를 제공한 후, 상기 사용자 인터랙션 영역에서 감지된, 사용자 입력에 기초하여, 상기 부가 컨텐츠를 제거하는 단계;를 더 포함하는 것인, 단말기에서 부가 컨텐츠를 제공하는 방법.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201680037182.7A CN107810641B (zh) | 2015-06-23 | 2016-05-17 | 用于在终端上提供附加内容的方法以及使用该方法的终端 |
| US15/573,782 US10880610B2 (en) | 2015-06-23 | 2016-05-17 | Method for providing additional contents at terminal, and terminal using same |
| EP16814590.2A EP3280149B1 (en) | 2015-06-23 | 2016-05-17 | Method for providing additional contents at terminal, and terminal using same |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020150089093A KR102299262B1 (ko) | 2015-06-23 | 2015-06-23 | 단말기에서 부가 컨텐츠를 제공하는 방법 및 이를 이용하는 단말기 |
| KR10-2015-0089093 | 2015-06-23 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2016208877A1 true WO2016208877A1 (ko) | 2016-12-29 |
Family
ID=57585740
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2016/005193 Ceased WO2016208877A1 (ko) | 2015-06-23 | 2016-05-17 | 단말기에서 부가 컨텐츠를 제공하는 방법 및 이를 이용하는 단말기 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US10880610B2 (ko) |
| EP (1) | EP3280149B1 (ko) |
| KR (1) | KR102299262B1 (ko) |
| CN (1) | CN107810641B (ko) |
| WO (1) | WO2016208877A1 (ko) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11157765B2 (en) | 2018-11-21 | 2021-10-26 | Samsung Electronics Co., Ltd. | Method and system for determining physical characteristics of objects |
| JP7205384B2 (ja) * | 2019-05-29 | 2023-01-17 | トヨタ自動車株式会社 | サービス提供システム |
| JP7715157B2 (ja) * | 2020-09-08 | 2025-07-30 | ソニーグループ株式会社 | 撮像装置、撮像システム、及び撮像装置の設定方法 |
| CN113783856B (zh) * | 2021-08-30 | 2022-11-15 | 杭州安恒信息技术股份有限公司 | 宝塔面板的检测方法、装置和计算机设备 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20120188393A1 (en) * | 2011-01-24 | 2012-07-26 | Samsung Electronics Co., Ltd. | Digital photographing apparatuses, methods of controlling the same, and computer-readable storage media |
| KR101259957B1 (ko) * | 2012-11-16 | 2013-05-02 | (주)엔써즈 | 이미지 매칭을 이용한 부가 정보 제공 시스템 및 방법 |
| KR20130126532A (ko) * | 2012-05-11 | 2013-11-20 | 안강석 | 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기 |
| KR20140136510A (ko) * | 2008-09-02 | 2014-11-28 | 퀄컴 인코포레이티드 | 개선된 컨텐트 전달 시스템을 위한 액세스 포인트 |
| KR20150015944A (ko) * | 2013-08-02 | 2015-02-11 | 주식회사 케이티 | 이미지에 관련된 정보를 제공받는 사용자 디바이스 및 방법 |
Family Cites Families (27)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102004001595A1 (de) | 2004-01-09 | 2005-08-11 | Vodafone Holding Gmbh | Verfahren zur informativen Beschreibung von Bildobjekten |
| US7707239B2 (en) * | 2004-11-01 | 2010-04-27 | Scenera Technologies, Llc | Using local networks for location information and image tagging |
| US8301159B2 (en) * | 2004-12-31 | 2012-10-30 | Nokia Corporation | Displaying network objects in mobile devices based on geolocation |
| JP2006258944A (ja) * | 2005-03-15 | 2006-09-28 | Fujinon Corp | オートフォーカスシステム |
| KR100754656B1 (ko) | 2005-06-20 | 2007-09-03 | 삼성전자주식회사 | 이미지와 관련한 정보를 사용자에게 제공하는 방법 및시스템과 이를 위한 이동통신단말기 |
| KR100696295B1 (ko) | 2005-08-30 | 2007-03-19 | 주식회사 모비더스 | 촬상된 이미지 합성 방법 및 상기 방법으로 촬상된이미지를 합성하는 카메라 또는 카메라가 내장된 이동기기 |
| US20080147730A1 (en) * | 2006-12-18 | 2008-06-19 | Motorola, Inc. | Method and system for providing location-specific image information |
| EP1965344B1 (en) * | 2007-02-27 | 2017-06-28 | Accenture Global Services Limited | Remote object recognition |
| JP4914268B2 (ja) * | 2007-03-29 | 2012-04-11 | 株式会社日立製作所 | 検索サービスサーバの情報検索方法。 |
| US8990896B2 (en) | 2008-06-24 | 2015-03-24 | Microsoft Technology Licensing, Llc | Extensible mechanism for securing objects using claims |
| KR101778135B1 (ko) * | 2009-08-24 | 2017-09-14 | 삼성전자주식회사 | 오브젝트 정보 제공방법 및 이를 적용한 촬영장치 |
| US20110169947A1 (en) | 2010-01-12 | 2011-07-14 | Qualcomm Incorporated | Image identification using trajectory-based location determination |
| KR101643609B1 (ko) | 2010-01-13 | 2016-07-29 | 삼성전자주식회사 | 멀티미디어 컨텐츠와 연동된 이미지를 생성하고 재생할 수 있는 디지털 영상 처리 장치 및 그 제어 방법 |
| KR101236919B1 (ko) | 2010-10-29 | 2013-02-28 | 에스케이플래닛 주식회사 | 위치 기반 사진 합성 시스템, 장치와 단말기 및 방법 |
| US8890896B1 (en) * | 2010-11-02 | 2014-11-18 | Google Inc. | Image recognition in an augmented reality application |
| US8913171B2 (en) * | 2010-11-17 | 2014-12-16 | Verizon Patent And Licensing Inc. | Methods and systems for dynamically presenting enhanced content during a presentation of a media content instance |
| KR101221540B1 (ko) | 2011-02-25 | 2013-01-11 | 주식회사 틴로봇 | 인터랙티브 미디어 매핑 시스템 및 그 방법 |
| US9773285B2 (en) * | 2011-03-08 | 2017-09-26 | Bank Of America Corporation | Providing data associated with relationships between individuals and images |
| KR101892280B1 (ko) * | 2011-09-21 | 2018-08-28 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
| WO2013169080A2 (ko) | 2012-05-11 | 2013-11-14 | Ahn Kang Seok | 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기 |
| EP2763422B1 (en) | 2013-01-31 | 2018-02-21 | Samsung Electronics Co., Ltd | Method and system for displaying object, and method and system for providing the object |
| KR102077305B1 (ko) * | 2013-05-09 | 2020-02-14 | 삼성전자 주식회사 | 증강 현실 정보를 포함하는 콘텐츠 제공 방법 및 장치 |
| US9292764B2 (en) * | 2013-09-17 | 2016-03-22 | Qualcomm Incorporated | Method and apparatus for selectively providing information on objects in a captured image |
| CN103593793A (zh) | 2013-11-15 | 2014-02-19 | 胡泽民 | 广告框、通过该广告框分发电子券的方法及其系统 |
| US9684826B2 (en) * | 2014-08-28 | 2017-06-20 | Retailmenot, Inc. | Reducing the search space for recognition of objects in an image based on wireless signals |
| US9667352B2 (en) * | 2015-01-09 | 2017-05-30 | Facebook, Inc. | Ultrasonic communications for wireless beacons |
| CN105046526B (zh) * | 2015-07-10 | 2018-07-27 | 高峰 | 实时在线的广告自营系统 |
-
2015
- 2015-06-23 KR KR1020150089093A patent/KR102299262B1/ko active Active
-
2016
- 2016-05-17 CN CN201680037182.7A patent/CN107810641B/zh not_active Expired - Fee Related
- 2016-05-17 EP EP16814590.2A patent/EP3280149B1/en not_active Not-in-force
- 2016-05-17 US US15/573,782 patent/US10880610B2/en active Active
- 2016-05-17 WO PCT/KR2016/005193 patent/WO2016208877A1/ko not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20140136510A (ko) * | 2008-09-02 | 2014-11-28 | 퀄컴 인코포레이티드 | 개선된 컨텐트 전달 시스템을 위한 액세스 포인트 |
| US20120188393A1 (en) * | 2011-01-24 | 2012-07-26 | Samsung Electronics Co., Ltd. | Digital photographing apparatuses, methods of controlling the same, and computer-readable storage media |
| KR20130126532A (ko) * | 2012-05-11 | 2013-11-20 | 안강석 | 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기 |
| KR101259957B1 (ko) * | 2012-11-16 | 2013-05-02 | (주)엔써즈 | 이미지 매칭을 이용한 부가 정보 제공 시스템 및 방법 |
| KR20150015944A (ko) * | 2013-08-02 | 2015-02-11 | 주식회사 케이티 | 이미지에 관련된 정보를 제공받는 사용자 디바이스 및 방법 |
Non-Patent Citations (1)
| Title |
|---|
| See also references of EP3280149A4 * |
Also Published As
| Publication number | Publication date |
|---|---|
| US10880610B2 (en) | 2020-12-29 |
| CN107810641B (zh) | 2020-09-22 |
| US20180132003A1 (en) | 2018-05-10 |
| KR20170000191A (ko) | 2017-01-02 |
| EP3280149A1 (en) | 2018-02-07 |
| CN107810641A (zh) | 2018-03-16 |
| KR102299262B1 (ko) | 2021-09-07 |
| EP3280149A4 (en) | 2018-04-18 |
| EP3280149B1 (en) | 2019-02-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2013103243A1 (en) | Method and terminal for sharing content | |
| JP6240363B2 (ja) | 番号マーキング方法、装置、プログラム及び記録媒体 | |
| WO2013182101A1 (zh) | 目标人的确定方法、装置及移动终端 | |
| JP6080561B2 (ja) | 生成機器、制御方法、及びプログラム | |
| KR20190117477A (ko) | 제어 장치 및 방법 | |
| WO2011031090A2 (en) | Wireless connection method and apparatus using image recognition in mobile communication terminal | |
| WO2016208877A1 (ko) | 단말기에서 부가 컨텐츠를 제공하는 방법 및 이를 이용하는 단말기 | |
| WO2018164532A1 (en) | System and method for enhancing augmented reality (ar) experience on user equipment (ue) based on in-device contents | |
| JP2013191059A (ja) | 迷子通知案内システム、迷子通知案内方法、目撃情報配信サーバ、及び、プログラム | |
| CN103379171B (zh) | 通信系统、信息终端及通信方法 | |
| WO2018151518A1 (ko) | 전자 장치의 통신 설정 방법 및 그 장치 | |
| WO2014148691A1 (en) | Mobile device and method for controlling the same | |
| CN103493518A (zh) | 信息处理设备、网络控制设备、无线通信设备、通信系统及信息处理方法 | |
| WO2019147029A1 (ko) | 상점 정보를 수신하는 방법 및 이를 사용하는 전자 장치 | |
| KR101466132B1 (ko) | 카메라 통합 관리 시스템 및 그 방법 | |
| WO2021162323A1 (ko) | 전자 장치 및 상기 전자 장치를 이용한 콘텐츠 운용 방법 | |
| WO2018131852A1 (ko) | 영상 통화를 수행하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록매체 | |
| EP3007098A1 (en) | Method, device and system for realizing visual identification | |
| WO2018088703A1 (ko) | 운전 숙련도를 고려한 주차장 공유 시스템, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체 | |
| TW201501030A (zh) | 數位電子看板資訊獲取方法及系統 | |
| WO2020111488A1 (ko) | 아이오티 장치를 등록하는 전자 장치, 서버 및 그 작동 방법 | |
| WO2019050142A1 (ko) | 슬레이브 디바이스와 데이터 통신을 수행하는 디바이스 및 방법 | |
| WO2018074787A1 (ko) | 컨텐츠를 제공하기 위한 방법 및 그 전자 장치 | |
| WO2021215863A1 (ko) | 스마트 물류 모니터링을 수행하는 장치 및 그 제어 방법 | |
| KR101613355B1 (ko) | 촬영대상 이미지를 이용한 정보 제공 시스템 및 그 방법 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16814590 Country of ref document: EP Kind code of ref document: A1 |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 15573782 Country of ref document: US |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |