WO2013162140A1 - 영상매칭 기반의 스마트폰의 위치자세 결정 방법 및 시스템 - Google Patents
영상매칭 기반의 스마트폰의 위치자세 결정 방법 및 시스템 Download PDFInfo
- Publication number
- WO2013162140A1 WO2013162140A1 PCT/KR2012/009568 KR2012009568W WO2013162140A1 WO 2013162140 A1 WO2013162140 A1 WO 2013162140A1 KR 2012009568 W KR2012009568 W KR 2012009568W WO 2013162140 A1 WO2013162140 A1 WO 2013162140A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- information
- user terminal
- posture
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
- H04W4/026—Services making use of location information using location based information parameters using orientation information, e.g. compass
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/02—Terminal devices
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/0009—Transmission of position information to remote stations
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
- H04W4/027—Services making use of location information using location based information parameters using movement velocity, acceleration information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/52—Network services specially adapted for the location of the user terminal
Definitions
- the present invention relates to a method and system for determining a location of a user terminal such as a smartphone, and more particularly, to a location of a user terminal such as a smartphone using a georeferenced reference image DB previously built in a user terminal itself or a server on a network. And it relates to a method and system for determining the position posture to more accurately determine the information on the posture so that the user terminal can be effectively utilized for location-based services.
- an object of the present invention is to solve the above-described problems, and an object of the present invention is to pre-establish georeferencing in a server on a user terminal or a network with respect to sensor information and image information transmitted by a user terminal such as a smartphone.
- the present invention provides a method and system for determining the location of the user terminal to more accurately determine the location and posture of the user terminal using the reference image DB so that the user terminal can effectively use the information for the location-based service.
- the position posture determination system of the user terminal the position and posture transmitted from the user terminal to work through the network
- a position posture determination server configured to receive related sensor information and a camera image
- the position posture determination server comprises a georeferron according to a bundle adjustment with respect to the positional and posture related sensor information transmitted from the user terminal and the camera image.
- determining a corresponding position information and posture information of the user terminal based on a feedback and feeding back to the user terminal.
- the position attitude determination server may include: an initial position attitude determination module configured to determine initial position information and attitude information of the user terminal based on the sensor information; A database which stores in advance a reference georeferenced image in which each camera position and posture at the time of image acquisition obtained through georeferenced are specified; A search module for searching a reference georeferenced image including an image similar to the received camera image by referring to the database; An image matching module for comparing the received camera images or the received camera images with the searched reference georeferencing images and extracting image point coordinates corresponding to positions of the matched images as conjugate points; And performing a geo-referencing process according to bundle adjustment on the matched image to determine final position information and posture information of the user terminal corresponding to the conjugate point with reference to the database. It includes a position adjustment module for correcting the posture information.
- the sensor information includes position data measured by a GPS module, direction data measured by a compass module, attitude data measured by a gyro sensor, or acceleration data measured by an acceleration sensor.
- the image matching module extracts one or more conjugate points comparing two images of a plurality of camera images transmitted by the user terminal, a conjugate point comparing the camera image transmitted by the user terminal, and the searched reference georeferencing image with each other. And extracting the conjugate points reliably so that the extracted plurality of conjugate points meet at one point so as to have the smallest error.
- the position posture adjusting module uses the conjugate point extracted by the image matching module and sensor information transmitted by the user terminal in real time to determine the final position information and posture information with respect to a camera image and feed back to the user terminal in real time. It is done.
- the user terminal may be configured to communicate with other servers on a network based on the fed back final location information or the attitude information to receive service information related to the location or attitude and display the corresponding information on a map of the screen.
- a method for determining a position of a user terminal comprising: receiving a camera image and position and posture related information obtained by the user terminal from a server interworking with the user terminal through a network; And determining the corresponding position information and the attitude information of the user terminal based on the geo-referencing based on the bundle adjustment with respect to the sensor information and the camera image transmitted by the user terminal from the server and feeding back to the user terminal. It includes a step.
- the reference georeferenced image including the image similar to the camera image is searched by referring to a database in which a reference georeferenced image in which each camera position and posture at the time of image acquisition obtained through georeferenced are acquired is stored in advance.
- the step of obtaining a camera image using a camera measuring the position and attitude-related sensor information using one or more sensors; Determining initial position information and attitude information based on the sensor information;
- the reference georeferenced image including the image similar to the camera image is searched by referring to a database in which a reference georeferenced image in which each camera position and posture at the time of image acquisition obtained through georeferenced are acquired is stored in advance.
- an apparatus for determining a position of a user terminal includes: a camera for acquiring a camera image; A sensor module for measuring position and posture related sensor information; An initial position attitude determination module that determines initial position information and attitude information based on the sensor information; A database which stores in advance a reference georeferenced image in which each camera position and posture at the time of image acquisition obtained through georeferenced are specified; A search module for searching a reference georeferenced image including an image similar to the received camera image by referring to the database; An image matching module for comparing the received camera images or the received camera images with the searched reference georeferencing images and extracting image point coordinates corresponding to positions of the matched images as conjugate points; And performing a geo-referencing process according to bundle adjustment on the matched image to determine final position information and posture information of the user terminal corresponding to the conjugate point with reference to the database. It includes a position adjustment module for correcting the posture information.
- the user terminal can be effectively used for location-based services.
- Information on the position and posture provided to the user terminal can be utilized both indoors and outdoors, and can be effectively used for location-based services such as sophisticated road guidance, additional information, and augmented reality services.
- FIG. 1 is a view for explaining a position determination system of a user terminal according to an embodiment of the present invention.
- FIG. 2 is a detailed block diagram of a user terminal and a location determination server of FIG. 1.
- FIG. 3 is a flowchart illustrating an operation of a system for determining a position of a user terminal according to an embodiment of the present invention.
- FIG. 1 is a view for explaining a position determination system 100 of a user terminal according to an embodiment of the present invention.
- the system for determining the location of a user terminal 100 includes a server for determining a location posture that interlocks with the user terminal 110 through a network.
- a location based service (LBS) server for providing location based service (LBS) information (location based service) information related to the location or posture to the user terminal 110 may be included.
- the network may be the Internet (including Wi-Fi), but is not limited thereto, and may include a wireless mobile communication network such as WCDMA (including 3G or LTE-based 4G), WiBro, or, in some cases, a wired telephone network.
- the user terminal 110 transmits the location and posture related information (sensor information, camera image information, etc.) acquired by the user indoors or outdoors by communicating with the location attitude determination server 120 interworking through such a network.
- the posture determination server 120 may be provided with a service for receiving feedback of the more precisely corrected position and posture related information that corrects the position and posture related information causing the camera image to come out.
- the user terminal 110 is a terminal capable of using a data service by accessing a network (for example, the Internet), and may be a smart phone such as an iPod or an Android phone, but is not limited thereto.
- a network for example, the Internet
- PCS phones personal communications services phones
- IMT-2000 synchronous / asynchronous International Mobile Telecommunication-2000
- PDAs personal digital assistants
- WAP phone personal digital assistant
- WAP phone wireless application protocol phone
- PMP portable multimedia player
- PMP portable multimedia player
- notebook PC a desktop PC, or a palm PC.
- PC Personal Computer
- the user terminal 110 is the final position information (latitude, longitude, altitude, etc.) or posture information (forward direction (Roll axis direction), the right direction of the forward direction (Pitch), accurately estimated and fed back from the position attitude determination server 120) Axial direction), gravity angle (Yaw axis direction, etc.) rotation angle information) to communicate with the LBS server on the network to receive the service information related to the location or attitude to display the information on the map of the screen .
- the user terminal 110 may provide a more sophisticated road guidance service on a map, such as a navigation system, and augmented reality service that synthesizes (virtual) images more precisely for a corresponding posture may be possible. It is possible to provide a variety of additional information provided for the elaborate position and posture of the other user terminal 110.
- the user terminal 110 includes a sensor module 111, a camera 112, and a collection transmission module 113, and the position attitude determination server 120 includes an initial position attitude determination module 121.
- An image database 122, an image search module 123, an image matching module 124, and a position posture adjusting module 125 are included in the user terminal 110.
- the sensor module 111 measures the position and attitude (PA) related sensor information
- the camera The camera 112 generates an image of a camera by capturing an image (a plurality of still images or a video) around the collection apparatus, and the collection transmission module 113 stores the sensor information and the camera image (information) related to the position and pose (PA). Collect and transmit to the position determination server 120 (S10 of FIG. 3).
- the sensor information related to the position and attitude PA measured by the sensor module 111 may include position data (latitude, longitude, altitude, etc.) measured by a GPS (Global Position System) module, and a compass module.
- Angular velocity increments such as direction data (information related to the progress direction), posture data measured by the gyro sensor (forward direction (Roll axis direction), right direction of forward direction (Pitch axis direction), gravity direction (Yaw axis direction), etc.
- rotation angle information related to the rotation angle information or acceleration data measured by the acceleration sensor (acceleration information related to the speed increment in the progressing direction).
- the initial position attitude determination module 121 may determine the user terminal 110 based on the position and posture PA related sensor information.
- Initial position information ( ⁇ , ⁇ , h) (latitude, longitude, altitude, etc.) and posture information ( ⁇ Roll , ⁇ Pitch , ⁇ Yaw ) (forward direction (Roll axis direction), rightward direction) Direction (Pitch axis direction), gravity direction (Yaw axis direction, etc., rotation angle information) are determined (S20 of FIG. 3).
- the initial position attitude determination module 121 estimates the velocity by applying the direction data of the compass module of the position and attitude (PA) related sensor information, the attitude data of the gyro sensor, the acceleration data of the acceleration sensor, and the like to a predetermined navigation equation, and the position information. And posture information, and the initial positional information ⁇ , ⁇ , h (latitude, longitude) as the initial external facial expression element of the user terminal 110 by additionally using positional data of the GPS module using the provided Kalman filter. , Altitude, etc.) and posture information ( ⁇ Roll , ⁇ Pitch , ⁇ Yaw ). Techniques for estimating navigation information related to position or attitude by using such a navigation equation or Kalman filter are well known, and thus detailed description thereof will be omitted.
- the image database 122 has a corresponding camera position ( ⁇ , ⁇ , h) and posture ( ⁇ Roll , ⁇ Pitch , ⁇ Yaw ) at the time of image acquisition obtained through georeferencing (georeferencing).
- the corresponding reference georeferenced image and each image point coordinate (ground coordinates of the image points) are pre-built and stored, and the image retrieval module 123 is received from the user terminal 110 with reference to the image database 122.
- the reference georeferenced image including the image similar to the captured camera image is searched (S30 of FIG. 3).
- the image database 122 stores the image point coordinates as described above and may be usefully used for calculating position or posture related information as described below. However, this is not necessary and may be omitted. Can be replaced by an estimate.
- Geo-referencing uses image data and image data related to the position and posture of a camera acquired using multi-sensors (GPS (Intelligent Positioning System), IMU (Inertial Measurement Unit), digital camera, laser scanner, etc.). Algorithm for acquiring three-dimensional ground coordinate information such as the included ground object or shooting position. Georeferencing process based on AT (Aerial Triangulation) is performed based on continuous position and posture related data such as digital cameras to compensate for external expression factors such as position and posture related data. Coordinates of the image point) and the position and posture of the photographing position can be estimated, and a georeferenced image corresponding to the position and the posture at the time of the photographing can be obtained.
- GPS Intelligent Positioning System
- IMU Inertial Measurement Unit
- digital camera laser scanner, etc.
- Algorithm for acquiring three-dimensional ground coordinate information such as the included ground object or shooting position.
- Georeferencing process based on AT is performed based on continuous position and posture related data such as digital cameras to compensate for external expression factors such
- a reference georeferenced image that specifies each camera position and posture at the time of image acquisition is pre-built and stored in the database 122, and the image retrieval module 123 ) May search for a reference georeferenced image including an image similar to the camera image of the user terminal 110 in the image database 122.
- the image matching module 124 compares the camera images of the user terminal 110 or the camera images with the reference georeferencing image searched by the image retrieval module 123 and compares the camera photographing positions ⁇ , ⁇ ,
- the image point coordinate corresponding to h) can be extracted as a conjugate point (S40 of FIG. 3).
- the conjugation point comparing the camera image transmitted by the user terminal 110 and the searched reference georeferenced image with each other
- the two images of the plurality of camera images transmitted by the user terminal 110 are compared and matched with each other.
- One or more conjugate points may be further extracted, and a reliable conjugate point may be calculated such that the plurality of extracted conjugate points meet at one point with the smallest error.
- image points of a portion where a camera image estimated as the same image with respect to one ground point and a reference georeferencing image found by the image retrieval module 123 are matched on one straight line in a predetermined collinear equation.
- the conditions present must be met.
- multiple collinear equations for one ground point using the method of least squares It can be calculated as a reliable conjugate point that the straight lines of are to meet at the closest error range.
- the position posture adjustment module 125 uses the conjugate point to determine the final external expression element that can obtain the corresponding conjugate point (which causes the camera image to come out). Or the user's terminal by correcting the initial external facial expression elements (initial position information and posture information) determined by the initial position attitude determination module 121 with respect to the portion of the reference georeferenced image (s) (or image points of the image).
- the final external expression element (final position information and attitude information) of 110 may be determined (S50 of FIG. 3), and fed back to the user terminal 110 (S60 of FIG. 3).
- the position posture adjusting module 125 determines final position information and posture information continuously with respect to the PA sensor information and the camera image transmitted by the user terminal 110 in real time and feeds back to the user terminal 110 in real time.
- the reference georeferenced image (including the ground coordinates of the image points) of the matched corresponding part stored in the database 122 may be referred to, and the position posture adjustment module 125 performs the georeferencing process according to the bundle adjustment.
- Georeferencing according to the bundle adjustment is one of the indirect methods of determining the position and attitude of the camera, that is, the user terminal 110 at the time of image acquisition, and the position adjustment module 125 based on the bundle adjustment of the image is limited in probability.
- the position adjustment module 125 based on the bundle adjustment of the image is limited in probability.
- the method of least squares is applied to the initial externally expressed elements (initial position information and pose information).
- the final external expression elements finally converged can be estimated.
- the position and posture at which the final position information and the posture information having the smallest error that can obtain the conjugate point with respect to the matched reference image portion in the predetermined normal equation according to the mathematical model as described above are displayed. Can be estimated as information.
- the user terminal 110 in conjunction with the position determination server 120 on the network illustrated a process of precisely feedback the corresponding position information and attitude information of the user terminal 110, but is not limited thereto.
- the user terminal 110 may directly estimate and use the final external expression element as described above. That is, the user terminal 110 not only includes a sensor module 111, a camera 112, and a collection transmission module 113, but also an initial position attitude determination module 121, an image database 122, and an image search module. 123, the image matching module 124, and the position adjustment module 125 may be included. In this case, the user terminal 110 may directly estimate the precise external expression factors as described above without the need to transmit location and posture related sensor information and a camera image to a server on a network.
- the user terminal 110 is a final external expression element that is directly estimated by itself, or a final external expression element that is precisely estimated and fed back from the position posture determination server 120 on the network, that is, the final location information ( ⁇ , ⁇ , h). (Latitude, longitude, altitude, etc.) or posture information ( ⁇ Roll , ⁇ Pitch , ⁇ Yaw ) to communicate with the LBS server on the network to receive service information related to the location or posture to display the information on the map of the screen You can do it.
- the user terminal 110 may provide a more sophisticated road guidance service on a map, such as a navigation system, and augmented reality service that synthesizes (virtual) images more precisely for a corresponding posture may be possible. It is possible to provide a variety of additional information for the sophisticated position and posture of the other user terminal 110.
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Navigation (AREA)
- Instructional Devices (AREA)
Description
본 발명은 스마트폰 등 사용자 단말의 위치자세 결정 방법 및 시스템에 관한 것으로서, 특히, 사용자 단말 자체 또는 네트워크 상의 서버에서 미리 구축된 지오레퍼런싱된 기준 영상 DB를 이용하여 스마트폰 등 사용자 단말의 위치 및 자세에 대한 정보를 보다 정밀하게 결정하여 사용자 단말에서 이를 위치기반 서비스에 효과적으로 활용될 수 있도록 하기 위한 위치자세 결정 방법 및 시스템에 관한 것이다.
최근 스마트폰의 사용자가 증가하고 그 활용도가 매우 높아지면서 지도 길 안내나 부가정보 제공을 위한 시스템의 필요성이 크게 증가하고 있다. 이런 시스템에서 정보를 제공하기 위해서는 스마트폰의 위치와 자세를 실세계좌표 상에서 정확하게 파악해야 한다. 하지만 현재 단말에 탑재된 GPS를 이용한 사용자의 위치 결정은 그 오차범위가 크고 실내에서는 정보 제공이 불가능에 가깝다는 단점이 있다.
따라서, 본 발명은 상술한 문제점을 해결하기 위한 것으로서, 본 발명의 목적은, 스마트폰 등 사용자 단말이 전송하는 센서 정보와 영상 정보에 대하여, 사용자 단말 또는 네트워크 상의 서버에서 미리 구축된 지오레퍼런싱된 기준 영상 DB를 이용하여 사용자 단말의 위치 및 자세에 대한 정보를 보다 정밀하게 결정하여 사용자 단말에서 이를 위치기반 서비스에 효과적으로 활용될 수 있도록 한 위치자세 결정 방법 및 시스템을 제공하는 데 있다.
먼저, 본 발명의 특징을 요약하면, 상기와 같은 본 발명의 목적을 달성하기 위한 본 발명의 일면에 따른, 사용자 단말의 위치자세 결정 시스템은, 네트워크를 통해 연동하는 사용자 단말에서 전송하는 위치 및 자세 관련 센서정보와 카메라 영상을 수신하는 위치자세결정 서버를 포함하고, 상기 위치자세결정 서버는, 상기 사용자 단말에서 전송하는 상기 위치 및 자세 관련 센서정보와 상기 카메라 영상에 대하여 번들조정에 따른 지오레퍼런싱 기반으로 상기 사용자 단말의 해당 위치 정보와 자세 정보를 결정하여 상기 사용자 단말로 피드백하는 모듈을 포함한다.
상기 위치자세결정 서버는, 상기 센서정보를 기초로 상기 사용자 단말의 초기 위치 정보와 자세 정보를 결정하는 초기 위치자세 결정 모듈; 지오레퍼런싱을 통해 획득된 영상 취득 시의 각 카메라 위치와 자세가 명시된 기준 지오레퍼런싱 영상을 미리 저장한 데이터베이스; 상기 데이터베이스를 참조하여 수신된 카메라 영상과 유사한 영상을 포함하는 기준 지오레퍼런싱 영상을 검색하는 검색모듈; 수신된 카메라 영상끼리 또는 수신된 카메라 영상과 상기 검색된 기준 지오레퍼런싱 영상을 비교해 매칭된 영상의 위치에 대응되는 영상점 좌표를 공액점으로서 추출하는 영상매칭모듈; 및 상기 데이터베이스를 참조해 상기 공액점에 대응되는 상기 사용자 단말의 최종 위치 정보와 자세 정보를 결정하기 위하여, 상기 매칭된 영상에 대해 번들조정에 따른 지오레퍼런싱 과정을 수행하여 상기 초기 위치 정보와 상기 자세 정보를 보정하는 위치자세조정모듈을 포함한다.
상기 센서정보는 GPS 모듈에서 측정한 위치 데이터, 컴파스 모듈에서 측정한 방향 데이터, 자이로 센서에서 측정한 자세 데이터, 또는 가속도 센서에서 측정한 가속도 데이터를 포함한다.
상기 영상매칭모듈은 상기 사용자 단말이 전송하는 복수의 카메라 영상의 두 영상씩 비교한 하나 이상의 공액점과 상기 사용자 단말이 전송하는 카메라 영상과 상기 검색된 기준 지오레퍼런싱 영상을 서로 비교한 공액점을 추출하고, 추출된 복수의 공액점이 가장 오차가 작도록 한점에서 만나도록 하는 신뢰성있는 상기 공액점을 추출하는 것을 특징으로 한다.
상기 위치자세조정모듈은 상기 영상매칭모듈이 추출한 공액점과 상기 사용자 단말이 실시간 전송하는 센서정보를 활용하여, 카메라 영상에 대하여 상기 최종 위치 정보와 자세 정보를 결정하여 상기 사용자 단말로 실시간 피드백하는 것을 특징으로 한다.
상기 사용자 단말은 피드백된 상기 최종 위치 정보 또는 상기 자세 정보를 기초로 네트워크 상의 다른 서버와 통신하여 해당 위치나 자세와 관련된 서비스 정보를 수신하여 화면의 지도 위에 해당 정보를 표시하는 것을 특징으로 한다.
또한, 본 발명의 다른 일면에 따른, 사용자 단말의 위치자세 결정 방법은, 사용자 단말과 네트워크를 통해 연동하는 서버에서 상기 사용자 단말이 획득한 위치 및 자세 관련 정보와 카메라 영상을 수신하는 단계; 및 상기 서버에서 사용자 단말이 전송하는 상기 위치 및 자세 관련 센서정보와 상기 카메라 영상에 대하여 번들조정에 따른 지오레퍼런싱 기반으로 상기 사용자 단말의 해당 위치 정보와 자세 정보를 결정하여 상기 사용자 단말로 피드백하는 단계를 포함한다.
상기 사용자 단말의 해당 위치 정보와 자세 정보를 결정하여 상기 사용자 단말로 피드백하는 단계는, 상기 센서정보를 기초로 상기 사용자 단말의 초기 위치 정보와 자세 정보를 결정하는 단계; 지오레퍼런싱을 통해 획득된 영상 취득 시의 각 카메라 위치와 자세가 명시된 기준 지오레퍼런싱 영상을 미리 저장한 데이터베이스를 참조하여 상기 카메라 영상과 유사한 영상을 포함하는 기준 지오레퍼런싱 영상을 검색하는 단계; 수신된 카메라 영상끼리 또는 수신된 카메라 영상과 상기 검색된 기준 지오레퍼런싱 영상을 비교해 매칭된 영상의 위치에 대응되는 영상점 좌표를 공액점으로서 추출하는 단계; 및 상기 데이터베이스를 참조해 상기 공액점에 대응되는 상기 사용자 단말의 최종 위치 정보와 자세 정보를 결정하기 위하여, 상기 매칭된 영상에 대해 번들조정에 따른 지오레퍼런싱 과정을 수행하여 상기 초기 위치 정보와 상기 자세 정보를 보정하는 단계를 포함한다.
또한, 본 발명의 또 다른 일면에 따른, 카메라를 이용하여 카메라 영상을 획득하고, 하나 이상의 센서를 이용하여 위치 및 자세 관련 센서정보를 측정하는 단계; 상기 센서정보를 기초로 초기 위치 정보와 자세 정보를 결정하는 단계; 지오레퍼런싱을 통해 획득된 영상 취득 시의 각 카메라 위치와 자세가 명시된 기준 지오레퍼런싱 영상을 미리 저장한 데이터베이스를 참조하여 상기 카메라 영상과 유사한 영상을 포함하는 기준 지오레퍼런싱 영상을 검색하는 단계; 수신된 카메라 영상끼리 또는 수신된 카메라 영상과 상기 검색된 기준 지오레퍼런싱 영상을 비교해 매칭된 영상의 위치에 대응되는 영상점 좌표를 공액점으로서 추출하는 단계; 및 상기 데이터베이스를 참조해 상기 공액점에 대응되는 상기 사용자 단말의 최종 위치 정보와 자세 정보를 결정하기 위하여, 상기 매칭된 영상에 대해 번들조정에 따른 지오레퍼런싱 과정을 수행하여 상기 초기 위치 정보와 상기 자세 정보를 보정하는 단계를 포함한다.
그리고, 본 발명의 또 다른 일면에 따른, 사용자 단말의 위치자세 결정 장치는, 카메라 영상을 획득하기 위한 카메라; 위치 및 자세 관련 센서정보를 측정하는 센서 모듈; 상기 센서정보를 기초로 초기 위치 정보와 자세 정보를 결정하는 초기 위치자세 결정 모듈; 지오레퍼런싱을 통해 획득된 영상 취득 시의 각 카메라 위치와 자세가 명시된 기준 지오레퍼런싱 영상을 미리 저장한 데이터베이스; 상기 데이터베이스를 참조하여 수신된 카메라 영상과 유사한 영상을 포함하는 기준 지오레퍼런싱 영상을 검색하는 검색모듈; 수신된 카메라 영상끼리 또는 수신된 카메라 영상과 상기 검색된 기준 지오레퍼런싱 영상을 비교해 매칭된 영상의 위치에 대응되는 영상점 좌표를 공액점으로서 추출하는 영상매칭모듈; 및 상기 데이터베이스를 참조해 상기 공액점에 대응되는 상기 사용자 단말의 최종 위치 정보와 자세 정보를 결정하기 위하여, 상기 매칭된 영상에 대해 번들조정에 따른 지오레퍼런싱 과정을 수행하여 상기 초기 위치 정보와 상기 자세 정보를 보정하는 위치자세조정모듈을 포함한다.
본 발명에 따른 사용자 단말의 위치자세 결정 방법 및 시스템에 따르면, 지오레퍼런싱된 기준 영상 DB와 카메라 영상을 이용하여 사용자 단말의 위치 및 자세에 대한 정보를 보다 정밀하게 결정하여 사용자 단말로 제공함으로써 이를 토대로 사용자 단말에서 위치기반 서비스에 효과적으로 활용할 수 있다. 사용자 단말로 제공된 위치 및 자세에 대한 정보는 실내 및 실외 모두에서 활용이 가능하며, 정교한 길 안내나 추가적 정보제공, 증강현실 서비스 등의 위치기반 서비스에 효과적으로 활용할 수 있다.
도 1은 본 발명의 일실시예에 따른 사용자 단말의 위치자세 결정 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 사용자 단말과 위치자세 결정 서버의 구체적인 블록도이다.
도 3은 본 발명의 일실시예에 따른 사용자 단말의 위치자세 결정 시스템의 동작 설명을 위한 흐름도이다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다.
도 1은 본 발명의 일실시예에 따른 사용자 단말의 위치자세 결정 시스템(100)을 설명하기 위한 도면이다.
도 1을 참조하면, 본 발명의 일실시예에 따른 사용자 단말의 위치자세 결정 시스템(100)은, 사용자 단말(110)과 네트워크를 통해 연동하는 위치자세 결정서버(120)를 포함하며, 네트워크 상에는 사용자 단말(110)에 그 위치나 자세와 관련된 LBS(Location Based Service) 서비스(위치 기반 서비스) 정보를 제공하기 위한 LBS(Location Based Service) 서버가 포함될 수 있다.
여기서, 네트워크는 인터넷(Wi-Fi포함)일 수 있지만, 이에 한정되지 않으며 WCDMA(3G 또는 LTE기반의 4G 포함), WiBro 등의 무선 이동 통신망이나, 경우에 따라서는 유선 전화망 등을 포함할 수 있고, 사용자 단말(110)은 이와 같은 네트워크를 통해 연동하는 위치자세 결정서버(120)와 통신하여 자신이 실내 또는 실외에서 획득한 위치 및 자세 관련 정보(센서 정보, 카메라 영상 정보 등)를 전송하고 위치자세 결정서버(120)로부터 해당 카메라 영상이 나오게 하는 위치 및 자세 관련 정보를 보정한 좀 더 정밀한 보정된 위치 및 자세 관련 정보를 피드백 받는 서비스를 제공받을 수 있다.
사용자 단말(110)은 네트워크(예를 들어, 인터넷)에 접속하여 데이터 서비스를 이용할 수 있는 단말로서, 아이팟, 안드로이드 폰 등의 스마트폰(Smart phone)일 수 있고, 다만 이에 한정되는 것은 아니며, 네트워크를 통해 통신할 수 있는 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone: Personal Communications Services phone), 무선 통신이 가능한 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000), 개인용 디지털 보조기(PDA:Personal Digital Assistant), 왑폰(WAP phone:Wireless application protocol phone), 모바일 게임기(mobile play-station), 기타 PMP(Portable Multimedia Player) 등의 휴대용 또는 이동 단말일 수 있고, 노트북 PC, 데스크탑 PC, 팜 PC(Palm Personal Computer) 등일 수도 있으며, 경우에 따라 다른 전자 기기와 통신할 수 있는 가정용 또는 기업용 사회 전반의 다양한 전자 기기 또는 장치를 포함할 수 있다.
사용자 단말(110)은 위치자세 결정서버(120)로부터 정밀하게 추정되어 피드백된 최종 위치 정보(위도, 경도, 고도 등) 또는 자세 정보(전진방향(Roll축 방향), 전진방향의 우측방향(Pitch 축 방향), 중력 방향(Yaw 축 방향) 등의 회전각 정보)를 기초로 네트워크 상의 LBS서버와 통신하여 해당 위치나 자세와 관련된 서비스 정보를 수신하여 화면의 지도 위에 해당 정보를 표시할 수 있게 된다. 예를 들어, 사용자 단말(110)은 내비게이션 시스템과 같이 지도 위에 좀 더 정교한 길 안내 서비스를 제공할 수 있으며, 좀 더 정교하게 해당 자세에 맞는 (가상) 영상을 합성하는 증강현실 서비스가 가능하고, 기타 사용자 단말(110)의 정교한 위치와 자세에 맞는 다양한 추가적 정보제공의 제공이 가능하다.
이하 도 2의 사용자 단말(110) 및 위치자세 결정서버(120)의 블록도와 도 3의 흐름도를 참조하여 본 발명의 일실시예에 따른 사용자 단말의 위치자세 결정 시스템(100)의 동작을 좀 더 자세히 설명한다.
도 2와 같이, 사용자 단말(110)은 센서 모듈(111), 카메라(112), 및 수집 전송 모듈(113)을 포함하고, 위치자세 결정서버(120)는, 초기 위치자세 결정 모듈(121), 영상 데이터베이스(122), 영상 검색모듈(123), 영상 매칭 모듈(124), 및 위치자세조정모듈(125)을 포함한다.
먼저, 사용자 단말(110)에서는, 사용자의 조작에 따라 또는 본 서비스를 위한 소정 어플리케이션의 동작에 따라, 센서 모듈(111)이 위치 및 자세(PA, Position and Attitude) 관련 센서정보를 측정하고, 카메라(112)가 주변에 영상(복수의 정지 영상 또는 동영상 가능)을 촬영하여 카메라 영상을 생성하며, 수집 전송 모듈(113)이 이와 같은 위치 및 자세(PA) 관련 센서정보와 카메라 영상(정보)을 수집하여, 위치자세 결정서버(120)로 전송한다(도 3의 S10).
여기서, 센서 모듈(111)이 측정하는 위치 및 자세(PA) 관련 센서정보는, GPS(Global Position System) 모듈에서 측정한 위치 데이터(위도, 경도, 고도 등), 컴파스(compass) 모듈에서 측정한 방향 데이터(진행되는 방향과 관련된 정보), 자이로 센서에서 측정한 자세 데이터(전진방향(Roll축 방향), 전진방향의 우측방향(Pitch 축 방향), 중력 방향(Yaw 축 방향) 등의 각속도 증분치와 관련된 회전각 정보), 또는 가속도 센서에서 측정한 가속도 데이터(진행되는 방향의 속도 증분치와 관련된 가속도 정보)를 등 일 수 있다.
이와 같은 위치 및 자세(PA) 관련 센서정보와 카메라 영상이 사용자 단말(110)로부터 전송되면, 초기 위치자세 결정 모듈(121)은 위치 및 자세(PA) 관련 센서정보를 기초로 사용자 단말(110)의 초기 외부 표정요소로서 초기 위치 정보(φ,λ,h)(위도, 경도, 고도 등)와 자세 정보(θRoll, θPitch, θYaw)(전진방향(Roll축 방향), 전진방향의 우측방향(Pitch 축 방향), 중력 방향(Yaw 축 방향) 등의 회전각 정보)를 결정한다(도 3의 S20).
초기 위치자세 결정 모듈(121)은 위치 및 자세(PA) 관련 센서정보의 컴파스 모듈의 방향 데이터, 자이로 센서의 자세 데이터, 가속도 센서의 가속도 데이터 등을 소정 항법 방정식에 적용하여 속도를 추정하고 위치 정보와 자세 정보를 결정할 수 있으며, 구비된 칼만 필터를 이용해 GPS 모듈의 위치 데이터를 추가적으로 이용하여 사용자 단말(110)의 초기 외부 표정요소로서 위와 같은 초기 위치 정보(φ,λ,h)(위도, 경도, 고도 등)와 자세 정보(θRoll, θPitch, θYaw)를 결정할 수 있다. 이와 같은 항법 방정식이나 칼만 필터를 이용하여 위치나 자세와 관련된 항법 정보를 추정하는 기술은 잘 알려져 있으므로 자세한 설명은 생략한다.
한편, 영상 데이터베이스(122)에는 지오레퍼런싱(georeferencing, 지리참조)을 통해 획득된 영상 취득 시의 각 해당 카메라 위치(φ,λ,h)와 자세(θRoll, θPitch, θYaw)에 대응되는 기준 지오레퍼런싱 영상과 각 영상점 좌표(영상점들의 지상 좌표)가 미리 구축되어 저장되어 있으며, 영상 검색모듈(123)은 영상 데이터베이스(122)를 참조하여 사용자 단말(110)로부터 수신된 카메라 영상과 유사한 영상을 포함하는 기준 지오레퍼런싱 영상을 검색한다(도 3의 S30). 영상 데이터베이스(122)에는 위와 같은 영상점 좌표가 저장되어 하기하는 바와 같은 위치 또는 자세 관련 정보의 산출에 유용하게 사용될 수 있지만, 이는 반드시 필요한 것은 아니고 생략가능하며, 영상에서의 해당 임의의 상대 좌표의 추정으로 대체될 수 있다.
지오레퍼런싱은 멀티센서(GPS(Global Positioning System), IMU(Inertial Measurement Unit), 디지털 카메라, 레이져 스캐너 등)을 이용해 획득된 카메라의 위치 및 자세 관련 데이터와 영상 데이터 등을 이용하여, 영상에 포함된 지상물이나 촬영 위치 등의 3차원 지상 좌표 정보를 획득하기 위한 알고리즘이다. 디지털 카메라 등의 연속적인 위치 및 자세 관련 데이터를 기반으로 AT(Aerial Triangulation)에 따른 지오레퍼런싱 과정을 수행하여 위치 및 자세 관련 데이터 등 외부표정요소를 보정해나가며 영상에 포함된 지상물(또는 영상점)의 좌표나 촬영 위치의 위치 및 자세를 추정할 수 있고 해당 촬영 시의 위치 및 자세에 대응된 지오레퍼런싱된 영상을 획득할 수 있다.
이와 같은 지오레퍼런싱(georeferencing, 지리참조)을 통해 영상 취득 시의 각 카메라 위치와 자세가 명시된 기준 지오레퍼런싱된 영상이 데이터베이스(122)에 미리 구축되어 저장되어 있으며, 영상 검색모듈(123)은 이와 같은 영상 데이터베이스(122)에서 사용자 단말(110)의 카메라 영상과 유사한 영상이 포함된 기준 지오레퍼런싱 영상을 검색할 수 있다.
영상 매칭 모듈(124)은 사용자 단말(110)의 카메라 영상끼리 또는 카메라 영상과 영상 검색모듈(123)에서 검색된 상기 기준 지오레퍼런싱 영상을 비교해 매칭된 영상에 대한 카메라 촬영 위치(φ,λ,h)에 대응되는 영상점 좌표를 공액점으로서 추출할 수 있다(도 3의 S40). 이때 사용자 단말(110)이 전송하는 카메라 영상과 상기 검색된 기준 지오레퍼런싱 영상을 서로 비교한 공액점 이외에, 사용자 단말(110)이 전송하는 복수의 카메라 영상의 두 영상씩 비교해 매칭된 영상 부분에 대한 하나 이상의 공액점들을 더 추출할 수 있으며, 이와 같이 추출된 복수의 공액점이 가장 오차가 작도록 한점에서 만나도록 하는 신뢰성있는 공액점이 계산될 수 있다.
예를 들어, 하나의 지상점에 대해 동일 영상으로 추정된 카메라 영상과 영상 검색모듈(123)에서 검색된 기준 지오레퍼런싱 영상이 매칭된 부분의 영상점들은 소정의 공선방정식에서 하나의 직선 상에 존재하는 조건을 만족하여야 한다. 그러나, 동일 지상점이라 하더라도 영상점(공액점) 좌표의 오차로 인해 하나의 해당 지상점에서 만나지 않는 경우가 있으므로, 최소 제곱법(method of least squares)을 이용하여 하나의 지상점에 대한 복수 공선방정식의 직선들이 가장 오차가 작은 근접 범위에서 만나도록 하는 점을 신뢰성있는 공액점으로 계산할 수 있다.
이와 같이 공액점이 산출되면, 위치자세 조정모듈(125)은 공액점을 이용해 해당 공액점을 획득할 수 있는(해당 카메라 영상이 나오게 하는) 최종 외부표정요소를 결정하기 위하여, 위와 같이 매칭된 카메라 영상(들) 또는 기준 지오레퍼런싱된 영상(들)(또는 영상의 영상점들) 부분에 대해 초기 위치자세 결정 모듈(121)이 결정한 초기 외부 표정요소(초기 위치 정보와 자세 정보)를 보정하여 사용자 단말(110)의 최종 외부표정요소(최종 위치 정보와 자세 정보)를 결정하고(도 3의 S50), 사용자 단말(110)로 피드백할 수 있다(도 3의 S60). 이때 위치자세 조정모듈(125)은 사용자 단말(110)이 실시간 전송하는 PA 센서정보와 카메라 영상에 대하여 연속적으로 최종 위치 정보와 자세 정보를 결정하여 사용자 단말(110)로 실시간 피드백하게 된다. 이때 데이터베이스(122)에 저장된 매칭된 해당 부분의 기준 지오레퍼런싱된 영상(영상점들의 지상 좌표 포함)이 참조될 수 있으며, 위치자세조정모듈(125)은 번들조정에 따른 지오레퍼런싱 과정을 수행하여 초기 외부 표정요소(초기 위치 정보와 자세 정보)에 대한 보정을 수행하며 해당 영상을 촬영하는 사용자 단말(110)의 지상 (촬영) 좌표를 정밀하게 추정할 수 있다.
번들조정에 따른 지오레퍼런싱은 영상 획득시의 카메라, 즉 사용자 단말(110)의 위치 및 자세를 결정하는 Indirect 방법 중의 하나로서, 영상의 번들조정 기반의 위치자세조정모듈(125)은 확률제약조건을 갖는 공선조건식을 이용한 수학적 모델(Gauss -Markov with Stochastic Constraints 모델)을 이용하고 위와 같이 매칭된 영상(들)(또는 영상의 영상점들) 부분에 대해, 데이터베이스(122)의 각 카메라 위치 및 자세에 대한 기준 지오레퍼런싱된 영상(영상점들의 지상 좌표 포함)을 참조하여, 위와 같은 초기 외부표정요소(초기 위치 정보와 자세 정보)에 대해 최소 제곱법(method of least squares)을 적용하여, 위와 같은 수학적 모델의 소정 정규 방정식을 반복 계산함으로써, 최종적으로 수렴되는 최종 외부표정요소(최종 위치 정보와 자세 정보)를 추정할 수 있다. 이와 같이 과정에 따라 위와 같은 수학적 모델에 따른 소정 정규 방정식에서 해당 매칭된 기준 영상 부분에 대해 상기 공액점을 획득할 수 있는 가장 오차가 적은 최종 위치 정보와 자세 정보가 해당 카메라 영상이 나오게 하는 위치 및 자세 정보로서 추정될 수 있다.
위에서 기술한 바와 같이, 사용자 단말(110)이 네트워크 상의 위치자세 결정서버(120)와 연동하여 사용자 단말(110)의 해당 위치 정보와 자세 정보를 정밀하게 피드백받는 과정을 예시하였으나, 이에 한정되지 않으며 위와 같은 위치자세 결정서버(120)의 구성 요소들을 사용자 단말(110)에 위치자세 결정 장치로서 내장함으로써, 사용자 단말(110)이 직접 위와 같은 최종 외부표정요소를 추정하여 사용할 수도 있다. 즉, 사용자 단말(110)은 센서 모듈(111), 카메라(112), 및 수집 전송 모듈(113)을 포함할 뿐만 아니라, 초기 위치자세 결정 모듈(121), 영상 데이터베이스(122), 영상 검색모듈(123), 영상 매칭 모듈(124), 및 위치자세조정모듈(125)을 모두 포함할 수도 있다. 이때, 사용자 단말(110)은 위치 및 자세 관련 센서정보와 카메라 영상 등을 네트워크 상의 서버로 전송할 필요없이 직접 위와 같은 정밀한 최종 외부표정요소를 추정할 수 있다.
사용자 단말(110)은 자체에서 직접 추정한 최종 외부표정요소, 또는 네트워크 상의 위치자세 결정서버(120)로부터 정밀하게 추정되어 피드백된 최종 외부표정요소, 즉, 최종 위치 정보(φ,λ,h)(위도, 경도, 고도 등) 또는 자세 정보(θRoll, θPitch, θYaw)를 기초로 네트워크 상의 LBS서버와 통신하여 해당 위치나 자세와 관련된 서비스 정보를 수신하여 화면의 지도 위에 해당 정보를 표시할 수 있게 된다. 예를 들어, 사용자 단말(110)은 내비게이션 시스템과 같이 지도 위에 좀 더 정교한 길 안내 서비스를 제공할 수 있으며, 좀 더 정교하게 해당 자세에 맞는 (가상) 영상을 합성하는 증강현실 서비스가 가능하고, 기타 사용자 단말(110)의 정교한 위치와 자세에 맞는 다양한 추가적 정보제공의 제공이 가능하다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
Claims (10)
- 네트워크를 통해 연동하는 사용자 단말에서 전송하는 위치 및 자세 관련 센서정보와 카메라 영상을 수신하는 위치자세결정 서버를 포함하고,상기 위치자세결정 서버는, 상기 사용자 단말에서 전송하는 상기 위치 및 자세 관련 센서정보와 상기 카메라 영상에 대하여 번들조정에 따른 지오레퍼런싱 기반으로 상기 사용자 단말의 해당 위치 정보와 자세 정보를 결정하여 상기 사용자 단말로 피드백하는 모듈을 포함하는 것을 특징으로 하는 사용자 단말의 위치자세 결정 시스템.
- 제1항에 있어서,상기 위치자세결정 서버는,상기 센서정보를 기초로 상기 사용자 단말의 초기 위치 정보와 자세 정보를 결정하는 초기 위치자세 결정 모듈;지오레퍼런싱을 통해 획득된 영상 취득 시의 각 카메라 위치와 자세가 명시된 기준 지오레퍼런싱 영상을 미리 저장한 데이터베이스;상기 데이터베이스를 참조하여 수신된 카메라 영상과 유사한 영상을 포함하는 기준 지오레퍼런싱 영상을 검색하는 검색모듈;수신된 카메라 영상끼리 또는 수신된 카메라 영상과 상기 검색된 기준 지오레퍼런싱 영상을 비교해 매칭된 영상의 위치에 대응되는 영상점 좌표를 공액점으로서 추출하는 영상매칭모듈; 및상기 데이터베이스를 참조해 상기 공액점에 대응되는 상기 사용자 단말의 최종 위치 정보와 자세 정보를 결정하기 위하여, 상기 매칭된 영상에 대해 번들조정에 따른 지오레퍼런싱 과정을 수행하여 상기 초기 위치 정보와 상기 자세 정보를 보정하는 위치자세조정모듈을 포함하는 것을 특징으로 하는 사용자 단말의 위치자세 결정 시스템.
- 제1항에 있어서,상기 센서정보는 GPS 모듈에서 측정한 위치 데이터, 컴파스 모듈에서 측정한 방향 데이터, 자이로 센서에서 측정한 자세 데이터, 또는 가속도 센서에서 측정한 가속도 데이터를 포함하는 것을 특징으로 하는 사용자 단말의 위치자세 결정 시스템.
- 제2항에 있어서,상기 영상매칭모듈은 상기 사용자 단말이 전송하는 복수의 카메라 영상의 두 영상씩 비교한 하나 이상의 공액점과 상기 사용자 단말이 전송하는 카메라 영상과 상기 검색된 기준 지오레퍼런싱 영상을 서로 비교한 공액점을 추출하고, 추출된 복수의 공액점이 가장 오차가 작도록 한점에서 만나도록 하는 신뢰성있는 상기 공액점을 추출하는 것을 특징으로 하는 사용자 단말의 위치자세 결정 시스템.
- 제2항에 있어서,상기 위치자세조정모듈은 상기 사용자 단말이 실시간 전송하는 센서정보와 카메라 영상에 대하여 상기 최종 위치 정보와 자세 정보를 결정하여 상기 사용자 단말로 실시간 피드백하는 것을 특징으로 하는 사용자 단말의 위치자세 결정 시스템.
- 제1항에 있어서,상기 사용자 단말은 피드백된 상기 최종 위치 정보 또는 상기 자세 정보를 기초로 네트워크 상의 다른 서버와 통신하여 해당 위치나 자세와 관련된 서비스 정보를 수신하여 화면의 지도 위에 해당 정보를 표시하는 것을 특징으로 하는 사용자 단말의 위치자세 결정 시스템.
- 사용자 단말과 네트워크를 통해 연동하는 서버에서 상기 사용자 단말이 획득한 위치 및 자세 관련 정보와 카메라 영상을 수신하는 단계; 및상기 서버에서 사용자 단말이 전송하는 상기 위치 및 자세 관련 센서정보와 상기 카메라 영상에 대하여 번들조정에 따른 지오레퍼런싱 기반으로 상기 사용자 단말의 해당 위치 정보와 자세 정보를 결정하여 상기 사용자 단말로 피드백하는 단계를 포함하는 것을 특징으로 하는 사용자 단말의 위치자세 결정 방법.
- 제7항에 있어서,상기 사용자 단말의 해당 위치 정보와 자세 정보를 결정하여 상기 사용자 단말로 피드백하는 단계는,상기 센서정보를 기초로 상기 사용자 단말의 초기 위치 정보와 자세 정보를 결정하는 단계;지오레퍼런싱을 통해 획득된 영상 취득 시의 각 카메라 위치와 자세가 명시된 기준 지오레퍼런싱 영상을 미리 저장한 데이터베이스를 참조하여 수신된 카메라 영상과 유사한 영상을 포함하는 기준 지오레퍼런싱 영상을 검색하는 단계;수신된 카메라 영상끼리 또는 수신된 카메라 영상과 상기 검색된 기준 지오레퍼런싱 영상을 비교해 매칭된 영상의 위치에 대응되는 영상점 좌표를 공액점으로서 추출하는 단계; 및상기 데이터베이스를 참조해 상기 공액점에 대응되는 상기 사용자 단말의 최종 위치 정보와 자세 정보를 결정하기 위하여, 상기 매칭된 영상에 대해 번들조정에 따른 지오레퍼런싱 과정을 수행하여 상기 초기 위치 정보와 상기 자세 정보를 보정하는 단계를 포함하는 것을 특징으로 하는 사용자 단말의 위치자세 결정 방법.
- 카메라를 이용하여 카메라 영상을 획득하고, 하나 이상의 센서를 이용하여 위치 및 자세 관련 센서정보를 측정하는 단계;상기 센서정보를 기초로 초기 위치 정보와 자세 정보를 결정하는 단계;지오레퍼런싱을 통해 획득된 영상 취득 시의 각 카메라 위치와 자세가 명시된 기준 지오레퍼런싱 영상을 미리 저장한 데이터베이스를 참조하여 상기 카메라 영상과 유사한 영상을 포함하는 기준 지오레퍼런싱 영상을 검색하는 단계;상기 카메라 영상과 상기 검색된 기준 지오레퍼런싱 영상을 비교해 매칭된 영상의 위치에 대응되는 영상점 좌표를 공액점으로서 추출하는 단계; 및상기 데이터베이스를 참조해 상기 공액점에 대응되는 상기 사용자 단말의 최종 위치 정보와 자세 정보를 결정하기 위하여, 상기 매칭된 영상에 대해 번들조정에 따른 지오레퍼런싱 과정을 수행하여 상기 초기 위치 정보와 상기 자세 정보를 보정하는 단계를 포함하는 것을 특징으로 하는 사용자 단말에서 위치자세 결정 방법.
- 카메라 영상을 획득하기 위한 카메라; 위치 및 자세 관련 센서정보를 측정하는 센서 모듈; 상기 센서정보를 기초로 초기 위치 정보와 자세 정보를 결정하는 초기 위치자세 결정 모듈;지오레퍼런싱을 통해 획득된 영상 취득 시의 각 카메라 위치와 자세가 명시된 기준 지오레퍼런싱 영상을 미리 저장한 데이터베이스;상기 데이터베이스를 참조하여 상기 카메라 영상과 유사한 영상을 포함하는 기준 지오레퍼런싱 영상을 검색하는 검색모듈;상기 카메라 영상과 상기 검색된 기준 지오레퍼런싱 영상을 비교해 매칭된 영상의 위치에 대응되는 영상점 좌표를 공액점으로서 추출하는 영상매칭모듈; 및상기 데이터베이스를 참조해 상기 공액점에 대응되는 상기 사용자 단말의 최종 위치 정보와 자세 정보를 결정하기 위하여, 상기 매칭된 영상에 대해 번들조정에 따른 지오레퍼런싱 과정을 수행하여 상기 초기 위치 정보와 상기 자세 정보를 보정하는 위치자세조정모듈을 포함하는 것을 특징으로 하는 사용자 단말의 위치자세 결정 장치.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201280072738.8A CN104335649B (zh) | 2012-04-26 | 2012-11-14 | 基于图像匹配的确定智能手机位置和姿态的方法和系统 |
| US14/397,275 US9749809B2 (en) | 2012-04-26 | 2012-11-14 | Method and system for determining the location and position of a smartphone based on image matching |
| EP12875140.1A EP2844009B1 (en) | 2012-04-26 | 2012-11-14 | Method and system for determining location and position of image matching-based smartphone |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2012-0043618 | 2012-04-26 | ||
| KR20120043618A KR101356192B1 (ko) | 2012-04-26 | 2012-04-26 | 영상매칭 기반의 스마트폰의 위치자세 결정 방법 및 시스템 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2013162140A1 true WO2013162140A1 (ko) | 2013-10-31 |
Family
ID=49483401
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2012/009568 Ceased WO2013162140A1 (ko) | 2012-04-26 | 2012-11-14 | 영상매칭 기반의 스마트폰의 위치자세 결정 방법 및 시스템 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US9749809B2 (ko) |
| EP (1) | EP2844009B1 (ko) |
| KR (1) | KR101356192B1 (ko) |
| CN (1) | CN104335649B (ko) |
| WO (1) | WO2013162140A1 (ko) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN103900473A (zh) * | 2014-03-31 | 2014-07-02 | 浙江大学 | 一种基于摄像头与重力感应器融合的智能移动设备六自由度位姿估计方法 |
| CN111143489A (zh) * | 2018-11-06 | 2020-05-12 | 北京嘀嘀无限科技发展有限公司 | 基于图像的定位方法及装置、计算机设备和可读存储介质 |
| CN113473379A (zh) * | 2020-03-31 | 2021-10-01 | 安克创新科技股份有限公司 | 一种判断目标是否回到指定地点的方法 |
Families Citing this family (36)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20140227977A1 (en) * | 2013-02-12 | 2014-08-14 | Zary Segall | Method, node, device, and computer program for interaction |
| IL228735B (en) * | 2013-10-06 | 2018-10-31 | Israel Aerospace Ind Ltd | A system and method for determining target direction |
| EP3176757A4 (en) * | 2014-08-01 | 2018-02-28 | Sony Corporation | Information processing device, information processing method, and program |
| CN105578591A (zh) * | 2014-10-10 | 2016-05-11 | 华为技术有限公司 | 定位的方法、定位服务器和终端 |
| GB2546954A (en) * | 2015-04-17 | 2017-08-09 | Cinime Asia Pacific Pte Ltd | A location method and system |
| KR102432806B1 (ko) * | 2015-10-26 | 2022-08-12 | 한화테크윈 주식회사 | 감시 시스템 및 그 제어 방법 |
| CN107666492B (zh) * | 2016-07-25 | 2021-07-27 | 中兴通讯股份有限公司 | 一种控制方法、服务传感器、服务装置及终端 |
| KR101868855B1 (ko) * | 2016-09-02 | 2018-06-19 | 주식회사 씨앤더블유커뮤니케이션 | 증강현실을 이용한 음악컨텐츠 서비스 제공방법 |
| CN106681000B (zh) * | 2016-11-22 | 2020-09-11 | 宇龙计算机通信科技(深圳)有限公司 | 一种增强现实注册装置及其方法 |
| CN106803844B (zh) * | 2017-03-01 | 2019-02-15 | 维沃移动通信有限公司 | 一种灯光控制方法及移动终端 |
| US20180350056A1 (en) * | 2017-06-01 | 2018-12-06 | Tesla, Inc. | Augmented reality application for manufacturing |
| WO2019124236A1 (ja) | 2017-12-19 | 2019-06-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 送信方法、受信方法、送信装置、および受信装置 |
| CN110514181A (zh) * | 2018-05-22 | 2019-11-29 | 杭州萤石软件有限公司 | 一种电子设备定位方法和装置 |
| CN108897830B (zh) * | 2018-06-22 | 2022-04-29 | 北京邮电大学 | 一种定位方法及装置 |
| US11232635B2 (en) | 2018-10-05 | 2022-01-25 | Magic Leap, Inc. | Rendering location specific virtual content in any location |
| US11924709B2 (en) * | 2019-01-07 | 2024-03-05 | Signify Holding B.V. | Controller, system and method for providing a location-based service to an area |
| CN110275968A (zh) * | 2019-06-26 | 2019-09-24 | 北京百度网讯科技有限公司 | 图像数据处理方法和装置 |
| DE102019211871B4 (de) * | 2019-08-07 | 2021-04-22 | Siemens Schweiz Ag | Verfahren und Anordnung zur Darstellung von technischen Objekten |
| CN112348886B (zh) * | 2019-08-09 | 2024-05-14 | 华为技术有限公司 | 视觉定位方法、终端和服务器 |
| US11871114B2 (en) * | 2019-10-04 | 2024-01-09 | Visit Inc. | System and method for producing panoramic image content |
| EP4046139A4 (en) | 2019-10-15 | 2023-11-22 | Magic Leap, Inc. | EXTENDED REALITY SYSTEM WITH LOCATION SERVICE |
| EP4046070A4 (en) | 2019-10-15 | 2023-10-18 | Magic Leap, Inc. | CROSS-REALLY SYSTEM THAT SUPPORTS MULTIPLE DEVICE TYPES |
| US11632679B2 (en) | 2019-10-15 | 2023-04-18 | Magic Leap, Inc. | Cross reality system with wireless fingerprints |
| WO2021087065A1 (en) | 2019-10-31 | 2021-05-06 | Magic Leap, Inc. | Cross reality system with quality information about persistent coordinate frames |
| KR20220008328A (ko) * | 2019-11-02 | 2022-01-20 | 가마니아 디지털 엔터테인먼트 코., 엘티디 | 실제와 가상을 결합한 위치 추적 방법 |
| CN111026107B (zh) * | 2019-11-08 | 2024-06-25 | 北京外号信息技术有限公司 | 用于确定可移动物体的位置的方法和系统 |
| CN114730546B (zh) | 2019-11-12 | 2025-05-30 | 奇跃公司 | 具有定位服务和基于位置的共享内容的交叉现实系统 |
| EP4073763A4 (en) | 2019-12-09 | 2023-12-27 | Magic Leap, Inc. | EXTENDED REALITY SYSTEM WITH SIMPLIFIED VIRTUAL CONTENT PROGRAMMING |
| WO2021163300A1 (en) * | 2020-02-13 | 2021-08-19 | Magic Leap, Inc. | Cross reality system with map processing using multi-resolution frame descriptors |
| US11410395B2 (en) | 2020-02-13 | 2022-08-09 | Magic Leap, Inc. | Cross reality system with accurate shared maps |
| CN115398484A (zh) | 2020-02-13 | 2022-11-25 | 奇跃公司 | 具有用于定位的地理定位信息优先级的交叉现实系统 |
| US11551430B2 (en) | 2020-02-26 | 2023-01-10 | Magic Leap, Inc. | Cross reality system with fast localization |
| CN113654548A (zh) * | 2021-07-16 | 2021-11-16 | 北京百度网讯科技有限公司 | 定位方法、装置、电子设备及存储介质 |
| KR102650141B1 (ko) * | 2021-12-09 | 2024-03-20 | 서정호 | 위치기반 증강현실 제어 시스템 |
| CN115115808A (zh) * | 2022-05-09 | 2022-09-27 | 北京爱笔科技有限公司 | 导航方法、装置、计算机设备和存储介质 |
| CN115633122B (zh) * | 2022-12-07 | 2023-03-28 | 广州市影擎电子科技有限公司 | 基于手机的伺服运动轨迹录制方法及装置 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20110004974A (ko) * | 2009-07-09 | 2011-01-17 | 에스케이 텔레콤주식회사 | 증강 현실을 이용한 위치 기반 서비스 제공 방법과 그를 위한 시스템, 서버 및 휴대용 단말기 |
| KR20110004940A (ko) * | 2009-07-09 | 2011-01-17 | 주식회사 인스프리트 | 가상화 처리서버 및 dcd 컨텐츠를 이용한 증강현실 제공 시스템 |
| KR20110021464A (ko) * | 2009-08-26 | 2011-03-04 | 주식회사 팬택 | 3차원 위치영상 제공 방법 및 시스템 |
| KR20110032765A (ko) * | 2009-09-24 | 2011-03-30 | 삼성전자주식회사 | 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치 |
| KR20110064712A (ko) * | 2009-12-08 | 2011-06-15 | 숭실대학교산학협력단 | 통합센서 기반의 모션 캡쳐 시스템 |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004328134A (ja) | 2003-04-22 | 2004-11-18 | Fuji Photo Film Co Ltd | 画像処理サーバ |
| EP1839193A1 (en) * | 2004-12-31 | 2007-10-03 | Nokia Corporation | Provision of target specific information |
| US8483442B2 (en) | 2007-02-16 | 2013-07-09 | Mitsubishi Electric Corporation | Measurement apparatus, measurement method, and feature identification apparatus |
| JP4821903B2 (ja) | 2009-09-30 | 2011-11-24 | カシオ計算機株式会社 | 表示端末、サーバ装置、画像共有システム、及び画像共有方法 |
| US8427536B2 (en) * | 2009-11-19 | 2013-04-23 | Qualcomm Incorporated | Orientation determination of a mobile station using side and top view images |
| FR2960082B1 (fr) | 2010-05-17 | 2012-08-10 | Commissariat Energie Atomique | Procede et systeme pour fusionner des donnees issues de capteurs d'images et de capteurs de mouvement ou de position |
-
2012
- 2012-04-26 KR KR20120043618A patent/KR101356192B1/ko active Active
- 2012-11-14 CN CN201280072738.8A patent/CN104335649B/zh active Active
- 2012-11-14 WO PCT/KR2012/009568 patent/WO2013162140A1/ko not_active Ceased
- 2012-11-14 US US14/397,275 patent/US9749809B2/en active Active
- 2012-11-14 EP EP12875140.1A patent/EP2844009B1/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20110004974A (ko) * | 2009-07-09 | 2011-01-17 | 에스케이 텔레콤주식회사 | 증강 현실을 이용한 위치 기반 서비스 제공 방법과 그를 위한 시스템, 서버 및 휴대용 단말기 |
| KR20110004940A (ko) * | 2009-07-09 | 2011-01-17 | 주식회사 인스프리트 | 가상화 처리서버 및 dcd 컨텐츠를 이용한 증강현실 제공 시스템 |
| KR20110021464A (ko) * | 2009-08-26 | 2011-03-04 | 주식회사 팬택 | 3차원 위치영상 제공 방법 및 시스템 |
| KR20110032765A (ko) * | 2009-09-24 | 2011-03-30 | 삼성전자주식회사 | 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치 |
| KR20110064712A (ko) * | 2009-12-08 | 2011-06-15 | 숭실대학교산학협력단 | 통합센서 기반의 모션 캡쳐 시스템 |
Non-Patent Citations (1)
| Title |
|---|
| See also references of EP2844009A4 * |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN103900473A (zh) * | 2014-03-31 | 2014-07-02 | 浙江大学 | 一种基于摄像头与重力感应器融合的智能移动设备六自由度位姿估计方法 |
| CN111143489A (zh) * | 2018-11-06 | 2020-05-12 | 北京嘀嘀无限科技发展有限公司 | 基于图像的定位方法及装置、计算机设备和可读存储介质 |
| CN111143489B (zh) * | 2018-11-06 | 2024-01-09 | 北京嘀嘀无限科技发展有限公司 | 基于图像的定位方法及装置、计算机设备和可读存储介质 |
| CN113473379A (zh) * | 2020-03-31 | 2021-10-01 | 安克创新科技股份有限公司 | 一种判断目标是否回到指定地点的方法 |
| CN113473379B (zh) * | 2020-03-31 | 2022-08-30 | 安克创新科技股份有限公司 | 一种判断目标是否回到指定地点的方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| EP2844009A4 (en) | 2015-12-30 |
| EP2844009A1 (en) | 2015-03-04 |
| KR101356192B1 (ko) | 2014-01-24 |
| KR20130120598A (ko) | 2013-11-05 |
| EP2844009B1 (en) | 2018-07-11 |
| CN104335649A (zh) | 2015-02-04 |
| US20150126223A1 (en) | 2015-05-07 |
| US9749809B2 (en) | 2017-08-29 |
| CN104335649B (zh) | 2018-09-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2013162140A1 (ko) | 영상매칭 기반의 스마트폰의 위치자세 결정 방법 및 시스템 | |
| JP5255595B2 (ja) | 端末位置特定システム、及び端末位置特定方法 | |
| JP5843288B2 (ja) | 情報提示システム | |
| CN112785715A (zh) | 虚拟物体显示方法以及电子设备 | |
| CN101794316A (zh) | 基于gps定位和方向识别的实景咨信系统及坐标偏移方法 | |
| JP5981371B2 (ja) | 姿勢によって拡張現実感の表示を制御する情報端末、システム、プログラム及び方法 | |
| KR102622585B1 (ko) | 실내 길안내 장치 및 그 방법 | |
| CN115225815B (zh) | 目标智能追踪拍摄方法、服务器、拍摄系统、设备及介质 | |
| KR100968837B1 (ko) | 촬영된 객체에 대한 정보를 제공하는 휴대용 카메라 시스템 | |
| CN105606086A (zh) | 一种定位方法及终端 | |
| CN107607110A (zh) | 一种基于图像和惯导技术的定位方法及系统 | |
| JP7001711B2 (ja) | カメラ撮影画像を用いる位置情報システム、及びそれに用いるカメラ付き情報機器 | |
| JP5274192B2 (ja) | 位置推定システム、位置推定サーバおよび位置推定方法 | |
| US20160169662A1 (en) | Location-based facility management system using mobile device | |
| US8463299B1 (en) | Displaying a digital version of a paper map and a location of a mobile device on the digital version of the map | |
| KR101573289B1 (ko) | 위치 측정 방법 및 이를 이용한 휴대 단말기 | |
| CN101616225B (zh) | 一种为数码相片提供地理信息标签的终端服务方法 | |
| US9689673B2 (en) | Target determining method and system | |
| KR101601726B1 (ko) | 복수의 영상 획득 장치를 포함하는 모바일 단말기의 위치 및 자세 결정 방법 및 시스템 | |
| KR102825186B1 (ko) | 기지국 안테나 정보 관리 시스템 및 방법 | |
| WO2006043319A1 (ja) | 端末及びサーバ | |
| KR102603467B1 (ko) | 디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 측위 오차 보정 시스템 및 그 방법 | |
| KR102010252B1 (ko) | 증강 현실 서비스 제공 장치 및 방법 | |
| WO2024057779A1 (ja) | 情報処理装置、プログラムおよび情報処理システム | |
| US20190272426A1 (en) | Localization system and method and computer readable storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12875140 Country of ref document: EP Kind code of ref document: A1 |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2012875140 Country of ref document: EP |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 14397275 Country of ref document: US |