BRPI1106304A2 - aparelho, mÉtodo, e, dispositivo de armazenamento legÍvel por computador - Google Patents

aparelho, mÉtodo, e, dispositivo de armazenamento legÍvel por computador Download PDF

Info

Publication number
BRPI1106304A2
BRPI1106304A2 BRPI1106304-1A BRPI1106304A BRPI1106304A2 BR PI1106304 A2 BRPI1106304 A2 BR PI1106304A2 BR PI1106304 A BRPI1106304 A BR PI1106304A BR PI1106304 A2 BRPI1106304 A2 BR PI1106304A2
Authority
BR
Brazil
Prior art keywords
dimensional model
image
physical objects
partial image
unit
Prior art date
Application number
BRPI1106304-1A
Other languages
English (en)
Inventor
Yuichiro Takeuchi
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of BRPI1106304A2 publication Critical patent/BRPI1106304A2/pt

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/20Three-dimensional [3D] animation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three-dimensional [3D] modelling for computer graphics
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating three-dimensional [3D] models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating three-dimensional [3D] models or images for computer graphics
    • G06T19/20Editing of three-dimensional [3D] images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/102Map spot or coordinate position indicators; Map reading aids using electrical means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/12Relief maps
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

APARELHO, MÉTODO, E, DISPOSITIVO DE ARMAZENAMENTO LEGÍVEL POR COMPUTADOR. Um método é fornecido para exibir objetos físicos. O método compreende capturar uma imagem de entrada dos objetos físicos, e corresponder um modelo tridimensional com os objetos físicos. O método ainda compreende produzir uma imagem parcial modificada por pelo menos um de, modificar uma porção do modelo tridimensional correspondente, ou modificar uma imagem parcial extraída da imagem de entrada usando o modelo tridimensional correspondente. O método também compreende exibir uma imagem de saída incluindo a imagem parcial modificada sobrepondo sobre a imagem de entrada.

Description

"APARELHO, MÉTODO, Ε, DISPOSITIVO DE ARMAZENAMENTO LEGÍVEL POR COMPUTADOR"
REFERÊNCIA CRUZADA PARA PEDIDOS RELACIONADOS
A presente divulgação contém assunto relacionado aquele divulgado no Pedido de Patente de Prioridade Japonesa JP 2010-224347 depositado no Escritório de Patente do Japão e, sistema de processamento imagem 1 de Outubro de 2010, do qual o conteúdo inteiro é aqui incorporado para referência. FUNDAMENTOS Descrição da técnica relacionada
A presente divulgação se refere a um dispositivo de processamento de imagem, programa, e método.
No passado, vários serviços de informação geográfica que apresentam uma informação geográfica do usuário no mundo real em uma tela de computador foram colocados em uso prático. Por exemplo, através do uso de serviços de recuperação de mapa comum aberto ao público na Web, um usuário pode facilmente obter um mapa de uma região incluindo localizações correspondendo aos desejados nomes de lugares , endereços, ou nomes de marcos geográficos de referência, etc. Em qualquer mapa exibido nos serviços de recuperação de mapa, também é possível colocar uma marca em cada facilidade que concorda com uma palavra chave designada por um usuário.
Ainda mais, nos anos recentes, o desempenho de computador espetacularmente melhorado permite não somente uma mapa planar bi- dimensional, mas também informação no espaço tri-dimensional a ser tratado com um terminal de usuário. Por exemplo, Pedido de Patente Japonesa Estabelecida em Aberto de Nr. 2005-227590 propõe exibir um mapa bi- dimensional e uma imagem tri-dimensional em torno de uma localização atual em paralelo em uma imagem de saída a partir de um dispositivo de orientação de mapa. SUMÁRIO
Contudo, no método através do qual uma imagem tridimensional de uma vista aérea a partir de um determinado ponto de vista em uma localização designada é apenas exibida, o ponto de vista da imagem tridimensional exibida difere do ponto de vista de um usuário no espaço real. Por conseguinte, quando o usuário tenta encontrar um prédio ou instalação desejada, etc. no espaço real, para a qual ele ou ela quer ir, uma comparação de uma visão que o usuário vê no mundo real em torno dele ou dela e a imagem tridimensional não acarreta uma coincidência, e assim sendo o usuário pode ter dificuldade em localizar o prédio desejado ou instalação, etc, facilmente.
Por conseguinte, é desejável fornecer uma novo e melhorado aparelho de processamento de informação de imagem, método de processamento de imagem, e meio de armazenamento legível por computador que facilitam achar um objeto, tal como um prédio ou instalação desejada, no espaço real.
Conseqüentemente, é fornecido um aparelho para exibir objetos físicos. O aparelho compreende uma unidade de captura para capturar uma imagem de entrada de objetos físicos. O aparelho ainda compreende uma unidade de correspondência para corresponder um modelo tridimensional com os objetos físicos. O aparelho também compreende uma unidade de processamento para produzir uma imagem parcial modificada por pelo menos um de, modificar uma porção do modelo tridimensional correspondente, ou modificar uma imagem parcial extraída a partir da imagem de entrada usando o modelo tridimensional correspondente. O aparelho também compreende um gerador de exibição para gerar sinais representando uma imagem de saída, a imagem de saída incluindo a imagem parcial modificada sobreposta sobre a imagem de entrada. Em um outro aspecto, é fornecido um método para exibir objetos físicos. O método compreende capturar uma imagem de entrada de objetos físicos, e corresponder um modelo tridimensional com os objetos físicos. O método ainda compreende produzir uma imagem parcial modificada por pelo menos um de, modificar uma porção do modelo tridimensional correspondente, ou modificar uma imagem parcial extraída a partir da imagem de entrada usando o modelo tridimensional correspondente. O método também compreende exibir uma imagem de saída incluindo a imagem parcial modificada sobreposta sobre a imagem de entrada. Em um outro aspecto, é fornecido um meio de armazenamento
legível por computador não transitório incorporado tangivelmente armazenando instruções que, quando executado por um processador, causa um computador a efetuar um método para exibir objetos físicos. O método compreende capturar uma imagem de entrada de objetos físicos, e corresponder um modelo tridimensional com os objetos físicos. O método ainda compreende produzir uma imagem parcial modificada por pelo menos um de modificar uma porção do modelo tridimensional correspondente, ou modificar uma imagem parcial extraída da imagem de entrada usando o modelo tridimensional correspondente. O método também compreende exibir uma imagem de saída incluindo a imagem parcial modificada sobreposta sobre a imagem de entrada.
De acordo com as modalidades descritas acima, são fornecidos um aparelho de processamento de informação, método de processamento de informação, e meio de armazenamento legível por computador, achar um objeto, tal como um prédio ou instalação desejada no espaço real, pode ser facilitado.
BREVE DESCRIÇÃO DOS DESENHOS
FIG. 1 é um diagrama em bloco ilustrando um exemplo de uma configuração de hardware de um dispositivo de processamento de imagem de acordo com uma modalidade;
FIG. 2 é um diagrama em bloco ilustrando um exemplo de uma configuração lógica de um dispositivo de processamento de imagem de acordo com uma modalidade;
FIG. 3 é uma vista explicativa ilustrando um exemplo de uma
imagem de entrada;
FIG. 4 é uma vista explicativa para explicar um exemplo de um modelo tridimensional;
FIG. 5 é uma vista explicativa ilustrando um exemplo de um resultado de um processo de corresponder através de uma unidade de correspondência de acordo com uma modalidade;
FIG. 6 é uma vista explicativa para explicar um processo de extrair uma imagem parcial através de uma unidade de processo de enfatizar de acordo com uma modalidade; FIG. 7 é uma vista explicativa para explicar um primeiro
exemplo de um processo de enfatizar através de uma unidade de processo de enfatizar de acordo com uma modalidade;
FIG. 8 é uma vista explicativa para explicar um segundo exemplo de um processo de enfatizar através de uma unidade de processo de enfatizar de acordo com uma modalidade;
FIG. 9 é uma vista explicativa para explicar um terceiro exemplo de um processo de enfatizar através de uma unidade de processo de enfatizar de acordo com uma modalidade; e
FIG. 10 é um fluxograma ilustrando um exemplo de um fluxo de processamento de imagem de acordo com uma modalidade. DESCRIÇÃO DETALHADA DE UMA MODALIDADE(S)
Na seguinte, uma modalidade da presente divulgação será descrita em detalhe com referência aos desenhos em anexo. Note que, nesta especificação e nos desenhos em anexo, elementos estruturais que têm substancialmente a mesma função e estrutura são denotadas com os mesmos numerais de referência, e explicação repetida desses elementos estruturais é omitida.
É para ser notado que a descrição é descrita abaixo de acordo com a seguinte ordem.
1. Exemplo de configuração do dispositivo de processamento
de imagem
1-1. Configuração de hardware
1-2. Configuração lógica
2. Exemplos de processos de enfatizar
2-1. Primeiro exemplo 2-2. Segundo exemplo 2-3. Terceiro exemplo
3. Exemplo do fluxo do processamento de imagem
4. Conclusão
<1. Exemplo de configuração do dispositivo de processamento de imagem>
Primeiro, um exemplo de uma configuração de um dispositivo de processamento de imagem de acordo com uma modalidade será descrita com referência às Figs. 1 a 6. Exemplos do dispositivo de processamento de imagem aqui descrita incluem um computador pessoal (PC), um telefone inteligente, um assistente digital pessoal, uma câmera digital, um dispositivo de navegação de mão ou montado em carro, ou uma máquina de jogo de vídeo de mão.
[1-1. Configuração de hardware]
FIG. 1 é um diagrama em bloco ilustrando um exemplo de uma configuração de hardware de um dispositivo de processamento de imagem 100 de acordo com a presente modalidade. Referindo à Fig 1, o dispositivo de processamento de imagem 100 inclui uma unidade de processamento central (CPU) 10, uma memória de acesso randômico (RAM) 12, uma memória de somente de leitura (ROM) 14, um cabo de múltiplas vias de comunicação 16, um dispositivo de armazenamento 20, um gerador de imagem 22, um dispositivo de exibição 24, um dispositivo de entrada 26, um módulo de GPS 30, uma bússola eletrônica 32, e um sensor de aceleração 34.
A CPU 10 geralmente controla a operação do dispositivo de processamento de imagem 100 de acordo com programas gravados no ROM 14, dispositivo de armazenamento 20, e / ou RAM 12. A RAM 12 temporariamente armazena um programa e dados executados pela CPU 10. A ROM 14 pode ser uma memória não volátil para armazenar o programa para operação do dispositivo de processamento de imagem 100. O cabo de múltiplas vias de comunicação 16 interconecta a CPU 10, RAM 12, ROM 14, o dispositivo de armazenamento 20, o gerador de imagem 22, o dispositivo de exibição 24, o dispositivo de entrada 26, o módulo de GPS 30, a bússola eletrônica 32, e o sensor de aceleração 34.
O dispositivo de armazenamento 20 inclui um meio de armazenamento legível por computador não transitório incorporado tangivelmente, tal como um disco rígido ou memória de semicondutor, que pode armazenar programas ou instruções \ serem executadas pela CPU 10. O dispositivo de armazenamento 20 pode ser não removível ou removível. Os dados armazenados no dispositivo de armazenamento 20 podem ser dinamicamente obtidos a partir de um banco de dados externo, quando o dispositivo de processamento de imagem 100 efetua processamento de imagens. Mais ainda, dispositivo de armazenamento 20 pode ser incorporado em diferentes dispositivos remotos ou servidores em uma configuração de computação em nuvem.
O gerador de imagem 22 é configurado como um módulo de câmera com um gerador de imagem, tal como um dispositivo acoplado de carga (CCD) ou semicondutor de óxido de metal Complementar (CMOS). O dispositivo de exibição 24 exibe uma imagem em uma tela, tal como um mostrador de cristal líquido (LCD), diodo de emissão de luz orgânico (OLED), ou painel de exibição de plasma (PDP). O dispositivo de entrada 26 inclui um botão, teclado, painel de toque, ou dispositivo de apontamento, etc. para um usuário do dispositivo de processamento de imagem 1OO para entrar informação para o dispositivo de processamento de imagem 100.
O módulo de GPS 30 recebe o sinal de GPS transmitido a partir do satélite de GPS para calcular uma latitude, longitude, e altitude, etc. efetivas onde o dispositivo de processamento de imagem 100 está localizado. A bússola eletrônica 32 detecta a orientação efetiva do dispositivo de processamento de imagem 100. O sensor de aceleração 34 detecta aceleração causada por uma força atuando no dispositivo de processamento de imagem 100.
[1-2. Configuração lógica]
FIG. 2 é um diagrama em bloco ilustrando um exemplo de uma configuração lógica do dispositivo de processamento de imagem 100 de acordo com a presente modalidade. Referindo à Fig 2, o dispositivo de processamento de imagem 100 inclui uma unidade de obtenção de imagem de entrada 110, uma unidade de posicionamento 120, uma unidade de armazenamento 130, uma unidade de correspondência 140, uma unidade de sensoriamento de movimento de oscilação 150, uma unidade de aplicativo 160, uma unidade de interface de usuário 170, e uma unidade de processo de enfatizar 180. Como usado aqui o termo "unidade" pode ser um módulo de software, um módulo de hardware, ou uma combinação de um módulo de software e a módulo de hardware. Tais módulos de hardware e software podem ser incorporados no conjunto de circuito discreto, um circuito integrado, ou as instruções executadas por um processador. (1) Unidade de obtenção de imagem de entrada
A unidade de obtenção de imagem de entrada 110, i.e. unidade de captura, obtém, com o gerador de imagem 22, uma série de imagens de entrada na qual a vista no mundo real em torno de um usuário é capturada. Isto é, uma imagem de entrada de um objeto físico, ou objetos no mundo real são capturados. Então, a unidade de obtenção de imagem de entrada 110 seqüencialmente emite as imagens de entrada obtidas para a unidade de correspondência 140 e para a unidade de processo de enfatizar 180.
FIG. 3 é uma vista explicativa ilustrando um exemplo de uma imagem de entrada obtida pela unidade de obtenção de imagem de entrada 110. Referindo à Fig. 3, uma cidade, como o espaço real no qual um usuário que carrega o dispositivo de processamento de imagem 100 (ou um veículo equipado com o dispositivo de processamento de imagem 100, etc.) está presente, aparece em uma imagem de entrada. Há múltiplos prédios ou instalações na cidade. Cada um de tais objetos que aparecem em uma imagem de entrada pode ser um alvo para uma pesquisa de informação geográfica em uma unidade de aplicativo 160 descrita abaixo, ou um alvo para o qual o usuário é orientado na navegação usando um dispositivo de navegação.
(2) Unidade de posicionamento
A unidade de posicionamento 120 determina a atual do dispositivo de processamento de imagem 100 com o módulo de GPS 30. A unidade de posicionamento 120 também determina a orientação efetiva do dispositivo de processamento de imagem 100 com a bússola eletrônica 32. A unidade de posicionamento 120 então emite informação de localização, tal como a informação de latitude, longitude, e altitude, e azimute do dispositivo de processamento de imagem 100 obtida como um resultado da medição descrita acima, para a unidade de correspondência 140.
(3) Unidade de armazenamento
A unidade de armazenamento 130 armazena um modelo tridimensional que descreve uma forma tridimensional e a localização de um objeto que está presente no mundo real. Exemplos do objeto descrito pelo modelo tridimensional incluir um objeto relacionado à função de aplicativo mencionada acima, tal como a pesquisa de informação de geográfica ou navegação fornecida pela unidade de aplicativo 160. A forma tridimensional e a localização de objetos, tal como um restaurante, um escritório, uma escola, uma estação, uma instalação comunal, e um marco geográfico de referência que estão presentes em uma cidade, são descritos pelo modelo tridimensional. O modelo tridimensional pode ser descrito usando uma linguagem, tal como Linguagem de Marcação Geográfica (GML) ou KML com base em GML.
FIG. 4 é uma vista explicativa para explicar um exemplo do modelo tridimensional. Referindo a Fig 4, um modelo tridimensional 132 é parcialmente retratado a título de exemplo. No exemplo mostrado na Fig. 4, o modelo tridimensional 132 inclui dados sobre nove objetos Bl à B9 que são prédios respectivamente. Para cada um desses objetos, o modelo tridimensional 132 define, por exemplo, um identificador de um objeto (daqui em diante, "ID de objeto"), um nome de um prédio, e localização tridimensional dos vértices que formam a forma dos prédios, e a textura pre- determinada. Na prática, um modelo tridimensional armazenado pela unidade de armazenamento 130 pode incluir dados sobre um maior número de objetos (em uma área mais ampla) do que um grupo de objetos ilustrado na Fig. 4. Associada com esses objetos, a unidade de armazenamento 130 pode também armazenar informação adicional, tal como uma classificação por usuário para uma instalação, tal como um restaurante ou hotel, usada pelos usuários.
r
E para ser apreciado que a unidade de armazenamento 130 pode ser incorporado em diferentes dispositivo remotos ou servidores em uma configuração de computação em nuvem, e que o modelo tridimensional pode, por conseguinte ser recuperado a partir da unidade de armazenamento 130 via uma rede em resposta a uma solicitação remota para um modelo tridimensional a partir do dispositivo de processamento de imagem 100, em vez de acessar um depósito local do dispositivo de processamento de imagem 100. (4) Unidade de correspondência
A unidade de correspondência 140 associa um objeto incluído em um modelo tridimensional em torno de uma localização atual determinada por uma unidade de posicionamento 120, com um objeto que aparece em uma imagem de entrada coincidindo com pontos de característica do objeto incluídos no modelo tridimensional e pontos de característica em uma imagem de entrada. Mais especificamente, na presente modalidade, a unidade de correspondência 140 primeiro extrai dados em objetos em torno da localização atual do dispositivo de processamento de imagem 100 a partir de um modelo tridimensional armazenado na unidade de armazenamento 130 com base na informação de localização e azimute entrada a partir da unidade de posicionamento 120. A unidade de correspondência 140 também configura pontos de característica em uma imagem de entrada de acordo com um em conhecido método de detecção de canto, tal como método de Harris ou método de Moravec. A unidade de correspondência 140 coincide os pontos de característica do grupo de objetos extraídos a partir do modelo tridimensional, e dos pontos de característica configurados na imagem de entrada. Conseqüentemente, a unidade de correspondência 140 pode reconhecer a correspondência do objeto incluído no modelo tridimensional para o objeto que aparece na imagem de entrada. Como um resultado da ação de corresponder, a unidade de correspondência 140 pode também determine a localização e postura detalhada do dispositivo de processamento de imagem 100. A localização do dispositivo de processamento de imagem 100 determinada pelo processo de corresponder descrito aqui pode ter uma maior precisão do que a precisão de localização que a unidade de posicionamento 120 pode alcançar com o módulo de GPS 30.
FIG. 5 é uma vista explicativa ilustrando um exemplo de um resultado de um processo de corresponder através da unidade de correspondência 140. Referindo à Fig 5, muitos pontos em forma de triângulo são configurados em cada canto dos objetos que aparecem em uma imagem de entrada ImO 1. Cada um desses pontos na imagem de entrada ImOl coincide com cada correspondente vértice dos objetos incluídos no modelo tridimensional 132 em uma localização e postura específica do dispositivo de processamento de imagem 100. Por exemplo, um ponto de marcação FPl coincide com um dos vértices de um objeto B2 do modelo tridimensional 132. Assim sendo, a unidade de correspondência 140 pode reconhecer em que posição em uma imagem de entrada cada objeto incluído no modelo tridimensional aparece.
(5) Unidade de sensoriamento de movimento de oscilação
A unidade de sensoriamento de movimento de oscilação 150, i.e. unidade de sensor, detecta que o dispositivo de processamento de imagem 100 está tremendo com o sensor de aceleração 34. Após detectar que o dispositivo de processamento de imagem 100 é tremendo, a unidade de sensoriamento de movimento de oscilação 150 por sua vez emite um sinal de sensoriamento de movimento de oscilação para a unidade de processo de enfatizar 180. A unidade de sensoriamento de movimento de oscilação 150 pode determinar que o dispositivo de processamento de imagem 100 está tremendo, por exemplo, quando aceleração atuando no dispositivo de processamento de imagem 100 excede um limite pré-determinado.
(6) Unidade de aplicativo
A unidade de aplicativo 160, i.e. unidade de processamento, é um bloco de processamento que alcança a função de aplicativo ilustrada acima associada com serviço de informação geográfica. A função de aplicativo que a unidade de aplicativo 160 fornece inclui, por exemplo, função de pesquisa de informação de geográfica ou função de navegação. A unidade de aplicativo 160 faz, por exemplo, a unidade de interface de usuário 170 exibir uma tela de aplicativo. Quando um usuário entra uma palavra chave de pesquisa via a tela de aplicativo, a unidade de aplicativo 160 pesquisa a unidade de armazenamento 130 para o objeto que condiz com a palavra chave de pesquisa entrada. A unidade de aplicativo 160 emite informação de designação de objeto que designa um ou mais objetos especificados como o resultado de pesquisa, para a unidade de processo de enfatizar 180. A informação de designação de objeto pode ser, por exemplo, informação que designa um objeto selecionado pelo usuário como uma destinação de navegação.
(7) Unidade de Interface de Usuário
A unidade de interface de usuário 170 fornece uma interface de usuário para uso da função de aplicativo descrita acima, para um usuário. A unidade de interface de usuário 170 recebe informação de entrada de usuário, tal como uma palavra chave de pesquisa para a função de pesquisa de informação de geográfica ou uma destinação de navegação, por exemplo, via o dispositivo de entrada 26. A unidade de interface de usuário 170 também exibe a tela de aplicativo gerada pela unidade de aplicativo 160 com o dispositivo de exibição 24. Ainda mais, a unidade de interface de usuário 170 exibe, por exemplo, uma imagem enfatizada gerada pela unidade de processo de enfatizar 180 mencionada depois na tela de aplicativo.
(8) Unidade de processo de enfatizar
A unidade de processo de enfatizar 180 gera uma imagem enfatizada que enfaticamente exibe cada um de um ou mais objetos designados entre objetos incluídos em um modelo tridimensional (daqui em diante, "objeto designado") processando a imagem parcial em uma imagem de entrada correspondendo a cada um dos objetos designados descritos acima. Na presente modalidade, por exemplo, quando informação de designação de objeto é entrada a partir da unidade de aplicativo 160, e.g. um identificador de um objeto físico é recebido, a unidade de processo de enfatizar 180 determina se um objeto designado aparece em uma imagem de entrada com base na informação de designação de objeto. A seguir, quando o objeto designado aparece na imagem de entrada, a unidade de processo de enfatizar 180 reconhece a área na imagem de entrada correspondente ao objeto designado com base em um resultado da ação de corresponder descrita acima através da unidade de correspondência 140. A unidade de processo de enfatizar 180 então processa a imagem parcial na área reconhecida tal que o objeto designado correspondendo ao identificador recebido é enfatizado. A imagem parcial processada e gerada pela unidade de processo de enfatizar 180 é referida como uma imagem enfatizada ou imagem parcial enfatizada nesta especificação. A unidade de processo de enfatizar 180 gera uma imagem de saída sobrepondo a imagem enfatizada sobre a imagem de entrada e faz a unidade de interface de usuário 170 exibir a imagem de saída gerada usando um gerador de exibição que gera sinais representando a imagem de saída.
FIG. 6 é uma vista explicativa para explicar um processo de extrair uma imagem parcial através da unidade de processo de enfatizar 180
de acordo com a presente modalidade. Uma imagem de entrada ImOl é
>
mostrada no canto do lado esquerdo superior da Fig. 6. A título de exemplo, é assumido que informação de designação de objeto entrado a partir da unidade de aplicativo 160 designa um objeto B7 que aparece na imagem de entrada ImO 1. Uma área Rl que é reconhecida como um resultado da ação de corresponder através da unidade de correspondência 140 e é correspondente ao objeto designado B7, é mostrado no canto do lado direito superior da Fig. 6. A unidade de processo de enfatizar 180 extrai a imagem parcial Iml 1 de tal uma área Rl a partir da imagem de entrada ImOl (ver o canto do lado esquerdo inferior da Fig. 6). Um objeto em movimento que aparece na imagem de entrada ImOl pode sobrepor sobre a imagem parcial Imll em alguns casos. No exemplo mostrado na Fig. 6, a pessoa se sobrepõe na frente do objeto designado B7. No qual caso, a unidade de processo de enfatizar 180 gera a imagem parcial Im 12 no qual o efeito do objeto em movimento é reduzido, por exemplo, calculando à media de múltiplas imagens parciais Iml 1 sobre múltiplos quadros.
Na seguinte seção, três exemplos de processos de enfatizar através da unidade de processo de enfatizar 180 serão descritos em detalhes para gerar uma imagem enfatizada descrita acima a partir de uma imagem parcial extraída nesta maneira. <2. Exemplos dos processos de enfatizar>
FIGS. 7 à 9 são vistas explicativas para explicar um exemplo de um processo de enfatizar através da unidade de processo de enfatizar 180 de acordo com a presente modalidade respectivamente. [2-1. Primeiro exemplo]
Em um primeiro exemplo do processo de enfatizar, é assumido que os objetos B4 e B7 incluídos no modelo tridimensional 132 ilustrado na Fig. 4 são designados pela informação de designação de objeto. Referindo à Fig 7, uma imagem de saída Im21 gerada através da unidade de processo de enfatizar 180 no primeiro exemplo é mostrada. Através da comparação entre a imagem de saída Im21 e a imagem de entrada ImOl na Fig. 3, será entendido que o tamanho dos objetos designados B4 e B7 (especialmente altura) é estendida na imagem. Assim sendo, a unidade de processo de enfatizar 180 pode enfatizar um objeto designado modificando o tamanho da imagem parcial correspondendo ao objeto designado. Em vez disso (ou adicionalmente), a unidade de processo de enfatizar 180 pode enfatizar um objeto designado modificando a forma, cor, ou brilho da imagem parcial correspondendo to ao objeto designado, ou modificando uma porção do modelo tridimensional correspondendo ao objeto designado.
A unidade de processo de enfatizar 180 pode diretamente gerar uma imagem enfatizada (porções sombreadas na imagem de saída Im21 da Fig. 7) que enfatiza cada objeto designado mudando o tamanho, forma, cor, ou brilho da imagem parcial. Em vez disso, por exemplo, a unidade de processo de enfatizar 180 pode remover distorção da imagem parcial em perspectiva, obter uma textura de cada objeto designado, e cola a textura obtida na superfície de um polígono de cada objeto designado para gerar uma imagem enfatizada. Distorção da imagem parcial em perspectiva pode ser removida através da realização de transformação afim da imagem parcial dependendo da localização e postura do dispositivo de processamento de imagem 100 (o gerador de imagem 22) determinada pela unidade de correspondência 140. O uso da textura obtida nesta maneira também permite, por exemplo, uma porção de aparência de um objeto designado escondido por outros objetos em uma imagem de entrada a ser visível em uma imagem de saída (por exemplo, algumas porções escondidas por outros objetos são visíveis no exemplo mostrado na Fig. 9 descrito abaixo). [2-2. Segundo exemplo]
Além disso, em um segundo exemplo do processo de enfatizar,
é assumido que os objetos B4 e B7 incluídos no modelo tridimensional 132
ilustrados na Fig. 4 são designados pela informação de designação de objeto. \
A título de exemplo, é também assumido que os objetos B4 e B7 são designados como um resultado de uma pesquisa de restaurante, e dois pedaços de informação adicional de "um nome de loja" e "uma classificação" são associados com cada objeto. Por exemplo, referindo à Fig 8, o nome de loja do objeto designado B4 é "ABC Café," e a classificação é duas estrelas. Por outro lado, o nome de loja do objeto designado B7 é "Bar XYZ," e a classificação é três estrelas. Informação adicional não é limitada a este exemplo, e pode ser qualquer informação, tal como um orçamento assumido e estilo de cozinha.
No segundo exemplo, a unidade de processo de enfatizar 180, primeiro, similar ao primeiro exemplo, enfatiza o objeto designados B4 e B7 modificando o tamanho (ou forma, cor, ou brilho) da imagem parcial correspondendo a esses objetos designados B4 e B7. Ainda mais, a unidade de processo de enfatizar 180 gera uma série de imagens enfatizadas que representam animação na qual um objeto designado se move. Esta animação é, por exemplo, animação na qual um objeto designado treme. A unidade de processo de enfatizar 180 pode gerar tal animação no qual um objeto designado treme, por exemplo, quando um sinal de sensoriamento de oscilação de movimento que indica o dispositivo de processamento de imagem 100 está tremendo é entrado a partir da unidade de sensoriamento de movimento de oscilação 150.
Referindo à Fig 8, imagens de saída Im22, Im23, e Im24 geradas pela unidade de processo de enfatizar 180 no segundo exemplo são mostradas. Na imagem de saída Im22, os objetos designados B4 e B7 descritos acima são ambos enfatizados usando o método pelo qual o tamanho é estendido, independente do resultado da detecção da oscilação de movimento pela unidade de sensoriamento de movimento de oscilação 150. Por outro lado, as imagens de saídas Im23 e Im24 são exibidas quando o movimento de oscilação do dispositivo de processamento de imagem 100 é detectado. Nas imagens de saídas Im23 e Im24, somente o objeto B7 que é um restaurante altamente classificado (três estrelas) é enfatizado usando o método que usa animação na qual um objeto designado treme.
Assim sendo, o uso de animação na qual um objeto designado se move assegura que um objeto desejado designado é distinto dos outros objetos na imagem de entrada. Por conseguinte, um usuário pode achar um objeto desejado muito facilmente por referência a uma imagem de saída. Animação na qual um objeto se move não é limitada ao exemplo descrito acima e pode ser animação na qual um objeto é, por exemplo, alongado, contraído, ou pulado.
Além disso, como discutido anteriormente, múltiplos objetos designados a serem apresentados a um usuário e particularmente notáveis objetos designados (por exemplo, um restaurante altamente classificado com muitas estrelas, ou um restaurante que satisfaz ao orçamento do usuário) deles todos, podem ser exibidos em tal uma maneira que o usuário pode distinguir entre eles facilmente, classificando os objetos designados em dois ou mais grupos de acordo com a informação adicional (tal como o número de estrelas, ou o orçamento do usuário) e enfatizando os objetos designados usando diferentes métodos em uma maneira em fase de acordo com a classificação acima. O método através do qual o usuário agitando o dispositivo de processamento de imagem 100 aciona um objeto designado para ser agitado, também alcança uma interface efetiva de usuário que apresenta informação geográfica que é mais intuitiva e fácil par aos usuários lembrarem. [2-3. Terceiro exemplo]
Em um terceiro exemplo de um processo de enfatizar, é assumido que os objetos B4, B7, e um objeto BlO são designados pela informação de designação de objeto. Similar ao segundo exemplo, é também assumido que dois pedaços de informação adicional de "um nome de loja" e "uma classificação" são associados com cada objeto. No terceiro exemplo, contudo, é assumido que "uma classificação" é dada como um valor numérico e uma ordem de classificação de acordo com a magnitude do valor numérico é dado. Por exemplo, a classificação do objeto designado B4 é 2,9, e a ordem de classificação é terceiro lugar. A classificação do objeto designado B7 é 3,8, e a ordem de classificação é segundo lugar. A classificação do objeto designado BlO é 4,2, e a ordem de classificação é primeiro lugar.
No terceiro exemplo, quando os múltiplos objetos classificados são designados nesta maneira, a unidade de processo de enfatizar 180 modifica o tamanho de uma imagem parcial correspondendo a cada dos múltiplos objetos designados de acordo com a ordem de classificação de cada objeto designado. No exemplo mostrado na Fig. 9, em uma imagem de saída Im25, o objeto designado BlO é exibido como o mais alto, o objeto designado B7 é exibido como o segundo mais alto, e o objeto designado B4 é reduzido para ser o mais baixo de todos os objetos designados.
Assim sendo, a modificação do tamanho de um objeto designado de acordo com informação adicional, tal como uma ordem de classificação, dado ao objeto designado permite a um usuário entender não somente a informação de localização sobre o objeto designado mas também a informação adicional intuitivamente e facilmente. <3. Exemplo do fluxo do processamento de imagens>
FIG. 10 é um fluxograma ilustrando um exemplo de um fluxo de processamento de imagem pelo dispositivo de processamento de imagem 100 de acordo com a presente modalidade. Referindo à Fig. 10, primeiro, a unidade de obtenção de imagem de entrada 110 obtém imagens de entrada nas quais a visão no mundo real em torno de um usuário é capturado (etapa S102). A unidade de posicionamento 120 também determina a localização atual e orientação do dispositivo de processamento de imagem 100 (etapa S104). A seguir, a unidade de correspondência 140 pode recuperar um modelo tridimensional correspondendo à localização atual, e obter dados sobre os objetos em torno da localização atual do dispositivo de processamento de imagem 100 a partir do correspondente modelo tridimensional armazenado na unidade de armazenamento 130 (etapa S106). A seguir, a unidade de correspondência 140 coincide os pontos de característica configurados na imagem de entrada com os pontos de característica do grupo de objetos incluídos no modelo tridimensional obtido (etapa S108). A seguir, quando informação de designação de objeto é entrada a partir da unidade de aplicativo 160, a unidade de processo de enfatizar 180 distingue um ou mais objetos designados pela informação de designação de objeto (etapa S110). A seguir, a unidade de processo de enfatizar 180 extrai imagens parciais de áreas na imagem de entrada correspondendo aos objetos designados usando o modelo tridimensional (etapa Sl 12). A seguir, a unidade de processo de enfatizar 180 gera a imagem enfatizada que enfatiza os objetos designados pelo processamento e modifica as imagens parciais extraídas (etapa Sl 14). Alternativamente, a porção do modelo tridimensional pode ser modificada para gerar uma imagem sobrepondo a imagem enfatizada gerada sobre a imagem de entrada (etapa Sl 16). A imagem de saída gerada nesta maneira é exibida na tela do dispositivo de exibição 24 via a unidade de interface de usuário 170. <4. Conclusão >
Uma modalidade da presente divulgação foi descrita com referência às Figs. 1 a 10. De acordo com a presente modalidade, uma imagem enfatizada que enfatiza um objeto designado é gerado e exibida processando uma imagem parcial em uma imagem de entrada correspondendo ao objeto designado em um modelo tridimensional designado pela função de aplicativo. Por conseguinte, um objeto designado é enfaticamente exibido enquanto aparência natural que aparece em uma imagem de entrada a partir do ponto de vista do gerador de imagem 22 montado no dispositivo de processamento de imagem 100 que um usuário usa é mantida. Conseqüentemente, pode ser fácil para um usuário encontrar um objeto designado, tal como um prédio ou instalação desejada, no espaço real.
Por exemplo, o uso de uma série de imagens enfatizadas que representam animação na qual um objeto designado se move também permite a um usuário reconhecer o objeto desejado muito facilmente. A modificação de um objeto designado em uma imagem de saída também permite a um usuário entender informação adicional, tal como uma ordem de classificação, intuitivamente e facilmente.
O método pelo qual o usuário agitando o dispositivo de processamento de imagem 100 aciona animação na qual um objeto designado é agitado em uma imagem de saída a ser exibida também associa um movimento de um usuário com uma imagem enfatizada, e o método pode alcançar uma interface de usuário intuitiva e fácil de seguir que apresenta informação geográfica.
Deve ser entendido por aqueles com qualificação na arte que várias modificações, combinações, sub-combinações e alterações podem ocorrer dependendo dos requisitos de projeto e outros fatores na medida que eles estejam dentro do escopo das reivindicações anexas ou das equivalentes delas

Claims (16)

1. Aparelho caracterizado pelo fato de compreender: - uma unidade de captura para capturar uma imagem de entrada de objetos físicos; - uma unidade de correspondência para corresponder um modelo tridimensional com os objetos físicos; - uma unidade de processamento para produzir uma imagem parcial modificada por pelo menos um de: - modificar uma porção do modelo tridimensional correspondente, ou - modificar uma imagem parcial extraída a partir da imagem de entrada usando o modelo tridimensional correspondente; e - um gerador de exibição para gerar sinais representando uma imagem de saída, a imagem de saída incluindo a imagem parcial modificada sobrepondo sobre a imagem de entrada.
2. Aparelho de acordo com a reivindicação 1, caracterizado pelo fato de que a imagem parcial modificada compreende uma imagem parcial enfatizada.
3. Aparelho de acordo com a reivindicação 2, caracterizado pelo fato de que a unidade de processamento enfatiza a imagem parcial mudando pelo menos um de um tamanho, uma forma, uma cor, ou um brilho da imagem parcial.
4. Aparelho de acordo com a reivindicação 1, caracterizado pelo fato de que o modelo tridimensional compreende um modelo tridimensional descrevendo uma forma tridimensional e uma localização de um dos objetos físicos.
5. Aparelho de acordo com a reivindicação 1, caracterizado pelo fato de que o aparelho compreende uma unidade de armazenamento para armazenar o modelo tridimensional.
6. Aparelho de acordo com a reivindicação 1, caracterizado pelo fato de que o modelo tridimensional compreende uma localização tridimensional de vértices formando a forma de um dos objetos físicos.
7. Aparelho de acordo com a reivindicação 1, caracterizado pelo fato de que o modelo tridimensional compreende dados definindo um identificador de um dos objetos físicos.
8. Aparelho de acordo com a reivindicação 7, caracterizado pelo fato de que a unidade de processamento produz uma imagem parcial modificada de um dos objetos físicos, a imagem parcial modificada correspondendo a um identificador recebido de um dos objetos físicos.
9. Aparelho de acordo com a reivindicação 6, caracterizado pelo fato de que a unidade de correspondência corresponde os pontos de característica dos objetos físicos na imagem de entrada com o modelo tridimensional usando a localização tridimensional dos vértices.
10. Aparelho de acordo com a reivindicação 1, caracterizado pelo fato de compreender a unidade de posicionamento para determinar uma localização do aparelho.
11. Aparelho de acordo com a reivindicação 10, caracterizado pelo fato de que a unidade de correspondência recupera um modelo tridimensional correspondendo aos objetos físicos na imagem de entrada, com base na localização atual determinada.
12. Aparelho de acordo com a reivindicação 10, caracterizado pelo fato de que a unidade de posicionamento determina uma orientação atual do aparelho.
13. Aparelho de acordo com a reivindicação 1, caracterizado pelo fato de compreender uma unidade de sensor para detectar movimento do aparelho.
14. Aparelho de acordo com a reivindicação 13, caracterizado pelo fato de que a unidade de processamento produz uma imagem parcial modificada com base no movimento detectado.
15. Método caracterizado pelo fato de compreender: - capturar uma imagem de entrada de objetos físicos; - corresponder um modelo tridimensional com os objetos físicos; - produzir uma imagem parcial modificada por pelo menos um de: - modificar uma porção do modelo tridimensional correspondente, ou - modificar uma imagem parcial extraída a partir da imagem de entrada usando o modelo tridimensional correspondente; e - exibir uma imagem de saída incluindo uma imagem parcial modificada sobrepondo sobre a imagem de entrada.
16. Dispositivo de armazenamento legível por computador não transitório incorporado tangivelmente armazenando instruções que, quando executadas por um processador, faz com que um computador efetue um método para exibir objetos físicos, caracterizado pelo fato de compreender: - capturar uma imagem de entrada de objetos físicos; - corresponder um modelo tridimensional com os objetos físicos; - produzir uma imagem parcial modificada por pelo menos um de: modificar uma porção do modelo tridimensional correspondente, ou - modificar uma imagem parcial extraída a partir da imagem de entrada usando o modelo tridimensional correspondente; e - exibir uma imagem de saída incluindo uma imagem parcial modificada sobrepondo sobre a imagem de entrada.
BRPI1106304-1A 2010-10-01 2011-09-23 aparelho, mÉtodo, e, dispositivo de armazenamento legÍvel por computador BRPI1106304A2 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010224347A JP5652097B2 (ja) 2010-10-01 2010-10-01 画像処理装置、プログラム及び画像処理方法

Publications (1)

Publication Number Publication Date
BRPI1106304A2 true BRPI1106304A2 (pt) 2013-02-19

Family

ID=44720661

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI1106304-1A BRPI1106304A2 (pt) 2010-10-01 2011-09-23 aparelho, mÉtodo, e, dispositivo de armazenamento legÍvel por computador

Country Status (5)

Country Link
US (2) US9536454B2 (pt)
EP (1) EP2437237A3 (pt)
JP (1) JP5652097B2 (pt)
CN (2) CN102542905B (pt)
BR (1) BRPI1106304A2 (pt)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9230223B2 (en) 2011-12-05 2016-01-05 Houzz, Inc. Consistent presentation of content and passive relevance determination of content relationship in an on-line commerce system
US9069440B2 (en) * 2012-06-05 2015-06-30 Apple Inc. Method, system and apparatus for providing a three-dimensional transition animation for a map view change
US9412150B2 (en) * 2012-11-12 2016-08-09 Here Global B.V. Method and apparatus for visually representing objects with a modified height
JP6064544B2 (ja) * 2012-11-27 2017-01-25 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び端末装置
JP6296056B2 (ja) 2013-06-17 2018-03-20 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
DE102013212035A1 (de) * 2013-06-25 2015-01-08 Robert Bosch Gmbh Verfahren zum Darstellen von Objekten und Navigationseinrichtung zum Durchführen des Verfahrens
DE102014110349A1 (de) * 2013-08-09 2015-02-12 Samsung Electronics Co., Ltd. Hybride visuelle Kommunikation
JP6222440B2 (ja) * 2013-10-07 2017-11-01 コニカミノルタ株式会社 Ar表示システム、およびar表示装置、情報処理装置、プログラム
JP2015104930A (ja) * 2013-11-28 2015-06-08 株式会社デンソー ヘッドアップディスプレイ装置
CN105814611B (zh) * 2013-12-17 2020-08-18 索尼公司 信息处理设备和方法以及非易失性计算机可读存储介质
JP5762600B1 (ja) * 2014-06-06 2015-08-12 キヤノン株式会社 情報処理装置及び情報処理方法
CN104484345A (zh) * 2014-11-28 2015-04-01 广东工业大学 一种基于K-means聚类的水火弯板3D扫描模块的提取方法
US10339390B2 (en) * 2016-02-23 2019-07-02 Semiconductor Components Industries, Llc Methods and apparatus for an imaging system
CN106888316A (zh) * 2016-12-31 2017-06-23 深圳天珑无线科技有限公司 单手查找电子地图的方法及其系统
WO2018139117A1 (ja) 2017-01-27 2018-08-02 ソニー株式会社 情報処理装置、情報処理方法およびそのプログラム
JP6976719B2 (ja) * 2017-05-25 2021-12-08 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
US10534962B2 (en) * 2017-06-17 2020-01-14 Matterport, Inc. Automated classification based on photo-realistic image/model mappings
JP7746214B2 (ja) * 2022-04-05 2025-09-30 Kddi株式会社 マッチング装置、方法及びプログラム

Family Cites Families (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5262856A (en) * 1992-06-04 1993-11-16 Massachusetts Institute Of Technology Video image compositing techniques
JPH06231275A (ja) * 1993-01-29 1994-08-19 Hitachi Ltd 画像シミュレーション方法
US5467441A (en) * 1993-07-21 1995-11-14 Xerox Corporation Method for operating on objects in a first image using an object-based model data structure to produce a second contextual image having added, replaced or deleted objects
JP3333319B2 (ja) * 1994-06-03 2002-10-15 三菱電機株式会社 2次元3次元統合型cadシステム
EP0972285A4 (en) * 1995-10-08 2002-04-03 Face Imaging Ltd METHOD FOR AUTOMATIC COMPUTER ASSISTED AUDIOVISUAL COPYING FILMS
US6512857B1 (en) * 1997-05-09 2003-01-28 Sarnoff Corporation Method and apparatus for performing geo-spatial registration
US6229546B1 (en) * 1997-09-09 2001-05-08 Geosoftware, Inc. Rapid terrain model generation with 3-D object features and user customization interface
JP4025442B2 (ja) * 1998-12-01 2007-12-19 富士通株式会社 三次元モデル変換装置及び方法
US6879946B2 (en) * 1999-11-30 2005-04-12 Pattern Discovery Software Systems Ltd. Intelligent modeling, transformation and manipulation system
JP4208113B2 (ja) * 2000-04-19 2009-01-14 富士フイルム株式会社 アルバム作成方法および装置並びに記録媒体
US7193633B1 (en) * 2000-04-27 2007-03-20 Adobe Systems Incorporated Method and apparatus for image assisted modeling of three-dimensional scenes
JP2002083285A (ja) * 2000-07-07 2002-03-22 Matsushita Electric Ind Co Ltd 画像合成装置および画像合成方法
FR2814570B1 (fr) * 2000-09-27 2003-11-21 Cyber Act Procede interactif de communication d'informations a des utilisateurs d'un reseau de communication informatique, notamment de type internet
KR100875743B1 (ko) * 2001-01-16 2008-12-26 엔엑스피 비 브이 모션 보상된 보간에서 헤일로 효과를 감소시키는 방법
US6650326B1 (en) * 2001-01-22 2003-11-18 Navigation Technologies Corp. Method of handling context during scaling with a map display
US6980697B1 (en) * 2001-02-01 2005-12-27 At&T Corp. Digitally-generated lighting for video conferencing applications
ITMI20010538A1 (it) * 2001-03-14 2002-09-14 Phoenix Tools S R L Sistema per la creazione la visualizzazione e la gestione di oggetti tridimensionali su pagine web e metodo relativo
GB0114157D0 (en) * 2001-06-11 2001-08-01 Canon Kk 3D Computer modelling apparatus
US7019748B2 (en) * 2001-08-15 2006-03-28 Mitsubishi Electric Research Laboratories, Inc. Simulating motion of static objects in scenes
JP2003053027A (ja) * 2001-08-21 2003-02-25 Shinsedai Kk 音楽演奏ゲーム装置
US7046840B2 (en) * 2001-11-09 2006-05-16 Arcsoft, Inc. 3-D reconstruction engine
US20030108329A1 (en) * 2001-12-12 2003-06-12 Meric Adriansen Advertising method and system
KR100439756B1 (ko) * 2002-01-09 2004-07-12 주식회사 인피니트테크놀로지 3차원 가상내시경 화면 표시장치 및 그 방법
JP2003216977A (ja) * 2002-01-17 2003-07-31 Sony Corp 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
JP2003317116A (ja) * 2002-04-25 2003-11-07 Sony Corp 3次元仮想空間における情報提示装置及び情報提示方法、並びにコンピュータ・プログラム
JP3944019B2 (ja) * 2002-07-31 2007-07-11 キヤノン株式会社 情報処理装置および方法
JP2004094773A (ja) * 2002-09-03 2004-03-25 Nec Corp 頭部装着物画像合成方法、化粧画像合成方法、頭部装着物画像合成装置、化粧画像合成装置及びプログラム
JP3748545B2 (ja) * 2002-09-19 2006-02-22 株式会社ナムコ プログラム、情報記憶媒体及び画像生成装置
JP2004271901A (ja) * 2003-03-07 2004-09-30 Matsushita Electric Ind Co Ltd 地図表示装置
JP4085918B2 (ja) * 2003-07-18 2008-05-14 ソニー株式会社 3次元モデル処理装置、および3次元モデル処理方法、並びにコンピュータ・プログラム
JP2005227590A (ja) * 2004-02-13 2005-08-25 Nec Toshiba Space Systems Ltd 位置情報提供方法および地図案内装置
SE0401582L (sv) * 2004-06-18 2005-05-10 Totalfoersvarets Forskningsins Interaktivt förfarande för att presentera information i en bild
US20060044307A1 (en) * 2004-08-24 2006-03-02 Kyuman Song System and method for visually representing project metrics on 3-dimensional building models
US7929800B2 (en) * 2007-02-06 2011-04-19 Meadow William D Methods and apparatus for generating a continuum of image data
JP4606898B2 (ja) * 2005-02-15 2011-01-05 三菱電機株式会社 情報生成装置及び検索装置
WO2006093250A1 (ja) * 2005-03-04 2006-09-08 National University Corporation NARA Institute of Science and Technology 動き計測装置、動き計測システム、車載機器、動き計測方法、動き計測プログラム、およびコンピュータ読み取り可能な記録媒体
US20060223635A1 (en) * 2005-04-04 2006-10-05 Outland Research method and apparatus for an on-screen/off-screen first person gaming experience
US8226011B2 (en) * 2005-04-06 2012-07-24 Eidgenoessische Technische Hochshcule Zuerich Method of executing an application in a mobile device
US8040361B2 (en) * 2005-04-11 2011-10-18 Systems Technology, Inc. Systems and methods for combining virtual and real-time physical environments
JP2006338092A (ja) * 2005-05-31 2006-12-14 Nec Corp パタン照合方法、パタン照合システム及びパタン照合プログラム
US7728869B2 (en) * 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
US7840032B2 (en) * 2005-10-04 2010-11-23 Microsoft Corporation Street-side maps and paths
JP4246195B2 (ja) * 2005-11-01 2009-04-02 パナソニック株式会社 カーナビゲーションシステム
US8094928B2 (en) * 2005-11-14 2012-01-10 Microsoft Corporation Stereo video for gaming
JP4777786B2 (ja) * 2006-02-01 2011-09-21 クラリオン株式会社 車載地図表示装置
US8009910B2 (en) * 2006-05-05 2011-08-30 Valtion Teknillinen Tutkimuskeskus Method, a system, a computer program product and a user interface for segmenting image sets
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
US20070291034A1 (en) * 2006-06-20 2007-12-20 Dones Nelson C System for presenting a navigable virtual subway system, and method for operating and using the same
JP4926817B2 (ja) * 2006-08-11 2012-05-09 キヤノン株式会社 指標配置情報計測装置および方法
US8073213B2 (en) * 2006-10-30 2011-12-06 General Electric Company Method for generating a registered image relative to a cardiac cycle and a respiratory cycle of a person
JP5177615B2 (ja) * 2006-12-01 2013-04-03 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
US7750825B2 (en) * 2007-03-09 2010-07-06 Adobe Systems Incorporated System and method for navigation of display data
US7941429B2 (en) * 2007-07-10 2011-05-10 Yahoo! Inc. Interface for visually searching and navigating objects
US8089522B2 (en) * 2007-09-07 2012-01-03 Regents Of The University Of Minnesota Spatial-temporal multi-resolution image sensor with adaptive frame rates for tracking movement in a region of interest
JP5053776B2 (ja) * 2007-09-14 2012-10-17 株式会社デンソー 車両用視界支援システム、車載装置、及び、情報配信装置
DE102007048320A1 (de) * 2007-10-09 2008-05-15 Daimler Ag Verfahren zur Anpassung eines Objektmodells an eine dreidimensionale Punktwolke
US20140300610A1 (en) * 2007-11-16 2014-10-09 Adobe Systems Incorporated System and method for using time re-mapping for computer-generated animation
US8134558B1 (en) * 2007-12-06 2012-03-13 Adobe Systems Incorporated Systems and methods for editing of a computer-generated animation across a plurality of keyframe pairs
US20090213270A1 (en) * 2008-02-22 2009-08-27 Ryan Ismert Video indexing and fingerprinting for video enhancement
US8743125B2 (en) * 2008-03-11 2014-06-03 Sony Computer Entertainment Inc. Method and apparatus for providing natural facial animation
US8737721B2 (en) * 2008-05-07 2014-05-27 Microsoft Corporation Procedural authoring
US8391642B1 (en) * 2008-05-12 2013-03-05 Hewlett-Packard Development Company, L.P. Method and system for creating a custom image
AU2008359900A1 (en) * 2008-07-31 2010-02-04 Tele Atlas B.V. Method of displaying navigation data in 3D
AT10520U3 (de) * 2008-09-05 2013-10-15 Knapp Systemintegration Gmbh Vorrichtung und verfahren zur visuellen unterstützung von kommissioniervorgängen
AU2008362229A1 (en) * 2008-09-25 2010-04-01 Tele Atlas B.V. Method of and arrangement for blurring an image
TW201016016A (en) * 2008-10-07 2010-04-16 Euclid Discoveries Llc Feature-based video compression
JP2010118019A (ja) * 2008-11-14 2010-05-27 Sharp Corp 端末装置、配信装置、端末装置の制御方法、配信装置の制御方法、制御プログラムおよび記録媒体
CN101750072A (zh) * 2008-12-08 2010-06-23 北京龙图通信息技术有限公司 三维动画视频导航方法及系统
US9098926B2 (en) * 2009-02-06 2015-08-04 The Hong Kong University Of Science And Technology Generating three-dimensional façade models from images
US8111300B2 (en) * 2009-04-22 2012-02-07 Qualcomm Incorporated System and method to selectively combine video frame image data
KR101671900B1 (ko) * 2009-05-08 2016-11-03 삼성전자주식회사 가상 세계에서의 객체를 제어하는 시스템, 방법 및 기록 매체
JP5290864B2 (ja) * 2009-05-18 2013-09-18 キヤノン株式会社 位置姿勢推定装置及び方法
US8542252B2 (en) * 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8698841B2 (en) * 2009-07-10 2014-04-15 Georeplica, Inc. System, method and process of identifying and advertising organizations or other entities by overlaying image files on cartographic mapping applications
US8718338B2 (en) * 2009-07-23 2014-05-06 General Electric Company System and method to compensate for respiratory motion in acquired radiography images
CN101640724A (zh) * 2009-08-21 2010-02-03 北京协进科技发展有限公司 一种控制手机地图的方法及手机
KR100982768B1 (ko) * 2009-09-21 2010-09-20 (주)올라웍스 단말기의 각도에 따라 서로 다른 영상 정보를 제공하기 위한 방법, 단말기 및 컴퓨터 판독 가능한 기록 매체
JP5340895B2 (ja) * 2009-11-24 2013-11-13 株式会社ソニー・コンピュータエンタテインメント 画像データ作成支援装置および画像データ作成支援方法
US8566020B2 (en) * 2009-12-01 2013-10-22 Nokia Corporation Method and apparatus for transforming three-dimensional map objects to present navigation information
US8907947B2 (en) * 2009-12-14 2014-12-09 Dassault Systèmes Method and system for navigating in a product structure of a product
CN102713664B (zh) * 2010-01-12 2016-03-16 诺基亚技术有限公司 协作式位置/方位估计
US20110227919A1 (en) * 2010-03-17 2011-09-22 International Business Machines Corporation Managing object attributes in a virtual world environment
WO2012071445A2 (en) * 2010-11-24 2012-05-31 Google Inc. Guided navigation through geo-located panoramas
US8749573B2 (en) * 2011-05-26 2014-06-10 Nokia Corporation Method and apparatus for providing input through an apparatus configured to provide for display of an image
US10019962B2 (en) * 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
KR101923929B1 (ko) * 2012-06-06 2018-11-30 삼성전자주식회사 증강 현실 서비스를 제공하는 이동통신 단말기 및 증강 현실 서비스에 대한 화면으로의 화면 전환 방법
US8811764B1 (en) * 2012-10-25 2014-08-19 Google Inc. System and method for scene dependent multi-band blending

Also Published As

Publication number Publication date
US10636326B2 (en) 2020-04-28
US20170076638A1 (en) 2017-03-16
CN102542905B (zh) 2016-01-13
EP2437237A3 (en) 2015-05-27
JP2012079129A (ja) 2012-04-19
US9536454B2 (en) 2017-01-03
EP2437237A2 (en) 2012-04-04
JP5652097B2 (ja) 2015-01-14
CN202502670U (zh) 2012-10-24
US20120082341A1 (en) 2012-04-05
CN102542905A (zh) 2012-07-04

Similar Documents

Publication Publication Date Title
BRPI1106304A2 (pt) aparelho, mÉtodo, e, dispositivo de armazenamento legÍvel por computador
US9699375B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
US9558559B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
KR101002030B1 (ko) 단말 장치로 입력되는 입력 영상 및 상기 입력 영상에 관련된 정보를 이용하여 증강 현실을 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
US10025985B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium storing program
US20160063671A1 (en) A method and apparatus for updating a field of view in a user interface
CN111638796A (zh) 虚拟对象的展示方法、装置、计算机设备及存储介质
EP2806400B1 (en) Image enhancement using a multi-dimensional model
US20110137561A1 (en) Method and apparatus for measuring geographic coordinates of a point of interest in an image
US20120127201A1 (en) Apparatus and method for providing augmented reality user interface
KR20150075532A (ko) 증강 현실 제공 장치 및 방법
EP2806645A1 (en) Image enhancement using a multi-dimensional model
US10444954B2 (en) Distinguishable geographic area presentation
WO2012127605A1 (ja) 情報処理装置、及び情報処理方法
KR102108488B1 (ko) 컨텍스트적 지도 뷰
KR100968837B1 (ko) 촬영된 객체에 대한 정보를 제공하는 휴대용 카메라 시스템
JP2024124404A (ja) ジオリファレンス情報について現実世界をクエリするための画像センサの使用
CN104298678B (zh) 在电子地图上搜索兴趣点的方法、系统、装置和服务器
US20130235028A1 (en) Non-photorealistic Rendering of Geographic Features in a Map
KR102157999B1 (ko) 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치 및 방법
US20150379040A1 (en) Generating automated tours of geographic-location related features
US10108882B1 (en) Method to post and access information onto a map through pictures
JP2019164001A (ja) 情報提供システム、サーバ装置、端末用プログラム、及び情報提供方法
WO2023142265A1 (zh) 一种信息显示方法、装置、设备及存储介质
US20170200396A1 (en) Crowdsourcing User Generated Content Using Accessibility Enhancements

Legal Events

Date Code Title Description
B03A Publication of an application: publication of a patent application or of a certificate of addition of invention
B08F Application fees: dismissal - article 86 of industrial property law

Free format text: REFERENTE A 5A ANUIDADE.

B08K Lapse as no evidence of payment of the annual fee has been furnished to inpi (acc. art. 87)

Free format text: EM VIRTUDE DO ARQUIVAMENTO PUBLICADO NA RPI 2385 DE 20-09-2016 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDO O ARQUIVAMENTO DO PEDIDO DE PATENTE, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.