ES2811800T3 - Dispositivo de procesamiento de imágenes, método de procesamiento de imágenes y programa - Google Patents

Dispositivo de procesamiento de imágenes, método de procesamiento de imágenes y programa Download PDF

Info

Publication number
ES2811800T3
ES2811800T3 ES13842258T ES13842258T ES2811800T3 ES 2811800 T3 ES2811800 T3 ES 2811800T3 ES 13842258 T ES13842258 T ES 13842258T ES 13842258 T ES13842258 T ES 13842258T ES 2811800 T3 ES2811800 T3 ES 2811800T3
Authority
ES
Spain
Prior art keywords
captured
captured image
point
image
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13842258T
Other languages
English (en)
Inventor
Hiromi Hirano
Udana Bandara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Application granted granted Critical
Publication of ES2811800T3 publication Critical patent/ES2811800T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional [3D] objects
    • G06V20/647Three-dimensional [3D] objects by matching two-dimensional images to three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

Dispositivo (10) de procesamiento de imágenes, que comprende: medios (50) de obtención de imágenes captadas para la lectura de datos de imágenes captadas de una pluralidad de imágenes captadas que se obtienen tomando imágenes repetidamente de un objeto (30) mientras el objeto (30) completa una rotación; medios (52) de especificación de puntos característicos para especificar, usando un algoritmo, una pluralidad de puntos (60) característicos en la pluralidad de imágenes (40) captadas que se tomaron mientras el objeto completaba una rotación, medios (54) de obtención de información de posición para obtener, en un caso en el que un punto (60) característico correspondiente a un cierto punto en el objeto (30) se especifica en una primera imagen captada y una segunda imagen captada de la pluralidad de imágenes captadas, tomándose la segunda imagen captada después de la primera imagen captada y tomándose antes de un punto de tiempo en el que el objeto completa la rotación, información de posición (x, y) relativa a posiciones del punto (60) característico en la primera imagen captada y la segunda imagen captada; medios (56) de obtención de información de ángulo de rotación configurados para calcular un radio (r) para cada punto (60) característico basándose en las imágenes captadas, para obtener información de ángulo de rotación (θ1, θ2) relativa a un ángulo de rotación del objeto entre un punto de tiempo en el que se toma la primera imagen captada y un punto de tiempo en el que se toma la segunda imagen captada, basándose en la información de posición y el radio calculado; y medios (58) de generación de datos de imágenes en movimiento para generar datos (42) de imágenes en movimiento que muestran cómo rota el objeto (30), seleccionando una pluralidad de imágenes de trama de los datos (42) de imágenes en movimiento de la pluralidad de imágenes (40) captadas, basándose en la información de ángulo de rotación (θ1, θ2) obtenida por los medios de obtención de información de ángulo de rotación para cada una de la pluralidad de imágenes (40) captadas.

Description

DESCRIPCIÓN
Dispositivo de procesamiento de imágenes, método de procesamiento de imágenes y programa
Campo técnico
La presente invención se refiere a un dispositivo de procesamiento de imágenes, un método de procesamiento de imágenes, un programa y un medio de almacenamiento de información.
Antecedentes de la técnica
Como método para tomar (imágenes) de una circunferencia completa de un objeto, se conoce un método en el que se toman imágenes de un objeto mientras se hace rotar mecánicamente una mesa giratoria, en el que el objeto se coloca en el centro, a una velocidad angular constante (documento no de patentes 1). Además, también se conoce un programa de aplicación en el que se permite a un usuario que rote un objeto visualizado en una pantalla arbitrariamente con el uso de los datos de imágenes captadas obtenidos de esta manera (documento no de patentes 1).
En el programa de aplicación divulgado en el documento no de patentes 1, está configurado que, cuando un usuario desliza un dedo sobre un panel táctil, una trama de los datos de imágenes captadas se mueve hacia atrás y hacia adelante en un número basándose en la cantidad de deslizamiento. Como resultado, el objeto se hace rotar un ángulo basándose en la cantidad de deslizamiento del usuario y, por tanto, el usuario puede ver el objeto desde cualquier dirección. Esta tecnología permite a un usuario, por ejemplo, ver un producto desde una dirección arbitraria en un sitio web en el que se vende el producto.
Lista de referencias
Documento no de patentes
Documento no de patentes 1: “The Coolest AppAtSXSW-Arqball Spin”. [En línea]. 13 de marzo de 2012. [Consultado el 26 de julio de 2012]. Consultado en Internet: <URL: http://erickschonfeld.com/2012/03/13/coolest-application-sxswarqball-spin/>.
En el documento US 2004/0227751 A1, un método para generar una imagen tridimensional de un objeto incluye colocar una cámara de vídeo a una distancia predeterminada del objeto, de tal manera que la cámara de vídeo tenga una vista sin obstáculos del objeto y haga que el objeto rote alrededor de un eje central. Se capta un flujo de vídeo de al menos una revolución del objeto rotatorio con la cámara de vídeo. Se determina un periodo de la al menos una revolución del objeto. Se selecciona un número predeterminado de fotogramas del flujo de vídeo captado y se crea una imagen tridimensional del objeto usando los fotogramas seleccionados.
El documento US 2012/0082347 A1 describe un aparato y un método para medir la velocidad de un cuerpo de rotación y reconocer un giro usando una exploración de línea. Un aparato y un método para calcular el movimiento de un objeto son capaces de adquirir imágenes de exploración de línea usando algunas líneas de una cámara de exploración de área y calcular una velocidad tridimensional y un giro tridimensional de un cuerpo de rotación usando una imagen compuesta en la que se acoplan las imágenes de exploración de línea. Esto puede proporcionar un juego o entrenamiento realista a bajo coste al proporcionar una simulación física realista del cuerpo de rotación al tiempo que permite un precio competitivo al producir productos usando la cámara económica existente.
En el documento US 2003/0038801 A1, se captan imágenes de un objeto de referencia para detectar cada posición de cámara mediante cámaras y se obtiene la posición relativa entre las cámaras usando las imágenes captadas. Luego, se coloca un objetivo en una mesa giratoria sobre la que se forman marcas de referencia para detectar la posición, y mientras se hace rotar la mesa giratoria, las cámaras captan imágenes. Basándose en las marcas de referencia en la mesa giratoria, se determina la relación de posición entre la cámara y el objetivo y, basándose en la posición relativa de las cámaras, se determina la relación de posición entre el objetivo y la cámara. Se produce un modelo tridimensional del objetivo basándose en las imágenes captadas por las cámaras. De esta manera, un objetivo de tamaño relativamente grande se modela fácilmente de manera tridimensional.
Sumario de la invención
Problema técnico
La tecnología descrita anteriormente requiere una mesa giratoria que rote mecánicamente a una velocidad angular constante, y la preparación de una mesa giratoria de este tipo requiere costes o mano de obra considerable. Por el contrario, en el caso de una mesa giratoria que se hace rotar manualmente, pueden reducirse los costes y la mano de obra.
Sin embargo, si se usa una mesa giratoria que se hace rotar manualmente, la velocidad angular del objeto no es constante y, por tanto, el ángulo de rotación del objeto para cada trama no es constante en los datos de imágenes captadas. Como tal, cuando tales datos de imágenes captadas se reproducen tal cual, la velocidad de rotación del objeto no es constante. Además, en un caso en el que tales datos de imágenes captadas se usan en el programa de aplicación descrito anteriormente tal cual es, el ángulo de rotación del objeto basándose en la cantidad de deslizamiento del usuario no es constante. Como resultado, a veces los usuarios pueden sentirse incómodos.
Para resolver tal inconveniente, es necesario proporcionar tecnología para obtener datos de imágenes en movimiento en la que el ángulo de rotación de un objeto es aproximadamente constante para cada trama, basándose en los datos de imágenes captadas obtenidos al tomar imágenes de un objeto que rota a una velocidad angular no constante.
Se han concebido una o más realizaciones de la presente invención en vista de lo anterior, y un objeto de la misma es proporcionar un dispositivo de procesamiento de imágenes, un método de procesamiento de imágenes, un programa y un medio de almacenamiento de información capaz de obtener datos de imágenes en movimiento en los que un ángulo de rotación de un objeto es aproximadamente constante para cada trama, basándose en los datos de imágenes captadas obtenidos al tomar imágenes de un objeto que rota a una velocidad angular no constante.
Solución al problema
La presente invención proporciona un dispositivo de procesamiento de imágenes, tal como se expone en la reivindicación 1, un método de procesamiento de imágenes, tal como se expone en la reivindicación 14, y un programa tal como se expone en la reivindicación 15. Se definen realizaciones adicionales mediante las reivindicaciones dependientes adjuntas.
En un caso en el que la imagen captada se selecciona como una imagen de trama de los datos de imágenes en movimiento y la información de ángulo de rotación es igual a o mayor que el valor umbral, los medios de generación de datos de imágenes en movimiento pueden seleccionar, como otra imagen de trama de los datos de imágenes en movimiento, una cualquiera de la otra imagen captada y una imagen captada que se tomó inmediatamente antes de la otra imagen captada.
En un caso en el que la información de ángulo de rotación relativa a un ángulo de rotación del objeto entre el punto de tiempo en el que se toma la imagen captada y el punto de tiempo en el que se toma la otra imagen captada está más cerca del valor umbral que la información de ángulo de rotación relativa a un ángulo de rotación del objeto entre el punto de tiempo en el que se toma la una imagen captada y un punto de tiempo en el que se toma la imagen captada que se tomó inmediatamente antes de que se tome la otra imagen captada, los medios de generación de datos de imágenes en movimiento pueden seleccionar la otra imagen captada como una imagen de trama de los datos de imágenes en movimiento y, en un caso en el que la información de ángulo de rotación relativa al ángulo de rotación del objeto entre el punto de tiempo en el que se toma la una imagen captada y el punto de tiempo en el que la imagen captada que se tomó inmediatamente antes de que se tomara la otra imagen captada está más cerca del valor umbral que la información de ángulo de rotación relativa al ángulo de rotación del objeto entre el punto de tiempo en el que se toma la una imagen captada y el punto de tiempo en el que se toma la otra imagen captada, los medios de generación de datos de imágenes en movimiento pueden seleccionar la imagen captada que se tomó inmediatamente antes que la otra imagen captada como imagen de trama de los datos de imágenes en movimiento.
En un caso en el que se especifica un punto característico correspondiente a un cierto punto del objeto en un primer par de imágenes captadas, los medios de obtención de información de posición pueden obtener información de posición relativa a una posición del punto característico en una imagen captada que se toma primero entre el primer par de imágenes captadas y en otra imagen captada que se toma más tarde entre el primer par de imágenes captadas. Los medios de obtención de información de ángulo de rotación pueden obtener información de ángulo de rotación relativa a un ángulo de rotación del objeto entre un punto de tiempo en el que se toma la una imagen captada del primer par de imágenes captadas y un punto de tiempo en el que se toma la otra imagen captada del primer par de imágenes captadas basándose en la información de posición del primer par de imágenes captadas. En un caso en el que un punto característico correspondiente a un cierto punto en el objeto se especifica en un segundo par de imágenes captadas, los medios de obtención de información de posición pueden obtener información de posición relativa a una posición del punto característico de una imagen captada que se toma primero entre el segundo par de imágenes captadas y otra imagen captada que se toma más tarde entre el segundo par de imágenes captadas. Los medios de obtención de información de ángulo de rotación pueden obtener información de ángulo de rotación relativa a un ángulo de rotación del objeto entre un punto de tiempo en el que se toma la una imagen captada del segundo par de imágenes captadas y un punto de tiempo en el que se toma la otra imagen captada del segundo par de imágenes captadas basándose en la información de posición del segundo par de imágenes captadas. En el caso de que la otra imagen captada del primer par de imágenes captadas sea idéntica a la una imagen captada del segundo par de imágenes captadas, los medios de generación de datos de imágenes en movimiento pueden incluir medios para obtener información de ángulo de rotación acumulada relativa a un ángulo de rotación del objeto entre el punto de tiempo en el que se toma la una imagen captada del primer par de imágenes captadas y el punto de tiempo en el que se toma la otra imagen captada del segundo par de imágenes captadas, basándose en la información de ángulo de rotación del primer par de imágenes captadas y la información de ángulo de rotación del segundo par de imágenes captadas. Los medios de generación de datos de imágenes en movimiento pueden seleccionar una pluralidad de imágenes de trama de los datos de imágenes en movimiento de la pluralidad de imágenes captadas basándose en la información de ángulo de rotación acumulada.
En un caso en el que la una imagen captada del primer par de imágenes captadas se selecciona como imagen de trama de los datos de imágenes en movimiento, los medios de generación de datos de imágenes en movimiento pueden determinar si seleccionar o no la otra imagen captada del segundo par de imágenes captadas como otra imagen de trama de los datos de imágenes en movimiento, basándose en el resultado de comparar la información de ángulo de rotación acumulada con el valor umbral.
En un caso en el que la una imagen captada del primer par de imágenes captadas se selecciona como imagen de trama de los datos de imágenes en movimiento y la información de ángulo de rotación acumulada es igual a o mayor que el valor umbral, los medios de generación de datos de imágenes en movimiento pueden seleccionar una cualquiera de la otra imagen captada del segundo par de imágenes captadas y una imagen captada que se tomó inmediatamente antes de la otra imagen captada del segundo par de imágenes captadas como otra imagen de trama de los datos de imágenes en movimiento.
Los medios de obtención de información de ángulo de rotación pueden incluir medios para obtener información de diferencia de posición relativa a una diferencia entre la posición del punto característico en la una imagen captada y la posición del punto característico en la otra imagen captada, y medios para obtener el ángulo de rotación información basada en la información de diferencia de posición.
El dispositivo de procesamiento de imágenes puede incluir medios para establecer un área en la imagen captada como área de observación basándose en la posición de un eje de rotación del objeto en la imagen captada, y medios de obtención de información de ángulo de rotación pueden obtener la información de ángulo de rotación basándose en la información de diferencia de posición en un caso en el que el punto característico se incluye en el área de observación.
Los medios de obtención de información de ángulo de rotación pueden obtener la información de ángulo de rotación usando la información de diferencia de posición de un punto característico cuyo radio de rotación de cuando rota el objeto es grande, con preferencia con respecto a la información de diferencia de posición de un punto característico cuyo radio de rotación de cuando rota el objeto es pequeño.
Los medios de obtención de información de ángulo de rotación pueden incluir medios de obtención de información de radio de rotación para obtener, en un caso en el que una pluralidad de puntos característicos correspondientes, respectivamente, a una pluralidad de puntos en el objeto se especifican en la una imagen captada y la otra imagen captada, información de radio de rotación relativa a un radio de rotación de un punto en el objeto correspondiente al punto característico, para cada uno de la pluralidad de puntos característicos, medios para obtener, para cada uno de la pluralidad de puntos característicos, información de ángulo de rotación relativa a un ángulo de rotación del punto correspondiente al punto característico del objeto entre un punto de tiempo en el que se toma la una imagen captada y un punto de tiempo en el que se toma la otra imagen captada, basándose en la información de diferencia de posición y la información de radio de rotación de los puntos característicos, y medios para obtener la información de ángulo de rotación del objeto basándose en la información de ángulo de rotación de cada uno de la pluralidad de los puntos característicos.
Los medios de obtención de información de radio de rotación pueden incluir medios para obtener, en un caso en el que el punto característico correspondiente a cierto punto en el objeto se especifica en al menos tres imágenes captadas, información de órbita elíptica relativa a una órbita elíptica del punto característico basándose en la posición del punto característico en las al menos tres imágenes captadas, y medios para obtener la información de radio de rotación del punto característico basándose en la información de órbita elíptica del punto característico.
En un caso en el que el punto característico correspondiente a cierto punto del objeto se especifica primero en una imagen captada de orden i (i: un número entero de 1 o más) y se especifica en último lugar en una imagen captada de orden j (j: un número entero mayor que i) que se toma más tarde que la imagen captada de orden i, los medios de obtención de información de radio de rotación pueden obtener la información de radio de rotación del punto característico basándose en una posición del punto característico en la imagen captada de orden i y una posición del punto característico en la imagen captada de orden j.
Los medios de obtención de información de ángulo de rotación pueden incluir medios para obtener, en el caso de que el punto característico correspondiente a cierto punto del objeto se especifica en al menos tres imágenes captadas, información de órbita elíptica relativa a una órbita elíptica del punto característico y medios para obtener la información de ángulo de rotación basándose en las posiciones del punto característico en la una imagen captada y en la otra imagen captada y la información de órbita elíptica.
Los medios de generación de datos de imágenes en movimiento pueden incluir medios para obtener información de similitud relativa a una similitud entre una imagen captada de referencia que se selecciona de la pluralidad de imágenes captadas y cada una de una pluralidad de imágenes captadas que se toman después de que pasa un periodo de tiempo predeterminado desde un punto de tiempo en el que se toma la imagen captada de referencia, y medios para seleccionar una de la pluralidad de imágenes captadas que se toman después de que pasa el periodo de tiempo predeterminado desde el punto de tiempo en el que se toma la imagen captada de referencia como imagen captada de un punto de tiempo en el que el objeto completa una rotación basándose en la información de similitud. Los medios de generación de datos de imágenes en movimiento pueden generar los datos de imágenes en movimiento que muestran cómo rota el objeto una vez basándose en las imágenes captadas que se toman antes del punto de tiempo en el que se toma la imagen captada seleccionada como imagen captada del punto de tiempo en el que el objeto completa una rotación.
Los medios de generación de datos de imágenes en movimiento pueden incluir medios de obtención de número de puntos característicos para obtener un número de puntos característicos correspondientes a puntos característicos especificados en la imagen captada de referencia, de los puntos característicos especificados en la imagen captada que se toma después de que pasa el periodo de tiempo predeterminado desde el punto de tiempo en el que se toma la imagen captada de referencia, medios para seleccionar candidatos de la imagen captada del punto de tiempo en el que el objeto completa una rotación, de la pluralidad de imágenes captadas que se toman después de que pasa el periodo de tiempo predeterminado desde el punto de tiempo en el que se toma la imagen captada de referencia, basándose en un resultado obtenido por los medios de obtención de número de puntos característicos, medios para obtener información de similitud relativa a una similitud entre la imagen captada de referencia y cada una de las imágenes captadas seleccionadas como los candidatos, y medios para seleccionar una de las imágenes captadas seleccionadas como los candidatos como la imagen captada de un punto de tiempo en el que el objeto completa una rotación basándose en la información de similitud.
La pluralidad de imágenes captadas puede incluir las imágenes captadas 1a a de orden m (m: un número entero de 2 o más) y las imágenes captadas de orden m+1 a de orden m+n (n: un número entero de 1 o más), que se toman después de la imagen captada de orden m. Los medios de generación de datos de imágenes en movimiento pueden incluir medios de obtención de número de selección para obtener un número de las imágenes captadas seleccionadas como imágenes de trama de los datos de imágenes en movimiento de las imágenes captadas ia a de orden m, y medios para seleccionar las imágenes de trama de los datos de imágenes en movimiento de las imágenes captadas de orden m+1 a orden m+n, en un caso en el que el punto característico correspondiente al punto en el objeto no se especifica en las imágenes captadas de orden m+1 a orden m+n, basándose en una razón de un número de las imágenes captadas 1a a de orden m con respecto al número de imágenes captadas obtenidas por los medios de obtención de número de selección.
La pluralidad de imágenes captadas puede incluir las imágenes captadas 1a a de orden m (m: un número entero de 2 o más) y las imágenes captadas de orden m+1 a de orden m+n (n: un número entero de 1 o más), que se toman después de la imagen captada de orden m. Los medios de generación de datos de imágenes en movimiento pueden incluir medios de obtención de número de selección para obtener un número de las imágenes captadas seleccionadas de las imágenes captadas de orden m+1 a de orden m+n como imágenes de trama de los datos de imágenes en movimiento, y medios para seleccionar las imágenes de trama de los datos de imágenes en movimiento de las imágenes captadas 1a a de orden m, en un caso en el que el punto característico correspondiente al punto en el objeto no se especifica en las imágenes captadas 1a a de orden m, basándose en una razón de un número de las imágenes captadas de orden m+1 a orden m+n con respecto al número de imágenes captadas obtenidas por los medios de obtención de número de selección.
El dispositivo de procesamiento de imágenes puede incluir un primer medio de determinación para determinar si una cantidad de característica del punto característico especificado en la una imagen captada y una cantidad de característica del punto característico especificado en la otra área de imagen captada son iguales o sustancialmente iguales o no, un segundo medio de determinación para determinar si existe o no una diferencia de un valor de coordenadas de una dirección de un eje correspondiente a un eje de rotación del objeto entre la posición del punto característico especificado en la una imagen captada y la posición del punto característico especificado en la otra imagen captada es igual a o mayor que el valor umbral, y medios para determinar si el punto característico especificado en la una imagen captada y el punto característico especificado en la otra imagen captada son o no puntos característicos correspondientes a cierto punto en el objeto basándose en un resultado de determinación del primer medio de determinación y el segundo medio de determinación.
El dispositivo de procesamiento de imágenes puede incluir medios de determinación para determinar si la cantidad de característica del punto característico especificado en la una imagen captada y la cantidad de característica del punto característico especificado en la otra imagen captada son iguales o sustancialmente iguales o no, medios de comparación para comparar (a) información relativa a una diferencia de un valor de coordenadas de una dirección de un segundo eje perpendicular a un primer eje correspondiente a un eje de rotación del objeto entre la posición de un punto característico en la una imagen captada y la posición del punto característico en la otra imagen captada con (b) información relativa a una diferencia de un valor de coordenadas de la dirección del segundo eje entre la posición del otro punto característico en la una imagen captada y la posición del otro punto característico en la otra imagen captada, en un caso en el que un punto característico tenga una cantidad de característica igual o sustancialmente igual en ambos de la una imagen captada y la otra imagen captada, y el otro punto característico tenga una cantidad de característica igual o sustancialmente igual tanto en la una imagen captada como en la otra imagen captada se especifican, y medios para determinar si el punto característico especificado en la una imagen captada y el punto característico especificado en la otra imagen captada son puntos característicos correspondientes al cierto punto en el objeto, basándose en un resultado de determinación de los medios de determinación y un resultado de comparación de los medios de comparación.
Los medios de obtención de imágenes captadas pueden obtener una pluralidad de imágenes captadas que se obtienen tomando imágenes repetidamente del objeto mientras rota el objeto una pluralidad de veces. Los medios de generación de datos de imágenes en movimiento pueden generar los datos de imágenes en movimiento que muestran cómo rota el objeto una vez basándose en la pluralidad de imágenes captadas que se obtienen tomando imágenes repetidamente del objeto mientras rota el objeto la pluralidad de veces.
Efectos ventajosos de la invención
Según la presente invención, es posible obtener datos de imágenes en movimiento en los que un ángulo de rotación de un objeto es aproximadamente constante para cada trama basándose en los datos de imágenes captadas del objeto que rota a una velocidad angular no constante.
Breve descripción de los dibujos
[FIG. 1] Un diagrama que ilustra un ejemplo de una configuración de hardware de un dispositivo de procesamiento de imágenes según una realización de la presente invención.
[FIG. 2] Un diagrama para explicar un método de toma de imágenes de un artículo.
[FIG. 3] Un diagrama para explicar un método de toma de imágenes de un artículo.
[FIG. 4] Un diagrama para explicar un esquema de un método para generar datos de imágenes en movimiento de un artículo.
[FIG. 5] Un diagrama de bloques funcionales que ilustra las funciones implementadas en el dispositivo de procesamiento de imágenes.
[FIG. 6] Un diagrama que ilustra un ejemplo de un punto característico especificado por una unidad de especificación de puntos característicos.
[FIG. 7] Un diagrama que ilustra un ejemplo de una órbita de un punto característico correspondiente al cierto punto en el artículo.
[FIG. 8] Un diagrama que ilustra un ejemplo de puntos característicos especificados en la una imagen captada y otra imagen captada.
[FIG. 9] Un diagrama para explicar un método para obtener información de ángulo de rotación.
[FIG. 10] Un diagrama que ilustra la función Sen.
[FIG. 11] Un diagrama para explicar un método para establecer un área de observación.
[FIG. 12] Un diagrama para explicar un método para establecer un área de observación.
[FIG. 13] Un diagrama para explicar un ejemplo de un método para seleccionar imágenes de trama.
[FIG. 14] Un diagrama para explicar otro ejemplo de un método para seleccionar imágenes de trama.
[FIG. 15] Un diagrama para explicar el otro ejemplo de un método para seleccionar imágenes de trama.
[FIG. 16] Un diagrama de flujo que muestra un ejemplo de procesamiento ejecutado en el dispositivo de procesamiento de imágenes.
[FIG. 17] Un diagrama de flujo que muestra un ejemplo de procesamiento ejecutado en el dispositivo de procesamiento de imágenes.
[FIG. 18] Un diagrama para explicar un esquema del procesamiento ejecutado en el dispositivo de procesamiento de imágenes.
[FIG. 19] Un diagrama de flujo que muestra los detalles del procesamiento ejecutado en el dispositivo de procesamiento de imágenes.
[FIG. 20] Un diagrama de flujo que muestra otro ejemplo de procesamiento ejecutado en el dispositivo de procesamiento de imágenes.
[FIG. 21] Un diagrama de flujo que muestra otro ejemplo de procesamiento ejecutado en el dispositivo de procesamiento de imágenes.
[FIG. 22A] Un diagrama que ilustra una variación.
[FIG. 22B] Un diagrama que ilustra una variación.
[FIG. 23] Un diagrama que ilustra otra variación.
Descripción de realizaciones
A continuación se describirán en detalle ejemplos de una realización de la presente invención con referencia a los dibujos adjuntos.
La figura 1 ilustra un ejemplo de una configuración de hardware de un dispositivo de procesamiento de imágenes según una realización de la presente invención. El dispositivo 10 de procesamiento de imágenes según esta realización se implementa, por ejemplo, mediante un ordenador personal, un ordenador de servidor, un teléfono móvil (incluido un teléfono inteligente (smartphone)) o un terminal de información portátil (incluyendo una tableta).
Tal como se muestra en la figura 1, el dispositivo 10 de procesamiento de imágenes incluye una unidad 11 de control, una unidad 12 de almacenamiento, una unidad 13 de disco duro óptico, una unidad 14 de comunicación, una unidad 15 de funcionamiento, una unidad 16 de visualización y una unidad 17 de salida de audio.
La unidad 11 de control incluye, por ejemplo, uno o más microprocesadores, y ejecuta el procesamiento según un sistema operativo o un programa almacenado en la unidad 12 de almacenamiento. La unidad 12 de almacenamiento incluye una unidad de almacenamiento principal, tal como una RAM, y una unidad de almacenamiento auxiliar, tal como un disco duro o una unidad de estado sólido.
La unidad 13 de disco duro óptico lee un programa y datos almacenados en un disco óptico (medio de almacenamiento de información). El programa y los datos se proporcionan a la unidad 12 de almacenamiento a través del disco óptico. Es decir, el programa y los datos almacenados en el disco óptico se leen y almacenan en la unidad 12 de almacenamiento. La unidad 13 de disco duro óptico no es un elemento esencial. El dispositivo 10 de procesamiento de imágenes puede incluir un elemento para la lectura del programa y los datos almacenados en un medio de almacenamiento de información diferente del disco óptico (por ejemplo, una tarjeta de memoria). El programa y los datos pueden proporcionarse a la unidad 12 de almacenamiento a través de un medio de almacenamiento de información diferente del disco óptico.
La unidad 14 de comunicación es una interfaz para conectar el dispositivo 10 de procesamiento de imágenes a una red de comunicación. El dispositivo 10 de procesamiento de imágenes está configurado para enviar y recibir datos a y desde otros dispositivos a través de la red de comunicación. El programa y los datos pueden proporcionarse a la unidad 12 de almacenamiento a través de la red de comunicación.
La unidad 15 de funcionamiento es una unidad para que la haga funcionar un usuario. La unidad 15 de funcionamiento incluye, por ejemplo, un teclado, un dispositivo señalador o similar. La unidad 16 de visualización es, por ejemplo, una pantalla de visualización de cristal líquido, una pantalla de visualización de EL orgánico o similar, y la unidad 17 de salida de audio son, por ejemplo, altavoces, auriculares o similares.
A continuación se explica la tecnología de generación de datos de imágenes en movimiento en la que el ángulo de rotación de un objeto es aproximadamente constante para cada trama, basándose en los datos de imágenes captadas de un objeto que rota a una velocidad angular no constante. A continuación, se comenta un caso en el que se generan datos de imágenes en movimiento de artículos comerciales. Sin embargo, la presente invención es aplicable a un caso en el que se generan datos de imágenes en movimiento de un objeto diferente de un artículo comercial.
En primer lugar, se comentará un método para tomar imágenes de un artículo. Las figuras 2 y 3 ilustran un método para tomar imágenes de un artículo. Tal como se muestra en la figura 2, cuando se toman imágenes de un artículo 30 (el gato de la suerte en el ejemplo de la figura 2), el artículo 30 se coloca sobre una mesa 20 giratoria.
La mesa 20 giratoria incluye un tablero 22 grueso, un cartón 24 y una chincheta 28. El tablero 22 grueso es un tablero en el que la chincheta 28 puede clavarse de manera segura, y el cartón 24 se fija al tablero 22 grueso con la chincheta 28 La chincheta 28 se clava en el centro 26 del cartón 24.
El artículo 30 se coloca en el centro del cartón 24. El artículo 30 se coloca de modo que el eje central del artículo 30 coincida con el centro 26 del cartón. El cartón 24 puede rotar con la chincheta 28 como eje 32 de rotación. Cuando un camarógrafo rota el cartón 24 manualmente, el artículo 30 colocado sobre el cartón 24 rota alrededor del eje 32 de rotación.
Tal como se muestra en la figura 3, un dispositivo 34 de toma de imágenes para tomar imágenes del artículo 30 se fija en la posición desde la que pueden tomarse imágenes del artículo 30 colocado sobre la mesa 20 giratoria. En el ejemplo mostrado en la figura 3, el dispositivo 34 de toma de imágenes se coloca delante de la mesa 20 giratoria y ligeramente por encima del artículo 30.
El dispositivo 34 de toma de imágenes incluye una cámara de vídeo digital y puede tomar imágenes de una imagen fija y una imagen en movimiento. Por ejemplo, se usa una única cámara de vídeo digital o una cámara de vídeo digital incorporada en un teléfono móvil, etc. como dispositivo 34 de toma de imágenes. Además, por ejemplo, una cámara de vídeo digital incorporada en el dispositivo 10 de procesamiento de imágenes puede usarse como dispositivo 34 de toma de imágenes. Puede usarse una cámara digital capaz de tomar sólo imágenes fijas como dispositivo 34 de toma de imágenes.
El dispositivo 34 de toma de imágenes realiza la toma de imágenes a intervalos predeterminados (por ejemplo, cada 1/30 segundos). Dicho de otro modo, el dispositivo 34 de toma de imágenes toma una imagen en movimiento que tiene el número predeterminado (por ejemplo, 30) de tramas por segundo.
El camarógrafo comienza a tomar imágenes de con el dispositivo 34 de toma de imágenes y también hace rotar el cartón 24, sobre el que se coloca el artículo 30, en sentido antihorario (o en sentido horario). Por ejemplo, el camarógrafo rota el cartón 24 usando un dedo índice y un dedo corazón, alternativamente. En este caso, el dispositivo 34 de toma de imágenes toma una imagen en movimiento del artículo rotatorio 30. Esta imagen en movimiento se almacena en la unidad 12 de almacenamiento del dispositivo 10 de procesamiento de imágenes a través de un medio de almacenamiento o una red de comunicación. Esta imagen en movimiento puede almacenarse en un dispositivo diferente del dispositivo 10 de procesamiento de imágenes.
En lugar de tomar una imagen en movimiento del artículo 30, el camarógrafo puede tomar continuamente imágenes fijas del artículo 30 mientras el artículo 30 está rotando. Puede usarse un grupo de imágenes fijas obtenidas tal como se describió anteriormente en lugar de la imagen en movimiento anterior.
A continuación, una imagen en movimiento o un grupo de imágenes fijas tomadas por el dispositivo 34 de toma de imágenes se denominan “datos de imágenes captadas”. Cada imagen incluida en los datos de imágenes captadas se denomina “imagen captada”. Por ejemplo, si una imagen en movimiento tomada por el dispositivo 34 de toma de imágenes son datos de imágenes captadas, cada imagen de trama de la imagen en movimiento corresponde a una “ imagen captada”. Además, por ejemplo, si un grupo de imágenes fijas tomadas por el dispositivo 34 de toma de imágenes son datos de imágenes captadas, cada imagen fija corresponde a una “imagen captada”.
A continuación, los datos de imágenes en movimiento de un artículo 30 que van a generarse basándose en los datos de imágenes captadas, es decir, los datos de imágenes en movimiento en los que un ángulo de rotación de un artículo 30 es aproximadamente constante para cada trama, se denominan simplemente “datos de imágenes en movimiento”. A continuación, se comentará más adelante un método para generar datos de imágenes en movimiento en el que el ángulo de rotación de un artículo 30 es aproximadamente constante para cada trama, basándose en los datos de imágenes captadas, como antes. La figura 4 ilustra un esquema de un método para generar datos de imágenes en movimiento.
En la figura 4, los números adjuntos por encima de las imágenes 40 captadas incluidas en los datos de imágenes captadas son números de imagen. Cada número de imagen indica un orden de toma de imágenes para una imagen captada. Si los datos de imágenes captadas son una imagen en movimiento, un número de imagen corresponde a un número de trama de la imagen en movimiento. Por otro lado, si los datos de imágenes captadas son un grupo de imágenes fijas, un número de imagen indica dónde se encuentra una imagen fija en cuestión en un orden cronológico de toma de imágenes. A continuación, una imagen 40 captada con un número de imagen “i”, es decir, la imagen 40 captada de orden i se escribe como una imagen captada [i].
En la figura 4, los números adjuntos por encima de las imágenes 42 de trama incluidas en los datos de imágenes en movimiento son números de trama. A continuación, una imagen 42 de trama con un número de trama “j ”, es decir, la imagen 42 de trama de orden j se escribe como la imagen de trama [j].
Tal como se muestra en la figura 4, el dispositivo 10 de procesamiento de imágenes genera datos de imágenes en movimiento seleccionando cada imagen 42 de trama que constituye los datos de imágenes en movimiento de las imágenes 40 captadas.
En particular, el dispositivo 10 de procesamiento de imágenes selecciona cada imagen 42 de trama de modo que un ángulo de rotación (A9) del artículo 30 en las imágenes 42 de trama adyacentes sea aproximadamente constante.
Dicho de otro modo, cada imagen 42 de trama se selecciona de modo que un ángulo (A9) entre una dirección representativa (por ejemplo, dirección frontal) del artículo 30 en una imagen 42 de trama y una dirección representativa del artículo 30 en una imagen 42 de trama posterior a la imagen 42 de trama sea aproximadamente constante.
Dicho todavía de otro modo, cada imagen 42 de trama se selecciona de modo que un ángulo de rotación (A9) del artículo 30 entre un punto de tiempo en el que se toma una imagen 40 captada seleccionada como imagen 42 de trama y un punto de tiempo en el que se toma una imagen 40 captada seleccionada como imagen 42 de trama posterior a la toma de la imagen 42 de trama sea aproximadamente constante.
En el ejemplo mostrado en la figura 4, la imagen captada [1] se selecciona como imagen de trama [1]. La imagen captada [4] se selecciona como imagen de trama [2]. La imagen captada [6] se selecciona como imagen de trama [3].
A continuación, se comentará una constitución para implementar el método de generación descrito anteriormente. La figura 5 es un diagrama de bloques funcionales que ilustra las funciones implementadas en el dispositivo 10 de procesamiento de imágenes.
Tal como se muestra en la figura 5, el dispositivo 10 de procesamiento de imágenes incluye una unidad 50 de obtención de imágenes captadas, una unidad 52 de especificación de puntos característicos, una unidad 54 de obtención de información de posición, una unidad 56 de obtención de información de ángulo de rotación y una unidad 58 de generación de datos de imágenes en movimiento. Estos bloques funcionales se implementan, por ejemplo, por la unidad 11 de control. Es decir, la unidad 11 de control ejecuta el procesamiento según un programa, para funcionar de ese modo como estos bloques funcionales.
Se comentará la unidad 50 de obtención de imágenes captadas. La unidad 50 de obtención de imágenes captadas obtiene una pluralidad de imágenes 40 captadas que se obtienen tomando imágenes repetidamente de un objeto mientras el objeto está rotando. En el ejemplo descrito anteriormente, el artículo 30 corresponde al “objeto”.
Es decir, la unidad 50 de obtención de imágenes captadas lee los datos de imágenes captadas almacenados en la unidad 12 de almacenamiento. Los datos de imágenes captadas pueden almacenarse en un dispositivo diferente del dispositivo 10 de procesamiento de imágenes. Dicho de otro modo, la unidad 50 de obtención de imágenes captadas puede obtener datos de imágenes captadas almacenados en un dispositivo diferente del dispositivo 10 de procesamiento de imágenes a través de una red de comunicación.
Se comentarán la unidad 52 de especificación de puntos característicos y la unidad 54 de obtención de información de posición. La unidad 52 de especificación de puntos característicos especifica puntos característicos en imágenes 40 captadas. En un caso en el que un punto característico correspondiente al cierto punto en el objeto se especifica en un par de imágenes 40 captadas, la unidad 54 de obtención de información de posición obtiene información de posición de una posición del punto característico en una imagen 40 captada del par, que se toma antes, y una posición del punto característico en la otra imagen 40 captada del par, que se toma más tarde.
Por ejemplo, la unidad 52 de especificación de puntos característicos obtiene posiciones y cantidades de característica de los puntos característicos en las imágenes 40 captadas usando un algoritmo conocido para especificar un punto característico. Por ejemplo, puede usarse como tal algoritmo, el algoritmo SURF (Speed-Up Robust Features, características robustas de mayor rapidez). También puede utilizarse un algoritmo diferente del algoritmo SURF. Por ejemplo, también pueden usarse el algoritmo SIFT (Scale-Invariant Feature Transform, transformada de características invariantes a escala) y el algoritmo Brisk (Binary Robust Invariant Scalable Keypoints, puntos clave binarios invariantes escalables robustos).
Tal como se comentará a continuación, se usa un punto característico para obtener información sobre un ángulo de rotación del artículo 30. Como tal, un punto característico incluido en un área (denominado más adelante en el presente documento, “área de fondo”) diferente del área en la que está incluido el artículo 30 no es necesario. Por tanto, la unidad 52 de especificación de puntos característicos puede ignorar un punto característico en el área de fondo.
Por ejemplo, la unidad 52 de especificación de puntos característicos obtiene una imagen de substracción entre dos imágenes 40 captadas consecutivas. La imagen 40 captada es una imagen captada de un artículo 30 en rotación y, por tanto, un área de fondo de la imagen 40 captada no se cambia básicamente. Como tal, la unidad 52 de especificación de puntos característicos adopta un área que tiene un valor de píxel cero en la imagen de sustracción como área de fondo, y elimina los puntos característicos en esta área. Dicho de otro modo, los puntos característicos incluidos en esta área no se consideran en la unidad 54 de obtención de información de posición ni en la unidad 56 de obtención de información de ángulo de rotación.
La figura 6 ilustra un ejemplo de un punto característico especificado por la unidad 52 de especificación de puntos característicos. En la figura 6, se especifica un punto 60 característico correspondiente al hocico del gato de la suerte. En realidad, se especifican una pluralidad de puntos 60 característicos en una imagen 40 captada, pero se omiten en la figura 6. La posición del punto 60 característico se representa, por ejemplo, mediante valores de coordenadas de un sistema de coordenadas X-Y, en el que el vértice superior izquierdo de la imagen 40 captada es el origen O, y el sentido hacia la derecha y el sentido hacia abajo de la imagen 40 captada son el sentido positivo del eje X y el sentido positivo del eje Y, respectivamente.
Por ejemplo, el punto 60 característico correspondiente al hocico del gato de la suerte se especifica en cada una de las imágenes 40 captadas en las que se presenta el hocico del gato de la suerte. Dicho de otro modo, el punto 60 característico correspondiente al cierto punto en el artículo 30 se especifica en la pluralidad de imágenes 40 captadas.
La figura 7 ilustra un ejemplo de una órbita del punto 60 característico correspondiente a un cierto punto en el artículo 30. Por ejemplo, la figura 7 muestra una órbita 70 del punto 60 característico correspondiente al hocico del gato de la suerte. En el ejemplo mostrado en la figura 3, el dispositivo 34 de toma de imágenes se coloca delante de la mesa 20 giratoria y ligeramente por encima del artículo 30, y así, la órbita 70 del punto 60 característico es una órbita elíptica tal como se muestra en la figura 7.
Básicamente, la cantidad de característica del punto 60 característico correspondiente al hocico del gato de la suerte es igual en cada una de las imágenes 40 captadas. Dicho de otro modo, los puntos 60 característicos correspondientes al cierto punto en el artículo 30 pueden especificarse en la pluralidad de imágenes 40 captadas, pero básicamente, las cantidades de característica de los puntos 60 característicos correspondientes al cierto punto en el artículo 30 es igual en cada una de la pluralidad de imágenes 40 captadas.
Entonces, la unidad 52 de especificación de puntos característicos (primer medio de determinación) determina si una cantidad de característica de un punto 60 característico especificado en una primera imagen 40 captada es igual o sustancialmente igual o no, que una cantidad de característica de un punto 60 característico especificado en una segunda imagen 40 captada. Cuando una diferencia entre las cantidades de característica de estos puntos 60 característicos es igual a o menor que un valor umbral, la unidad 52 de especificación de puntos característicos determina que las cantidades de característica de estos puntos 60 característicos son sustancialmente iguales. Cuando las cantidades de característica de estos puntos 60 característicos son iguales o sustancialmente iguales, la unidad 52 de especificación de puntos característicos determina que estos puntos 60 característicos son puntos 60 característicos correspondientes a un cierto punto en el artículo 30.
El artículo 30 rota alrededor del eje 32 de rotación y el eje Y es un eje correspondiente al eje 32 de rotación y, así, los valores de coordenadas de eje Y de los puntos 60 característicos correspondientes al cierto punto en el artículo 30 no difieren tanto unos de otros.
Como tal, la unidad 52 de especificación de puntos característicos (segundo medio de determinación) determina si una diferencia entre un valor de coordenadas de eje Y de un punto 60 característico especificado en una primera imagen 40 captada y un valor de coordenadas de eje Y de un punto 60 característico especificado en una segunda imagen 40 captada es o no un valor umbral o más. Si la diferencia entre los valores de coordenadas de eje Y de estos puntos 60 característicos es el valor umbral o más, la unidad 52 de especificación de puntos característicos determina que estos puntos 60 característicos no son puntos 60 característicos correspondientes a un cierto punto en el artículo 30, aunque las cantidades de característica de estos puntos 60 característicos sean iguales o sustancialmente iguales.
Además, cuando se especifican una pluralidad de puntos 60 característicos que corresponden, respectivamente, a ciertos puntos en el artículo 30 en una primera imagen 40 captada y una segunda imagen 40 captada, las cantidades de cambio de los valores de coordenadas de eje X de cada uno de la pluralidad de puntos 60 característicos son sustancialmente iguales y no son significativamente diferentes entre sí.
Como tal, tal como se muestra en la figura 8, por ejemplo en un caso en el que un punto 60A característico que tiene una cantidad de característica igual o sustancialmente igual tanto en una primera imagen 40 captada como en una segunda imagen 40 captada, un punto 60B característico que tiene una cantidad de característica igual o sustancialmente igual tanto en la primera imagen 40 captada como en la segunda imagen 40 captada, un punto 60C característico que tiene una cantidad de característica igual o sustancialmente igual tanto en la primera imagen 40 captada como en la segunda imagen 40 captada, y un punto 60D característico que tiene la una cantidad de característica igual o sustancialmente igual tanto en la primera imagen 40 captada como en la segunda imagen 40 captada, la unidad 52 de especificación de puntos característicos (medios de comparación) compara una cantidad de cambio del valor de coordenadas de eje X del punto 60D característico con cantidades de cambio de valores de coordenadas de eje X de otros puntos 60A-60C característicos.
En el ejemplo mostrado en la figura 8, las cantidades de cambio de los valores de coordenadas de eje X de los puntos 60A-60C característicos son sustancialmente iguales, y la cantidad de cambio del valor de coordenadas de eje X del punto 60D característico es mayor que las de los puntos 60A-60C característicos. Tal como se describió anteriormente, cuando la cantidad de cambio del valor de coordenadas de eje X del punto 60D característico es muy diferente de las cantidades de cambio de los valores de coordenadas de eje X de los puntos 60A-60C característicos de esta manera, la unidad 52 de especificación de puntos característicos determina que el punto 60D característico no es un punto 60 característico correspondiente al cierto punto en el artículo 30. Dicho de otro modo, la unidad 52 de especificación de puntos característicos determina que el punto 60D característico, que tiene un valor absoluto de desviación de la cantidad de cambio del valor de coordenadas de eje X mayor que el valor umbral, no es un punto 60 característico correspondiente al cierto punto en el artículo 30.
Se comentará la unidad 56 de obtención de información de ángulo de rotación. La unidad 56 de obtención de información de ángulo de rotación obtiene información de ángulo de rotación en un ángulo de rotación de un objeto entre el punto de tiempo en el que se toma una primera imagen 40 captada y el punto de tiempo en el que se toma una segunda imagen 40 captada, basándose en la información de posición obtenida por la unidad 54 de obtención de información de posición.
La “ información de ángulo de rotación” puede ser, por ejemplo, información numérica que indica un ángulo de rotación en sí mismo, o información numérica que no indica un ángulo de rotación en sí mismo, pero que es proporcional a un ángulo de rotación. Dicho de otro modo, la “información de ángulo de rotación” puede ser información numérica que indica directamente el tamaño de un ángulo de rotación, o información numérica que indica indirectamente el tamaño de un ángulo de rotación.
La figura 9 es un diagrama para explicar un método para obtener información de ángulo de rotación y una relación entre un ángulo de rotación del artículo 30 y los cambios en los valores de coordenada X de un punto 60 característico. La figura 9 ilustra el artículo 30 colocado sobre la mesa 20 giratoria, visto justo desde arriba.
Cuando el artículo 30 rota alrededor del eje 32 de rotación, una órbita 80 de un punto 30A en el artículo 30 es una órbita circular centrada en el eje 32 de rotación. A continuación, el radio de la órbita circular se escribe como “r”.
Por ejemplo, en un caso en el que el artículo 30 rota sólo en ángulo de rotación 01, una cantidad x1 de cambio del valor de coordenadas de eje X del punto 60 característico correspondiente al punto 30A en el artículo 30 se representa mediante la siguiente ecuación (1). Es decir, x1 es un valor obtenido al multiplicar r por sen01. De manera similar, en un caso en el que el artículo 30 rota sólo en ángulo de rotación 02, una cantidad x2 de cambio del valor de coordenadas de eje X del punto 60 característico correspondiente al punto 30A en el artículo 30 se representa mediante la siguiente ecuación (2). Es decir, x2 es un valor obtenido al multiplicar r por sen02.
x1 = r sen 0 . . . (1)
x2 = r sen 0 . . . (2)
La función Sen es tal como se muestra en la figura 10, y luego la función Sen puede aproximarse linealmente en un área 90 cercana en la que el ángulo 0 es cero o próximo a cero. Como tal, las ecuaciones (1) y (2) anteriores pueden aproximarse como las siguientes ecuaciones (3) y (4) usando una constante proporcional a. Además, basándose en las ecuaciones (3) y (4), una relación entre x-i, x2, 01, y 02 se representa mediante la siguiente ecuación (5).
x1 = r sen 01 = ar0 . . . (3)
x2 = r sen 02 = a r0 . . . (4)
Figure imgf000011_0001
Además, x2 y 02 puede representarse mediante las siguientes ecuaciones (6) y (7).
x2 = x1 Ax .. . (6)
02 = 01 + A0 . . . (7)
La ecuación (5) anterior puede modificarse como la siguiente ecuación (8). La siguiente ecuación (8) puede reorganizarse como la siguiente ecuación (9). Además, basándose en la ecuación (3) anterior, la siguiente ecuación (9) puede modificarse como la siguiente ecuación (10). Entonces, la siguiente ecuación (11) puede obtenerse basándose en la siguiente ecuación (10).
Figure imgf000012_0001
La ecuación (11) anterior indica que un cambio del ángulo (A9) es proporcional a un cambio del valor de coordenadas de eje X (Ax). Por consiguiente, el ángulo de rotación (A9) de cuando el artículo 30 rota tiene una relación proporcional con la cantidad de cambio (Ax) del valor de coordenadas de eje X del punto 60 característico correspondiente al punto 30A en el artículo 30.
Ahora, un radio r en la ecuación (11) varía básicamente en cada punto del artículo 30. Sin embargo, en un caso en el que el artículo 30 tiene una forma cilíndrica, el radio r anterior no varía en cada punto del artículo 30 y es sustancialmente igual. Como tal, suponiendo que una forma del artículo 30 es cilíndrica, el radio r en la ecuación (11) puede ignorarse y, así, la cantidad de cambio del valor de coordenadas de eje X del punto 60 característico puede usarse como valor que indica un tamaño de un ángulo de rotación del artículo 30.
En vista de lo anterior, las funciones de la unidad 56 de obtención de información de ángulo de rotación se comentarán en detalle.
La unidad 56 de obtención de información de ángulo de rotación establece un área de observación en una imagen 40 captada basada en la posición del eje 32 de rotación en la imagen 40 captada. El área de observación es un área correspondiente al área 90 cercana mostrada en la figura 10. Las figuras 11 y 12 son diagramas para explicar un método para establecer el área de observación.
En primer lugar, la unidad 56 de obtención de información de ángulo de rotación extrae un punto 60 característico que tiene el valor mínimo de coordenadas de eje X y un punto 60 característico que tiene el valor máximo de coordenadas de eje X de los puntos 60 característicos en todas las imágenes 40 captadas. En este caso, se ignora un punto 60 característico incluido en el área de fondo.
En la figura 11, el valor de coordenadas de eje X del punto 60 característico que tiene el valor mínimo de coordenadas de eje X se escribe como “Xmín”, y el valor de coordenadas de eje X del punto 60 característico que tiene el valor máximo de coordenadas de eje X se escribe como “Xmáx”. La unidad 56 de obtención de información de ángulo de rotación supone que un área en la que un valor de coordenadas de eje X satisface Xmín = x ^ Xmáx como área 100 en la que puede existir un punto 60 característico (denominado más adelante en el presente documento “área de existencia”).
Posteriormente, la unidad 56 de obtención de información de ángulo de rotación obtiene una posición del eje 32 de rotación en la imagen 40 captada basándose en el área 100 de existencia. Tal como se muestra en la figura 11, por ejemplo, la unidad 56 de obtención de información de ángulo de rotación supone una línea 102 recta que divide por igual el área 100 de existencia hacia la derecha y la izquierda como una línea recta correspondiente al eje 32 de rotación. Dicho de otro modo, la unidad 56 de obtención de información de ángulo de rotación supone la línea 102 recta, que pasa por el valor intermedio de Xmín y Xmáx, ((Xmín+Xmáx)/2), y es paralela al eje Y, como una línea recta correspondiente al eje 32 de rotación.
La unidad 56 de obtención de información de ángulo de rotación puede obtener un área de objeto, en la que se presenta un objeto (artículo 30), en cada una de las imágenes 40 captadas. Entonces, la unidad 56 de obtención de información de ángulo de rotación puede suponer una línea recta que divide por igual un área sumada de esas áreas de objeto hacia la derecha y la izquierda como una línea recta correspondiente al eje 32 de rotación.
La unidad 56 de obtención de información de ángulo de rotación establece un área de observación basada en la línea 102 recta obtenida tal como se describió anteriormente. Tal como se muestra en la figura 12, por ejemplo, la unidad 56 de obtención de información de ángulo de rotación establece un área rectangular con la línea 102 recta que pasa por el centro y que tiene la anchura d como el área 110 de observación. En este caso, la anchura d se establece como un valor menor que una anchura w del área 100 de existencia.
Tal como se describe más adelante, la unidad 56 de obtención de información de ángulo de rotación usa sólo un punto 60 característico incluido en el área 110 de observación para obtener información de ángulo de rotación. Por este motivo, si un valor de la anchura d es demasiado pequeño, un número de los puntos 60 característicos incluidos en el área 110 de observación se vuelve pequeño y, así, la precisión de la información de ángulo de rotación puede reducirse posiblemente. Por otro lado, si un valor de la anchura d es demasiado grande, el área 110 de observación posiblemente no corresponda con el área 90 cercana en la figura 10. En este caso, no se satisface la premisa de que es posible una aproximación lineal de la función Sen y, como resultado, es posible que se reduzca la precisión de la información de ángulo de rotación. Es preferible establecer el valor de anchura d como, por ejemplo, aproximadamente un tercio del valor de anchura (w) del área 100 de existencia.
En un caso en el que se especifica el punto 60 característico correspondiente al cierto punto en el artículo 30, en las áreas 110 de observación tanto en una primera imagen 40 captada como en una segunda imagen 40 captada, la unidad 56 de obtención de información de ángulo de rotación obtiene información de diferencia de posición referente a una diferencia entre una posición de un punto 60 característico en la primera imagen 40 captada y una posición de un punto 60 característico en la segunda imagen 40 captada.
Por ejemplo, la unidad 56 de obtención de información de ángulo de rotación obtiene información referente a diferencias en los valores de coordenadas de eje X como la información de diferencia de posición anterior. Tal como se describió anteriormente, el eje X es un eje perpendicular al eje Y correspondiente al eje 32 de rotación.
La unidad 56 de obtención de información de ángulo de rotación obtiene información de ángulo de rotación basándose en la información de diferencia de posición anterior.
Por ejemplo, cuando una pluralidad de puntos 60 característicos correspondientes, respectivamente, a ciertos puntos en el artículo 30 se especifican en las áreas 110 de observación tanto en una primera imagen 40 captada como en una segunda imagen 40 captada, la unidad 56 de obtención de información de ángulo de rotación calcula una cantidad de cambio de valores de coordenadas de eje X entre la primera imagen 40 captada y la segunda imagen 40 captada para cada uno de los puntos 60 característicos. Posteriormente, la unidad 56 de obtención de información de ángulo de rotación calcula datos estadísticos (por ejemplo, valor promedio) de las cantidades de cambio de los puntos 60 característicos respectivos. En este caso, tales valores calculados se usan como información de ángulo de rotación.
Alternativamente, la unidad 56 de obtención de información de ángulo de rotación puede calcular posiciones del centro de gravedad de los puntos 60 característicos anteriores en la primera imagen 40 captada. Además, la unidad 56 de obtención de información de ángulo de rotación puede calcular posiciones del centro de gravedad de los puntos 60 característicos anteriores en la segunda imagen 40 captada. Entonces, la unidad 56 de obtención de información de ángulo de rotación puede calcular diferencias en los valores de coordenadas de eje X entre esas posiciones del centro de gravedad. En este caso, tales valores calculados se usan como información de ángulo de rotación.
Los valores descritos anteriormente corresponden a valores numéricos que representan tamaños de ángulos de rotación, pero no son valores numéricos que representan los ángulos de rotación en sí mismos. Por este motivo, a continuación, tales valores numéricos se denominan “ángulo de pseudorrotación” por conveniencia.
Se comentará la unidad 58 de generación de datos de imágenes en movimiento. La unidad 58 de generación de datos de imágenes en movimiento genera datos de imágenes en movimiento seleccionando, de las imágenes 40 captadas, cada imagen 42 de trama de los datos de imágenes en movimiento que muestra cómo rota el objeto basándose en la información de posición obtenida por la unidad 54 de obtención de información de posición.
Por ejemplo, la unidad 58 de generación de datos de imágenes en movimiento selecciona, de las imágenes 40 captadas, imágenes 42 de trama de los datos de imágenes en movimiento que muestran cómo rota el artículo 30 basándose en la información de ángulo de rotación obtenida por la unidad 56 de obtención de información de ángulo de rotación para cada una de las imágenes 40 captadas incluidas en los datos de imágenes captadas.
Específicamente, la unidad 58 de generación de datos de imágenes en movimiento selecciona cada imagen 42 de trama de modo que los ángulos de rotación del artículo 30 entre las imágenes 42 de trama sean sustancialmente iguales.
La figura 13 es un diagrama para explicar un ejemplo de un método para seleccionar imágenes 42 de trama. En la figura 13, por ejemplo, A9-i,2 representa un ángulo de pseudorrotación entre una imagen captada [1] y una imagen captada [2]. Es decir, A9-i,2 representa un ángulo de pseudorrotación del artículo 30 entre el punto de tiempo en el que se toma la imagen captada [1] y el punto de tiempo en el que se toma la imagen captada [2]. Por ejemplo, en un caso en el que una pluralidad de puntos 60 característicos correspondientes, respectivamente, a ciertos puntos en el artículo 30 se especifican en las áreas 110 de observación tanto en la imagen captada [1] como en la imagen captada [2], un valor promedio de las cantidades de cambio de los valores de coordenadas de eje X de los puntos 60 característicos entre la imagen captada [1] y la imagen captada [2] corresponde a A9-i,2.
En primer lugar, la unidad 58 de generación de datos de imágenes en movimiento selecciona una imagen de trama [1]. Por ejemplo, la unidad 58 de generación de datos de imágenes en movimiento selecciona la imagen captada [1] como imagen de trama [1].
Posteriormente, la unidad 58 de generación de datos de imágenes en movimiento selecciona una imagen de trama [2] . La unidad 58 de generación de datos de imágenes en movimiento determina primero si seleccionar o no la imagen captada [2], que sigue a la imagen captada [1] seleccionada como imagen de trama [1] precedente, como la imagen de trama [2].
En este caso, la unidad 58 de generación de datos de imágenes en movimiento compara un ángulo de pseudorrotación A9-i,2 entre la imagen captada [1] y la imagen captada [2] con un valor umbral 0t. Dicho de otro modo, la unidad 58 de generación de datos de imágenes en movimiento determina si el ángulo de pseudorrotación A9-i,2 entre la imagen captada [1] y la imagen captada [2] es igual a o mayor que el valor umbral 9t. El valor umbral 9t es un ángulo de pseudorrotación apropiado como ángulo de pseudorrotación entre las imágenes 42 de trama, y se determina de antemano.
Si el ángulo de pseudorrotación A9-i,2 es igual a o mayor que el valor umbral 9t, la unidad 58 de generación de datos de imágenes en movimiento selecciona la imagen captada [2] como imagen de trama [2]. Por otro lado, tal como se muestra en la figura 13, si el ángulo de pseudorrotación A9-i,2 es menor que el valor umbral 9t, la unidad 58 de generación de datos de imágenes en movimiento no selecciona la imagen captada [2] como imagen de trama [2].
Si la imagen captada [2] no se selecciona como imagen de trama [2], la unidad 58 de generación de datos de imágenes en movimiento determina si se selecciona o no la siguiente imagen captada [3] como imagen de trama [2].
En este caso, la unidad 58 de generación de datos de imágenes en movimiento compara un ángulo de pseudorrotación acumulado entre la imagen captada [1] seleccionada como imagen de trama [1] precedente y la imagen captada [3] con el valor umbral 9t. Es decir, la unidad 58 de generación de datos de imágenes en movimiento determina si la suma del ángulo de pseudorrotación 01,2 entre las imágenes captadas [1] y [2] y el ángulo de pseudorrotación A92,3 entre las imágenes captadas [2] y [3] es igual a o mayor que el valor umbral 9t. En este caso, la suma corresponde a un valor numérico que indica un tamaño del ángulo de rotación del artículo 30 entre el punto de tiempo en el que se toma la imagen captada [1] y el punto de tiempo en el que se toma la imagen captada [3].
Si la suma de los ángulos de pseudorrotación A9-i,2 y A92,3 es igual a o mayor que el valor umbral 9t, la unidad 58 de generación de datos de imágenes en movimiento selecciona la imagen captada [3] como imagen de trama [2]. Por otro lado, tal como se muestra en la figura 13, la suma de los ángulos de pseudorrotación A9-i,2 y A92,3 es menor que el valor umbral 9t, la unidad 58 de generación de datos de imágenes en movimiento no selecciona la imagen captada [3] como imagen de trama [2].
En un caso en el que la imagen captada [3] no se selecciona como imagen de trama [2], la unidad 58 de generación de datos de imágenes en movimiento determina si se selecciona o no la siguiente imagen captada [4] como imagen de trama [2].
En este caso, la unidad 58 de generación de datos de imágenes en movimiento determina si el ángulo de pseudorrotación acumulado entre la imagen captada [1] seleccionada como imagen de trama [1] precedente y la imagen captada [4] es igual a o mayor que el valor umbral 9t. Es decir, la unidad 58 de generación de datos de imágenes en movimiento determina si la suma del ángulo de pseudorrotación 01,2 entre las imágenes captadas [1] y [2], el ángulo de pseudorrotación A92,3 entre las imágenes captadas [2] y [3], y el ángulo de pseudorrotación A93,4 entre las imágenes captadas [3] y [4] es igual a o mayor que el valor umbral 9t. En este caso, la suma corresponde a un valor numérico que indica un tamaño del ángulo de rotación del artículo 30 entre el punto de tiempo en el que se toma la imagen captada [1] y el punto de tiempo en el que se toma la imagen captada [4].
Tal como se muestra en la figura 13, si la suma de los ángulos de pseudorrotación A9-i,2, A92,3 y A93,4 es igual a o mayor que el valor umbral 9t, la unidad 58 de generación de datos de imágenes en movimiento selecciona la imagen captada [4] como imagen de trama [2].
Después de seleccionar la imagen de trama [2], la unidad 58 de generación de datos de imágenes en movimiento selecciona la trama [3]. La unidad 58 de generación de datos de imágenes en movimiento determina primero si se selecciona o no la imagen captada [5], que sigue a la imagen captada [4] seleccionada como imagen de trama [2] precedente, como imagen de trama [3].
En este caso, la unidad 58 de generación de datos de imágenes en movimiento determina si el ángulo de pseudorrotación A94,5 entre la imagen captada [4] y la imagen captada [5] es igual a o mayor que el valor umbral 9t. Si el ángulo de pseudorrotación A94,5 es igual a o mayor que el valor umbral 9t, la unidad 58 de generación de datos de imágenes en movimiento selecciona la imagen captada [5] como imagen de trama [3]. Por otro lado, tal como se muestra en la figura 13, si el ángulo de pseudorrotación A94,5 es menor que el valor umbral 9t, la unidad 58 de generación de datos de imágenes en movimiento no selecciona la imagen captada [5] como imagen de trama [3].
Si la imagen captada [5] no se selecciona como imagen de trama [3], la unidad 58 de generación de datos de imágenes en movimiento determina si se selecciona o no la siguiente imagen captada [6] como imagen de trama [3].
En este caso, la unidad 58 de generación de datos de imágenes en movimiento determina si el ángulo de pseudorrotación acumulado entre la imagen captada [4] seleccionada como imagen de trama [2] precedente y la imagen captada [6] es igual a o mayor que el valor umbral 0t. Es decir, la unidad 58 de generación de datos de imágenes en movimiento determina si la suma del ángulo de pseudorrotación 04,5 entre las imágenes captadas [4] y [5] y el ángulo de pseudorrotación A05,6 entre las imágenes captadas [5] y [6] es igual a o mayor que el valor umbral 0t.
Tal como se muestra en la figura 13, si la suma de los ángulos de pseudorrotación A04,5 y A05,6 es igual a o mayor que el valor umbral 0t, la unidad 58 de generación de datos de imágenes en movimiento selecciona la imagen captada [6] como imagen de trama [3].
Tal como se describió anteriormente, si se selecciona una imagen captada [i] como imagen de trama [j], la unidad 58 de generación de datos de imágenes en movimiento determina si el ángulo de pseudorrotación acumulado entre la imagen captada [i] y la imagen captada [i+1] es igual a o mayor que el valor umbral 0t para determinar si se selecciona o no la imagen captada [i+1] como imagen de trama [j+1].
Si el ángulo de pseudorrotación acumulado es igual a o mayor que el valor umbral 0t, la unidad 58 de generación de datos de imágenes en movimiento selecciona la imagen captada [i+1] como la imagen de trama [j+1]. Por otro lado, si el ángulo de pseudorrotación acumulado es menor que el valor umbral 0t, la unidad 58 de generación de datos de imágenes en movimiento no selecciona la imagen captada [i+1] como imagen de trama [j+1]. En este caso, la unidad 58 de generación de datos de imágenes en movimiento determina si el ángulo de pseudorrotación acumulado entre la imagen captada [i] y la imagen captada [i+2] es igual a o mayor que el valor umbral 0t para determinar si se selecciona o no la imagen captada [i+2] como imagen de trama [j+1].
De esta manera, la unidad 58 de generación de datos de imágenes en movimiento busca una primera imagen 40 captada que tenga un valor del ángulo de pseudorrotación acumulado entre ella y la imagen captada [i] igual a o mayor que el valor umbral 0t. Por ejemplo, si el ángulo de pseudorrotación acumulado entre la imagen captada [i] y la imagen captada [i+k] (k: un número entero de 1 o más) es el valor umbral 0t, la unidad 58 de generación de datos de imágenes en movimiento selecciona la imagen captada [i+k] como imagen de trama [j+1].
Tal como se describió anteriormente, la unidad 58 de generación de datos de imágenes en movimiento selecciona cada imagen 42 de trama de los datos de imágenes en movimiento.
Un método para seleccionar las imágenes 42 de trama no se limita al ejemplo ilustrado en la figura 13. A continuación se comentarán otros ejemplos de selección de imágenes 42 de trama.
Ahora, se comentará el primer ejemplo. La figura 14 es un diagrama para explicar el primer ejemplo. En este caso, se supone un caso en el que, después de seleccionar la imagen captada [i] como imagen de trama [j], si la imagen captada [i+1] no se selecciona como imagen de trama [j+1], se determina si se selecciona o no la imagen captada [i+k] (k: un número entero de 2 o más) como imagen de trama [j+1].
En este caso, en el método de selección mostrado en la figura 13, está configurado para determinar si el ángulo de pseudorrotación acumulado entre la imagen captada [i] seleccionada como imagen de trama [j] precedente y la imagen captada [i+k] es igual a o mayor que el valor umbral 0t. Es decir, en el método de selección mostrado en la figura 13, está configurado para determinar si el ángulo de pseudorrotación acumulado A0i,i+1+...+A0i-k-1,i+k entre la imagen captada [i] y la imagen captada [i+k] es igual a o mayor que el valor umbral 0t.
Por otro lado, en el método de selección mostrado en la figura 14, se calculan las cantidades de cambio de los valores de coordenadas de eje X de los puntos 60 característicos correspondientes al cierto punto en el artículo 30 entre la imagen captada [i] y la imagen captada [i+k], y se basan en las cantidades de cambio calculadas, se calcula el ángulo de pseudorrotación A0i,i+k entre la imagen captada [i] y la imagen captada [i+k].
Es decir, por ejemplo en un caso en el que se especifican una pluralidad de puntos 60 característicos que corresponden, respectivamente, a ciertos puntos en el artículo 30 en las áreas 110 de observación tanto en la imagen captada [i] como en la imagen captada [i+k], se calcula un valor promedio de las cantidades de cambio de los valores de coordenadas de eje X de los puntos 60 característicos como el ángulo de pseudorrotación A0i,i+k, y se determina si el ángulo de pseudorrotación A0i,i+k es igual a o mayor que el valor umbral 0t.
Se comentará el segundo ejemplo. En este caso, también se comenta un caso en el que, después de seleccionar la imagen captada [i] como imagen de trama [j], se determina si se selecciona o no la imagen captada [i+k] como imagen de trama [j+1].
En este caso, puede determinarse si el ángulo de pseudorrotación acumulado entre la imagen captada [1] seleccionada como primera imagen de trama [1] y la imagen captada [i+k] (o el ángulo de pseudorrotación 01,¡+k) es igual a o mayor que 0t* j. Entonces, si el ángulo de pseudorrotación acumulado (o el ángulo de pseudorrotación 0i,i+k) es igual a o mayor que 0t* j, la imagen captada [i+k] puede seleccionarse como la imagen de trama [j+1].
Se comentará el tercer ejemplo. La figura 15 es un diagrama para explicar el tercer ejemplo. En este caso, se supone un caso en el que, después de seleccionar la imagen captada [i] como imagen de trama [j], se determina si se selecciona o no la imagen captada [i+3] como imagen de trama [j+1 ].
En el método de selección mostrado en la figura 13, en un caso en el que el ángulo de pseudorrotación acumulado entre la imagen captada [i] y la imagen captada [i+3] es igual a o mayor que el valor umbral 0t, la imagen captada [i+3] se selecciona como imagen de trama [j+1]. Además, en el método de selección mostrado en la figura 14, en un caso en el que el ángulo de pseudorrotación 0¡,¡+3 entre la imagen captada [i] y la imagen captada [i+3] es igual a o mayor que el valor umbral 0t, la imagen captada [i+3] se selecciona como imagen de trama [j+1]. También en el segundo ejemplo, en un caso en el que el ángulo de pseudorrotación acumulado entre la imagen captada [1] y la imagen captada [i+3] (o el ángulo de pseudorrotación 01,¡+3) es igual a o mayor que 0t* j, la imagen captada [i+3] se selecciona como imagen de trama [j+1].
Sin embargo, en este caso, una cualquiera de la imagen captada [i+3] y la imagen captada [i+2] inmediatamente antes de la imagen captada [i+3] puede seleccionarse de manera selectiva como imagen de trama [j+1].
Por ejemplo, en el caso del método de selección mostrado en la figura 13, en el caso descrito anteriormente, la unidad 58 de generación de datos de imágenes en movimiento determina cuál del ángulo de pseudorrotación acumulado A0¡,¡+1+A0¡+1,¡+2 entre la imagen captada [i] y la imagen captada [i+2] y el ángulo de pseudorrotación acumulado A0¡j+1 A0¡+1,¡+2+A0¡+2,¡+3 entre la imagen captada [i] y la imagen captada [i+3] está más cerca del valor umbral 0t. La unidad 58 de generación de datos de imágenes en movimiento determina, por ejemplo, si el valor intermedio de estos ángulos de pseudorrotación acumulados es menor que el valor umbral 0t. Dicho de otro modo, la unidad 58 de generación de datos de imágenes en movimiento determina si el valor intermedio de los ángulos de pseudorrotación acumulados, ((A0¡,¡+1+A0¡+1,¡+2)+(A0¡,¡+1+A0¡+1,¡+2+A0¡+2,¡+3))/2, es menor que el valor umbral 0t.
Tal como se muestra en la figura 15, si el valor intermedio es mayor que el valor umbral 0t, el ángulo de pseudorrotación acumulado entre la imagen captada [i] y la imagen captada [i+2] está más cerca del valor umbral 0t y, por tanto, la unidad 58 de generación de datos de imágenes en movimiento selecciona la imagen captada [i+2] como imagen de trama [j+1]. Por otro lado, si el valor intermedio es menor que el valor umbral 0t, el ángulo de pseudorrotación acumulado entre la imagen captada [i] y la imagen captada [i+3] está más cerca del valor umbral 0t y, por tanto, la unidad 58 de generación de datos de imágenes en movimiento selecciona la imagen captada [i+3] como imagen de trama [j+1].
Además, en el método de selección mostrado en la figura 14, la unidad 58 de generación de datos de imágenes en movimiento determina cuál del ángulo de pseudorrotación entre la imagen captada [i] y la imagen captada [i+2], 0¡,¡+2, y el ángulo de pseudorrotación entre la imagen captada [i] y la imagen captada [i+3], 0¡,¡+3, está más cerca del valor umbral 0t. Por ejemplo, la unidad 58 de generación de datos de imágenes en movimiento determina si el valor intermedio de estos ángulos de pseudorrotación, (A0¡,¡+2+A0¡,¡+3)/2, es menor que el valor umbral 0t.
Tal como se muestra en la figura 15, si el valor intermedio es mayor que el valor umbral 0t, el ángulo de pseudorrotación entre la imagen captada [i] y la imagen captada [i+2], 0¡,¡+2, está más cerca del valor umbral 0t y, por tanto, la unidad 58 de generación de datos de imágenes en movimiento selecciona la imagen captada [i+2] como imagen de trama [j+1]. Por otro lado, si el valor intermedio es menor que el valor umbral 0t, el ángulo de pseudorrotación entre la imagen captada [i] y la imagen captada [i+3], 0¡,¡+3, está más cerca del valor umbral 0t y, por tanto, la unidad 58 de generación de datos de imágenes en movimiento selecciona la imagen captada [i+3] como imagen de trama [j+1].
De esta forma, el artículo 30 rota más suavemente en los datos de imágenes en movimiento. Si el valor intermedio es igual al valor umbral 0t, la unidad 58 de generación de datos de imágenes en movimiento puede seleccionar una de la imagen captada [i+2] y la imagen captada [i+3] como imagen de trama [j+1].
A continuación, se comentará el procesamiento ejecutado en el dispositivo 10 de procesamiento de imágenes para implementar los bloques funcionales mostrados en la figura 5. Las figuras 16 y 17 son diagramas de flujo que muestran un ejemplo del procesamiento ejecutado en el dispositivo 10 de procesamiento de imágenes con el fin de generar datos de imágenes en movimiento del artículo 30 que rota una vez basándose en los datos captados. El procesamiento mostrado en las figuras 16 y 17 corresponde a métodos de selección realizados combinando los métodos de selección mostrados en las figuras 13 y 15. La unidad 11 de control ejecuta el procesamiento mostrado en las figuras 16 y 17 según un programa, para funcionar de ese modo como los bloques funcionales mostrados en la figura 5.
Tal como se muestra en la figura 16, la unidad 11 de control extrae datos de imágenes captadas correspondientes a una rotación del artículo 30 a partir de los datos de imágenes captadas para generar datos de imágenes en movimiento de una rotación del artículo 30 (S101). La figura 18 es un diagrama que ilustra un esquema del procesamiento de la etapa S101, y la figura 19 es un diagrama de flujo que muestra detalles del procesamiento de la etapa S101.
Tal como se muestra en la figura 18, la unidad 11 de control busca una imagen 40 captada en el punto de tiempo en el que el artículo 30 completa una rotación entre las imágenes 40 captadas incluidas en los datos de imágenes captadas. La imagen 40 captada en el punto de tiempo en el que el artículo 30 completa una rotación se supone que es una imagen que es igual o sustancialmente igual que la imagen 40 captada inmediatamente antes de que el artículo 30 comience a rotar (más adelante en el presente documento, “imagen captada de referencia”) y se toma después de que pasa un cierto periodo de tiempo desde que se toma la imagen captada de referencia. Como tal, si la imagen captada [i] satisface las siguientes dos condiciones (A) y (B), puede suponerse que la imagen captada [i] corresponde a la imagen 40 captada en el punto de tiempo en el que el artículo 30 completa una rotación. Por ejemplo, la primera imagen 40 captada de las imágenes 40 captadas incluidas en los datos de imágenes captadas se establece como “imagen captada de referencia”.
(A) La imagen captada de referencia es igual o sustancialmente igual que la imagen captada [i]. Dicho de otro modo, la similitud entre la imagen captada de referencia y la imagen captada [i] es extremadamente alta.
(B) El punto de tiempo en el que se toma la imagen captada de referencia y el punto de tiempo en el que se toma la imagen captada [i] se separan entre sí durante un periodo de tiempo predeterminado o más. Dicho de otro modo, una diferencia entre el número de imagen de la imagen captada de referencia y el número de imagen de la imagen captada [i] es igual a o mayor que el valor umbral (It).
El “periodo de tiempo predeterminado” y el “valor umbral (It)” en la condición (B) anterior se determinan en vista del tiempo promedio requerido para que el artículo 30 complete una rotación.
Tal como se describió anteriormente, la unidad 11 de control busca una imagen 40 captada que satisfaga las dos condiciones (A) y (B) de los datos de imágenes captadas, para encontrar de ese modo una imagen 40 captada en el punto de tiempo en el que el artículo 30 completa una rotación. La unidad 11 de control luego extrae imágenes, comenzando desde la imagen captada de referencia hasta tal imagen 40 captada, como datos de imágenes captadas de una rotación del artículo 30. En el procesamiento mostrado en la figura 19, se busca una imagen 40 captada que satisfaga las dos condiciones (A) y (B) en el orden desde la última imagen 40 captada hasta la primera imagen 40 captada. En este caso, la primera imagen 40 captada se establece como la imagen captada de referencia.
En el procesamiento mostrado en la figura 19, la unidad 11 de control obtiene en primer lugar el número total N de imágenes 40 captadas incluidas en los datos de imágenes captadas (S201). La unidad 11 de control sustituye entonces el número total N por una variable i (S202). Además, la unidad 11 de control establece un valor obtenido multiplicando el número total N por un coeficiente a predeterminado (a: 0<a<1, por ejemplo, 1/3) como valor umbral It (S203). La unidad 11 de control puede establecer un valor fijo predeterminado como valor umbral It.
Posteriormente, la unidad 11 de control determina si la imagen captada [1] y la imagen captada [i] son iguales o sustancialmente iguales entre sí (S204). Es decir, la unidad 11 de control determina si la similitud entre la imagen captada [1] y la imagen captada [i] es extremadamente alta.
Por ejemplo, en un caso en el que una pluralidad de puntos 60 característicos correspondientes, respectivamente, a ciertos puntos en el artículo 30 se especifican tanto en la imagen captada [1] como en la imagen captada [i], la unidad 11 de control determina si el número de tales puntos 60 característicos es mayor que un valor umbral predeterminado.
Si el número es mayor que el valor umbral, la unidad 11 de control genera una imagen de sustracción entre la imagen captada [1] y la imagen captada [i], y calcula un valor total de los valores de píxel de la imagen de sustracción. En este caso, cuando el valor total es menor, la similitud entre la imagen captada [1] y la imagen captada [i] es mayor. Como tal, la unidad 11 de control determina si el valor total es menor que el valor umbral predeterminado.
Si el valor total es menor que el valor umbral, la unidad 11 de control determina que la imagen captada [1] y la imagen captada [i] son iguales o sustancialmente iguales. Por otro lado, cuando el número es menor que el valor umbral o cuando el valor total es igual a o mayor que el valor umbral, la unidad 11 de control determina que la imagen captada [1] y la imagen captada [i] no son iguales o sustancialmente iguales.
En el método de determinación descrito anteriormente, por ejemplo, se genera una imagen de sustracción sólo cuando el número anterior es mayor que el valor umbral y, como resultado, puede reducirse la carga de procesamiento. Sin embargo, el método para determinar si la imagen captada [1] y la imagen captada [i] son iguales o sustancialmente iguales no se limita al método anterior. En el método descrito anteriormente, está configurado para considerar el número de puntos 60 característicos, pero puede configurarse para no considerar el número de puntos 60 característicos. Alternativamente, también puede aplicarse un método conocido diferente del método descrito anteriormente.
Si la imagen captada [1] y la imagen captada [i] no son iguales o sustancialmente iguales (S204: N), la unidad 11 de control sustrae 1 del valor de la variable i (S205) y determina si el valor de la variable i es menor que el valor umbral It (S206). Si el valor de la variable i no es menor que el valor umbral It (S206: N), la unidad 11 de control ejecuta la etapa S204.
Por otro lado, si la imagen captada [1] y la imagen captada [i] son iguales o sustancialmente iguales (S204: S), la unidad 11 de control extrae las imágenes captadas [1] a [i] como datos de imágenes captadas de una rotación (S208). Es decir, la unidad 11 de control usa las imágenes captadas [1] a [i] en el procesamiento que se describe más adelante (S102-S120). En este caso, se eliminan las imágenes 40 captadas desde y después de la imagen captada [i+1].
En la etapa S206, en un caso en el que se determina que el valor de la variable i es menor que el valor umbral It, la unidad 11 de control extrae las imágenes captadas [1] a [N] (S207). El caso en el que se determina que el valor de la variable i es menor que el valor umbral It en la etapa S206 es un caso en el que no hay una imagen 40 captada que satisfaga las dos condiciones (A) y (B). En este caso, la unidad 11 de control usa todas las imágenes 40 captadas incluidas en los datos de imágenes captadas en el procesamiento descrito más adelante (S102-S120).
En lugar de ejecutar las etapas S204-S208, puede buscarse una imagen 40 captada en la que la similitud entre ella y la imagen captada [1] es la mayor entre las imágenes captadas [It] a [N]. Entonces, las imágenes captadas, comenzando desde la primera imagen 40 captada hasta la imagen 40 captada que se ha encontrado, pueden extraerse como datos de una rotación.
Tal como se muestra en la figura 16, después de que se ejecuta la etapa S101, la unidad 11 de control lee la imagen captada [1] (S102) y especifica los puntos 60 característicos en la imagen captada [1] (S103). Además, la unidad 11 de control selecciona la imagen captada [1] como imagen de trama [1] (S104).
Posteriormente, la unidad 11 de control inicializa la variable s en 0, las variables i y j en 2, y la variable k en 1 (S105). La variable s se usa para calcular un ángulo de pseudorrotación acumulado. La variable i representa un número de imagen de una imagen 40 captada que va a procesarse, y la variable j representa un número de trama de una imagen 42 de trama que va a seleccionarse. La variable k representa un número de imagen de la imagen 40 captada seleccionada como imagen de trama [j-1].
Después de que se ejecuta la etapa S105, la unidad 11 de control lee la imagen captada [i] (S106) y especifica puntos 60 característicos en la imagen captada [i] (S107). Un resultado de la especificación en la etapa S107 se almacena en la unidad 12 de almacenamiento.
Después de que se ejecuta la etapa S107, la unidad 11 de control calcula el ángulo de pseudorrotación Gm ,í entre la imagen captada [i-1] y la imagen captada [i] (S108), y añade el ángulo de pseudorrotación AGm ,í a la variable s (S109). La unidad 11 de control determina entonces si la variable s es igual a o mayor que el valor umbral Gt (S110).
Si la variable s no es igual a o mayor que el valor umbral Gt (S110: N), tal como se muestra en la figura 17, la unidad 11 de control añade 1 a la variable i (S119) y determina si hay una imagen captada [i] (S120). Si hay una imagen captada [i] (S120: S), la unidad 11 de control ejecuta la etapa s 106.
Por otro lado, si la variable s es igual a o mayor que el valor umbral Gt (S110: S), tal como se muestra en la figura 17, la unidad 11 de control calcula un valor intermedio, (sk,i-1+sk,i)/2, del ángulo de pseudorrotación acumulado sk,i-1 entre la imagen captada [k] seleccionada como imagen de trama [j] y la imagen captada [i-1] y el ángulo de pseudorrotación acumulado sk,i entre la imagen captada [k] y la imagen captada [i], y determina si el valor intermedio es igual a o menor que el valor umbral Gt (S111).
Si el valor intermedio es igual a o menor que el valor umbral Gt (S111: S), la unidad 11 de control selecciona la imagen captada [i] como imagen de trama [j] (S H 2). En este caso, la unidad 11 de control sustituye el valor de la variable i en la variable k (S113) y añade 1 a la variable i (S114). La unidad 11 de control determina entonces si hay una imagen captada [i] (S115). Si hay una imagen captada [i] (S115: S), la unidad 11 de control añade 1 a la variable j (S118) y ejecuta la etapa S106.
Por otro lado, si el valor intermedio es mayor que el valor umbral Gt (S111: N), la unidad 11 de control selecciona la imagen captada [i-1] como imagen de trama [j] (S116). En este caso, la unidad 11 de control sustituye el valor, que se obtiene sustrayendo 1 del valor de la variable i, en la variable k (S117). La unidad 11 de control añade entonces 1 a la variable j (S118) y ejecuta la etapa S106.
Si se determina que no hay una imagen captada [i] en la etapa S115 o S120, la unidad 11 de control termina el procesamiento. En este caso, se generan datos de imágenes en movimiento que incluyen las imágenes de trama [1] a [j] como datos de imágenes en movimiento que muestran el artículo 30 que rota una vez.
El procesamiento ejecutado en el dispositivo 10 de procesamiento de imágenes no se limita al procesamiento mostrado en las figuras 16 y 17.
Por ejemplo, las etapas S111, S116 y S117 en la figura 17 pueden eliminarse. Es decir, puede configurarse que si se determina que la variable s es igual a o mayor que el valor umbral 0t en la etapa S110, siempre se ejecutan las etapas S112 a S115. En este caso, se ejecuta el método de selección mostrado en la figura 13.
Además, por ejemplo, en lugar de ejecutar las etapas S108 y S109 en la figura 16, la unidad 11 de control puede calcular un ángulo de pseudorrotación entre la imagen captada [k] y la imagen captada [i], 0k,i. Y, en la etapa S110, puede determinarse si el ángulo de pseudorrotación 0k,i es igual a o mayor que el valor umbral 0t. En este caso, se ejecuta el método de selección mostrado en la figura 14.
Alternativamente, por ejemplo, puede omitirse la etapa S101 en la figura 16 y puede ejecutarse el procesamiento mostrado en la figura 20 en lugar del procesamiento mostrado en la figura 17. El procesamiento mostrado en la figura 20 es diferente del procesamiento mostrado en la figura 17 en el punto que incluye las etapas S121 a S124.
En el procesamiento mostrado en la figura 20, después de que se ejecutan las etapas S113 y S117, la unidad 11 de control ejecuta el procesamiento para determinar si la imagen 40 captada seleccionada como imagen de trama [j] corresponde a la imagen 40 captada en el punto de tiempo en el que el artículo 30 ha completado una rotación. (pasos S121-S124).
Es decir, después de que se ejecuta la etapa S113, la unidad 11 de control determina si el valor de la variable i es igual a o mayor que el valor umbral It (S121). El valor umbral It es el mismo que el de la etapa S206 de la figura 19.
Si el valor de la variable i no es igual a o mayor que el valor umbral It (S121: N), la unidad 11 de control ejecuta la etapa S114. Por otro lado, si el valor de la variable i es igual a o mayor que el valor umbral It (S121: S), la unidad 11 de control determina si la imagen de trama [1] y la imagen de trama [j] son iguales o sustancialmente iguales (S122). Este procesamiento es el mismo que el de la etapa S204 de la figura 19.
Si se determina que la imagen de trama [1] y la imagen de trama [j] no son iguales o sustancialmente iguales (S122: N), la unidad 11 de control ejecuta la etapa S114. Por otro lado, si se determina que la imagen de trama [1] y la imagen de trama [j] son iguales o sustancialmente iguales (S122: S), la unidad 11 de control termina el procesamiento. En este caso, se generan datos de imágenes en movimiento que incluyen las imágenes de trama [1] a [j] como datos de imágenes en movimiento que muestran el artículo 30 que rota una vez.
Después de que se ejecuta la etapa S117, la unidad 11 de control determina si el valor obtenido sustrayendo 1 del valor de la variable i es igual a o mayor que el valor umbral It (S123). Si el valor obtenido al sustraer 1 del valor de la variable i no es igual a o mayor que el valor umbral It (S123: N), la unidad 11 de control ejecuta la etapa S118. Por otro lado, si el valor obtenido al sustraer 1 del valor de la variable i es igual a o mayor que el valor umbral It (S123: S), la unidad 11 de control determina si la imagen de trama [1] y la imagen de trama [j] son iguales o sustancialmente iguales (S124).
Si se determina que la imagen de trama [1] y la imagen de trama [j] no son iguales o sustancialmente iguales (S124: N), la unidad 11 de control ejecuta la etapa S118. Por otro lado, si se determina que la imagen de trama [1] y la imagen de trama [j] son iguales o sustancialmente iguales (S124: S), la unidad 11 de control termina el procesamiento. En este caso, se generan datos de imágenes en movimiento que incluyen las imágenes de trama [1] a [j] como datos de imágenes en movimiento que muestran el artículo 30 que rota una vez.
De la manera descrita anteriormente, también pueden generarse datos de imágenes en movimiento del artículo 30 que rota una vez.
En lugar de ejecutar las etapas S121 a S124, puede configurarse que se ejecute el procesamiento mostrado en la figura 21 en un caso en el que se determina que no hay ninguna imagen captada [i] en la etapa S115 o S120. El procesamiento mostrado en la figura 21 está procesando para extraer datos de imágenes en movimiento de una rotación de las imágenes de trama [1] a [j] incluidas en los datos de imágenes en movimiento generados.
En el procesamiento mostrado en la figura 21, la unidad 11 de control sustituye el valor de la variable j en la variable h (S301) y establece un valor obtenido al multiplicar la variable j por un coeficiente a (0<a<1: por ejemplo, 1/3) como valor umbral Ht (S302). El valor umbral Ht corresponde al valor umbral It en las figuras 19 y 20.
Posteriormente, la unidad 11 de control determina si la imagen de trama [1] y la imagen de trama [h] son iguales o sustancialmente iguales (S303). Este procesamiento es el mismo que el de la etapa S204 de la figura 19.
Si la imagen de trama [1] y la imagen de trama [h] no son iguales o sustancialmente iguales (S303: N), la unidad 11 de control sustrae 1 del valor de la variable h (S304). La unidad 11 de control determina entonces si el valor de la variable h es menor que el valor umbral Ht (S305). Si el valor de la variable h no es menor que el valor umbra1Ht (S305: N), la unidad 11 de control ejecuta la etapa S303.
Por otro lado, si la imagen de trama [1] y la imagen de trama [h] son iguales o sustancialmente iguales (S303: S), la unidad 11 de control extrae las imágenes de la trama [1] a [h] como datos de imágenes en movimiento del artículo 30 que rota una vez (S307). En este sentido, las imágenes de trama [1] a [h] se obtienen a partir de las imágenes de trama [1] a [j] una vez seleccionadas como los datos de imágenes en movimiento del artículo 30 que rota una vez. En este caso, se eliminan las imágenes de trama [h+1] a [j].
En caso de que el valor de la variable h sea menor que el valor umbral Ht (S305: S), la unidad 11 de control extrae las imágenes de trama [1] a [j] (S306). El caso en el que se determina que el valor de la variable h es menor que el valor umbral Ht en la etapa S306 es un caso en el que no pudo encontrarse una imagen 42 de trama correspondiente a la imagen del punto de tiempo en el que el artículo 30 completa una rotación. En este caso, la unidad 11 de control extrae las imágenes de trama [1] a [j] como datos de imágenes en movimiento del artículo 30.
Los datos de imágenes en movimiento del artículo 30 que rota una vez pueden generarse también ejecutando el procesamiento mostrado en la figura 21 en lugar del procesamiento mostrado en la figura 20.
En el procesamiento mostrado en la figura 21, puede buscarse una imagen 42 de trama que tenga la mayor de manera similar a la imagen de trama [1] entre las imágenes de trama [Ht] a [j]. Entonces, pueden obtenerse los datos de imágenes en movimiento de las imágenes, comenzando desde la primera imagen 42 de trama hasta la imagen 42 de trama que se ha encontrado, como datos de imágenes en movimiento del artículo 30 que rota una vez. De esta manera, también pueden generarse los datos de imágenes en movimiento del artículo 30 que rota una vez.
Usando el dispositivo 10 de procesamiento de imágenes descrito anteriormente, es posible obtener datos de imágenes en movimiento en los que un ángulo de rotación del artículo 30 es aproximadamente constante para cada trama basándose en los datos de imágenes captadas obtenidos tomando imágenes del artículo 30 que rota a una velocidad angular no constante. Además, usando el dispositivo 10 de procesamiento de imágenes, es posible obtener datos de imágenes en movimiento de una rotación.
La presente invención no se limita a la realización descrita anteriormente.
[1] En lo anterior, la explicación se ha facilitado basándose en la suposición de que la forma del artículo 30 es sustancialmente cilíndrica, y el radio r de una órbita 80 de cada punto en el artículo 30 (órbita circular) es siempre igual. Sin embargo, la forma del artículo 30 no se limita a una forma sustancialmente cilíndrica. En un caso en el que la forma del artículo 30 no sea sustancialmente cilíndrica, el radio r varía en cada punto y, por tanto, el error puede ser posiblemente grande si se supone que el radio r es siempre igual. Como tal, el dispositivo 10 de procesamiento de imágenes puede tener una configuración para suprimir la aparición de tal inconveniente.
[1-1] Por ejemplo, la unidad 56 de obtención de información de ángulo de rotación puede configurarse para usar un punto 60 característico que tiene un radio r grande en lugar de un punto 60 característico que tiene un radio r pequeño para obtener información de ángulo de rotación.
[1-1-1] Por ejemplo, la unidad 56 de obtención de información de ángulo de rotación puede configurarse para usar sólo el punto 60 característico que tiene un radio r grande para obtener información de ángulo de rotación, y para no usar el punto 60 característico que tiene un radio r grande, para obtener información de ángulo de rotación.
Por ejemplo, puede decirse que un punto 60 característico que pasa tanto por el interior como por el exterior del área 110 de observación corresponde a un punto en el artículo 30 (punto 60 característico) que tiene un radio r relativamente grande. Como tal, puede configurarse que, usando sólo un punto 60 característico de este tipo para obtener información de ángulo de rotación, sólo se use un punto 60 característico que tenga un radio r relativamente grande para obtener información de ángulo de rotación.
En este caso, basta con determinar si el punto 60 característico se mueve hacia el área 110 de observación desde fuera del área 110 de observación, y no es necesario calcular el radio ry, por tanto, puede suprimirse un aumento de la carga de procesamiento.
[1-1-2] Por supuesto, la unidad 56 de obtención de información de ángulo de rotación (medios de obtención de información de radio de rotación) puede configurarse para calcular un radio r (información de radio de rotación) para cada punto 60 característico. Y, la unidad 56 de obtención de información de ángulo de rotación puede configurarse para usar sólo un punto 60 característico que tiene un radio r mayor que un valor umbral para obtener información de ángulo de rotación, y para no usar un punto 60 característico que tiene un radio r igual a o menor que un valor umbral para obtener información de ángulo de rotación.
[1-2] Además, por ejemplo, la unidad 56 de obtención de información de ángulo de rotación (medios de obtención de información de radio de rotación) puede calcular un radio r (información de radio de rotación) para cada punto 60 característico. Y, la unidad 56 de obtención de información de ángulo de rotación puede calcular un ángulo de pseudorrotación (información de ángulo de rotación) de un punto 60 característico según la ecuación (11), basándose en una cantidad de cambio del valor de coordenadas de eje X del punto 60 característico (información de diferencia de posición) y el radio r del punto 60 característico en cuestión (información de radio de rotación). Entonces, la unidad 56 de obtención de información de ángulo de rotación puede usar un valor estadístico (por ejemplo, valor promedio) del ángulo de pseudorrotación calculado de esta manera como el ángulo de pseudorrotación del artículo 30.
En las variaciones 1-1-2 y 1-2 descritas anteriormente, es necesario calcular un radio r. Como tal, se comentará un método para calcular el radio r (información de radio de rotación).
Por ejemplo, la unidad 56 de obtención de información de ángulo de rotación (medios de obtención de información de radio de rotación) puede obtener información de órbita elíptica relativa a una órbita 70 (órbita elíptica) de un punto 60 característico correspondiente a un cierto punto en el artículo 30, y calcular el radio r basándose en la información de órbita elíptica. Por ejemplo, la unidad 56 de obtención de información de ángulo de rotación estima el radio r basándose en al menos uno de los diámetros mayor y menor de la órbita 70. La unidad 56 de obtención de información de ángulo de rotación obtiene, por ejemplo, la mitad del diámetro mayor de la órbita 70 como el radio r.
Si el punto 60 característico correspondiente al cierto punto en el artículo 30 se especifica en al menos tres de las imágenes 40 captadas, puede obtenerse información de órbita elíptica relativa a la órbita 70 de los puntos 60 característicos. En este caso, puede mejorarse la precisión del cálculo de la órbita 70 tal como se describe a continuación.
En un caso en el que se calcula una órbita 70 para cada uno de los puntos 60 característicos correspondientes, respectivamente, a los ciertos puntos del artículo 30, los puntos centrales de estas órbitas 70 coinciden y deberían ser elipses concéntricas. Como tal, la unidad 56 de obtención de información de ángulo de rotación puede configurarse para no usar una órbita 70 que tenga un punto central que no coincida con los de las otras órbitas 70 y que no sea concéntrico con otras órbitas 70.
Si el punto 60 característico correspondiente a un cierto punto en el artículo 30 se especifica en cuatro o más de las imágenes 40 captadas, la unidad 56 de obtención de información de ángulo de rotación puede obtener una pluralidad de combinaciones de tres posiciones de los puntos 60 característicos. Además, la unidad 56 de obtención de información de ángulo de rotación puede calcular una pluralidad de órbitas 70 correspondientes, respectivamente, a las combinaciones. La unidad 56 de obtención de información de ángulo de rotación puede obtener entonces un promedio de cada uno de los puntos centrales y diámetros mayor y menor de las órbitas 70 calculados como anteriormente como el punto central y los diámetros mayor y menor de la órbita 70 del punto 60 característico. En de esta manera, también es posible mejorar la precisión del cálculo de la órbita 70.
El siguiente método también puede adaptarse en lugar del método descrito anteriormente.
Por ejemplo, en un caso en el que el punto 60 característico correspondiente a un cierto punto en el artículo 30 se especifica primero en una imagen captada [i] (i: un número entero de 1 o más) y se especifica en último lugar en una imagen captada [j] (j: un número entero mayor que i), la unidad 56 de obtención de información de ángulo de rotación (medios de obtención de información de radio de rotación) puede obtener el radio r basándose en las posiciones del punto 60 característico en las imágenes captadas [i] y [j].
Por ejemplo, si las posiciones del punto 60 característico en las imágenes captadas [i] y [j] están incluidas ambas en un área de borde del área 100 de existencia, la unidad 56 de obtención de información de ángulo de rotación puede obtener la mitad de la longitud de una línea recta que conecta las posiciones del punto 60 característico en cuestión en las imágenes captadas [i] y [j] como el radio r. A este respecto, el “área de borde” es un área dentro de una distancia predeterminada desde el borde del área 100 de existencia.
Alternativamente, la unidad 56 de obtención de información de ángulo de rotación puede obtener la mitad de la diferencia en los valores de coordenadas de eje X del punto 60 característico entre las imágenes captadas [i] y [j] como el radio r.
Por cierto, el patrón en el artículo 30 se deforma alrededor del borde del área 100 de existencia y, por tanto, una cantidad de característica de un punto 60 característico correspondiente a la parte del patrón es diferente entre un caso en el que el punto 60 característico se sitúa en el área central del área 100 de existencia y un caso en el que el punto 60 característico se sitúa en el área de borde del área 100 de existencia. Por consiguiente, en un caso en el que el punto 60 característico correspondiente a la parte del patrón se sitúa en el área de borde del área 100 de existencia, tal punto 60 característico podría reconocerse como que es diferente del punto 60 característico correspondiente a la parte del patrón. Además, cuando el dispositivo 34 de toma de imágenes y el artículo 30 están cerca, hay un caso en el que la rotación de 180 grados de la parte del patrón del artículo 30 no se visualiza, y sólo se visualiza una rotación de un ángulo menor de 180 grados. Teniendo esto en cuenta, el método de cálculo mencionado anteriormente tiene una precisión mayor que la de este método de cálculo. Sin embargo, este método de cálculo no requiere el cálculo de una órbita elíptica y, por tanto, puede reducir la carga de procesamiento en comparación con el método de cálculo mencionado anteriormente.
[2] En la realización descrita anteriormente, por ejemplo, el valor umbral 0t se establece de antemano, pero el valor umbral 0t puede configurarse dinámicamente.
[2-1] Por ejemplo, el valor umbral 0t puede determinarse, basándose en el número de imágenes 40 captadas que sirven como base para generar datos de imágenes en movimiento. El valor umbral 0t puede establecerse de manera que, a medida que el número de imágenes 40 captadas correspondientes a una rotación del artículo 30 es mayor, el valor umbral 0t es menor. En este caso, puede configurarse que la información de relación de correspondencia indique la relación de correspondencia del número de imágenes 40 captadas y el valor umbral 0t se almacena en la unidad 12 de almacenamiento, y este valor umbral 0t se establece basándose en la información de relación de correspondencia.
A medida que el valor umbral 0t es menor, los datos de imágenes en movimiento se vuelven más suaves. En este sentido, de la manera descrita anteriormente, el valor umbral 0t puede reducirse según los datos captados y, por tanto, los datos de imágenes en movimiento pueden suavizarse tanto como sea posible.
[2-2] Además, por ejemplo, el valor umbral 0t puede cambiarse, cuando las imágenes 42 de trama no se seleccionan lo suficiente. La figura 22 es un diagrama para explicar esta variación.
En esta variación, en primer lugar, la unidad 11 de control establece el valor umbral 0t en un valor relativamente pequeño. La unidad 11 de control selecciona entonces las imágenes 42 de trama de modo que un ángulo de rotación entre las imágenes 42 de trama adyacentes sea el valor umbral 0t.
En este caso, la unidad 11 de control determina si las imágenes 42 de trama se han seleccionado de modo que el ángulo de rotación entre las imágenes 42 de trama adyacentes sea el valor umbral 0t. Por ejemplo, si una diferencia entre el ángulo de pseudorrotación entre la imagen de trama [j] y la imagen de trama [j+1] y el valor umbral 0t está dentro de un rango predeterminado, la unidad 11 de control supone que las imágenes 42 de trama se han seleccionado de modo que el ángulo de rotación entre las imágenes 42 de trama adyacentes es el valor umbral 0t. Específicamente, si el ángulo de pseudorrotación está dentro de un rango de más o menos el 20% del valor umbral 0t, la unidad 11 de control supone que las imágenes 42 de trama se han seleccionado de modo que el ángulo de rotación entre las imágenes 42 de trama adyacentes sea el valor umbral 0t.
Además, en este caso, tal como se muestra en las imágenes de la trama [2] y [6] en la figura 22(A), cuando las imágenes 42 de la trama no se han seleccionado de modo que el ángulo de rotación entre las imágenes 42 de la trama adyacentes sea el valor umbral 0t, la unidad 11 de control aumenta el valor umbral 0t tal como se muestra en la figura 22(B), y selecciona las imágenes 42 de trama basándose en el valor umbral 0t actualizado. Tal procesamiento se repite hasta que se seleccionan todas las imágenes 42 de trama de modo que el ángulo de rotación entre las imágenes 42 de trama adyacentes sea el valor umbral 0t.
De esta forma, el valor umbral 0t también puede reducirse según los datos de imágenes captadas y, por tanto, los datos de imágenes en movimiento pueden suavizarse tanto como sea posible.
[2-3] Puede configurarse que los datos de imágenes captadas correspondientes a múltiples rotaciones se obtengan de antemano, y una imagen 42 de trama, que no se ha obtenido a partir de los datos de imágenes captadas de la primera rotación, se obtenga de los datos de imágenes captadas de las rotaciones segunda y siguientes. Los datos captados de las rotaciones segunda y siguientes pueden extraerse de la misma manera que se extraen los datos captados de la primera rotación.
Por ejemplo, en el ejemplo mostrado en la figura 22(A), no se ha seleccionado la imagen de trama [2], el ángulo de pseudorrotación entre ella y la imagen de trama [1] es A0t. En este caso, puede buscarse una imagen 42 de trama, el ángulo de pseudorrotación entre ella y la imagen de trama [1] es A0t, a partir de los datos de imágenes captadas de las rotaciones segunda y siguientes.
Entonces, puede configurarse que el valor umbral 0t se aumente tal como se muestra en la figura 22(B) sólo cuando una imagen 42 de trama, el ángulo de pseudorrotación entre ella y la imagen de trama [1] es A0t, no puede encontrarse a partir de los datos de imágenes captadas de las rotaciones segunda y siguientes.
[3] Por ejemplo, en un caso en el que la forma del artículo 30 presenta simetría rotacional con respecto al eje 32 de rotación, y sólo una parte del artículo 30 (por ejemplo, el anverso) tiene letras, diseños o patrones, las imágenes 40 captadas no cambian mientras que la parte con letras, etc. no está cubierta por el dispositivo 34 de toma de imágenes. En este caso, no puede especificarse un punto 60 característico correspondiente a un cierto punto en el artículo 30 y, como resultado, no puede obtenerse una cantidad de cambio de los valores de coordenadas de eje X del punto 60 característico.
La figura 23 es un diagrama para explicar el procesamiento para abordar el inconveniente mencionado anteriormente. La figura 23 ilustra un caso en el que no se especifica un punto 60 característico correspondiente a un cierto punto en el artículo 30 en las imágenes captadas [m+1] a [m+n] de las imágenes captadas [1] a [m+n] incluidas en los datos de imágenes captadas de una rotación.
En este caso, la unidad 11 de control obtiene el número de imágenes 40 captadas que se seleccionan de las imágenes captadas [1] a [m] como imágenes 42 de trama. En el ejemplo de la figura 23, el número es p.
Luego, la unidad 11 de control selecciona las imágenes 42 de trama de las imágenes captadas [m+1] a [m+n] basándose en una razón del número de imágenes captadas [1] y [m] con respecto al número de imágenes 40 captadas que se seleccionan de las imágenes captadas [1] a [m] como imágenes 42 de trama.
En el ejemplo mostrado en la figura 23, la razón es p/m y, por tanto, la unidad 11 de control selecciona las imágenes 42 de trama de las imágenes captadas [m+1] a [m+n] en la misma razón que esta razón. Dicho de otro modo, la unidad 11 de control selecciona q (q: q = n*p/m) imágenes 40 captadas de n imágenes captadas [m+1] a [m+n] como imágenes 42 de trama. Por ejemplo, la unidad 11 de control selecciona una imagen 40 captada como imagen 42 de trama a intervalos de m/p de las imágenes captadas [m+1] a [m+n]. Si m/p es “3”, la unidad 11 de control selecciona las imágenes captadas [m+3], [m+6] y [m+9], ... como imágenes 42 de trama. De esta manera, es posible para abordar el inconveniente tal como se describió anteriormente.
En lo anterior, se ha facilitado una descripción referente a un caso en el que un punto 60 característico correspondiente a un cierto punto en el artículo 30 no se especifica en las imágenes captadas [m+1] a [m+n], y la misma descripción puede aplicarse a un caso en el que un punto 60 característico correspondiente a un cierto punto en el artículo 30 no se especifica en las imágenes captadas [1] a [m]. En este caso, la unidad 11 de control puede seleccionar imágenes 42 de trama de las imágenes captadas [1] a [m] basándose en una razón del número de imágenes captadas [m+1] a [m+n] con respecto al número de las imágenes 40 captadas que se seleccionan de las imágenes captadas [m+1] a [m+n] como imágenes 42 de trama.
[4] Además, por ejemplo, las operaciones de la unidad 56 de obtención de información de ángulo de rotación no se limitan a la realización descrita anteriormente.
Por ejemplo, la unidad 56 de obtención de información de ángulo de rotación puede obtener información de órbita elíptica relativa a la órbita 70 del punto 60 característico (órbita elíptica) correspondiente al cierto punto en el artículo 30. Si un punto 60 característico correspondiente a un cierto punto en el artículo 30 se especifica en al menos tres imágenes 40 captadas, es posible obtener información de órbita elíptica de la órbita 70 del punto 60 característico basándose en las posiciones del punto 60 característico en estas imágenes 40 captadas.
En un caso en el que, por ejemplo, se calcula un ángulo de rotación del artículo 30 entre el punto de tiempo en el que se toma la imagen captada [i] y el punto de tiempo en el que se toma la imagen captada [i+k] (k: un número entero de 1 o más), la unidad 56 de obtención de información de ángulo de rotación puede calcular el ángulo de rotación basándose en la posición del punto 60 característico en la imagen captada [i], la posición del punto 60 característico en la imagen captada [i+k], y la información de órbita elíptica. De esta manera, también puede obtenerse la información de ángulo de rotación del ángulo de rotación del artículo 30 entre el punto de tiempo en el que se toma la imagen captada [i] y el punto de tiempo en el que se toma la imagen captada [i+k].

Claims (1)

  1. REIVINDICACIONES
    Dispositivo (10) de procesamiento de imágenes, que comprende:
    medios (50) de obtención de imágenes captadas para la lectura de datos de imágenes captadas de una pluralidad de imágenes captadas que se obtienen tomando imágenes repetidamente de un objeto (30) mientras el objeto (30) completa una rotación;
    medios (52) de especificación de puntos característicos para especificar, usando un algoritmo, una pluralidad de puntos (60) característicos en la pluralidad de imágenes (40) captadas que se tomaron mientras el objeto completaba una rotación,
    medios (54) de obtención de información de posición para obtener, en un caso en el que un punto (60) característico correspondiente a un cierto punto en el objeto (30) se especifica en una primera imagen captada y una segunda imagen captada de la pluralidad de imágenes captadas, tomándose la segunda imagen captada después de la primera imagen captada y tomándose antes de un punto de tiempo en el que el objeto completa la rotación, información de posición (x, y) relativa a posiciones del punto (60) característico en la primera imagen captada y la segunda imagen captada;
    medios (56) de obtención de información de ángulo de rotación configurados para calcular un radio (r) para cada punto (60) característico basándose en las imágenes captadas, para obtener información de ángulo de rotación (01, 62) relativa a un ángulo de rotación del objeto entre un punto de tiempo en el que se toma la primera imagen captada y un punto de tiempo en el que se toma la segunda imagen captada, basándose en la información de posición y el radio calculado; y
    medios (58) de generación de datos de imágenes en movimiento para generar datos (42) de imágenes en movimiento que muestran cómo rota el objeto (30), seleccionando una pluralidad de imágenes de trama de los datos (42) de imágenes en movimiento de la pluralidad de imágenes (40) captadas, basándose en la información de ángulo de rotación (61, 62) obtenida por los medios de obtención de información de ángulo de rotación para cada una de la pluralidad de imágenes (40) captadas.
    Dispositivo (10) de procesamiento de imágenes según la reivindicación 1,
    en el que los medios (56) de obtención de información de ángulo de rotación comprenden:
    medios para obtener información de diferencia de posición (X1, X2) relativa a una diferencia entre la posición del punto característico en la primera imagen captada y la posición del punto característico en la segunda imagen captada; y
    medios para obtener la información de ángulo de rotación (61, 62) basándose en la información de diferencia de posición (X1, X2).
    Dispositivo (10) de procesamiento de imágenes según la reivindicación 2, que comprende:
    medios para establecer un área en la imagen captada como área (110) de observación basándose en una posición de un eje (32) de rotación del objeto (30) en la imagen captada,
    en el que los medios (56) de obtención de información de ángulo de rotación están configurados para usar sólo el punto (60) característico para obtener la información de ángulo de rotación (61, 62) basándose en la información de diferencia de posición (X1, X2) si el punto (60) característico está incluido en el área (110) de observación.
    Dispositivo (10) de procesamiento de imágenes según la reivindicación 2 ó 3,
    en el que los medios (56) de obtención de información de ángulo de rotación comprenden:
    medios de obtención de información de radio de rotación para obtener, en un caso en el que una pluralidad de puntos (60) característicos correspondientes, respectivamente, a una pluralidad de puntos en el objeto se especifican en la primera imagen (40) captada y la segunda imagen (40) captada, información de radio de rotación relativa a un radio de rotación de un punto en el objeto (30) correspondiente al punto (60) característico, para cada uno de la pluralidad de puntos (60) característicos;
    medios para obtener, para cada uno de la pluralidad de puntos (60) característicos, información de ángulo de rotación relativa a un ángulo de rotación del punto correspondiente al punto (60) característico en el objeto (30) entre un punto de tiempo en el que se toma la primera imagen captada y un punto de tiempo en el que se toma la segunda imagen captada, basándose en la información de diferencia de posición (x1, x2) y la información de radio de rotación de los puntos característicos; y
    medios para obtener la información de ángulo de rotación del objeto basándose en la información de ángulo de rotación de cada uno de la pluralidad de puntos característicos.
    5. Dispositivo (10) de procesamiento de imágenes según la reivindicación 4,
    en el que los medios (56) de obtención de información de ángulo de rotación obtienen la información de ángulo de rotación (0i, 62) usando la información de diferencia de posición (xi, X2) de un punto (60) característico con un primer radio de rotación cuando rota el objeto (30), con preferencia con respecto a la información de diferencia de posición de un punto (60) característico con un segundo radio de rotación cuando rota el objeto (30), que es más pequeño que el primer radio de rotación.
    6. Dispositivo (10) de procesamiento de imágenes según la reivindicación 4,
    en el que los medios de obtención de información de radio de rotación comprenden:
    medios para obtener, en un caso en el que el punto (60) característico correspondiente a cierto punto del objeto (30) se especifica en al menos tres imágenes (40) captadas, información de órbita elíptica relativa a una órbita elíptica del punto (60) característico basándose en la posición del punto (60) característico en las al menos tres imágenes (40) captadas; y
    medios para obtener la información de radio de rotación del punto (60) característico basándose en la información de órbita elíptica del punto (60) característico.
    7. Dispositivo (10) de procesamiento de imágenes según la reivindicación 1,
    en el que los medios (56) de obtención de información de ángulo de rotación comprenden:
    medios para obtener, en un caso en el que el punto (60) característico correspondiente al cierto punto en el objeto (30) se especifica en al menos tres imágenes captadas, información de órbita elíptica relativa a una órbita elíptica del punto (60) característico; y
    medios para obtener la información de ángulo de rotación basándose en las posiciones del punto (60) característico en la primera imagen captada y en la segunda imagen captada y la información de órbita elíptica.
    8. Dispositivo (10) de procesamiento de imágenes según una cualquiera de las reivindicaciones 1 a 7, en el que los medios (58) de generación de datos de imágenes en movimiento comprenden:
    medios para obtener información de similitud relativa a una similitud entre una imagen (40) captada de referencia que se selecciona de la pluralidad de imágenes (40) captadas y cada una de una pluralidad de imágenes (40) captadas que se toman después de que pasa un periodo de tiempo predeterminado desde un punto de tiempo en el que se toma la imagen (40) captada de referencia; y
    medios para seleccionar una de la pluralidad de imágenes (40) captadas que se toman después de que pasa el periodo de tiempo predeterminado desde el punto de tiempo en el que la imagen (40) captada de referencia se toma como una imagen (40) captada de un punto de tiempo cuando el objeto (30) completa una rotación basándose en la información de similitud, y
    en el que los medios (58) de generación de datos de imágenes en movimiento generan los datos (42) de imágenes en movimiento que muestran cómo el objeto rota una vez basándose en las imágenes (40) captadas que se toman antes del punto de tiempo en el que se toma la imagen (40) captada seleccionada como la imagen (40) captada del tiempo en el que el objeto (30) completa una rotación.
    9. Dispositivo (10) de procesamiento de imágenes según la reivindicación 8,
    en el que los medios (58) de generación de datos de imágenes en movimiento comprenden:
    medios de obtención de número de puntos característicos para obtener un número de puntos (60) característicos correspondientes a puntos (60) característicos especificados en la imagen (40) captada de referencia, de los puntos (60) característicos especificados en la imagen (40) captada que se toma después de que pasa el periodo de tiempo predeterminado desde el punto de tiempo en el que se toma la imagen (40) captada de referencia;
    medios para seleccionar candidatos de la imagen (40) captada del punto de tiempo en el que el objeto (30) completa una rotación, de la pluralidad de imágenes (40) captadas que se toman después de que pasa el periodo de tiempo predeterminado desde el punto de tiempo en el que se toma la imagen (40) captada de referencia, basándose en un resultado obtenido por los medios de obtención de número de puntos característicos;
    medios para obtener información de similitud relativa a una similitud entre la imagen (40) captada de referencia y cada una de las imágenes (40) captadas seleccionadas como los candidatos; y
    medios para seleccionar una de las imágenes (40) captadas seleccionadas como los candidatos como imagen (40) captada de un punto de tiempo en el que el objeto (30) completa una rotación basándose en la información de similitud.
    Dispositivo (10) de procesamiento de imágenes según una cualquiera de las reivindicaciones 1 a 9,
    en el que la pluralidad de imágenes (40) captadas incluye las imágenes captadas de orden 1 a orden m (m: un número entero de 2 o más) e imágenes captadas de orden m+1 a orden m+n (n: un número entero de 1 o más), que se toman después de la imagen captada de orden m,
    en el que los medios (58) de generación de datos de imágenes en movimiento comprenden:
    medios de obtención de número de selección para obtener un número de las imágenes (40) captadas seleccionadas como imágenes de trama de los datos (42) de imágenes en movimiento de las imágenes captadas 1a a de orden m; y
    medios para seleccionar las imágenes de trama de los datos (42) de imágenes en movimiento de las imágenes captadas de orden m+1 a orden m+n, en un caso en el que el punto (60) característico correspondiente al punto en el objeto (30) no se especifica en las imágenes captadas de orden m+1 a orden m+n, basándose en una razón de un número de las imágenes captadas 1a a de orden m con respecto al número de imágenes (40) captadas obtenidas por los medios de obtención de número de selección.
    Dispositivo (10) de procesamiento de imágenes según una cualquiera de las reivindicaciones 1 a 10, que comprende:
    primer medio de determinación para determinar si una cantidad de característica del punto (60) característico especificado en la primera imagen captada y una cantidad de característica del punto (60) característico especificado en la segunda imagen captada son iguales o sustancialmente iguales o no;
    segundo medio de determinación para determinar si una diferencia de un valor de coordenadas de una dirección de un eje correspondiente a un eje (32) de rotación del objeto (30) entre la posición del punto (60) característico especificado en la primera imagen captada y la posición del punto (60) característico especificado en la segunda imagen captada es igual o mayor que el valor umbral o no; y
    medios para determinar si el punto (60) característico especificado en la primera imagen captada y el punto (60) característico especificado en la segunda imagen captada son puntos característicos correspondientes a un cierto punto en el objeto (30) o no, basándose en un resultado de determinación del primer medio de determinación y del segundo medio de determinación.
    Dispositivo (10) de procesamiento de imágenes según una cualquiera de las reivindicaciones 1 a 11, que comprende:
    medios de determinación para determinar si la cantidad de característica del punto (60) característico especificado en la primera imagen captada y la cantidad de característica del punto (60) característico especificado en la segunda imagen captada son iguales o sustancialmente iguales o no;
    medios de comparación para comparar (a) información relativa a una diferencia de un valor de coordenadas de una dirección de un segundo eje perpendicular a un primer eje correspondiente a un eje (32) de rotación del objeto (30) entre la posición de un primer punto característico en la primera imagen captada y la posición del primer punto característico en la segunda imagen captada con (b) información relativa a una diferencia de un valor de coordenadas de la dirección del segundo eje entre la posición de un segundo punto característico en la primera imagen captada y la posición del segundo punto característico en la segunda imagen captada, en un caso en el que el primer punto característico tenga una cantidad de característica igual o sustancialmente igual tanto en la primera imagen captada como en la segunda imagen captada, y el segundo punto característico tenga una cantidad de característica igual o sustancialmente igual tanto en la primera imagen captada como en la segunda imagen captada; y
    medios para determinar si el punto característico especificado en la primera imagen captada y el punto característico especificado en la segunda imagen captada son o no puntos (60) característicos correspondientes a cierto punto en el objeto (30), basándose en un resultado de determinación de los medios de determinación y un resultado de comparación de los medios de comparación.
    Dispositivo (10) de procesamiento de imágenes según una cualquiera de las reivindicaciones 1 a 12, en el que el medio (50) de obtención de imágenes captadas obtiene una pluralidad de imágenes (40) captadas que se obtienen tomando imágenes repetidamente del objeto (30) mientras rota el objeto (30) una pluralidad de veces, y
    en el que los medios (58) de generación de datos de imágenes en movimiento generan los datos (42) de imágenes en movimiento que muestran cómo rota el objeto (30) una vez basándose en la pluralidad de imágenes (40) captadas que se obtienen tomando imágenes repetidamente del objeto (30) mientras rota el objeto (30) la pluralidad de veces.
    Método de procesamiento de imágenes, que comprende:
    una etapa (S102) de obtención de imágenes captadas de lectura de datos de imágenes captadas de una pluralidad de imágenes (40) captadas que se obtienen tomando imágenes repetidamente de un objeto (30) mientras el objeto completa una rotación;
    una etapa (S103) de especificación de puntos característicos de especificación, usando un algoritmo, de una pluralidad de puntos (60) característicos en la pluralidad de imágenes (40) captadas que se tomaron mientras el objeto completaba una rotación;
    una etapa de obtención de información de posición de obtención, en un caso en el que un punto (60) característico correspondiente a un cierto punto en el objeto (30) se especifica en una primera imagen captada y una segunda imagen captada de la pluralidad de imágenes captadas, tomándose la segunda imagen captada después de la primera imagen captada y tomándose antes de un punto de tiempo en el que el objeto completa la una rotación, de información de posición (x, y) relativa a posiciones del punto (60) característico en la primera imagen captada y la segunda imagen captada;
    una etapa de obtención de información de ángulo de rotación de cálculo de un radio (r) para cada punto característico basándose en las imágenes captadas y de obtención de información de ángulo de rotación (01, 62) relativa a un ángulo de rotación del objeto (30) entre un punto de tiempo en el que se toma la primera imagen captada y un punto de tiempo en el que se toma la segunda imagen captada, basándose en la información de posición (x, y) y el radio (r) calculado; y
    una etapa de generación de datos de imágenes en movimiento de generación de datos (42) de imágenes en movimiento seleccionando una pluralidad de imágenes de trama de los datos (42) de imágenes en movimiento, que muestran cómo rota el objeto (30), de la pluralidad de imágenes (40) captadas, basándose en la información de ángulo de rotación (01, 62) obtenida mediante la etapa de obtención de información de ángulo de rotación para cada una de la pluralidad de imágenes (40) captadas.
    Programa para hacer que un ordenador funcione como:
    medios (50) de obtención de imágenes captadas para la lectura de datos de imágenes captadas de una pluralidad de imágenes (40) captadas que se obtienen tomando imágenes repetidamente de un objeto (30) mientras el objeto completa una rotación;
    medios (52) de especificación de puntos característicos para especificar, usando un algoritmo, una pluralidad de puntos (60) característicos en la pluralidad de imágenes captadas que se tomaron mientras el objeto completaba una rotación,
    medios (54) de obtención de información de posición para obtener, en un caso en el que un punto (60) característico correspondiente a un cierto punto en el objeto (30) se especifica en una primera imagen captada y una segunda imagen captada de la pluralidad de imágenes captadas, tomándose la segunda imagen captada después de la primera imagen captada y tomándose antes de un punto de tiempo en el que el objeto completa una rotación, información de posición (x, y) relativa a posiciones del punto característico en la primera imagen captada y la segunda captada imagen;
    medios (56) de obtención de información de ángulo de rotación configurados para calcular un radio (r) para cada punto (60) característico basándose en las imágenes captadas, para obtener información de ángulo de rotación (0i, 62) relativa a un ángulo de rotación del objeto (30) entre un punto de tiempo en el que se toma la primera imagen captada y un punto de tiempo en el que se toma la segunda imagen captada, basándose en la información de posición (x, y) y el radio (r); y
    medios (58) de generación de datos de imágenes en movimiento para generar datos (42) de imágenes en movimiento seleccionando una pluralidad de imágenes de trama de los datos (42) de imágenes en movimiento, que muestran cómo rota el objeto (30), de la pluralidad de imágenes (40) captadas, basándose en la información de ángulo de rotación (61, 62) obtenida por los medios (56) de obtención de información de ángulo de rotación para cada una de la pluralidad de imágenes (40) captadas.
ES13842258T 2012-09-26 2013-05-30 Dispositivo de procesamiento de imágenes, método de procesamiento de imágenes y programa Active ES2811800T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012213030A JP5868816B2 (ja) 2012-09-26 2012-09-26 画像処理装置、画像処理方法、及びプログラム
PCT/JP2013/065116 WO2014050210A1 (ja) 2012-09-26 2013-05-30 画像処理装置、画像処理方法、プログラム、及び情報記憶媒体

Publications (1)

Publication Number Publication Date
ES2811800T3 true ES2811800T3 (es) 2021-03-15

Family

ID=50387629

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13842258T Active ES2811800T3 (es) 2012-09-26 2013-05-30 Dispositivo de procesamiento de imágenes, método de procesamiento de imágenes y programa

Country Status (5)

Country Link
US (1) US10452953B2 (es)
EP (1) EP2903256B1 (es)
JP (1) JP5868816B2 (es)
ES (1) ES2811800T3 (es)
WO (1) WO2014050210A1 (es)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9741150B2 (en) 2013-07-25 2017-08-22 Duelight Llc Systems and methods for displaying representative images
CN105792914A (zh) * 2013-12-06 2016-07-20 庄信万丰股份有限公司 冷启动催化剂和其在排气系统中的用途
JP6476414B2 (ja) * 2014-09-08 2019-03-06 パナソニックIpマネジメント株式会社 静止画像抽出方法及びその方法を実現する画像処理装置
WO2016073329A1 (en) * 2014-11-03 2016-05-12 California Institute Of Technology Producing zeolite ssz-39 using isomeric mixtures of organic structure directing agents
US12401911B2 (en) 2014-11-07 2025-08-26 Duelight Llc Systems and methods for generating a high-dynamic range (HDR) pixel stream
US12401912B2 (en) 2014-11-17 2025-08-26 Duelight Llc System and method for generating a digital image
US12445736B2 (en) 2015-05-01 2025-10-14 Duelight Llc Systems and methods for generating a digital image
KR102465332B1 (ko) * 2015-12-29 2022-11-11 에스케이플래닛 주식회사 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체
CN110392607A (zh) * 2017-03-13 2019-10-29 三菱化学株式会社 过渡金属负载沸石和其制造方法以及氮氧化物净化用催化剂和其使用方法
WO2018182068A1 (ko) * 2017-03-30 2018-10-04 스노우 주식회사 아이템에 대한 추천 정보 제공 방법 및 장치
KR101898580B1 (ko) * 2018-01-22 2018-09-13 주식회사 뷰노 영상의 열람을 지원하는 방법 및 이를 이용한 장치
US11080875B2 (en) * 2018-03-22 2021-08-03 Jvckenwood Corporation Shape measuring apparatus, shape measuring method, non-transitory computer readable medium storing program
CN109141365A (zh) * 2018-08-02 2019-01-04 孙仲碧 土壤修复状态监控方法
CN109013677A (zh) * 2018-08-04 2018-12-18 石修英 一种土壤有机污染环境监控系统
CN109284715B (zh) * 2018-09-21 2021-03-02 深圳市九洲电器有限公司 一种动态物体识别方法、装置及系统
EP3889906B1 (en) 2020-03-31 2024-11-13 Continental Autonomous Mobility Germany GmbH Method and system for calculating vehicle trailer angle
EP3889903B1 (en) 2020-03-31 2024-10-23 Continental Autonomous Mobility Germany GmbH Method and system for calculating vehicle trailer angle
EP3889904B1 (en) * 2020-03-31 2023-01-11 Continental Autonomous Mobility Germany GmbH Method and system for calculating vehicle trailer angle

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749937B2 (ja) * 1988-03-22 1995-05-31 工業技術院長 形状測定方法
US4969106A (en) * 1989-02-27 1990-11-06 Camsys, Inc. Computerized method of determining surface strain distributions in a deformed body
JPH0669448B2 (ja) * 1989-10-09 1994-09-07 株式会社東芝 ステレオ視観察のためのx線画像取得表示方法及びその装置
US6445814B2 (en) * 1996-07-01 2002-09-03 Canon Kabushiki Kaisha Three-dimensional information processing apparatus and method
JP3419213B2 (ja) * 1996-08-30 2003-06-23 ミノルタ株式会社 3次元形状データ処理装置
JP2003065736A (ja) 2001-08-24 2003-03-05 Sanyo Electric Co Ltd 3次元モデリング装置
JP4075418B2 (ja) * 2002-03-15 2008-04-16 ソニー株式会社 画像処理装置及び画像処理方法、印刷物製造装置及び印刷物製造方法、並びに印刷物製造システム
JP2003299644A (ja) * 2002-04-11 2003-10-21 Hitachi Medical Corp コンピュータ断層撮影装置
US20040227751A1 (en) * 2003-01-08 2004-11-18 Kaidan Incorporated Method for capturing object images for 3D representation
JP4100195B2 (ja) * 2003-02-26 2008-06-11 ソニー株式会社 3次元オブジェクトの表示処理装置、表示処理方法、およびコンピュータプログラム
US7542050B2 (en) * 2004-03-03 2009-06-02 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
JP2009042900A (ja) * 2007-08-07 2009-02-26 Olympus Corp 撮像装置および画像選択装置
US20090096664A1 (en) * 2007-10-10 2009-04-16 Northrop Grumman Systems Corporation Method, Apparatus and Computer Program Product for Providing Stabilization During a Tracking Operation
JP5219090B2 (ja) * 2009-07-02 2013-06-26 ソーバル株式会社 3次元形状測定装置、3次元形状測定方法
JP2012060258A (ja) * 2010-09-06 2012-03-22 Funai Electric Co Ltd 動画撮影装置
US8913785B2 (en) * 2010-09-30 2014-12-16 Electronics And Telecommunications Research Institute Apparatus and method for calculating motion of object
JP2012124745A (ja) * 2010-12-09 2012-06-28 Seabiscuit Co Ltd 表示用データ提供サーバ
JP2012175694A (ja) * 2011-02-24 2012-09-10 Kyocera Corp 電子機器
US9432661B2 (en) * 2011-02-24 2016-08-30 Kyocera Corporation Electronic device, image display method, and image display program
US8600194B2 (en) * 2011-05-17 2013-12-03 Apple Inc. Positional sensor-assisted image registration for panoramic photography

Also Published As

Publication number Publication date
EP2903256A4 (en) 2016-08-10
US10452953B2 (en) 2019-10-22
JP2014068264A (ja) 2014-04-17
US20150302587A1 (en) 2015-10-22
EP2903256B1 (en) 2020-07-29
WO2014050210A1 (ja) 2014-04-03
EP2903256A1 (en) 2015-08-05
JP5868816B2 (ja) 2016-02-24

Similar Documents

Publication Publication Date Title
ES2811800T3 (es) Dispositivo de procesamiento de imágenes, método de procesamiento de imágenes y programa
US11481923B2 (en) Relocalization method and apparatus in camera pose tracking process, device, and storage medium
US11880956B2 (en) Image processing method and apparatus, and computer storage medium
JP6351870B1 (ja) モバイル装置の全方向立体撮影
ES2812578T3 (es) Estimación de una postura basada en la silueta
KR101885777B1 (ko) 3 차원 비디오의 재구성
US9524436B2 (en) Augmented reality camera registration
CN112148197A (zh) 增强现实ar交互方法、装置、电子设备及存储介质
CN110352446A (zh) 用于获得图像的方法和装置及其记录介质
KR20150082358A (ko) 기준 좌표계 결정
ES2912192T3 (es) Procedimiento y dispositivo para superponer una imagen de un escenario real con una imagen virtual y equipo móvil
WO2018014601A1 (zh) 方位跟踪方法、实现增强现实的方法及相关装置、设备
ES2974080T3 (es) Procedimiento y aparato para fotografiar imágenes
KR20130119233A (ko) 포인터가 불필요한 3차원 가상 객체 정보 획득 장치
CN105359054A (zh) 在空间中对设备进行定位和取向
US9628706B2 (en) Method for capturing and displaying preview image and electronic device thereof
WO2020040277A1 (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
JP5812550B1 (ja) 画像表示装置、画像表示方法及びプログラム
CN114722913A (zh) 姿态检测方法、装置、电子设备及计算机可读存储介质
CN113971724A (zh) 用于真实对象的3d扫描的方法
Su et al. Virtual keyboard: A human-computer interaction device based on laser and image processing
CN105739684B (zh) 具有手势校准机制的电子系统及其操作方法
KR20190001896A (ko) Vr에서의 깊이 계층 이미지 표시장치 및 방법
US9824455B1 (en) Detecting foreground regions in video frames
US9842402B1 (en) Detecting foreground regions in panoramic video frames