MX2014005478A - Sistema y metodo para anotaciones interactivas de imagen. - Google Patents

Sistema y metodo para anotaciones interactivas de imagen.

Info

Publication number
MX2014005478A
MX2014005478A MX2014005478A MX2014005478A MX2014005478A MX 2014005478 A MX2014005478 A MX 2014005478A MX 2014005478 A MX2014005478 A MX 2014005478A MX 2014005478 A MX2014005478 A MX 2014005478A MX 2014005478 A MX2014005478 A MX 2014005478A
Authority
MX
Mexico
Prior art keywords
image
placement
marker
place
user
Prior art date
Application number
MX2014005478A
Other languages
English (en)
Inventor
Thomas Buelow
Kirsten Meetz
Martin Bergtholdt
Original Assignee
Koninkl Philips Nv
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninkl Philips Nv filed Critical Koninkl Philips Nv
Publication of MX2014005478A publication Critical patent/MX2014005478A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/468Arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/468Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F9/00Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically
    • G03F9/70Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically for microlithography
    • G03F9/7069Alignment mark illumination, e.g. darkfield, dual focus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B40/00ICT specially adapted for biostatistics; ICT specially adapted for bioinformatics-related machine learning or data mining, e.g. knowledge discovery or pattern finding
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F9/00Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically
    • G03F9/70Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically for microlithography
    • G03F9/7088Alignment mark detection, e.g. TTR, TTL, off-axis detection, array detector, video detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/171Editing, e.g. inserting or deleting by use of digital ink
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/174Form filling; Merging
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20096Interactive definition of curve of interest
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioethics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biotechnology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Un sistema 100 para habilitar las anotaciones interactivas de una imagen 102, que comprende una captura del usuario 160 para recibir un comando de colocación 162 de un usuario, el comando de colocación es indicativo de un primer lugar para la colocación de un marcador 140 en la imagen 102, y un procesador 180 dispuesto para (i) aplicar un algoritmo para procesamiento de imagen a una región 130 en la imagen, la región se basa en un primer lugar para la colocación, y el algoritmo para el procesamiento de imagen es sensible a las porciones de la imagen que visualmente corresponden al marcador 140 para establecer una pluralidad de grados de equivalencia entre, por un lado, el marcador, y, por el otro lado, una pluralidad de porciones de imagen dentro de la región, (ii) establecer un segundo lugar para la colocación que depende de la pluralidad de grados de equivalencia y la pluralidad respectiva de porciones de la imagen para hacer coincidir el marcador 140 con la región en la imagen, y (iii) colocar el marcador 140 en el segundo lugar para la colocación en la imagen 102.

Description

SISTEMA Y METODO PARA ANOTACIONES INTERACTIVAS DE IMAGEN Campo de la Invención La invención se refiere a un sistema y método para habilitar las anotaciones interactivas de una imagen. La invención además se refiere a una estación de trabajo y un aparato para procesar imágenes que comprende el sistema definido, y a un producto de programa de computadora que comprende instrucciones para causar que un sistema procesador lleve a cabo el método definido.
Antecedentes de la Invención Las anotaciones de imágenes se refieren a un proceso en el cual se marcan las áreas específicas de una imagen agregando texto, capas de color, etc. En particular, las anotaciones gráficas tales como curvas, líneas, símbolos, etc., en lo sucesivo referidas como marcadores, pueden agregarse. Se sabe cómo hacer anotaciones en imágenes a mano, por ejemplo, utilizando una pluma o un lápiz. Además se conoce utilizar un sistema para hacer anotaciones en imágenes en una forma interactiva. En tal sistema, el usuario puede operar un dispositivo de interfaz de usuario tal como un ratón o arrastrar marcadores sobre una imagen desplegada, y en respuesta, el sistema traza o coloca los marcadores correspondientemente en la imagen desplegada.
Ref. 247591 WO 2008/052312 Al describe la segmentación de una próstata a partir de una imagen médica tal como una imagen ultrasónica. Se utiliza una inicialización manual para obtener un contorno inicial, en donde el usuario selecciona los puntos iniciales que se crean automáticamente sobre la imagen. Después una etapa de refinamiento agrega el contorno de la delimitación de la próstata en la imagen con base en un atlas anatómico prealmacenado y la información de bordes obtenida de la imagen.
Una publicación ' Image Snapping' de Michael Gleicher, Apple Computer, Inc., Computer Graphics Proceedings, Annual Conference Series, 1995, describe agregar un cursor sobre los programas con base de la imagen tales como sistemas para pintar. La imagen agregada mueve la ubicación del cursor para rasgos cercanos en la imagen, tales como bordes. Se implementa utilizando un descenso de gradiente en versione borrosas de los mapas de rasgos hechos por las imágenes. Las técnicas de interacción que utilizando la adición de cursores para segmentación de imágenes y rastreo de curvas se presentan.
US 2007/0174769 Al describes un sistema y método para mejorar el suministro y despliegue de imágenes médicas para la planeacion pre-operativa y el diagnóstico. Se dice que un usuario puede seleccionar una anotación inicial, operar el sistema para modificar la anotación inicial a lo largo de la imagen desplegada en asociación con los rasgos anatómicos iniciales, y después fijar la anotación apropiada en el lugar deseado sobre la imagen desplegada para posterior referencia .
Además, con referencia a la vértebra marcada, se describe que el sistema puede utilizarse para marcar la vértebra automáticamente. Específicamente, un usuario puede seleccionar una anotación inicial y asociarla con una vértebra. Una vez que se hace esto, el sistema automáticamente marcará el resto de la vértebra extendiéndose superior e inferiormente desde la vértebra de referencia inicial según se delineó previamente por el lector de la máquina .
Un problema del sistema anterior es que es inconveniente para que el usuario coloque exactamente una anotación en un lugar deseado en la imagen desplegada.
Breve Descripción de la Invención Sería ventajoso tener un sistema o un método para permitir al usuario colocar exactamente un marcador en un lugar deseado en una imagen en una forma más conveniente.
Para tratar mejor esta inquietud, un primer aspecto de la invención proporciona un sistema para habilitar las anotaciones interactivas de una imagen, el sistema comprende: - una captura del usuario para recibir un comando de colocación de un usuario, el comando de colocación es indicativo de un primer lugar para la colocación de un marcador en la imagen, y un procesador dispuesto para (i) aplicar un algoritmo para procesamiento de imagen a una región en la imagen, la región se basa en un primer lugar para la colocación, y el algoritmo para el procesamiento de imagen es sensible a las porciones de la imagen que visualmente corresponden al marcador para establecer una pluralidad de grados de equivalencia entre, por un lado, el marcador, y, por el otro lado, una pluralidad de porciones de imagen dentro de la región, (ii) establecer un segundo lugar para la colocación que depende de la pluralidad de grados de equivalencia y la pluralidad respectiva de porciones de la imagen para hacer coincidir el marcador con la región en la imagen, y (iii) colocar el marcador en el segundo lugar para la colocación en la imagen.
En un aspecto más de la invención, ser proporciona una estación de trabajo y un aparato para procesar imágenes que comprende el sistema definido.
En un aspecto más de la invención, se proporciona un método para habilitar las anotaciones interactivas de una imagen, el método comprende: - recibir un comando de colocación de un usuario, el comando de colocación es indicativo de un primer lugar para la colocación de un marcador en la imagen, - aplicar un algoritmo para procesamiento de imagen a una región en la imagen, la región se basa en un primer lugar para la colocación, y el algoritmo para el procesamiento de imagen es sensible a las porciones de la imagen que visualmente corresponden al marcador para establecer una pluralidad de grados de equivalencia entre, por un lado, el marcador, y, por el otro lado, una pluralidad de porciones de imagen dentro de la región, establecer un segundo lugar para la colocación que depende de la pluralidad de grados de equivalencia y la pluralidad respectiva de porciones de la imagen para hacer coincidir el marcador con la región en la imagen, y - colocar el marcador en el segundo lugar para la colocación en la imagen. En un aspecto más de la invención, se proporciona un producto de programa de computadora que comprende instrucciones para causar que un sistema procesador lleve a cabo el método definido.
Las medidas anteriores permiten un usuario anotar interactivamente la imagen. Para este propósito, se recibe un comando de colocación del usuario. El comando de colocación indica una ubicación, es decir, el primer lugar para la colocación, en donde el usuario coloca un marcador en la imagen. Después, para cada una de la pluralidad de porciones de imagen dentro de una región con base en el primer lugar para la colocación, se determina un grado de equivalencia entre el marcador y la porción de la imagen respectiva. El grado de equivalencia indica que tan bien el marcador se asemeja a la porción de la imagen respectiva, y de esta forma representa su correspondencia visual. Para determinar el grado de equivalencia, se utiliza un algoritmo para el procesamiento de imagen que es sensible a las porciones de la imagen que corresponden visualmente al marcador, es decir, proporciona un resultado diferente para tales porciones de la imagen y de esta forma permite que tales porciones de la imagen sean identificadas. Un segundo lugar para la colocación después se determina utilizando la pluralidad de grados de equivalencia y la pluralidad de porciones de la imagen para hacer coincidir el marcador con la región en la imagen. Finalmente, el marcador se coloca en el segundo lugar para la colocación dentro de la imagen en lugar de en el primer lugar para la colocación.
Las medidas anteriores tienen el efecto de que cuando un usuario indica un primer o inicial lugar para la colocación de un marcador en una imagen, el primer lugar para la colocación se refina al hacerlo coincidir, dentro de una región que se basa en el primer lugar para la colocación, un número de porciones de la imagen para el marcador, con un segundo o final lugar para la colocación que se determina con base en el resultado de tal comparación. Por consiguiente, la información de que tan bien coincide el marcador con ciertas porciones de la imagen se utiliza en la determinación de donde colocar el marcador dentro de la región.
La invención se basa parcialmente en el reconocimiento que un marcador f ecuentemente pronostica la porción de la imagen a la cual se hará una anotación ya que el marcador por lo general visualmente se asemeja a la porción de la imagen. Una razón para esto es que un marcador puede ser específico de la aplicación, es decir, su apariencia puede adaptarse al tipo de imagen a la que se está haciendo una anotación. Por ejemplo, cuando se hacen anotaciones de acotamientos anatómicos en mamogramas 2D, el pezón o el pliegue inframamario típicamente se marca utilizando un punto en donde el músculo pectoral típicamente se marca utilizando una línea recta. La apariencia del marcador de esta forma por lo general es predictivo de la porción de la imagen a la cual se hará una anotación. Como un resultado, la apariencia del marcador proporciona información implícita de donde se va a colocar el marcador dentro de la imagen, por ejemplo, cerca o sobre una porción de la imagen que se asemeja al marcador. La presente invención emplea tal reconocimiento permitiendo al usuario indicar un primer lugar para la colocación del marcador, y después tal primer lugar para la colocación se utiliza para comparar el marcador con una pluralidad de porciones de imagen, y finalmente el resultado de la comparación de utiliza para determinar un segundo lugar para la colocación del marcador.
Ventajosamente, el usuario no necesita colocar el marcador con un alto grado de precisión en la imagen ya que la colocación se refina automáticamente, dando como resultado un lugar para la colocación más preciso del marcador. En consecuencia, el usuario puede colocar el marcador más rápidamente, porque sabe que el marcador no tiene que colocarse con un alto- grado de precisión.
Opcionalmente , la captura del usuario se dispone para recibir un comando de selección del usuario, el comando de selección es indicativo de una selección del marcador entre una pluralidad de diferentes marcadores, y el procesador se dispone para configurar el algoritmo para el procesamiento de imagen dependiendo del marcador seleccionado para así ser sensible a las porciones de la imagen que visualmente corresponden al marcador seleccionado.
Cuando un usuario puede seleccionar el marcador entre una pluralidad de diferentes marcadores, el usuario típicamente adaptará su selección a la porción de la imagen a la cual se hará una anotación. Al recibir el comando de selección del usuario, se sabe cuál marcador se selecciona de entre la pluralidad de diferentes marcadores. En respuesta a esto, el procesador configura el algoritmo para el procesamiento de imagen a ser sensible a las porciones de la imagen que corresponden visualmente al marcador seleccionado. Por lo tanto, la selección del marcador se toma en cuenta automáticamente en el refinamiento de la ubicación para la colocación adaptando el algoritmo para el procesamiento de imagen al marcador seleccionado.
Opcionalmente , el comando de selección además es indicativo de una orientación del marcador seleccionado como se determina por el usuario, y en donde el procesador además se dispone para configurar el algoritmo para el procesamiento de imagen dependiendo de la orientación para así ser sensible a las porciones de la imagen que visualmente corresponden al marcador seleccionado con tal orientación.
Cuando el usuario puede determinar la orientación del marcador, el usuario típicamente seleccionará o ajustará la orientación para así corresponder a la orientación esperada de la porción de la imagen a la cual se hará una anotación. Al recibir tal comando de selección del usuario, la orientación del marcador seleccionado, como se determina por el usuario, es conocida. En respuesta, el procesador configura el algoritmo para el procesamiento de imagen a ser sensible a las porciones de la imagen que corresponden visualmente al marcador seleccionado con la orientación particular. Por lo tanto, la orientación del marcador se toma en cuenta automáticamente en el refinamiento de su ubicación para la colocación por consiguiente adaptando el algoritmo para el procesamiento de imagen.
Opcionalmente, la captura del usuario se dispone para recibir los datos del tipo, los datos del tipo son indicativos de un tipo de porción de la imagen a ser anotada en la imagen, y el procesador además se dispone para configurar el algoritmo para el procesamiento de imagen dependiendo de los datos del tipo para así ser sensible a las porciones de la imagen que visualmente corresponden al tipo de porción de la imagen y el marcador.
Cuando un usuario indica explícitamente un tipo de porción de la imagen a la cual se hará una anotación en la imagen, por ejemplo, un músculo pectoral, esta información puede utilizarse además de la apariencia del marcador en la determinación de la ubicación para la colocación del marcador. Al recibir datos del tipo que son indicativos del tipo de porción de la imagen a la cual se hará una anotación y configurando el algoritmo para el procesamiento de imagen a ser sensible al tipo de porción de la imagen, el tipo de porción de la imagen, además del marcador mismo, se toma en cuenta en el refinamiento de la ubicación para la colocación del marcador.
Opcionalmente , tal colocación del marcador comprende el ajuste de al menos uno de: una forma, una orientación y un tamaño del marcador para hacer coincidir el marcador con una porción de la imagen en el segundo lugar para la colocación. La apariencia del marcador típicamente corresponde a una apariencia esperada de la porción de la imagen a la cual se hará una anotación. En la práctica, la apariencia actual de la porción de la imagen puede desviarse de la apariencia esperada. En tal caso, se obtiene una anotación mejorada al ajustar, después de haber determinado la ubicación para la colocación del marcador, la apariencia del marcador con respecto a la porción de la imagen en el segundo lugar para la colocación y colocar el marcador después de tal ajuste.
Opcionalmente , el procesador se dispone para establecer la pluralidad de grados de equivalencia mediante el establecimiento de una pluralidad de distancias entre, por un lado, el primer lugar para la colocación y, por el otro lado, la pluralidad respectiva de porciones de la imagen, y ponderando la pluralidad de grados de equivalencia con la pluralidad de distancias para promover las porciones de la imagen localizadas más cerca del primer lugar para la colocación .
El primer lugar para la colocación, como se proporciona por el usuario, es indicativo de dónde el usuario sabe o espera que la porción de la imagen a la cual se hará una anotación se localiza. Por lo tanto, cuando se refina la ubicación para la colocación, es deseable no desviarla demasiado del primer lugar para la colocación porque la probabilidad de encontrar tal porción de la imagen disminuye con una distancia en aumento desde el primer lugar para la colocación. Al ponderar cada grado de equivalencia con una distancia de la porción de la imagen respectiva para el primer lugar para la colocación, el reconocimiento anterior se toma en cuenta. Es decir, se obtiene un equilibrio entre la semejanza de una porción de la imagen del marcador y su distancia hacia el primer lugar para la colocación.
Opcionalmente, el procesador se dispone para establecer la pluralidad de grados de equivalencia por el establecimiento de una pluralidad de medidas detalladas que son indicativas del detalle de la imagen, presentes en la imagen entre, por un lado, el primer lugar para la colocación, y por el otro lado, la pluralidad respectiva de porciones de la imagen, y la ponderación de la pluralidad de grados de equivalencia con la pluralidad de medidas detalladas para promover las porciones de la imagen con menos detalles de imagen en la imagen entre ellas y el primer lugar para la colocación.
Cuando están presentes los detalles de la imagen cerca de la porción de la imagen a la cual se hará una anotación, el usuario debe tener cuidado al colocar el marcador correctamente con respecto a los detalles de la imagen. Una razón de esto es que los detalles de la imagen proporcionan un punto de referencia. De esta forma, el primer lugar para la colocación se espera que sea preciso con respecto a los detalles de la imagen, y por lo tanto preciso en la dirección de los detalles de la imagen. Este reconocimiento se toma en cuenta por las medidas anteriores, que resultan en detalles que están presentes entre el primer lugar para la colocación y una porción de la imagen que actúan como una clase de barrera, en tal forma que el grado de equivalencia de tal porción de la imagen se reduje o devalúa. En consecuencia, el segundo lugar para la colocación es probablemente desviarse menos desde el primer lugar para la colocación en direcciones en donde la anterior localización se espera ser precisa, y más en direcciones en donde tal ubicación puede ser inexacta.
Opcionalmente, el procesador se dispone para establecer el segundo lugar para la colocación por el uso modelo a base de fuerza que comprende la pluralidad de grados de equivalencia como fuerzas de atracción. El modelo a base de fuerza constituye una forma eficiente para establecer el segundo lugar para la colocación que depende de la pluralidad de grados de equivalencia.
Opcionalmente, la captura del usuario se dispone para recibir datos de intervalo del usuario, los datos de intervalo son indicativos de un tamaño de la región, y el procesador se dispone para establecer el tamaño de la región dependiendo de los datos de intervalo. El usuario de esta forma puede influenciar el tamaño de la región, por ejemplo, con el fin de reducir el tamaño de la región cuando se espera que el primer lugar para la colocación sea exacto, o para reducir el tamaño de la región cuando no se espera que el primer lugar para la colocación sea exacto.
Opcionalmente, el comando de colocación además es indicativo de una dirección de la colocación en el momento de proporcionar el comando de colocación, y el procesador se dispone para establecer una forma, de la región con respecto al primer lugar para la colocación dependiendo de la dirección de la colocación. El usuario de esta forma puede influenciar la forma de la región con respecto al primer lugar para la colocación vía la dirección de la colocación cuando se proporciona el comando de colocación. La dirección de la colocación puede ser, por ejemplo, una dirección que corresponde al movimiento físico de un dispositivo de interfaz de usuario, por ejemplo, un ratón, o una dirección del movimiento desplegado de un cursor sobre una pantalla, etc. Ventajosamente, cuando el usuario proporciona el comando de colocación antes de haber llegado a la ubicación prevista para la colocación, sistema hacer una compensación para este hecho predominantemente moldeando la región en la dirección de la colocación.
Opcionalmente, el comando de colocación además es indicativo de una velocidad de colocación en el momento de proporcionar el comando de colocación, y el procesador además se dispone para establecer un tamaño de la región dependiendo de la velocidad de la colocación. El usuario de esta forma puede influencia el tamaño de la región con la velocidad de la colocación cuando proporciona el comando de colocación. La velocidad de la colocación, por ejemplo, puede ser una velocidad correspondiente al movimiento físico de un dispositivo de interfaz de usuario, o una velocidad del movimiento desplegado de un cursor sobre una pantalla, etc. Ventajosamente, la dirección de la colocación y la velocidad de la colocación pueden combinarse para simular la inercia del dispositivo de interfaz de usuario o del cursor para ofrecer al usuario una forma intuitiva de influencia la forma y el tamaño de la región.
Se apreciará por los expertos en la técnica que dos o más de las modalidades, implementaciones , y/o aspectos de la invención antes mencionados pueden combinarse en cualquier forma que se estime útil.
Pueden llevarse a cabo modificaciones y variaciones en el aparto para procesar imágenes, la estación de trabajo, el método y/o el producto de programa de computadora, que corresponda a las modificaciones y variaciones descritas del sistema por un experto en la técnica sobre las bases de la presente descripción.
Un experto en la técnica apreciará que el método puede aplicarse a datos de imagen multi-dimensionales , por ejemplo, imágenes bidimensionales (2-D) , tridimensionales (3-D) o cuatridimensionales (4-D) . Una dimensión de los datos de imagen multi -dimensional pueden referirse al tiempo. Por ejemplo, una imagen tridimensional puede comprender series de dominios de tiempo de imágenes bidimensionales . La imagen puede ser una imagen médica, adquirida por procesamiento de imágenes por rayos X, Tomografía Computarizada (CT, por sus siglas en inglés) , Procesamiento de Imágenes por Resonancia Magnética (MRI, por sus siglas en inglés), Ultrasonido (US), Tomografía con Emisión de Positrón (PET, por sus siglas en inglés) , Tomografía Computarizada por Emisión de Fotón Individual (SPECT, por sus siglas en inglés) , y Medicina Nuclear (NM, por sus siglas en inglés) . Sin embargo, la imagen también puede ser de cualquier otro tipo, por ejemplo, una imagen cartográfica o sísmica que el usuario desea anotar.
La invención se define en las reivindicaciones anexas. Las modalidades ventajosas se definen en las reivindicaciones dependientes.
Breve Descripción de las Figuras Estos y otros aspectos de la invención serán evidentes a partir de y se elucidarán con referencia a las modalidades descritas en la presente más adelante. En las figuras : La Fig. 1 muestra un sistema de acuerdo con la presente invención y una pantalla; La Fig. 2 muestra un método de acuerdo con la presente invención; La Fig. 3a muestra al usuario moviendo un marcador sobre una imagen; La Fig. 3b muestra al usuario colocando el marcador en un primer lugar para la colocación; La Fig. 3c muestra una región y una pluralidad de porciones de imagen dentro de la región; La Fig. 3d muestra al sistema colocando el marcador en un segundo lugar para la colocación; La Fig. 4 muestra una selección del marcador entre diferentes marcadores; La Fig. 5 muestra al usuario determinando una orientación del marcador; La Fig. 6a muestra el marcador siendo colocado con un cursor con una velocidad de la colocación y dirección de la colocación en el momento de la colocación del marcador; y La Fig. 6b muestra al marcador siendo ajustado con una porción de la imagen.
Descripción Detallada de la Invención La Fig. 1 muestra un sistema 100 para habilitar las anotaciones interactivas de una imagen 102. El sistema 100 comprende una captura del usuario 160 para recibir un comando de colocación 162 de un usuario, el comando de colocación 162 es indicativo de un primer lugar para la colocación de un marcador en la imagen 102 para permitir al usuario colocar el marcador en la imagen 102. A pesar de que no se muestra en la Fig. 1, la captura del usuario 160 puede estar conectada a un dispositivo de interfaz de usuario tal como un ratón, teclado o pantalla táctil, que es operada por el usuario. El sistema 100 además comprende un procesador 180. El procesador 180 puede disponerse para establecer una región en la imagen dependiendo del primer lugar para la colocación. Para este propósito, el procesador 180 se muestra conectado a la captura del usuario 160 para recibir el comando de colocación 162. El procesador 180 además se dispone para aplicar un algoritmo para procesamiento de imagen a la región, el algoritmo para el procesamiento de imagen es sensible a las porciones de la imagen que visualmente corresponden al marcador para establecer una pluralidad de grados de equivalencia entre, por un lado, el marcador, y, por el otro lado, una pluralidad de porciones de imagen dentro de la región. Además, el procesador 180 se dispone para colocar el marcador en el segundo lugar para la colocación en la imagen 102. La Fig. 1 muestra el procesador 180 dispuesto para colocar el marcador que se está conectando a una pantalla 184 desplegando el marcador en el segundo lugar para la colocación en la imagen 102. Para este propósito, el procesador 180 proporciona datos de despliegue 182 a la pantalla 184. Alternativa, o adicionalmente , el procesador 180 puede colocar el marcador mediante la creación de datos que pueden utilizarse a través de, por ejemplo, un dispositivo para despliegue de imagen para desplegar el marcador en el segundo lugar para la colocación en la imagen 102.
La Fig. 2 muestra un método 200 para permitir la anotación interactiva de una imagen/ el método comprende un primer paso 210 titulado "OBTENCION DEL PRIMER LUGAR PARA LA COLOCACION", el primer paso 210 comprende recibir un comando de colocación de un usuario, el comando de colocación es indicativo de un primer lugar para la colocación de un marcador en la imagen. El método además comprende un segundo paso 220 titulado "MARCADOR COINCIDENTE EN PORCIONES DE LA IMAGEN DENTRO DE UNA REGION" que comprende aplicar un algoritmo para procesamiento de imagen a una región en la imagen, la región se basa en un primer lugar para la colocación, y el algoritmo para el procesamiento de imagen es sensible a las porciones de la imagen que visualmente corresponden al marcador para establecer una pluralidad de grados de equivalencia entre, por un lado, el marcador, y, por el otro lado, una pluralidad de porciones de imagen dentro de la región. El método además comprende un tercer paso 230 titulado "ESTABLECIMIENTO DEL SEGUNDO LUGAR PARA LA COLOCACION" que comprende establecer un segundo lugar para la colocación que depende de la pluralidad de grados de equivalencia y la pluralidad respectiva de porciones de la imagen para hacer coincidir el marcador con la región en la imagen. El método además comprende un cuarto paso 240 titulado "COLOCACION DEL MARCADOR EN EL SEGUNDO LUGAR PARA LA COLOCACION" que comprende colocar el marcador en el segundo lugar para la colocación en la imagen.
El método 200 puede corresponder a una operación del sistema 100, y se explicará con mayor detalle con referencia al sistema 100. Se apreciará, sin embargo, que el método puede llevarse a cabo independientemente del sistema, por ejemplo, por otro sistema o dispositivo.
La Fig. 3a y las demás figures ilustran una operación del sistema 100 mostrando un despliegue ilustrativo de la imagen 102 y el marcador 140 en la pantalla 184. La Fig. 3a muestra la imagen 102 que es una imagen médica, la imagen médica es un mamograma que muestra el músculo pectoral 104 y un perfil del pecho. El mamograma puede utilizarse, entre otras cosas, para evaluar la calidad de la colocación del paciente en la mamografía. Para este propósito, un usuario tal como un radiólogo o técnico puede necesitar anotar el mamograma colocando formas geométricas básicas simples, tales como puntos o líneas, o un acotamiento anatómico en el mamograma. En el ejemplo de la Fig. 3a, el usuario desea colocar un marcador 140 que es un segmento de línea en el músculo pectoral 104 con el fin de anotar o marcar el músculo pectoral 104.
El sistema 100 puede ser dispuesto para permitir al usuario controlar un cursor 166 desplegado sobre la imagen con el fin de mover el marcador 140. Se apreciará, sin embargo, que esta funcionalidad también puede ser provista por otro sistema o dispositivo en lugar del sistema 100. Además, cuando se coloca el marcador, solamente el cursor 166 puede desplegarse, es decir, sin el marcador 140, o solamente el marcador 140 puede desplegarse, es decir, sin el cursor 166.
La Fig. 3a además muestra un primer lugar para la colocación 124 que es un lugar en donde el usuario desea colocar el marcador 140, el primer lugar para la colocación 124 está cerca del músculo pectoral 104 con el fin de anotar o marcar el músculo pectoral 104. Para este propósito, el usuario puede mover el cursor 166, por ejemplo, utilizando el dispositivo de interfaz de usuario antes mencionado, y puede proporcionar el comando de colocación, por ejemplo, presionando o liberando un botón del dispositivo de interfaz de usuario antes mencionado, por lo tanto indicando el deseo de colocar el marcador 140 en el presente lugar del cursor 166. La Fig. 3b muestra un resultado de las acciones anteriores del usuario, es decir, el usuario ha movido el cursor 166 y de esta forma el marcador 140 al primer lugar para la colocación 124. El usuario puede en este momento o en esta situación proporcionar el comando de colocación, por lo tanto indicando el deseo de colocar el marcador 140 en el primer lugar para la colocación 124.
Las Figs. 3a y 3b ambas muestran la ubicación para la colocación 124 que es adyacente al músculo pectoral 104 pero sin embargo junto al músculo pectoral 104. De esta forma, la colocación del marcador 140 en el primer lugar para la colocación 124 resultaría en una desalineación entre el marcador 140 y el músculo pectoral 104. Esto puede resultar en una anotación imperfecta, posiblemente inadecuada del músculo pectoral 104. El usuario puede estar consciente de la desalineación, pero sin embargo puede seleccionar tal ubicación para la colocación debido a, por ejemplo, los límites de tiempo o dificultad en la exacta colocación del marcador. El usuario también puede no estar consciente de la desalineación, por ejemplo, debido a que no es capaz de percibir fácilmente la desalineación.
La Fig. 3c ilustrativamente muestra un paso intermedio en la operación del sistema 100, que típicamente puede no ser mostrado al usuario. Para facilitar la ilustración, el cursor 166 y el marcador 140 han sido omitidos en la Fig. 3c, así como los signos de referencia que indican el músculo pectoral 104. La Fig. 3c muestra el procesador 180 con una región establecida 130 en la imagen 102 dependiendo del primer lugar para la colocación 124. Cuando se compara la Fig. 3b con la Fig. 3c, se puede ver que la región 130 se localiza aproximadamente alrededor del primer lugar para la colocación 124. También se muestra una pluralidad de porciones de imagen 132, 134, 136, 138 dentro de la región 130, las porciones de la imagen son las porciones de la imagen 102 que subyacen cada una de las líneas, es decir, se delinean por cada una de las líneas. Estas porciones de la imagen 132, 134, 136, 138 tienen la misma forma que el marcador 140 y representan una pluralidad de ubicaciones potenciales para la colocación del marcador 140, la ubicación para las colocaciones se co-localizan con las porciones de la imagen y de esta forma no se muestran explícitamente. Como se muestra en la Fig. 3c, una de la pluralidad de porciones de la imagen 134 corresponde a la porción de la imagen 102 en el primer lugar para la colocación 124.
Se observa que, por el bien de claridad, las porciones de la imagen 132, 134, 136, 138 mostradas en la Fig. 3c se limitan en número, son diferentes y no se traslapan. Se apreciará, sin embargo, que las porciones de la imagen también pueden estar inmediatamente adyacentes y/o parcialmente traslapadas. En particular, las porciones de la imagen 132, 134, 136, 138 pueden constituirse por toda o sustancialmente todas las ubicaciones potenciales para la colocación dentro de la región 130.
Se observa que, en consecuencia, el procesador 180 puede no necesitar ser dispuesto para explícitamente establecer la región 130 con base en el primer lugar para la colocación 124. La región 130 más bien puede ser un resultado implícito de, por ejemplo, el algoritmo para el procesamiento de imagen que ha ubicado la pluralidad de porciones de la imagen en la imagen. La región 130 también puede ser un resultado implícito del procesador 180 que modifica uno o más parámetros del algoritmo para el procesamiento de imagen, por ejemplo, mediante la restricción o limitación del algoritmo para el procesamiento de imagen a un número máximo de repeticiones. El procesador 180 también puede ser dispuesto para establecer explícitamente la región 130 en la imagen. Por ejemplo, el procesador 180 puede disponerse para determinar la región 130 dependiendo de la proximidad con el primer lugar para la colocación 124. De esta forma, la región puede constituirse por todos las porciones de la imagen que tiene al menos una proximidad dada con el primer lugar para la colocación 124. La región 130 también puede establecerse simplemente definiendo un círculo, rectángulo o cualquier otra forma geométrica alrededor del primer lugar para la colocación 124. La forma de la región 130 puede seleccionarse para ser más larga en una cierta dirección. Por ejemplo, cuando el marcador 140 tiene una cierta orientación predominante, la forma de la región 130 puede ser más larga en una dirección perpendicular a la orientación predominante que en las otras direcciones.
Después de haber establecido la región 130 en la imagen, el procesador 180 aplica un algoritmo para el procesamiento de imagen a la región 130 para establecer un grado de equivalencia entre, por un lado, el marcador 140, y, por el otro lado, la pluralidad de porciones de la imagen 132, 134, 136, 138 dentro de la región. El grado de equivalencia se establece para determinar que tan bien el marcador 140 coincidirá con cada una de las porciones de la imagen 132, 134, 136, 138 si el marcador 140 se coloca en la parte superior de la porción de la imagen respectiva, es decir, en una ubicación correspondiente para la colocación. En este ejemplo particular, con el marcador 140 siendo un segmento de línea, el algoritmo para el procesamiento de imagen establecería cuánto se asemejan cada una de las porciones de la imagen 132, 134, 136, 138 al segmento de línea como se constituye por el marcador 140.
El algoritmo para el procesamiento de imagen puede ser cualquier algoritmo para el procesamiento de imagen conocido en el campo del procesamiento de imágenes que es adecuad para determinar un grado de equivalencia o correspondencia visual entre el marcador 140 y una porción de la imagen 132, 134, 136, 138. El algoritmo para el procesamiento de imagen puede comprender determinar una diferencia de luminancia entre cada una de la pluralidad de porciones de la imagen 132, 134, 136, 138 y una representación de la imagen del marcador 140. La diferencia de luminancia puede ser una diferencia entre píxeles de las porciones de la imagen 132, 134, 136, 138 y los píxeles correspondientes de la representación de la imagen del marcador 140. Una pequeña diferencia de luminancia entre píxeles puede indicar un alto grado de equivalencia, es decir, una alta correspondencia visual, y una gran diferencia de luminancia puede indicar un bajo grado de equivalencia, es decir, baja correspondencia visual. Se apreciará, sin embargo, que el campo del procesamiento de imagen comprende muchos otros algoritmos que pueden utilizarse para tal propósito.
Por ejemplo, una denominada imagen con rasgos mejorados puede calcularse de la imagen 102 y el marcador 140, la imagen para mejoramiento de rasgos indica el grado de equivalencia entre el marcador 140 y cada una de las porciones de la imagen 132, 134, 136, 138 dentro de la región. Por ejemplo, cuando el marcador 140 es una etiqueta de tiempo, el algoritmo para el procesamiento de imagen puede calcular una imagen mejorada en rasgos en donde las características de tipo punto o tipo burbuja se mejoran.
El mejoramiento puede realizarse en varias formas.
Por ejemplo, una imagen con rasgos de burbuja mejorados puede derivarse de una matriz hessiana calculada para cada píxel dentro de la región 130. Aquí, la magnitud del más pequeño, en términos de valor absoluto, el valor Eigen de la matriz hessiana puede interpretarse como la característica denominada de burbuja que indica tal grado de equivalencia. Similarmente , cuando el marcador 140 es un segmento de línea, el algoritmo para el procesamiento de imagen puede calcular una imagen mejorada en rasgos en donde las características de línea o borde se mejoran, por ejemplo mediante la interpretación del segundo alto valor Eigen más pequeño y un bajo valor Eigen más pequeño en tal matriz hessiana como la característica de línea o borde. Alternativa, o adicionalmente , los filtros Gabor, las transformaciones Hough o cualquier otra técnica adecuada pueden utilizarse.
Habiendo establecido el grado de equivalencia entre, por un lado, el marcador 140, y, por el otro lado, una pluralidad de porciones de imagen 132, 134, 136, 138 dentro de la región 130, el procesador 180 puede establecer un segundo lugar para la colocación 126 que depende de la pluralidad de grados de equivalencia y la pluralidad respectiva de porciones de la imagen. Por ejemplo, el procesador 180 puede establecer el segundo lugar para la colocación 126 como una ubicación de una de la pluralidad de porciones de la imagen 136 con el más alto de la pluralidad de grados de equivalencia.
La Fig. 3c muestra un ejemplo de la porción de la imagen 136 que está aproximadamente constituida por el músculo pectoral 104 y con el más alto de la pluralidad de grados de equivalencia. Además, en este ejemplo, la ubicación de tal porción de la imagen 136 se establece como el segundo lugar para la colocación 126. El resultado de esta operación se muestra en la Fig. 3d, en donde el marcador 140 se muestra como colocado en el segundo lugar para la colocación 126.
A pesar de que no se muestra en ninguna de las figuras previa, el procesador también puede estar dispuesto para establecer la pluralidad de grados de equivalencia por el establecimiento de una pluralidad de distancias entre, por un lado, el primer lugar para la colocación, y por el otro lado, la pluralidad respectiva de porciones de la imagen, y ponderado la pluralidad de grados de equivalencia con la pluralidad de distancias para promover las porciones de la imagen que se localizan más cerca del primer lugar para la colocación. Por lo tanto, el procesador no necesariamente selecciona la ubicación de una de la pluralidad de porciones de la imagen que más se asemeja al marcador como el segundo lugar para la colocación, sino más bien una ubicación de una porción de la imagen que razonablemente se asemeja al marcador y se localiza más cerca del primer lugar para la colocación que la porción de la imagen que más se asemeja al marcador. La ponderación puede comprender la multiplicación del grado de equivalencia mediante el factor de ponderación de acuerdo con la distancia. La ponderación también puede comprender agregar o sustraer la distancia en o desde el grado de equivalencia. Se apreciará que se pueden utilizar varios otros mecanismos así como la promoción de las porciones de la imagen que se localizan cerca del primer lugar para la colocación sobre las porciones de la imagen que se localizan m s lejos del primer lugar para la colocación.
Además, el procesador puede disponerse para establecer el segundo lugar para la colocación por el uso del modelo a base de fuerza que comprende la pluralidad de grados de equivalencia como las fuerzas de atracción. Además, la pluralidad de distancias puede estar comprendida en el modelo a base de fuerza como fuerzas de repulsión. La ubicación de una porción de la imagen en equilibrio o que se someten a una fuerza neta más cerca del equilibrio después puede seleccionarse como el segundo lugar para la colocación.
La Fig. 4 ilustra otro ejemplo de una operación del sistema 100. Aquí, el sistema 100 se dispone para permitir al usuario seleccionar el marcador 140 entre una pluralidad de diferentes marcadores 142, 144, 146. La Fig. 4 muestra los marcadores que son formas geométricas básicas, es decir, un segmento de línea 142, un círculo 144 y un segmento de esquina 146. Se apreciará, sin embargo, que los marcadores pueden ser cualquier otro tipo de marcador gráfico. La Fig. 4 muestra el resultado de que el usuario haya seleccionado el círculo como marcador 140. La captura del usuario 160 puede disponerse para recibir un comando de selección 163 del usuario que es indicativo de una selección del marcador 140 entre la pluralidad de diferentes marcadores 142, 144, 146. El usuario puede proporcionar el comando de selección 163 por, por ejemplo, pulsando con el cursor 166 en uno particular de la pluralidad de marcadores, por ejemplo, el círculo 144. Además, el procesador 180 puede disponerse para configurar el algoritmo para el procesamiento de imagen dependiendo del marcador seleccionado que es sensible a las porciones de la imagen que visualmente corresponden al marcador seleccionado 144. De esta forma, en lugar de ser sensible a las porciones de la imagen que corresponden visualmente a segmentos de línea, como se muestra previamente en las Figs . 3a-3d, el algoritmo para el procesamiento de imagen puede configurarse para ser sensible a las porciones de la imagen que parecen círculos del diámetro particular como el marcador 140. A este respecto, se observa que la configuración del algoritmo para el procesamiento de imagen puede comprender, por ejemplo, la modificación de uno o más parámetros del algoritmo para el procesamiento de imagen, o seleccionar el algoritmo para el procesamiento de imagen entre una pluralidad of algoritmo para el procesamiento de imágenes.
La Fig. 5 ilustra otro ejemplo de una operación del sistema 100. Aquí, el sistema 100 se dispone para permitir al usuario determinar una orientación del marcador 140. Esto se muestra ilustrativamente por el usuario que selecciona la orientación del marcador 140 entre una pluralidad de orientaciones del marcador 141, 142, 143. Por ejemplo, el sistema 100 puede disponerse para permitir al usuario determinar la orientación del marcador 140 permitiendo al usuario girar el marcador alrededor de un punto central del marcador 140. Además, el comando de selección 163 es adicionalmente indicativo de la orientación del marcador 140 como se determina por el usuario, y el procesador 180 además puede disponerse para configurar el algoritmo para el procesamiento de imagen dependiendo de la orientación para así ser sensible a las porciones de la imagen que visualmente corresponden al marcador seleccionado 140 con tal orientación. Cualquier cambio en la orientación del marcador de esta forma se toma en cuenta por el procesador 180 que configura el algoritmo para el procesamiento de imagen correspondientemente. Por ejemplo, si el algoritmo para el procesamiento de imagen comprende un filtro de detección de bordes, sus coeficientes de filtro pueden modificarse para ser sensible a los bordes que corren en la misma dirección como la orientación del marcador. Similarmente, si el algoritmo para el procesamiento de imagen comprende una plantilla para llevar a cabo la comparación de plantilla, la plantilla puede girarse de acuerdo con la rotación del marcador 140.
La Fig. 6a ilustra otro ejemplo de una operación del sistema 100. Aquí, el marcador 140 se coloca mientras el cursor 168 tiene una velocidad en el momento de la colocación del marcador, en lo sucesivo referida como velocidad de la colocación, así como una dirección, en lo sucesivo referida como dirección de la colocación. La velocidad de la colocación y la dirección de la colocación se muestran ilustrativamente por los cursores punteados que rastrean el cursor 168. En este ejemplo, la captura del usuario 160 puede disponerse para recibir el comando de colocación de un dispositivo de interfaz de usuario que es operable por el usuario. El dispositivo de interfaz de usuario puede ser, por ejemplo, un ratón, una palanca de mandos, una pantalla táctil, etc. El comando de colocación además puede ser indicativo de la dirección de la colocación asociada con el dispositivo de interfaz de usuario o del cursor 168 en el momento de proporcionar el comando de colocación. El comando de colocación puede ser provisto por, por ejemplo, el usuario que libera el botón del ratón mientras opera el ratón para mover el cursor 168 sobre la imagen 102. Como se muestra en la Fig. 6a, la dirección de la colocación puede ser la dirección sobre la pantalla de un elemento de interfaz de usuario, tal como el cursor 168, que se controla por el dispositivo de interfaz de usuario. Alternativamente, la dirección de la colocación puede corresponder a la dirección física del movimiento del dispositivo de interfaz de usuario.
El procesador 180 puede disponerse para establecer una forma de la región 130 con respecto al primer lugar para la colocación 124 dependiendo de la dirección de la colocación. En la Fig. 6a, esto se muestra por la región 130 que se está moldeando de tal forma que se extiende predominantemente en la dirección de la colocación con respecto al primer lugar para la colocación 124, en lugar de, por ejemplo, que se está centrando alrededor del primer lugar para la colocación 124. En consecuencia, una pluralidad de ubicaciones potenciales para la colocación 122, 123, 124, 125, correspondientes a una pluralidad of porciones e la imagen no descrita dentro de la región 130, se localizan predominantemente en la dirección de la colocación con respecto al primer lugar para la colocación 124. La forma de la región 130 puede ser de tipo caja. Similarmente, la forma de la región 130 puede ser de tipo triángulo o de tipo trapezoide, por ejemplo ensanchando la región 130 con una distancia en aumento desde el primer lugar para la colocación 124.
Alternativamente, o además del comando de colocación que es indicativo de la dirección de la colocación, el comando de colocación puede ser indicativo de una velocidad de la colocación del dispositivo de interfaz de usuario o el cursor 168 en el momento de proporcionar el comando de colocación. En este ejemplo, el procesador 180 además puede estar dispuesto para establecer un tamaño de la región 130 que depende de la velocidad de la colocación. Por ejemplo, el tamaño de la región 130 puede ser proporcionar a la velocidad de la colocación, de tal forma que una alta velocidad de la colocación da como resultado mayor tamaño en la región 130, y una baja velocidad de la colocación resulta en un pequeño tamaño de la región 130. Como resultado de lo anterior, el usuario puede utilizar el dispositivo de interfaz de usuario o cursor 168 para "lanzar" el marcador 140 en la dirección de la porción de la imagen a la cual se hará una anotación, con el marcador 140 después 'agregando' la porción de la imagen debido a la operación del sistema 100.
El procesador 180 también puede disponerse para establecer la pluralidad de grados de equivalencia por el establecimiento de una pluralidad de medidas detalladas que son indicativas de la imagen presente en la imagen 102 entre, por un lado, el primer lugar para la colocación 124, y por el otro lado, la pluralidad respectiva de porciones de la imagen, y ponderando la pluralidad de grados de equivalencia con la pluralidad de medidas detalladas para promover las porciones de la imagen con menos detalles de la imagen en la imagen entre ellas y el primer lugar para la colocación. Como un resultado, el marcador 140 se 'agrega' más fácilmente a porciones de la imagen que tienen menos detalles de la imagen entre ellos y el primer lugar para la colocación 124, es decir, que tiene una clara trayectoria hacia el primer lugar para la colocación 124 en términos de detalles de la imagen.
Una analogía física para esta operación del sistema 100 puede ser la de los detalles de la imagen que actúan como una barrera o umbral para la colocación potencial del marcador 140.
Como una alternativa, o además de la velocidad de la colocación que se utiliza para determinar el tamaño de la región 130, la captura del usuario 160 puede disponerse para recibir los datos de intervalo 165 del usuario, los datos de intervalo que son indicativos del tamaño de la región 130. Los datos de intervalo 165 de esta forma pueden obtenerse de una selección del usuario que indica el tamaño de la región 130, por ejemplo, arrastrando un control deslizante para indicar tal tamaño. Además, el procesador 180 puede disponerse para establecer el tamaño de la región 130 dependiendo de los datos de intervalo 165. De esta forma, el usuario también puede influenciar el tamaño de la región 130 proporcionando tales de datos de intervalo.
La Fig. 6b ilustra otro ejemplo de una operación del sistema 100, en donde la selección de un segundo lugar para la colocación 125 puede estar de acuerdo con la operación del sistema 100 mostrado en la Fig. 6a y descrito con referencia al mismo. Aquí, el segundo lugar para la colocación 125 seleccionado se muestra con una porción de la imagen correspondiente, aún no descrita, entre la pluralidad de ubicaciones para la colocación 122, 123, 124, 125 como se muestra en la Fig. 6a que más se asemeja al marcador 140. Sin embargo, el segundo lugar para la colocación 125 no está en perfecta alineación con el músculo pectoral 104. El procesador 180 puede disponerse para colocar el marcador 140 mediante el ajuste, ya sea durante o antes del paso de colocación, la forma, la orientación o el tamaño o una de sus combinaciones, del marcador 140 con el fin de comparar el marcador 140 con la porción de la imagen a la cual se hará una anotación, es decir, el músculo pectoral 104, que solo se localiza parcialmente en el segundo lugar para la colocación 125. En este ejemplo particular, el marcador 140 se gira para coincidir mejor con la orientación del músculo pectoral 104, y posteriormente se colocar después de tal rotación. Efectivamente, esto resulta en el segundo lugar para la colocación 125 que se está ajustando de acuerdo con el ajuste del marcador 140, resultando en un segundo lugar para la colocación 126 girado con respecto al segundo lugar para la colocación 125.
Para ajustar el marcador 140 con respecto a la porción de la imagen en el segundo lugar para la colocación, se puede utilizar varias técnicas de los campos de procesamiento de imágenes y análisis de imagen. Por ejemplo, se puede utilizar la transformación de para determinar la orientación del músculo pectoral 104, con el marcador 140 después siendo rotado por consiguiente. En el caso del marcador 140 que es un modelo gráfico de computadora, por ejemplo, que comprende vértices y caras, ciertas características de la porción de la imagen puede detectarse por medio de, por ejemplo, el uso de segmentación de imagen o el algoritmo de análisis de imagen, y el marcador 140 puede deformarse con el fin de adaptar las características detectadas de -la porción de la imagen, es decir, el marcador 140 puede ser un marcador deformable .
En general, y como se muestra en la Fig. 1, la captura del usuario 160 puede disponerse para recibir datos del tipo 163, los datos del tipo son indicativo de un tipo de porción de la imagen a ser anotado en la imagen, y el procesador además puede disponerse para configurar el algoritmo para el procesamiento de imagen dependiendo de los datos del tipo para así ser sensible a las porciones de la imagen que visualmente corresponden al tipo de porción de la imagen y el marcador. Por consiguiente, el usuario puede seleccionar un tipo de porción de la imagen que desea anotar en la imagen, por ejemplo, pulsando sobre un ejemplo o plantilla de la porción de la imagen. El algoritmo para el procesamiento de imagen después puede configurarse para ser igualmente sensible al tipo seleccionado de porción de la imagen y el marcador, pero más sensible con una porción de la imagen que se asemeja a ambos, el tipo seleccionado de la porción de la imagen y el marcador. El tipo de porción de la imagen puede seleccionarse automáticamente por el sistema, por ejemplo, cuando se sabe qué tipo de porción de la imagen se va a anotar. Por ejemplo, cuando se anotan acotaciones anatómicas en mamogramas 2D, se sabe que el tipo de porción de la imagen es típicamente el pezón o el pliegue inframamario. Por lo tanto, el algoritmo para el procesamiento de imagen puede configurarse a ser sensible a cualquier tipo.
El procesador también puede disponerse para establecer el segundo lugar para la colocación utilizando técnicas del campo de la optimización matemática. En particular, la porción de la imagen a la cual se hará una anotación puede ser cualquiera de todas o sustancialmente todas las porciones de la imagen dentro de una región o la imagen completa. La determinación del grado de equivalencia para todas las porciones de la imagen puede llevar a una alta complejidad computacional . Con el fin de evitar esta alta complejidad computacional, el procesador puede disponerse para aplicar, por ejemplo, un descenso en gradiente, o método de optimización similar, en donde el grado de equivalencia se utiliza como una función que se va a optimizar, con las variables en tal función siendo la ubicación dentro de la región. De esta forma, el procesador puede iterativamente llegar al segundo lugar para la colocación, esta ubicación siendo un resultado obtenido por el método de optimización.
Por consiguiente, se evita un cálculo exhaustivo del grado de equivalencias para todas las porciones de la imagen. Se apreciará que en este caso, la región puede establecerse configurando o ajustando uno o más parámetros en el método de optimización que se refieren a, por ejemplo, el número de iteraciones o la distancia al primer lugar para la colocación .
En general, se nota que el sistema puede configurarse de tal forma que, en el caso en donde el segundo lugar para la colocación inadvertidamente no corresponda a uno previsto, es decir, no corresponde a la porción de la imagen a la cual se hará una anotación, el usuario puede corregir el segundo lugar para la colocación proveyendo un nuevo comando de colocación para solicitar al sistema establecer de nuevo el segundo lugar para la colocación, o colocando manualmente el marcador sin solicitar al sistema refinar adicionalmente la colocación del marcador.
Además se observar que la pluralidad de porciones de la imagen puede estar constituida por una primera porción de la imagen localizada en el primer lugar para la colocación y una porción de la imagen más localizada en una ubicación para la colocación adicional, con el sistema de esta forma comparando el grado de equivalencia entre el marcador y tales porciones de la imagen y colocar el marcador en una de ambas porciones de la imagen, es decir, la porción de la imagen que produce el más alto grado de equivalencia. El segundo lugar para la colocación puede ser la ubicación para la colocación adicional, pero igualmente puede ser el primer lugar para la colocación si el grado de equivalencia entre el marcador y la primera porción de la imagen es el más alto grado de equivalencia .
Se apreciará que la invención también se aplica a programas de computadora, particularmente programas de computadora en o dentro de un portador, adaptado para colocar en práctica la invención. El programa puede estar en la forma de un código fuente, un código de objeto, o una fuente intermedia de código y el código tal como en una forma parcialmente compilada, o en cualquier otra forma adecuada para utilizarse en la implementación del método de acuerdo con la invención. También se apreciará que tal programa puede tener diferentes diseños arquitecturales. Por ejemplo, un código de programa que implementa la funcionalidad del método o sistema de acuerdo con la invención puede sub-dividirse en una o más sub-rutinas. Muchas diferentes formas para distribuir la funcionalidad entre estas sub-rutinas serán evidentes para el experto. Las sub-rutinas pueden almacenarse juntas en un archivo ejecutable para formar un programa independiente. Tal archivo ejecutable puede comprender instrucciones legibles por computadora, por ejemplo, una o más o todas las sub-rutinas pueden almacenarse en al menos un archivo de biblioteca externo y enlazarse con un programa principal ya sea estática o dinámicamente, por ejemplo, en el tiempo de ejecución. El programa principal contiene al menos una llamada a por lo menos una de las sub-rutinas. Las sub-rutinas también pueden comprender llamadas de función entre sí. Una modalidad relacionada con un producto de programa de computadora comprende instrucciones ejecutables por computadora que corresponden a cada paso del procesamiento de la menos uno de los métodos determinados en la presente . Estas instrucciones puede sub-dividirse en sub-rutinas y/o almacenarse en uno o más archivos que pueden enlazarse estática o dinámicamente.
Otra modalidad relacionada con un producto de programa de computadora comprende instrucciones ejecutables por computadora que corresponden a cada medio de al menos uno de los sistemas y/o productos determinados en la presente. Estas instrucciones pueden sub-dividirse en sub-rutinas y/o almacenarse en uno o más archivos que pueden enlazarse estática o dinámicamente.
El transportador de un programa de computadora puede ser cualquier entidad o dispositivo capaz de transportar el programa. Por ejemplo, el transportador puede ser un medio de almacenamiento, tal como un ROM, por ejemplo, un CD ROM o un ROM semiconductor, o un medio de grabación magnético, por ejemplo, un disco duro. Además, el transportador puede ser un transportador transmisible tal como una señal eléctrica u óptica, que puede transportarse vía un cable eléctrico u óptico o por medio de radio u otros medios. Cuando el programa se modaliza en tal señal, el transportador puede constituirse por tal cable u otro dispositivo o medios. Alternativamente, el transportador puede ser un circuito integrado en donde se embebe el programa, el circuito integrado adaptado para realizar, o ser utilizado en el funcionamiento de, el método relevante.
Se debe observar que las modalidades antes mencionadas se ilustran en lugar del límite de la invención, y los expertos en la técnica serán capaces de diseñar muchas modalidades alternativas sin apartarse del alcance de las reivindicaciones anexas. En las reivindicaciones, cualquier signo de referencia colocado entre paréntesis no deberá construirse como limitante de la reivindicación. El uso del verbo "que comprende" y sus conjugaciones no excluye la presencia de elementos o pasos diferentes los indicados en una reivindicación. El artículo "un" o "uno, una" que precede un elemento no excluye la presencia de una pluralidad de tales elementos. La invención puede implementarse por medio de hardware que comprende varios diferentes elementos, y por medio de una computadora adecuadamente programada. En la reivindicación del dispositivo se enumeran varios medios, varios de estos medios pueden modalizarse por uno o el mismo artículo de hardware. El mero hecho de que ciertas medidas se enumeran en reivindicaciones dependientes mutuamente diferentes no indica que una combinación de estas medidas no pueda utilizarse ventajosamente.
Se hace constar que con relación a esta fecha, el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (15)

REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones :
1. Un sistema para habilitar las anotaciones interactivas de una imagen, caracterizados porque comprende: - una captura del usuario para recibir un comando de colocación de un usuario, el comando de colocación es indicativo de un primer lugar para la colocación de un marcador en la imagen, el comando de colocación se obtiene por el usuario utilizando un dispositivo de interfaz de usuario para mover el marcador sobre la imagen; y - un procesador dispuesto para: (i) aplicar un algoritmo para el procesamiento de la imagen en una región en la imagen, la región se basa en un primer lugar para la colocación, el algoritmo para el procesamiento de imagen configurado para establecer una pluralidad de grados de equivalencia entre, por un lado, el marcador, y, por el otro lado, una pluralidad de porciones de imagen dentro de la región, en donde los grados de equivalencia se establecen con base en el algoritmo para el procesamiento de imagen proporcionando un resultado diferente para las porciones de imagen que corresponden visualmente al marcador, (ii) establecer un segundo lugar para la colocación que depende de la pluralidad de grados de equivalencia y la pluralidad respectiva de porciones de la imagen para hacer coincidir el marcador con la región en la imagen, y (iii) colocar el marcador en el segundo lugar para la colocación en la imagen.
2. Un sistema de conformidad con la reivindicación 1, caracterizado porque: - la captura del usuario se dispone para recibir un comando de selección del usuario, el comando de selección es indicativo de una selección del marcador entre una pluralidad de diferentes marcadores; y el procesador se dispone para configurar el algoritmo para el procesamiento de imagen dependiendo del marcador seleccionado para así ser sensible a las porciones de la imagen que visualmente corresponden al marcador seleccionado.
3. Un sistema de conformidad con la reivindicación 2, caracterizado porque el comando de selección además es indicativo de una orientación del marcador seleccionado como se determina por el usuario, y en donde el procesador además se dispone para configurar el algoritmo para el procesamiento de imagen dependiendo de la orientación para así ser sensible a las porciones de la imagen que visualmente corresponden al marcador seleccionado con tal orientación.
4. Un sistema de conformidad con la reivindicación 1, caracterizado porque: - la captura del usuario se dispone para recibir datos del tipo, los datos del tipo son indicativos de un tipo de porción de la imagen a ser anotado en la imagen; y - el procesador además se dispone para configurar el algoritmo para el procesamiento de imagen dependiendo de los datos del tipo para así ser sensible a las porciones de la imagen que visualmente corresponden to el tipo de porción de la imagen y el marcador.
5. Un sistema de conformidad con la reivindicación 1, caracterizado porque la colocación del marcador comprende ajustar al menos uno de: una forma, una orientación y un tamaño del marcador para hacer coincidir el marcador con una porción de la imagen en el segundo lugar para la colocación.
6. Un sistema de conformidad con la reivindicación 1, caracterizado porque el procesador se dispone para establecer la pluralidad de grados de equivalencia por medio de: el establecimiento de una pluralidad de distancias entre, por un lado, el primer lugar para la colocación, y por el otro lado, la pluralidad respectiva de porciones de la imagen; y - ponderar la pluralidad de grados de equivalencia con la pluralidad de distancias para promover las porciones de la imagen que se localizan más cerca del primer lugar para la colocación.
7. Un sistema de conformidad con la reivindicación 1, caracterizado porque el procesador se dispone para establecer la pluralidad de grados de equivalencia por medio del: establecimiento de una pluralidad de medidas detalladas que son indicativas de los detalles de la imagen presente en la imagen entre, por un lado, el primer lugar para la colocación, y por el otro lado, la pluralidad respectiva de porciones de la imagen; y - ponderar la pluralidad de grados de equivalencia con la pluralidad de medidas detalladas para promover las porciones de la imagen con menos detalles de la imagen en la imagen entre ellas y el primer lugar para la colocación.
8. Un sistema de conformidad con la reivindicación 1, caracterizado porque el procesador se dispone para establecer el segundo lugar para la colocación mediante el uso del modelo a base de fuerza que comprende la pluralidad de grados de equivalencia como fuerzas de atracción.
9. Un sistema de conformidad con la reivindicación 1, caracterizado porque la captura del usuario se dispone para recibir los datos de intervalo del usuario, los datos de intervalo son indicativos de un tamaño de la región, y el procesador está dispuesto para establecer el tamaño de la región que depende de los datos de intervalo.
10. Un sistema de conformidad con la reivindicación 1, caracterizado porque el comando de colocación además es indicativo de una dirección de la colocación en el momento de la provisión del comando de colocación, y en donde el procesador se dispone para establecer una forma, de la región con respecto al primer lugar para la colocación que depende de la dirección de la colocación.
11. Un sistema de conformidad con la reivindicación 10, caracterizado porque el comando de colocación además es indicativo de una velocidad de la colocación en el momento de la provisión del comando de colocación, y en donde el procesador además se dispone para establecer un tamaño de la región que depende de la velocidad de la colocación.
12. Una estación de trabajo caracterizada porque comprende el sistema de conformidad con la reivindicación 1.
13. Un aparato para el procesamiento de imágenes caracterizado porque comprende el sistema de conformidad con la reivindicación 1.
14. Un método para habilitar la anotación interactiva de una imagen, caracterizado porque comprende: - recibir un comando de colocación de un usuario, el comando de colocación es indicativo de un primer lugar para la colocación de un marcador en la imagen, el comando de colocación se obtiene por el usuario que utiliza un dispositivo de interfaz de usuario para mover el marcador sobre la imagen; aplicar un algoritmo para el procesamiento de imagen a una región en la imagen, la región se basa en un primer lugar para la colocación, configurado para establecer una pluralidad de grados de equivalencia entre, por un lado, el marcador, y, por el otro lado, una pluralidad de porciones de imagen dentro de la región, en donde los grados de equivalencia se establecen con base en el algoritmo para el procesamiento de imágenes proporciona un resultado diferente para las porciones de imagen que corresponden visualmente al marcador; - establecer un segundo lugar para la colocación que depende de la pluralidad de grados de equivalencia y la pluralidad respectiva de porciones de la imagen para hacer coincidir el marcador con la región en la imagen; y - colocar el marcador en el segundo lugar para la colocación en la imagen.
15. Un producto de programa de computadora caracterizado porque comprende instrucciones para causar que un sistema procesador realice el método de conformidad con la reivindicación 14.
MX2014005478A 2011-11-08 2012-10-30 Sistema y metodo para anotaciones interactivas de imagen. MX2014005478A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161557008P 2011-11-08 2011-11-08
PCT/IB2012/055997 WO2013068881A1 (en) 2011-11-08 2012-10-30 System and method for interactive image annotation

Publications (1)

Publication Number Publication Date
MX2014005478A true MX2014005478A (es) 2014-08-21

Family

ID=47471870

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2014005478A MX2014005478A (es) 2011-11-08 2012-10-30 Sistema y metodo para anotaciones interactivas de imagen.

Country Status (8)

Country Link
US (1) US9980692B2 (es)
EP (1) EP2751780B1 (es)
JP (1) JP6018216B2 (es)
CN (1) CN103918008B (es)
BR (1) BR112014010848B1 (es)
IN (1) IN2014CN03498A (es)
MX (1) MX2014005478A (es)
WO (1) WO2013068881A1 (es)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9886546B2 (en) * 2012-11-20 2018-02-06 General Electric Company Methods and apparatus to label radiology images
CN105338479B (zh) 2014-06-09 2020-03-10 阿里巴巴集团控股有限公司 基于场所的信息处理方法及装置
US10420626B2 (en) * 2015-06-30 2019-09-24 Canon U.S.A., Inc. Fiducial markers, systems, and methods of registration
ES2886675T3 (es) * 2015-06-30 2021-12-20 Canon Usa Inc Marcadores fiduciarios, sistemas, y procedimientos de registro
JP6692906B2 (ja) * 2015-12-18 2020-05-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 線形画像特徴に対する改良されたマーカー配置のための画像処理
US10319127B2 (en) 2016-09-22 2019-06-11 International Business Machines Corporation Spatial and hierarchical placement of images at runtime
CN106845068B (zh) * 2016-12-13 2020-05-22 海纳医信(北京)软件科技有限责任公司 图片标注方法和装置
US11202652B2 (en) 2017-08-11 2021-12-21 Canon U.S.A., Inc. Registration and motion compensation for patient-mounted needle guide
CN111031957A (zh) * 2017-08-16 2020-04-17 柯惠有限合伙公司 在外科手术期间对感兴趣点空间定位的方法
CN109584295B (zh) * 2017-09-29 2022-08-26 阿里巴巴集团控股有限公司 对图像内目标物体进行自动标注的方法、装置及系统
CN107693047A (zh) * 2017-10-18 2018-02-16 飞依诺科技(苏州)有限公司 超声成像中基于对称组织的体标设置方法及系统
US10893911B2 (en) 2017-11-26 2021-01-19 Canon U.S.A., Inc. Automated image cropping for enhanced automatic device-to-image registration
EP3561656A1 (en) * 2018-04-23 2019-10-30 Koninklijke Philips N.V. Precise positioning of a marker on a display
US12023143B2 (en) 2018-10-19 2024-07-02 Canon U.S.A., Inc. Structure masking or unmasking for optimized device-to-image registration
US10778916B2 (en) * 2018-10-24 2020-09-15 Honeywell International Inc. Applying an annotation to an image based on keypoints
US10983672B2 (en) * 2019-02-12 2021-04-20 Caterpilar Inc. Augmented reality model alignment
CN113607158B (zh) * 2021-08-05 2024-11-19 中铁工程装备集团有限公司 基于可见光通信的平板光源视觉识别匹配定位方法及系统
WO2024089868A1 (ja) 2022-10-28 2024-05-02 日本電気株式会社 入力支援システム、入力支援方法及び非一時的なコンピュータ可読媒体

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6480813B1 (en) 1999-02-24 2002-11-12 Autodesk, Inc. Method and apparatus for defining a precision drawing in a drawing program
EP1090376A1 (en) 1999-04-20 2001-04-11 Koninklijke Philips Electronics N.V. A method and apparatus for interactively constructing relational geometric objects
SE524080C2 (sv) 2000-05-19 2004-06-22 Premetec Ab Anordning med slang
JP2003534080A (ja) * 2000-05-24 2003-11-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医療画像の簡便な処理のための方法および装置
JP4416393B2 (ja) * 2002-12-04 2010-02-17 株式会社日立メディコ 医用画像表示装置
US7587234B2 (en) * 2001-11-02 2009-09-08 Abbott Cardiovascular Systems Inc. Method and apparatus for computer modified magnetic resonance imaging
JP4428067B2 (ja) * 2004-01-28 2010-03-10 ソニー株式会社 画像照合装置、プログラム、および画像照合方法
CN1957319A (zh) * 2004-05-03 2007-05-02 皇家飞利浦电子股份有限公司 用于与用户交互作用的图形用户接口,系统,方法和计算机程序
US20070174769A1 (en) 2006-01-24 2007-07-26 Sdgi Holdings, Inc. System and method of mapping images of the spine
JP4999163B2 (ja) 2006-04-17 2012-08-15 富士フイルム株式会社 画像処理方法および装置ならびにプログラム
US8175364B2 (en) * 2006-05-19 2012-05-08 Hitachi Medical Corporation Medical image display device and program that generates marker and changes shape of region of interest to contact marker
CA2666313A1 (en) * 2006-10-10 2008-05-08 Cedara Software Corp. System and method for segmenting a region in a medical image
JP4264663B2 (ja) * 2006-11-21 2009-05-20 ソニー株式会社 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
US8634610B2 (en) * 2008-06-20 2014-01-21 The Trustees Of The University Of Pennsylvania System and method for assessing cancer risk
US8096949B2 (en) 2008-07-02 2012-01-17 U-Systems, Inc. User interface for ultrasound mammographic imaging
US8209152B2 (en) * 2008-10-31 2012-06-26 Eagleview Technologies, Inc. Concurrent display systems and methods for aerial roof estimation
WO2010052598A1 (en) 2008-11-06 2010-05-14 Koninklijke Philips Electronics N.V. Breast ultrasound annotation user interface
US20100145373A1 (en) 2008-12-05 2010-06-10 Ruth Alon Nail drill
US20110182493A1 (en) * 2010-01-25 2011-07-28 Martin Huber Method and a system for image annotation
US8683363B2 (en) * 2010-01-26 2014-03-25 Apple Inc. Device, method, and graphical user interface for managing user interface content and user interface elements
US8885898B2 (en) * 2010-10-07 2014-11-11 Siemens Medical Solutions Usa, Inc. Matching of regions of interest across multiple views
KR102100614B1 (ko) * 2012-07-01 2020-04-14 루미토 에이비 산란 매체에서의 향상된 확산 발광 이미징 또는 단층촬영을 위한 시스템 및 방법

Also Published As

Publication number Publication date
BR112014010848A2 (pt) 2017-06-13
EP2751780A1 (en) 2014-07-09
US20140289605A1 (en) 2014-09-25
US9980692B2 (en) 2018-05-29
CN103918008A (zh) 2014-07-09
CN103918008B (zh) 2017-08-08
IN2014CN03498A (es) 2015-10-09
EP2751780B1 (en) 2019-07-03
WO2013068881A1 (en) 2013-05-16
JP2015502601A (ja) 2015-01-22
BR112014010848B1 (pt) 2022-12-27
BR112014010848A8 (pt) 2017-06-20
JP6018216B2 (ja) 2016-11-02

Similar Documents

Publication Publication Date Title
EP2751780B1 (en) System and method for interactive image annotation
EP3084722B1 (en) Model-based segmentation of an anatomical structure
JP6789238B2 (ja) 解剖学的構造のモデルベースのセグメント化
US10692226B2 (en) Medical atlas registration
US10586398B2 (en) Medical image editing
EP2817695B1 (en) System and method for processing a pointer movement
CN107851337B (zh) 交互式网格编辑
US20180064409A1 (en) Simultaneously displaying medical images
EP4042372A1 (en) Segmenting a medical image
Zhou et al. Interactive multigrid refinement for deformable image registration