ES2234029T3 - Sistema y metodo para realizar un examen virtual tridimensional. - Google Patents

Sistema y metodo para realizar un examen virtual tridimensional.

Info

Publication number
ES2234029T3
ES2234029T3 ES97941036T ES97941036T ES2234029T3 ES 2234029 T3 ES2234029 T3 ES 2234029T3 ES 97941036 T ES97941036 T ES 97941036T ES 97941036 T ES97941036 T ES 97941036T ES 2234029 T3 ES2234029 T3 ES 2234029T3
Authority
ES
Spain
Prior art keywords
volume
virtual
dimensional
organ
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES97941036T
Other languages
English (en)
Inventor
Arie E. Kaufman
Lichon Hong
Zhengrong Liang
Mark R. Wax
Ajay Viswambharan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Research Foundation of the State University of New York
Original Assignee
Research Foundation of the State University of New York
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=24871098&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2234029(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Research Foundation of the State University of New York filed Critical Research Foundation of the State University of New York
Application granted granted Critical
Publication of ES2234029T3 publication Critical patent/ES2234029T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating three-dimensional [3D] models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/28Force feedback
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Vascular Medicine (AREA)
  • Multimedia (AREA)
  • Computational Mathematics (AREA)
  • Educational Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Algebra (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Medical Informatics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Generation (AREA)
  • Casting Devices For Molds (AREA)
  • Electron Beam Exposure (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

Un método para realizar un examen virtual tridimensional de, al menos, un objeto, comprendiendo dicho método los pasos de: explorar (103) dicho objeto con un dispositivo de exploración y generar datos de exploración bidimensionales representativos del mencionado objeto; convertir (104) dichos datos de exploración bidimensionales en un conjunto de elementos de volumen tridimensionales, creando así una representación tridimensional con volumen del citado objeto; calcular (105) una trayectoria definida dentro de dicha representación tridimensional con volumen; utilizar una cámara virtual (201, 203, 205) para llevar a cabo una navegación guiada (107) de dicha representación tridimensional siguiendo la citada trayectoria; y presentar (109), en tiempo real, dichos elementos de volumen en un dispositivo de presentación, caracterizándose dicho método porque se proporciona una fase de navegación controlada por un usuario, para navegar desde dicha trayectoria a fin de permitir el ajuste manual de dicha navegación guiada, empleando dicha fase controlada por el usuario valores de campo de potencial (215) para controlar el movimiento de dicha cámara (201, 203, 205) de acuerdo con el paso de: calcular un valor de campo de potencial para cada uno de dichos elementos de volumen, de tal forma que dichos valores de campo de potencial definan una fuerza virtual sobre la citada cámara (201, 203, 205) durante dicho examen virtual, en el que se impide que dicha cámara choque con los límites del mencionado objeto mediante el cálculo de los valores de campo de potencial más elevados para dichos límites de dicho objeto y los valores de campo de potencial menores a lo largo de dicha trayectoria definida.

Description

Sistema y método para realizar un examen virtual tridimensional.
Campo de la técnica
El presente invento se refiere a un sistema y a un método para realizar un examen virtual tridimensional basado en el volumen utilizando técnicas de navegación planeada y guiada. Una aplicación de esta clase es la realización de una endoscopia virtual.
Antecedentes del invento
El cáncer de colon continúa siendo una causa principal de mortalidad en todo el mundo. La detección precoz de crecimientos cancerosos, que en el colon humano se manifiestan inicialmente, en sí mismos, como pólipos, puede mejorar notablemente la posibilidad de recuperación de un paciente. En la actualidad, hay dos formas usuales de detectar los pólipos u otras masas en el colon de un paciente. El primer método consiste en un procedimiento de colonoscopia, que hace uso de un tubo flexible de fibra óptica, denominado colonoscopio, para examinar visualmente el colon mediante la introducción física rectal del instrumento. El médico puede manipular el tubo en busca de cualesquiera crecimientos anormales en el colon. La colonoscopia, aunque fiable, tiene un coste relativamente alto, en tiempo y en dinero, y para el paciente es un procedimiento invasivo, doloroso e incómodo.
La segunda técnica de detección consiste en el uso de un enema de bario y la generación de una imagen bidimensional de rayos X del colon. El enema de bario se utiliza para recubrir el colon con bario y se toma una imagen bidimensional de rayos X para capturar una imagen del colon. Sin embargo, los enemas de bario no siempre proporcionan una vista de todo el colon, requieren una manipulación y un tratamiento previo extensos del paciente, con frecuencia constituyen una técnica dependiente del operador que lleva a cabo la intervención, expone al paciente a una radiación excesiva y puede resultar menos sensible que una colonoscopia. Debido a defectos en las prácticas usuales anteriormente descritas, resulta deseable disponer de una forma más fiable, menos intrusiva y menos costosa de comprobar la existencia de pólipos en el colon. También es deseable un método de examinar otros órganos humanos, tales como los pulmones, en busca de la existencia de masas, de manera fiable, económicamente efectiva y que suponga menos incomodidades para el paciente.
La visualización en dos dimensiones ("2D") de órganos humanos empleando dispositivos médicos para generación de imágenes, actualmente disponibles, tales como la tomografía computerizada y la MRI (generación de imágenes por resonancia magnética), ha sido ampliamente utilizada para el diagnóstico de pacientes. Pueden obtenerse imágenes tridimensionales apilando e interpolando entre dos imágenes bidimensionales obtenidas a partir de las máquinas de exploración. La generación de la imagen de un órgano y la visualización de su volumen en el espacio tridimensional resultaría beneficiosa en vista de que supone la ausencia de intrusión física y de la facilidad de manipulación de los datos. Sin embargo, la exploración de la imagen tridimensional de un volumen debe realizarse apropiadamente con el fin de aprovechar por completo las ventajas que conlleva la visión virtual de un órgano desde su
interior.
Cuando se mira la imagen virtual tridimensional ("3D") de un volumen de un entorno, debe utilizarse un modelo funcional para explorar el espacio virtual. Un modelo posible es una cámara virtual que puede utilizarse como punto de referencia para que el observador explore el espacio virtual. El control de la cámara en el contexto de la navegación dentro de un entorno virtual en 3D general, ha sido estudiado previamente. Para la navegación por un espacio virtual existen dos tipos usuales de control de cámara. El primero le otorga al operador el control total de la cámara, permitiéndole manipularla en diferentes posiciones y orientaciones para conseguir la vista deseada. El operador, en efecto, pilotará la cámara. Esto le permite al operador explorar una sección particular de interés mientras ignora otras secciones. No obstante, el control total de una cámara en un dominio grande resultaría una tarea tediosa y cansada, y un operador podría no apreciar todas las características importantes entre el punto de partida y el punto final de la exploración. La cámara, también, podría "perderse" en zonas remotas o "chocar" contra una de las paredes al ser manejada por un operador poco atento o debido a numerosos obstáculos inesperados.
La segunda técnica de control de la cámara es un método de navegación planeada, que asigna a la cámara una trayectoria predeterminada que ha de seguir y que no puede ser cambiada por el operador. Esto se parece a la activación de un "piloto automático". Le permite al operador concentrarse en el espacio virtual que está contemplando y no tener que preocuparse de dirigirla entre las paredes del entorno que está siendo examinado. Sin embargo, esta segunda técnica no le ofrece al observador la flexibilidad de alterar el curso ni de investigar un área de interés vista a lo largo de la trayectoria de vuelo.
Se conocen sistemas para realizar un examen virtual tridimensional de un objeto, tales como los descritos en las siguientes referencias:
D1: LORENSEN W. E. Y OTROS: "La exploración de datos de secciones transversales con un endoscopio virtual", en INTERACTIVE TECHNOLOGY AND THE NEW PARADIGM FOR HEALTHCARE MEDICINE MEETS VIRTUAL REALITY III PROCEEDINGS, INTERACTIVE TECHNOLOGY AND THE NEW PARADIGM FOR HEALTHCARE MEDICINE MEETS VIRTUAL REALITY III PROCEEDINGS, SAN DIEGO, CA., EE.UU., 19-22 ENE. 1995, páginas 221-230, XP002196134 1995, Amsterdam, Holanda, IOS Press, Holanda.
D2: LICHAN HONG Y OTROS: "Colonoscopia virtual en 3D", BIOMEDICAL VISUALIZATION, 1995, PROCEEDINGS, ATLANTA, GA., EE.UU., 30 OCT.-3 NOV. 1995, LOS ALAMITOS, CA., EE.UU., IEEE COMPUT. SOC., EE.UU., 30 Octubre 1995 (1995-10-30), páginas 26-32, 83, XP010196689 ISBN: 0-8186-7198-X.
Ambas referencias, D1 y D2, se refieren a técnicas para posibilitar la realización de un examen virtual, pero los sistemas en ellas descritos adolecen de uno o más de los problemas descritos en relación con las técnicas mencionadas en lo que antecede.
Sería deseable utilizar una combinación de las dos técnicas de navegación antes descritas para aprovechar las ventajas de ambas al tiempo que se minimizan sus respectivos inconvenientes. Sería deseable aplicar una técnica de navegación flexible al examen de órganos humanos o de animales que se representen en el espacio 3D virtual con objeto de llevar a cabo un profundo examen no intrusivo e indoloro. La técnica de navegación deseada permitiría, además, que un operador realizase un examen completo de un órgano virtual en el espacio 3D, otorgándole flexibilidad al tiempo que se asegura un seguimiento suave de la trayectoria y un examen completo a través del órgano y alrededor del mismo. Además, sería deseable poder presentar la exploración del órgano sobre una base en tiempo real empleando una técnica que minimice los cálculos necesarios para visualizar el órgano. La técnica deseada debe, también, poder aplicarse igualmente a la exploración de cualquier objeto virtual.
Sumario del invento
El invento genera una imagen para visualización tridimensional de un objeto tal como un órgano humano empleando técnicas de visualización de volúmenes y explora la imagen virtual utilizando un sistema de navegación guiada que le permite al operador desplazarse siguiendo una trayectoria de vuelo predefinida y ajustar tanto la posición como el ángulo de visión para una parte de interés particular de la imagen separándose de la trayectoria predefinida con el fin de identificar pólipos, quistes u otras características anormales del órgano.
La técnica del invento para el examen virtual en tres dimensiones de un objeto, incluye generar una representación discreta del objeto en elementos de volumen, definir la parte del objeto que ha de examinarse, llevar a cabo una operación de navegación en el objeto virtual y presentar una imagen del objeto virtual, en tiempo real, durante la navegación.
La técnica del invento para un examen virtual tridimensional aplicada a un órgano de un paciente incluye, si es necesario, preparar el órgano para la exploración, explorar el órgano y convertir los datos en elementos de volumen, definir la parte del órgano que ha de examinarse, realizar una operación de navegación guiada en el órgano virtual y presentar la imagen del órgano virtual, en tiempo real, durante la navegación guiada.
Un objeto del invento es utilizar un sistema y un método para llevar a cabo un examen en vivo relativamente indoloro, económico y no intrusivo de un órgano, en el que el análisis real del colon explorado puede llevarse a cabo, posiblemente, sin que esté presente el paciente. El colon puede ser explorado y visualizado en tiempo real o los datos almacenados pueden ser visualizados en un momento posterior.
Otro objeto del invento es generar representaciones en volumen en 3D de un objeto, tal como un órgano, en las que pueden desprenderse regiones del objeto, capa por capa, con el fin de proporcionar un análisis bajo la superficie de una región del objeto del que se ha generado la imagen. Una superficie de un objeto (tal como un órgano humano) puede hacerse transparente o traslúcida con el fin de ver otros objetos situados en el interior de la pared del objeto o detrás de ella. El objeto puede, también, seccionarse en rebanadas con el fin de examinar un corte transversal particular del objeto.
Otro objeto del invento es proporcionar un sistema y un método de navegación guiada a través de una representación de un volumen en 3D de un objeto, tal como un órgano humano, empleando campos de potencial.
Otro objeto del invento es calcular el eje geométrico de un objeto, tal como un órgano humano, para realizar un vuelo virtual a su través utilizando una técnica de desprendimiento de capas como la descrita en esta memoria.
Todavía otro objeto del invento es utilizar una técnica de aceleración gráfica (memoria intermedia Z) modificada para reducir al mínimo el número de cálculos necesarios para generar la pantalla de visión.
Otro objeto del invento es asignar coeficientes de opacidad a cada elemento de volumen de la representación con el fin de hacer que elementos de volumen particulares sean transparentes o traslúcidos en grado variable a fin de personalizar la visualización de la parte del objeto que se está viendo. También puede componerse una sección del objeto haciendo uso de los coeficientes de opacidad.
Breve descripción de los dibujos
Otros objetos, características y ventajas del invento resultarán evidentes a partir de la siguiente descripción detallada tomada en conjunto con las figuras adjuntas, que representan una realización preferida del invento, y en las que:
la Figura 1 es una gráfica de proceso de los pasos para llevar a cabo un examen virtual de un objeto, específicamente un colon, de acuerdo con el invento;
la Figura 2 es una ilustración de un modelo de cámara "submarina" que lleva a cabo una navegación guiada en el órgano virtual;
la Figura 3 es una ilustración de un péndulo utilizado para obtener un modelo de cabeceo y balanceo de la cámara "submarina";
la Figura 4 es un diagrama que ilustra una sección transversal bidimensional de un colon volumétrico que identifica dos paredes de bloqueo;
la Figura 5 es un diagrama que ilustra una sección transversal bidimensional de un colon volumétrico, sobre la que se seleccionan elementos de volumen de inicio y de final;
la Figura 6 es un diagrama que ilustra una sección transversal bidimensional de un colon volumétrico, que muestra un sub-volumen discreto encerrado por las paredes de bloqueo y la superficie del colon;
la Figura 7 es un diagrama que ilustra una sección transversal bidimensional de un colon volumétrico, con múltiples capas desprendidas;
la Figura 8 es un diagrama que ilustra una sección transversal bidimensional de un colon volumétrico, que contiene la trayectoria de vuelo restante;
la Figura 9 es una gráfica de proceso de las operaciones para generar una visualización en volumen del órgano explorado;
la Figura 10 es una ilustración de un colon virtual que ha sido subdividido en celdas;
la Figura 11A es una representación gráfica de un órgano que está siendo examinado virtualmente;
la Figura 11B es una representación gráfica de un árbol de visión directa generado mientras se representa el órgano de la Fig. 11A;
la Figura 11C es otra representación gráfica de un árbol de visión directa generado mientras se representa el órgano de la Fig. 11A;
la Figura 12A es una representación gráfica de una escena a rellenar e iluminar con objetos dentro de ciertas celdas de la escena;
la Figura 12B es una representación gráfica de un árbol de visión directa generado mientras se representa la escena de la Fig. 12A;
las Figuras 12C-12E son otras representaciones gráficas de árboles de visión directa generados mientras se representa la imagen de la Fig. 12A;
la Figura 13 es una representación bidimensional de un colon virtual que contiene un pólipo cuyas capas pueden retirarse; y
la Figura 14 es un diagrama de un sistema utilizado para realizar un examen virtual de un órgano humano de acuerdo con el invento.
Descripción detallada
Aunque los métodos y los sistemas descritos en esta solicitud pueden aplicarse a cualquier objeto que haya de examinarse, la realización preferida que se describirá es el examen de un órgano del cuerpo humano, específicamente, el colon. El colon es largo y retorcido, lo que le hace especialmente adecuado para un examen virtual que le ahorre al paciente dinero y la incomodidad y el peligro que suponen el uso de una sonda física. Otros ejemplos de órganos que pueden ser examinados incluyen los pulmones, el estómago y partes del sistema gastro-intestinal, el corazón y los vasos sanguíneos.
La Fig. 1 ilustra los pasos necesarios para realizar una colonoscopia virtual utilizando técnicas de visualización de volúmenes. El paso 101 prepara el colon que ha de explorarse con el fin de ser visto para su examen si así lo requiere el médico o el instrumento de exploración particular. Esta preparación podría incluir la limpieza del colon con un "cóctel" o líquido que entrase en él tras su ingestión oral y después de pasar por el estómago. El cóctel obliga al paciente a expulsar los residuos presentes en el colon. Un ejemplo de sustancia utilizada es el Golytely. Además, en el caso del colon, puede introducirse aire o CO_{2} en el colon con el fin de expandirlo para facilitar su exploración y su examen. Esto se consigue bombeando en el colon, mediante un pequeño tubo aplicado en el recto, aproximadamente 1000 cc de aire para distender el colon. Dependiendo del tipo de escáner utilizado, puede ser necesario que el paciente ingiera una sustancia de contraste, tal como bario, para recubrir cualquier materia fecal no eliminada, con objeto de distinguir los residuos contenidos en el colon de las paredes del colon propiamente dichas. Alternativamente, el método para examinar virtualmente el colon puede eliminar los residuos virtuales antes del examen virtual, o durante el mismo, como se explica posteriormente en esta memoria. El paso 101 no tiene por qué llevarse a cabo en todos los exámenes, según se indica mediante la línea interrumpida en la Fig. 1.
El paso 103 consiste en explorar el órgano que ha de examinarse. El escáner puede ser un aparato bien conocido en la técnica, tal como un escáner CT helicoidal para explorar un colon o una máquina Zenita de MRI para explorar un pulmón marcado, por ejemplo, con gas xenón. El escáner debe poder tomar múltiples imágenes desde distintas posiciones alrededor del cuerpo durante un período de respiración suspendida, con el fin de proporcionar los datos necesarios para la visualización del volumen. Un ejemplo de una sola imagen CT utilizaría un haz de rayos X con una anchura de 5 mm, un paso de 1:1 ó 2:1, con un campo de visión de 40 cm, llevándose a cabo desde encima del ángulo esplénico del colon hasta el recto.
Pueden producirse representaciones de datos discretas de dicho objeto por otros métodos, además de la exploración con escáner. A partir de un modelo geométrico, pueden derivarse datos de elementos de volumen (voxeles) que representen un objeto mediante técnicas descritas en la patente norteamericana núm. 5.038.302, titulada "Método para convertir representaciones geométricas tridimensionales continuas en representaciones tridimensionales discretas, basadas en voxeles dentro de un sistema tridimensional basado en voxeles", de Kaufman, expedida el 8 de Agosto de 1991, presentada el 26 de Julio de 1988, que se incorpora a esta memoria como referencia. Además, pueden producirse datos mediante un modelo realizado por ordenador de una imagen que puede convertirse en voxeles tridimensionales y explorarse de acuerdo con este invento. Un ejemplo de este tipo de datos es una simulación por ordenador de la turbulencia que rodea a una lanzadera espacial.
El paso 104 convierte las imágenes exploradas en elementos de volumen tridimensionales (voxeles). En la realización preferida para examinar un colon, se cambia el formato de los datos de exploración para obtener rebanadas de 5 mm de grueso a incrementos de 1 mm o de 2,5 mm, representándose cada rebanada como una matriz de 512 x 512 píxeles (elementos de imagen). Así, se generan gran número de rebanadas en 2D, dependiendo de la longitud de la exploración. El conjunto de rebanadas en 2D es reconstruido entonces para obtener voxeles en 3D. El proceso de conversión de las imágenes en 2D procedentes del escáner en voxeles de 3D puede ejecutarse con la propia máquina de exploración o con una máquina separada tal como un ordenador, por técnicas bien conocidas en este campo (véase, por ejemplo, la patente norteamericana núm. 4.985.856, titulada "Método y aparato para almacenar datos basados en voxeles, acceder a ellos y tratarlos", de Kaufman y otros, expedida el 15 de Enero de 1991, presentada el 11 de Noviembre de 1988, que se incorpora a esta memoria como referencia).
El paso 105 permite al operador definir la parte del órgano seleccionado a examinar. Un médico puede estar interesado en una sección particular del colon propensa a desarrollar pólipos. El médico puede ver un mapa general de rebanadas bidimensionales para indicar la sección a examinar. El médico/operador, puede indicar un punto de partida y un punto de llegada de una trayectoria a visualizar. Pueden utilizarse un ordenador y una interconexión con el ordenador (por ejemplo, un teclado, un ratón o una bola de control) usuales para designar la parte del colon que ha de inspeccionarse. Puede utilizarse un sistema de retícula de coordinación para la entrada por teclado o para que el médico/operador pueda pulsar sobre los puntos deseados. También puede verse, si así se desea, toda la imagen del colon.
En el paso 107 se lleva a cabo la operación de navegación planeada o guiada del órgano virtual que se está examinando. La ejecución de una operación de navegación guiada se define como la navegación por un entorno siguiendo una trayectoria de vuelo predefinida o predeterminada automáticamente, que un operador puede ajustar manualmente en cualquier momento. Después de que los datos de la exploración han sido convertidos a voxeles en 3D, debe recorrerse el interior del órgano, desde el punto de partida seleccionado hasta el punto de llegada elegido. Se generan modelos de los exámenes virtuales disponiendo una cámara diminuta que se desplaza por el espacio virtual con un objetivo que apunta hacia el punto de llegada. La técnica de navegación guiada proporciona un nivel de interacción con la cámara, de forma que puede hacerse que ésta navegue automáticamente por un entorno virtual en el caso de que no haya interacción por parte del operador y, al mismo tiempo, permite que el operador manipule la cámara cuando sea necesario. La realización preferida a la hora de conseguir una navegación guiada es utilizar un modelo de cámara con base física que emplee campos de potencial para controlar el movimiento de la cámara y que se describen con detalle en relación con las Figs. 2 y 3.
El paso 109, que puede ejecutarse concurrentemente con el paso 107, presenta la imagen del interior del órgano desde el punto de vista del modelo de cámara siguiendo la trayectoria seleccionada de la operación de navegación guiada. Pueden generarsepresentaciones tridimensionales empleando técnicas bien conocidas en este campo, tales como la técnica de los "cubos marchantes". Sin embargo, con el fin de generar una presentación en tiempo real del colon, se requiere una técnica que reduzca el vasto número de cálculos que es necesario realizar sobre los datos para visualizar el órgano virtual. La Fig. 9 muestra este paso de presentación con mayor detalle.
El método descrito en la Figura 1 puede aplicarse, también, a la exploración de múltiples órganos en un cuerpo al mismo tiempo. Por ejemplo, un paciente puede ser sometido a examen en busca de crecimientos cancerosos tanto en el colon como en los pulmones. El método de la Figura 1 se modificaría para explorar todas las áreas de interés en el paso 103 y para seleccionar el órgano corriente a examinar en el paso 105. Por ejemplo, el médico/operador puede seleccionar inicialmente el colon para exploración virtual y, más tarde, explorar el pulmón. Alternativamente, dos médicos con diferentes especialidades pueden estudiar virtualmente diferentes órganos explorados relacionados con sus respectivas especialidades. Después del paso 109, se selecciona el siguiente órgano a examinar y se definirá y se explorará su parte. Esto se continúa hasta que se hayan tratado todos los órganos que necesiten ser examinados.
Los pasos descritos en conjunto con la Figura 1 pueden aplicarse, también, a la exploración de cualquier objeto que pueda representarse mediante elementos de volumen. Por ejemplo, una estructura arquitectónica o un objeto inanimado pueden representarse y explorarse de la misma forma.
La Figura 2 representa un modelo de control de cámara "submarina" que ejecuta la técnica de navegación guiada en el paso 107. Cuando el operador no lleve a cabo un control durante la navegación guiada, la navegación por defecto es similar a la navegación planeada que, automáticamente, dirige la cámara siguiendo una trayectoria de vuelo desde un extremo seleccionado del colon hasta otro. Durante la fase de navegación planeada, la cámara se mantiene en el centro del colon con el fin de tomar mejores vistas de la superficie de éste. Cuando se encuentra una región interesante, el operador de la cámara virtual puede aproximar interactivamente la cámara, utilizando la navegación guiada, a una región específica y dirigir el movimiento y el ángulo de la cámara para estudiar con detalle la zona de interés, sin chocar involuntariamente con las paredes del colon. El operador puede controlar la cámara mediante un dispositivo de interconexión estándar tal como un teclado, un ratón o un dispositivo no estándar tal como una bola de control. Con el fin de hacer funcionar completamente una cámara en un entorno virtual, es necesario que la cámara tenga seis grados de libertad. La cámara debe poder moverse en dirección horizontal, vertical y en la dirección Z (ejes 217), así como poder girar en otros tres grados de libertad (ejes 219), para permitir que la cámara se mueva y explore todos los lados y ángulos de un entorno virtual. El modelo de cámara para navegación guiada incluye una varilla 201 inextensible y sin peso que conecta dos partículas x_{1} 203 y x_{2} 205, estando sometidas ambas partículas a un campo 215 de potencial. El campo de potencial se define de forma que sea máximo en las paredes del órgano con el fin de empujar la cámara separándola de las paredes.
Las posiciones de las partículas vienen dadas por x_{1} y x_{2} y se supone que tienen la misma masa m. Una cámara está unida en la cabeza del submarino x_{1} 203, cuya dirección de visión coincide con \overrightarrow{x_{2}x_{1}}. El submarino puede trasladarse y girar alrededor del centro de gravedad x del modelo cuando las dos partículas son afectadas por las fuerzas generadas por el campo de potencial V(x) que se define en lo que sigue, cualesquiera fuerzas de fricción y cualquier fuerza externa simulada. Las relaciones entre x_{1}, x_{2} son como sigue:
x = (x, y, z)
r = (rsen \theta cos \phi,\ rsen \theta sen \phi,\ rcos \theta),
x_{1} = x + r,
(1)x_{2} = x - r,
donde r, \theta y \phi son las coordenadas polares del vector \overrightarrow{x\ x_{1}}. La energía cinética del modelo, T, se define como la suma de las energías cinéticas de los movimientos de x_{1} y de x_{2}:
\hskip4,6cm
T = \frac{m}{2}(\dot{x}^{2}_{1} + \dot{x}^{2}_{2})
\hskip4,9cm
= m\dot{x}^{2} + m\dot{r}^{2}
(2)= m(\dot{x}^{2} + \dot{y}^{2} + \dot{z}^{2}) + mr^{2}(\dot{\theta}^{2} + \dot{\phi}^{2}\ sen^{2}\theta).
Entonces, se obtienen las ecuaciones para el movimiento del modelo de submarino utilizando la ecuación de LaGrange:
(3)\frac{d}{dt}\left(\frac{\partial T}{\partial \dot{q}_{j}}\right) - \frac{\partial T}{\partial q_{j}} = \sum\limits^{2}_{i=1}\left(F_{i} \cdot \frac{\partial x_{i}}{\partial q_{j}}\right),
donde las q_{j}s son las coordenadas generalizadas del modelo y pueden considerarse como las variables de tiempo t como:
(4)(q_{1}, q_{2}, q_{3}, q_{4}, q_{5}, q_{6}) = (x, y, z, \theta, \phi, \Psi) = q(t),
designando \Psi el ángulo de balanceo de nuestro sistema de cámara, que se explicará más adelante, Las F_{j}s se denominan las fuerzas generalizadas. El control del submarino se realiza aplicando una fuerza externa simulada a x_{1},
F_{ext} = (F_{x}, F_{y}, F_{z}),
y se supone que tanto x_{1} como x_{2} son afectadas por las fuerzas generadas por el campo de potencial y las fricciones que actúan en dirección opuesta a la velocidad de cada partícula. Consiguientemente, las fuerzas generalizadas se formulan como sigue:
F_{1} = -m\nabla V(x_{1}) - k\dot{x}_{1} + F_{ext},
(5)F_{2} = -m\nabla V(x_{2}) - k\dot{x}_{2}
donde k designa el coeficiente de fricción del sistema. La fuerza externa F_{ext} es aplicada por el operador pulsando simplemente con el botón del ratón en la dirección 207 deseada en la imagen generada, como se muestra en la Fig. 2. Este modelo de cámara se movería, entonces, en esa dirección. Esto le permite al operador controlar por lo menos cinco grados de libertad de la cámara con una única pulsación del botón del ratón. A partir de las Ecuaciones (2), (3) y (5) puede deducirse que las aceleraciones de los cinco parámetros de nuestro modelo de submarino son:
\ddot{x} = -\frac{1}{2}\left(\frac{\partial V(x_{1})}{\partial x} + \frac{\partial V(x_{2})}{\partial x}\right) - \frac{k\dot{x}}{m} + \frac{F_{x}}{2m},
\ddot{y} = -\frac{1}{2}\left(\frac{\partial V(x_{1})}{\partial y} + \frac{\partial V(x_{2})}{\partial y}\right) - \frac{k\dot{y}}{m} + \frac{F_{y}}{2m},
\ddot{z} = -\frac{1}{2}\left(\frac{\partial V(x_{1})}{\partial z} + \frac{\partial V(x_{2})}{\partial z}\right) - \frac{k\dot{z}}{m} + \frac{F_{z}}{2m},
\ddot{\theta} = \phi^{2}\ sen\theta\ cos\theta
-\frac{1}{2r}\left[cos\theta \left\{cos\phi \left(\frac{\partial V(x_{1})}{\partial x} + \frac{\partial V(x_{2})}{\partial x} \right) + sen\phi \left(\frac{\partial V(x_{1})}{\partial y} + \frac{\partial V(x_{2})}{\partial y} \right) \right\}\right.
-\left.sen\theta \left(\frac{\partial V(x_{1})}{\partial z} + \frac{\partial V(x_{2})}{\partial z} \right) \right]
-\frac{k}{m} \dot{\theta} + \frac{1}{2mr}(F_{x} cos\theta\ cos\phi + F_{y} cos\theta sen\phi - F_{z}sen\theta),
\ddot{\phi} = \frac{1}{sen\theta}\left[-2\dot{\theta}\dot{\phi}cos\theta\right.
-\frac{1}{2r}\left\{-sen\phi\left(\frac{\partial V(x_{1})}{\partial x} + \frac{\partial V(x_{2})}{\partial x}\right) + cos\phi\left(\frac{\partial V(x_{1})}{\partial y} + \frac{\partial V(x_{2})}{\partial y}\right)\right\}
-\left.\frac{k}{m} \dot{\phi} sen\theta + \frac{1}{2mr}(-F_{x}sen\phi + F_{y}cos\phi)\right],
\hskip9,5cm
(6)
donde \dot{x} y \ddot{x} designan la primera y la segunda derivadas de x, respectivamente, y
\left(\frac{\partial V(x)}{\partial x}, \frac{\partial V(x)}{\partial y}, \frac{\partial V(x)}{\partial z}\right)
\newpage
designa el gradiente del potencial en el punto x. Los términos \dot{\phi}^{2} sen\thetacos\theta de \ddot{\theta} y
-\frac{2\dot{\theta}\dot{\phi}cos\theta}{sen\theta}
de \ddot{\phi} se denominan fuerza centrífuga y fuerza de Coriolis, respectivamente, y están relacionadas con el intercambio de velocidades angulares del submarino. Como el modelo carece del momento de inercia definido para la varilla del submarino, estos términos tienden a causar un desbordamiento del cálculo numérico de \dot{\phi}. Afortunadamente estos términos sólo tienen importancia cuando las velocidades angulares del modelo de submarino son significativas, lo que esencialmente quiere decir que la cámara se mueve demasiado rápido. Como no tiene sentido dejar que la cámara se mueva tan deprisa, porque no podría verse el órgano en forma apropiada, estos términos se minimizan en nuestra incorporación práctica con el fin evitar el problema de desbordamiento.
A partir de las tres primeras fórmulas de la Ecuación (6), se ve que el submarino no puede ser propulsado por la fuerza externa en contra del campo de potencial, si se satisface la siguiente condición:
|\nabla V(x_{1}) + \nabla V(x_{2})| > \frac{|F_{ext}|}{m}
Dado que la velocidad del submarino y la fuerza externa F_{ext} tienen límites superiores en nuestra incorporación práctica, asignando valores de potencial suficientemente elevados en las fronteras de los objetos se puede garantizar que el submarino nunca choca contra los objetos ni contra las paredes del entorno.
Como se ha mencionado previamente, ha de tenerse en consideración el ángulo de balanceo \Psi del sistema de cámara. Una opción posible le permite al operador el control total del ángulo \Psi. Sin embargo, aunque el operador puede hacer girar la cámara libremente alrededor de la varilla del modelo, se puede desorientar fácilmente. La técnica preferida supone que la dirección superior de la cámara está conectada con un péndulo de masa m_{2} 301, que gira libremente en torno a la varilla del submarino, como se muestra en la Figura 3. La dirección del péndulo, r_{2}, se expresa como:
r_{2} = r_{2}(cos\theta cos\phi sen\Psi + sen\phi cos\Psi, cos\theta sen\phi sen\Psi - cos\phi cos\Psi, - sen\theta sen\Psi).
Si bien es posible calcular el movimiento preciso de este péndulo junto con el movimiento del submarino, esto hace que las ecuaciones del sistema sean demasiado complicadas. Por tanto, se supone que todas las coordenadas generalizadas excepto el ángulo de balanceo \Psi son constantes, y definen así la energía cinética independiente para el sistema de péndulo como:
T_{p} = \frac{m_{2}}{2} \dot{r}^{2}_{2} = \frac{m_{2}r^{2}_{2}}{2} \dot{\Psi}^{2}
Esto simplifica el modelo para el ángulo de balanceo. Como, en este modelo, se supone que la fuerza de la gravedad
F_{g} = m_{2}g = (m_{2}g_{x}, m_{2}g_{y}, m_{2}g_{z})
actúa en el punto m_{2} de masa, puede derivarse la aceleración de \Psi utilizando la ecuación de LaGrange como:
\ddot{\Psi} = \frac{1}{r_{2}}\{g_{2}(cos \theta cos\phi cos\Psi - sen\phi sen\Psi)
+ g_{y}(cos\theta sen\phi cos\Psi + cos\phi sen\Psi)
+ g_{z}(-sen\theta cos\Psi)\} - \frac{k_{2}}{m_{2}} \dot{\Psi}
\hskip12cm
(7)
A partir de las Ecuaciones (6) y (7), se calculan asintóticamente las coordenadas generalizadas q(t) y sus derivadas \dot{q}(t) utilizando series de Taylor como:
q(t + h) = q(t) + h\dot{q}(t) + \frac{h^{2}}{2}\ddot{q}(t) + O(h^{3}),
\dot{q}(t + h) = \dot{q}(t) + h\ddot{q}(t) + O(h^{2}),
para mover libremente el submarino. Para suavizar el movimiento del submarino, se selecciona el escalón de tiempo h con un valor de equilibrio entre tan pequeño como sea posible para suavizar el movimiento y tan grande como sea necesario para reducir el coste de los cálculos.
Definición del campo de potencial
El campo de potencial en el modelo de submarino de la Figura 2 define los límites (paredes u otra materia) del órgano virtual asignando un potencial elevado a los límites con el fin de asegurar que la cámara submarina no choque con las paredes ni con otros límites. Si el operador intenta entrar con el modelo de cámara en una zona de potencial elevado, se impedirá que el modelo de cámara lo haga a no ser que el operador desee examinar el órgano más allá del límite o en el interior de un pólipo, por ejemplo. En caso de realizar una colonoscopia virtual, se asigna un valor del campo de potencial a cada pieza de datos volumétricos del colon (elemento de volumen). Cuando en el paso 105 de la Fig. 1 se designa una región particular de interés con un punto de partida y un punto de llegada, los voxeles comprendidos en el área seleccionada del colon explorado son identificados mediante el uso de operaciones de bloqueo usuales. Subsiguientemente, se asigna un valor de potencial a cada voxel x del volumen seleccionado basándose en los siguientes tres valores de distancia: la distancia dt(x) desde el punto de llegada, la distancia ds(x) desde la superficie del colon y la distancia dc(x) desde el eje geométrico del espacio del colon. dt(x) se calcula utilizando una estrategia de crecimiento usual. La distancia ds(x) desde la superficie del colon se calcula utilizando una técnica usual de crecimiento desde los voxeles superficiales hacia dentro. Para determinar dc(x) se extrae primero el eje geométrico del colon a partir del voxel y, luego, se calcula dc(x) utilizando la estrategia usual de crecimiento a partir del eje geométrico del colon.
Para calcular el eje geométrico del área de colon seleccionada definida por el punto de partida especificado por el usuario y el punto de llegada especificado por el usuario, se localiza el valor máximo de ds(x) y se le llama dmax. Luego, para cada voxel situado dentro del área de interés, se asigna un valor de coste de dmax-ds(x). Así, los voxeles que están cerca de la superficie del colon tienen elevados valores de coste y los voxeles que se encuentran próximos al eje geométrico tienen valores de coste relativamente bajos. Entonces, basándose en la asignación de costes, se aplica la técnica de trayectoria más corta de punto de partida único, bien conocida en este campo, con el fin de calcular eficientemente una trayectoria con el coste mínimo que vaya desde el punto de partida hasta el punto de llegada. Esta línea de bajo coste indica el eje geométrico o esqueleto de la sección de colon que se desea explorar. Esta técnica de determinación del eje geométrico es la técnica preferida del invento.
Para calcular el valor de potencial V(x) para un voxel x situado dentro del área de interés, se emplea la fórmula siguiente:
(8)V(x) = C_{1}d_{t}(x)^{\mu} + C_{2}\left(\frac{d_{s}(x)}{d_{c}(x) + d_{s}(x)}\right)^{-\nu}
donde C_{1} y C_{2}, \mu y \nu son constantes seleccionadas para la tarea. Con el fin de evitar cualquier colisión entre la cámara virtual y la superficie virtual del colon, a todos los puntos situados fuera del colon se les asigna un valor de potencial suficientemente elevado. El gradiente del campo de potencial será, por tanto, significativo, de forma que el modelo de cámara submarina nunca chocará con la pared del colon cuando esté funcionando.
Otra técnica para determinar el eje geométrico de la trayectoria del colon se denomina técnica de "desprendimiento de capa" y se ilustra desde la Figura 4 a la Figura 8.
La Figura 4 muestra una sección transversal en 2D del colon volumétrico, representándose en ella las dos paredes laterales 401 y 403 del colon. El operador selecciona dos paredes de bloqueo con el fin de definir la sección del colon que tiene interés por examinar. Más allá de las paredes de bloqueo no puede verse nada más. Esto ayuda a reducir el número de cálculos cuando se ofrece la representación visual. Las paredes de bloqueo, junto con las paredes laterales, identifican una configuración volumétrica contenida del colon que ha de explorarse.
La Figura 5 muestra dos puntos extremos de la trayectoria de vuelo del examen virtual, el elemento de volumen 501 de partida y el elemento de volumen 503 de llegada. Los puntos de partida y de llegada son seleccionados por el operador en el paso 105 de la Fig. 1. Los voxeles entre los puntos de partida y de llegada y los lados del colon son identificados y marcados, como se señala mediante el área designada con "x" en la Fig. 6. Los voxeles son representaciones tridimensionales del elemento de imagen.
Se aplica entonces la técnica de desprendimiento de capas a los voxeles identificados y marcados en la Fig. 6. La capa más exterior de todos los voxeles (la más próxima a las paredes del colon) es desprendida paso a paso, hasta que solamente queda una capa interna de voxeles. Dicho de otra forma, cada voxel más alejado de un punto central es eliminado si su eliminación no da lugar a una interrupción de la trayectoria entre el voxel de partida y el voxel final. La Figura 7 representa el resultado intermedio tras completarse varias repeticiones de desprendimiento de los voxeles en el colon virtual. Los voxeles más próximos a las paredes del colon han sido retirados. La Fig. 8 ilustra la trayectoria de vuelo final para el modelo de cámara hacia abajo por el centro del colon y se convierte en la trayectoria de vuelo deseada para el modelo de cámara.
Visibilidad asistida por memoria intermedia Z
La Fig. 9 ilustra una técnica de visibilidad en tiempo real para la presentación de imágenes virtuales vistas por el modelo de cámara en la representación de volumen tridimensional virtual de un órgano. La Figura 9 muestra una técnica de presentación que emplea una memoria intermedia Z modificada que corresponde al paso 109 en la Fig. 1. El número de voxeles que podrían verse, posiblemente, desde el modelo de cámara es extremadamente grande. A no ser que el número total de elementos (o polígonos) que deban calcularse y visualizarse sea reducido a partir de un conjunto completo de voxeles en el entorno explorado, el número total de cálculos hará que el proceso de visualización sea excesivamente lento para un área interna grande. Sin embargo, en el presente invento, únicamente es necesario calcular, con fines de presentación, las imágenes que sean visibles en la superficie del colon. El entorno explorado puede subdividirse en secciones más pequeñas o celdas. La técnica de memoria intermedia Z, entonces solamente rellena e ilumina parte de las celdas que son visibles desde la cámara. La técnica de la memoria intermedia Z se utiliza, también, para representaciones tridimensionales de voxeles. El uso de una memoria intermedia Z modificada reduce el número de voxeles visibles a calcular y permite el examen en tiempo real del colon virtual a un médico o un técnico sanitario.
El área de interés del que se ha calculado el eje geométrico en el paso 107 se subdivide en celdas antes de aplicar la técnica de presentación. Las celdas son grupos colectivos de voxeles que se convierten en una unidad de visibilidad. Los voxeles de cada celda serán presentados como un grupo. Cada celda contiene varios portales a través de los que pueden verse las otras celdas. El colon se subdivide comenzando en el punto de partida elegido y moviéndose a lo largo del eje geométrico 1001 hacia el punto final. Luego, se divide el colon en celdas (por ejemplo, las celdas 1003, 1005 y 1007 en la Fig. 10) cuando se alcanza una distancia umbral predefinida a lo largo del eje geométrico. La distancia umbral se basa en las especificaciones de la plataforma en que se ejecuta la técnica de visualización y en sus posibilidades de almacenamiento y tratamiento. El tamaño de la celda está directamente relacionado con el número de voxeles que pueden almacenarse y tratarse con la plataforma. Un ejemplo de una distancia umbral es de 5 cm, aunque la distancia puede variar mucho. Cada celda tiene dos secciones transversales como portales para ver el exterior de la celda, como se muestra en la Fig. 10.
El paso 901 en la Fig. 9 identifica la celda que contiene la cámara, en ese momento, dentro del órgano seleccionado. La celda corriente será presentada, al igual que otras celdas visibles dada la orientación de la cámara. El paso 903 genera un árbol de visión directa (diagrama de árbol) de datos jerárquicos de celdas potencialmente visibles desde la cámara (a través de portales definidos), como se describirá con mayor detalle más adelante. El árbol de visión directa contiene un nodo por cada celda que pueda ser visible para la cámara. Algunas de las celdas pueden ser transparentes, carentes de cuerpo de bloqueo alguno, de forma que, en una única dirección será visible más de una celda. El paso 905 almacena un subconjunto de voxeles de una celda que incluyen la intersección de bordes de celdas adyacentes y los almacena en el borde exterior del árbol de visión directa con el fin de determinar de la manera más efectiva, que celdas son visibles.
El paso 907 comprueba si en el árbol de visión directa hay presente algún nodo en bucle. Un nodo en bucle se produce cuando dos o más bordes de una sola celda son fronteras de la misma celda vecina. Esto puede ocurrir cuando una sola celda está rodeada por otra celda. Si en el árbol de visión directa se identifica un nodo en bucle, el método continúa en el paso 909. Si no hay ningún nodo en bucle, el proceso sigue al paso 911.
El paso 909 colapsa las dos celdas que constituyen el nodo en bucle para formar una celda grande. El árbol de visión directa es corregido, entonces, en consecuencia. Esto elimina el problema de ver la misma celda dos veces debido a un nodo en bucle. El paso se ejecuta en todos los nodos en bucle identificados. Luego, el proceso continúa con el paso 911.
El paso 911 inicia entonces la memoria intermedia Z con el máximo valor de Z. El valor Z define la distancia desde la cámara a lo largo de la trayectoria del esqueleto. El árbol es recorrido entonces para comprobar, en primer lugar, los valores de intersección en cada nodo. Si una intersección de nodo está cubierta, lo que quiere decir que la secuencia del portal corriente está ocluida (lo cual está determinado por la prueba de la memoria intermedia A), entonces se detiene el recorrido de la rama corriente en el árbol. El paso 913 recorre cada una de las ramas para comprobar si los nodos están cubiertos y los presenta si no lo están.
El paso 915 construye entonces la imagen a presentar en la pantalla del operador a partir de los elementos de volumen dentro de las celdas visibles identificadas en el paso 913 utilizando una de diversas técnicas conocidas en este campo, tal como el relleno y la iluminación de volúmenes por composición. Las únicas celdas mostradas son las identificadas como potencialmente visibles. Esta técnica limita el número de celdas que exigen cálculos con el fin de conseguir una presentación en tiempo real y aumenta en forma correspondiente la velocidad de la presentación para conseguir un mejor rendimiento. Esta técnica constituye una mejora con relación a técnicas anteriores, que calculan todos los puntos de datos visibles, se les vea o no realmente.
La Figura 11A es una representación gráfica bidimensional de un órgano que está siendo explorado por navegación guiada y que ha de ser presentado a un operador. El órgano 1101 muestra dos paredes laterales 1102 y un objeto 1105 en el centro de la trayectoria. El órgano ha sido dividido en cuatro celdas A 1151, B 1153, C 1155 y D 1157. La cámara 1103 mira hacia la celda D 1157 y tiene un campo de visión definido por los vectores de visión 1107, 1108 que puede identificarse con un campo en forma de cono. Las celdas que pueden ser vistas potencialmente son las celdas B 1153, C 1155 y D 1157. La celda C 1155 está rodeada completamente por la celda B y, por tanto, constituye un nodo en bucle.
La Fig. 11B es una representación de un árbol de visión directa construido a partir de las celdas de la Fig. 11A. El nodo A 1109 que contiene la cámara se encuentra en la raíz del árbol. Una línea o un cono de visión, que es una trayectoria de visibilidad sin bloqueo alguno, es trazada hasta el nodo B 1110. El nodo B tiene líneas de visión directas con visibilidad hacia el nodo C 1112 y el nodo D 1114 y que se muestran mediante las flechas de conexión. La línea de visión del nodo C 1112 en la dirección de visión de la cámara, se combina con el nodo B 1110, el nodo C 1112 y, así, el nodo B 1110 será colapsado para formar un nodo grande B' 1122, como se muestra en la Fig. 11C.
La Fig. 11C muestra el nodo A 1109 que contiene la cámara junto al nodo B' 1122 (que contiene el nodo B y el nodo C) y el nodo D 1114. Los nodos A, B' y D serán presentados al operador, por lo menos, parcialmente.
Las Figs. 12A -12E ilustran el uso de la memoria intermedia Z modificada con celdas que contienen objetos que obstruyen la visión. Un objeto podría ser un material residual en una parte del colon virtual. La Fig. 12A muestra un espacio virtual con 10 celdas potenciales: A 1251, B 1253, C 1255, D 1257, E 1259, F 1261, G 1263, H 1265, I 1267 y J 1269. Algunas de las celdas contienen objetos. Si la cámara 1201 está posicionada en la celda I 1267 y mira hacia la celda F 1261, según se indica mediante los vectores de visión 1203, entonces se genera un árbol de visión directa de acuerdo con la técnica ilustrada por el diagrama de proceso en la Fig. 9. La Fig. 12B muestra el árbol de visión directa generado con los nodos de intersección que ilustra la representación virtual como se muestra en la Fig. 12A. La Fig. 12B representa la celda I 1267 como nodo raíz del árbol porque contiene la cámara 1201. El nodo I 1211 apunta al nodo F 1213 (como se indica mediante una flecha), porque la celda F está directamente conectada con la línea de visión de la cámara. El nodo F 1213 apunta tanto al nodo B 1215 como al nodo E 1219. El nodo B 1215 apunta al nodo A 1217. El nodo C 1202 está completamente bloqueado respecto a la línea de visión de la cámara 1201, por lo que no es incluido en el árbol de visión directa.
La Fig. 12C ilustra el árbol de visión directa después de que el nodo 1211 ha sido rellenado e iluminado en la presentación para el operador. El nodo I 1211 es eliminado luego del árbol de visión directa porque ya ha sido presentado y el nodo F 1213 se convierte en la raíz. La Fig. 12D muestra que el nodo F 1213 es, ahora, rellenado e iluminado para unirlo al nodo I 1211. Se comprueban luego los siguientes nodos del árbol conectados por flechas para ver si ya han sido cubiertos (han sido tratados). En este ejemplo, han sido cubiertos todos los nodos intersecados desde la cámara posicionada en la celda I 1267, de forma que el nodo B 515 (y, por tanto, el nodo A dependiente) no tienen que ser rellenados e iluminados en la presentación.
La Fig. 12E muestra el nodo E 515 que está siendo comprobado para determinar si su intersección ha sido cubierta. Como lo ha sido, los únicos nodos que se rellenan e iluminan en este ejemplo de las Figuras 12A-12E, son los nodos I y F, mientras que los nodos A, B y E no son visibles y no es necesario preparar sus celdas para ser presentadas.
La técnica de memoria intermedia Z modificada ilustrada en la Figura 9 permite realizar menos cálculos y puede aplicarse a un objeto que ha sido representado mediante voxeles u otros elementos de datos, tales como polígonos.
La Figura 13 muestra una vista virtual bidimensional de un colon con un gran pólipo presente en una de sus paredes. La Figura 13 ilustra una sección seleccionada del colon de un paciente que ha de ser examinado adicionalmente. La vista muestra las dos paredes 1301 y 1303 del colon con el crecimiento indicado como 1305. Las capas 1307, 1309 y 1311 ilustran capas internas del crecimiento. Es deseable que el médico pueda desprender las capas del pólipo o tumor para ver el interior de la masa en busca de cualquier material canceroso o peligroso de otro tipo. Este proceso realizaría, en efecto, una biopsia virtual de la masa sin cortarla realmente. Una vez representado virtualmente el colon mediante voxeles, el proceso de desprender capas de un objeto se lleva a cabo fácilmente de manera similar a la descrita en conjunto con las Figs. 4 a 8. La masa puede ser cortada, también, en rebanadas de manera que pueda examinarse una sección transversal particular. En la Fig. 13 puede realizarse un corte plano 1313 de modo que pueda examinarse una porción particular del crecimiento. Además, en el crecimiento puede "cortarse" de cualquier manera una rebanada 1319 definida por el usuario. Los voxeles 1319 pueden ser desprendidos o modificados como se explica en lo que sigue.
Puede ejecutarse una función de transferencia en cada voxel del área de interés que puede convertir el objeto en transparente, semitransparente u opaco alterando los coeficientes que representan el nivel de transparencia de cada voxel. A cada voxel se le asigna un coeficiente de opacidad basándose en su densidad. Una función de correlación transforma luego el valor de densidad en un coeficiente que representa su transparencia. Un voxel explorado de alta densidad indicará una pared u otra materia densa, además de, simplemente, un espacio abierto. Un operador o una rutina del programa podría cambiar entonces el coeficiente de opacidad de un voxel o de un grupo de ellos para hacer que parezcan transparentes o semitransparentes para el modelo de cámara submarina. Por ejemplo, un operador puede ver un tumor en el interior o el exterior de todo un crecimiento. O se hará que un voxel transparente aparezca como si no existiese para el paso de presentación de la Figura 9. Puede crearse una composición de una sección del objeto utilizando una media ponderada de los coeficientes de opacidad de los voxeles de esa sección.
Si un médico quiere ver las diversas capas de un pólipo para buscar áreas cancerosas, lo puede hacer retirando la capa externa del pólipo 1305 para ofrecer una primera capa 1307. Además, la primera capa interna 1307 puede ser desprendida para ver una segunda capa interna 1309. La segunda capa interna puede ser desprendida para ver una tercera capa interna 1311, etc. El médico también podría cortar en rebanadas el pólipo 1305 y ver solamente esos voxeles dentro de una sección deseada. El área de corte de las rebanadas puede ser definida totalmente por el usuario.
La adición de un coeficiente de opacidad también puede aprovecharse de otras maneras para facilitar la exploración de un sistema virtual. Si está presente material residual y éste tiene una densidad y otras propiedades comprendidas dentro de un cierto margen conocido, el residuo puede hacerse transparente a la cámara virtual cambiando el coeficiente de opacidad durante el examen. Esto permitirá que el paciente no tenga que ingerir un agente para limpiar el intestino antes de la intervención y hace que el examen sea más rápido y más fácil. Igualmente, pueden hacerse desaparecer otros objetos, dependiendo de la aplicación real. Además, la imagen de algunos objetos tales como los pólipos podría mejorarse electrónicamente mediante un agente de contraste seguido por el uso de una función de transferencia apropiada.
La Figura 14 muestra un sistema para llevar a cabo el examen virtual de un objeto tal como un órgano humano haciendo uso de las técnicas descritas en la memoria. El paciente 1401 se encuentra tendido en una plataforma 1402 mientras el dispositivo de exploración 1405 explora el área que contiene el o los órganos que han de examinarse. El dispositivo de exploración 1405 contiene una parte de exploración 1403 que realmente toma imágenes del paciente y una parte electrónica 1406. La parte electrónica 1406 comprende una interconexión 1407, una unidad central de tratamiento 1409, una memoria 1411 para almacenar temporalmente los datos de exploración, y una segunda interconexión 1413 para enviar datos a la plataforma de navegación virtual. Las interconexiones 1407 y 1413 podrían estar incluidas en un único componente de interconexión o podrían ser el mismo componente. Los componentes de la parte 1406 están conectados entre sí mediante conectadores usuales.
En el sistema 1400, los datos proporcionados por la parte de exploración del dispositivo 1403 se transfieren a la parte 1405 para su tratamiento y son almacenados en la memoria 1411. La unidad central de tratamiento 1409 convierte los datos en 2D explorados en datos de voxeles en 3D y almacena el resultado en otra parte de la memoria 1411. Alternativamente, los datos convertidos podrían ser enviados directamente a la unidad 1413 de interconexión para ser transmitidos al terminal 1416 de navegación virtual. La conversión de los datos en 2D podría tener lugar, también, en el terminal 1416 de navegación virtual después de ser transmitidos desde la interconexión 1413. En la realización preferida, los datos convertidos se transmiten por el portador 1414 al terminal 1416 de navegación virtual con el fin de que un operador lleve a cabo el examen virtual. Los datos también podrían ser transportados de otras formas usuales, tal como guardando los datos en un medio de almacenamiento y transportando éste físicamente al terminal 1416 o utilizando transmisiones por satélite.
Los datos explorados pueden no ser convertidos en su representación en 3D hasta que el motor de relleno e iluminación para visualización necesite que estén en 3D. Esto ahorra pasos de cálculo y espacio de almacenamiento en memoria.
El terminal 1416 de navegación virtual incluye una pantalla para ver el órgano virtual u otra imagen explorada, una parte 1415 de electrónica y un control 1419 de interconexión tal como un teclado, un ratón o una bola de control. La parte 1415 de electrónica comprende una puerta 1421 de interconexión, una unidad central de tratamiento 1423, otros componentes 1427 necesarios para que funcione el terminal y una memoria 1425. Los componentes del terminal 1416 están conectados entre sí mediante conectadores usuales. Los datos de voxeles convertidos se reciben en la puerta 1421 de interconexión y se guardan en la memoria 1425. La unidad central de tratamiento 1423 ensambla luego los voxeles en 3D para armar una representación virtual y hace funcionar el modelo de cámara submarina como se describe en relación con las Figuras 2 y 3, para llevar a cabo el examen virtual. A medida que la cámara submarina se desplaza a través del órgano virtual, se utiliza la técnica de visibilidad descrita en relación con la Figura 9 para calcular solamente aquellas áreas que son visibles por la cámara virtual y presentarlas en la pantalla 1417. Puede utilizarse, también, un acelerador de gráficos para generar las representaciones. El operador puede utilizar el dispositivo de interconexión 1419 para indicar qué parte del cuerpo explorado se desea examinar. El dispositivo de interconexión 1419 puede utilizarse, además, para controlar y mover la cámara submarina según se desee, como se ilustra en la Figura 2 y se expone en la descripción que la acompaña. La parte terminal 1415 puede ser el módulo de sistema dedicado Cube-4 disponible, generalmente, del Departamento de Ciencias de Computación de la Universidad Estatal de Nueva York, en Stony Brook.
El dispositivo de exploración 1405 y el terminal 1416 o partes de los mismos, pueden formar parte de la misma unidad. Se utilizaría una única plataforma para recibir los datos de las imágenes de exploración, conectarlos con los voxeles en 3D si es necesario y realizar la navegación guiada.
Una característica importante del sistema 1400 es que el órgano virtual puede ser examinado en un momento posterior, sin exigir la presencia del paciente. Además, el examen virtual podría tener lugar mientras se le está realizando la exploración al paciente. Los datos de exploración pueden, también, ser enviados a múltiples terminales que permitirían que más de un médico viesen, simultáneamente, el interior del órgano. Así, un médico en Nueva York podría estar mirando la misma parte de un órgano de un paciente a la vez que un médico en California, mientras discutían el caso. Alternativamente, los datos pueden verse en momentos diferentes. En casos difíciles, dos o más médicos podrían realizar su propio examen de los mismos datos. Podrían utilizarse múltiples terminales de navegación virtual para ver los mismos datos de una exploración. Reproduciendo el órgano como un órgano virtual con un conjunto discreto de datos se pueden deducir muchos beneficios en áreas tales como precisión, costes y posibles manipulaciones de los datos.
En lo que antecede simplemente se ilustran los principios del invento. Los expertos en la técnica apreciarán que será posible desarrollar numerosos sistemas, aparatos y métodos que, aunque no se muestran ni se describen explícitamente en este documento, incorporan los principios del invento y, por tanto, caen dentro del espíritu y del alcance del invento como queda definido por sus reivindicaciones.
Por ejemplo, los métodos y sistemas descritos en este documento podrían aplicarse para examinar virtualmente un animal, pez o un objeto inanimado. Además de los usos establecidos en el campo médico, las aplicaciones de la técnica podrían utilizarse para detectar el contenido de objetos cerrados, que no puedan abrirse. La técnica podría utilizarse, también, dentro de una estructura arquitectónica tal como un edificio o una cueva y le permitiría al operador navegar a través de la estructura.

Claims (38)

1. Un método para realizar un examen virtual tridimensional de, al menos, un objeto, comprendiendo dicho método los pasos de:
explorar (103) dicho objeto con un dispositivo de exploración y generar datos de exploración bidimensionales representativos del mencionado objeto;
convertir (104) dichos datos de exploración bidimensionales en un conjunto de elementos de volumen tridimensionales, creando así una representación tridimensional con volumen del citado objeto;
calcular (105) una trayectoria definida dentro de dicha representación tridimensional con volumen;
utilizar una cámara virtual (201, 203, 205) para llevar a cabo una navegación guiada (107) de dicha representación tridimensional siguiendo la citada trayectoria; y
presentar (109), en tiempo real, dichos elementos de volumen en un dispositivo de presentación,
caracterizándose dicho método porque se proporciona una fase de navegación controlada por un usuario, para navegar desde dicha trayectoria a fin de permitir el ajuste manual de dicha navegación guiada, empleando dicha fase controlada por el usuario valores de campo de potencial (215) para controlar el movimiento de dicha cámara (201, 203, 205) de acuerdo con el paso de:
calcular un valor de campo de potencial para cada uno de dichos elementos de volumen, de tal forma que dichos valores de campo de potencial definan una fuerza virtual sobre la citada cámara (201, 203, 205) durante dicho examen virtual, en el que se impide que dicha cámara choque con los límites del mencionado objeto mediante el cálculo de los valores de campo de potencial más elevados para dichos límites de dicho objeto y los valores de campo de potencial menores a lo largo de dicha trayectoria definida.
2. El método de la reivindicación 1, en el que dicha fase de navegación controlada por el usuario se configura para permitirle a un usuario ajustar la posición y el ángulo de visión de la citada cámara virtual hacia una parte de interés particular de dicha representación tridimensional con volumen del mencionado objeto.
3. El método de la reivindicación 1, en el que dicha trayectoria definida está situada aproximadamente equidistante de las paredes externas de dicho objeto.
4. El método de la reivindicación 1, en el que dicho objeto es un órgano humano.
5. El método de la reivindicación 4, en el que dicho órgano es el colon.
6. El método de la reivindicación 4, en el que dicho órgano es un pulmón.
7. El método de la reivindicación 4, en el que dicho órgano es, al menos, un vaso sanguíneo.
8. El método de la reivindicación 1, en el que dicho paso de presentación incluye identificar cada uno de dichos elementos de volumen que son visibles a lo largo de dicha trayectoria.
9. El método de la reivindicación 8, en el que dicha identificación se realiza utilizando una estructura de datos jerárquica que contiene datos de visión.
10. El método de la reivindicación 1, en el que la posición de dicha cámara virtual puede cambiarse con seis grados de libertad.
11. El método de la reivindicación 1, en el que dicha trayectoria es preseleccionada y, además, permite cambios de orientación de dicha cámara basados en una entrada realizada por un operador.
12. El método de la reivindicación 11, en el que dicho examen virtual solamente presenta dichos elementos de volumen en un cono de visión de dicha cámara virtual.
13. El método de la reivindicación 1, en el que dicho paso de navegación incluye seleccionar un eje geométrico eliminando los elementos de volumen más próximos a las paredes del citado objeto hasta que sólo quede una trayectoria.
14. El método de la reivindicación 1, en el que dicho examen virtual incluye, además, un paso de cálculo de coeficientes de opacidad para cada uno de dichos elementos de volumen.
15. El método de la reivindicación 14, en el que dichos coeficientes de opacidad de elementos de volumen seleccionados se cambian en respuesta a entradas realizadas por un operador.
16. El método de la reivindicación 15, en el que dichos elementos de volumen con coeficientes de opacidad bajos no se visualizan durante dicho paso de presentación.
17. El método de la reivindicación 16, en el que se cambia el coeficiente de opacidad de, al menos, uno de dichos elementos de volumen de forma que dicho elemento de volumen cambiado no se visualice en dicho paso de presentación.
18. El método de la reivindicación 15, en el que dichos elementos de volumen se presentan como traslúcidos en un grado que responde a dichos coeficientes de opacidad de los citados elementos de volumen.
19. El método de la reivindicación 1, en el que se cambian datos asociados con, al menos, uno de los elementos de volumen, de forma que dicho elemento de volumen cambiado no se visualice en dicho paso de presentación.
20. El método de la reivindicación 1, que comprende además el paso de preparar el objeto para su exploración.
21. El método de la reivindicación 20, en el que dicho paso de preparación incluye recubrir dicho objeto con una sustancia para mejorar el contraste del citado objeto con fines de exploración.
22. El método de la reivindicación 1, en el que dicho paso de generar una representación de datos discretos del mencionado objeto incluye crear una imagen de voxeles a partir de un modelo geométrico.
23. El método de la reivindicación 1, en el que dicho objeto comprende un órgano y dicho dispositivo de exploración comprende un dispositivo de exploración radiológica.
24. El método de la reivindicación 23, en el que dicho paso de presentación incluye identificar cada uno de dichos elementos de volumen que son visibles a lo largo de dicha trayectoria.
25. El método de la reivindicación 24, en el que dicha identificación se realiza utilizando una estructura de datos jerárquica que contiene datos de visión.
26. El método de la reivindicación 23, que comprende, además, el paso de preparar el órgano para exploración, en el que dicho paso de preparación incluye limpiar dicho órgano de objetos móviles.
27. El método de la reivindicación 26, en el que dicho paso de preparación incluye recubrir dicho órgano con una sustancia para mejorar el contraste de dicho órgano al explorarlo.
28. Un sistema para realizar un examen virtual tridimensional de un objeto, que comprende:
un aparato de exploración (103) para generar datos de exploración bidimensionales representativos del mencionado objeto;
un aparato (104) para convertir dichos datos de exploración bidimensionales en un conjunto de elementos de volumen tridimensionales, creando así una representación tridimensional con volumen del citado objeto;
un aparato (105) para calcular una trayectoria definida dentro de dicha representación tridimensional con volumen;
un aparato de cámara virtual (201, 203, 205) para llevar a cabo una navegación guiada de dicha representación tridimensional siguiendo la citada trayectoria; y
un aparato (109) para presentar, en tiempo real, dichos elementos de volumen en un dispositivo de presentación,
caracterizándose dicho sistema porque:
dicho aparato para realizar dicha navegación guiada está configurado para proporcionar una fase de navegación controlada por un usuario, para navegar desde dicha trayectoria, permitiendo por tanto el ajuste manual de dicha navegación guiada, empleando dicha fase controlada por el usuario valores de campo de potencial (215) para controlar el movimiento de dicha cámara (201, 203, 205) de acuerdo con el paso de:
calcular un valor de campo de potencial para cada uno de dichos elementos de volumen, de tal forma que los valores de campo de potencial definan una fuerza virtual sobre la citada cámara durante dicho examen virtual, en el que se impide que dicha cámara choque con los límites del mencionado objeto mediante el cálculo de los valores de campo de potencial más elevados para dichos límites de dicho objeto y los valores de campo de potencial menores a lo largo de dicha trayectoria definida.
29. El sistema de la reivindicación 28, en el que dicha fase de navegación controlada por el usuario se configura para permitir que un usuario ajuste la posición y el ángulo de visión de la citada cámara virtual hacia una parte de interés particular de dicha representación tridimensional con volumen del mencionado objeto.
30. El sistema de la reivindicación 28, en el que dichos elementos de datos tridimensionales incluyen coeficientes de opacidad y dicho aparato de presentación es sensible a dichos coeficientes de opacidad.
31. El sistema de la reivindicación 30, en el que dicho aparato para realizar dicha navegación guiada es capaz de cambiar los coeficientes de opacidad de elementos de datos de volumen seleccionados.
32. El sistema de la reivindicación 31, en el que dicho aparato de presentación es capaz de presentar un elemento de volumen como traslúcido en respuesta a dichos coeficientes de opacidad.
33. El sistema de la reivindicación 28, en el que dicho aparato de conversión y dicho aparato para realizar dicha navegación guiada están contenidos en una sola unidad.
34. El sistema de la reivindicación 28, en el que dicho aparato para generar una representación de dicho objeto genera datos de exploración y dichos datos de exploración se almacenan por separado de dicho aparato de conversión.
35. El sistema de la reivindicación 28, en el que dicho aparato para generar una representación del mencionado objeto genera datos de exploración y dichos datos de exploración se almacenan por separado de dicho aparato de selección.
36. El sistema de la reivindicación 28, que incluye, además, al menos un aparato de selección, un aparato para realizar dicha navegación guiada y un aparato de presentación adicionales, para realizar exámenes tridimensionales virtuales, adicionales, del mencionado objeto.
37. El sistema de la reivindicación 28, en el que dicho objeto comprende un órgano humano.
38. El sistema de la reivindicación 28, en el que dicho aparato de presentación es capaz de presentar un elemento de volumen como traslúcido.
ES97941036T 1996-09-16 1997-09-10 Sistema y metodo para realizar un examen virtual tridimensional. Expired - Lifetime ES2234029T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US714697 1996-09-16
US08/714,697 US5971767A (en) 1996-09-16 1996-09-16 System and method for performing a three-dimensional virtual examination

Publications (1)

Publication Number Publication Date
ES2234029T3 true ES2234029T3 (es) 2005-06-16

Family

ID=24871098

Family Applications (1)

Application Number Title Priority Date Filing Date
ES97941036T Expired - Lifetime ES2234029T3 (es) 1996-09-16 1997-09-10 Sistema y metodo para realizar un examen virtual tridimensional.

Country Status (12)

Country Link
US (1) US5971767A (es)
EP (3) EP1492071A1 (es)
JP (1) JP2001502197A (es)
KR (1) KR20000036177A (es)
CN (1) CN1265331C (es)
AT (1) ATE283528T1 (es)
AU (1) AU734557B2 (es)
CA (1) CA2265808C (es)
DE (1) DE69731775T2 (es)
ES (1) ES2234029T3 (es)
IL (1) IL128884A (es)
WO (1) WO1998011524A1 (es)

Families Citing this family (181)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5782762A (en) * 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US6694163B1 (en) 1994-10-27 2004-02-17 Wake Forest University Health Sciences Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5920319A (en) * 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
US7486811B2 (en) * 1996-09-16 2009-02-03 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US7194117B2 (en) * 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US6343936B1 (en) 1996-09-16 2002-02-05 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination, navigation and visualization
US6331116B1 (en) 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
US8682045B2 (en) * 1997-02-25 2014-03-25 Wake Forest University Health Sciences Virtual endoscopy with improved image segmentation and lesion detection
JP4063933B2 (ja) * 1997-12-01 2008-03-19 オリンパス株式会社 手術シミュレーション装置
US6928314B1 (en) 1998-01-23 2005-08-09 Mayo Foundation For Medical Education And Research System for two-dimensional and three-dimensional imaging of tubular structures in the human body
JP2002504385A (ja) 1998-02-23 2002-02-12 アルゴテック システムズ リミテッド 自動経路立案方法
DE19835215C2 (de) * 1998-08-05 2000-07-27 Mannesmann Vdo Ag Kombinationsinstrument
US6771262B2 (en) * 1998-11-25 2004-08-03 Siemens Corporate Research, Inc. System and method for volume rendering-based segmentation
US7747055B1 (en) 1998-11-25 2010-06-29 Wake Forest University Health Sciences Virtual endoscopy with improved image segmentation and lesion detection
US6314125B1 (en) * 1998-12-09 2001-11-06 Qualcomm Incorporated Method and apparatus for the construction and transmission of binary quasi orthogonal vectors
DE69927001T2 (de) 1999-01-04 2006-06-08 Koninklijke Philips Electronics N.V. Verfahren, system und vorrichtung zur verarbeitung eines eine röhrenartige struktur darstellenden bildes und zur bestimmung eines pfades durch die genannte struktur
US6694057B1 (en) * 1999-01-27 2004-02-17 Washington University Method and apparatus for processing images with curves
US9572519B2 (en) 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
US7386339B2 (en) 1999-05-18 2008-06-10 Mediguide Ltd. Medical imaging and navigation system
US7343195B2 (en) * 1999-05-18 2008-03-11 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
US7815590B2 (en) 1999-08-05 2010-10-19 Broncus Technologies, Inc. Devices for maintaining patency of surgically created channels in tissue
US6621918B1 (en) 1999-11-05 2003-09-16 H Innovation, Inc. Teleradiology systems for rendering and visualizing remotely-located volume data sets
US6488507B1 (en) * 1999-11-29 2002-12-03 Ethicon, Inc. Portable surgical trainer
AU2001239926A1 (en) * 2000-02-25 2001-09-03 The Research Foundation Of State University Of New York Apparatus and method for volume processing and rendering
US6477401B1 (en) * 2000-03-10 2002-11-05 Mayo Foundation For Medical Education And Research Colonography of an unprepared colon
US6468203B2 (en) * 2000-04-03 2002-10-22 Neoguide Systems, Inc. Steerable endoscope and improved method of insertion
US8517923B2 (en) 2000-04-03 2013-08-27 Intuitive Surgical Operations, Inc. Apparatus and methods for facilitating treatment of tissue via improved delivery of energy based and non-energy based modalities
US6858005B2 (en) 2000-04-03 2005-02-22 Neo Guide Systems, Inc. Tendon-driven endoscope and methods of insertion
US8888688B2 (en) 2000-04-03 2014-11-18 Intuitive Surgical Operations, Inc. Connector device for a controllable instrument
US6610007B2 (en) 2000-04-03 2003-08-26 Neoguide Systems, Inc. Steerable segmented endoscope and method of insertion
US6947784B2 (en) * 2000-04-07 2005-09-20 The General Hospital Corporation System for digital bowel subtraction and polyp detection and related techniques
AU2001268217A1 (en) * 2000-06-06 2001-12-17 The Research Foundation Of State University Of New York Computer aided visualization, fusion and treatment planning
AU2001296506A1 (en) 2000-10-02 2002-04-15 The Research Foundation Of State University Of New York Centerline and tree branch skeleton determination for virtual objects
WO2002041767A1 (en) * 2000-11-25 2002-05-30 Infinitt Co., Ltd. System and method for displaying a virtual endoscopy and computer readable medium storing thereof
KR100426396B1 (ko) * 2000-11-28 2004-04-08 김종찬 3차원 영상처리방법을 이용한 가상 내시경 방법
IL140136A (en) * 2000-12-06 2010-06-16 Intumed Ltd Apparatus for self-guided intubation
US7630750B2 (en) * 2001-02-05 2009-12-08 The Research Foundation For The State University Of New York Computer aided treatment planning
DE10119454A1 (de) * 2001-04-20 2002-10-31 Siemens Ag Verfahren zur navigationsgestützten bildlichen Darstellung positionsabhängiger Messinformationen von längsförmigen Körperorganen
US7202851B2 (en) 2001-05-04 2007-04-10 Immersion Medical Inc. Haptic interface for palpation simulation
US7043064B2 (en) * 2001-05-04 2006-05-09 The Board Of Trustees Of The Leland Stanford Junior University Method for characterizing shapes in medical images
JP2004529715A (ja) * 2001-05-15 2004-09-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 多次元データ・セットの分析
US7056123B2 (en) 2001-07-16 2006-06-06 Immersion Corporation Interface apparatus with cable-driven force feedback and grounded actuators
US7130457B2 (en) * 2001-07-17 2006-10-31 Accuimage Diagnostics Corp. Systems and graphical user interface for analyzing body images
US20030028401A1 (en) * 2001-07-17 2003-02-06 Leon Kaufman Customizable lung report generator
US6901277B2 (en) * 2001-07-17 2005-05-31 Accuimage Diagnostics Corp. Methods for generating a lung report
US7039723B2 (en) 2001-08-31 2006-05-02 Hinnovation, Inc. On-line image processing and communication system
US7596256B1 (en) 2001-09-14 2009-09-29 The Research Foundation For The State University Of New York Computer assisted detection of lesions in volumetric medical images
US7324104B1 (en) * 2001-09-14 2008-01-29 The Research Foundation Of State University Of New York Method of centerline generation in virtual objects
FR2831698A1 (fr) * 2001-10-30 2003-05-02 Koninkl Philips Electronics Nv Station d'imagerie medicale a fonction d'extraction de trajectoire au sein d'un objet ramifie
US20030132936A1 (en) * 2001-11-21 2003-07-17 Kevin Kreeger Display of two-dimensional and three-dimensional views during virtual examination
US6711231B2 (en) * 2001-12-10 2004-03-23 Ge Medical Systems Global Technology Company, Llc Methods and apparatus to assist and facilitate vessel analysis
US20030152897A1 (en) * 2001-12-20 2003-08-14 Bernhard Geiger Automatic navigation for virtual endoscopy
US7570802B2 (en) * 2001-12-27 2009-08-04 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Automated centerline detection algorithm for colon-like 3D surfaces
KR100439756B1 (ko) * 2002-01-09 2004-07-12 주식회사 인피니트테크놀로지 3차원 가상내시경 화면 표시장치 및 그 방법
CN1764416A (zh) 2002-01-09 2006-04-26 新引导系统公司 用于内窥镜结肠切除术的设备和方法
US7224827B2 (en) * 2002-09-27 2007-05-29 The Board Of Trustees Of The Leland Stanford Junior University Method for matching and registering medical image data
US7346209B2 (en) * 2002-09-30 2008-03-18 The Board Of Trustees Of The Leland Stanford Junior University Three-dimensional pattern recognition method to detect shapes in medical images
US7272251B2 (en) * 2002-09-30 2007-09-18 The Board Of Trustees Of The Leland Stanford Junior University Method for detecting and classifying a structure of interest in medical images
US7260250B2 (en) * 2002-09-30 2007-08-21 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Computer-aided classification of anomalies in anatomical structures
JP4346297B2 (ja) * 2002-10-22 2009-10-21 株式会社東芝 X線コンピュータ断層撮影装置、画像処理装置及び画像処理方法
US8882657B2 (en) 2003-03-07 2014-11-11 Intuitive Surgical Operations, Inc. Instrument having radio frequency identification systems and methods for use
WO2004083944A2 (en) * 2003-03-18 2004-09-30 The General Hospital Corporation Polarized light devices and methods
JP3810381B2 (ja) * 2003-04-25 2006-08-16 オリンパス株式会社 画像表示装置、画像表示方法および画像表示プログラム
CN101288582A (zh) * 2003-04-25 2008-10-22 奥林巴斯株式会社 图像显示装置和图像显示方法
US7457444B2 (en) * 2003-05-14 2008-11-25 Siemens Medical Solutions Usa, Inc. Method and apparatus for fast automatic centerline extraction for virtual endoscopy
WO2004109538A1 (en) * 2003-06-07 2004-12-16 Samsung Electronics Co. Ltd. Apparatus and method for organization and interpretation of multimedia data on a recording medium
US7822461B2 (en) * 2003-07-11 2010-10-26 Siemens Medical Solutions Usa, Inc. System and method for endoscopic path planning
US7850456B2 (en) * 2003-07-15 2010-12-14 Simbionix Ltd. Surgical simulation device, system and method
US20050015004A1 (en) * 2003-07-17 2005-01-20 Hertel Sarah Rose Systems and methods for combining an anatomic structure and metabolic activity for an object
US8308682B2 (en) 2003-07-18 2012-11-13 Broncus Medical Inc. Devices for maintaining patency of surgically created channels in tissue
US8002740B2 (en) 2003-07-18 2011-08-23 Broncus Technologies, Inc. Devices for maintaining patency of surgically created channels in tissue
US20050074150A1 (en) * 2003-10-03 2005-04-07 Andrew Bruss Systems and methods for emulating an angiogram using three-dimensional image data
US20050116957A1 (en) * 2003-11-03 2005-06-02 Bracco Imaging, S.P.A. Dynamic crop box determination for optimized display of a tube-like structure in endoscopic view ("crop box")
US20050110791A1 (en) * 2003-11-26 2005-05-26 Prabhu Krishnamoorthy Systems and methods for segmenting and displaying tubular vessels in volumetric imaging data
US20050143654A1 (en) * 2003-11-29 2005-06-30 Karel Zuiderveld Systems and methods for segmented volume rendering using a programmable graphics pipeline
US7729739B2 (en) * 2003-12-03 2010-06-01 The Board Of Trustees Of The Leland Stanford Junior University Heat diffusion based detection of structures of interest in medical images
US7289106B2 (en) 2004-04-01 2007-10-30 Immersion Medical, Inc. Methods and apparatus for palpation simulation
US7609910B2 (en) * 2004-04-09 2009-10-27 Siemens Medical Solutions Usa, Inc. System and method for creating a panoramic view of a volumetric image
US7633502B2 (en) * 2004-05-19 2009-12-15 Boston Scientific Scimed, Inc. System and method for graphically representing anatomical orifices and vessels
US8409167B2 (en) 2004-07-19 2013-04-02 Broncus Medical Inc Devices for delivering substances through an extra-anatomic opening created in an airway
US7613492B2 (en) * 2004-07-26 2009-11-03 General Electric Company Apparatus for aligning an object being scanned in multi-modality systems
US7835892B2 (en) * 2004-09-28 2010-11-16 Immersion Medical, Inc. Ultrasound simulation apparatus and method
EP1643453B1 (en) * 2004-09-30 2017-04-05 Toshiba Medical Systems Corporation Image processing apparatus and method for curved multi-planar reformatting
WO2006042077A2 (en) * 2004-10-09 2006-04-20 Viatronix Incorporated Sampling medical images for virtual histology
US20060079746A1 (en) * 2004-10-11 2006-04-13 Perret Florence M Apparatus and method for analysis of tissue classes along tubular structures
US8031921B2 (en) * 2005-02-14 2011-10-04 Mayo Foundation For Medical Education And Research Electronic stool subtraction in CT colonography
EP1856642A2 (en) * 2005-02-23 2007-11-21 Koninklijke Philips Electronics N.V. Method for the prediction of the course of a catheter
US7893938B2 (en) * 2005-05-04 2011-02-22 Siemens Medical Solutions Usa, Inc. Rendering anatomical structures with their nearby surrounding area
US7889905B2 (en) * 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
US7756563B2 (en) * 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
US7586501B2 (en) * 2005-05-24 2009-09-08 Siemens Medical Solutions Usa, Inc. Simultaneous projection of multi-branched vessels and their context on a single image
EP1903943A1 (en) * 2005-06-21 2008-04-02 Koninklijke Philips Electronics N.V. Method and device for imaging a blood vessel
US7379062B2 (en) * 2005-08-01 2008-05-27 Barco Nv Method for determining a path along a biological object with a lumen
US20070046661A1 (en) * 2005-08-31 2007-03-01 Siemens Medical Solutions Usa, Inc. Three or four-dimensional medical imaging navigation methods and systems
US7623900B2 (en) * 2005-09-02 2009-11-24 Toshiba Medical Visualization Systems Europe, Ltd. Method for navigating a virtual camera along a biological object with a lumen
US7711168B2 (en) * 2005-10-19 2010-05-04 Siemens Medical Solutions Usa, Inc. Method for tracking blood vessels
WO2007046019A1 (en) * 2005-10-21 2007-04-26 Koninklijke Philips Electronics, N.V. Rendering method and apparatus
JP4450786B2 (ja) * 2005-11-15 2010-04-14 ザイオソフト株式会社 画像処理方法および画像処理プログラム
WO2007059233A2 (en) * 2005-11-15 2007-05-24 Johns Hopkins University An active cannula for bio-sensing and surgical intervention
US20070109299A1 (en) * 2005-11-15 2007-05-17 Vital Images, Inc. Surface-based characteristic path generation
EP3788944B1 (en) 2005-11-22 2024-02-28 Intuitive Surgical Operations, Inc. System for determining the shape of a bendable instrument
WO2007062066A2 (en) 2005-11-23 2007-05-31 Neoguide Systems, Inc. Non-metallic, multi-strand control cable for steerable instruments
US20100260390A1 (en) * 2005-11-30 2010-10-14 The Research Foundation Of State University Of New York System and method for reduction of false positives during computer aided polyp detection
US8452061B2 (en) * 2005-11-30 2013-05-28 The Research Foundation Of State University Of New York Electronic colon cleansing method for virtual colonoscopy
WO2007069144A2 (en) * 2005-12-14 2007-06-21 Koninklijke Philips Electronics N.V. Method and device for relating medical 3d data image viewing planes to each other
DE102006003179B4 (de) * 2006-01-23 2009-02-26 Siemens Ag Verfahren und Vorrichtung zur virtuellen Endoskopie eines Hohlkanals
JP2007260144A (ja) * 2006-03-28 2007-10-11 Olympus Medical Systems Corp 医療用画像処理装置及び医療用画像処理方法
WO2007112557A1 (en) * 2006-03-31 2007-10-11 Calgary Scientific Inc. Super resolution contextual close-up visualization of volumetric data
JP4738236B2 (ja) * 2006-04-05 2011-08-03 株式会社日立メディコ 画像表示装置
WO2007137208A2 (en) 2006-05-19 2007-11-29 Neoguide Systems, Inc. Methods and apparatus for displaying three-dimensional orientation of a steerable distal tip of an endoscope
US8560047B2 (en) 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
EP2051631A4 (en) 2006-06-30 2013-06-05 Broncus Tech Inc SELECTION OF A RESPIRATORY BYPASS SITE AND TREATMENT PLANNING
JP2008021092A (ja) * 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置
US20080117210A1 (en) * 2006-11-22 2008-05-22 Barco N.V. Virtual endoscopy
US7853058B2 (en) * 2006-11-22 2010-12-14 Toshiba Medical Visualization Systems Europe, Limited Determining a viewpoint for navigating a virtual camera through a biological object with a lumen
US8672836B2 (en) * 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US9037215B2 (en) 2007-01-31 2015-05-19 The Penn State Research Foundation Methods and apparatus for 3D route planning through hollow organs
US20090156895A1 (en) * 2007-01-31 2009-06-18 The Penn State Research Foundation Precise endoscopic planning and visualization
US8023710B2 (en) * 2007-02-12 2011-09-20 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Virtual colonoscopy via wavelets
US8175348B2 (en) * 2007-06-05 2012-05-08 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Segmenting colon wall via level set techniques
US9220398B2 (en) 2007-10-11 2015-12-29 Intuitive Surgical Operations, Inc. System for managing Bowden cables in articulating instruments
CN101842814B (zh) * 2007-11-02 2013-02-13 皇家飞利浦电子股份有限公司 自动影像运行路径计算
CN101889296B (zh) * 2007-11-02 2013-01-16 皇家飞利浦电子股份有限公司 增强的冠状动脉观察
US8103070B2 (en) * 2007-11-22 2012-01-24 Toshiba Medical Visualization Systems Europe, Limited Volume rendering apparatus and method
US8182418B2 (en) 2008-02-25 2012-05-22 Intuitive Surgical Operations, Inc. Systems and methods for articulating an elongate body
US9171484B2 (en) * 2008-03-06 2015-10-27 Immersion Corporation Determining location and orientation of an object positioned on a surface
US8243334B2 (en) 2008-06-06 2012-08-14 Virginia Venture Industries, Llc Methods and apparatuses for printing three dimensional images
US8200466B2 (en) 2008-07-21 2012-06-12 The Board Of Trustees Of The Leland Stanford Junior University Method for tuning patient-specific cardiovascular simulations
US9679499B2 (en) 2008-09-15 2017-06-13 Immersion Medical, Inc. Systems and methods for sensing hand motion by measuring remote displacement
AU2009295315A1 (en) * 2008-09-25 2010-04-01 Cae Healthcare Inc. Simulation of medical imaging
US8428326B2 (en) * 2008-10-23 2013-04-23 Immersion Corporation Systems and methods for ultrasound simulation using depth peeling
US20100123715A1 (en) * 2008-11-14 2010-05-20 General Electric Company Method and system for navigating volumetric images
US9405886B2 (en) 2009-03-17 2016-08-02 The Board Of Trustees Of The Leland Stanford Junior University Method for determining cardiovascular information
US9098927B2 (en) * 2009-08-21 2015-08-04 Kabushiki Kaisha Toshiba Image processing apparatus for diagnostic imaging and method thereof
EP2389113A4 (en) * 2009-09-10 2014-04-30 Infinitt Healthcare Co Ltd VIRTUAL ENDOSCOPY DEVICE, DRIVE PROCESS THEREFOR, AND MEDICAL EXAMINATION DEVICE
US8442806B2 (en) * 2010-03-03 2013-05-14 Immersion Medical, Inc. Systems and methods for simulations utilizing a virtual coupling
JP5380348B2 (ja) * 2010-03-31 2014-01-08 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP5486432B2 (ja) * 2010-07-28 2014-05-07 富士フイルム株式会社 画像処理装置、その作動方法およびプログラム
US8315812B2 (en) 2010-08-12 2012-11-20 Heartflow, Inc. Method and system for patient-specific modeling of blood flow
US8157742B2 (en) 2010-08-12 2012-04-17 Heartflow, Inc. Method and system for patient-specific modeling of blood flow
RU2013154552A (ru) * 2011-05-10 2015-06-20 Конинклейке Филипс Н.В. Управляемое пользователем планирование пути в реальном маштабе времени
EP2706940B1 (en) 2011-05-13 2016-12-14 Broncus Medical, Inc. Methods and devices for ablation of tissue
US8709034B2 (en) 2011-05-13 2014-04-29 Broncus Medical Inc. Methods and devices for diagnosing, monitoring, or treating medical conditions through an opening through an airway wall
US9498231B2 (en) 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
CN103764061B (zh) 2011-06-27 2017-03-08 内布拉斯加大学评议会 工具承载的追踪系统和计算机辅助外科方法
US11911117B2 (en) 2011-06-27 2024-02-27 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
KR101305678B1 (ko) * 2011-07-27 2013-09-09 가톨릭대학교 산학협력단 가상 대장내시경에서 전자적 장세척 방법 및 장치
WO2013078235A1 (en) 2011-11-23 2013-05-30 Broncus Medical Inc Methods and devices for diagnosing, monitoring, or treating medical conditions through an opening through an airway wall
US8548778B1 (en) 2012-05-14 2013-10-01 Heartflow, Inc. Method and system for providing information from a patient-specific model of blood flow
CN104736054A (zh) * 2012-10-16 2015-06-24 皇家飞利浦有限公司 基于光学形状感测的肺体积描记法
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9639666B2 (en) 2013-03-15 2017-05-02 Covidien Lp Pathway planning system and method
US9925009B2 (en) 2013-03-15 2018-03-27 Covidien Lp Pathway planning system and method
US9459770B2 (en) 2013-03-15 2016-10-04 Covidien Lp Pathway planning system and method
WO2014168350A1 (ko) 2013-04-10 2014-10-16 재단법인 아산사회복지재단 폐동맥과 폐정맥을 구분하는 방법 및 이를 이용한 혈관의 정량화 방법
JP6026357B2 (ja) 2013-06-13 2016-11-16 富士フイルム株式会社 仮想内視鏡画像生成装置および方法並びにプログラム
EP3164048B1 (en) 2014-07-02 2022-11-16 Covidien LP Real-time automatic registration feedback
US20160000414A1 (en) 2014-07-02 2016-01-07 Covidien Lp Methods for marking biopsy location
CA2946615A1 (en) 2014-07-02 2016-01-07 Covidien Lp System and method for detecting trachea
JP6603245B2 (ja) 2014-07-02 2019-11-06 コヴィディエン リミテッド パートナーシップ 肺のセグメント化のためのシステムおよび方法
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US9770216B2 (en) 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
US9754367B2 (en) 2014-07-02 2017-09-05 Covidien Lp Trachea marking
US10643371B2 (en) 2014-08-11 2020-05-05 Covidien Lp Treatment procedure planning system and method
CA2980378A1 (en) * 2015-03-20 2016-09-29 The Governing Council Of The Universtiy Of Toronto Systems and methods of ultrasound simulation
US10986990B2 (en) 2015-09-24 2021-04-27 Covidien Lp Marker placement
US10709352B2 (en) 2015-10-27 2020-07-14 Covidien Lp Method of using lung airway carina locations to improve ENB registration
CN105686803B (zh) * 2016-01-08 2019-06-14 上海伴诚医疗科技有限公司 扫描数据处理方法及装置
EP3440632B1 (en) 2016-04-04 2020-09-09 Koninklijke Philips N.V. Imaging system and method
CA3039666C (en) 2016-10-28 2022-08-23 Ppg Industries Ohio, Inc. Coatings for increasing near-infrared detection distances
CN114777682A (zh) 2017-10-06 2022-07-22 先进扫描仪公司 生成一个或多个亮度边缘以形成物体的三维模型
CN107993294A (zh) * 2017-12-14 2018-05-04 山东数字人科技股份有限公司 一种局部解剖数据处理方法、装置及系统
US11224392B2 (en) 2018-02-01 2022-01-18 Covidien Lp Mapping disease spread
CN108711313A (zh) * 2018-05-22 2018-10-26 哈尔滨医科大学 胃镜检查术自助学习方法
EP4600047A3 (en) 2018-11-13 2025-10-22 PPG Industries Ohio, Inc. Method of detecting a concealed pattern
US11561329B2 (en) 2019-01-07 2023-01-24 Ppg Industries Ohio, Inc. Near infrared control coating, articles formed therefrom, and methods of making the same
US11628020B2 (en) 2019-06-19 2023-04-18 Virtuoso Surgical, Inc. Insertable robot for minimally invasive surgery
JP7335107B2 (ja) 2019-07-23 2023-08-29 株式会社トプコン 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
US12089902B2 (en) 2019-07-30 2024-09-17 Coviden Lp Cone beam and 3D fluoroscope lung navigation
CN113696484B (zh) * 2021-08-27 2022-05-24 吉林大学 应用3d打印技术制造人体透明椎管管腔的方法
CN116614617B (zh) * 2023-05-29 2024-03-19 广东横琴全域空间人工智能有限公司 多视角三维建模方法、系统、自动化设备以及拍摄终端

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5038302A (en) * 1988-07-26 1991-08-06 The Research Foundation Of State University Of New York Method of converting continuous three-dimensional geometrical representations into discrete three-dimensional voxel-based representations within a three-dimensional voxel-based system
US4985856A (en) * 1988-11-10 1991-01-15 The Research Foundation Of State University Of New York Method and apparatus for storing, accessing, and processing voxel-based data
DE4117117A1 (de) * 1991-05-25 1992-11-26 Hoehne Karl Heinz Prof Dr Dreidimensionale darstellung von raeumlichen strukturen
US5361385A (en) * 1992-08-26 1994-11-01 Reuven Bakalash Parallel computing system for volumetric modeling, data processing and visualization
JP3483929B2 (ja) * 1994-04-05 2004-01-06 株式会社日立製作所 3次元画像生成方法
US5458111A (en) * 1994-09-06 1995-10-17 William C. Bond Computed tomographic colonoscopy
US5782762A (en) * 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5611025A (en) * 1994-11-23 1997-03-11 General Electric Company Virtual internal cavity inspection system

Also Published As

Publication number Publication date
EP1012812A4 (en) 2002-06-12
EP1482470A3 (en) 2004-12-08
CA2265808C (en) 2006-06-06
CA2265808A1 (en) 1998-03-19
JP2001502197A (ja) 2001-02-20
AU4267897A (en) 1998-04-02
EP1482470A2 (en) 2004-12-01
ATE283528T1 (de) 2004-12-15
EP1012812B1 (en) 2004-11-24
DE69731775D1 (de) 2004-12-30
US5971767A (en) 1999-10-26
DE69731775T2 (de) 2005-12-22
IL128884A (en) 2002-03-10
AU734557B2 (en) 2001-06-14
EP1012812A1 (en) 2000-06-28
CN1230271A (zh) 1999-09-29
KR20000036177A (ko) 2000-06-26
IL128884A0 (en) 2000-01-31
CN1265331C (zh) 2006-07-19
EP1492071A1 (en) 2004-12-29
WO1998011524A1 (en) 1998-03-19

Similar Documents

Publication Publication Date Title
ES2234029T3 (es) Sistema y metodo para realizar un examen virtual tridimensional.
KR100790536B1 (ko) 가상 결장 내강을 통한 이동 경로를 생성하는 방법
US7148887B2 (en) System and method for performing a three-dimensional virtual segmentation and examination with optical texture mapping
US7609910B2 (en) System and method for creating a panoramic view of a volumetric image
Hong et al. 3D virtual colonoscopy
JP3874826B2 (ja) 内視鏡を模擬する方法及び被検体の内腔のビューを得るための仮想検査システム
US7194117B2 (en) System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US7477768B2 (en) System and method for performing a three-dimensional virtual examination of objects, such as internal organs
JP3704652B2 (ja) 3次元画像処理方法
IL145516A (en) System and method for segmentation and simulated three-dimensional tests
CN101006469A (zh) 用于产生体积图像的全景视图的系统和方法
MXPA99002340A (es) Sistema y método para llevar a cabo un examen virtual tridimensional
Wildermuth et al. Patient Specific Surgical Simulation System for Procedures in Colonoscopy.
MXPA01009388A (es) Sistema y metodo para realizar una segmentacion y examen virtual tridimensional
MXPA01009387A (es) Sistema y metodo para realizar un examen, navegacion y visualizacion virtual tridimensional