ES2234029T3 - Sistema y metodo para realizar un examen virtual tridimensional. - Google Patents
Sistema y metodo para realizar un examen virtual tridimensional.Info
- Publication number
- ES2234029T3 ES2234029T3 ES97941036T ES97941036T ES2234029T3 ES 2234029 T3 ES2234029 T3 ES 2234029T3 ES 97941036 T ES97941036 T ES 97941036T ES 97941036 T ES97941036 T ES 97941036T ES 2234029 T3 ES2234029 T3 ES 2234029T3
- Authority
- ES
- Spain
- Prior art keywords
- volume
- virtual
- dimensional
- organ
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B23/00—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
- G09B23/28—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating three-dimensional [3D] models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
- G06T2207/20044—Skeletonization; Medial axis transform
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/28—Force feedback
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Vascular Medicine (AREA)
- Multimedia (AREA)
- Computational Mathematics (AREA)
- Educational Technology (AREA)
- Medicinal Chemistry (AREA)
- Algebra (AREA)
- Chemical & Material Sciences (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Medical Informatics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Processing Or Creating Images (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Image Processing (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Generation (AREA)
- Casting Devices For Molds (AREA)
- Electron Beam Exposure (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
Abstract
Un método para realizar un examen virtual tridimensional de, al menos, un objeto, comprendiendo dicho método los pasos de: explorar (103) dicho objeto con un dispositivo de exploración y generar datos de exploración bidimensionales representativos del mencionado objeto; convertir (104) dichos datos de exploración bidimensionales en un conjunto de elementos de volumen tridimensionales, creando así una representación tridimensional con volumen del citado objeto; calcular (105) una trayectoria definida dentro de dicha representación tridimensional con volumen; utilizar una cámara virtual (201, 203, 205) para llevar a cabo una navegación guiada (107) de dicha representación tridimensional siguiendo la citada trayectoria; y presentar (109), en tiempo real, dichos elementos de volumen en un dispositivo de presentación, caracterizándose dicho método porque se proporciona una fase de navegación controlada por un usuario, para navegar desde dicha trayectoria a fin de permitir el ajuste manual de dicha navegación guiada, empleando dicha fase controlada por el usuario valores de campo de potencial (215) para controlar el movimiento de dicha cámara (201, 203, 205) de acuerdo con el paso de: calcular un valor de campo de potencial para cada uno de dichos elementos de volumen, de tal forma que dichos valores de campo de potencial definan una fuerza virtual sobre la citada cámara (201, 203, 205) durante dicho examen virtual, en el que se impide que dicha cámara choque con los límites del mencionado objeto mediante el cálculo de los valores de campo de potencial más elevados para dichos límites de dicho objeto y los valores de campo de potencial menores a lo largo de dicha trayectoria definida.
Description
Sistema y método para realizar un examen virtual
tridimensional.
El presente invento se refiere a un sistema y a
un método para realizar un examen virtual tridimensional basado en
el volumen utilizando técnicas de navegación planeada y guiada. Una
aplicación de esta clase es la realización de una endoscopia
virtual.
El cáncer de colon continúa siendo una causa
principal de mortalidad en todo el mundo. La detección precoz de
crecimientos cancerosos, que en el colon humano se manifiestan
inicialmente, en sí mismos, como pólipos, puede mejorar notablemente
la posibilidad de recuperación de un paciente. En la actualidad,
hay dos formas usuales de detectar los pólipos u otras masas en el
colon de un paciente. El primer método consiste en un procedimiento
de colonoscopia, que hace uso de un tubo flexible de fibra óptica,
denominado colonoscopio, para examinar visualmente el colon mediante
la introducción física rectal del instrumento. El médico puede
manipular el tubo en busca de cualesquiera crecimientos anormales
en el colon. La colonoscopia, aunque fiable, tiene un coste
relativamente alto, en tiempo y en dinero, y para el paciente es un
procedimiento invasivo, doloroso e incómodo.
La segunda técnica de detección consiste en el
uso de un enema de bario y la generación de una imagen bidimensional
de rayos X del colon. El enema de bario se utiliza para recubrir el
colon con bario y se toma una imagen bidimensional de rayos X para
capturar una imagen del colon. Sin embargo, los enemas de bario no
siempre proporcionan una vista de todo el colon, requieren una
manipulación y un tratamiento previo extensos del paciente, con
frecuencia constituyen una técnica dependiente del operador que
lleva a cabo la intervención, expone al paciente a una radiación
excesiva y puede resultar menos sensible que una colonoscopia.
Debido a defectos en las prácticas usuales anteriormente descritas,
resulta deseable disponer de una forma más fiable, menos intrusiva y
menos costosa de comprobar la existencia de pólipos en el colon.
También es deseable un método de examinar otros órganos humanos,
tales como los pulmones, en busca de la existencia de masas, de
manera fiable, económicamente efectiva y que suponga menos
incomodidades para el paciente.
La visualización en dos dimensiones ("2D")
de órganos humanos empleando dispositivos médicos para generación de
imágenes, actualmente disponibles, tales como la tomografía
computerizada y la MRI (generación de imágenes por resonancia
magnética), ha sido ampliamente utilizada para el diagnóstico de
pacientes. Pueden obtenerse imágenes tridimensionales apilando e
interpolando entre dos imágenes bidimensionales obtenidas a partir
de las máquinas de exploración. La generación de la imagen de un
órgano y la visualización de su volumen en el espacio tridimensional
resultaría beneficiosa en vista de que supone la ausencia de
intrusión física y de la facilidad de manipulación de los datos.
Sin embargo, la exploración de la imagen tridimensional de un
volumen debe realizarse apropiadamente con el fin de aprovechar por
completo las ventajas que conlleva la visión virtual de un órgano
desde su
interior.
interior.
Cuando se mira la imagen virtual tridimensional
("3D") de un volumen de un entorno, debe utilizarse un modelo
funcional para explorar el espacio virtual. Un modelo posible es
una cámara virtual que puede utilizarse como punto de referencia
para que el observador explore el espacio virtual. El control de la
cámara en el contexto de la navegación dentro de un entorno virtual
en 3D general, ha sido estudiado previamente. Para la navegación
por un espacio virtual existen dos tipos usuales de control de
cámara. El primero le otorga al operador el control total de la
cámara, permitiéndole manipularla en diferentes posiciones y
orientaciones para conseguir la vista deseada. El operador, en
efecto, pilotará la cámara. Esto le permite al operador explorar una
sección particular de interés mientras ignora otras secciones. No
obstante, el control total de una cámara en un dominio grande
resultaría una tarea tediosa y cansada, y un operador podría no
apreciar todas las características importantes entre el punto de
partida y el punto final de la exploración. La cámara, también,
podría "perderse" en zonas remotas o "chocar" contra una
de las paredes al ser manejada por un operador poco atento o debido
a numerosos obstáculos inesperados.
La segunda técnica de control de la cámara es un
método de navegación planeada, que asigna a la cámara una
trayectoria predeterminada que ha de seguir y que no puede ser
cambiada por el operador. Esto se parece a la activación de un
"piloto automático". Le permite al operador concentrarse en el
espacio virtual que está contemplando y no tener que preocuparse de
dirigirla entre las paredes del entorno que está siendo examinado.
Sin embargo, esta segunda técnica no le ofrece al observador la
flexibilidad de alterar el curso ni de investigar un área de
interés vista a lo largo de la trayectoria de vuelo.
Se conocen sistemas para realizar un examen
virtual tridimensional de un objeto, tales como los descritos en las
siguientes referencias:
- D1: LORENSEN W. E. Y OTROS: "La exploración de datos de secciones transversales con un endoscopio virtual", en INTERACTIVE TECHNOLOGY AND THE NEW PARADIGM FOR HEALTHCARE MEDICINE MEETS VIRTUAL REALITY III PROCEEDINGS, INTERACTIVE TECHNOLOGY AND THE NEW PARADIGM FOR HEALTHCARE MEDICINE MEETS VIRTUAL REALITY III PROCEEDINGS, SAN DIEGO, CA., EE.UU., 19-22 ENE. 1995, páginas 221-230, XP002196134 1995, Amsterdam, Holanda, IOS Press, Holanda.
- D2: LICHAN HONG Y OTROS: "Colonoscopia virtual en 3D", BIOMEDICAL VISUALIZATION, 1995, PROCEEDINGS, ATLANTA, GA., EE.UU., 30 OCT.-3 NOV. 1995, LOS ALAMITOS, CA., EE.UU., IEEE COMPUT. SOC., EE.UU., 30 Octubre 1995 (1995-10-30), páginas 26-32, 83, XP010196689 ISBN: 0-8186-7198-X.
Ambas referencias, D1 y D2, se refieren a
técnicas para posibilitar la realización de un examen virtual, pero
los sistemas en ellas descritos adolecen de uno o más de los
problemas descritos en relación con las técnicas mencionadas en lo
que antecede.
Sería deseable utilizar una combinación de las
dos técnicas de navegación antes descritas para aprovechar las
ventajas de ambas al tiempo que se minimizan sus respectivos
inconvenientes. Sería deseable aplicar una técnica de navegación
flexible al examen de órganos humanos o de animales que se
representen en el espacio 3D virtual con objeto de llevar a cabo un
profundo examen no intrusivo e indoloro. La técnica de navegación
deseada permitiría, además, que un operador realizase un examen
completo de un órgano virtual en el espacio 3D, otorgándole
flexibilidad al tiempo que se asegura un seguimiento suave de la
trayectoria y un examen completo a través del órgano y alrededor del
mismo. Además, sería deseable poder presentar la exploración del
órgano sobre una base en tiempo real empleando una técnica que
minimice los cálculos necesarios para visualizar el órgano. La
técnica deseada debe, también, poder aplicarse igualmente a la
exploración de cualquier objeto virtual.
El invento genera una imagen para visualización
tridimensional de un objeto tal como un órgano humano empleando
técnicas de visualización de volúmenes y explora la imagen virtual
utilizando un sistema de navegación guiada que le permite al
operador desplazarse siguiendo una trayectoria de vuelo predefinida
y ajustar tanto la posición como el ángulo de visión para una parte
de interés particular de la imagen separándose de la trayectoria
predefinida con el fin de identificar pólipos, quistes u otras
características anormales del órgano.
La técnica del invento para el examen virtual en
tres dimensiones de un objeto, incluye generar una representación
discreta del objeto en elementos de volumen, definir la parte del
objeto que ha de examinarse, llevar a cabo una operación de
navegación en el objeto virtual y presentar una imagen del objeto
virtual, en tiempo real, durante la navegación.
La técnica del invento para un examen virtual
tridimensional aplicada a un órgano de un paciente incluye, si es
necesario, preparar el órgano para la exploración, explorar el
órgano y convertir los datos en elementos de volumen, definir la
parte del órgano que ha de examinarse, realizar una operación de
navegación guiada en el órgano virtual y presentar la imagen del
órgano virtual, en tiempo real, durante la navegación guiada.
Un objeto del invento es utilizar un sistema y un
método para llevar a cabo un examen en vivo relativamente indoloro,
económico y no intrusivo de un órgano, en el que el análisis real
del colon explorado puede llevarse a cabo, posiblemente, sin que
esté presente el paciente. El colon puede ser explorado y
visualizado en tiempo real o los datos almacenados pueden ser
visualizados en un momento posterior.
Otro objeto del invento es generar
representaciones en volumen en 3D de un objeto, tal como un órgano,
en las que pueden desprenderse regiones del objeto, capa por capa,
con el fin de proporcionar un análisis bajo la superficie de una
región del objeto del que se ha generado la imagen. Una superficie
de un objeto (tal como un órgano humano) puede hacerse transparente
o traslúcida con el fin de ver otros objetos situados en el
interior de la pared del objeto o detrás de ella. El objeto puede,
también, seccionarse en rebanadas con el fin de examinar un corte
transversal particular del objeto.
Otro objeto del invento es proporcionar un
sistema y un método de navegación guiada a través de una
representación de un volumen en 3D de un objeto, tal como un órgano
humano, empleando campos de potencial.
Otro objeto del invento es calcular el eje
geométrico de un objeto, tal como un órgano humano, para realizar un
vuelo virtual a su través utilizando una técnica de desprendimiento
de capas como la descrita en esta memoria.
Todavía otro objeto del invento es utilizar una
técnica de aceleración gráfica (memoria intermedia Z) modificada
para reducir al mínimo el número de cálculos necesarios para generar
la pantalla de visión.
Otro objeto del invento es asignar coeficientes
de opacidad a cada elemento de volumen de la representación con el
fin de hacer que elementos de volumen particulares sean
transparentes o traslúcidos en grado variable a fin de personalizar
la visualización de la parte del objeto que se está viendo. También
puede componerse una sección del objeto haciendo uso de los
coeficientes de opacidad.
Otros objetos, características y ventajas del
invento resultarán evidentes a partir de la siguiente descripción
detallada tomada en conjunto con las figuras adjuntas, que
representan una realización preferida del invento, y en las que:
la Figura 1 es una gráfica de proceso de los
pasos para llevar a cabo un examen virtual de un objeto,
específicamente un colon, de acuerdo con el invento;
la Figura 2 es una ilustración de un modelo de
cámara "submarina" que lleva a cabo una navegación guiada en el
órgano virtual;
la Figura 3 es una ilustración de un péndulo
utilizado para obtener un modelo de cabeceo y balanceo de la cámara
"submarina";
la Figura 4 es un diagrama que ilustra una
sección transversal bidimensional de un colon volumétrico que
identifica dos paredes de bloqueo;
la Figura 5 es un diagrama que ilustra una
sección transversal bidimensional de un colon volumétrico, sobre la
que se seleccionan elementos de volumen de inicio y de final;
la Figura 6 es un diagrama que ilustra una
sección transversal bidimensional de un colon volumétrico, que
muestra un sub-volumen discreto encerrado por las
paredes de bloqueo y la superficie del colon;
la Figura 7 es un diagrama que ilustra una
sección transversal bidimensional de un colon volumétrico, con
múltiples capas desprendidas;
la Figura 8 es un diagrama que ilustra una
sección transversal bidimensional de un colon volumétrico, que
contiene la trayectoria de vuelo restante;
la Figura 9 es una gráfica de proceso de las
operaciones para generar una visualización en volumen del órgano
explorado;
la Figura 10 es una ilustración de un colon
virtual que ha sido subdividido en celdas;
la Figura 11A es una representación gráfica de un
órgano que está siendo examinado virtualmente;
la Figura 11B es una representación gráfica de un
árbol de visión directa generado mientras se representa el órgano de
la Fig. 11A;
la Figura 11C es otra representación gráfica de
un árbol de visión directa generado mientras se representa el órgano
de la Fig. 11A;
la Figura 12A es una representación gráfica de
una escena a rellenar e iluminar con objetos dentro de ciertas
celdas de la escena;
la Figura 12B es una representación gráfica de un
árbol de visión directa generado mientras se representa la escena de
la Fig. 12A;
las Figuras 12C-12E son otras
representaciones gráficas de árboles de visión directa generados
mientras se representa la imagen de la Fig. 12A;
la Figura 13 es una representación bidimensional
de un colon virtual que contiene un pólipo cuyas capas pueden
retirarse; y
la Figura 14 es un diagrama de un sistema
utilizado para realizar un examen virtual de un órgano humano de
acuerdo con el invento.
Aunque los métodos y los sistemas descritos en
esta solicitud pueden aplicarse a cualquier objeto que haya de
examinarse, la realización preferida que se describirá es el examen
de un órgano del cuerpo humano, específicamente, el colon. El colon
es largo y retorcido, lo que le hace especialmente adecuado para un
examen virtual que le ahorre al paciente dinero y la incomodidad y
el peligro que suponen el uso de una sonda física. Otros ejemplos
de órganos que pueden ser examinados incluyen los pulmones, el
estómago y partes del sistema gastro-intestinal, el
corazón y los vasos sanguíneos.
La Fig. 1 ilustra los pasos necesarios para
realizar una colonoscopia virtual utilizando técnicas de
visualización de volúmenes. El paso 101 prepara el colon que ha de
explorarse con el fin de ser visto para su examen si así lo requiere
el médico o el instrumento de exploración particular. Esta
preparación podría incluir la limpieza del colon con un
"cóctel" o líquido que entrase en él tras su ingestión oral y
después de pasar por el estómago. El cóctel obliga al paciente a
expulsar los residuos presentes en el colon. Un ejemplo de
sustancia utilizada es el Golytely. Además, en el caso del colon,
puede introducirse aire o CO_{2} en el colon con el fin de
expandirlo para facilitar su exploración y su examen. Esto se
consigue bombeando en el colon, mediante un pequeño tubo aplicado
en el recto, aproximadamente 1000 cc de aire para distender el
colon. Dependiendo del tipo de escáner utilizado, puede ser
necesario que el paciente ingiera una sustancia de contraste, tal
como bario, para recubrir cualquier materia fecal no eliminada, con
objeto de distinguir los residuos contenidos en el colon de las
paredes del colon propiamente dichas. Alternativamente, el método
para examinar virtualmente el colon puede eliminar los residuos
virtuales antes del examen virtual, o durante el mismo, como se
explica posteriormente en esta memoria. El paso 101 no tiene por qué
llevarse a cabo en todos los exámenes, según se indica mediante la
línea interrumpida en la Fig. 1.
El paso 103 consiste en explorar el órgano que ha
de examinarse. El escáner puede ser un aparato bien conocido en la
técnica, tal como un escáner CT helicoidal para explorar un colon o
una máquina Zenita de MRI para explorar un pulmón marcado, por
ejemplo, con gas xenón. El escáner debe poder tomar múltiples
imágenes desde distintas posiciones alrededor del cuerpo durante un
período de respiración suspendida, con el fin de proporcionar los
datos necesarios para la visualización del volumen. Un ejemplo de
una sola imagen CT utilizaría un haz de rayos X con una anchura de 5
mm, un paso de 1:1 ó 2:1, con un campo de visión de 40 cm,
llevándose a cabo desde encima del ángulo esplénico del colon hasta
el recto.
Pueden producirse representaciones de datos
discretas de dicho objeto por otros métodos, además de la
exploración con escáner. A partir de un modelo geométrico, pueden
derivarse datos de elementos de volumen (voxeles) que representen un
objeto mediante técnicas descritas en la patente norteamericana
núm. 5.038.302, titulada "Método para convertir representaciones
geométricas tridimensionales continuas en representaciones
tridimensionales discretas, basadas en voxeles dentro de un sistema
tridimensional basado en voxeles", de Kaufman, expedida el 8 de
Agosto de 1991, presentada el 26 de Julio de 1988, que se incorpora
a esta memoria como referencia. Además, pueden producirse datos
mediante un modelo realizado por ordenador de una imagen que puede
convertirse en voxeles tridimensionales y explorarse de acuerdo con
este invento. Un ejemplo de este tipo de datos es una simulación
por ordenador de la turbulencia que rodea a una lanzadera
espacial.
El paso 104 convierte las imágenes exploradas en
elementos de volumen tridimensionales (voxeles). En la realización
preferida para examinar un colon, se cambia el formato de los datos
de exploración para obtener rebanadas de 5 mm de grueso a
incrementos de 1 mm o de 2,5 mm, representándose cada rebanada como
una matriz de 512 x 512 píxeles (elementos de imagen). Así, se
generan gran número de rebanadas en 2D, dependiendo de la longitud
de la exploración. El conjunto de rebanadas en 2D es reconstruido
entonces para obtener voxeles en 3D. El proceso de conversión de
las imágenes en 2D procedentes del escáner en voxeles de 3D puede
ejecutarse con la propia máquina de exploración o con una máquina
separada tal como un ordenador, por técnicas bien conocidas en este
campo (véase, por ejemplo, la patente norteamericana núm. 4.985.856,
titulada "Método y aparato para almacenar datos basados en
voxeles, acceder a ellos y tratarlos", de Kaufman y otros,
expedida el 15 de Enero de 1991, presentada el 11 de Noviembre de
1988, que se incorpora a esta memoria como referencia).
El paso 105 permite al operador definir la parte
del órgano seleccionado a examinar. Un médico puede estar
interesado en una sección particular del colon propensa a
desarrollar pólipos. El médico puede ver un mapa general de
rebanadas bidimensionales para indicar la sección a examinar. El
médico/operador, puede indicar un punto de partida y un punto de
llegada de una trayectoria a visualizar. Pueden utilizarse un
ordenador y una interconexión con el ordenador (por ejemplo, un
teclado, un ratón o una bola de control) usuales para designar la
parte del colon que ha de inspeccionarse. Puede utilizarse un
sistema de retícula de coordinación para la entrada por teclado o
para que el médico/operador pueda pulsar sobre los puntos deseados.
También puede verse, si así se desea, toda la imagen del colon.
En el paso 107 se lleva a cabo la operación de
navegación planeada o guiada del órgano virtual que se está
examinando. La ejecución de una operación de navegación guiada se
define como la navegación por un entorno siguiendo una trayectoria
de vuelo predefinida o predeterminada automáticamente, que un
operador puede ajustar manualmente en cualquier momento. Después de
que los datos de la exploración han sido convertidos a voxeles en
3D, debe recorrerse el interior del órgano, desde el punto de
partida seleccionado hasta el punto de llegada elegido. Se generan
modelos de los exámenes virtuales disponiendo una cámara diminuta
que se desplaza por el espacio virtual con un objetivo que apunta
hacia el punto de llegada. La técnica de navegación guiada
proporciona un nivel de interacción con la cámara, de forma que
puede hacerse que ésta navegue automáticamente por un entorno
virtual en el caso de que no haya interacción por parte del
operador y, al mismo tiempo, permite que el operador manipule la
cámara cuando sea necesario. La realización preferida a la hora de
conseguir una navegación guiada es utilizar un modelo de cámara con
base física que emplee campos de potencial para controlar el
movimiento de la cámara y que se describen con detalle en relación
con las Figs. 2 y 3.
El paso 109, que puede ejecutarse
concurrentemente con el paso 107, presenta la imagen del interior
del órgano desde el punto de vista del modelo de cámara siguiendo
la trayectoria seleccionada de la operación de navegación guiada.
Pueden generarsepresentaciones tridimensionales empleando técnicas
bien conocidas en este campo, tales como la técnica de los "cubos
marchantes". Sin embargo, con el fin de generar una presentación
en tiempo real del colon, se requiere una técnica que reduzca el
vasto número de cálculos que es necesario realizar sobre los datos
para visualizar el órgano virtual. La Fig. 9 muestra este paso de
presentación con mayor detalle.
El método descrito en la Figura 1 puede
aplicarse, también, a la exploración de múltiples órganos en un
cuerpo al mismo tiempo. Por ejemplo, un paciente puede ser sometido
a examen en busca de crecimientos cancerosos tanto en el colon como
en los pulmones. El método de la Figura 1 se modificaría para
explorar todas las áreas de interés en el paso 103 y para
seleccionar el órgano corriente a examinar en el paso 105. Por
ejemplo, el médico/operador puede seleccionar inicialmente el colon
para exploración virtual y, más tarde, explorar el pulmón.
Alternativamente, dos médicos con diferentes especialidades pueden
estudiar virtualmente diferentes órganos explorados relacionados
con sus respectivas especialidades. Después del paso 109, se
selecciona el siguiente órgano a examinar y se definirá y se
explorará su parte. Esto se continúa hasta que se hayan tratado
todos los órganos que necesiten ser examinados.
Los pasos descritos en conjunto con la Figura 1
pueden aplicarse, también, a la exploración de cualquier objeto que
pueda representarse mediante elementos de volumen. Por ejemplo, una
estructura arquitectónica o un objeto inanimado pueden
representarse y explorarse de la misma forma.
La Figura 2 representa un modelo de control de
cámara "submarina" que ejecuta la técnica de navegación guiada
en el paso 107. Cuando el operador no lleve a cabo un control
durante la navegación guiada, la navegación por defecto es similar a
la navegación planeada que, automáticamente, dirige la cámara
siguiendo una trayectoria de vuelo desde un extremo seleccionado
del colon hasta otro. Durante la fase de navegación planeada, la
cámara se mantiene en el centro del colon con el fin de tomar
mejores vistas de la superficie de éste. Cuando se encuentra una
región interesante, el operador de la cámara virtual puede
aproximar interactivamente la cámara, utilizando la navegación
guiada, a una región específica y dirigir el movimiento y el ángulo
de la cámara para estudiar con detalle la zona de interés, sin
chocar involuntariamente con las paredes del colon. El operador
puede controlar la cámara mediante un dispositivo de interconexión
estándar tal como un teclado, un ratón o un dispositivo no estándar
tal como una bola de control. Con el fin de hacer funcionar
completamente una cámara en un entorno virtual, es necesario que la
cámara tenga seis grados de libertad. La cámara debe poder moverse
en dirección horizontal, vertical y en la dirección Z (ejes 217),
así como poder girar en otros tres grados de libertad (ejes 219),
para permitir que la cámara se mueva y explore todos los lados y
ángulos de un entorno virtual. El modelo de cámara para navegación
guiada incluye una varilla 201 inextensible y sin peso que conecta
dos partículas x_{1} 203 y x_{2} 205, estando sometidas ambas
partículas a un campo 215 de potencial. El campo de potencial se
define de forma que sea máximo en las paredes del órgano con el fin
de empujar la cámara separándola de las paredes.
Las posiciones de las partículas vienen dadas por
x_{1} y x_{2} y se supone que tienen la misma masa m. Una
cámara está unida en la cabeza del submarino x_{1} 203, cuya
dirección de visión coincide con \overrightarrow{x_{2}x_{1}}. El
submarino puede trasladarse y girar alrededor del centro de
gravedad x del modelo cuando las dos partículas son afectadas por
las fuerzas generadas por el campo de potencial V(x) que se
define en lo que sigue, cualesquiera fuerzas de fricción y
cualquier fuerza externa simulada. Las relaciones entre x_{1},
x_{2} son como sigue:
x = (x, y,
z)
r = (rsen
\theta cos \phi,\ rsen \theta sen \phi,\ rcos
\theta),
x_{1} = x +
r,
(1)x_{2} = x -
r,
donde r, \theta y \phi son las
coordenadas polares del vector \overrightarrow{x\ x_{1}}. La
energía cinética del modelo, T, se define como la suma de las
energías cinéticas de los movimientos de x_{1} y de
x_{2}:
\hskip4,6cmT = \frac{m}{2}(\dot{x}^{2}_{1} + \dot{x}^{2}_{2})
\hskip4,9cm= m\dot{x}^{2} + m\dot{r}^{2}
(2)=
m(\dot{x}^{2} + \dot{y}^{2} + \dot{z}^{2}) +
mr^{2}(\dot{\theta}^{2} + \dot{\phi}^{2}\
sen^{2}\theta).
Entonces, se obtienen las ecuaciones para el
movimiento del modelo de submarino utilizando la ecuación de
LaGrange:
(3)\frac{d}{dt}\left(\frac{\partial
T}{\partial \dot{q}_{j}}\right) - \frac{\partial T}{\partial q_{j}}
= \sum\limits^{2}_{i=1}\left(F_{i} \cdot \frac{\partial
x_{i}}{\partial
q_{j}}\right),
donde las q_{j}s son las
coordenadas generalizadas del modelo y pueden considerarse como las
variables de tiempo t
como:
(4)(q_{1}, q_{2}, q_{3},
q_{4}, q_{5}, q_{6}) = (x, y, z, \theta, \phi, \Psi) =
q(t),
designando \Psi el ángulo de
balanceo de nuestro sistema de cámara, que se explicará más
adelante, Las F_{j}s se denominan las fuerzas generalizadas. El
control del submarino se realiza aplicando una fuerza externa
simulada a
x_{1},
F_{ext} =
(F_{x}, F_{y},
F_{z}),
y se supone que tanto x_{1} como
x_{2} son afectadas por las fuerzas generadas por el campo de
potencial y las fricciones que actúan en dirección opuesta a la
velocidad de cada partícula. Consiguientemente, las fuerzas
generalizadas se formulan como
sigue:
F_{1} =
-m\nabla V(x_{1}) - k\dot{x}_{1} +
F_{ext},
(5)F_{2} =
-m\nabla V(x_{2}) -
k\dot{x}_{2}
donde k designa el coeficiente de
fricción del sistema. La fuerza externa F_{ext} es aplicada por
el operador pulsando simplemente con el botón del ratón en la
dirección 207 deseada en la imagen generada, como se muestra en la
Fig. 2. Este modelo de cámara se movería, entonces, en esa
dirección. Esto le permite al operador controlar por lo menos cinco
grados de libertad de la cámara con una única pulsación del botón
del ratón. A partir de las Ecuaciones (2), (3) y (5) puede
deducirse que las aceleraciones de los cinco parámetros de nuestro
modelo de submarino
son:
\ddot{x} =
-\frac{1}{2}\left(\frac{\partial V(x_{1})}{\partial x} +
\frac{\partial V(x_{2})}{\partial x}\right) -
\frac{k\dot{x}}{m} +
\frac{F_{x}}{2m},
\ddot{y} =
-\frac{1}{2}\left(\frac{\partial V(x_{1})}{\partial y} +
\frac{\partial V(x_{2})}{\partial y}\right) -
\frac{k\dot{y}}{m} +
\frac{F_{y}}{2m},
\ddot{z} =
-\frac{1}{2}\left(\frac{\partial V(x_{1})}{\partial z} +
\frac{\partial V(x_{2})}{\partial z}\right) -
\frac{k\dot{z}}{m} +
\frac{F_{z}}{2m},
\ddot{\theta} = \phi^{2}\
sen\theta\
cos\theta
-\frac{1}{2r}\left[cos\theta
\left\{cos\phi \left(\frac{\partial V(x_{1})}{\partial x} +
\frac{\partial V(x_{2})}{\partial x} \right) + sen\phi
\left(\frac{\partial V(x_{1})}{\partial y} + \frac{\partial
V(x_{2})}{\partial y} \right) \right\}\right.
-\left.sen\theta \left(\frac{\partial
V(x_{1})}{\partial z} + \frac{\partial
V(x_{2})}{\partial z} \right) \right]
-\frac{k}{m} \dot{\theta} + \frac{1}{2mr}(F_{x}
cos\theta\ cos\phi + F_{y} cos\theta sen\phi -
F_{z}sen\theta),
\ddot{\phi} =
\frac{1}{sen\theta}\left[-2\dot{\theta}\dot{\phi}cos\theta\right.
-\frac{1}{2r}\left\{-sen\phi\left(\frac{\partial
V(x_{1})}{\partial x} + \frac{\partial
V(x_{2})}{\partial x}\right) + cos\phi\left(\frac{\partial
V(x_{1})}{\partial y} + \frac{\partial
V(x_{2})}{\partial y}\right)\right\}
-\left.\frac{k}{m} \dot{\phi} sen\theta +
\frac{1}{2mr}(-F_{x}sen\phi + F_{y}cos\phi)\right],
\hskip9,5cm(6)
donde \dot{x} y \ddot{x}
designan la primera y la segunda derivadas de x, respectivamente,
y
\left(\frac{\partial
V(x)}{\partial x}, \frac{\partial V(x)}{\partial y},
\frac{\partial V(x)}{\partial
z}\right)
\newpage
designa el gradiente del potencial en el punto x.
Los términos \dot{\phi}^{2} sen\thetacos\theta de
\ddot{\theta} y
-\frac{2\dot{\theta}\dot{\phi}cos\theta}{sen\theta}
de \ddot{\phi} se denominan
fuerza centrífuga y fuerza de Coriolis, respectivamente, y están
relacionadas con el intercambio de velocidades angulares del
submarino. Como el modelo carece del momento de inercia definido
para la varilla del submarino, estos términos tienden a causar un
desbordamiento del cálculo numérico de \dot{\phi}.
Afortunadamente estos términos sólo tienen importancia cuando las
velocidades angulares del modelo de submarino son significativas,
lo que esencialmente quiere decir que la cámara se mueve demasiado
rápido. Como no tiene sentido dejar que la cámara se mueva tan
deprisa, porque no podría verse el órgano en forma apropiada, estos
términos se minimizan en nuestra incorporación práctica con el fin
evitar el problema de
desbordamiento.
A partir de las tres primeras fórmulas de la
Ecuación (6), se ve que el submarino no puede ser propulsado por la
fuerza externa en contra del campo de potencial, si se satisface la
siguiente condición:
|\nabla
V(x_{1}) + \nabla V(x_{2})| >
\frac{|F_{ext}|}{m}
Dado que la velocidad del submarino y la fuerza
externa F_{ext} tienen límites superiores en nuestra
incorporación práctica, asignando valores de potencial
suficientemente elevados en las fronteras de los objetos se puede
garantizar que el submarino nunca choca contra los objetos ni
contra las paredes del entorno.
Como se ha mencionado previamente, ha de tenerse
en consideración el ángulo de balanceo \Psi del sistema de cámara.
Una opción posible le permite al operador el control total del
ángulo \Psi. Sin embargo, aunque el operador puede hacer girar la
cámara libremente alrededor de la varilla del modelo, se puede
desorientar fácilmente. La técnica preferida supone que la
dirección superior de la cámara está conectada con un péndulo de
masa m_{2} 301, que gira libremente en torno a la varilla del
submarino, como se muestra en la Figura 3. La dirección del
péndulo, r_{2}, se expresa como:
r_{2} =
r_{2}(cos\theta cos\phi sen\Psi + sen\phi cos\Psi, cos\theta
sen\phi sen\Psi - cos\phi cos\Psi, - sen\theta
sen\Psi).
Si bien es posible calcular el movimiento preciso
de este péndulo junto con el movimiento del submarino, esto hace
que las ecuaciones del sistema sean demasiado complicadas. Por
tanto, se supone que todas las coordenadas generalizadas excepto el
ángulo de balanceo \Psi son constantes, y definen así la energía
cinética independiente para el sistema de péndulo como:
T_{p} =
\frac{m_{2}}{2} \dot{r}^{2}_{2} = \frac{m_{2}r^{2}_{2}}{2}
\dot{\Psi}^{2}
Esto simplifica el modelo para el ángulo de
balanceo. Como, en este modelo, se supone que la fuerza de la
gravedad
F_{g} = m_{2}g
= (m_{2}g_{x}, m_{2}g_{y},
m_{2}g_{z})
actúa en el punto m_{2} de masa,
puede derivarse la aceleración de \Psi utilizando la ecuación de
LaGrange
como:
\ddot{\Psi} = \frac{1}{r_{2}}\{g_{2}(cos \theta
cos\phi cos\Psi - sen\phi sen\Psi)
+ g_{y}(cos\theta sen\phi cos\Psi + cos\phi
sen\Psi)
+ g_{z}(-sen\theta cos\Psi)\} -
\frac{k_{2}}{m_{2}} \dot{\Psi}
\hskip12cm(7)
A partir de las Ecuaciones (6) y (7), se calculan
asintóticamente las coordenadas generalizadas q(t) y sus
derivadas \dot{q}(t) utilizando series de Taylor como:
q(t +
h) = q(t) + h\dot{q}(t) + \frac{h^{2}}{2}\ddot{q}(t) +
O(h^{3}),
\dot{q}(t + h)
= \dot{q}(t) + h\ddot{q}(t) +
O(h^{2}),
para mover libremente el submarino.
Para suavizar el movimiento del submarino, se selecciona el escalón
de tiempo h con un valor de equilibrio entre tan pequeño como sea
posible para suavizar el movimiento y tan grande como sea necesario
para reducir el coste de los
cálculos.
El campo de potencial en el modelo de submarino
de la Figura 2 define los límites (paredes u otra materia) del
órgano virtual asignando un potencial elevado a los límites con el
fin de asegurar que la cámara submarina no choque con las paredes ni
con otros límites. Si el operador intenta entrar con el modelo de
cámara en una zona de potencial elevado, se impedirá que el modelo
de cámara lo haga a no ser que el operador desee examinar el órgano
más allá del límite o en el interior de un pólipo, por ejemplo. En
caso de realizar una colonoscopia virtual, se asigna un valor del
campo de potencial a cada pieza de datos volumétricos del colon
(elemento de volumen). Cuando en el paso 105 de la Fig. 1 se designa
una región particular de interés con un punto de partida y un punto
de llegada, los voxeles comprendidos en el área seleccionada del
colon explorado son identificados mediante el uso de operaciones de
bloqueo usuales. Subsiguientemente, se asigna un valor de potencial
a cada voxel x del volumen seleccionado basándose en los siguientes
tres valores de distancia: la distancia dt(x) desde el punto
de llegada, la distancia ds(x) desde la superficie del colon
y la distancia dc(x) desde el eje geométrico del espacio del
colon. dt(x) se calcula utilizando una estrategia de
crecimiento usual. La distancia ds(x) desde la superficie del
colon se calcula utilizando una técnica usual de crecimiento desde
los voxeles superficiales hacia dentro. Para determinar dc(x)
se extrae primero el eje geométrico del colon a partir del voxel y,
luego, se calcula dc(x) utilizando la estrategia usual de
crecimiento a partir del eje geométrico del colon.
Para calcular el eje geométrico del área de colon
seleccionada definida por el punto de partida especificado por el
usuario y el punto de llegada especificado por el usuario, se
localiza el valor máximo de ds(x) y se le llama dmax. Luego,
para cada voxel situado dentro del área de interés, se asigna un
valor de coste de dmax-ds(x). Así, los
voxeles que están cerca de la superficie del colon tienen elevados
valores de coste y los voxeles que se encuentran próximos al eje
geométrico tienen valores de coste relativamente bajos. Entonces,
basándose en la asignación de costes, se aplica la técnica de
trayectoria más corta de punto de partida único, bien conocida en
este campo, con el fin de calcular eficientemente una trayectoria
con el coste mínimo que vaya desde el punto de partida hasta el
punto de llegada. Esta línea de bajo coste indica el eje geométrico
o esqueleto de la sección de colon que se desea explorar. Esta
técnica de determinación del eje geométrico es la técnica preferida
del invento.
Para calcular el valor de potencial V(x)
para un voxel x situado dentro del área de interés, se emplea la
fórmula siguiente:
(8)V(x)
= C_{1}d_{t}(x)^{\mu} + C_{2}\left(\frac{d_{s}(x)}{d_{c}(x) +
d_{s}(x)}\right)^{-\nu}
donde C_{1} y C_{2}, \mu y
\nu son constantes seleccionadas para la tarea. Con el fin de
evitar cualquier colisión entre la cámara virtual y la superficie
virtual del colon, a todos los puntos situados fuera del colon se
les asigna un valor de potencial suficientemente elevado. El
gradiente del campo de potencial será, por tanto, significativo, de
forma que el modelo de cámara submarina nunca chocará con la pared
del colon cuando esté
funcionando.
Otra técnica para determinar el eje geométrico de
la trayectoria del colon se denomina técnica de "desprendimiento
de capa" y se ilustra desde la Figura 4 a la Figura 8.
La Figura 4 muestra una sección transversal en 2D
del colon volumétrico, representándose en ella las dos paredes
laterales 401 y 403 del colon. El operador selecciona dos paredes
de bloqueo con el fin de definir la sección del colon que tiene
interés por examinar. Más allá de las paredes de bloqueo no puede
verse nada más. Esto ayuda a reducir el número de cálculos cuando
se ofrece la representación visual. Las paredes de bloqueo, junto
con las paredes laterales, identifican una configuración
volumétrica contenida del colon que ha de explorarse.
La Figura 5 muestra dos puntos extremos de la
trayectoria de vuelo del examen virtual, el elemento de volumen 501
de partida y el elemento de volumen 503 de llegada. Los puntos de
partida y de llegada son seleccionados por el operador en el paso
105 de la Fig. 1. Los voxeles entre los puntos de partida y de
llegada y los lados del colon son identificados y marcados, como se
señala mediante el área designada con "x" en la Fig. 6. Los
voxeles son representaciones tridimensionales del elemento de
imagen.
Se aplica entonces la técnica de desprendimiento
de capas a los voxeles identificados y marcados en la Fig. 6. La
capa más exterior de todos los voxeles (la más próxima a las
paredes del colon) es desprendida paso a paso, hasta que solamente
queda una capa interna de voxeles. Dicho de otra forma, cada voxel
más alejado de un punto central es eliminado si su eliminación no
da lugar a una interrupción de la trayectoria entre el voxel de
partida y el voxel final. La Figura 7 representa el resultado
intermedio tras completarse varias repeticiones de desprendimiento
de los voxeles en el colon virtual. Los voxeles más próximos a las
paredes del colon han sido retirados. La Fig. 8 ilustra la
trayectoria de vuelo final para el modelo de cámara hacia abajo por
el centro del colon y se convierte en la trayectoria de vuelo
deseada para el modelo de cámara.
La Fig. 9 ilustra una técnica de visibilidad en
tiempo real para la presentación de imágenes virtuales vistas por
el modelo de cámara en la representación de volumen tridimensional
virtual de un órgano. La Figura 9 muestra una técnica de
presentación que emplea una memoria intermedia Z modificada que
corresponde al paso 109 en la Fig. 1. El número de voxeles que
podrían verse, posiblemente, desde el modelo de cámara es
extremadamente grande. A no ser que el número total de elementos (o
polígonos) que deban calcularse y visualizarse sea reducido a
partir de un conjunto completo de voxeles en el entorno explorado,
el número total de cálculos hará que el proceso de visualización
sea excesivamente lento para un área interna grande. Sin embargo, en
el presente invento, únicamente es necesario calcular, con fines de
presentación, las imágenes que sean visibles en la superficie del
colon. El entorno explorado puede subdividirse en secciones más
pequeñas o celdas. La técnica de memoria intermedia Z, entonces
solamente rellena e ilumina parte de las celdas que son visibles
desde la cámara. La técnica de la memoria intermedia Z se utiliza,
también, para representaciones tridimensionales de voxeles. El uso
de una memoria intermedia Z modificada reduce el número de voxeles
visibles a calcular y permite el examen en tiempo real del colon
virtual a un médico o un técnico sanitario.
El área de interés del que se ha calculado el eje
geométrico en el paso 107 se subdivide en celdas antes de aplicar la
técnica de presentación. Las celdas son grupos colectivos de
voxeles que se convierten en una unidad de visibilidad. Los voxeles
de cada celda serán presentados como un grupo. Cada celda contiene
varios portales a través de los que pueden verse las otras celdas.
El colon se subdivide comenzando en el punto de partida elegido y
moviéndose a lo largo del eje geométrico 1001 hacia el punto final.
Luego, se divide el colon en celdas (por ejemplo, las celdas 1003,
1005 y 1007 en la Fig. 10) cuando se alcanza una distancia umbral
predefinida a lo largo del eje geométrico. La distancia umbral se
basa en las especificaciones de la plataforma en que se ejecuta la
técnica de visualización y en sus posibilidades de almacenamiento y
tratamiento. El tamaño de la celda está directamente relacionado
con el número de voxeles que pueden almacenarse y tratarse con la
plataforma. Un ejemplo de una distancia umbral es de 5 cm, aunque
la distancia puede variar mucho. Cada celda tiene dos secciones
transversales como portales para ver el exterior de la celda, como
se muestra en la Fig. 10.
El paso 901 en la Fig. 9 identifica la celda que
contiene la cámara, en ese momento, dentro del órgano seleccionado.
La celda corriente será presentada, al igual que otras celdas
visibles dada la orientación de la cámara. El paso 903 genera un
árbol de visión directa (diagrama de árbol) de datos jerárquicos de
celdas potencialmente visibles desde la cámara (a través de
portales definidos), como se describirá con mayor detalle más
adelante. El árbol de visión directa contiene un nodo por cada celda
que pueda ser visible para la cámara. Algunas de las celdas pueden
ser transparentes, carentes de cuerpo de bloqueo alguno, de forma
que, en una única dirección será visible más de una celda. El paso
905 almacena un subconjunto de voxeles de una celda que incluyen la
intersección de bordes de celdas adyacentes y los almacena en el
borde exterior del árbol de visión directa con el fin de determinar
de la manera más efectiva, que celdas son visibles.
El paso 907 comprueba si en el árbol de visión
directa hay presente algún nodo en bucle. Un nodo en bucle se
produce cuando dos o más bordes de una sola celda son fronteras de
la misma celda vecina. Esto puede ocurrir cuando una sola celda
está rodeada por otra celda. Si en el árbol de visión directa se
identifica un nodo en bucle, el método continúa en el paso 909. Si
no hay ningún nodo en bucle, el proceso sigue al paso 911.
El paso 909 colapsa las dos celdas que
constituyen el nodo en bucle para formar una celda grande. El árbol
de visión directa es corregido, entonces, en consecuencia. Esto
elimina el problema de ver la misma celda dos veces debido a un nodo
en bucle. El paso se ejecuta en todos los nodos en bucle
identificados. Luego, el proceso continúa con el paso 911.
El paso 911 inicia entonces la memoria intermedia
Z con el máximo valor de Z. El valor Z define la distancia desde la
cámara a lo largo de la trayectoria del esqueleto. El árbol es
recorrido entonces para comprobar, en primer lugar, los valores de
intersección en cada nodo. Si una intersección de nodo está
cubierta, lo que quiere decir que la secuencia del portal corriente
está ocluida (lo cual está determinado por la prueba de la memoria
intermedia A), entonces se detiene el recorrido de la rama corriente
en el árbol. El paso 913 recorre cada una de las ramas para
comprobar si los nodos están cubiertos y los presenta si no lo
están.
El paso 915 construye entonces la imagen a
presentar en la pantalla del operador a partir de los elementos de
volumen dentro de las celdas visibles identificadas en el paso 913
utilizando una de diversas técnicas conocidas en este campo, tal
como el relleno y la iluminación de volúmenes por composición. Las
únicas celdas mostradas son las identificadas como potencialmente
visibles. Esta técnica limita el número de celdas que exigen
cálculos con el fin de conseguir una presentación en tiempo real y
aumenta en forma correspondiente la velocidad de la presentación
para conseguir un mejor rendimiento. Esta técnica constituye una
mejora con relación a técnicas anteriores, que calculan todos los
puntos de datos visibles, se les vea o no realmente.
La Figura 11A es una representación gráfica
bidimensional de un órgano que está siendo explorado por navegación
guiada y que ha de ser presentado a un operador. El órgano 1101
muestra dos paredes laterales 1102 y un objeto 1105 en el centro de
la trayectoria. El órgano ha sido dividido en cuatro celdas A 1151,
B 1153, C 1155 y D 1157. La cámara 1103 mira hacia la celda D 1157
y tiene un campo de visión definido por los vectores de visión
1107, 1108 que puede identificarse con un campo en forma de cono.
Las celdas que pueden ser vistas potencialmente son las celdas B
1153, C 1155 y D 1157. La celda C 1155 está rodeada completamente
por la celda B y, por tanto, constituye un nodo en bucle.
La Fig. 11B es una representación de un árbol de
visión directa construido a partir de las celdas de la Fig. 11A. El
nodo A 1109 que contiene la cámara se encuentra en la raíz del
árbol. Una línea o un cono de visión, que es una trayectoria de
visibilidad sin bloqueo alguno, es trazada hasta el nodo B 1110. El
nodo B tiene líneas de visión directas con visibilidad hacia el
nodo C 1112 y el nodo D 1114 y que se muestran mediante las flechas
de conexión. La línea de visión del nodo C 1112 en la dirección de
visión de la cámara, se combina con el nodo B 1110, el nodo C 1112
y, así, el nodo B 1110 será colapsado para formar un nodo grande B'
1122, como se muestra en la Fig. 11C.
La Fig. 11C muestra el nodo A 1109 que contiene
la cámara junto al nodo B' 1122 (que contiene el nodo B y el nodo C)
y el nodo D 1114. Los nodos A, B' y D serán presentados al operador,
por lo menos, parcialmente.
Las Figs. 12A -12E ilustran el uso de la memoria
intermedia Z modificada con celdas que contienen objetos que
obstruyen la visión. Un objeto podría ser un material residual en
una parte del colon virtual. La Fig. 12A muestra un espacio virtual
con 10 celdas potenciales: A 1251, B 1253, C 1255, D 1257, E 1259, F
1261, G 1263, H 1265, I 1267 y J 1269. Algunas de las celdas
contienen objetos. Si la cámara 1201 está posicionada en la celda I
1267 y mira hacia la celda F 1261, según se indica mediante los
vectores de visión 1203, entonces se genera un árbol de visión
directa de acuerdo con la técnica ilustrada por el diagrama de
proceso en la Fig. 9. La Fig. 12B muestra el árbol de visión
directa generado con los nodos de intersección que ilustra la
representación virtual como se muestra en la Fig. 12A. La Fig. 12B
representa la celda I 1267 como nodo raíz del árbol porque contiene
la cámara 1201. El nodo I 1211 apunta al nodo F 1213 (como se
indica mediante una flecha), porque la celda F está directamente
conectada con la línea de visión de la cámara. El nodo F 1213
apunta tanto al nodo B 1215 como al nodo E 1219. El nodo B 1215
apunta al nodo A 1217. El nodo C 1202 está completamente bloqueado
respecto a la línea de visión de la cámara 1201, por lo que no es
incluido en el árbol de visión directa.
La Fig. 12C ilustra el árbol de visión directa
después de que el nodo 1211 ha sido rellenado e iluminado en la
presentación para el operador. El nodo I 1211 es eliminado luego
del árbol de visión directa porque ya ha sido presentado y el nodo F
1213 se convierte en la raíz. La Fig. 12D muestra que el nodo F
1213 es, ahora, rellenado e iluminado para unirlo al nodo I 1211.
Se comprueban luego los siguientes nodos del árbol conectados por
flechas para ver si ya han sido cubiertos (han sido tratados). En
este ejemplo, han sido cubiertos todos los nodos intersecados desde
la cámara posicionada en la celda I 1267, de forma que el nodo B
515 (y, por tanto, el nodo A dependiente) no tienen que ser
rellenados e iluminados en la presentación.
La Fig. 12E muestra el nodo E 515 que está siendo
comprobado para determinar si su intersección ha sido cubierta. Como
lo ha sido, los únicos nodos que se rellenan e iluminan en este
ejemplo de las Figuras 12A-12E, son los nodos I y F,
mientras que los nodos A, B y E no son visibles y no es necesario
preparar sus celdas para ser presentadas.
La técnica de memoria intermedia Z modificada
ilustrada en la Figura 9 permite realizar menos cálculos y puede
aplicarse a un objeto que ha sido representado mediante voxeles u
otros elementos de datos, tales como polígonos.
La Figura 13 muestra una vista virtual
bidimensional de un colon con un gran pólipo presente en una de sus
paredes. La Figura 13 ilustra una sección seleccionada del colon de
un paciente que ha de ser examinado adicionalmente. La vista muestra
las dos paredes 1301 y 1303 del colon con el crecimiento indicado
como 1305. Las capas 1307, 1309 y 1311 ilustran capas internas del
crecimiento. Es deseable que el médico pueda desprender las capas
del pólipo o tumor para ver el interior de la masa en busca de
cualquier material canceroso o peligroso de otro tipo. Este proceso
realizaría, en efecto, una biopsia virtual de la masa sin cortarla
realmente. Una vez representado virtualmente el colon mediante
voxeles, el proceso de desprender capas de un objeto se lleva a cabo
fácilmente de manera similar a la descrita en conjunto con las
Figs. 4 a 8. La masa puede ser cortada, también, en rebanadas de
manera que pueda examinarse una sección transversal particular. En
la Fig. 13 puede realizarse un corte plano 1313 de modo que pueda
examinarse una porción particular del crecimiento. Además, en el
crecimiento puede "cortarse" de cualquier manera una rebanada
1319 definida por el usuario. Los voxeles 1319 pueden ser
desprendidos o modificados como se explica en lo que sigue.
Puede ejecutarse una función de transferencia en
cada voxel del área de interés que puede convertir el objeto en
transparente, semitransparente u opaco alterando los coeficientes
que representan el nivel de transparencia de cada voxel. A cada
voxel se le asigna un coeficiente de opacidad basándose en su
densidad. Una función de correlación transforma luego el valor de
densidad en un coeficiente que representa su transparencia. Un
voxel explorado de alta densidad indicará una pared u otra materia
densa, además de, simplemente, un espacio abierto. Un operador o
una rutina del programa podría cambiar entonces el coeficiente de
opacidad de un voxel o de un grupo de ellos para hacer que parezcan
transparentes o semitransparentes para el modelo de cámara
submarina. Por ejemplo, un operador puede ver un tumor en el
interior o el exterior de todo un crecimiento. O se hará que un
voxel transparente aparezca como si no existiese para el paso de
presentación de la Figura 9. Puede crearse una composición de una
sección del objeto utilizando una media ponderada de los
coeficientes de opacidad de los voxeles de esa sección.
Si un médico quiere ver las diversas capas de un
pólipo para buscar áreas cancerosas, lo puede hacer retirando la
capa externa del pólipo 1305 para ofrecer una primera capa 1307.
Además, la primera capa interna 1307 puede ser desprendida para ver
una segunda capa interna 1309. La segunda capa interna puede ser
desprendida para ver una tercera capa interna 1311, etc. El médico
también podría cortar en rebanadas el pólipo 1305 y ver solamente
esos voxeles dentro de una sección deseada. El área de corte de las
rebanadas puede ser definida totalmente por el usuario.
La adición de un coeficiente de opacidad también
puede aprovecharse de otras maneras para facilitar la exploración de
un sistema virtual. Si está presente material residual y éste tiene
una densidad y otras propiedades comprendidas dentro de un cierto
margen conocido, el residuo puede hacerse transparente a la cámara
virtual cambiando el coeficiente de opacidad durante el examen. Esto
permitirá que el paciente no tenga que ingerir un agente para
limpiar el intestino antes de la intervención y hace que el examen
sea más rápido y más fácil. Igualmente, pueden hacerse desaparecer
otros objetos, dependiendo de la aplicación real. Además, la
imagen de algunos objetos tales como los pólipos podría mejorarse
electrónicamente mediante un agente de contraste seguido por el uso
de una función de transferencia apropiada.
La Figura 14 muestra un sistema para llevar a
cabo el examen virtual de un objeto tal como un órgano humano
haciendo uso de las técnicas descritas en la memoria. El paciente
1401 se encuentra tendido en una plataforma 1402 mientras el
dispositivo de exploración 1405 explora el área que contiene el o
los órganos que han de examinarse. El dispositivo de exploración
1405 contiene una parte de exploración 1403 que realmente toma
imágenes del paciente y una parte electrónica 1406. La parte
electrónica 1406 comprende una interconexión 1407, una unidad
central de tratamiento 1409, una memoria 1411 para almacenar
temporalmente los datos de exploración, y una segunda interconexión
1413 para enviar datos a la plataforma de navegación virtual. Las
interconexiones 1407 y 1413 podrían estar incluidas en un único
componente de interconexión o podrían ser el mismo componente. Los
componentes de la parte 1406 están conectados entre sí mediante
conectadores usuales.
En el sistema 1400, los datos proporcionados por
la parte de exploración del dispositivo 1403 se transfieren a la
parte 1405 para su tratamiento y son almacenados en la memoria
1411. La unidad central de tratamiento 1409 convierte los datos en
2D explorados en datos de voxeles en 3D y almacena el resultado en
otra parte de la memoria 1411. Alternativamente, los datos
convertidos podrían ser enviados directamente a la unidad 1413 de
interconexión para ser transmitidos al terminal 1416 de navegación
virtual. La conversión de los datos en 2D podría tener lugar,
también, en el terminal 1416 de navegación virtual después de ser
transmitidos desde la interconexión 1413. En la realización
preferida, los datos convertidos se transmiten por el portador 1414
al terminal 1416 de navegación virtual con el fin de que un operador
lleve a cabo el examen virtual. Los datos también podrían ser
transportados de otras formas usuales, tal como guardando los datos
en un medio de almacenamiento y transportando éste físicamente al
terminal 1416 o utilizando transmisiones por satélite.
Los datos explorados pueden no ser convertidos en
su representación en 3D hasta que el motor de relleno e iluminación
para visualización necesite que estén en 3D. Esto ahorra pasos de
cálculo y espacio de almacenamiento en memoria.
El terminal 1416 de navegación virtual incluye
una pantalla para ver el órgano virtual u otra imagen explorada, una
parte 1415 de electrónica y un control 1419 de interconexión tal
como un teclado, un ratón o una bola de control. La parte 1415 de
electrónica comprende una puerta 1421 de interconexión, una unidad
central de tratamiento 1423, otros componentes 1427 necesarios para
que funcione el terminal y una memoria 1425. Los componentes del
terminal 1416 están conectados entre sí mediante conectadores
usuales. Los datos de voxeles convertidos se reciben en la puerta
1421 de interconexión y se guardan en la memoria 1425. La unidad
central de tratamiento 1423 ensambla luego los voxeles en 3D para
armar una representación virtual y hace funcionar el modelo de
cámara submarina como se describe en relación con las Figuras 2 y 3,
para llevar a cabo el examen virtual. A medida que la cámara
submarina se desplaza a través del órgano virtual, se utiliza la
técnica de visibilidad descrita en relación con la Figura 9 para
calcular solamente aquellas áreas que son visibles por la cámara
virtual y presentarlas en la pantalla 1417. Puede utilizarse,
también, un acelerador de gráficos para generar las
representaciones. El operador puede utilizar el dispositivo de
interconexión 1419 para indicar qué parte del cuerpo explorado se
desea examinar. El dispositivo de interconexión 1419 puede
utilizarse, además, para controlar y mover la cámara submarina según
se desee, como se ilustra en la Figura 2 y se expone en la
descripción que la acompaña. La parte terminal 1415 puede ser el
módulo de sistema dedicado Cube-4 disponible,
generalmente, del Departamento de Ciencias de Computación de la
Universidad Estatal de Nueva York, en Stony Brook.
El dispositivo de exploración 1405 y el terminal
1416 o partes de los mismos, pueden formar parte de la misma unidad.
Se utilizaría una única plataforma para recibir los datos de las
imágenes de exploración, conectarlos con los voxeles en 3D si es
necesario y realizar la navegación guiada.
Una característica importante del sistema 1400 es
que el órgano virtual puede ser examinado en un momento posterior,
sin exigir la presencia del paciente. Además, el examen virtual
podría tener lugar mientras se le está realizando la exploración al
paciente. Los datos de exploración pueden, también, ser enviados a
múltiples terminales que permitirían que más de un médico viesen,
simultáneamente, el interior del órgano. Así, un médico en Nueva
York podría estar mirando la misma parte de un órgano de un
paciente a la vez que un médico en California, mientras discutían el
caso. Alternativamente, los datos pueden verse en momentos
diferentes. En casos difíciles, dos o más médicos podrían realizar
su propio examen de los mismos datos. Podrían utilizarse múltiples
terminales de navegación virtual para ver los mismos datos de una
exploración. Reproduciendo el órgano como un órgano virtual con un
conjunto discreto de datos se pueden deducir muchos beneficios en
áreas tales como precisión, costes y posibles manipulaciones de los
datos.
En lo que antecede simplemente se ilustran los
principios del invento. Los expertos en la técnica apreciarán que
será posible desarrollar numerosos sistemas, aparatos y métodos
que, aunque no se muestran ni se describen explícitamente en este
documento, incorporan los principios del invento y, por tanto, caen
dentro del espíritu y del alcance del invento como queda definido
por sus reivindicaciones.
Por ejemplo, los métodos y sistemas descritos en
este documento podrían aplicarse para examinar virtualmente un
animal, pez o un objeto inanimado. Además de los usos establecidos
en el campo médico, las aplicaciones de la técnica podrían
utilizarse para detectar el contenido de objetos cerrados, que no
puedan abrirse. La técnica podría utilizarse, también, dentro de
una estructura arquitectónica tal como un edificio o una cueva y le
permitiría al operador navegar a través de la estructura.
Claims (38)
1. Un método para realizar un examen virtual
tridimensional de, al menos, un objeto, comprendiendo dicho método
los pasos de:
- explorar (103) dicho objeto con un dispositivo de exploración y generar datos de exploración bidimensionales representativos del mencionado objeto;
- convertir (104) dichos datos de exploración bidimensionales en un conjunto de elementos de volumen tridimensionales, creando así una representación tridimensional con volumen del citado objeto;
- calcular (105) una trayectoria definida dentro de dicha representación tridimensional con volumen;
- utilizar una cámara virtual (201, 203, 205) para llevar a cabo una navegación guiada (107) de dicha representación tridimensional siguiendo la citada trayectoria; y
- presentar (109), en tiempo real, dichos elementos de volumen en un dispositivo de presentación,
- caracterizándose dicho método porque se proporciona una fase de navegación controlada por un usuario, para navegar desde dicha trayectoria a fin de permitir el ajuste manual de dicha navegación guiada, empleando dicha fase controlada por el usuario valores de campo de potencial (215) para controlar el movimiento de dicha cámara (201, 203, 205) de acuerdo con el paso de:
- calcular un valor de campo de potencial para cada uno de dichos elementos de volumen, de tal forma que dichos valores de campo de potencial definan una fuerza virtual sobre la citada cámara (201, 203, 205) durante dicho examen virtual, en el que se impide que dicha cámara choque con los límites del mencionado objeto mediante el cálculo de los valores de campo de potencial más elevados para dichos límites de dicho objeto y los valores de campo de potencial menores a lo largo de dicha trayectoria definida.
2. El método de la reivindicación 1, en el que
dicha fase de navegación controlada por el usuario se configura
para permitirle a un usuario ajustar la posición y el ángulo de
visión de la citada cámara virtual hacia una parte de interés
particular de dicha representación tridimensional con volumen del
mencionado objeto.
3. El método de la reivindicación 1, en el que
dicha trayectoria definida está situada aproximadamente
equidistante de las paredes externas de dicho objeto.
4. El método de la reivindicación 1, en el que
dicho objeto es un órgano humano.
5. El método de la reivindicación 4, en el que
dicho órgano es el colon.
6. El método de la reivindicación 4, en el que
dicho órgano es un pulmón.
7. El método de la reivindicación 4, en el que
dicho órgano es, al menos, un vaso sanguíneo.
8. El método de la reivindicación 1, en el que
dicho paso de presentación incluye identificar cada uno de dichos
elementos de volumen que son visibles a lo largo de dicha
trayectoria.
9. El método de la reivindicación 8, en el que
dicha identificación se realiza utilizando una estructura de datos
jerárquica que contiene datos de visión.
10. El método de la reivindicación 1, en el que
la posición de dicha cámara virtual puede cambiarse con seis grados
de libertad.
11. El método de la reivindicación 1, en el que
dicha trayectoria es preseleccionada y, además, permite cambios de
orientación de dicha cámara basados en una entrada realizada por un
operador.
12. El método de la reivindicación 11, en el que
dicho examen virtual solamente presenta dichos elementos de volumen
en un cono de visión de dicha cámara virtual.
13. El método de la reivindicación 1, en el que
dicho paso de navegación incluye seleccionar un eje geométrico
eliminando los elementos de volumen más próximos a las paredes del
citado objeto hasta que sólo quede una trayectoria.
14. El método de la reivindicación 1, en el que
dicho examen virtual incluye, además, un paso de cálculo de
coeficientes de opacidad para cada uno de dichos elementos de
volumen.
15. El método de la reivindicación 14, en el que
dichos coeficientes de opacidad de elementos de volumen
seleccionados se cambian en respuesta a entradas realizadas por un
operador.
16. El método de la reivindicación 15, en el que
dichos elementos de volumen con coeficientes de opacidad bajos no
se visualizan durante dicho paso de presentación.
17. El método de la reivindicación 16, en el que
se cambia el coeficiente de opacidad de, al menos, uno de dichos
elementos de volumen de forma que dicho elemento de volumen
cambiado no se visualice en dicho paso de presentación.
18. El método de la reivindicación 15, en el que
dichos elementos de volumen se presentan como traslúcidos en un
grado que responde a dichos coeficientes de opacidad de los citados
elementos de volumen.
19. El método de la reivindicación 1, en el que
se cambian datos asociados con, al menos, uno de los elementos de
volumen, de forma que dicho elemento de volumen cambiado no se
visualice en dicho paso de presentación.
20. El método de la reivindicación 1, que
comprende además el paso de preparar el objeto para su
exploración.
21. El método de la reivindicación 20, en el que
dicho paso de preparación incluye recubrir dicho objeto con una
sustancia para mejorar el contraste del citado objeto con fines de
exploración.
22. El método de la reivindicación 1, en el que
dicho paso de generar una representación de datos discretos del
mencionado objeto incluye crear una imagen de voxeles a partir de
un modelo geométrico.
23. El método de la reivindicación 1, en el que
dicho objeto comprende un órgano y dicho dispositivo de exploración
comprende un dispositivo de exploración radiológica.
24. El método de la reivindicación 23, en el que
dicho paso de presentación incluye identificar cada uno de dichos
elementos de volumen que son visibles a lo largo de dicha
trayectoria.
25. El método de la reivindicación 24, en el que
dicha identificación se realiza utilizando una estructura de datos
jerárquica que contiene datos de visión.
26. El método de la reivindicación 23, que
comprende, además, el paso de preparar el órgano para exploración,
en el que dicho paso de preparación incluye limpiar dicho órgano de
objetos móviles.
27. El método de la reivindicación 26, en el que
dicho paso de preparación incluye recubrir dicho órgano con una
sustancia para mejorar el contraste de dicho órgano al
explorarlo.
28. Un sistema para realizar un examen virtual
tridimensional de un objeto, que comprende:
- un aparato de exploración (103) para generar datos de exploración bidimensionales representativos del mencionado objeto;
- un aparato (104) para convertir dichos datos de exploración bidimensionales en un conjunto de elementos de volumen tridimensionales, creando así una representación tridimensional con volumen del citado objeto;
- un aparato (105) para calcular una trayectoria definida dentro de dicha representación tridimensional con volumen;
- un aparato de cámara virtual (201, 203, 205) para llevar a cabo una navegación guiada de dicha representación tridimensional siguiendo la citada trayectoria; y
- un aparato (109) para presentar, en tiempo real, dichos elementos de volumen en un dispositivo de presentación,
- caracterizándose dicho sistema porque:
- dicho aparato para realizar dicha navegación guiada está configurado para proporcionar una fase de navegación controlada por un usuario, para navegar desde dicha trayectoria, permitiendo por tanto el ajuste manual de dicha navegación guiada, empleando dicha fase controlada por el usuario valores de campo de potencial (215) para controlar el movimiento de dicha cámara (201, 203, 205) de acuerdo con el paso de:
- calcular un valor de campo de potencial para cada uno de dichos elementos de volumen, de tal forma que los valores de campo de potencial definan una fuerza virtual sobre la citada cámara durante dicho examen virtual, en el que se impide que dicha cámara choque con los límites del mencionado objeto mediante el cálculo de los valores de campo de potencial más elevados para dichos límites de dicho objeto y los valores de campo de potencial menores a lo largo de dicha trayectoria definida.
29. El sistema de la reivindicación 28, en el que
dicha fase de navegación controlada por el usuario se configura
para permitir que un usuario ajuste la posición y el ángulo de
visión de la citada cámara virtual hacia una parte de interés
particular de dicha representación tridimensional con volumen del
mencionado objeto.
30. El sistema de la reivindicación 28, en el que
dichos elementos de datos tridimensionales incluyen coeficientes de
opacidad y dicho aparato de presentación es sensible a dichos
coeficientes de opacidad.
31. El sistema de la reivindicación 30, en el que
dicho aparato para realizar dicha navegación guiada es capaz de
cambiar los coeficientes de opacidad de elementos de datos de
volumen seleccionados.
32. El sistema de la reivindicación 31, en el que
dicho aparato de presentación es capaz de presentar un elemento de
volumen como traslúcido en respuesta a dichos coeficientes de
opacidad.
33. El sistema de la reivindicación 28, en el que
dicho aparato de conversión y dicho aparato para realizar dicha
navegación guiada están contenidos en una sola unidad.
34. El sistema de la reivindicación 28, en el que
dicho aparato para generar una representación de dicho objeto
genera datos de exploración y dichos datos de exploración se
almacenan por separado de dicho aparato de conversión.
35. El sistema de la reivindicación 28, en el que
dicho aparato para generar una representación del mencionado objeto
genera datos de exploración y dichos datos de exploración se
almacenan por separado de dicho aparato de selección.
36. El sistema de la reivindicación 28, que
incluye, además, al menos un aparato de selección, un aparato para
realizar dicha navegación guiada y un aparato de presentación
adicionales, para realizar exámenes tridimensionales virtuales,
adicionales, del mencionado objeto.
37. El sistema de la reivindicación 28, en el que
dicho objeto comprende un órgano humano.
38. El sistema de la reivindicación 28, en el que
dicho aparato de presentación es capaz de presentar un elemento de
volumen como traslúcido.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US714697 | 1996-09-16 | ||
| US08/714,697 US5971767A (en) | 1996-09-16 | 1996-09-16 | System and method for performing a three-dimensional virtual examination |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2234029T3 true ES2234029T3 (es) | 2005-06-16 |
Family
ID=24871098
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES97941036T Expired - Lifetime ES2234029T3 (es) | 1996-09-16 | 1997-09-10 | Sistema y metodo para realizar un examen virtual tridimensional. |
Country Status (12)
| Country | Link |
|---|---|
| US (1) | US5971767A (es) |
| EP (3) | EP1492071A1 (es) |
| JP (1) | JP2001502197A (es) |
| KR (1) | KR20000036177A (es) |
| CN (1) | CN1265331C (es) |
| AT (1) | ATE283528T1 (es) |
| AU (1) | AU734557B2 (es) |
| CA (1) | CA2265808C (es) |
| DE (1) | DE69731775T2 (es) |
| ES (1) | ES2234029T3 (es) |
| IL (1) | IL128884A (es) |
| WO (1) | WO1998011524A1 (es) |
Families Citing this family (181)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5782762A (en) * | 1994-10-27 | 1998-07-21 | Wake Forest University | Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen |
| US6694163B1 (en) | 1994-10-27 | 2004-02-17 | Wake Forest University Health Sciences | Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen |
| US5920319A (en) * | 1994-10-27 | 1999-07-06 | Wake Forest University | Automatic analysis in virtual endoscopy |
| US7486811B2 (en) * | 1996-09-16 | 2009-02-03 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual examination of objects, such as internal organs |
| US7194117B2 (en) * | 1999-06-29 | 2007-03-20 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual examination of objects, such as internal organs |
| US6343936B1 (en) | 1996-09-16 | 2002-02-05 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual examination, navigation and visualization |
| US6331116B1 (en) | 1996-09-16 | 2001-12-18 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual segmentation and examination |
| US8682045B2 (en) * | 1997-02-25 | 2014-03-25 | Wake Forest University Health Sciences | Virtual endoscopy with improved image segmentation and lesion detection |
| JP4063933B2 (ja) * | 1997-12-01 | 2008-03-19 | オリンパス株式会社 | 手術シミュレーション装置 |
| US6928314B1 (en) | 1998-01-23 | 2005-08-09 | Mayo Foundation For Medical Education And Research | System for two-dimensional and three-dimensional imaging of tubular structures in the human body |
| JP2002504385A (ja) | 1998-02-23 | 2002-02-12 | アルゴテック システムズ リミテッド | 自動経路立案方法 |
| DE19835215C2 (de) * | 1998-08-05 | 2000-07-27 | Mannesmann Vdo Ag | Kombinationsinstrument |
| US6771262B2 (en) * | 1998-11-25 | 2004-08-03 | Siemens Corporate Research, Inc. | System and method for volume rendering-based segmentation |
| US7747055B1 (en) | 1998-11-25 | 2010-06-29 | Wake Forest University Health Sciences | Virtual endoscopy with improved image segmentation and lesion detection |
| US6314125B1 (en) * | 1998-12-09 | 2001-11-06 | Qualcomm Incorporated | Method and apparatus for the construction and transmission of binary quasi orthogonal vectors |
| DE69927001T2 (de) | 1999-01-04 | 2006-06-08 | Koninklijke Philips Electronics N.V. | Verfahren, system und vorrichtung zur verarbeitung eines eine röhrenartige struktur darstellenden bildes und zur bestimmung eines pfades durch die genannte struktur |
| US6694057B1 (en) * | 1999-01-27 | 2004-02-17 | Washington University | Method and apparatus for processing images with curves |
| US9572519B2 (en) | 1999-05-18 | 2017-02-21 | Mediguide Ltd. | Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors |
| US7386339B2 (en) | 1999-05-18 | 2008-06-10 | Mediguide Ltd. | Medical imaging and navigation system |
| US7343195B2 (en) * | 1999-05-18 | 2008-03-11 | Mediguide Ltd. | Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation |
| US7815590B2 (en) | 1999-08-05 | 2010-10-19 | Broncus Technologies, Inc. | Devices for maintaining patency of surgically created channels in tissue |
| US6621918B1 (en) | 1999-11-05 | 2003-09-16 | H Innovation, Inc. | Teleradiology systems for rendering and visualizing remotely-located volume data sets |
| US6488507B1 (en) * | 1999-11-29 | 2002-12-03 | Ethicon, Inc. | Portable surgical trainer |
| AU2001239926A1 (en) * | 2000-02-25 | 2001-09-03 | The Research Foundation Of State University Of New York | Apparatus and method for volume processing and rendering |
| US6477401B1 (en) * | 2000-03-10 | 2002-11-05 | Mayo Foundation For Medical Education And Research | Colonography of an unprepared colon |
| US6468203B2 (en) * | 2000-04-03 | 2002-10-22 | Neoguide Systems, Inc. | Steerable endoscope and improved method of insertion |
| US8517923B2 (en) | 2000-04-03 | 2013-08-27 | Intuitive Surgical Operations, Inc. | Apparatus and methods for facilitating treatment of tissue via improved delivery of energy based and non-energy based modalities |
| US6858005B2 (en) | 2000-04-03 | 2005-02-22 | Neo Guide Systems, Inc. | Tendon-driven endoscope and methods of insertion |
| US8888688B2 (en) | 2000-04-03 | 2014-11-18 | Intuitive Surgical Operations, Inc. | Connector device for a controllable instrument |
| US6610007B2 (en) | 2000-04-03 | 2003-08-26 | Neoguide Systems, Inc. | Steerable segmented endoscope and method of insertion |
| US6947784B2 (en) * | 2000-04-07 | 2005-09-20 | The General Hospital Corporation | System for digital bowel subtraction and polyp detection and related techniques |
| AU2001268217A1 (en) * | 2000-06-06 | 2001-12-17 | The Research Foundation Of State University Of New York | Computer aided visualization, fusion and treatment planning |
| AU2001296506A1 (en) | 2000-10-02 | 2002-04-15 | The Research Foundation Of State University Of New York | Centerline and tree branch skeleton determination for virtual objects |
| WO2002041767A1 (en) * | 2000-11-25 | 2002-05-30 | Infinitt Co., Ltd. | System and method for displaying a virtual endoscopy and computer readable medium storing thereof |
| KR100426396B1 (ko) * | 2000-11-28 | 2004-04-08 | 김종찬 | 3차원 영상처리방법을 이용한 가상 내시경 방법 |
| IL140136A (en) * | 2000-12-06 | 2010-06-16 | Intumed Ltd | Apparatus for self-guided intubation |
| US7630750B2 (en) * | 2001-02-05 | 2009-12-08 | The Research Foundation For The State University Of New York | Computer aided treatment planning |
| DE10119454A1 (de) * | 2001-04-20 | 2002-10-31 | Siemens Ag | Verfahren zur navigationsgestützten bildlichen Darstellung positionsabhängiger Messinformationen von längsförmigen Körperorganen |
| US7202851B2 (en) | 2001-05-04 | 2007-04-10 | Immersion Medical Inc. | Haptic interface for palpation simulation |
| US7043064B2 (en) * | 2001-05-04 | 2006-05-09 | The Board Of Trustees Of The Leland Stanford Junior University | Method for characterizing shapes in medical images |
| JP2004529715A (ja) * | 2001-05-15 | 2004-09-30 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 多次元データ・セットの分析 |
| US7056123B2 (en) | 2001-07-16 | 2006-06-06 | Immersion Corporation | Interface apparatus with cable-driven force feedback and grounded actuators |
| US7130457B2 (en) * | 2001-07-17 | 2006-10-31 | Accuimage Diagnostics Corp. | Systems and graphical user interface for analyzing body images |
| US20030028401A1 (en) * | 2001-07-17 | 2003-02-06 | Leon Kaufman | Customizable lung report generator |
| US6901277B2 (en) * | 2001-07-17 | 2005-05-31 | Accuimage Diagnostics Corp. | Methods for generating a lung report |
| US7039723B2 (en) | 2001-08-31 | 2006-05-02 | Hinnovation, Inc. | On-line image processing and communication system |
| US7596256B1 (en) | 2001-09-14 | 2009-09-29 | The Research Foundation For The State University Of New York | Computer assisted detection of lesions in volumetric medical images |
| US7324104B1 (en) * | 2001-09-14 | 2008-01-29 | The Research Foundation Of State University Of New York | Method of centerline generation in virtual objects |
| FR2831698A1 (fr) * | 2001-10-30 | 2003-05-02 | Koninkl Philips Electronics Nv | Station d'imagerie medicale a fonction d'extraction de trajectoire au sein d'un objet ramifie |
| US20030132936A1 (en) * | 2001-11-21 | 2003-07-17 | Kevin Kreeger | Display of two-dimensional and three-dimensional views during virtual examination |
| US6711231B2 (en) * | 2001-12-10 | 2004-03-23 | Ge Medical Systems Global Technology Company, Llc | Methods and apparatus to assist and facilitate vessel analysis |
| US20030152897A1 (en) * | 2001-12-20 | 2003-08-14 | Bernhard Geiger | Automatic navigation for virtual endoscopy |
| US7570802B2 (en) * | 2001-12-27 | 2009-08-04 | The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services | Automated centerline detection algorithm for colon-like 3D surfaces |
| KR100439756B1 (ko) * | 2002-01-09 | 2004-07-12 | 주식회사 인피니트테크놀로지 | 3차원 가상내시경 화면 표시장치 및 그 방법 |
| CN1764416A (zh) | 2002-01-09 | 2006-04-26 | 新引导系统公司 | 用于内窥镜结肠切除术的设备和方法 |
| US7224827B2 (en) * | 2002-09-27 | 2007-05-29 | The Board Of Trustees Of The Leland Stanford Junior University | Method for matching and registering medical image data |
| US7346209B2 (en) * | 2002-09-30 | 2008-03-18 | The Board Of Trustees Of The Leland Stanford Junior University | Three-dimensional pattern recognition method to detect shapes in medical images |
| US7272251B2 (en) * | 2002-09-30 | 2007-09-18 | The Board Of Trustees Of The Leland Stanford Junior University | Method for detecting and classifying a structure of interest in medical images |
| US7260250B2 (en) * | 2002-09-30 | 2007-08-21 | The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services | Computer-aided classification of anomalies in anatomical structures |
| JP4346297B2 (ja) * | 2002-10-22 | 2009-10-21 | 株式会社東芝 | X線コンピュータ断層撮影装置、画像処理装置及び画像処理方法 |
| US8882657B2 (en) | 2003-03-07 | 2014-11-11 | Intuitive Surgical Operations, Inc. | Instrument having radio frequency identification systems and methods for use |
| WO2004083944A2 (en) * | 2003-03-18 | 2004-09-30 | The General Hospital Corporation | Polarized light devices and methods |
| JP3810381B2 (ja) * | 2003-04-25 | 2006-08-16 | オリンパス株式会社 | 画像表示装置、画像表示方法および画像表示プログラム |
| CN101288582A (zh) * | 2003-04-25 | 2008-10-22 | 奥林巴斯株式会社 | 图像显示装置和图像显示方法 |
| US7457444B2 (en) * | 2003-05-14 | 2008-11-25 | Siemens Medical Solutions Usa, Inc. | Method and apparatus for fast automatic centerline extraction for virtual endoscopy |
| WO2004109538A1 (en) * | 2003-06-07 | 2004-12-16 | Samsung Electronics Co. Ltd. | Apparatus and method for organization and interpretation of multimedia data on a recording medium |
| US7822461B2 (en) * | 2003-07-11 | 2010-10-26 | Siemens Medical Solutions Usa, Inc. | System and method for endoscopic path planning |
| US7850456B2 (en) * | 2003-07-15 | 2010-12-14 | Simbionix Ltd. | Surgical simulation device, system and method |
| US20050015004A1 (en) * | 2003-07-17 | 2005-01-20 | Hertel Sarah Rose | Systems and methods for combining an anatomic structure and metabolic activity for an object |
| US8308682B2 (en) | 2003-07-18 | 2012-11-13 | Broncus Medical Inc. | Devices for maintaining patency of surgically created channels in tissue |
| US8002740B2 (en) | 2003-07-18 | 2011-08-23 | Broncus Technologies, Inc. | Devices for maintaining patency of surgically created channels in tissue |
| US20050074150A1 (en) * | 2003-10-03 | 2005-04-07 | Andrew Bruss | Systems and methods for emulating an angiogram using three-dimensional image data |
| US20050116957A1 (en) * | 2003-11-03 | 2005-06-02 | Bracco Imaging, S.P.A. | Dynamic crop box determination for optimized display of a tube-like structure in endoscopic view ("crop box") |
| US20050110791A1 (en) * | 2003-11-26 | 2005-05-26 | Prabhu Krishnamoorthy | Systems and methods for segmenting and displaying tubular vessels in volumetric imaging data |
| US20050143654A1 (en) * | 2003-11-29 | 2005-06-30 | Karel Zuiderveld | Systems and methods for segmented volume rendering using a programmable graphics pipeline |
| US7729739B2 (en) * | 2003-12-03 | 2010-06-01 | The Board Of Trustees Of The Leland Stanford Junior University | Heat diffusion based detection of structures of interest in medical images |
| US7289106B2 (en) | 2004-04-01 | 2007-10-30 | Immersion Medical, Inc. | Methods and apparatus for palpation simulation |
| US7609910B2 (en) * | 2004-04-09 | 2009-10-27 | Siemens Medical Solutions Usa, Inc. | System and method for creating a panoramic view of a volumetric image |
| US7633502B2 (en) * | 2004-05-19 | 2009-12-15 | Boston Scientific Scimed, Inc. | System and method for graphically representing anatomical orifices and vessels |
| US8409167B2 (en) | 2004-07-19 | 2013-04-02 | Broncus Medical Inc | Devices for delivering substances through an extra-anatomic opening created in an airway |
| US7613492B2 (en) * | 2004-07-26 | 2009-11-03 | General Electric Company | Apparatus for aligning an object being scanned in multi-modality systems |
| US7835892B2 (en) * | 2004-09-28 | 2010-11-16 | Immersion Medical, Inc. | Ultrasound simulation apparatus and method |
| EP1643453B1 (en) * | 2004-09-30 | 2017-04-05 | Toshiba Medical Systems Corporation | Image processing apparatus and method for curved multi-planar reformatting |
| WO2006042077A2 (en) * | 2004-10-09 | 2006-04-20 | Viatronix Incorporated | Sampling medical images for virtual histology |
| US20060079746A1 (en) * | 2004-10-11 | 2006-04-13 | Perret Florence M | Apparatus and method for analysis of tissue classes along tubular structures |
| US8031921B2 (en) * | 2005-02-14 | 2011-10-04 | Mayo Foundation For Medical Education And Research | Electronic stool subtraction in CT colonography |
| EP1856642A2 (en) * | 2005-02-23 | 2007-11-21 | Koninklijke Philips Electronics N.V. | Method for the prediction of the course of a catheter |
| US7893938B2 (en) * | 2005-05-04 | 2011-02-22 | Siemens Medical Solutions Usa, Inc. | Rendering anatomical structures with their nearby surrounding area |
| US7889905B2 (en) * | 2005-05-23 | 2011-02-15 | The Penn State Research Foundation | Fast 3D-2D image registration method with application to continuously guided endoscopy |
| US7756563B2 (en) * | 2005-05-23 | 2010-07-13 | The Penn State Research Foundation | Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy |
| US7586501B2 (en) * | 2005-05-24 | 2009-09-08 | Siemens Medical Solutions Usa, Inc. | Simultaneous projection of multi-branched vessels and their context on a single image |
| EP1903943A1 (en) * | 2005-06-21 | 2008-04-02 | Koninklijke Philips Electronics N.V. | Method and device for imaging a blood vessel |
| US7379062B2 (en) * | 2005-08-01 | 2008-05-27 | Barco Nv | Method for determining a path along a biological object with a lumen |
| US20070046661A1 (en) * | 2005-08-31 | 2007-03-01 | Siemens Medical Solutions Usa, Inc. | Three or four-dimensional medical imaging navigation methods and systems |
| US7623900B2 (en) * | 2005-09-02 | 2009-11-24 | Toshiba Medical Visualization Systems Europe, Ltd. | Method for navigating a virtual camera along a biological object with a lumen |
| US7711168B2 (en) * | 2005-10-19 | 2010-05-04 | Siemens Medical Solutions Usa, Inc. | Method for tracking blood vessels |
| WO2007046019A1 (en) * | 2005-10-21 | 2007-04-26 | Koninklijke Philips Electronics, N.V. | Rendering method and apparatus |
| JP4450786B2 (ja) * | 2005-11-15 | 2010-04-14 | ザイオソフト株式会社 | 画像処理方法および画像処理プログラム |
| WO2007059233A2 (en) * | 2005-11-15 | 2007-05-24 | Johns Hopkins University | An active cannula for bio-sensing and surgical intervention |
| US20070109299A1 (en) * | 2005-11-15 | 2007-05-17 | Vital Images, Inc. | Surface-based characteristic path generation |
| EP3788944B1 (en) | 2005-11-22 | 2024-02-28 | Intuitive Surgical Operations, Inc. | System for determining the shape of a bendable instrument |
| WO2007062066A2 (en) | 2005-11-23 | 2007-05-31 | Neoguide Systems, Inc. | Non-metallic, multi-strand control cable for steerable instruments |
| US20100260390A1 (en) * | 2005-11-30 | 2010-10-14 | The Research Foundation Of State University Of New York | System and method for reduction of false positives during computer aided polyp detection |
| US8452061B2 (en) * | 2005-11-30 | 2013-05-28 | The Research Foundation Of State University Of New York | Electronic colon cleansing method for virtual colonoscopy |
| WO2007069144A2 (en) * | 2005-12-14 | 2007-06-21 | Koninklijke Philips Electronics N.V. | Method and device for relating medical 3d data image viewing planes to each other |
| DE102006003179B4 (de) * | 2006-01-23 | 2009-02-26 | Siemens Ag | Verfahren und Vorrichtung zur virtuellen Endoskopie eines Hohlkanals |
| JP2007260144A (ja) * | 2006-03-28 | 2007-10-11 | Olympus Medical Systems Corp | 医療用画像処理装置及び医療用画像処理方法 |
| WO2007112557A1 (en) * | 2006-03-31 | 2007-10-11 | Calgary Scientific Inc. | Super resolution contextual close-up visualization of volumetric data |
| JP4738236B2 (ja) * | 2006-04-05 | 2011-08-03 | 株式会社日立メディコ | 画像表示装置 |
| WO2007137208A2 (en) | 2006-05-19 | 2007-11-29 | Neoguide Systems, Inc. | Methods and apparatus for displaying three-dimensional orientation of a steerable distal tip of an endoscope |
| US8560047B2 (en) | 2006-06-16 | 2013-10-15 | Board Of Regents Of The University Of Nebraska | Method and apparatus for computer aided surgery |
| EP2051631A4 (en) | 2006-06-30 | 2013-06-05 | Broncus Tech Inc | SELECTION OF A RESPIRATORY BYPASS SITE AND TREATMENT PLANNING |
| JP2008021092A (ja) * | 2006-07-12 | 2008-01-31 | Fanuc Ltd | ロボットシステムのシミュレーション装置 |
| US20080117210A1 (en) * | 2006-11-22 | 2008-05-22 | Barco N.V. | Virtual endoscopy |
| US7853058B2 (en) * | 2006-11-22 | 2010-12-14 | Toshiba Medical Visualization Systems Europe, Limited | Determining a viewpoint for navigating a virtual camera through a biological object with a lumen |
| US8672836B2 (en) * | 2007-01-31 | 2014-03-18 | The Penn State Research Foundation | Method and apparatus for continuous guidance of endoscopy |
| US9037215B2 (en) | 2007-01-31 | 2015-05-19 | The Penn State Research Foundation | Methods and apparatus for 3D route planning through hollow organs |
| US20090156895A1 (en) * | 2007-01-31 | 2009-06-18 | The Penn State Research Foundation | Precise endoscopic planning and visualization |
| US8023710B2 (en) * | 2007-02-12 | 2011-09-20 | The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services | Virtual colonoscopy via wavelets |
| US8175348B2 (en) * | 2007-06-05 | 2012-05-08 | The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services | Segmenting colon wall via level set techniques |
| US9220398B2 (en) | 2007-10-11 | 2015-12-29 | Intuitive Surgical Operations, Inc. | System for managing Bowden cables in articulating instruments |
| CN101842814B (zh) * | 2007-11-02 | 2013-02-13 | 皇家飞利浦电子股份有限公司 | 自动影像运行路径计算 |
| CN101889296B (zh) * | 2007-11-02 | 2013-01-16 | 皇家飞利浦电子股份有限公司 | 增强的冠状动脉观察 |
| US8103070B2 (en) * | 2007-11-22 | 2012-01-24 | Toshiba Medical Visualization Systems Europe, Limited | Volume rendering apparatus and method |
| US8182418B2 (en) | 2008-02-25 | 2012-05-22 | Intuitive Surgical Operations, Inc. | Systems and methods for articulating an elongate body |
| US9171484B2 (en) * | 2008-03-06 | 2015-10-27 | Immersion Corporation | Determining location and orientation of an object positioned on a surface |
| US8243334B2 (en) | 2008-06-06 | 2012-08-14 | Virginia Venture Industries, Llc | Methods and apparatuses for printing three dimensional images |
| US8200466B2 (en) | 2008-07-21 | 2012-06-12 | The Board Of Trustees Of The Leland Stanford Junior University | Method for tuning patient-specific cardiovascular simulations |
| US9679499B2 (en) | 2008-09-15 | 2017-06-13 | Immersion Medical, Inc. | Systems and methods for sensing hand motion by measuring remote displacement |
| AU2009295315A1 (en) * | 2008-09-25 | 2010-04-01 | Cae Healthcare Inc. | Simulation of medical imaging |
| US8428326B2 (en) * | 2008-10-23 | 2013-04-23 | Immersion Corporation | Systems and methods for ultrasound simulation using depth peeling |
| US20100123715A1 (en) * | 2008-11-14 | 2010-05-20 | General Electric Company | Method and system for navigating volumetric images |
| US9405886B2 (en) | 2009-03-17 | 2016-08-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method for determining cardiovascular information |
| US9098927B2 (en) * | 2009-08-21 | 2015-08-04 | Kabushiki Kaisha Toshiba | Image processing apparatus for diagnostic imaging and method thereof |
| EP2389113A4 (en) * | 2009-09-10 | 2014-04-30 | Infinitt Healthcare Co Ltd | VIRTUAL ENDOSCOPY DEVICE, DRIVE PROCESS THEREFOR, AND MEDICAL EXAMINATION DEVICE |
| US8442806B2 (en) * | 2010-03-03 | 2013-05-14 | Immersion Medical, Inc. | Systems and methods for simulations utilizing a virtual coupling |
| JP5380348B2 (ja) * | 2010-03-31 | 2014-01-08 | 富士フイルム株式会社 | 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム |
| JP5486432B2 (ja) * | 2010-07-28 | 2014-05-07 | 富士フイルム株式会社 | 画像処理装置、その作動方法およびプログラム |
| US8315812B2 (en) | 2010-08-12 | 2012-11-20 | Heartflow, Inc. | Method and system for patient-specific modeling of blood flow |
| US8157742B2 (en) | 2010-08-12 | 2012-04-17 | Heartflow, Inc. | Method and system for patient-specific modeling of blood flow |
| RU2013154552A (ru) * | 2011-05-10 | 2015-06-20 | Конинклейке Филипс Н.В. | Управляемое пользователем планирование пути в реальном маштабе времени |
| EP2706940B1 (en) | 2011-05-13 | 2016-12-14 | Broncus Medical, Inc. | Methods and devices for ablation of tissue |
| US8709034B2 (en) | 2011-05-13 | 2014-04-29 | Broncus Medical Inc. | Methods and devices for diagnosing, monitoring, or treating medical conditions through an opening through an airway wall |
| US9498231B2 (en) | 2011-06-27 | 2016-11-22 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
| CN103764061B (zh) | 2011-06-27 | 2017-03-08 | 内布拉斯加大学评议会 | 工具承载的追踪系统和计算机辅助外科方法 |
| US11911117B2 (en) | 2011-06-27 | 2024-02-27 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
| KR101305678B1 (ko) * | 2011-07-27 | 2013-09-09 | 가톨릭대학교 산학협력단 | 가상 대장내시경에서 전자적 장세척 방법 및 장치 |
| WO2013078235A1 (en) | 2011-11-23 | 2013-05-30 | Broncus Medical Inc | Methods and devices for diagnosing, monitoring, or treating medical conditions through an opening through an airway wall |
| US8548778B1 (en) | 2012-05-14 | 2013-10-01 | Heartflow, Inc. | Method and system for providing information from a patient-specific model of blood flow |
| CN104736054A (zh) * | 2012-10-16 | 2015-06-24 | 皇家飞利浦有限公司 | 基于光学形状感测的肺体积描记法 |
| US10105149B2 (en) | 2013-03-15 | 2018-10-23 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
| US9639666B2 (en) | 2013-03-15 | 2017-05-02 | Covidien Lp | Pathway planning system and method |
| US9925009B2 (en) | 2013-03-15 | 2018-03-27 | Covidien Lp | Pathway planning system and method |
| US9459770B2 (en) | 2013-03-15 | 2016-10-04 | Covidien Lp | Pathway planning system and method |
| WO2014168350A1 (ko) | 2013-04-10 | 2014-10-16 | 재단법인 아산사회복지재단 | 폐동맥과 폐정맥을 구분하는 방법 및 이를 이용한 혈관의 정량화 방법 |
| JP6026357B2 (ja) | 2013-06-13 | 2016-11-16 | 富士フイルム株式会社 | 仮想内視鏡画像生成装置および方法並びにプログラム |
| EP3164048B1 (en) | 2014-07-02 | 2022-11-16 | Covidien LP | Real-time automatic registration feedback |
| US20160000414A1 (en) | 2014-07-02 | 2016-01-07 | Covidien Lp | Methods for marking biopsy location |
| CA2946615A1 (en) | 2014-07-02 | 2016-01-07 | Covidien Lp | System and method for detecting trachea |
| JP6603245B2 (ja) | 2014-07-02 | 2019-11-06 | コヴィディエン リミテッド パートナーシップ | 肺のセグメント化のためのシステムおよび方法 |
| US9603668B2 (en) | 2014-07-02 | 2017-03-28 | Covidien Lp | Dynamic 3D lung map view for tool navigation inside the lung |
| US9770216B2 (en) | 2014-07-02 | 2017-09-26 | Covidien Lp | System and method for navigating within the lung |
| US9754367B2 (en) | 2014-07-02 | 2017-09-05 | Covidien Lp | Trachea marking |
| US10643371B2 (en) | 2014-08-11 | 2020-05-05 | Covidien Lp | Treatment procedure planning system and method |
| CA2980378A1 (en) * | 2015-03-20 | 2016-09-29 | The Governing Council Of The Universtiy Of Toronto | Systems and methods of ultrasound simulation |
| US10986990B2 (en) | 2015-09-24 | 2021-04-27 | Covidien Lp | Marker placement |
| US10709352B2 (en) | 2015-10-27 | 2020-07-14 | Covidien Lp | Method of using lung airway carina locations to improve ENB registration |
| CN105686803B (zh) * | 2016-01-08 | 2019-06-14 | 上海伴诚医疗科技有限公司 | 扫描数据处理方法及装置 |
| EP3440632B1 (en) | 2016-04-04 | 2020-09-09 | Koninklijke Philips N.V. | Imaging system and method |
| CA3039666C (en) | 2016-10-28 | 2022-08-23 | Ppg Industries Ohio, Inc. | Coatings for increasing near-infrared detection distances |
| CN114777682A (zh) | 2017-10-06 | 2022-07-22 | 先进扫描仪公司 | 生成一个或多个亮度边缘以形成物体的三维模型 |
| CN107993294A (zh) * | 2017-12-14 | 2018-05-04 | 山东数字人科技股份有限公司 | 一种局部解剖数据处理方法、装置及系统 |
| US11224392B2 (en) | 2018-02-01 | 2022-01-18 | Covidien Lp | Mapping disease spread |
| CN108711313A (zh) * | 2018-05-22 | 2018-10-26 | 哈尔滨医科大学 | 胃镜检查术自助学习方法 |
| EP4600047A3 (en) | 2018-11-13 | 2025-10-22 | PPG Industries Ohio, Inc. | Method of detecting a concealed pattern |
| US11561329B2 (en) | 2019-01-07 | 2023-01-24 | Ppg Industries Ohio, Inc. | Near infrared control coating, articles formed therefrom, and methods of making the same |
| US11628020B2 (en) | 2019-06-19 | 2023-04-18 | Virtuoso Surgical, Inc. | Insertable robot for minimally invasive surgery |
| JP7335107B2 (ja) | 2019-07-23 | 2023-08-29 | 株式会社トプコン | 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム |
| US12089902B2 (en) | 2019-07-30 | 2024-09-17 | Coviden Lp | Cone beam and 3D fluoroscope lung navigation |
| CN113696484B (zh) * | 2021-08-27 | 2022-05-24 | 吉林大学 | 应用3d打印技术制造人体透明椎管管腔的方法 |
| CN116614617B (zh) * | 2023-05-29 | 2024-03-19 | 广东横琴全域空间人工智能有限公司 | 多视角三维建模方法、系统、自动化设备以及拍摄终端 |
Family Cites Families (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5038302A (en) * | 1988-07-26 | 1991-08-06 | The Research Foundation Of State University Of New York | Method of converting continuous three-dimensional geometrical representations into discrete three-dimensional voxel-based representations within a three-dimensional voxel-based system |
| US4985856A (en) * | 1988-11-10 | 1991-01-15 | The Research Foundation Of State University Of New York | Method and apparatus for storing, accessing, and processing voxel-based data |
| DE4117117A1 (de) * | 1991-05-25 | 1992-11-26 | Hoehne Karl Heinz Prof Dr | Dreidimensionale darstellung von raeumlichen strukturen |
| US5361385A (en) * | 1992-08-26 | 1994-11-01 | Reuven Bakalash | Parallel computing system for volumetric modeling, data processing and visualization |
| JP3483929B2 (ja) * | 1994-04-05 | 2004-01-06 | 株式会社日立製作所 | 3次元画像生成方法 |
| US5458111A (en) * | 1994-09-06 | 1995-10-17 | William C. Bond | Computed tomographic colonoscopy |
| US5782762A (en) * | 1994-10-27 | 1998-07-21 | Wake Forest University | Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen |
| US5611025A (en) * | 1994-11-23 | 1997-03-11 | General Electric Company | Virtual internal cavity inspection system |
-
1996
- 1996-09-16 US US08/714,697 patent/US5971767A/en not_active Expired - Lifetime
-
1997
- 1997-09-10 ES ES97941036T patent/ES2234029T3/es not_active Expired - Lifetime
- 1997-09-10 AT AT97941036T patent/ATE283528T1/de active
- 1997-09-10 CN CNB971979510A patent/CN1265331C/zh not_active Expired - Lifetime
- 1997-09-10 IL IL12888497A patent/IL128884A/en not_active IP Right Cessation
- 1997-09-10 JP JP10513870A patent/JP2001502197A/ja active Pending
- 1997-09-10 EP EP04077334A patent/EP1492071A1/en not_active Withdrawn
- 1997-09-10 WO PCT/US1997/016109 patent/WO1998011524A1/en not_active Ceased
- 1997-09-10 CA CA002265808A patent/CA2265808C/en not_active Expired - Lifetime
- 1997-09-10 DE DE69731775T patent/DE69731775T2/de not_active Expired - Lifetime
- 1997-09-10 EP EP97941036A patent/EP1012812B1/en not_active Expired - Lifetime
- 1997-09-10 KR KR1019997002231A patent/KR20000036177A/ko not_active Withdrawn
- 1997-09-10 AU AU42678/97A patent/AU734557B2/en not_active Expired
- 1997-09-10 EP EP04077335A patent/EP1482470A3/en not_active Withdrawn
Also Published As
| Publication number | Publication date |
|---|---|
| EP1012812A4 (en) | 2002-06-12 |
| EP1482470A3 (en) | 2004-12-08 |
| CA2265808C (en) | 2006-06-06 |
| CA2265808A1 (en) | 1998-03-19 |
| JP2001502197A (ja) | 2001-02-20 |
| AU4267897A (en) | 1998-04-02 |
| EP1482470A2 (en) | 2004-12-01 |
| ATE283528T1 (de) | 2004-12-15 |
| EP1012812B1 (en) | 2004-11-24 |
| DE69731775D1 (de) | 2004-12-30 |
| US5971767A (en) | 1999-10-26 |
| DE69731775T2 (de) | 2005-12-22 |
| IL128884A (en) | 2002-03-10 |
| AU734557B2 (en) | 2001-06-14 |
| EP1012812A1 (en) | 2000-06-28 |
| CN1230271A (zh) | 1999-09-29 |
| KR20000036177A (ko) | 2000-06-26 |
| IL128884A0 (en) | 2000-01-31 |
| CN1265331C (zh) | 2006-07-19 |
| EP1492071A1 (en) | 2004-12-29 |
| WO1998011524A1 (en) | 1998-03-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2234029T3 (es) | Sistema y metodo para realizar un examen virtual tridimensional. | |
| KR100790536B1 (ko) | 가상 결장 내강을 통한 이동 경로를 생성하는 방법 | |
| US7148887B2 (en) | System and method for performing a three-dimensional virtual segmentation and examination with optical texture mapping | |
| US7609910B2 (en) | System and method for creating a panoramic view of a volumetric image | |
| Hong et al. | 3D virtual colonoscopy | |
| JP3874826B2 (ja) | 内視鏡を模擬する方法及び被検体の内腔のビューを得るための仮想検査システム | |
| US7194117B2 (en) | System and method for performing a three-dimensional virtual examination of objects, such as internal organs | |
| US7477768B2 (en) | System and method for performing a three-dimensional virtual examination of objects, such as internal organs | |
| JP3704652B2 (ja) | 3次元画像処理方法 | |
| IL145516A (en) | System and method for segmentation and simulated three-dimensional tests | |
| CN101006469A (zh) | 用于产生体积图像的全景视图的系统和方法 | |
| MXPA99002340A (es) | Sistema y método para llevar a cabo un examen virtual tridimensional | |
| Wildermuth et al. | Patient Specific Surgical Simulation System for Procedures in Colonoscopy. | |
| MXPA01009388A (es) | Sistema y metodo para realizar una segmentacion y examen virtual tridimensional | |
| MXPA01009387A (es) | Sistema y metodo para realizar un examen, navegacion y visualizacion virtual tridimensional |