RU2013144201A - Визуализация для навигационного указания - Google Patents

Визуализация для навигационного указания Download PDF

Info

Publication number
RU2013144201A
RU2013144201A RU2013144201/14A RU2013144201A RU2013144201A RU 2013144201 A RU2013144201 A RU 2013144201A RU 2013144201/14 A RU2013144201/14 A RU 2013144201/14A RU 2013144201 A RU2013144201 A RU 2013144201A RU 2013144201 A RU2013144201 A RU 2013144201A
Authority
RU
Russia
Prior art keywords
data
study
spatial
functional parameters
live image
Prior art date
Application number
RU2013144201/14A
Other languages
English (en)
Other versions
RU2594811C2 (ru
Inventor
Роберт МАНЦКЕ
Патрик ЭТИНЖЬЕ
Паскаль Ив Франсуа КАТЬЕ
Николя Франсуа ВИЛЛЭН
Фолькер РАШЕ
Коэлдип Сингх РОУД
Original Assignee
Конинклейке Филипс Н.В.
Кинг'З Колледж Лондон
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Конинклейке Филипс Н.В., Кинг'З Колледж Лондон filed Critical Конинклейке Филипс Н.В.
Publication of RU2013144201A publication Critical patent/RU2013144201A/ru
Application granted granted Critical
Publication of RU2594811C2 publication Critical patent/RU2594811C2/ru

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; Determining position of diagnostic devices within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/503Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/488Diagnostic techniques involving pre-scan acquisition

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Gynecology & Obstetrics (AREA)
  • Cardiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dentistry (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

1. Способ (110) визуализации информации об объекте исследования, при этом способ содержит этапы, на которых:а) обеспечивают (112) предварительные навигационные данные (114) области исследования объекта (22), причем предварительные навигационные данные содержат пространственные геометрические данные (116) и поверхность (118) функциональных параметров, в соответствии с пространственными геометрическими данными;b) получают (120) данные (122) живого изображения области исследования;с) обнаруживают (124) инструмент (126) в данных живого изображения;d) определяют (128) пространственное отношение (130) предварительных навигационных данных и данных живого изображения;е) определяют (132) положение (134) обнаруженного инструмента в пространственных геометрических данных, причем определение основано на пространственном отношении, и вычисляют (136) заранее заданную соответствующую точку местоположения (138) на поверхности функциональных параметров;f) генерируют (140) комбинацию (142) упрощенного представления (144) поверхности области исследования, при этом упрощенное представление поверхности основано на визуализации поверхности функциональных параметров, и маркера (146), указывающего вычисленную заранее заданную соответствующую точку местоположения, причем упрощенное представление поверхностипредставляет собой изображение развернутой карты; иg) отображают (148) комбинацию как навигационное указание (150).2. Способ по п. 1, в котором развернутая карта представляет собой вид "бычий глаз".3. Способ по п. 1, в котором заранее заданная соответствующая точка местоположения является ближайшей точкой на поверхности функциональных параметров.4. Способ по п. 1, в

Claims (14)

1. Способ (110) визуализации информации об объекте исследования, при этом способ содержит этапы, на которых:
а) обеспечивают (112) предварительные навигационные данные (114) области исследования объекта (22), причем предварительные навигационные данные содержат пространственные геометрические данные (116) и поверхность (118) функциональных параметров, в соответствии с пространственными геометрическими данными;
b) получают (120) данные (122) живого изображения области исследования;
с) обнаруживают (124) инструмент (126) в данных живого изображения;
d) определяют (128) пространственное отношение (130) предварительных навигационных данных и данных живого изображения;
е) определяют (132) положение (134) обнаруженного инструмента в пространственных геометрических данных, причем определение основано на пространственном отношении, и вычисляют (136) заранее заданную соответствующую точку местоположения (138) на поверхности функциональных параметров;
f) генерируют (140) комбинацию (142) упрощенного представления (144) поверхности области исследования, при этом упрощенное представление поверхности основано на визуализации поверхности функциональных параметров, и маркера (146), указывающего вычисленную заранее заданную соответствующую точку местоположения, причем упрощенное представление поверхности
представляет собой изображение развернутой карты; и
g) отображают (148) комбинацию как навигационное указание (150).
2. Способ по п. 1, в котором развернутая карта представляет собой вид "бычий глаз".
3. Способ по п. 1, в котором заранее заданная соответствующая точка местоположения является ближайшей точкой на поверхности функциональных параметров.
4. Способ по п. 1, в котором обнаружение инструмента содержит определение (162) 2D-положения (164) инструмента в данных живого изображения, и для определения положения на этапе е), обнаруженное 2D-положение преобразовывается (166) в пространственные геометрические данные с помощью прямой проекционной линии (168).
5. Способ по п. 1, в котором этап е) содержит обратное проецирование (170) определенного положения через пространственные геометрические данные, чтобы оценить (172) пространственное положение инструмента.
6. Способ по п. 5, в котором в случае, когда обратное проецирование не пересекается с анатомической структурой, в соответствии с пространственными геометрическими данными, используется ближайшая точка или статистически наиболее близкая точка в анатомической структуре.
7. Способ по п. 1, в котором обеспечивают ось проецирования от обнаруженного инструмента в пространственных геометрических данных до вычисленной соответствующей точки местоположения (138) на поверхности функциональных параметров; причем упрощенное
представление поверхности представляет собой 3D-изображение; и причем 3D-изображение выровнено по оси проецирования.
8. Способ по п. 1, в котором этап f) содержит комбинирование навигационной анатомической структуры с упрощенным представлением поверхности.
9. Способ по п. 1, в котором навигационная анатомическая структура содержит проекцию сосудистой структуры.
10. Способ по п. 1, в котором навигационное указание представляет собой 2D-представление, содержащее поверхность функциональных параметров и информацию о 3D позиционировании инструмента по отношению к области исследования.
11. Устройство (24) для визуализации информации об объекте исследования, содержащее
- блок (26) обработки;
- блок (28) интерфейса; и
- дисплей (30);
причем блок (28) интерфейса предназначен для обеспечения предварительных навигационных данных области исследования объекта, причем предварительные навигационные данные содержат пространственные геометрические данные и поверхность функциональных параметров, в соответствии с пространственными геометрическими данными и для обеспечения данных живого изображения области исследовании;
причем блок (26) обработки предназначен для обнаружения инструмента в данных живого изображения; для определения пространственного отношения предварительных навигационных данных и данных живого изображения; для определения положения
обнаруженного инструмента в пространственных геометрических данных, причем это определение основано на пространственном отношении, и для вычисления заранее заданной соответствующей точки местоположения на поверхности функциональных параметров; и для генерирования комбинации упрощенного представления поверхности области исследования, причем это упрощенное представление поверхности основано на визуализации поверхности функциональных параметров, и маркера, указывающего вычисленную заранее заданную соответствующую точку местоположения; причем упрощенное представление поверхности представляет собой изображение развернутой карты; и
причем дисплей (30) предназначен для отображения комбинации как навигационного указания.
12. Медицинская система (10) изображения для визуализации информации об объекте исследования, содержащая:
- устройство (24) по п. 11; и
- средство (12) захвата изображения;
причем средство (12) захвата изображения предназначено для захвата данных живого изображения области исследования.
13. Элемент компьютерной программы для управления устройством по п. 11, который при выполнении процессорным блоком, предназначен для выполнения этапов способа по одному из пп. 1-10.
14. Машиночитаемый носитель, содержащий сохраненный программный элемент по п. 13.
RU2013144201/14A 2011-03-02 2012-03-01 Визуализация для навигационного указания RU2594811C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11305225.2 2011-03-02
EP11305225 2011-03-02
PCT/IB2012/050966 WO2012117366A1 (en) 2011-03-02 2012-03-01 Visualization for navigation guidance

Publications (2)

Publication Number Publication Date
RU2013144201A true RU2013144201A (ru) 2015-04-10
RU2594811C2 RU2594811C2 (ru) 2016-08-20

Family

ID=45833492

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2013144201/14A RU2594811C2 (ru) 2011-03-02 2012-03-01 Визуализация для навигационного указания

Country Status (7)

Country Link
US (1) US9554728B2 (ru)
EP (1) EP2680755B1 (ru)
JP (1) JP6166663B2 (ru)
CN (1) CN103687541B (ru)
BR (1) BR112013021977A2 (ru)
RU (1) RU2594811C2 (ru)
WO (1) WO2012117366A1 (ru)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012011035A1 (en) * 2010-07-19 2012-01-26 Koninklijke Philips Electronics N.V. Adaptive roadmapping
JP6420367B2 (ja) 2014-05-23 2018-11-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 第二オブジェクト内で第一オブジェクトをイメージングするためのイメージング装置
US10105117B2 (en) * 2015-02-13 2018-10-23 Biosense Webster (Israel) Ltd. Compensation for heart movement using coronary sinus catheter images
US20160354049A1 (en) * 2015-06-04 2016-12-08 Biosense Webster (Israel) Ltd. Registration of coronary sinus catheter image
EP3313292B1 (en) 2015-06-25 2019-03-06 Koninklijke Philips N.V. Image registration
US10096105B2 (en) 2016-09-08 2018-10-09 Medtronic Cryocath Lp Method of determining target treatment locations
US11172991B2 (en) 2016-09-08 2021-11-16 Medtronic, Inc. Navigation with arbitrary catheter geometries and method of contact assessment
US10702342B2 (en) 2016-09-08 2020-07-07 Medtronic, Inc. Navigation guidance method for complex catheters
US10748319B1 (en) 2016-09-19 2020-08-18 Radlink, Inc. Composite radiographic image that corrects effects of parallax distortion
WO2018053486A1 (en) * 2016-09-19 2018-03-22 Radlink, Inc. Composite radiographic image that corrects effects of parallax distortion
CN106643727A (zh) * 2016-12-02 2017-05-10 江苏物联网研究发展中心 用于机器人导航的地图的构建方法
US10321878B2 (en) 2016-12-22 2019-06-18 Biosense Webster (Israel) Ltd. Pulmonary vein display in two dimensions
RU2654267C1 (ru) * 2017-03-22 2018-05-17 Федеральное государственное бюджетное образовательное учреждение высшего образования "Саратовский государственный медицинский университет им. В.И. Разумовского" Министерства здравоохранения Российской Федерации Способ радиочастотной термоабляции опухолевого новообразования печени
EP3406195A1 (en) * 2017-05-24 2018-11-28 Koninklijke Philips N.V. Device and a corresponding method for providing spatial information of an interventional device in a live 2d x-ray image
EP3482693A1 (en) * 2017-11-09 2019-05-15 Koninklijke Philips N.V. Biopsy container with identifier
WO2020082236A1 (zh) * 2018-10-23 2020-04-30 深圳迈瑞生物医疗电子股份有限公司 一种心脏运动定量分析方法和超声系统
EP4177843A1 (en) * 2021-11-08 2023-05-10 Koninklijke Philips N.V. Image processing device, medical imaging system and computer program element

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3589505B2 (ja) * 1995-06-09 2004-11-17 株式会社日立メディコ 3次元画像処理表示装置
JP2000139917A (ja) 1998-11-12 2000-05-23 Toshiba Corp 超音波診断装置
JP2000175897A (ja) * 1998-12-17 2000-06-27 Toshiba Corp 手術支援用x線ct装置
US6650927B1 (en) * 2000-08-18 2003-11-18 Biosense, Inc. Rendering of diagnostic imaging data on a three-dimensional map
JP2002119507A (ja) * 2000-10-17 2002-04-23 Toshiba Corp 医用装置および医用画像収集表示方法
CN1639675B (zh) 2001-07-06 2015-12-09 高通股份有限公司 与三维图像中表示的三维表面互动的图像处理方法
WO2006103644A1 (en) * 2005-03-31 2006-10-05 Paieon Inc. Method and apparatus for positioning a device in a tubular organ
US7499743B2 (en) * 2002-03-15 2009-03-03 General Electric Company Method and system for registration of 3D images within an interventional system
EP1527422B1 (en) 2002-06-28 2019-05-22 Koninklijke Philips N.V. Image processing method for displaying information relating to wall motions of a deformable 3-d object
JP2007501069A (ja) * 2003-08-04 2007-01-25 シーメンス コーポレイト リサーチ インコーポレイテツド 視覚化のための仮想的器官展開処理方法
JP5122743B2 (ja) * 2004-12-20 2013-01-16 ゼネラル・エレクトリック・カンパニイ インターベンショナルシステム内で3d画像を位置合わせするシステム
DE102005002950B4 (de) 2005-01-21 2007-01-25 Siemens Ag Verfahren zur automatischen Bestimmung der Position und Orientierung des linken Ventrikels und/oder angrenzender Bereiche in 3D-Bilddatensätzen des Herzens
US7813535B2 (en) 2005-04-19 2010-10-12 Siemens Medical Solutions Usa, Inc. System and method for fused PET-CT visualization for heart unfolding
CN1862596A (zh) * 2005-04-19 2006-11-15 西门子共同研究公司 针对心脏展开的所融合的pet-ct可视化的系统和方法
US8870779B2 (en) * 2005-04-26 2014-10-28 Biosense Webster, Inc. Display of two-dimensional ultrasound fan
DE102005023167B4 (de) * 2005-05-19 2008-01-03 Siemens Ag Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz
US20070049817A1 (en) * 2005-08-30 2007-03-01 Assaf Preiss Segmentation and registration of multimodal images using physiological data
DE102005042329A1 (de) * 2005-09-06 2007-03-08 Siemens Ag Verfahren und Vorrichtung zur visuellen Unterstützung einer elektrophysiologischen Katheteranwendung am Herzen durch bidirektionalen Informationstransfer
US7918793B2 (en) * 2005-10-28 2011-04-05 Biosense Webster, Inc. Synchronization of ultrasound imaging data with electrical mapping
WO2007069168A2 (en) * 2005-12-15 2007-06-21 Koninklijke Philips Electronics, N.V. System and method for visualizing heart morphologyduring electrophysiology mapping and treatment
US7855723B2 (en) * 2006-03-21 2010-12-21 Biosense Webster, Inc. Image registration using locally-weighted fitting
US8073213B2 (en) * 2006-10-30 2011-12-06 General Electric Company Method for generating a registered image relative to a cardiac cycle and a respiratory cycle of a person
US7912270B2 (en) 2006-11-21 2011-03-22 General Electric Company Method and system for creating and using an impact atlas
CN101553182B (zh) * 2006-11-28 2012-04-25 皇家飞利浦电子股份有限公司 用于确定第一对象在第二对象中的位置的装置
JP5591440B2 (ja) * 2007-01-17 2014-09-17 株式会社東芝 医用画像表示装置
CN101622643B (zh) 2007-03-02 2013-08-21 皇家飞利浦电子股份有限公司 心脏路图
JP4559501B2 (ja) * 2007-03-14 2010-10-06 富士フイルム株式会社 心機能表示装置、心機能表示方法およびそのプログラム
RU2353324C2 (ru) * 2007-04-05 2009-04-27 Государственное образовательное учреждение дополнительного профессионального образования "Новокузнецкий государственный институт усовершенствования врачей Федерального агентства по здравоохранению и социальному развитию" Способ выбора доступа для выполнения оперативного вмешательства
US20080281195A1 (en) 2007-05-09 2008-11-13 General Electric Company System and method for planning LV lead placement for cardiac resynchronization therapy
JP5405045B2 (ja) * 2008-05-07 2014-02-05 株式会社東芝 X線撮影装置および画像処理装置
US8195271B2 (en) * 2007-11-06 2012-06-05 Siemens Aktiengesellschaft Method and system for performing ablation to treat ventricular tachycardia
JP5652994B2 (ja) 2008-09-26 2015-01-14 株式会社東芝 X線診断装置
US9142015B2 (en) * 2011-03-02 2015-09-22 Koninklijke Philips N.V. Medical imaging system and method for providing an image representation supporting accurate guidance of an intervention device in a vessel intervention procedure

Also Published As

Publication number Publication date
US20130336558A1 (en) 2013-12-19
RU2594811C2 (ru) 2016-08-20
CN103687541B (zh) 2017-02-15
WO2012117366A1 (en) 2012-09-07
EP2680755A1 (en) 2014-01-08
JP6166663B2 (ja) 2017-07-19
BR112013021977A2 (pt) 2018-06-12
JP2014507235A (ja) 2014-03-27
EP2680755B1 (en) 2014-12-17
US9554728B2 (en) 2017-01-31
CN103687541A (zh) 2014-03-26

Similar Documents

Publication Publication Date Title
RU2013144201A (ru) Визуализация для навигационного указания
RU2012108740A (ru) Формирование данных объекта
US9885573B2 (en) Method, device and computer programme for extracting information about one or more spatial objects
US9123096B2 (en) Information processing apparatus and control method thereof
JP2019067383A5 (ru)
RU2012134436A (ru) Навигация интервенционного устройства
JP2016525426A5 (ru)
MY173983A (en) Information providing apparatus, information providing method and program
RU2015121699A (ru) Улучшение ультразвуковых изображений
JP2017519184A5 (ru)
KR20140091177A (ko) 병변 진단 장치 및 방법
JP6589636B2 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
RU2012128520A (ru) Комбинация ультразвуковой и рентгеновской систем
RU2014105653A (ru) Графический пользовательский интерфейс
RU2012138387A (ru) Устройство обработки информации, способ обработки информации и программа
EP2793206A3 (en) Methods and systems for displaying procedure information on an aircraft display
RU2016148195A (ru) Системы визуализации и способы для расположения трехмерного ультразвукового объема в требуемой ориентации
RU2015130908A (ru) Автоматизированная идентификация интересующей ткани
WO2005121839A1 (ja) 検出対象位置特定装置及び検出対象位置特定方法
RU2015126607A (ru) Интеграция ультразвуковой и рентгеновской модальностей
RU2016102620A (ru) Установление границ блокирования ребром в анатомически интеллектуальной эхокардиографии
CN108510528A (zh) 一种可见光和红外图像配准融合的方法及装置
KR20160046670A (ko) 영상 진단 보조 장치 및 방법
RU2018125899A (ru) Система и способ для отслеживания медицинского устройства
EP3839438A3 (en) Using map information to smooth objects generated from sensor data

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20190302