JPH11309A - 画像処理装置 - Google Patents
画像処理装置Info
- Publication number
- JPH11309A JPH11309A JP9154793A JP15479397A JPH11309A JP H11309 A JPH11309 A JP H11309A JP 9154793 A JP9154793 A JP 9154793A JP 15479397 A JP15479397 A JP 15479397A JP H11309 A JPH11309 A JP H11309A
- Authority
- JP
- Japan
- Prior art keywords
- image
- endoscope
- dimensional
- internal space
- dimensional position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
Abstract
(57)【要約】
【課題】 外部から遮蔽された対象物の内部空間を視野
の狭い内視鏡で撮影した画像を表示する場合に、内視鏡
画像あるいは内視鏡自体の対象物全体における3次元的
な位置関係および視線方向を容易に把握可能にする。 【解決手段】 内視鏡の対象物内部空間内の3次元位置
および視線方向を計測すると共に、内視鏡による撮影範
囲を含む対象物の3次元断層像を撮影し、この3次元断
層像に基づき内視鏡の視線方向とは異なる方向から見た
3次元画像を生成し、その生成された3次元画像と内視
鏡先端部のモデル画像との合成画像と共に、内視鏡の撮
影画像とを同時に表示する。
の狭い内視鏡で撮影した画像を表示する場合に、内視鏡
画像あるいは内視鏡自体の対象物全体における3次元的
な位置関係および視線方向を容易に把握可能にする。 【解決手段】 内視鏡の対象物内部空間内の3次元位置
および視線方向を計測すると共に、内視鏡による撮影範
囲を含む対象物の3次元断層像を撮影し、この3次元断
層像に基づき内視鏡の視線方向とは異なる方向から見た
3次元画像を生成し、その生成された3次元画像と内視
鏡先端部のモデル画像との合成画像と共に、内視鏡の撮
影画像とを同時に表示する。
Description
【0001】
【発明の属する技術分野】本発明は、内視鏡で撮影した
画像を表示する画像表示装置に係り、特に、外部から直
接観察することができない内部空間を有する体内などの
内部画像を表示するのに好適な画像表示装置に関するも
のである。
画像を表示する画像表示装置に係り、特に、外部から直
接観察することができない内部空間を有する体内などの
内部画像を表示するのに好適な画像表示装置に関するも
のである。
【0002】
【従来の技術】外科手術中における患者への侵襲を少な
くする手法として、内視鏡によって体内画像を撮影しな
がら手術を行う非開胸、非開腹手術が盛んに行われるよ
うになってきている。
くする手法として、内視鏡によって体内画像を撮影しな
がら手術を行う非開胸、非開腹手術が盛んに行われるよ
うになってきている。
【0003】ところが、内視鏡はその視野が狭いため、
全体的な位置関係がわかりにくく、また内視鏡画像だけ
を見ていた場合に、現在どの方向を向いているのか、ど
の部分を見ているのかがわからないといった問題があ
り、この解決手法が強く望まれている。
全体的な位置関係がわかりにくく、また内視鏡画像だけ
を見ていた場合に、現在どの方向を向いているのか、ど
の部分を見ているのかがわからないといった問題があ
り、この解決手法が強く望まれている。
【0004】一方、脳外科手術の支援を目的とした画像
支援システムとして、次の文献「 Ramin Shahidi, "App
lications of Virtual Reality in Stereotactic Surge
ry:Volumetric Image Navigation via Surgical Micros
cope", CAR95 Computer Assisted Radiology, pp.1126-
1138(1995)」に紹介されているようなシステムがある。
この文献では、患部を露出させた定位脳手術におけるCo
mputer Aided Surgeryにおいて、術中の顕微鏡画像に術
前のMRI画像データを利用した3次元画像を合成表示
し、手術支援を行うと共に、ステレオカメラを用いて術
具をトラッキングし、術具と患部との関係も計測し、定
位脳手術を支援することが記述されている。
支援システムとして、次の文献「 Ramin Shahidi, "App
lications of Virtual Reality in Stereotactic Surge
ry:Volumetric Image Navigation via Surgical Micros
cope", CAR95 Computer Assisted Radiology, pp.1126-
1138(1995)」に紹介されているようなシステムがある。
この文献では、患部を露出させた定位脳手術におけるCo
mputer Aided Surgeryにおいて、術中の顕微鏡画像に術
前のMRI画像データを利用した3次元画像を合成表示
し、手術支援を行うと共に、ステレオカメラを用いて術
具をトラッキングし、術具と患部との関係も計測し、定
位脳手術を支援することが記述されている。
【0005】そこで、この文献に記述された画像支援シ
ステムの顕微鏡を内視鏡に置き換えて内視鏡画像をMR
I画像データと合成して表示する方法が考えられる。
ステムの顕微鏡を内視鏡に置き換えて内視鏡画像をMR
I画像データと合成して表示する方法が考えられる。
【0006】
【発明が解決しようとする課題】しかし、前記文献に記
述された画像支援システムの顕微鏡は、露出した術部を
ターゲットとして位置が固定されたものであるため、顕
微鏡画像がどの部分の位置の画像であるかを認識する必
要はない。これに対し、内視鏡は体内で位置が自由に移
動するため、その位置と視線方法を正確に認識する必要
がある。また、体内の位置と視線方向を認識した後、術
前に撮影した視野の大きなMRI画像データなどとの位
置合わせを行ったうえで表示する必要がある。従って、
前記の文献に記述された画像支援システムの顕微鏡を内
視鏡に置き換えたのみでは、非開胸、非開腹手術を支援
するための内視鏡画像を表示することはできない。
述された画像支援システムの顕微鏡は、露出した術部を
ターゲットとして位置が固定されたものであるため、顕
微鏡画像がどの部分の位置の画像であるかを認識する必
要はない。これに対し、内視鏡は体内で位置が自由に移
動するため、その位置と視線方法を正確に認識する必要
がある。また、体内の位置と視線方向を認識した後、術
前に撮影した視野の大きなMRI画像データなどとの位
置合わせを行ったうえで表示する必要がある。従って、
前記の文献に記述された画像支援システムの顕微鏡を内
視鏡に置き換えたのみでは、非開胸、非開腹手術を支援
するための内視鏡画像を表示することはできない。
【0007】また、内視鏡として立体内視鏡を用いた場
合、その両眼の視差によって該立体内視鏡で撮影してい
る体内画像を構成している複数の特徴点の3次元位置を
復元することができるが、各特徴点の3次元位置が判明
したとしても、術具によって撮影中の画像の一部が隠れ
てしまった場合、両眼の画像における特徴点同士の対応
付けが困難になるという問題がある。さらに、術具によ
って隠れた部分の位置が認識できないという問題があ
る。
合、その両眼の視差によって該立体内視鏡で撮影してい
る体内画像を構成している複数の特徴点の3次元位置を
復元することができるが、各特徴点の3次元位置が判明
したとしても、術具によって撮影中の画像の一部が隠れ
てしまった場合、両眼の画像における特徴点同士の対応
付けが困難になるという問題がある。さらに、術具によ
って隠れた部分の位置が認識できないという問題があ
る。
【0008】また、内視鏡では体内臓器の表面の画像し
か撮影できないため、臓器表面下で内出血しているよう
な状態を把握できないという問題がある。
か撮影できないため、臓器表面下で内出血しているよう
な状態を把握できないという問題がある。
【0009】さらに、内視鏡画像の3次元位置を復元す
る場合、画像自体の歪によって誤差が生じてしまい、3
次元位置を高精度で復元できないという問題がある。
る場合、画像自体の歪によって誤差が生じてしまい、3
次元位置を高精度で復元できないという問題がある。
【0010】本発明の第1の目的は、外部から遮蔽され
た対象物の内部空間を視野の狭い内視鏡で撮影した画像
を表示する場合に、内視鏡画像あるいは内視鏡自体の対
象物全体における3次元的な位置関係および視線方向を
容易に把握することができる画像処理システムを提供す
ることにある。
た対象物の内部空間を視野の狭い内視鏡で撮影した画像
を表示する場合に、内視鏡画像あるいは内視鏡自体の対
象物全体における3次元的な位置関係および視線方向を
容易に把握することができる画像処理システムを提供す
ることにある。
【0011】また、本発明の第2の目的は、内視鏡画像
の一部が術具などの操作具によって隠れてしまった場合
でも、予め撮影しておいた画像と内視鏡画像との対応付
けを容易に行い、隠れた部分の位置を把握することがで
きる画像処理システムを提供することにある。
の一部が術具などの操作具によって隠れてしまった場合
でも、予め撮影しておいた画像と内視鏡画像との対応付
けを容易に行い、隠れた部分の位置を把握することがで
きる画像処理システムを提供することにある。
【0012】また、本発明の第3の目的は、内視鏡では
撮影できない内側の状態を把握することができる画像処
理装置を提供することにある。
撮影できない内側の状態を把握することができる画像処
理装置を提供することにある。
【0013】さらに、本発明の第4の目的は、内視鏡画
像自体に歪に起因する3次元位置の復元誤差を補正し、
内視鏡画像の3次元位置を高精度で復元することができ
る画像処理装置を提供することにある。
像自体に歪に起因する3次元位置の復元誤差を補正し、
内視鏡画像の3次元位置を高精度で復元することができ
る画像処理装置を提供することにある。
【0014】
【課題を解決するための手段】上記第1の目的を達成す
るために、本発明は、内視鏡の対象物内部空間内の3次
元位置および視線方向を計測すると共に、内視鏡による
撮影範囲を含む対象物の3次元断層像を撮影し、この3
次元断層像に基づき内視鏡の視線方向とは異なる方向か
ら見た3次元画像を生成し、その生成された3次元画像
と内視鏡先端部のモデル画像との合成画像と共に、内視
鏡の撮影画像とを同時に表示するように構成したことを
特徴とする。
るために、本発明は、内視鏡の対象物内部空間内の3次
元位置および視線方向を計測すると共に、内視鏡による
撮影範囲を含む対象物の3次元断層像を撮影し、この3
次元断層像に基づき内視鏡の視線方向とは異なる方向か
ら見た3次元画像を生成し、その生成された3次元画像
と内視鏡先端部のモデル画像との合成画像と共に、内視
鏡の撮影画像とを同時に表示するように構成したことを
特徴とする。
【0015】また、上記第2の目的を達成するために、
本発明は、立体内視鏡を用い、この立体内視鏡の対象物
内部空間内の3次元位置および視線方向を計測すると共
に、立体内視鏡による撮影範囲を含む対象物の3次元断
層像を撮影し、この3次元断層像に基づき立体内視鏡の
視線方向と同じ方向から見た3次元画像を生成し、さら
に、立体内視鏡の両眼の視差に基づき該立体内視鏡で撮
影した対象物の内部空間内の画像の複数の特徴点の3次
元位置を復元し、その復元された立体内視鏡画像の複数
の特徴点と3次元画像生成手段により生成された3次元
画像の複数の特徴点との対応付けを行い、対応付け後の
3次元画像と立体内視鏡の片眼の撮影画像とを合成して
表示するようにし、さらに、術具等の操作具で隠された
特徴点については立体内視鏡の視線方向と同じ方向から
見た3次元画像から求めるように構成したことを特徴と
する。
本発明は、立体内視鏡を用い、この立体内視鏡の対象物
内部空間内の3次元位置および視線方向を計測すると共
に、立体内視鏡による撮影範囲を含む対象物の3次元断
層像を撮影し、この3次元断層像に基づき立体内視鏡の
視線方向と同じ方向から見た3次元画像を生成し、さら
に、立体内視鏡の両眼の視差に基づき該立体内視鏡で撮
影した対象物の内部空間内の画像の複数の特徴点の3次
元位置を復元し、その復元された立体内視鏡画像の複数
の特徴点と3次元画像生成手段により生成された3次元
画像の複数の特徴点との対応付けを行い、対応付け後の
3次元画像と立体内視鏡の片眼の撮影画像とを合成して
表示するようにし、さらに、術具等の操作具で隠された
特徴点については立体内視鏡の視線方向と同じ方向から
見た3次元画像から求めるように構成したことを特徴と
する。
【0016】さらに上記第3の目的を達成するために、
本発明は、3次元位置が復元された立体内視鏡画像上の
1点を指定し、その指定された立体内視鏡画像上の位置
を中心とし、該指定された位置を通り、立体内視鏡の視
線方向と垂直な1ないし複数の断面における3次元画像
を断層像撮影手段による3次元断層像から再生成し、そ
の再生成された1ないし複数の断面における重ね合わせ
3次元画像を生成し、表示手段に表示させるように構成
したことを特徴とする。
本発明は、3次元位置が復元された立体内視鏡画像上の
1点を指定し、その指定された立体内視鏡画像上の位置
を中心とし、該指定された位置を通り、立体内視鏡の視
線方向と垂直な1ないし複数の断面における3次元画像
を断層像撮影手段による3次元断層像から再生成し、そ
の再生成された1ないし複数の断面における重ね合わせ
3次元画像を生成し、表示手段に表示させるように構成
したことを特徴とする。
【0017】さらに、上記第4の目的を達成するため
に、本発明は、対象物内部空間内に挿入された操作具の
先端の3次元位置を検出すると共に、立体内視鏡の両眼
の視差に基づき、前記操作具の先端の3次元位置を復元
し、これら2つの3次元位置を比較し、その差によって
立体内視鏡の撮影画像の3次元位置を復元するためのパ
ラメータを調整するように構成したことを特徴とする。
に、本発明は、対象物内部空間内に挿入された操作具の
先端の3次元位置を検出すると共に、立体内視鏡の両眼
の視差に基づき、前記操作具の先端の3次元位置を復元
し、これら2つの3次元位置を比較し、その差によって
立体内視鏡の撮影画像の3次元位置を復元するためのパ
ラメータを調整するように構成したことを特徴とする。
【0018】
【発明の実施の形態】以下、本発明の実施の形態を図面
に基づいて詳細に説明する。
に基づいて詳細に説明する。
【0019】図1は、本発明を適用した画像処理装置の
第1の実施形態を示す機能ブロック図である。この第1
の実施形態は、内視鏡を用いた手術を支援することを想
定した構成を示すものであり、以下では、手術を受ける
患者を被術者、内視鏡や術具を扱う人を術者、画像処理
に関する操作を行う人を操作者とする。なお、操作者と
術者は同一人物であっても良く、術者や操作者は一人で
も複数でも良い。また、操作の入力はポインティングデ
バイス、キー入力、音声入力などにより可能であるもの
とする。
第1の実施形態を示す機能ブロック図である。この第1
の実施形態は、内視鏡を用いた手術を支援することを想
定した構成を示すものであり、以下では、手術を受ける
患者を被術者、内視鏡や術具を扱う人を術者、画像処理
に関する操作を行う人を操作者とする。なお、操作者と
術者は同一人物であっても良く、術者や操作者は一人で
も複数でも良い。また、操作の入力はポインティングデ
バイス、キー入力、音声入力などにより可能であるもの
とする。
【0020】この第1の実施形態の画像処理装置は、大
別すると、術前に撮影したMR等の3次元画像と内視鏡
によって撮影した体内の画像とを合成して出力する画像
合成装置11、画像合成に関する各種の指示やパラメー
タを入力する入力装置12、合成された画像を表示する
表示手段13、X線,DR等の2次元画像を撮影する2
次元計測装置(2D計測装置)14、CT,MRI等の
3次元断層を撮影する3次元計測装置(3D計測装置)
15、鉗子等の術具の3次元位置および内視鏡の3次元
位置,視線方向を計測する位置計測装置16、術部の2
次元画像を撮影する内視鏡17、心電計や血圧計などの
バイタルデータを計測するバイタルデータ計測装置18
とから構成されている。
別すると、術前に撮影したMR等の3次元画像と内視鏡
によって撮影した体内の画像とを合成して出力する画像
合成装置11、画像合成に関する各種の指示やパラメー
タを入力する入力装置12、合成された画像を表示する
表示手段13、X線,DR等の2次元画像を撮影する2
次元計測装置(2D計測装置)14、CT,MRI等の
3次元断層を撮影する3次元計測装置(3D計測装置)
15、鉗子等の術具の3次元位置および内視鏡の3次元
位置,視線方向を計測する位置計測装置16、術部の2
次元画像を撮影する内視鏡17、心電計や血圧計などの
バイタルデータを計測するバイタルデータ計測装置18
とから構成されている。
【0021】画像合成装置11は、内視鏡17で撮影し
た画像や前記の各種の計測装置で計測したデータを記憶
するハードディスクや光磁気ディスクで構成されたデー
タ記憶装置111を備え、さらに座標系/位置合わせ手
段112、セグメンテーション手段113、3次元画像
生成手段114、断面画像生成手段115、3次元画像
復元等画像処理手段116、3次元コンピュータグラフ
ィック画像生成手段(3DCG生成手段)117、画像
合成手段118を備えている。
た画像や前記の各種の計測装置で計測したデータを記憶
するハードディスクや光磁気ディスクで構成されたデー
タ記憶装置111を備え、さらに座標系/位置合わせ手
段112、セグメンテーション手段113、3次元画像
生成手段114、断面画像生成手段115、3次元画像
復元等画像処理手段116、3次元コンピュータグラフ
ィック画像生成手段(3DCG生成手段)117、画像
合成手段118を備えている。
【0022】鉗子等の術具の3次元位置および内視鏡の
3次元位置,視線方向を計測する位置計測装置16は、
図2に示すように、内視鏡17および術具19を先端部
に保持するマニピュレータ161,162に組み込まれ
ている。すなわち、マニピュレータ161を代表して説
明すると、このマニピュレータ161は水平方向の回転
機構163、垂直面内の回転機構164,165、水平
方向の回転機構166、内視鏡17の円周方向への回転
機構167を備え、これらの各回転機構163〜167
には各回転角θ1〜θ5を検出するポテンショメータな
どの回転角度検出センサが組み込まれ、これらの回転角
度検出センサによって検出した各回転角θ1〜θ5と各
回転機構を結ぶリンクの長さおよび内視鏡の長さに基づ
き内視鏡17の3次元位置および視線方向を特定するよ
うに構成されている。
3次元位置,視線方向を計測する位置計測装置16は、
図2に示すように、内視鏡17および術具19を先端部
に保持するマニピュレータ161,162に組み込まれ
ている。すなわち、マニピュレータ161を代表して説
明すると、このマニピュレータ161は水平方向の回転
機構163、垂直面内の回転機構164,165、水平
方向の回転機構166、内視鏡17の円周方向への回転
機構167を備え、これらの各回転機構163〜167
には各回転角θ1〜θ5を検出するポテンショメータな
どの回転角度検出センサが組み込まれ、これらの回転角
度検出センサによって検出した各回転角θ1〜θ5と各
回転機構を結ぶリンクの長さおよび内視鏡の長さに基づ
き内視鏡17の3次元位置および視線方向を特定するよ
うに構成されている。
【0023】術具19を保持するマニピュレータ162
についても同様の構成となっている。
についても同様の構成となっている。
【0024】なお、磁気センサや電波を用いて術具の3
次元位置および内視鏡の3次元位置,視線方向を計測す
る構成にすることができる。
次元位置および内視鏡の3次元位置,視線方向を計測す
る構成にすることができる。
【0025】入力装置12は、キーボードやマウス、ト
ラックボール、タブレット、音声入力装置などで構成さ
れる。
ラックボール、タブレット、音声入力装置などで構成さ
れる。
【0026】表示手段113は、ディスプレイやフィル
ム、ヘッドマウントディスプレイなどの周知の表示装置
で構成される。
ム、ヘッドマウントディスプレイなどの周知の表示装置
で構成される。
【0027】図3は、内視鏡を用いた手術を行う場合の
作業の流れを示すフローチャートであり、まず、術前に
X線CTやMRIなどの3次元計測装置15を用い、被
術者の患部を含む領域の3次元断層像を撮影し、データ
記憶装置111に記憶させておく(ステップ301)。
作業の流れを示すフローチャートであり、まず、術前に
X線CTやMRIなどの3次元計測装置15を用い、被
術者の患部を含む領域の3次元断層像を撮影し、データ
記憶装置111に記憶させておく(ステップ301)。
【0028】次に、記憶された3次元断層像を患部や臓
器ごとにセグメンテーションを行い、さらに特徴点の抽
出も行う(ステップ302)。続いて、セグメンテーシ
ョンされた3次元断層像を用いて術前の手術計画を作成
し、その手術計画に従って様々な角度から見た患部と周
辺組織との関係を示す治療計画画像あるいは参照画像を
作成し、データ記憶装置111内に記憶させる(ステッ
プ303)。このステップ303までが術前の作業であ
る。
器ごとにセグメンテーションを行い、さらに特徴点の抽
出も行う(ステップ302)。続いて、セグメンテーシ
ョンされた3次元断層像を用いて術前の手術計画を作成
し、その手術計画に従って様々な角度から見た患部と周
辺組織との関係を示す治療計画画像あるいは参照画像を
作成し、データ記憶装置111内に記憶させる(ステッ
プ303)。このステップ303までが術前の作業であ
る。
【0029】次に、以上のような準備作業が終了したな
らば、樹術を開始することになるが、手術開始に当っ
て、術前に撮影した3次元断層像と術中に撮影する内視
鏡画像(あるいは3次元断層像)との位置合わせを行う
ためのキャリブレーションを行う(ステップ304)。
このキャリブレーション実施後において、内視鏡17に
よって患部に挿入した内視鏡17によって術部の画像を
撮影し、その内視鏡画像と術前に作成しておいた治療計
画画像あるいは参照画像とを合成し、内視鏡画像が患部
のどの位置の画像であるかが分かるように表示手段13
に表示し、非開腹手術、非開胸手術を支援する。
らば、樹術を開始することになるが、手術開始に当っ
て、術前に撮影した3次元断層像と術中に撮影する内視
鏡画像(あるいは3次元断層像)との位置合わせを行う
ためのキャリブレーションを行う(ステップ304)。
このキャリブレーション実施後において、内視鏡17に
よって患部に挿入した内視鏡17によって術部の画像を
撮影し、その内視鏡画像と術前に作成しておいた治療計
画画像あるいは参照画像とを合成し、内視鏡画像が患部
のどの位置の画像であるかが分かるように表示手段13
に表示し、非開腹手術、非開胸手術を支援する。
【0030】図4は、図1の実施形態における各種の計
測データと画像処理の関係を示す機能説明図であり、4
01は術前に撮影しておいたX線やDR等の術前2次元
画像データ、402は術前に撮影しておいたX線CTや
MRI等の術前3次元画像データ、403は術中に撮影
したX線CTやMRI、立体内視鏡等の術中3次元画像
データ、404は術中に撮影した内視鏡の術中2次元画
像データ、405は内視鏡17の3次元位置および視線
方向ならびに術具19の3次元位置を示す位置データ、
406は心電計等から出力されるバイタルデータ、40
7はセグメンテーションされた3次元画像データ、40
8は3次元位置が復元された内視鏡の画像データ、40
9は術前に作成しておいた術前計画画像データである。
測データと画像処理の関係を示す機能説明図であり、4
01は術前に撮影しておいたX線やDR等の術前2次元
画像データ、402は術前に撮影しておいたX線CTや
MRI等の術前3次元画像データ、403は術中に撮影
したX線CTやMRI、立体内視鏡等の術中3次元画像
データ、404は術中に撮影した内視鏡の術中2次元画
像データ、405は内視鏡17の3次元位置および視線
方向ならびに術具19の3次元位置を示す位置データ、
406は心電計等から出力されるバイタルデータ、40
7はセグメンテーションされた3次元画像データ、40
8は3次元位置が復元された内視鏡の画像データ、40
9は術前に作成しておいた術前計画画像データである。
【0031】なお、これらのデータ401〜409の全
てが必ずしも必要というわけではなく、少なくとも、X
線CTなどの断層像撮影装置による術前3次元画像デー
タ402、内視鏡画像の術中2次元画像データ404、
術具等の位置データ405が必要である。これらのデー
タに基づき画像合成装置11の各部が以下で説明するよ
うな処理を行う。なお、画像合成装置11の各部は、そ
れぞれに必要なパラメータについて、ユーザから入力を
得る手段が用意されており、ユーザの入力が無い場合に
は、あらかじめ設定されたパラメータにて処理を行う。
てが必ずしも必要というわけではなく、少なくとも、X
線CTなどの断層像撮影装置による術前3次元画像デー
タ402、内視鏡画像の術中2次元画像データ404、
術具等の位置データ405が必要である。これらのデー
タに基づき画像合成装置11の各部が以下で説明するよ
うな処理を行う。なお、画像合成装置11の各部は、そ
れぞれに必要なパラメータについて、ユーザから入力を
得る手段が用意されており、ユーザの入力が無い場合に
は、あらかじめ設定されたパラメータにて処理を行う。
【0032】表示手段138には、手術のターゲットと
なる領域411、そのターゲット411周辺の臓器41
2、グラフィックスで描画された内視鏡17、同じくグ
ラフィックスで描画された鉗子などの術具19などが表
示される。
なる領域411、そのターゲット411周辺の臓器41
2、グラフィックスで描画された内視鏡17、同じくグ
ラフィックスで描画された鉗子などの術具19などが表
示される。
【0033】まず、各種の術前データと術中に得られる
データの座標系や位置合わせを座標系/位置合わせ手段
112により行う。ただし、座標系や位置が一致してい
る場合には不要である。
データの座標系や位置合わせを座標系/位置合わせ手段
112により行う。ただし、座標系や位置が一致してい
る場合には不要である。
【0034】ここでは、座標系は直交座標系に合わせる
ものとし、手術の前に、X線やDR,MRI,CTなど
により、手術する部位を含む領域の術前2次元画像デー
タ401や術前3次元画像データ402を計測してお
き、術中に得られるデータとの位置は一致しているする
ものとする。
ものとし、手術の前に、X線やDR,MRI,CTなど
により、手術する部位を含む領域の術前2次元画像デー
タ401や術前3次元画像データ402を計測してお
き、術中に得られるデータとの位置は一致しているする
ものとする。
【0035】次に、術前3次元画像データ402から、
手術中に参照する際に必要となる臓器などをしきい値に
基づく方法や領域拡張に基づく方法などによるセグメン
テーションをセグメンテーション手段113により行
い、セグメンテーションされた3次元画像データ407
を生成する。なお、この処理は行わなくてもよく、また
通常は術前に行うが、術中にセグメンテーションをし直
してもよい。
手術中に参照する際に必要となる臓器などをしきい値に
基づく方法や領域拡張に基づく方法などによるセグメン
テーションをセグメンテーション手段113により行
い、セグメンテーションされた3次元画像データ407
を生成する。なお、この処理は行わなくてもよく、また
通常は術前に行うが、術中にセグメンテーションをし直
してもよい。
【0036】次に、術前3次元画像データ402または
セグメンテーションされた3次元画像データ407よ
り、ボリュームレンダリングなどの可視化手法により、
3次元画像生成手段114で3次元画像を生成し、さら
に必要に応じて、術前計画画像データ409を作成す
る。
セグメンテーションされた3次元画像データ407よ
り、ボリュームレンダリングなどの可視化手法により、
3次元画像生成手段114で3次元画像を生成し、さら
に必要に応じて、術前計画画像データ409を作成す
る。
【0037】手術中には、内視鏡17や術具19などの
位置データ405がリアルタイムで入力される。、3次
元画像生成手段114は術前3次元画像データ402、
術中3次元画像データ403またはセグメンテーション
された3次元画像データ407から、被術者の臓器など
の3次元画像を生成し、3DCG生成手段26は内視鏡
17,術具19の位置データ405から、内視鏡17,
術具19の3次元位置および視線方向(あるいは姿勢)
に応じた3次元のモデル画像をグラフィックス処理で生
成する。
位置データ405がリアルタイムで入力される。、3次
元画像生成手段114は術前3次元画像データ402、
術中3次元画像データ403またはセグメンテーション
された3次元画像データ407から、被術者の臓器など
の3次元画像を生成し、3DCG生成手段26は内視鏡
17,術具19の位置データ405から、内視鏡17,
術具19の3次元位置および視線方向(あるいは姿勢)
に応じた3次元のモデル画像をグラフィックス処理で生
成する。
【0038】このとき、3次元のモデル画像を生成する
方向は、内視鏡17の視線方向と垂直方向をデフォルト
とし、内視鏡17の視線方向とは異なるようにする。内
視鏡17の視線方向と垂直方向とは、図5に示すよう
に、内視鏡17の視線方向501の上下方向502,5
03および左右方向504,505のいずれかに相当す
る。これは、内視鏡17が何処を向いているかを上下方
向または左右方向の画像によって把握するようにするた
めであり、例えば、内視鏡17が箱体506の内側を向
いている場合には、側面507から他の側面508の方
向を見た画像が生成される。
方向は、内視鏡17の視線方向と垂直方向をデフォルト
とし、内視鏡17の視線方向とは異なるようにする。内
視鏡17の視線方向と垂直方向とは、図5に示すよう
に、内視鏡17の視線方向501の上下方向502,5
03および左右方向504,505のいずれかに相当す
る。これは、内視鏡17が何処を向いているかを上下方
向または左右方向の画像によって把握するようにするた
めであり、例えば、内視鏡17が箱体506の内側を向
いている場合には、側面507から他の側面508の方
向を見た画像が生成される。
【0039】これにより、内視鏡17自体の向きと患部
付近での3次元位置が分かり、内視鏡で撮影した画像と
内視鏡17の位置関係、さらには術具の位置関係を容易
に把握できるようにする。その後、ユーザの指示があれ
ば、3次元画像生成方向を変更し、指示された方向から
見た臓器の画像および内視鏡17,術具19の3次元モ
デル画像を生成する。
付近での3次元位置が分かり、内視鏡で撮影した画像と
内視鏡17の位置関係、さらには術具の位置関係を容易
に把握できるようにする。その後、ユーザの指示があれ
ば、3次元画像生成方向を変更し、指示された方向から
見た臓器の画像および内視鏡17,術具19の3次元モ
デル画像を生成する。
【0040】このようにして3次元画像生成手段114
で生成された画像は画像合成手段118によって合成さ
れ、その3次元合成画像410は表示手段13に表示さ
れる。
で生成された画像は画像合成手段118によって合成さ
れ、その3次元合成画像410は表示手段13に表示さ
れる。
【0041】表示手段13には、術中2次元画像データ
404のうちの内視鏡画像413も同時に表示される。
404のうちの内視鏡画像413も同時に表示される。
【0042】以上の処理により、図4の表示手段13に
表示された画像の例のように、術者は、内視鏡17や術
具19の3次元位置と、手術のターゲットとなる領域4
11やその周辺の臓器412などの位置関係を容易に把
握することが可能となる。この表示方向は任意に変更可
能であり、3次元的に認識することができる。これによ
り、内視鏡17の視野だけではわかりにくかった手術が
容易になる。
表示された画像の例のように、術者は、内視鏡17や術
具19の3次元位置と、手術のターゲットとなる領域4
11やその周辺の臓器412などの位置関係を容易に把
握することが可能となる。この表示方向は任意に変更可
能であり、3次元的に認識することができる。これによ
り、内視鏡17の視野だけではわかりにくかった手術が
容易になる。
【0043】図6および図7に上記の方法を用いて、術
前計画画像や2次元の内視鏡画像、バイタルデータなど
の複数のデータを合成表示した例を示す。
前計画画像や2次元の内視鏡画像、バイタルデータなど
の複数のデータを合成表示した例を示す。
【0044】図6では、表示手段13の画面は1つであ
り、3次元合成画像410中に術具19や内視鏡17な
どの位置関係を3次元的に合成した画像が表示され、2
次元の内視鏡画像413と超音波画像414、バイタル
サイン414は現在の状況をリアルタイムで表示してい
る。416は患部の術前計画画像、417は患部を含め
た全体の3次元画像、418〜420は患部付近の複数
の断面像を示し、術前計画の参照を行っている。421
は内視鏡17の3次元位置および視線方向を示す数値情
報、422は術具である鉗子の3次元位置および視線方
向を示す数値情報である。
り、3次元合成画像410中に術具19や内視鏡17な
どの位置関係を3次元的に合成した画像が表示され、2
次元の内視鏡画像413と超音波画像414、バイタル
サイン414は現在の状況をリアルタイムで表示してい
る。416は患部の術前計画画像、417は患部を含め
た全体の3次元画像、418〜420は患部付近の複数
の断面像を示し、術前計画の参照を行っている。421
は内視鏡17の3次元位置および視線方向を示す数値情
報、422は術具である鉗子の3次元位置および視線方
向を示す数値情報である。
【0045】これらの表示画像の配置はユーザが任意に
指定できるものとし、ウィンドウ数、画面数(モニタ
数)も可変とする。すなわち、図7(a)に示すよう
に、表示画面を複数用意し、各画面に3次元合成画像4
10、内視鏡画像413、超音波画像414等を1つず
つ表示してもよい。このとき、術中に計測される超音波
画像414や内視鏡画像413と、術前データを用いて
生成される3次元合成画像410は別の画面に表示する
ことにより、リアルタイム情報と、それ以外の情報を明
瞭に区別して把握することが可能になり、術中の混乱を
避けることが可能である。
指定できるものとし、ウィンドウ数、画面数(モニタ
数)も可変とする。すなわち、図7(a)に示すよう
に、表示画面を複数用意し、各画面に3次元合成画像4
10、内視鏡画像413、超音波画像414等を1つず
つ表示してもよい。このとき、術中に計測される超音波
画像414や内視鏡画像413と、術前データを用いて
生成される3次元合成画像410は別の画面に表示する
ことにより、リアルタイム情報と、それ以外の情報を明
瞭に区別して把握することが可能になり、術中の混乱を
避けることが可能である。
【0046】また、図7(b)に示すように、複数の表
示画面によって1つのウィンドウを構成し、3次元合成
画像410を大画面で表示してもよい。さらに、図7
(c)に示すように、重ね合わせが可能な画像、例え
ば、後述する3次元位置の復元された立体内視鏡画像4
23と視点視線の同じCT断面画像から再構成した3次
元術前計画画像416とMRI画像から再構成した血管
の3次元画像424などを複数選択した場合には、半透
明に各画像を重ね合わせ、その重ね合わせ画像425を
作成し、表示してもよい。このとき、半透明の度合い
は、任意に変更可能とする。
示画面によって1つのウィンドウを構成し、3次元合成
画像410を大画面で表示してもよい。さらに、図7
(c)に示すように、重ね合わせが可能な画像、例え
ば、後述する3次元位置の復元された立体内視鏡画像4
23と視点視線の同じCT断面画像から再構成した3次
元術前計画画像416とMRI画像から再構成した血管
の3次元画像424などを複数選択した場合には、半透
明に各画像を重ね合わせ、その重ね合わせ画像425を
作成し、表示してもよい。このとき、半透明の度合い
は、任意に変更可能とする。
【0047】次に、両眼に視差を持つ立体内視鏡を用い
て術部の画像を撮影し、術部画像を構成する複数の特徴
点の3次元位置を3D復元等画像処理手段116で復元
する手法について説明する。
て術部の画像を撮影し、術部画像を構成する複数の特徴
点の3次元位置を3D復元等画像処理手段116で復元
する手法について説明する。
【0048】図8は、立体内視鏡によって撮影したター
ゲットとなる領域11の画像の例を示す図であり、80
1が左目用、802が右目用の内視鏡画像であり、19
は術具である。
ゲットとなる領域11の画像の例を示す図であり、80
1が左目用、802が右目用の内視鏡画像であり、19
は術具である。
【0049】左右の画像の対応点が分かれば、立体内視
鏡の光学的特性から奥行方向の情報を生成することが可
能である。これは、谷内田編「MARUZEN Adc
anced Technology ;コンピュータビ
ジョン;pp118−124」、および出口著「コンピ
ュータビジョンのための幾何学2 ステレオの仕掛けを
解き明かす;情報処理、vol37,pp662」で説
明されている手法を用いることにより生成することが可
能である。
鏡の光学的特性から奥行方向の情報を生成することが可
能である。これは、谷内田編「MARUZEN Adc
anced Technology ;コンピュータビ
ジョン;pp118−124」、および出口著「コンピ
ュータビジョンのための幾何学2 ステレオの仕掛けを
解き明かす;情報処理、vol37,pp662」で説
明されている手法を用いることにより生成することが可
能である。
【0050】しかし、術具19が存在するため、左右の
画像間で対応点が取れない場合があったり、誤った対応
点をとる場合がある。
画像間で対応点が取れない場合があったり、誤った対応
点をとる場合がある。
【0051】そこで、本発明では、第1の手法として、
まず、左右の立体内視鏡画像から術具19の画像を抽出
する。術具19の画像は周辺領域の組織と色が違うこと
から比較的容易に識別することが可能である。
まず、左右の立体内視鏡画像から術具19の画像を抽出
する。術具19の画像は周辺領域の組織と色が違うこと
から比較的容易に識別することが可能である。
【0052】次に、術具19の画像を除いた領域から、
特徴点として、例えばエッジの交点を用いるとして、a
〜g、a'〜d'、f'〜h'を特徴点として抽出する。このと
き、術具の境界はエッジとしないことにする。特徴点と
しては、高輝度点や低輝度点などを用いてもよい。
特徴点として、例えばエッジの交点を用いるとして、a
〜g、a'〜d'、f'〜h'を特徴点として抽出する。このと
き、術具の境界はエッジとしないことにする。特徴点と
しては、高輝度点や低輝度点などを用いてもよい。
【0053】すると、左右の画像においてa〜dとa'〜
d'、及びf,gとf',g'が対応するが、e,h'に対応する点は
ない。これは術具19の画像により、対応する点が隠さ
れてしまっているためである。立体内視鏡の光学的及び
幾何学的特性が既知であれば、1つの画像上のある点の
もう一方の画像上での点の位置は、ある直線上にあるこ
とが分かるため、そのライン上を探すことで、対応点を
見つけることが可能である。図8の例では、特徴点e及
びh'に対応する点は存在しないため、この点は無視する
ことにする。もし、同一ライン上に特徴点が複数ある場
合には、特徴点の属性(例えばエッジの方向など)から
対応点を決定する。
d'、及びf,gとf',g'が対応するが、e,h'に対応する点は
ない。これは術具19の画像により、対応する点が隠さ
れてしまっているためである。立体内視鏡の光学的及び
幾何学的特性が既知であれば、1つの画像上のある点の
もう一方の画像上での点の位置は、ある直線上にあるこ
とが分かるため、そのライン上を探すことで、対応点を
見つけることが可能である。図8の例では、特徴点e及
びh'に対応する点は存在しないため、この点は無視する
ことにする。もし、同一ライン上に特徴点が複数ある場
合には、特徴点の属性(例えばエッジの方向など)から
対応点を決定する。
【0054】以上の手法により、術野を手前で遮る術具
19などによる、対応点の誤りを回避することが可能と
なり、ターゲットとなる領域11の画像を構成する複数
の特徴点の3次元位置を容易に復元することができる。
19などによる、対応点の誤りを回避することが可能と
なり、ターゲットとなる領域11の画像を構成する複数
の特徴点の3次元位置を容易に復元することができる。
【0055】次に、立体内視鏡の両眼の視差に基づき、
術具を取り除いた画像を復元し、術具によって隠された
部分の特徴点を復元する手法について図9を用いて説明
する。
術具を取り除いた画像を復元し、術具によって隠された
部分の特徴点を復元する手法について図9を用いて説明
する。
【0056】ここでは、立体内視鏡の位置姿勢は固定状
態と考える。このとき、図9(a)のように、最初は術
具がなく、ターゲットとなる領域11の臓器が表示され
ていて、徐々に同図(b),(c)のように術具19が
立体内視鏡の視野に入ってくるような場合を考える。こ
のような場合、臓器のみが表示されている図9(a)の
状態では、すべての特徴点a〜hに関して3次元位置を
復元可能であるが、術具19が視野に入ってくると、そ
の術具19に遮られた部分、すなわち図9(b)のe,
g、同図(c)のc, e, hに関しては3次元位置は復元不
可能になる。
態と考える。このとき、図9(a)のように、最初は術
具がなく、ターゲットとなる領域11の臓器が表示され
ていて、徐々に同図(b),(c)のように術具19が
立体内視鏡の視野に入ってくるような場合を考える。こ
のような場合、臓器のみが表示されている図9(a)の
状態では、すべての特徴点a〜hに関して3次元位置を
復元可能であるが、術具19が視野に入ってくると、そ
の術具19に遮られた部分、すなわち図9(b)のe,
g、同図(c)のc, e, hに関しては3次元位置は復元不
可能になる。
【0057】そこで、立体内視鏡の位置姿勢が変わらな
い場合には、術具19が視野内に存在しない状態で(こ
れは幾何学的な条件から求められる)、立体内視鏡画像
中の特徴点に関して3次元位置を復元し、術具19が視
野に入ってからは、臓器の各特徴点3次元位置は、最初
に求めた復元結果を利用することにする。
い場合には、術具19が視野内に存在しない状態で(こ
れは幾何学的な条件から求められる)、立体内視鏡画像
中の特徴点に関して3次元位置を復元し、術具19が視
野に入ってからは、臓器の各特徴点3次元位置は、最初
に求めた復元結果を利用することにする。
【0058】以上のような方法により、術具によって臓
器の画像が隠された場合であっても、立体内視鏡の両眼
の視差により、臓器の各特徴点の3次元位置が復元で
き、結果的に臓器の形状を把握することができる。
器の画像が隠された場合であっても、立体内視鏡の両眼
の視差により、臓器の各特徴点の3次元位置が復元で
き、結果的に臓器の形状を把握することができる。
【0059】臓器の各特徴点の3次元位置が復元できた
ならば、この3次元位置情報と、術具19の位置情報か
ら、術具19が重要な臓器に接触しそうになった場合に
警告を提示するなどのモニタリングが可能となり、立体
内視鏡だけでは奥行き関係が分かりにくい場合にも安全
な手術が可能となる。このとき、術具19の3次元位置
は、位置計測装置16センサ或いは立体内視鏡に映った
術具19の位置から得ることができる。
ならば、この3次元位置情報と、術具19の位置情報か
ら、術具19が重要な臓器に接触しそうになった場合に
警告を提示するなどのモニタリングが可能となり、立体
内視鏡だけでは奥行き関係が分かりにくい場合にも安全
な手術が可能となる。このとき、術具19の3次元位置
は、位置計測装置16センサ或いは立体内視鏡に映った
術具19の位置から得ることができる。
【0060】上記のようにして、立体内視鏡の左右の画
像において対応関係にある各特徴点の3次元位置の復元
が可能となるが、画像中のすべての特徴点に対応して3
次元位置を復元することは困難で、特徴がなく、対応の
付かなかった点の3次元位置は復元できない。
像において対応関係にある各特徴点の3次元位置の復元
が可能となるが、画像中のすべての特徴点に対応して3
次元位置を復元することは困難で、特徴がなく、対応の
付かなかった点の3次元位置は復元できない。
【0061】そこで、次に、図10を用いて、特徴点以
外の点の特徴点3次元位置の復元方法について説明す
る。図10において、101は術前にセグメンテーショ
ンした3次元画像データ407から生成した臓器の3次
元モデルである。
外の点の特徴点3次元位置の復元方法について説明す
る。図10において、101は術前にセグメンテーショ
ンした3次元画像データ407から生成した臓器の3次
元モデルである。
【0062】このとき、術前データの座標系と術中の立
体内視鏡などの座標系の統合は済んでいるものとする。
体内視鏡などの座標系の統合は済んでいるものとする。
【0063】まず、前述の手法により3次元位置を復元
した特徴点A,B,Cと臓器の術前に作成した3次元モ
デル101上の特徴点A’,B’,C’との対応をと
り、各特徴点が立体内視鏡画像と対応するように変形
し、位置合わせを行う。このとき、立体内視鏡の位置、
姿勢は位置計測装置16の出力情報によって認識可能な
ため、3次元モデル101と立体内視鏡画像の対応は容
易に付くが、自動的に対応がとれない場合には、操作者
が対応点を指示しても良い。この位置合わせのための情
報を用いると、立体内視鏡画像中で、3次元位置が復元
されていない特徴点Xは、3次元モデル101上の対応
する点X’の位置で近似できることになる。
した特徴点A,B,Cと臓器の術前に作成した3次元モ
デル101上の特徴点A’,B’,C’との対応をと
り、各特徴点が立体内視鏡画像と対応するように変形
し、位置合わせを行う。このとき、立体内視鏡の位置、
姿勢は位置計測装置16の出力情報によって認識可能な
ため、3次元モデル101と立体内視鏡画像の対応は容
易に付くが、自動的に対応がとれない場合には、操作者
が対応点を指示しても良い。この位置合わせのための情
報を用いると、立体内視鏡画像中で、3次元位置が復元
されていない特徴点Xは、3次元モデル101上の対応
する点X’の位置で近似できることになる。
【0064】この手法により、数点の特徴点同士の対応
をとることにより、立体内視鏡画像中に映ったモデル化
された臓器領域に関して、3次元位置を得ることができ
る。すなわち、立体内視鏡画像上の特徴点以外の点にお
ける3次元位置についても求めることができる。
をとることにより、立体内視鏡画像中に映ったモデル化
された臓器領域に関して、3次元位置を得ることができ
る。すなわち、立体内視鏡画像上の特徴点以外の点にお
ける3次元位置についても求めることができる。
【0065】以上のような方法で3次元位置の復元され
た立体内視鏡画像と、術前に計測した3次元画像データ
407から生成した3次元画像との対応をとり、位置を
合わせ、しかも術前の3次元画像データ407から内部
の腫瘍情報などをセグメンテーションしておいて図7
(c)に示したように合成表示することにより、表面情
報しか見ることができない立体内視鏡画像中に、腫瘍情
報など内部情報を重ねて表示することが可能となり、術
者へ提示できる情報量を増やすことができる。
た立体内視鏡画像と、術前に計測した3次元画像データ
407から生成した3次元画像との対応をとり、位置を
合わせ、しかも術前の3次元画像データ407から内部
の腫瘍情報などをセグメンテーションしておいて図7
(c)に示したように合成表示することにより、表面情
報しか見ることができない立体内視鏡画像中に、腫瘍情
報など内部情報を重ねて表示することが可能となり、術
者へ提示できる情報量を増やすことができる。
【0066】また、立体内視鏡の視野よりも大きな領域
の3次元画像に立体内視鏡画像を重ね合わせることによ
り、仮想的に広い視野で手術ができることになり、術者
の負担が軽減される。
の3次元画像に立体内視鏡画像を重ね合わせることによ
り、仮想的に広い視野で手術ができることになり、術者
の負担が軽減される。
【0067】次に、立体内視鏡画像上の特徴点の3次元
位置を利用した断面画像を再構成する手法について図1
1を用いて説明する。
位置を利用した断面画像を再構成する手法について図1
1を用いて説明する。
【0068】まず、図11(a)に示すような画像(こ
こでは、立体内視鏡の片目画像を代表して示す)が表示
されている状態であるとする。この状態で、操作者は断
面画像を見たい位置の中心102を内視鏡画像上で指定
する。その指定はマウスやタブレット、タッチパネルな
どのポインティングデバイスを用いる。
こでは、立体内視鏡の片目画像を代表して示す)が表示
されている状態であるとする。この状態で、操作者は断
面画像を見たい位置の中心102を内視鏡画像上で指定
する。その指定はマウスやタブレット、タッチパネルな
どのポインティングデバイスを用いる。
【0069】指定された点の3次元位置は前述した手法
によって求まる。そこで、その指定した位置102を通
り、立体内視鏡の視線方向と垂直な平面の画像(視線方
向と同じ方向を見た時の画像)103を、術前に計測し
た術前3次元画像データ402または術中に撮影した術
中3次元画像データ403から再構成する。
によって求まる。そこで、その指定した位置102を通
り、立体内視鏡の視線方向と垂直な平面の画像(視線方
向と同じ方向を見た時の画像)103を、術前に計測し
た術前3次元画像データ402または術中に撮影した術
中3次元画像データ403から再構成する。
【0070】この場合、断面画像を生成する大きさや形
状は操作者が入力できるものとするが、デフォルトでは
例えば図11(b)に示すように指定点102を中心と
する画素数N×Nの正方形であるとし、指定した位置1
02を断面画像上に重ねて表示する。
状は操作者が入力できるものとするが、デフォルトでは
例えば図11(b)に示すように指定点102を中心と
する画素数N×Nの正方形であるとし、指定した位置1
02を断面画像上に重ねて表示する。
【0071】断面の表示は、図11(b)に示すように
断面画像103のみで表示する他に、図11(c)に示
すように立体内視鏡画像を重ね合わせた画像104とし
てもよい。これにより、全体における立体内視鏡画像の
位置の把握や、断面画像による診断的情報などを得るこ
とができる。
断面画像103のみで表示する他に、図11(c)に示
すように立体内視鏡画像を重ね合わせた画像104とし
てもよい。これにより、全体における立体内視鏡画像の
位置の把握や、断面画像による診断的情報などを得るこ
とができる。
【0072】さらに、図11(d)に示すようにパラメ
ータにより断面位置を視線方向に沿って平行移動した画
像105を表示することにより、立体内視鏡画像では見
ることができない表面の下の情報を得ることができる。
このとき、指定した位置102を通る視線方向と断面位
置との交点106を表示することにより、指定位置10
2との位置関係を分かりやすく提示することが可能とな
る。
ータにより断面位置を視線方向に沿って平行移動した画
像105を表示することにより、立体内視鏡画像では見
ることができない表面の下の情報を得ることができる。
このとき、指定した位置102を通る視線方向と断面位
置との交点106を表示することにより、指定位置10
2との位置関係を分かりやすく提示することが可能とな
る。
【0073】次に、図11で説明した断面画像を奥行方
向に複数加算した画像を表示する手法について図12を
用いて説明する。
向に複数加算した画像を表示する手法について図12を
用いて説明する。
【0074】まず、図11で説明したのと同様に、立体
内視鏡画像上の点102を指定することで、断面加算画
像を生成する範囲を指定する。次に、指定した点102
の位置から奥行き方向(立体内視鏡の視線方向の視点か
ら遠ざかる向き)に指定された深さ分(指定されない場
合はデフォルト値で)の断面画像103,105,10
6を術前3次元画像データ403から生成し、それらを
加算した画像108を図12(b)に示すようにして表
示する。この場合、表示法は、図11の場合と同様に立
体内視鏡画像を重ねて表示しても良いし、別に表示して
もよい。例えば図12(c)の断面画像中に血溜像10
7が存在した場合、各断面画像を重ね合わせて表示する
ことにより、立体内視鏡の方向から見た場合の深さ方向
の位置情報を提示することができる。
内視鏡画像上の点102を指定することで、断面加算画
像を生成する範囲を指定する。次に、指定した点102
の位置から奥行き方向(立体内視鏡の視線方向の視点か
ら遠ざかる向き)に指定された深さ分(指定されない場
合はデフォルト値で)の断面画像103,105,10
6を術前3次元画像データ403から生成し、それらを
加算した画像108を図12(b)に示すようにして表
示する。この場合、表示法は、図11の場合と同様に立
体内視鏡画像を重ねて表示しても良いし、別に表示して
もよい。例えば図12(c)の断面画像中に血溜像10
7が存在した場合、各断面画像を重ね合わせて表示する
ことにより、立体内視鏡の方向から見た場合の深さ方向
の位置情報を提示することができる。
【0075】図11で説明した例では、深さ方向の情報
を得るために断面位置を平行移動しなければならないと
いう手間がかかったが、図12で説明した手法を用いる
ことにより、1度の操作で、一断面では得られない情報
を得ることが可能になり、表面深部の患部や血溜の位置
などを同時に把握できる。
を得るために断面位置を平行移動しなければならないと
いう手間がかかったが、図12で説明した手法を用いる
ことにより、1度の操作で、一断面では得られない情報
を得ることが可能になり、表面深部の患部や血溜の位置
などを同時に把握できる。
【0076】次に、単眼の内視鏡画像あるいは立体内視
鏡画像から各特徴点の3次元位置情報を復元するタイミ
ングについて図13のフローチャートを用いて説明す
る。
鏡画像から各特徴点の3次元位置情報を復元するタイミ
ングについて図13のフローチャートを用いて説明す
る。
【0077】内視鏡(単眼内視鏡あるいは立体内視鏡)
が術者により体内へ挿入されているときには、その撮影
画像は刻々と変わるため、その都度、各特徴点の3次元
位置の復元を行っては無駄が多い。
が術者により体内へ挿入されているときには、その撮影
画像は刻々と変わるため、その都度、各特徴点の3次元
位置の復元を行っては無駄が多い。
【0078】そこで、内視鏡の移動が停止するのを検出
し、停止した時点で撮影画像を構成する各特徴点の3次
元位置の復元処理を行う。例えば、内視鏡の位置・姿勢
データ(位置・視線方向データ)を位置計測装置16よ
り入手し(ステップ131)、時間的に以前(例えば1
秒前)の位置・姿勢データと比較を行う(ステップ13
2)。この比較の結果、値が異なった場合には、一定時
間(例えば1秒間)経過後、再びステップ131に戻
り、現在の位置・姿勢データを入手する。しかし、値が
同じの場合には、内視鏡は固定された(停止した)と判
断し、内視鏡画像の3次元位置の復元処理を行う(ステ
ップ133)。
し、停止した時点で撮影画像を構成する各特徴点の3次
元位置の復元処理を行う。例えば、内視鏡の位置・姿勢
データ(位置・視線方向データ)を位置計測装置16よ
り入手し(ステップ131)、時間的に以前(例えば1
秒前)の位置・姿勢データと比較を行う(ステップ13
2)。この比較の結果、値が異なった場合には、一定時
間(例えば1秒間)経過後、再びステップ131に戻
り、現在の位置・姿勢データを入手する。しかし、値が
同じの場合には、内視鏡は固定された(停止した)と判
断し、内視鏡画像の3次元位置の復元処理を行う(ステ
ップ133)。
【0079】ここで、内視鏡が移動しない限り3次元位
置の復元を行わない方法をとると、観察している臓器が
変形した場合などに対応できないため、操作者からの指
示によるユーザ割込みによって3次元位置の復元処理を
実行するようにする(ステップ134)。さらに、内視
鏡の位置・姿勢が変更された場合には、内視鏡の制御機
構より、割り込みが発生し(ステップ135)、ステッ
プ131へ戻る。
置の復元を行わない方法をとると、観察している臓器が
変形した場合などに対応できないため、操作者からの指
示によるユーザ割込みによって3次元位置の復元処理を
実行するようにする(ステップ134)。さらに、内視
鏡の位置・姿勢が変更された場合には、内視鏡の制御機
構より、割り込みが発生し(ステップ135)、ステッ
プ131へ戻る。
【0080】このようにすることにより、3次元位置の
復元処理における冗長な処理を省くことができ、処理時
間の短縮を図ることが可能になる。
復元処理における冗長な処理を省くことができ、処理時
間の短縮を図ることが可能になる。
【0081】次に、立体内視鏡に映った術具位置を参照
して内視鏡画像の3次元位置を復元する差異のパラメー
タを調整するキャリブレーションについて図14を用い
て説明する。
して内視鏡画像の3次元位置を復元する差異のパラメー
タを調整するキャリブレーションについて図14を用い
て説明する。
【0082】各種の術具や内視鏡などを正確に制御する
ためには、各術具や内視鏡などの位置合わせを行う必要
がある。術具や内視鏡などを保持し、位置/姿勢を制御
するマニピュレータ間の誤差は、共通絶対位置を事前に
合わせることによりキャリブレーションすることができ
る。一方、立体内視鏡画像から3次元位置を復元した位
置に関しては、視差の誤差、画像の歪み、対応点のずれ
などから、誤差が生じる。
ためには、各術具や内視鏡などの位置合わせを行う必要
がある。術具や内視鏡などを保持し、位置/姿勢を制御
するマニピュレータ間の誤差は、共通絶対位置を事前に
合わせることによりキャリブレーションすることができ
る。一方、立体内視鏡画像から3次元位置を復元した位
置に関しては、視差の誤差、画像の歪み、対応点のずれ
などから、誤差が生じる。
【0083】そこで、立体内視鏡画像に映った術具から
復元した3次元位置とマニピュレータ161による制御
位置との位置合わせを行う。
復元した3次元位置とマニピュレータ161による制御
位置との位置合わせを行う。
【0084】マニピュレータ161の位置を(x,y,z)と
し、立体内視鏡画像から復元された3次元位置を(u,v,
w)としたとき、次の「数1」により座標変換がされるも
のとする。
し、立体内視鏡画像から復元された3次元位置を(u,v,
w)としたとき、次の「数1」により座標変換がされるも
のとする。
【0085】
【数1】
【0086】この場合、一般には、より高次の項を加え
た非線型な変換を行ってもよいが、その分未知の係数が
増え、計算量が増加するため、線形変換に非線型の項を
1つ加えた「数1」を用いることにする。
た非線型な変換を行ってもよいが、その分未知の係数が
増え、計算量が増加するため、線形変換に非線型の項を
1つ加えた「数1」を用いることにする。
【0087】さて、「数1」を用いた場合、未知の係数
は15個となる。一組のマニピュレータ位置(x,y,z)と
立体内視鏡復元位置(u,v,w)からは3つの方程式を生成
できるため、すべての未知数を解くためには5点以上の
対応点が必要となる。5点あれば解を求められ、6点以
上の場合、最小2乗法などの手法で平均的により安定な
解を求めることになる。ここでは、5点の対応点(x0,y
0,z0)→(u0,v0,w0),....,(x4,y4,z4)→(u4,v4,w4)が与
えられたとすると、「数2」が得られる。
は15個となる。一組のマニピュレータ位置(x,y,z)と
立体内視鏡復元位置(u,v,w)からは3つの方程式を生成
できるため、すべての未知数を解くためには5点以上の
対応点が必要となる。5点あれば解を求められ、6点以
上の場合、最小2乗法などの手法で平均的により安定な
解を求めることになる。ここでは、5点の対応点(x0,y
0,z0)→(u0,v0,w0),....,(x4,y4,z4)→(u4,v4,w4)が与
えられたとすると、「数2」が得られる。
【0088】
【数2】
【0089】ここで、「数2」をマニピュレータ位置行
列X、係数行列A、内視鏡復元位置行列Uを用いて書き
換えると、係数行列Aは「数3」のように求められる。
列X、係数行列A、内視鏡復元位置行列Uを用いて書き
換えると、係数行列Aは「数3」のように求められる。
【0090】
【数3】
【0091】以上のようにして求めた係数をパラメータ
として用い、立体内視鏡画像より復元された3次元位置
をマニピュレータ161の3次元位置へ変換することに
より、3次元位置の復元精度を向上することが可能とな
る。
として用い、立体内視鏡画像より復元された3次元位置
をマニピュレータ161の3次元位置へ変換することに
より、3次元位置の復元精度を向上することが可能とな
る。
【0092】また、この手法を逆に用いてマニピュレー
タ162の異常を検知できる。このことについて図14
のフローチャートを用いて説明する。
タ162の異常を検知できる。このことについて図14
のフローチャートを用いて説明する。
【0093】マニピュレータ162を機械により自動駆
動していた場合、急激な電圧低下や、電磁ノイズによる
制御値の異常、アクチュエータの故障などにより異常動
作することが考えられ、危険が考えられる。そこで、立
体内視鏡画像に映った術具の位置と、術具の制御情報を
比較して監視することにより、異常を検知することがで
きる。
動していた場合、急激な電圧低下や、電磁ノイズによる
制御値の異常、アクチュエータの故障などにより異常動
作することが考えられ、危険が考えられる。そこで、立
体内視鏡画像に映った術具の位置と、術具の制御情報を
比較して監視することにより、異常を検知することがで
きる。
【0094】まず、立体内視鏡画像から復元した臓器等
の特徴点の3次元位置と術具位置とのキャリブレーショ
ンを行う。(ステップ141)手術中は一定間隔(例え
ば1秒間隔)で立体内視鏡画像から術具の3次元位置を
復元し(ステップ142)、術具制御情報との比較を行
い(ステップ143)、その差がしきい値を超えた場合
には、術具の移動を停止し(ステップ144)、手術を
中断する。術者が位置関係の確認を行い(ステップ14
5)、問題がなければステップ141に戻り、キャリブ
レーションを行い手術を再開する。
の特徴点の3次元位置と術具位置とのキャリブレーショ
ンを行う。(ステップ141)手術中は一定間隔(例え
ば1秒間隔)で立体内視鏡画像から術具の3次元位置を
復元し(ステップ142)、術具制御情報との比較を行
い(ステップ143)、その差がしきい値を超えた場合
には、術具の移動を停止し(ステップ144)、手術を
中断する。術者が位置関係の確認を行い(ステップ14
5)、問題がなければステップ141に戻り、キャリブ
レーションを行い手術を再開する。
【0095】このようにすることにより、より安全にマ
ニピュレータ162を用いた手術を行うことが可能とな
る。
ニピュレータ162を用いた手術を行うことが可能とな
る。
【0096】以上説明した実施形態によれば、内視鏡下
の手術において、手術の低侵襲化、時間短縮、安全性向
上、術者の負担軽減などが達成できる。
の手術において、手術の低侵襲化、時間短縮、安全性向
上、術者の負担軽減などが達成できる。
【0097】具体的には、視野の狭い内視鏡では確認す
ることができない全体における3次元的な位置関係、す
なわち内視鏡がどの方向を向いているのか、どの部分を
見ているのかなどの位置関係を容易に把握することが可
能となる。
ることができない全体における3次元的な位置関係、す
なわち内視鏡がどの方向を向いているのか、どの部分を
見ているのかなどの位置関係を容易に把握することが可
能となる。
【0098】また、術前の画像や現在の状況を示す様々
な情報を合成し、選択的に表示することが可能なため、
非開腹手術等における術者の現状認識を補助することが
できる。
な情報を合成し、選択的に表示することが可能なため、
非開腹手術等における術者の現状認識を補助することが
できる。
【0099】また、術具等によって立体内視鏡画像の一
部が隠れてしまった場合でも、立体内視鏡画像から体内
画像の特徴点の3次元位置の復元を対応点の特定に時間
をかけずに精度よくできるようになり、その結果として
術前の画像との位置合わせが容易になる。
部が隠れてしまった場合でも、立体内視鏡画像から体内
画像の特徴点の3次元位置の復元を対応点の特定に時間
をかけずに精度よくできるようになり、その結果として
術前の画像との位置合わせが容易になる。
【0100】さらに、術具と臓器との距離などを計測可
能であり、重要臓器を侵襲しそうになった場合などに警
告を出すこともできる。
能であり、重要臓器を侵襲しそうになった場合などに警
告を出すこともできる。
【0101】また、内視鏡では観察できない表面深部の
状態を、容易な操作により、術前の断層画像より生成し
て提示することができる。
状態を、容易な操作により、術前の断層画像より生成し
て提示することができる。
【0102】さらに、内視鏡画像の歪に起因する3次元
位置の復元精度を向上させ、内視鏡画像の3次元位置を
高精度で検出することが可能になったうえ、術具の位置
を画像上でモニタリングすることで、術具を保持するマ
ニピュレータの異常を検知できるなどの効果がある。
位置の復元精度を向上させ、内視鏡画像の3次元位置を
高精度で検出することが可能になったうえ、術具の位置
を画像上でモニタリングすることで、術具を保持するマ
ニピュレータの異常を検知できるなどの効果がある。
【0103】ところで、本発明は、内視鏡下の外科手術
を支援する場合に限らず、内部空間が外部から遮蔽さ
れ、外部から内視鏡を挿入して内部空間を観察する場合
に同様に適用することができる。図15に、その一例を
示す。
を支援する場合に限らず、内部空間が外部から遮蔽さ
れ、外部から内視鏡を挿入して内部空間を観察する場合
に同様に適用することができる。図15に、その一例を
示す。
【0104】図15において、151は地中から発掘さ
れた古代の棺であり、内部には空気に触れると急速に品
質が変質するような装飾品等の文化財が収納されている
とする。このような棺151については、内部をさらす
ことなく内部の文化財の調査を行うことが必要になる。
れた古代の棺であり、内部には空気に触れると急速に品
質が変質するような装飾品等の文化財が収納されている
とする。このような棺151については、内部をさらす
ことなく内部の文化財の調査を行うことが必要になる。
【0105】そこで、棺151の全体の断層像、あるい
は底部の2次元平面画像を高エネルギーの産業用X線C
Tによって撮影した後、棺151の一部の小さな隙間か
らマニピュレータ161に保持された内視鏡17を挿入
し、棺151の内部の画像を撮影する。そして、産業用
X線CTによって撮影した事前画像と内視鏡によって撮
影した画像とを前記の実施形態と同様の画像処理によっ
て処理する。この場合の画像処理装置の構成は、図1に
おける構成から心電計等の計測装置および術具を保持す
るマニピュレータを削除した構成になる。
は底部の2次元平面画像を高エネルギーの産業用X線C
Tによって撮影した後、棺151の一部の小さな隙間か
らマニピュレータ161に保持された内視鏡17を挿入
し、棺151の内部の画像を撮影する。そして、産業用
X線CTによって撮影した事前画像と内視鏡によって撮
影した画像とを前記の実施形態と同様の画像処理によっ
て処理する。この場合の画像処理装置の構成は、図1に
おける構成から心電計等の計測装置および術具を保持す
るマニピュレータを削除した構成になる。
【0106】これにより、内視鏡で撮影している内在物
と、棺151内における3次元的な位置関係を容易に把
握することができる。
と、棺151内における3次元的な位置関係を容易に把
握することができる。
【0107】さらに、産業用X線CTによって撮影した
事前画像から生成した3次元モデルに体し、内視鏡画像
をテキスチャとしてマッピングすることにより、画像処
理装置内に内在物である装飾品等の文化財の3次元画像
データを蓄積することができる。
事前画像から生成した3次元モデルに体し、内視鏡画像
をテキスチャとしてマッピングすることにより、画像処
理装置内に内在物である装飾品等の文化財の3次元画像
データを蓄積することができる。
【0108】このような応用の他に、内部が見えない構
造物、例えば上下水道設備、原子力設備、建築物などの
構造物を対象にして、内部を調査する場合に適用するこ
とができる。
造物、例えば上下水道設備、原子力設備、建築物などの
構造物を対象にして、内部を調査する場合に適用するこ
とができる。
【0109】
【発明の効果】以上詳細に説明したように、本発明によ
る画像処理装置によれば、外部から遮蔽された対象物の
内部空間を視野の狭い内視鏡で撮影した画像を表示する
場合に、内視鏡画像あるいは内視鏡自体の対象物全体に
おける3次元的な位置関係および視線方向を容易に把握
することができる。
る画像処理装置によれば、外部から遮蔽された対象物の
内部空間を視野の狭い内視鏡で撮影した画像を表示する
場合に、内視鏡画像あるいは内視鏡自体の対象物全体に
おける3次元的な位置関係および視線方向を容易に把握
することができる。
【0110】また、内視鏡画像の一部が術具などの操作
具によって隠れてしまった場合でも、予め撮影しておい
た画像と内視鏡画像との対応付けを容易に行い、隠れた
部分の位置を把握することができる。
具によって隠れてしまった場合でも、予め撮影しておい
た画像と内視鏡画像との対応付けを容易に行い、隠れた
部分の位置を把握することができる。
【0111】また、内視鏡では撮影できない内側の状態
を把握することができる。
を把握することができる。
【0112】さらに、内視鏡画像自体に歪に起因する3
次元位置の復元誤差を補正し、内視鏡画像の3次元位置
を高精度で復元することができる。
次元位置の復元誤差を補正し、内視鏡画像の3次元位置
を高精度で復元することができる。
【0113】特に、内視鏡下の手術支援に適用した場
合、手術の低侵襲化、時間短縮、安全性向上、術者の負
担軽減などを図れるという優れた効果が得られる。
合、手術の低侵襲化、時間短縮、安全性向上、術者の負
担軽減などを図れるという優れた効果が得られる。
【図1】本発明を適用した画像処理装置の第1の実施形
態を示す機能ブロック図である。
態を示す機能ブロック図である。
【図2】位置計測装置を内蔵したマニピュレータの例を
示す図である。
示す図である。
【図3】内視鏡を用いた手術を行う場合の作業の流れを
示すフローチャートである。
示すフローチャートである。
【図4】各種の計測データと画像処理の関係を示す機能
説明図である。
説明図である。
【図5】内視鏡の視線方向と垂直な方向の説明図であ
る。
る。
【図6】合成表示画面の例を示す説明図である。
【図7】合成表示画面の他の例を示す説明図である。
【図8】立体内視鏡画像からの特徴点の3次元位置復元
のための対応点を求める処理の説明図である。
のための対応点を求める処理の説明図である。
【図9】術前画像を用いて立体内視鏡画像の特徴点の3
次元位置を復元する処理の説明図である。
次元位置を復元する処理の説明図である。
【図10】特徴点でない位置の3次元位置を復元する処
理の説明図である。
理の説明図である。
【図11】内視鏡画像上で指定した位置の断面画像を表
示する例の説明図である。
示する例の説明図である。
【図12】内視鏡画像上で指定した位置の断面加算画像
を表示する例の説明図である。
を表示する例の説明図である。
【図13】立体内視鏡画像からの3次元位置を復元処理
のフローチャートである。
のフローチャートである。
【図14】術具位置の監視処理のフローチャートであ
る。
る。
【図15】箱体の内部を内視鏡で観察する場合に適用し
た第2の実施形態を示す概略構成図である。
た第2の実施形態を示す概略構成図である。
11…画像合成装置、12…入力装置、13…表示手
段、14…2D計測装置、15…3D計測装置、16…
位置計測装置、17…内視鏡、19…術具、111…デ
ータ記憶装置、112…座標系/位置合わせ手段、11
3…セグメンテーション手段、114…3D画像生成手
段、115…断面画像生成手段、116…3D復元等画
像処理手段、117…3DCG生成手段、161,16
2…マニピュレータ。
段、14…2D計測装置、15…3D計測装置、16…
位置計測装置、17…内視鏡、19…術具、111…デ
ータ記憶装置、112…座標系/位置合わせ手段、11
3…セグメンテーション手段、114…3D画像生成手
段、115…断面画像生成手段、116…3D復元等画
像処理手段、117…3DCG生成手段、161,16
2…マニピュレータ。
Claims (9)
- 【請求項1】 外部から遮蔽された対象物の内部空間内
の画像を表示する画像処理装置において、 前記対象物の内部空間内に挿入され、該内部空間内で3
次元位置および視線方向が任意に変更可能な内視鏡と、 この内視鏡の前記内部空間内の3次元位置および視線方
向を計測する計測手段と、 前記内視鏡による撮影範囲を含む前記対象物の3次元断
層像を撮影する断層像撮影手段と、 前記計測手段によって計測された内視鏡の視線方向を参
照し、前記断層像撮影手段による3次元断層像に基づき
前記内視鏡の視線方向とは異なる方向から見た3次元画
像を生成する3次元画像生成手段と、 前記計測手段によって計測された前記対象物の内部空間
内の内視鏡の3次元位置および視線方向を参照し、前記
対象物の内部空間内における内視鏡先端部のモデル画像
を生成する内視鏡モデル画像生成手段と、 前記3次元画像生成手段により生成された3次元画像と
前記内視鏡モデル画像生成手段により生成された内視鏡
先端部のモデル画像との合成画像と共に、前記内視鏡の
撮影画像とを表示する表示手段と、を備えることを特徴
とする画像処理装置。 - 【請求項2】 外部から遮蔽された対象物の内部空間内
の画像を表示する画像処理装置において、 前記対象物の内部空間内に挿入され、該内部空間内で3
次元位置および視線方向が任意に変更可能な内視鏡と、 この内視鏡の前記内部空間内の3次元位置および視線方
向を計測する第1の計測手段と、 前記対象物の内部空間内に挿入され、該内部空間内で3
次元位置および視線方向が任意に変更可能な操作具と、 この操作具の前記内部空間内の3次元位置を計測する第
2の計測手段と、 前記内視鏡による撮影範囲を含む前記対象物の3次元断
層像を撮影する断層像撮影手段と、 この断層像撮影手段による3次元断層像に基づき前記内
視鏡の視線方向とは異なる方向から見た3次元画像を生
成する3次元画像生成手段と、 前記第1の計測手段によって計測された前記対象物の内
部空間内の内視鏡の3次元位置および視線方向を参照
し、前記対象物の内部空間内における内視鏡先端部のモ
デル画像を生成すると共に、前記第2の計測手段によっ
て計測された前記操作具の前記内部空間内における3次
元位置を参照し、前記対象物の内部空間内における操作
具先端部のモデル画像を生成するモデル画像生成手段
と、 前記3次元画像生成手段により生成された3次元画像と
前記モデル画像生成手段により生成された内視鏡先端部
および操作具先端部のモデル画像との合成画像と共に、
前記内視鏡の撮影画像とを表示する表示手段と、を備え
ることを特徴とする画像処理装置。 - 【請求項3】 外部から遮蔽された対象物の内部空間内
の画像を表示する画像処理装置において、 前記対象物の内部空間内に挿入され、該内部空間内で3
次元位置および視線方向が任意に変更可能な立体内視鏡
と、 この内視鏡の前記内部空間内の3次元位置および視線方
向を計測する計測手段と、 前記立体内視鏡による撮影範囲を含む前記対象物の3次
元断層像を撮影する断層像撮影手段と、 前記計測手段によって計測された内視鏡の視線方向を参
照し、前記断層像撮影手段による3次元断層像に基づき
前記立体内視鏡の視線方向と同じ方向から見た3次元画
像を生成する3次元画像生成手段と、 前記立体内視鏡の両眼の視差に基づき該立体内視鏡で撮
影した前記対象物の内部空間内の画像の複数の特徴点の
3次元位置を復元する3次元画像復元手段と、 前記3次元画像生成手段により生成された3次元画像の
複数の特徴点と前記3次元画像復元手段によって復元さ
れた前記立体内視鏡画像の複数の特徴点との対応付けを
行い、対応付け後の3次元画像と立体内視鏡の片眼の撮
影画像とを合成する画像合成手段と、 合成後の画像を表示する表示手段と、を備えることを特
徴とする画像処理装置。 - 【請求項4】 前記3次元画像復元手段は、前記立体内
視鏡で撮影した前記対象物の内部空間内の画像の複数の
特徴点以外の点の3次元位置を、前記3次元画像生成手
段により生成された3次元画像から求めることを特徴と
する請求項3記載の画像処理装置。 - 【請求項5】 前記3次元画像復元手段は、対象物の内
部空間内に操作具が挿入される前に前記立体内視鏡で撮
影した画像と、前記操作具が挿入され、かつ該操作具が
立体内視鏡で撮影された状態での立体内視鏡の出力画像
とのマッチングを行い、前記操作具の像を除く領域を抽
出した後、その領域中の複数の特徴点の3次元位置を前
記立体内視鏡の両眼の視差に基づいて復元することを特
徴とする請求項3記載の画像処理装置。 - 【請求項6】 前記3次元画像復元手段によって3次元
位置が復元された立体内視鏡画像上の1点を指定する手
段と、 指定された立体内視鏡画像上の位置を中心とし、該指定
された位置を通り、前記立体内視鏡の視線方向と垂直な
1ないし複数の断面における3次元画像を前記断層像撮
影手段による3次元断層像から再生成する3次元画像再
生成手段と、 再生成された1ないし複数の断面における重ね合わせ3
次元画像を生成し、前記表示手段に表示させる手段と、
をさらに備えることを特徴とする請求項3〜5記載のい
ずれかの画像処理装置。 - 【請求項7】 前記3次元画像復元手段における立体内
視鏡画像の3次元位置の復元処理は、該立体内視鏡の移
動が停止した時点、または操作者の指示のあった時点で
行うことを特徴とする請求項3〜6記載のいずれかの画
像処理装置。 - 【請求項8】 前記対象物内部空間内に挿入された操作
具の先端の3次元位置を検出する検出手段と、 前記立体内視鏡によって撮影された画像中から前記操作
具の先端を識別する識別手段と、 前記立体内視鏡の両眼の視差に基づき、前記識別手段に
よって識別された前記操作具の先端の3次元位置を復元
する復元手段と、前記検出手段によって検出された前記
操作具の先端の3次元位置と前記復元手段によって復元
された前記操作具の先端の3次元位置を比較し、前記3
次元画像復元手段において前記立体内視鏡の撮影画像の
3次元位置を復元するためのパラメータを調整する手段
と、をさらに備えることを特徴とする請求項3〜7記載
のいずれかの画像処理装置。 - 【請求項9】 前記対象物の内部空間は低侵襲手術にお
ける体内であり、前記操作具は低侵襲手術における術具
であることを特徴とする請求項1〜8記載の画像処理装
置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP9154793A JPH11309A (ja) | 1997-06-12 | 1997-06-12 | 画像処理装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP9154793A JPH11309A (ja) | 1997-06-12 | 1997-06-12 | 画像処理装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH11309A true JPH11309A (ja) | 1999-01-06 |
Family
ID=15592024
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP9154793A Pending JPH11309A (ja) | 1997-06-12 | 1997-06-12 | 画像処理装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH11309A (ja) |
Cited By (65)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001133696A (ja) * | 1999-11-02 | 2001-05-18 | Olympus Optical Co Ltd | 手術用顕微鏡装置 |
| WO2001074266A1 (en) * | 2000-03-30 | 2001-10-11 | The Board Of Trustees Of The Leland Stanford Junior University | Apparatus and method for calibrating an endoscope |
| JP2002238839A (ja) * | 2001-02-16 | 2002-08-27 | Olympus Optical Co Ltd | 内視鏡システム |
| JP2002263053A (ja) * | 2001-03-06 | 2002-09-17 | Olympus Optical Co Ltd | 医用画像表示装置および医用画像表示方法 |
| JP2005021354A (ja) * | 2003-07-01 | 2005-01-27 | Olympus Corp | 遠隔手術支援装置 |
| JP2005211531A (ja) * | 2004-01-30 | 2005-08-11 | Olympus Corp | バーチャル画像表示装置 |
| JP2005211533A (ja) * | 2004-01-30 | 2005-08-11 | Olympus Corp | バーチャル画像表示装置 |
| JP2006006567A (ja) * | 2004-06-24 | 2006-01-12 | Olympus Corp | 内視鏡画像表示装置 |
| JP2007152027A (ja) * | 2005-12-08 | 2007-06-21 | Univ Waseda | 内視鏡視野拡張システム、内視鏡視野拡張装置及び内視鏡視野拡張用プログラム |
| JP2007244746A (ja) * | 2006-03-17 | 2007-09-27 | Olympus Medical Systems Corp | 観察システム |
| JP2009247677A (ja) * | 2008-04-08 | 2009-10-29 | Fujinon Corp | 内視鏡システム |
| KR20110037948A (ko) * | 2008-06-27 | 2011-04-13 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 엔트리 가이드의 말단 끝부로부터 뻗어 있는 관절형 기기의 보조 화면을 제공하는 의료용 로봇 시스템 |
| US7951070B2 (en) | 2003-06-02 | 2011-05-31 | Olympus Corporation | Object observation system and method utilizing three dimensional imagery and real time imagery during a procedure |
| WO2011114731A1 (ja) * | 2010-03-17 | 2011-09-22 | 富士フイルム株式会社 | 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム |
| WO2011122032A1 (ja) * | 2010-03-31 | 2011-10-06 | 富士フイルム株式会社 | 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム |
| JP2012504017A (ja) * | 2008-09-30 | 2012-02-16 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 先端部の配置および配向を制御するカメラ機器のコンピュータ生成された補助的ビューを提供する医療用ロボットシステム |
| JP2012133365A (ja) * | 2010-12-22 | 2012-07-12 | General Electric Co <Ge> | 回転機械のオンライン監視のためのシステム及び方法 |
| JP2012521855A (ja) * | 2009-03-31 | 2012-09-20 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 手術ロボットの合成表現 |
| JP2012235983A (ja) * | 2011-05-13 | 2012-12-06 | Olympus Medical Systems Corp | 医療用画像表示システム |
| JP2013031660A (ja) * | 2011-08-02 | 2013-02-14 | Samsung Electronics Co Ltd | 医療映像処理方法及び装置、映像誘導を利用したロボット手術システム |
| JP2013111160A (ja) * | 2011-11-28 | 2013-06-10 | Fujifilm Corp | 内視鏡 |
| WO2013141155A1 (ja) | 2012-03-17 | 2013-09-26 | 学校法人早稲田大学 | 画像内遮蔽領域の画像補完システム、画像処理装置及びそのプログラム |
| JP2013540455A (ja) * | 2010-08-04 | 2013-11-07 | メドテック | 解剖学的表面の支援型自動データ収集方法 |
| JP2014104328A (ja) * | 2012-11-30 | 2014-06-09 | Toyota Keeramu:Kk | 手術支援システム、手術支援方法及び手術支援プログラム |
| US8903546B2 (en) | 2009-08-15 | 2014-12-02 | Intuitive Surgical Operations, Inc. | Smooth control of an articulated instrument across areas with different work space conditions |
| US8918211B2 (en) | 2010-02-12 | 2014-12-23 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
| WO2015011758A1 (ja) * | 2013-07-22 | 2015-01-29 | 株式会社 東芝 | 表示システム |
| WO2015029318A1 (ja) * | 2013-08-26 | 2015-03-05 | パナソニックIpマネジメント株式会社 | 3次元表示装置および3次元表示方法 |
| JP2015066021A (ja) * | 2013-09-27 | 2015-04-13 | エフ・エーシステムエンジニアリング株式会社 | 3dナビゲーション映像生成装置 |
| US9084623B2 (en) | 2009-08-15 | 2015-07-21 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
| US9089256B2 (en) | 2008-06-27 | 2015-07-28 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
| US9101397B2 (en) | 1999-04-07 | 2015-08-11 | Intuitive Surgical Operations, Inc. | Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system |
| US9138129B2 (en) | 2007-06-13 | 2015-09-22 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
| JP2015228955A (ja) * | 2014-06-04 | 2015-12-21 | ソニー株式会社 | 画像処理装置、画像処理方法、並びにプログラム |
| JP2016505315A (ja) * | 2012-12-20 | 2016-02-25 | アヴァテラメディカル ゲーエムベーハー | 低侵襲手術のためのマルチカメラシステム付き内視鏡 |
| JP2016508765A (ja) * | 2013-01-21 | 2016-03-24 | シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft | 内視鏡、殊に低侵襲手術のための内視鏡 |
| US9333042B2 (en) | 2007-06-13 | 2016-05-10 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
| US9345387B2 (en) | 2006-06-13 | 2016-05-24 | Intuitive Surgical Operations, Inc. | Preventing instrument/tissue collisions |
| JPWO2014010191A1 (ja) * | 2012-07-11 | 2016-06-20 | パナソニックIpマネジメント株式会社 | 3次元映像表示装置および3次元映像表示方法 |
| US9469034B2 (en) | 2007-06-13 | 2016-10-18 | Intuitive Surgical Operations, Inc. | Method and system for switching modes of a robotic system |
| US9492927B2 (en) | 2009-08-15 | 2016-11-15 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
| US9592096B2 (en) | 2011-11-30 | 2017-03-14 | Medtech S.A. | Robotic-assisted device for positioning a surgical instrument relative to the body of a patient |
| JP2017513662A (ja) * | 2014-03-28 | 2017-06-01 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Q3d画像の3d画像とのアライメント |
| JP2017518147A (ja) * | 2014-03-28 | 2017-07-06 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 手術シーンの定量的三次元撮像 |
| US9718190B2 (en) | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
| JP2017185225A (ja) * | 2016-03-31 | 2017-10-12 | コヴィディエン リミテッド パートナーシップ | 表面走査のための胸部内視鏡 |
| US9788909B2 (en) | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc | Synthetic representation of a surgical instrument |
| JP2018027289A (ja) * | 2016-08-16 | 2018-02-22 | コー・ヤング・テクノロジー・インコーポレーテッド | 定位手術用の手術ロボットシステム及び定位手術用ロボットの制御方法 |
| US9916691B2 (en) | 2013-02-14 | 2018-03-13 | Seiko Epson Corporation | Head mounted display and control method for head mounted display |
| US10008017B2 (en) | 2006-06-29 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
| JP2018163106A (ja) * | 2017-03-27 | 2018-10-18 | 株式会社トプコン | レンズメータ |
| US10334227B2 (en) | 2014-03-28 | 2019-06-25 | Intuitive Surgical Operations, Inc. | Quantitative three-dimensional imaging of surgical scenes from multiport perspectives |
| US10350009B2 (en) | 2014-03-28 | 2019-07-16 | Intuitive Surgical Operations, Inc. | Quantitative three-dimensional imaging and printing of surgical implants |
| US10507066B2 (en) | 2013-02-15 | 2019-12-17 | Intuitive Surgical Operations, Inc. | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools |
| JP2020093102A (ja) * | 2018-12-13 | 2020-06-18 | バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. | 身体部位の複合可視化 |
| US11071591B2 (en) | 2018-07-26 | 2021-07-27 | Covidien Lp | Modeling a collapsed lung using CT data |
| JP6993043B1 (ja) * | 2020-10-27 | 2022-01-13 | リバーフィールド株式会社 | 手術支援装置 |
| US11266465B2 (en) | 2014-03-28 | 2022-03-08 | Intuitive Surgical Operations, Inc. | Quantitative three-dimensional visualization of instruments in a field of view |
| US11304771B2 (en) | 2014-03-28 | 2022-04-19 | Intuitive Surgical Operations, Inc. | Surgical system with haptic feedback based upon quantitative three-dimensional imaging |
| US11705238B2 (en) | 2018-07-26 | 2023-07-18 | Covidien Lp | Systems and methods for providing assistance during surgery |
| WO2025009009A1 (ja) * | 2023-07-03 | 2025-01-09 | オリンパスメディカルシステムズ株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
| JP2025503662A (ja) * | 2022-01-10 | 2025-02-04 | エンドルクス インコーポレイテッド | 内視鏡検査用のシステム、装置、及び方法 |
| US12239396B2 (en) | 2008-06-27 | 2025-03-04 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
| US12266040B2 (en) | 2009-03-31 | 2025-04-01 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
| US12357400B2 (en) | 2006-06-29 | 2025-07-15 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
-
1997
- 1997-06-12 JP JP9154793A patent/JPH11309A/ja active Pending
Cited By (138)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9232984B2 (en) | 1999-04-07 | 2016-01-12 | Intuitive Surgical Operations, Inc. | Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system |
| US10271909B2 (en) | 1999-04-07 | 2019-04-30 | Intuitive Surgical Operations, Inc. | Display of computer generated image of an out-of-view portion of a medical device adjacent a real-time image of an in-view portion of the medical device |
| US10433919B2 (en) | 1999-04-07 | 2019-10-08 | Intuitive Surgical Operations, Inc. | Non-force reflecting method for providing tool force information to a user of a telesurgical system |
| US9101397B2 (en) | 1999-04-07 | 2015-08-11 | Intuitive Surgical Operations, Inc. | Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system |
| JP2001133696A (ja) * | 1999-11-02 | 2001-05-18 | Olympus Optical Co Ltd | 手術用顕微鏡装置 |
| EP1267740A1 (en) * | 2000-03-30 | 2003-01-02 | Cbyon, Inc. | Apparatus and method for calibrating an endoscope |
| WO2001074266A1 (en) * | 2000-03-30 | 2001-10-11 | The Board Of Trustees Of The Leland Stanford Junior University | Apparatus and method for calibrating an endoscope |
| JP2002238839A (ja) * | 2001-02-16 | 2002-08-27 | Olympus Optical Co Ltd | 内視鏡システム |
| JP2002263053A (ja) * | 2001-03-06 | 2002-09-17 | Olympus Optical Co Ltd | 医用画像表示装置および医用画像表示方法 |
| US7951070B2 (en) | 2003-06-02 | 2011-05-31 | Olympus Corporation | Object observation system and method utilizing three dimensional imagery and real time imagery during a procedure |
| JP2005021354A (ja) * | 2003-07-01 | 2005-01-27 | Olympus Corp | 遠隔手術支援装置 |
| JP2005211531A (ja) * | 2004-01-30 | 2005-08-11 | Olympus Corp | バーチャル画像表示装置 |
| JP2005211533A (ja) * | 2004-01-30 | 2005-08-11 | Olympus Corp | バーチャル画像表示装置 |
| JP2006006567A (ja) * | 2004-06-24 | 2006-01-12 | Olympus Corp | 内視鏡画像表示装置 |
| JP2007152027A (ja) * | 2005-12-08 | 2007-06-21 | Univ Waseda | 内視鏡視野拡張システム、内視鏡視野拡張装置及び内視鏡視野拡張用プログラム |
| JP2007244746A (ja) * | 2006-03-17 | 2007-09-27 | Olympus Medical Systems Corp | 観察システム |
| US9345387B2 (en) | 2006-06-13 | 2016-05-24 | Intuitive Surgical Operations, Inc. | Preventing instrument/tissue collisions |
| US10773388B2 (en) | 2006-06-29 | 2020-09-15 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
| US9801690B2 (en) | 2006-06-29 | 2017-10-31 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical instrument |
| US11865729B2 (en) | 2006-06-29 | 2024-01-09 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
| US11638999B2 (en) | 2006-06-29 | 2023-05-02 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
| US10730187B2 (en) | 2006-06-29 | 2020-08-04 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
| US9718190B2 (en) | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
| US10737394B2 (en) | 2006-06-29 | 2020-08-11 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
| US12357400B2 (en) | 2006-06-29 | 2025-07-15 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
| US10137575B2 (en) | 2006-06-29 | 2018-11-27 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
| US9788909B2 (en) | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc | Synthetic representation of a surgical instrument |
| US9789608B2 (en) | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
| US10008017B2 (en) | 2006-06-29 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
| US11432888B2 (en) | 2007-06-13 | 2022-09-06 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
| US10695136B2 (en) | 2007-06-13 | 2020-06-30 | Intuitive Surgical Operations, Inc. | Preventing instrument/tissue collisions |
| US12295681B2 (en) | 2007-06-13 | 2025-05-13 | Intuitive Surgical Operations, Inc. | Method and system for retracting an instrument into an entry guide |
| US11751955B2 (en) | 2007-06-13 | 2023-09-12 | Intuitive Surgical Operations, Inc. | Method and system for retracting an instrument into an entry guide |
| US12097002B2 (en) | 2007-06-13 | 2024-09-24 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
| US10188472B2 (en) | 2007-06-13 | 2019-01-29 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
| US9138129B2 (en) | 2007-06-13 | 2015-09-22 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
| US9629520B2 (en) | 2007-06-13 | 2017-04-25 | Intuitive Surgical Operations, Inc. | Method and system for moving an articulated instrument back towards an entry guide while automatically reconfiguring the articulated instrument for retraction into the entry guide |
| US9333042B2 (en) | 2007-06-13 | 2016-05-10 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
| US9901408B2 (en) | 2007-06-13 | 2018-02-27 | Intuitive Surgical Operations, Inc. | Preventing instrument/tissue collisions |
| US9469034B2 (en) | 2007-06-13 | 2016-10-18 | Intuitive Surgical Operations, Inc. | Method and system for switching modes of a robotic system |
| US10271912B2 (en) | 2007-06-13 | 2019-04-30 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
| US11399908B2 (en) | 2007-06-13 | 2022-08-02 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
| JP2009247677A (ja) * | 2008-04-08 | 2009-10-29 | Fujinon Corp | 内視鏡システム |
| KR20160119871A (ko) * | 2008-06-27 | 2016-10-14 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 엔트리 가이드의 말단 끝부로부터 뻗어 있는 관절형 기기의 보조 화면을 제공하는 의료용 로봇 시스템 |
| US11638622B2 (en) | 2008-06-27 | 2023-05-02 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide |
| US9717563B2 (en) | 2008-06-27 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxilary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
| US11382702B2 (en) | 2008-06-27 | 2022-07-12 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
| KR20110037948A (ko) * | 2008-06-27 | 2011-04-13 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 엔트리 가이드의 말단 끝부로부터 뻗어 있는 관절형 기기의 보조 화면을 제공하는 의료용 로봇 시스템 |
| US9089256B2 (en) | 2008-06-27 | 2015-07-28 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
| US12239396B2 (en) | 2008-06-27 | 2025-03-04 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
| US10258425B2 (en) | 2008-06-27 | 2019-04-16 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide |
| US8864652B2 (en) | 2008-06-27 | 2014-10-21 | Intuitive Surgical Operations, Inc. | Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip |
| KR20160118384A (ko) * | 2008-06-27 | 2016-10-11 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 엔트리 가이드의 말단 끝부로부터 뻗어 있는 관절형 기기의 보조 화면을 제공하는 의료용 로봇 시스템 |
| US10368952B2 (en) | 2008-06-27 | 2019-08-06 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
| JP2014012212A (ja) * | 2008-06-27 | 2014-01-23 | Intuitive Surgical Operations Inc | 進入ガイド遠位端から延在する関節運動可能器具の補助視野を提供する医療ロボットシステム |
| US9516996B2 (en) | 2008-06-27 | 2016-12-13 | Intuitive Surgical Operations, Inc. | Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the position and orienting of its tip |
| JP2012504017A (ja) * | 2008-09-30 | 2012-02-16 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 先端部の配置および配向を制御するカメラ機器のコンピュータ生成された補助的ビューを提供する医療用ロボットシステム |
| US10282881B2 (en) | 2009-03-31 | 2019-05-07 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
| JP2016064155A (ja) * | 2009-03-31 | 2016-04-28 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 手術ロボットの合成表現 |
| US11941734B2 (en) | 2009-03-31 | 2024-03-26 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
| JP2012521855A (ja) * | 2009-03-31 | 2012-09-20 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 手術ロボットの合成表現 |
| JP2016101506A (ja) * | 2009-03-31 | 2016-06-02 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 手術ロボットの合成表現 |
| JP2016073686A (ja) * | 2009-03-31 | 2016-05-12 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 手術ロボットの合成表現 |
| US10984567B2 (en) | 2009-03-31 | 2021-04-20 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
| JP2016052521A (ja) * | 2009-03-31 | 2016-04-14 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 手術ロボットの合成表現 |
| US12266040B2 (en) | 2009-03-31 | 2025-04-01 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
| US9492927B2 (en) | 2009-08-15 | 2016-11-15 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
| US10271915B2 (en) | 2009-08-15 | 2019-04-30 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
| US10959798B2 (en) | 2009-08-15 | 2021-03-30 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
| US9084623B2 (en) | 2009-08-15 | 2015-07-21 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
| US11596490B2 (en) | 2009-08-15 | 2023-03-07 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
| US9956044B2 (en) | 2009-08-15 | 2018-05-01 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
| US8903546B2 (en) | 2009-08-15 | 2014-12-02 | Intuitive Surgical Operations, Inc. | Smooth control of an articulated instrument across areas with different work space conditions |
| US10772689B2 (en) | 2009-08-15 | 2020-09-15 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
| US9622826B2 (en) | 2010-02-12 | 2017-04-18 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
| US10828774B2 (en) | 2010-02-12 | 2020-11-10 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
| US10537994B2 (en) | 2010-02-12 | 2020-01-21 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
| US8918211B2 (en) | 2010-02-12 | 2014-12-23 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
| US9179822B2 (en) | 2010-03-17 | 2015-11-10 | Fujifilm Corporation | Endoscopic observation supporting system, method, device and program |
| JP2011193885A (ja) * | 2010-03-17 | 2011-10-06 | Fujifilm Corp | 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム |
| WO2011114731A1 (ja) * | 2010-03-17 | 2011-09-22 | 富士フイルム株式会社 | 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム |
| US9375133B2 (en) | 2010-03-31 | 2016-06-28 | Fujifilm Corporation | Endoscopic observation support system |
| WO2011122032A1 (ja) * | 2010-03-31 | 2011-10-06 | 富士フイルム株式会社 | 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム |
| JP2011212244A (ja) * | 2010-03-31 | 2011-10-27 | Fujifilm Corp | 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム |
| JP2013540455A (ja) * | 2010-08-04 | 2013-11-07 | メドテック | 解剖学的表面の支援型自動データ収集方法 |
| US9750432B2 (en) | 2010-08-04 | 2017-09-05 | Medtech S.A. | Method for the automated and assisted acquisition of anatomical surfaces |
| US10039476B2 (en) | 2010-08-04 | 2018-08-07 | Medtech S.A. | Method for the automated and assisted acquisition of anatomical surfaces |
| JP2012133365A (ja) * | 2010-12-22 | 2012-07-12 | General Electric Co <Ge> | 回転機械のオンライン監視のためのシステム及び方法 |
| JP2012235983A (ja) * | 2011-05-13 | 2012-12-06 | Olympus Medical Systems Corp | 医療用画像表示システム |
| JP2013031660A (ja) * | 2011-08-02 | 2013-02-14 | Samsung Electronics Co Ltd | 医療映像処理方法及び装置、映像誘導を利用したロボット手術システム |
| JP2013111160A (ja) * | 2011-11-28 | 2013-06-10 | Fujifilm Corp | 内視鏡 |
| US10159534B2 (en) | 2011-11-30 | 2018-12-25 | Medtech S.A. | Robotic-assisted device for positioning a surgical instrument relative to the body of a patient |
| US10667876B2 (en) | 2011-11-30 | 2020-06-02 | Medtech S.A. | Robotic-assisted device for positioning a surgical instrument relative to the body of a patient |
| US9592096B2 (en) | 2011-11-30 | 2017-03-14 | Medtech S.A. | Robotic-assisted device for positioning a surgical instrument relative to the body of a patient |
| WO2013141155A1 (ja) | 2012-03-17 | 2013-09-26 | 学校法人早稲田大学 | 画像内遮蔽領域の画像補完システム、画像処理装置及びそのプログラム |
| JPWO2014010191A1 (ja) * | 2012-07-11 | 2016-06-20 | パナソニックIpマネジメント株式会社 | 3次元映像表示装置および3次元映像表示方法 |
| US9374574B2 (en) | 2012-07-11 | 2016-06-21 | Panasonic Intellectual Property Management Co., Ltd. | Three-dimensional video display apparatus and three-dimensional video display method |
| JP2014104328A (ja) * | 2012-11-30 | 2014-06-09 | Toyota Keeramu:Kk | 手術支援システム、手術支援方法及び手術支援プログラム |
| JP2016505315A (ja) * | 2012-12-20 | 2016-02-25 | アヴァテラメディカル ゲーエムベーハー | 低侵襲手術のためのマルチカメラシステム付き内視鏡 |
| JP2016508765A (ja) * | 2013-01-21 | 2016-03-24 | シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft | 内視鏡、殊に低侵襲手術のための内視鏡 |
| US9916691B2 (en) | 2013-02-14 | 2018-03-13 | Seiko Epson Corporation | Head mounted display and control method for head mounted display |
| US10169925B2 (en) | 2013-02-14 | 2019-01-01 | Seiko Epson Corporation | Head mounted display and control method for head mounted display |
| US11806102B2 (en) | 2013-02-15 | 2023-11-07 | Intuitive Surgical Operations, Inc. | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools |
| US11389255B2 (en) | 2013-02-15 | 2022-07-19 | Intuitive Surgical Operations, Inc. | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools |
| US10507066B2 (en) | 2013-02-15 | 2019-12-17 | Intuitive Surgical Operations, Inc. | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools |
| WO2015011758A1 (ja) * | 2013-07-22 | 2015-01-29 | 株式会社 東芝 | 表示システム |
| JPWO2015011758A1 (ja) * | 2013-07-22 | 2017-03-02 | 株式会社東芝 | 表示システム |
| WO2015029318A1 (ja) * | 2013-08-26 | 2015-03-05 | パナソニックIpマネジメント株式会社 | 3次元表示装置および3次元表示方法 |
| JPWO2015029318A1 (ja) * | 2013-08-26 | 2017-03-02 | パナソニックIpマネジメント株式会社 | 3次元表示装置および3次元表示方法 |
| JP2015066021A (ja) * | 2013-09-27 | 2015-04-13 | エフ・エーシステムエンジニアリング株式会社 | 3dナビゲーション映像生成装置 |
| US10334227B2 (en) | 2014-03-28 | 2019-06-25 | Intuitive Surgical Operations, Inc. | Quantitative three-dimensional imaging of surgical scenes from multiport perspectives |
| US10368054B2 (en) | 2014-03-28 | 2019-07-30 | Intuitive Surgical Operations, Inc. | Quantitative three-dimensional imaging of surgical scenes |
| US11304771B2 (en) | 2014-03-28 | 2022-04-19 | Intuitive Surgical Operations, Inc. | Surgical system with haptic feedback based upon quantitative three-dimensional imaging |
| US10350009B2 (en) | 2014-03-28 | 2019-07-16 | Intuitive Surgical Operations, Inc. | Quantitative three-dimensional imaging and printing of surgical implants |
| JP2017513662A (ja) * | 2014-03-28 | 2017-06-01 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Q3d画像の3d画像とのアライメント |
| US11266465B2 (en) | 2014-03-28 | 2022-03-08 | Intuitive Surgical Operations, Inc. | Quantitative three-dimensional visualization of instruments in a field of view |
| US12262951B2 (en) | 2014-03-28 | 2025-04-01 | Intuitive Surgical Operations, Inc. | Quantitative three-dimensional visualization of instruments in a field of view |
| JP2017518147A (ja) * | 2014-03-28 | 2017-07-06 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 手術シーンの定量的三次元撮像 |
| US10827906B2 (en) | 2014-06-04 | 2020-11-10 | Sony Corporation | Endoscopic surgery image processing apparatus, image processing method, and program |
| JP2015228955A (ja) * | 2014-06-04 | 2015-12-21 | ソニー株式会社 | 画像処理装置、画像処理方法、並びにプログラム |
| JP2019042551A (ja) * | 2016-03-31 | 2019-03-22 | コヴィディエン リミテッド パートナーシップ | 表面走査のための胸部内視鏡 |
| JP2017185225A (ja) * | 2016-03-31 | 2017-10-12 | コヴィディエン リミテッド パートナーシップ | 表面走査のための胸部内視鏡 |
| CN109998449A (zh) * | 2016-03-31 | 2019-07-12 | 柯惠有限合伙公司 | 用于表面扫描的胸部内窥镜 |
| US11179219B2 (en) | 2016-08-16 | 2021-11-23 | Koh Young Technology Inc. | Surgical robot system for stereotactic surgery and method for controlling stereotactic surgery robot |
| US10548681B2 (en) | 2016-08-16 | 2020-02-04 | Koh Young Technology Inc. | Surgical robot system for stereotactic surgery and method for controlling stereotactic surgery robot |
| JP2018027289A (ja) * | 2016-08-16 | 2018-02-22 | コー・ヤング・テクノロジー・インコーポレーテッド | 定位手術用の手術ロボットシステム及び定位手術用ロボットの制御方法 |
| JP2018163106A (ja) * | 2017-03-27 | 2018-10-18 | 株式会社トプコン | レンズメータ |
| US11701179B2 (en) | 2018-07-26 | 2023-07-18 | Covidien Lp | Modeling a collapsed lung using CT data |
| US12004815B2 (en) | 2018-07-26 | 2024-06-11 | Covidien Lp | Modeling a collapsed lung using CT data |
| US12243634B2 (en) | 2018-07-26 | 2025-03-04 | Covidien Lp | Systems and methods for providing assistance during surgery |
| US11705238B2 (en) | 2018-07-26 | 2023-07-18 | Covidien Lp | Systems and methods for providing assistance during surgery |
| US11071591B2 (en) | 2018-07-26 | 2021-07-27 | Covidien Lp | Modeling a collapsed lung using CT data |
| JP2020093102A (ja) * | 2018-12-13 | 2020-06-18 | バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. | 身体部位の複合可視化 |
| JP6993043B1 (ja) * | 2020-10-27 | 2022-01-13 | リバーフィールド株式会社 | 手術支援装置 |
| EP4179954A4 (en) * | 2020-10-27 | 2023-08-30 | RIVERFIELD Inc. | SURGERY AID DEVICE |
| WO2022091210A1 (ja) * | 2020-10-27 | 2022-05-05 | リバーフィールド株式会社 | 手術支援装置 |
| JP2025503662A (ja) * | 2022-01-10 | 2025-02-04 | エンドルクス インコーポレイテッド | 内視鏡検査用のシステム、装置、及び方法 |
| WO2025009009A1 (ja) * | 2023-07-03 | 2025-01-09 | オリンパスメディカルシステムズ株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JPH11309A (ja) | 画像処理装置 | |
| US11883118B2 (en) | Using augmented reality in surgical navigation | |
| JP6083103B2 (ja) | 画像内遮蔽領域の画像補完システム、画像処理装置及びそのプログラム | |
| JP6395995B2 (ja) | 医療映像処理方法及び装置 | |
| CN102512209B (zh) | 超声诊断设备 | |
| JP6643362B2 (ja) | ロボット手術中に更新された患者画像を供給するための方法および装置 | |
| JP5657467B2 (ja) | 医療用画像表示システム | |
| US20180303550A1 (en) | Endoscopic View of Invasive Procedures in Narrow Passages | |
| Navab et al. | Laparoscopic virtual mirror new interaction paradigm for monitor based augmented reality | |
| US11771508B2 (en) | Robotically-assisted surgical device, robotically-assisted surgery method, and system | |
| CN117677358A (zh) | 用于手术期间现场x射线荧光透视和c形臂计算机断层扫描成像的立体投影和交叉参考的增强现实系统和方法 | |
| JP2019507623A (ja) | 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法 | |
| JP2013202313A (ja) | 手術支援装置および手術支援プログラム | |
| JP2011212301A (ja) | 投影画像生成装置および方法、並びにプログラム | |
| JPH11161813A (ja) | 手術シミュレーション装置 | |
| WO2023065988A1 (zh) | 碰撞检测方法、装置、设备、可读存储介质 | |
| CN115105204A (zh) | 一种腹腔镜增强现实融合显示方法 | |
| US20250072969A1 (en) | Systems and methods for integrating intra-operative image data with minimally invasive medical techniques | |
| EP3944254A1 (en) | System for displaying an augmented reality and method for generating an augmented reality | |
| JP7182127B2 (ja) | ロボット手術支援装置、情報出力方法、及びプログラム | |
| JP7495216B2 (ja) | 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム | |
| Jing et al. | Navigating system for endoscopic sinus surgery based on augmented reality | |
| US10376335B2 (en) | Method and apparatus to provide updated patient images during robotic surgery | |
| US20250120569A1 (en) | Systems and methods for a differentiated interaction environment | |
| JP5751993B2 (ja) | 画像処理装置、画像処理方法及びプログラム |