JPH0877356A - 三次元多眼画像の処理方法及び処理装置 - Google Patents
三次元多眼画像の処理方法及び処理装置Info
- Publication number
- JPH0877356A JPH0877356A JP6215523A JP21552394A JPH0877356A JP H0877356 A JPH0877356 A JP H0877356A JP 6215523 A JP6215523 A JP 6215523A JP 21552394 A JP21552394 A JP 21552394A JP H0877356 A JPH0877356 A JP H0877356A
- Authority
- JP
- Japan
- Prior art keywords
- image
- hierarchical
- information
- dimensional
- view image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—Three-dimensional [3D] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Abstract
(57)【要約】
【目的】 三次元多眼画像を基に任意の視点の三次元物
体の画像を形成する三次元多眼画像の処理方法及び処理
装置に関し、経済的且つ高速で画像処理を行う。 【構成】 三次元多眼画像の処理装置は、三次元物体を
複数の地点から見た画像を取得する画像取得手段1と、
複数の画像からなる三次元多眼画像を解析して、三次元
物体の同一点を繋ぐ軌跡群からなる階層的軌跡特徴情報
を求める画像解析手段2と、階層的軌跡特徴情報を基に
指定された視点からの三次元物体の画像を補間処理によ
って形成する画像補間手段3と、階層的軌跡特徴情報の
個々の軌跡について形状情報と色情報とを近似して圧縮
符号化する情報圧縮手段4と、符号化階層的軌跡特徴情
報を記憶する記憶手段6と、この記憶手段6から読出し
た符号化階層的軌跡特徴情報を元の階層的軌跡特徴情報
に復元して画像補間手段3に加える画像復元手段5とを
備える。
体の画像を形成する三次元多眼画像の処理方法及び処理
装置に関し、経済的且つ高速で画像処理を行う。 【構成】 三次元多眼画像の処理装置は、三次元物体を
複数の地点から見た画像を取得する画像取得手段1と、
複数の画像からなる三次元多眼画像を解析して、三次元
物体の同一点を繋ぐ軌跡群からなる階層的軌跡特徴情報
を求める画像解析手段2と、階層的軌跡特徴情報を基に
指定された視点からの三次元物体の画像を補間処理によ
って形成する画像補間手段3と、階層的軌跡特徴情報の
個々の軌跡について形状情報と色情報とを近似して圧縮
符号化する情報圧縮手段4と、符号化階層的軌跡特徴情
報を記憶する記憶手段6と、この記憶手段6から読出し
た符号化階層的軌跡特徴情報を元の階層的軌跡特徴情報
に復元して画像補間手段3に加える画像復元手段5とを
備える。
Description
【0001】
【産業上の利用分野】本発明は、三次元物体を複数の地
点から見たそれぞれの画像からなる三次元多眼画像を処
理して、任意の方向から三次元物体を見た画像を生成す
る三次元多眼画像の処理方法及び処理装置に関する。任
意の地点から三次元物体を見た画像を生成して表示する
ことにより、対象物体のデザイン的な評価を行ったり、
或いは仮想現実感環境を形成することができる。このよ
うな三次元物体についての画像処理を高速且つ経済的に
実現することが要望されている。
点から見たそれぞれの画像からなる三次元多眼画像を処
理して、任意の方向から三次元物体を見た画像を生成す
る三次元多眼画像の処理方法及び処理装置に関する。任
意の地点から三次元物体を見た画像を生成して表示する
ことにより、対象物体のデザイン的な評価を行ったり、
或いは仮想現実感環境を形成することができる。このよ
うな三次元物体についての画像処理を高速且つ経済的に
実現することが要望されている。
【0002】
【従来の技術】三次元物体を任意の視点から見た画像を
コンピュータ処理によって生成して表示する方式とし
て、CG(Computer Graphics )モデル方式と画像方
式とが知られている。前者のCGモデル方式は、リアル
な画像を生成するには、非常に多くのポリゴン(polygo
n)を必要とし、複雑なシーンの実時間によるレンダリン
グ(rendering) の計算量がシーンの複雑性により増大す
る。又後者の画像方式は、複数の画像を蓄積しておき、
任意の視点に対応する画像を抽出して表示するものであ
る。
コンピュータ処理によって生成して表示する方式とし
て、CG(Computer Graphics )モデル方式と画像方
式とが知られている。前者のCGモデル方式は、リアル
な画像を生成するには、非常に多くのポリゴン(polygo
n)を必要とし、複雑なシーンの実時間によるレンダリン
グ(rendering) の計算量がシーンの複雑性により増大す
る。又後者の画像方式は、複数の画像を蓄積しておき、
任意の視点に対応する画像を抽出して表示するものであ
る。
【0003】この画像方式は、任意視点に対応する画像
を表示する為には無限に近い画像を取得する必要があ
る。そこで、隣接する視点からの画像を用いて、その視
点間の画像を近似する各種の方式が提案されている。例
えば、新たな視点からの三次元ポリゴンとしてピクセル
群で表される環境マップを作成し、ピクセルをレンダリ
ングすることによって補間画像を得る手段が知られてい
る(N.Greene and M.Kass,“Approximating vis
ibility with environment maps ”,TechnicalRepor
t 43, Apple Computer,Inc.,1993, 参照) 。
を表示する為には無限に近い画像を取得する必要があ
る。そこで、隣接する視点からの画像を用いて、その視
点間の画像を近似する各種の方式が提案されている。例
えば、新たな視点からの三次元ポリゴンとしてピクセル
群で表される環境マップを作成し、ピクセルをレンダリ
ングすることによって補間画像を得る手段が知られてい
る(N.Greene and M.Kass,“Approximating vis
ibility with environment maps ”,TechnicalRepor
t 43, Apple Computer,Inc.,1993, 参照) 。
【0004】又蓄積された画像と、画像間の関係マップ
を基に、ある種のモーフィングを用いることによって、
任意の補間画像を得る手段も知られている。この関係マ
ップは、画像に対応するレンジデータから予め計算され
て求められている(S.E.Chen and L.Williams,
“View interpolation for image synthesis ,"Siggr
aph'93 Proceedings,pp.279-288,1993, 参照) 。
を基に、ある種のモーフィングを用いることによって、
任意の補間画像を得る手段も知られている。この関係マ
ップは、画像に対応するレンジデータから予め計算され
て求められている(S.E.Chen and L.Williams,
“View interpolation for image synthesis ,"Siggr
aph'93 Proceedings,pp.279-288,1993, 参照) 。
【0005】
【発明が解決しようとする課題】前述のCGモデル方式
は、シーンの複雑性に従って計算量が増大し、実時間で
三次元物体を任意の視点から見た画像を生成することが
困難となる問題がある。又前述の画像方式は、シーンの
複雑性に依存する点が少ないが、指定された任意の視点
からの三次元画像を表示するには、無限に近い画像を取
得する必要があり、技術的にも経済的にも実現が困難で
ある。又画像間の関係を補間する処理を行う方式は、単
純な画像方式に比較して取得する画像数が少なくなると
しても、隣接画像間の関係については、三次元構造を復
元する必要があるから、補間処理に必要な計算量が増大
する問題がある。本発明は、任意の視点から見た三次元
画像の生成を経済的に且つ高速で実行できるようにする
ことを目的とする。
は、シーンの複雑性に従って計算量が増大し、実時間で
三次元物体を任意の視点から見た画像を生成することが
困難となる問題がある。又前述の画像方式は、シーンの
複雑性に依存する点が少ないが、指定された任意の視点
からの三次元画像を表示するには、無限に近い画像を取
得する必要があり、技術的にも経済的にも実現が困難で
ある。又画像間の関係を補間する処理を行う方式は、単
純な画像方式に比較して取得する画像数が少なくなると
しても、隣接画像間の関係については、三次元構造を復
元する必要があるから、補間処理に必要な計算量が増大
する問題がある。本発明は、任意の視点から見た三次元
画像の生成を経済的に且つ高速で実行できるようにする
ことを目的とする。
【0006】
【課題を解決するための手段】本発明の三次元多眼画像
の処理方法は、図1を参照して説明すると、(1)三次
元物体を複数の地点から見た画像群からなる三次元多眼
画像を画像取得手段1によって取得し、この画像取得手
段1によって得られた前記三次元多眼画像の各画像間の
三次元物体の同一点を繋ぐ階層的軌跡特徴情報を画像解
析手段2によって求め、階層的軌跡特徴情報を基に任意
の視点から三次元物体を見た画像を画像補間手段3によ
る補間処理によって求める過程を含むものである。
の処理方法は、図1を参照して説明すると、(1)三次
元物体を複数の地点から見た画像群からなる三次元多眼
画像を画像取得手段1によって取得し、この画像取得手
段1によって得られた前記三次元多眼画像の各画像間の
三次元物体の同一点を繋ぐ階層的軌跡特徴情報を画像解
析手段2によって求め、階層的軌跡特徴情報を基に任意
の視点から三次元物体を見た画像を画像補間手段3によ
る補間処理によって求める過程を含むものである。
【0007】(2)又画像解析手段2によって得られた
階層的軌跡特徴情報を情報圧縮手段4によって圧縮符号
化し、この圧縮符号化された階層的軌跡特徴情報を記憶
手段6に記憶し、この記憶手段6から読出された圧縮符
号化階層的軌跡特徴情報を復号して、元の階層的軌跡特
徴情報を情報復元手段5によって復元し、画像補間手段
3に入力する過程を含むことができる。
階層的軌跡特徴情報を情報圧縮手段4によって圧縮符号
化し、この圧縮符号化された階層的軌跡特徴情報を記憶
手段6に記憶し、この記憶手段6から読出された圧縮符
号化階層的軌跡特徴情報を復号して、元の階層的軌跡特
徴情報を情報復元手段5によって復元し、画像補間手段
3に入力する過程を含むことができる。
【0008】(3)又三次元多眼画像の処理装置は、三
次元物体を複数の地点から見た画像群からなる三次元多
眼画像を取得する画像取得手段1と、この画像取得手段
1によって得られた三次元多眼画像の各画像間の三次元
物体の同一点を繋ぐ階層的軌跡特徴情報を求める画像解
析手段2と、この画像解析手段2によって得られた階層
的軌跡特徴情報を基に任意の視点から三次元物体を見た
画像を補間処理によって求める画像補間手段3とを備え
ている。
次元物体を複数の地点から見た画像群からなる三次元多
眼画像を取得する画像取得手段1と、この画像取得手段
1によって得られた三次元多眼画像の各画像間の三次元
物体の同一点を繋ぐ階層的軌跡特徴情報を求める画像解
析手段2と、この画像解析手段2によって得られた階層
的軌跡特徴情報を基に任意の視点から三次元物体を見た
画像を補間処理によって求める画像補間手段3とを備え
ている。
【0009】(4)又画像解析手段2によって得られた
階層的軌跡特徴情報を圧縮符号化する情報圧縮手段4
と、この情報圧縮手段4による符号化階層的軌跡特徴情
報を記憶する記憶手段6と、この記憶手段6に記憶され
た符号化階層的軌跡特徴情報を読出して復号化し、画像
補間手段3に入力する情報復元手段5とを設けることが
できる。
階層的軌跡特徴情報を圧縮符号化する情報圧縮手段4
と、この情報圧縮手段4による符号化階層的軌跡特徴情
報を記憶する記憶手段6と、この記憶手段6に記憶され
た符号化階層的軌跡特徴情報を読出して復号化し、画像
補間手段3に入力する情報復元手段5とを設けることが
できる。
【0010】(5)又画像取得手段1は、単一又は複数
の曲線に沿った複数の地点から三次元物体を見た画像を
取得する構成を備えることができる。
の曲線に沿った複数の地点から三次元物体を見た画像を
取得する構成を備えることができる。
【0011】(6)又画像取得手段1は、三次元物体の
一部又は全部を取り囲む曲面上に形成された複数の曲線
に沿った複数の地点から、三次元物体を見た画像を取得
する構成を備えることができる。
一部又は全部を取り囲む曲面上に形成された複数の曲線
に沿った複数の地点から、三次元物体を見た画像を取得
する構成を備えることができる。
【0012】(7)又画像解析手段2は、三次元多眼画
像の各画像間の三次元物体の同一点を繋ぐ軌跡群を求め
る軌跡群生成手段と、軌跡群のオーバーラップする点を
検出し、このオーバーラップ点の前後関係を認識するオ
ーバーラップ点認識手段と、軌跡群を基に三次元物体の
穴若しくは凹面による見え隠れする部分を検出する検出
手段と、軌跡群の座標,形状及び色情報を求める手段
と、前記各手段により得られた情報を階層的軌跡特徴情
報として出力する解析出力手段とを備えることができ
る。
像の各画像間の三次元物体の同一点を繋ぐ軌跡群を求め
る軌跡群生成手段と、軌跡群のオーバーラップする点を
検出し、このオーバーラップ点の前後関係を認識するオ
ーバーラップ点認識手段と、軌跡群を基に三次元物体の
穴若しくは凹面による見え隠れする部分を検出する検出
手段と、軌跡群の座標,形状及び色情報を求める手段
と、前記各手段により得られた情報を階層的軌跡特徴情
報として出力する解析出力手段とを備えることができ
る。
【0013】(8)又画像解析手段2は、複数の曲線に
沿って取得した三次元多眼画像の複数の軌跡群を、幾何
不変量又は色不変量に基づいて対応付けを行う対応付け
手段と、軌跡群間の移動量を求める手段と、この移動量
と視点による射影関係を基に階層的軌跡特徴情報の変形
量を求める手段とを含む構成とすることができる。
沿って取得した三次元多眼画像の複数の軌跡群を、幾何
不変量又は色不変量に基づいて対応付けを行う対応付け
手段と、軌跡群間の移動量を求める手段と、この移動量
と視点による射影関係を基に階層的軌跡特徴情報の変形
量を求める手段とを含む構成とすることができる。
【0014】(9)又画像解析手段2により求めた階層
的軌跡特徴情報の変形量を基に、指定した視点による任
意の高さに於ける階層的軌跡特徴情報を補間する補間手
段と、この補間手段による補間結果を基に指定した視点
からの三次元画像を生成する生成手段とを含む構成とす
ることができる。
的軌跡特徴情報の変形量を基に、指定した視点による任
意の高さに於ける階層的軌跡特徴情報を補間する補間手
段と、この補間手段による補間結果を基に指定した視点
からの三次元画像を生成する生成手段とを含む構成とす
ることができる。
【0015】(10)又画像解析手段2は、三次元多眼
画像中に剛体運動又は非剛体運動を行う物体について移
動量を求め、この移動量を基に階層的軌跡特徴情報を変
形する運動補正手段を備えることができる。
画像中に剛体運動又は非剛体運動を行う物体について移
動量を求め、この移動量を基に階層的軌跡特徴情報を変
形する運動補正手段を備えることができる。
【0016】(11)又運動補正手段は、剛体運動の平
行移動の移動量を基に視点と剛体運動物体中心との射影
関係を求める射影関係算出手段と、視点からの射影関係
によりアドレス変換を行う変換手段と、この変換手段に
より変換されたアドレスを基に階層的軌跡特徴情報を変
形する変形手段と、剛体の回転の移動量を基に、変形手
段により変形された階層的軌跡特徴情報を移動する移動
手段とを備えることができる。
行移動の移動量を基に視点と剛体運動物体中心との射影
関係を求める射影関係算出手段と、視点からの射影関係
によりアドレス変換を行う変換手段と、この変換手段に
より変換されたアドレスを基に階層的軌跡特徴情報を変
形する変形手段と、剛体の回転の移動量を基に、変形手
段により変形された階層的軌跡特徴情報を移動する移動
手段とを備えることができる。
【0017】(12)又運動補正手段は、非剛体運動を
大局的な剛体運動と局所的な剛体運動とに分類する分類
手段と、この分類手段による大局的な剛体運動の移動量
により、全体的に階層的軌跡特徴情報を変形する第1の
変形手段と、分類手段による局所的な剛体運動の移動量
により、部分的に階層的軌跡特徴情報を変形する第2の
変形手段とを備えることができる。
大局的な剛体運動と局所的な剛体運動とに分類する分類
手段と、この分類手段による大局的な剛体運動の移動量
により、全体的に階層的軌跡特徴情報を変形する第1の
変形手段と、分類手段による局所的な剛体運動の移動量
により、部分的に階層的軌跡特徴情報を変形する第2の
変形手段とを備えることができる。
【0018】(13)又画像解析手段2の三次元物体の
穴若しくは凹面による見え隠れする部分を検出する検出
手段は、この見え隠れする部分について画像取得手段1
により更に細かい間隔で三次元物体を見た画像を取得す
るように制御する制御手段を含むことができる。
穴若しくは凹面による見え隠れする部分を検出する検出
手段は、この見え隠れする部分について画像取得手段1
により更に細かい間隔で三次元物体を見た画像を取得す
るように制御する制御手段を含むことができる。
【0019】(14)又画像解析手段2の軌跡群のオー
バーラップ点を検出し、このオーバーラップ点の前後関
係を認識するオーバーラップ点認識手段は、軌跡群を基
に不連続な点を識別し、この不連続点を基に領域を分割
する分割手段と、分割された領域から三次元物体の同一
部分を表す領域を選択する選択手段と、選択された領域
間を接続する接続手段と、この接続手段による接続部分
と他の領域の接続部分との前後関係を判定して識別子を
付加する付加手段とを含むことができる。
バーラップ点を検出し、このオーバーラップ点の前後関
係を認識するオーバーラップ点認識手段は、軌跡群を基
に不連続な点を識別し、この不連続点を基に領域を分割
する分割手段と、分割された領域から三次元物体の同一
部分を表す領域を選択する選択手段と、選択された領域
間を接続する接続手段と、この接続手段による接続部分
と他の領域の接続部分との前後関係を判定して識別子を
付加する付加手段とを含むことができる。
【0020】(15)又画像補間手段3は、視点による
射影関係を求める射影手段と、この射影手段による射影
関係を基にアドレス変換を行うアドレス変換手段と、こ
のアドレス変換によるアドレスを基に階層的軌跡特徴情
報を変形する変形手段と、射影関係によりオーバーラッ
プ部分の前後関係を決定する決定手段と、三次元多眼画
像に対応する階層的軌跡特徴情報を合成する合成手段
と、階層的軌跡特徴情報を基に三次元多眼画像を生成す
る生成手段と、三次元多眼画像を基に指定された視点か
らの画像を形成する画像形成手段とを含むことができ
る。
射影関係を求める射影手段と、この射影手段による射影
関係を基にアドレス変換を行うアドレス変換手段と、こ
のアドレス変換によるアドレスを基に階層的軌跡特徴情
報を変形する変形手段と、射影関係によりオーバーラッ
プ部分の前後関係を決定する決定手段と、三次元多眼画
像に対応する階層的軌跡特徴情報を合成する合成手段
と、階層的軌跡特徴情報を基に三次元多眼画像を生成す
る生成手段と、三次元多眼画像を基に指定された視点か
らの画像を形成する画像形成手段とを含むことができ
る。
【0021】(16)又画像補間手段3のアドレス変換
手段は、指定された視点と三次元物体中心との距離が、
三次元多眼画像取得時の距離と相違する時、指定された
視点に対して形成された画像の拡大,縮小を施す拡大,
縮小手段を備えることができる。
手段は、指定された視点と三次元物体中心との距離が、
三次元多眼画像取得時の距離と相違する時、指定された
視点に対して形成された画像の拡大,縮小を施す拡大,
縮小手段を備えることができる。
【0022】(17)又画像解析手段2によって得られ
た階層的軌跡特徴情報を圧縮符号化する情報圧縮手段4
は、階層的軌跡特徴情報の個々の軌跡について、それぞ
れ形状情報と色情報とを関数で近似する近似手段と、軌
跡についてグループ化するグループ化手段と、グループ
化された各グループの形状情報と色情報との各近似関数
の代表値を求める手段と、この代表値に符号を割当てる
割当手段とを備えることができる。
た階層的軌跡特徴情報を圧縮符号化する情報圧縮手段4
は、階層的軌跡特徴情報の個々の軌跡について、それぞ
れ形状情報と色情報とを関数で近似する近似手段と、軌
跡についてグループ化するグループ化手段と、グループ
化された各グループの形状情報と色情報との各近似関数
の代表値を求める手段と、この代表値に符号を割当てる
割当手段とを備えることができる。
【0023】(18)又情報圧縮手段4は、形状情報の
近似関数として多項式を用いることができる。
近似関数として多項式を用いることができる。
【0024】(19)又情報圧縮手段4は、色情報の近
似関数としてフラクタル変換を用いることができる。
似関数としてフラクタル変換を用いることができる。
【0025】(20)情報復元手段5は、記憶手段6か
ら読出したデータを基に軌跡の形状と色の情報とを復元
し、階層的軌跡特徴情報を復元する手段を備えている。
ら読出したデータを基に軌跡の形状と色の情報とを復元
し、階層的軌跡特徴情報を復元する手段を備えている。
【0026】
(1)三次元多眼画像の処理方法は、三次元物体を複数
の地点から見た画像を、テレビカメラによって実際に撮
像して取得するか、又はCG等によって取得し、各地点
からそれぞれ見た画像からなる三次元多眼画像を解析し
て、階層的軌跡特徴情報を求める。この階層的軌跡特徴
情報は、各画像に於ける三次元物体の同一点を繋ぐ軌跡
群を基に形成する。この軌跡群は、三次元物体の或る点
が三次元物体を見る方向によって見え方が変化する様子
を示し、画像間の補間が簡単となる。即ち、階層的軌跡
特徴情報を基に、指定された視点からの三次元物体の画
像を形成する時に、画像補間手段3による補間処理によ
って三次元多眼画像を形成し、指定された視点からの画
像を求めるものである。
の地点から見た画像を、テレビカメラによって実際に撮
像して取得するか、又はCG等によって取得し、各地点
からそれぞれ見た画像からなる三次元多眼画像を解析し
て、階層的軌跡特徴情報を求める。この階層的軌跡特徴
情報は、各画像に於ける三次元物体の同一点を繋ぐ軌跡
群を基に形成する。この軌跡群は、三次元物体の或る点
が三次元物体を見る方向によって見え方が変化する様子
を示し、画像間の補間が簡単となる。即ち、階層的軌跡
特徴情報を基に、指定された視点からの三次元物体の画
像を形成する時に、画像補間手段3による補間処理によ
って三次元多眼画像を形成し、指定された視点からの画
像を求めるものである。
【0027】(2)又軌跡群を分類し、境界線等の形状
を近似関数によって近似することにより、階層的軌跡特
徴情報を圧縮符号化し、半導体記憶装置や磁気ディスク
装置等の記憶手段6に記憶する。又この記憶手段6から
読出した符号化階層的軌跡特徴情報を情報復元手段5に
よって元の階層的軌跡特徴情報に復元し、指定された視
点からの画像を、画像補間手段3に於ける補間処理によ
って形成する。
を近似関数によって近似することにより、階層的軌跡特
徴情報を圧縮符号化し、半導体記憶装置や磁気ディスク
装置等の記憶手段6に記憶する。又この記憶手段6から
読出した符号化階層的軌跡特徴情報を情報復元手段5に
よって元の階層的軌跡特徴情報に復元し、指定された視
点からの画像を、画像補間手段3に於ける補間処理によ
って形成する。
【0028】(3)又三次元多眼画像の処理装置は、画
像取得手段1と、画像解析手段2と、画像補間手段3と
を少なくとも備え、画像取得手段1は、三次元物体を複
数地点から実際に撮像するテレビカメラや、CG(コン
ピュータ・グラフィックス)による画像形成手段を用い
ることができる。又三次元物体の一部又は全部を取り囲
む単一の曲線又は複数の曲線或いは曲面上の任意方向の
曲線に沿って等間隔或いは不等間隔で三次元物体を見た
画像を取得する。又画像解析手段2と画像補間手段3と
は、コンピュータの演算処理手段によってその機能を実
現することができる。画像解析手段2は、画像取得手段
1からの三次元多眼画像を蓄積し、例えば、同一水平ラ
インについて各画像間の三次元物体の同一点を繋ぐ軌跡
を求める。これを全水平ラインについて行う。又各軌跡
群は、三次元物体のある点の見え方を示すものであり、
輝度情報や色情報を含めて軌跡群の特徴を示す階層的軌
跡特徴情報を求める。又複数の軌跡群を、形状,距離等
による幾何不変量又は色不変量に基づいて対応付けを行
う。又画像補間手段3は、三次元物体を見る位置が指定
された時、階層的軌跡特徴情報を基に三次元多眼画像を
復元し、指定された視点の画像を表示することができ
る。
像取得手段1と、画像解析手段2と、画像補間手段3と
を少なくとも備え、画像取得手段1は、三次元物体を複
数地点から実際に撮像するテレビカメラや、CG(コン
ピュータ・グラフィックス)による画像形成手段を用い
ることができる。又三次元物体の一部又は全部を取り囲
む単一の曲線又は複数の曲線或いは曲面上の任意方向の
曲線に沿って等間隔或いは不等間隔で三次元物体を見た
画像を取得する。又画像解析手段2と画像補間手段3と
は、コンピュータの演算処理手段によってその機能を実
現することができる。画像解析手段2は、画像取得手段
1からの三次元多眼画像を蓄積し、例えば、同一水平ラ
インについて各画像間の三次元物体の同一点を繋ぐ軌跡
を求める。これを全水平ラインについて行う。又各軌跡
群は、三次元物体のある点の見え方を示すものであり、
輝度情報や色情報を含めて軌跡群の特徴を示す階層的軌
跡特徴情報を求める。又複数の軌跡群を、形状,距離等
による幾何不変量又は色不変量に基づいて対応付けを行
う。又画像補間手段3は、三次元物体を見る位置が指定
された時、階層的軌跡特徴情報を基に三次元多眼画像を
復元し、指定された視点の画像を表示することができ
る。
【0029】(4)又情報圧縮手段4は、階層的軌跡特
徴情報を近似関数等によって特徴部分を近似して符号割
当てを行い、記憶手段6の所要容量を削減する。又情報
復元手段5は、情報圧縮手段4とは逆の処理により、階
層的軌跡特徴情報を復元し、画像補間手段3に加える。
この情報圧縮手段4と情報復元手段5とは、画像解析手
段2や画像補間手段3と共に、コンピュータの演算処理
手段によってその機能を実現することができる。
徴情報を近似関数等によって特徴部分を近似して符号割
当てを行い、記憶手段6の所要容量を削減する。又情報
復元手段5は、情報圧縮手段4とは逆の処理により、階
層的軌跡特徴情報を復元し、画像補間手段3に加える。
この情報圧縮手段4と情報復元手段5とは、画像解析手
段2や画像補間手段3と共に、コンピュータの演算処理
手段によってその機能を実現することができる。
【0030】(5)又三次元物体が静止状態の場合のみ
でなく、運動している場合についても、画像解析手段2
に運動補正手段を設けることにより三次元多眼画像の解
析を行うことができる。この三次元物体の運動を、剛体
運動と非剛体運動とに分け、剛体運動の場合は平行移動
及び回転を検出し、その移動量に対応して階層的軌跡特
徴情報を変形する。又非剛体運動の場合は、大局的な剛
体運動と局所的な剛体運動とに分けて、それぞれの移動
量に応じて階層的軌跡特徴情報を変形する。それによっ
て、指定された視点からの運動物体の画像を再生するこ
とができる。
でなく、運動している場合についても、画像解析手段2
に運動補正手段を設けることにより三次元多眼画像の解
析を行うことができる。この三次元物体の運動を、剛体
運動と非剛体運動とに分け、剛体運動の場合は平行移動
及び回転を検出し、その移動量に対応して階層的軌跡特
徴情報を変形する。又非剛体運動の場合は、大局的な剛
体運動と局所的な剛体運動とに分けて、それぞれの移動
量に応じて階層的軌跡特徴情報を変形する。それによっ
て、指定された視点からの運動物体の画像を再生するこ
とができる。
【0031】
【実施例】図1は本発明の実施例の説明図であり、1は
画像取得手段、2は画像解析手段、3は画像補間手段、
4は情報圧縮手段、5は情報復元手段、6は記憶手段で
ある。画像取得手段1は、三次元物体を複数地点から見
たそれぞれの画像からなる三次元多眼画像を取得するも
のであり、例えば、テレビカメラにより三次元物体を実
際に撮像する構成或いはCG(コンピュータ・グラフィ
ックス)により各種の画像を形成する構成等を適用でき
る。
画像取得手段、2は画像解析手段、3は画像補間手段、
4は情報圧縮手段、5は情報復元手段、6は記憶手段で
ある。画像取得手段1は、三次元物体を複数地点から見
たそれぞれの画像からなる三次元多眼画像を取得するも
のであり、例えば、テレビカメラにより三次元物体を実
際に撮像する構成或いはCG(コンピュータ・グラフィ
ックス)により各種の画像を形成する構成等を適用でき
る。
【0032】又画像解析手段2及び画像補間手段3は、
コンピュータの演算処理機能を用いて実現することが可
能であり、画像解析手段2は、三次元多眼画像の各画像
間の三次元物体の同一点を繋ぐ軌跡群を求める軌跡群生
成手段と、この軌跡群のオーバーラップ点を検出して、
その前後関係を認識するオーバーラップ点認識手段と、
軌跡群を基に三次元物体の穴若しくは凹面による見え隠
れする部分を検出する検出手段と、軌跡群の座標,形状
及び色情報を求める手段と、各手段により得られた情報
を階層的軌跡特徴情報として出力する解析出力手段とを
含むものであり、更に三次元物体が運動する場合の運動
補正手段を含むことができる。
コンピュータの演算処理機能を用いて実現することが可
能であり、画像解析手段2は、三次元多眼画像の各画像
間の三次元物体の同一点を繋ぐ軌跡群を求める軌跡群生
成手段と、この軌跡群のオーバーラップ点を検出して、
その前後関係を認識するオーバーラップ点認識手段と、
軌跡群を基に三次元物体の穴若しくは凹面による見え隠
れする部分を検出する検出手段と、軌跡群の座標,形状
及び色情報を求める手段と、各手段により得られた情報
を階層的軌跡特徴情報として出力する解析出力手段とを
含むものであり、更に三次元物体が運動する場合の運動
補正手段を含むことができる。
【0033】又画像補間手段3は、視点による射影関係
を求める射影手段と、この射影手段による射影関係を基
にアドレス変換を行うアドレス変換手段と、このアドレ
ス変換によるアドレスを基に階層的特徴情報を変形する
変形手段と、射影関係によりオーバーラップ部分の前後
関係を決定する決定手段と、三次元多眼画像に対応する
階層的軌跡特徴情報を合成する合成手段と、階層的軌跡
特徴情報を基に三次元多眼画像を形成する生成手段と、
三次元多眼画像を基に指定された視点からの画像を形成
する画像形成手段とを含むものである。
を求める射影手段と、この射影手段による射影関係を基
にアドレス変換を行うアドレス変換手段と、このアドレ
ス変換によるアドレスを基に階層的特徴情報を変形する
変形手段と、射影関係によりオーバーラップ部分の前後
関係を決定する決定手段と、三次元多眼画像に対応する
階層的軌跡特徴情報を合成する合成手段と、階層的軌跡
特徴情報を基に三次元多眼画像を形成する生成手段と、
三次元多眼画像を基に指定された視点からの画像を形成
する画像形成手段とを含むものである。
【0034】又情報圧縮手段4は、階層的軌跡特徴情報
の個々の軌跡についてそれぞれ形状情報と色情報とを関
数で近似する近似手段と、軌跡についてアスペクトの分
類等によってグループ化するグループ化手段と、各グル
ープの形状情報と色情報との各近似関数の代表値を求め
る手段と、この代表値に符号を割当てる割当手段とを含
むものである。又情報復元手段5は、情報圧縮手段4と
逆の処理により階層的軌跡特徴情報を復元するものであ
る。又記憶手段6は、半導体記憶装置や磁気ディスク装
置等の比較的大容量の記憶装置により構成することがで
きる。
の個々の軌跡についてそれぞれ形状情報と色情報とを関
数で近似する近似手段と、軌跡についてアスペクトの分
類等によってグループ化するグループ化手段と、各グル
ープの形状情報と色情報との各近似関数の代表値を求め
る手段と、この代表値に符号を割当てる割当手段とを含
むものである。又情報復元手段5は、情報圧縮手段4と
逆の処理により階層的軌跡特徴情報を復元するものであ
る。又記憶手段6は、半導体記憶装置や磁気ディスク装
置等の比較的大容量の記憶装置により構成することがで
きる。
【0035】図2は画像取得手段の説明図であり、単一
の曲線12又は間隔Dの複数の曲線12に沿って、三次
元物体10をテレビカメラ11により間隔d毎に撮像し
た画像を三次元多眼画像とする。この場合、曲線12間
の間隔D及び曲線12に沿って三次元物体10の画像を
取得する地点間の間隔dは、等間隔とする場合が一般的
であるが、間隔D,dの何れか一方或いは両方を不等間
隔とすることも可能である。又曲線12は半径無限大に
近い曲線を含むものである。
の曲線12又は間隔Dの複数の曲線12に沿って、三次
元物体10をテレビカメラ11により間隔d毎に撮像し
た画像を三次元多眼画像とする。この場合、曲線12間
の間隔D及び曲線12に沿って三次元物体10の画像を
取得する地点間の間隔dは、等間隔とする場合が一般的
であるが、間隔D,dの何れか一方或いは両方を不等間
隔とすることも可能である。又曲線12は半径無限大に
近い曲線を含むものである。
【0036】又曲線12は、三次元物体10の一部又は
全部を取り囲む曲面上に形成されることになり、この曲
面としては、球面が一般的であるが、円柱,立方体,楕
円面,超二次曲面等を適用することができる。又曲面の
中心に相当する位置に三次元物体10を配置する必要は
なく、三次元物体10と曲面との関係は任意に選定でき
るものである。又画像解析手段2による三次元多眼画像
の解析結果、三次元物体10の穴若しくは凹面による見
え隠れする部分を検出手段によって検出した時、制御手
段によって、更に細かい間隔で三次元物体10を見た画
像を取得するように制御する。例えば、間隔dの数分の
1或いは数10分の1の間隔で三次元物体10の画像を
取得することができる。
全部を取り囲む曲面上に形成されることになり、この曲
面としては、球面が一般的であるが、円柱,立方体,楕
円面,超二次曲面等を適用することができる。又曲面の
中心に相当する位置に三次元物体10を配置する必要は
なく、三次元物体10と曲面との関係は任意に選定でき
るものである。又画像解析手段2による三次元多眼画像
の解析結果、三次元物体10の穴若しくは凹面による見
え隠れする部分を検出手段によって検出した時、制御手
段によって、更に細かい間隔で三次元物体10を見た画
像を取得するように制御する。例えば、間隔dの数分の
1或いは数10分の1の間隔で三次元物体10の画像を
取得することができる。
【0037】図3は本発明の実施例の画像解析手段の説
明図であり、(a)は図2に示す画像取得手段を示し、
三次元物体10を複数の地点から見た画像は、(b)に
示すものとなる。即ち、複数の地点から三次元物体10
を見た画像群によって三次元多眼画像が形成される。こ
の場合、θは曲線12に沿った地点からの三次元物体1
0に対する角度を示す視差軸、uは画像の垂直方向の
軸、vは画像の水平方向の軸を示す。
明図であり、(a)は図2に示す画像取得手段を示し、
三次元物体10を複数の地点から見た画像は、(b)に
示すものとなる。即ち、複数の地点から三次元物体10
を見た画像群によって三次元多眼画像が形成される。こ
の場合、θは曲線12に沿った地点からの三次元物体1
0に対する角度を示す視差軸、uは画像の垂直方向の
軸、vは画像の水平方向の軸を示す。
【0038】又三次元多眼画像(b)について、例え
ば、同一水平走査線で切り出して注目2点の関係を示す
と、(c)に示す軌跡が得られる。これをピクセルと対
応付け(d)、分解し且つ交差部分の前後関係を識別し
て、階層的軌跡特徴情報とする(e)。そして、位置,
形状,色,前後関係等の情報とする(f)。
ば、同一水平走査線で切り出して注目2点の関係を示す
と、(c)に示す軌跡が得られる。これをピクセルと対
応付け(d)、分解し且つ交差部分の前後関係を識別し
て、階層的軌跡特徴情報とする(e)。そして、位置,
形状,色,前後関係等の情報とする(f)。
【0039】図4は三次元多眼画像と軌跡特徴情報との
対応説明図であり、三次元物体10を任意の曲線に沿っ
た視点A,B,C,Dから見た三次元多眼画像の各画像
間の三次元物体10の同一点10aは、左側の曲線上の
視点A,B,C,Dで示す軌跡となる。
対応説明図であり、三次元物体10を任意の曲線に沿っ
た視点A,B,C,Dから見た三次元多眼画像の各画像
間の三次元物体10の同一点10aは、左側の曲線上の
視点A,B,C,Dで示す軌跡となる。
【0040】図5は複数の曲線に沿った地点から見た三
次元物体の画像と視点との説明図であり、(a)に於い
て、半径Rの円筒面上の間隔aの複数の軌道(曲線)に
沿ってカメラを移動させて三次元物体(図示を省略)を
撮像して画像系列を取得した場合、この画像系列全体で
所望の範囲をカバーできるものとすると、(b)に示す
ように、視点とカメラ(半径Rの円筒面)との距離を
d、カメラとカメラ画像平面との距離をr、この時の視
線方向に対して角度θをなす方向の対象物体(三次元物
体)上の点をPとすると、画像系列#1,#2上に於け
る点Pの相対y座標をそれぞれy1 ,y2 とする(但
し、y1 <0,y2 >0)。又点Pのカメラ画像平面か
らの距離をkとすると、 a/(a+y1 −y2 )=(k+r)/k …(1) k=r(a+y1 −y2 )/(r2 −y1 ) …(2)
次元物体の画像と視点との説明図であり、(a)に於い
て、半径Rの円筒面上の間隔aの複数の軌道(曲線)に
沿ってカメラを移動させて三次元物体(図示を省略)を
撮像して画像系列を取得した場合、この画像系列全体で
所望の範囲をカバーできるものとすると、(b)に示す
ように、視点とカメラ(半径Rの円筒面)との距離を
d、カメラとカメラ画像平面との距離をr、この時の視
線方向に対して角度θをなす方向の対象物体(三次元物
体)上の点をPとすると、画像系列#1,#2上に於け
る点Pの相対y座標をそれぞれy1 ,y2 とする(但
し、y1 <0,y2 >0)。又点Pのカメラ画像平面か
らの距離をkとすると、 a/(a+y1 −y2 )=(k+r)/k …(1) k=r(a+y1 −y2 )/(r2 −y1 ) …(2)
【0041】又y2 とθとの間には、次式の関係が成り
立つ。 Y+(d+r+k)tanθ={(r+k)/r}y2 …(3) よって、点Pは、画像系列#2上の(2),(3)式に
より定まるy=y2 の位置の点に対応する。
立つ。 Y+(d+r+k)tanθ={(r+k)/r}y2 …(3) よって、点Pは、画像系列#2上の(2),(3)式に
より定まるy=y2 の位置の点に対応する。
【0042】前述のように、視野に入る部分に対応する
画像系列上の範囲を求めることができる。そして、元の
画像系列から該当する部分の輝度値データを切り出し
て、視野幅に合うようにスケーリングを行う。この場
合、隣接する画像系列間でピクセルの対応付けが可能で
あることが必要である。又画像合成に於いて、複数の軌
跡群から合成する場合、異なる軌跡群の対応付けは、幾
何不変量や色不変量に基づいて行うことができる。幾何
不変量としては、例えば、形状に基づく場合の輪郭の曲
率や特徴点間の距離とすることができる。又色不変量と
しては、カラー画像の場合に、色情報はRGBの輝度値
で表現されており、照明の影響がない理想的な状態で
は、対象物体表面の或る点の輝度値は、撮影位置が異な
っても不変であるから、これを不変量とすることができ
る。
画像系列上の範囲を求めることができる。そして、元の
画像系列から該当する部分の輝度値データを切り出し
て、視野幅に合うようにスケーリングを行う。この場
合、隣接する画像系列間でピクセルの対応付けが可能で
あることが必要である。又画像合成に於いて、複数の軌
跡群から合成する場合、異なる軌跡群の対応付けは、幾
何不変量や色不変量に基づいて行うことができる。幾何
不変量としては、例えば、形状に基づく場合の輪郭の曲
率や特徴点間の距離とすることができる。又色不変量と
しては、カラー画像の場合に、色情報はRGBの輝度値
で表現されており、照明の影響がない理想的な状態で
は、対象物体表面の或る点の輝度値は、撮影位置が異な
っても不変であるから、これを不変量とすることができ
る。
【0043】軌跡群間の対応付けは、次のようなアルゴ
リズムによって行うことができる。 1.隣接する画像系列から視点と同じ回転角の画像を取
り出して両眼画像を用意する。 2.両眼画像に於いて、エッジ検出を行って輪郭を抽出
し、方向性を持つフィルタによって輪郭の傾きや曲率を
求める。 3.輪郭の傾きや曲率を基に、輪郭に於ける幾何不変量
を計算し、この幾何不変量により両眼画像間の輪郭の対
応付けをする。 4.輪郭の対応付けと、軌跡群間の色不変量とを基に、
隣接する画像系列間で軌跡群間の対応付けを行う。
リズムによって行うことができる。 1.隣接する画像系列から視点と同じ回転角の画像を取
り出して両眼画像を用意する。 2.両眼画像に於いて、エッジ検出を行って輪郭を抽出
し、方向性を持つフィルタによって輪郭の傾きや曲率を
求める。 3.輪郭の傾きや曲率を基に、輪郭に於ける幾何不変量
を計算し、この幾何不変量により両眼画像間の輪郭の対
応付けをする。 4.輪郭の対応付けと、軌跡群間の色不変量とを基に、
隣接する画像系列間で軌跡群間の対応付けを行う。
【0044】図6は階層的軌跡特徴情報の説明図であ
り、(a)の三次元多眼画像の同一水平ライン15上の
二つの点a1,a2について、視差軸θ方向の各画像間
の関係は(b)に示すものとなる。即ち、点a1,a2
が離れている状態から、三次元物体10を見る方向が変
化することによって次第に接近し、点a1,a2が重な
って見えた後、次第に離れる状態の軌跡が得られる。
り、(a)の三次元多眼画像の同一水平ライン15上の
二つの点a1,a2について、視差軸θ方向の各画像間
の関係は(b)に示すものとなる。即ち、点a1,a2
が離れている状態から、三次元物体10を見る方向が変
化することによって次第に接近し、点a1,a2が重な
って見えた後、次第に離れる状態の軌跡が得られる。
【0045】図7はエピポーラ平面画像の説明図であ
り、(a)は、見る方向によって幅が変化しないが、間
隔が変化する二つの点a11,a12を含む三次元物体
について視点を変えた場合の軌跡を示し、最初は離れて
いる点a11,a12は、視点を変えることにより次第
に接近し、遂には重なって点a12のみが見える状態と
なり、その後は再び離れる状態を繰り返すことになる。
り、(a)は、見る方向によって幅が変化しないが、間
隔が変化する二つの点a11,a12を含む三次元物体
について視点を変えた場合の軌跡を示し、最初は離れて
いる点a11,a12は、視点を変えることにより次第
に接近し、遂には重なって点a12のみが見える状態と
なり、その後は再び離れる状態を繰り返すことになる。
【0046】又(b)は、正面が正方形となる点b1
1,b12,b13の集合による三次元物体について視
点を変えた場合の軌跡を示し、点b11,b12,b1
3は縄のように撚った状態となり、それらの間には空間
が生じない状態となる。
1,b12,b13の集合による三次元物体について視
点を変えた場合の軌跡を示し、点b11,b12,b1
3は縄のように撚った状態となり、それらの間には空間
が生じない状態となる。
【0047】図8はオーバーラップ部分の処理の説明図
であり、画像解析手段2のオーバーラップ点認識手段の
矢印方向の処理を示し、このオーバーラップ点認識手段
が、分割手段と選択手段と接続手段と付加手段とを含む
構成に於いて、軌跡a21,a22のオーバーラップ部
分により、軌跡a22は軌跡a21によって分断されて
不連続の状態となるから、オーバーラップ部分a23に
より軌跡a21a,a21b,a22a,a22bのよ
うに分割する。
であり、画像解析手段2のオーバーラップ点認識手段の
矢印方向の処理を示し、このオーバーラップ点認識手段
が、分割手段と選択手段と接続手段と付加手段とを含む
構成に於いて、軌跡a21,a22のオーバーラップ部
分により、軌跡a22は軌跡a21によって分断されて
不連続の状態となるから、オーバーラップ部分a23に
より軌跡a21a,a21b,a22a,a22bのよ
うに分割する。
【0048】分割された各軌跡a21a,a21b,a
22a,a22bについて、選択手段により三次元物体
の同一部分を表すか否かを判定し、接続手段により同一
部分と判定された軌跡a21a,a21b間と、軌跡a
22a,a22b間とを接続し、それぞれa21’,a
22’の軌跡とし、且つオーバーラップ部分a23の前
後関係を判定し、付加手段によって接続部分(オーバー
ラップ部分)a23a,a23bに、前後関係を示す識
別子を付加する。
22a,a22bについて、選択手段により三次元物体
の同一部分を表すか否かを判定し、接続手段により同一
部分と判定された軌跡a21a,a21b間と、軌跡a
22a,a22b間とを接続し、それぞれa21’,a
22’の軌跡とし、且つオーバーラップ部分a23の前
後関係を判定し、付加手段によって接続部分(オーバー
ラップ部分)a23a,a23bに、前後関係を示す識
別子を付加する。
【0049】図9はアスペクト・グラフの説明図であ
り、白の面と右斜線の面と左斜線の面と黒の面とからな
る正四面体について示す。アスペクト・グラフは、或る
物体について、視点の位置による見え方(アスペクト)
の相違を定性的に複数に分類し、類と類との関係をグラ
フ化したものであり、或る見え方の類の中では、適当な
定量的情報を補ってやることにより、視点の移動による
見え方の変化を予測し得るが、他の類へ視点が移動する
場合は対応がとれなくなることに基づいた分類法であ
る。
り、白の面と右斜線の面と左斜線の面と黒の面とからな
る正四面体について示す。アスペクト・グラフは、或る
物体について、視点の位置による見え方(アスペクト)
の相違を定性的に複数に分類し、類と類との関係をグラ
フ化したものであり、或る見え方の類の中では、適当な
定量的情報を補ってやることにより、視点の移動による
見え方の変化を予測し得るが、他の類へ視点が移動する
場合は対応がとれなくなることに基づいた分類法であ
る。
【0050】このアスペクト・グラフに於いて、一つの
ノードが一つのアスペクトに対応し、一本のエッジが見
え方の類の変化=イベント(例えば、新たな面が見える
ようになる)を示す。又一つのアスペクトに対応する視
点の位置の集合(空間領域)をセル(cell)と称
し、視点がセル間の境界を越えることがイベントに対応
している。従って、アスペクト・グラフは、定量的情報
を処理するに当たって、一つの規範となるものといえ
る。
ノードが一つのアスペクトに対応し、一本のエッジが見
え方の類の変化=イベント(例えば、新たな面が見える
ようになる)を示す。又一つのアスペクトに対応する視
点の位置の集合(空間領域)をセル(cell)と称
し、視点がセル間の境界を越えることがイベントに対応
している。従って、アスペクト・グラフは、定量的情報
を処理するに当たって、一つの規範となるものといえ
る。
【0051】図10はアスペクトの分類の説明図であ
り、横軸は水平軸v、縦軸は視差軸θを示す。アスペク
ト・グラフは、三次元物体と空間との境界線がどのよう
な形状をとるかで分類したものであり、或る一つのエピ
ポーラ平面のみについてアスペクトの分類を行う。この
アスペクトの分類も補間等に用いることを目的として、
三次元物体の表面上の任意の点のうち、どの点が見えて
いるかによって分類するものである。
り、横軸は水平軸v、縦軸は視差軸θを示す。アスペク
ト・グラフは、三次元物体と空間との境界線がどのよう
な形状をとるかで分類したものであり、或る一つのエピ
ポーラ平面のみについてアスペクトの分類を行う。この
アスペクトの分類も補間等に用いることを目的として、
三次元物体の表面上の任意の点のうち、どの点が見えて
いるかによって分類するものである。
【0052】即ち、図10に模式的に示す多面体のエピ
ポーラ平面の一部分の太線21〜24がエピポーラ平面
による多面体の切り口(多角形)の頂点の軌跡を示し、
三次元上の点の多眼画像への射影は、それぞれ矢印のよ
うに移動する。この矢印がピクセルの対応付けそのもの
であり、この場合はアスペクトは3種類(アスペクト
1,2,3)に分類される。即ち、エピポーラ平面上の
ピクセルのみを対象とすれば、元の多眼画像に写ってい
る物体の表面領域の組合せは、水平軸方向の分割線2
5,26で分割して示すように三通りである。
ポーラ平面の一部分の太線21〜24がエピポーラ平面
による多面体の切り口(多角形)の頂点の軌跡を示し、
三次元上の点の多眼画像への射影は、それぞれ矢印のよ
うに移動する。この矢印がピクセルの対応付けそのもの
であり、この場合はアスペクトは3種類(アスペクト
1,2,3)に分類される。即ち、エピポーラ平面上の
ピクセルのみを対象とすれば、元の多眼画像に写ってい
る物体の表面領域の組合せは、水平軸方向の分割線2
5,26で分割して示すように三通りである。
【0053】図11は三次元多眼画像とエピポーラ平面
画像との説明図であり、(a)〜(d)は、三次元CG
による三次元物体(立方体)を基に、その三次元物体の
全体を取り囲む曲線に沿って2度毎の地点からその三次
元物体を見た画像を形成し、その180枚の画像を形成
順序に従って並べ、その10,55,100,145番
目(フレーム)の画像を示す。
画像との説明図であり、(a)〜(d)は、三次元CG
による三次元物体(立方体)を基に、その三次元物体の
全体を取り囲む曲線に沿って2度毎の地点からその三次
元物体を見た画像を形成し、その180枚の画像を形成
順序に従って並べ、その10,55,100,145番
目(フレーム)の画像を示す。
【0054】又(e)〜(h)は前述の180枚の画像
からなる三次元多眼画像について、13,20,30,
39番目の水平ラインに於けるエピポーラ平面画像を示
す。三次元物体の或る高さの一点について三次元多眼画
像の取得位置の順序で追跡すると、連続的に取得した三
次元多眼画像の場合は勿論のこと、或る間隔をおいて取
得した三次元多眼画像を用いた場合でも、一本の曲線を
描くことになる。即ち、(e)〜(h)に示すように、
或る高さ(或る水平ライン)毎のエピポーラ平面画像を
得ることができる。
からなる三次元多眼画像について、13,20,30,
39番目の水平ラインに於けるエピポーラ平面画像を示
す。三次元物体の或る高さの一点について三次元多眼画
像の取得位置の順序で追跡すると、連続的に取得した三
次元多眼画像の場合は勿論のこと、或る間隔をおいて取
得した三次元多眼画像を用いた場合でも、一本の曲線を
描くことになる。即ち、(e)〜(h)に示すように、
或る高さ(或る水平ライン)毎のエピポーラ平面画像を
得ることができる。
【0055】実際は、総ての三次元物体の表面上の点に
ついてエピポーラ平面画像上の軌跡を認識できるもので
はない。何故ならば、エピポーラ平面画像は輝度値画像
であり、近似した輝度値で表される三次元物体の表面上
の2点間は区別できない。そこで、三次元物体の似通っ
た輝度値を生じる表面領域のエピポーラ平面画像上での
広がりを認識する為に、エピポーラ平面画像に対して輝
度値に基づくセグメンテーションを行う。
ついてエピポーラ平面画像上の軌跡を認識できるもので
はない。何故ならば、エピポーラ平面画像は輝度値画像
であり、近似した輝度値で表される三次元物体の表面上
の2点間は区別できない。そこで、三次元物体の似通っ
た輝度値を生じる表面領域のエピポーラ平面画像上での
広がりを認識する為に、エピポーラ平面画像に対して輝
度値に基づくセグメンテーションを行う。
【0056】このセグメンテーションは、例えば、ソー
ベルフィルタを用いてエッジ検出を行う。このエッジ検
出の結果を図12の(a)〜(d)に示す。このエッジ
として検出された点の上を1ピクセル毎に領域を拡張し
てラベル付けを行う。
ベルフィルタを用いてエッジ検出を行う。このエッジ検
出の結果を図12の(a)〜(d)に示す。このエッジ
として検出された点の上を1ピクセル毎に領域を拡張し
てラベル付けを行う。
【0057】図13はラベル付け処理とソーベルフィル
タとの説明図であり、(d)はソーベルフィルタを示
し、3×3の構成の場合を示す。このソーベルフィルタ
の中心を注目画素に一致させて、各画素に対してソーベ
ルフィルタの係数を乗算した値の和の絶対値と、このソ
ーベルフィルタを90度回転して同様に演算処理した絶
対値とを加算し、この加算値を、RGBの各色について
実行し、閾値(例えば、40)以上の場合は、この注目
画素をエッジ点と認識する。前述の図11の(e)〜
(h)のエピポーラ平面画像についてエッジ検出した結
果が、図12の(a)〜(d)に示すものとなる。
タとの説明図であり、(d)はソーベルフィルタを示
し、3×3の構成の場合を示す。このソーベルフィルタ
の中心を注目画素に一致させて、各画素に対してソーベ
ルフィルタの係数を乗算した値の和の絶対値と、このソ
ーベルフィルタを90度回転して同様に演算処理した絶
対値とを加算し、この加算値を、RGBの各色について
実行し、閾値(例えば、40)以上の場合は、この注目
画素をエッジ点と認識する。前述の図11の(e)〜
(h)のエピポーラ平面画像についてエッジ検出した結
果が、図12の(a)〜(d)に示すものとなる。
【0058】又図13の(a)はラベル付けの初期状態
を示し、エッジ点のピクセルを空白で表し、矢印で示す
ように、相対輝度値1,2,3のピクセルについて、上
下左右に1ピクセル毎に領域拡張を行う。その場合、一
つのエッジ点に対して同時に複数の領域からの拡張が行
われる時は、例えば、そのエッジ点に対する上の領域,
左の領域,右の領域,下の領域の順に優先権を与え、優
先順位の高い領域から拡張を行わせる。
を示し、エッジ点のピクセルを空白で表し、矢印で示す
ように、相対輝度値1,2,3のピクセルについて、上
下左右に1ピクセル毎に領域拡張を行う。その場合、一
つのエッジ点に対して同時に複数の領域からの拡張が行
われる時は、例えば、そのエッジ点に対する上の領域,
左の領域,右の領域,下の領域の順に優先権を与え、優
先順位の高い領域から拡張を行わせる。
【0059】図13の(b)は(a)の矢印で示す領域
の拡張を行った結果を示す。この状態から更に領域拡張
を継続することにより、(c)に示すようにエッジ点の
ラベル付けが行われる。図12の(a)〜(d)のエッ
ジ検出結果のエピポーラ平面画像に対するラベル付けに
よるセグメンテーションの結果を図14の(a)〜
(d)に示す。
の拡張を行った結果を示す。この状態から更に領域拡張
を継続することにより、(c)に示すようにエッジ点の
ラベル付けが行われる。図12の(a)〜(d)のエッ
ジ検出結果のエピポーラ平面画像に対するラベル付けに
よるセグメンテーションの結果を図14の(a)〜
(d)に示す。
【0060】図15はアスペクトの分類の説明図であ
り、エピポーラ平面画像の一部について境界線が直線で
表されるものとした場合を示し、境界線の交差点を水平
軸方向に通る分割線31〜34によって分割し、アスペ
クトAS1,AS2,AS3,・・・として分類でき
る。
り、エピポーラ平面画像の一部について境界線が直線で
表されるものとした場合を示し、境界線の交差点を水平
軸方向に通る分割線31〜34によって分割し、アスペ
クトAS1,AS2,AS3,・・・として分類でき
る。
【0061】図16はピクセルの対応付けの説明図であ
り、アスペクトの分割線と輝度値による境界線とにより
分割された領域の例えば斜線を施した部分の上部を1ピ
クセル幅とすると、その両側のピクセル幅をx,yとし
た時、下部はp,q,rの幅で、x:1:y=p:q:
rの関係の場合を示す。又この斜線を施した部分は、三
次元物体の表面上の或る点のエピポーラ平面画像上の軌
跡と考えることができる。元の多眼画像では、この斜線
部分に当たるピクセルは、同じ表面領域が写っていると
認識できる(対応付けができる)。
り、アスペクトの分割線と輝度値による境界線とにより
分割された領域の例えば斜線を施した部分の上部を1ピ
クセル幅とすると、その両側のピクセル幅をx,yとし
た時、下部はp,q,rの幅で、x:1:y=p:q:
rの関係の場合を示す。又この斜線を施した部分は、三
次元物体の表面上の或る点のエピポーラ平面画像上の軌
跡と考えることができる。元の多眼画像では、この斜線
部分に当たるピクセルは、同じ表面領域が写っていると
認識できる(対応付けができる)。
【0062】図17はアスペクトの分類結果の説明図で
あり、(a)〜(d)は、図14の(a)〜(d)に示
すセグメンテーション結果を基にアスペクトの分類を行
った結果を示す。即ち、セグメンテーションによる境界
線の交差点(新たな面が見え始めるイベント或いは或る
面が見えなくなるイベントを示す)を通る分割線によっ
て分割する。この場合、境界線の形状を3次多項式等の
関数で近似した形状情報と、境界線間の色情報と、分割
線情報と、その分割線上の輝度情報とによってエピポー
ラ平面画像を表すことができるから、情報圧縮ができ
る。
あり、(a)〜(d)は、図14の(a)〜(d)に示
すセグメンテーション結果を基にアスペクトの分類を行
った結果を示す。即ち、セグメンテーションによる境界
線の交差点(新たな面が見え始めるイベント或いは或る
面が見えなくなるイベントを示す)を通る分割線によっ
て分割する。この場合、境界線の形状を3次多項式等の
関数で近似した形状情報と、境界線間の色情報と、分割
線情報と、その分割線上の輝度情報とによってエピポー
ラ平面画像を表すことができるから、情報圧縮ができ
る。
【0063】図18は境界線の近似説明図であり、セグ
メンテーションによる境界線を多項式で近似するもの
で、実線の曲線が境界線であるとすると、視差軸方向に
3分割する白丸で示す4点を結ぶ3次式を用いることが
できる。又近似関数として1次式を用いると、点線の関
係を示すことになる。なお、1次式を用いた場合より3
次式を用いた場合に、復元された階層的軌跡特徴情報が
元の階層的軌跡特徴情報に近いものとなる。
メンテーションによる境界線を多項式で近似するもの
で、実線の曲線が境界線であるとすると、視差軸方向に
3分割する白丸で示す4点を結ぶ3次式を用いることが
できる。又近似関数として1次式を用いると、点線の関
係を示すことになる。なお、1次式を用いた場合より3
次式を用いた場合に、復元された階層的軌跡特徴情報が
元の階層的軌跡特徴情報に近いものとなる。
【0064】例えば、輝度値による境界線を3次多項式
で近似し、又図16に於ける例えば斜線を施した領域の
輝度値の平均値を上方の分割線上に射影し、これを分割
線上の各ピクセルについて実行し、分割線上の1ライン
分の輝度値情報とする。或いは分割線上の輝度値をその
まま輝度値情報とすることができる。
で近似し、又図16に於ける例えば斜線を施した領域の
輝度値の平均値を上方の分割線上に射影し、これを分割
線上の各ピクセルについて実行し、分割線上の1ライン
分の輝度値情報とする。或いは分割線上の輝度値をその
まま輝度値情報とすることができる。
【0065】この場合、情報圧縮手段4に於いて階層的
軌跡特徴情報の個々の軌跡について近似手段によって形
状情報と色情報とを関数で近似し、この形状情報を例え
ば前述のように3次多項式で近似し、色情報を例えばフ
ラクタル変換(自己相似モデル)で近似し、グループ化
手段により軌跡を、アスペクトの分類のようにグループ
化し、各グループの形状情報と色情報との各近似関数の
代表値を求め、その代表値に符号を割当手段によって割
り当てて圧縮符号化することができる。
軌跡特徴情報の個々の軌跡について近似手段によって形
状情報と色情報とを関数で近似し、この形状情報を例え
ば前述のように3次多項式で近似し、色情報を例えばフ
ラクタル変換(自己相似モデル)で近似し、グループ化
手段により軌跡を、アスペクトの分類のようにグループ
化し、各グループの形状情報と色情報との各近似関数の
代表値を求め、その代表値に符号を割当手段によって割
り当てて圧縮符号化することができる。
【0066】図19は剛体運動の補償説明図であり、三
次元物体40a,40bを剛体としてその運動を剛体運
動検出手段41により検出する。この剛体運動の平行移
動の移動量を基に視点と剛体運動物体中心との射影関係
を射影関係算出手段42によって求める。軌跡の変形手
段43は、視点の射影関係によりアドレス変換を行う変
換手段を含み、変換されたアドレスを基に階層的軌跡特
徴情報を変形する。又剛体運動の回転の移動量を基に、
軌跡の変形手段43により変形された階層的軌跡特徴情
報を移動し、剛体運動の補償を行うことができる。
次元物体40a,40bを剛体としてその運動を剛体運
動検出手段41により検出する。この剛体運動の平行移
動の移動量を基に視点と剛体運動物体中心との射影関係
を射影関係算出手段42によって求める。軌跡の変形手
段43は、視点の射影関係によりアドレス変換を行う変
換手段を含み、変換されたアドレスを基に階層的軌跡特
徴情報を変形する。又剛体運動の回転の移動量を基に、
軌跡の変形手段43により変形された階層的軌跡特徴情
報を移動し、剛体運動の補償を行うことができる。
【0067】図20は非剛体運動の補償説明図であり、
三次元物体50a,50bを非剛体として、その運動を
非剛体運動検出手段51により検出する。この非剛体運
動を、分類手段52により大局的な剛体運動53と局所
的な剛体運動54とに分類し、大局的な剛体運動53の
移動量に応じて第1の変形手段55により全体的に階層
的軌跡特徴情報を変形し、局所的な剛体運動54の移動
量に応じて第2の変形手段56により部分的に階層的軌
跡特徴情報を変形して、非剛体運動の補償を行うことが
できる。
三次元物体50a,50bを非剛体として、その運動を
非剛体運動検出手段51により検出する。この非剛体運
動を、分類手段52により大局的な剛体運動53と局所
的な剛体運動54とに分類し、大局的な剛体運動53の
移動量に応じて第1の変形手段55により全体的に階層
的軌跡特徴情報を変形し、局所的な剛体運動54の移動
量に応じて第2の変形手段56により部分的に階層的軌
跡特徴情報を変形して、非剛体運動の補償を行うことが
できる。
【0068】従って、動画像について、対象物体が剛体
運動か非剛体運動かを判定し、その対象物体の移動量を
求め、その移動量に応じて階層的軌跡特徴情報を変形す
ることにより、対象物体の動きについて補償することが
できる。
運動か非剛体運動かを判定し、その対象物体の移動量を
求め、その移動量に応じて階層的軌跡特徴情報を変形す
ることにより、対象物体の動きについて補償することが
できる。
【0069】二次元画像は三次元物体の投影図であると
仮定し、画像上の三次元物体の次のフレームに於けるカ
メラ座標系の三次元位置をPc=(pcx ,pcy ,p
cz)とすると、これに対応する二次元座標での二次元
位置は、Pi=(pix ,piy )=(pcx /p
cz ,pcy /pcz )で表すことができる。すると、
二次元動きベクトルy=(u,v)は、j=Nとして次
式で表される。
仮定し、画像上の三次元物体の次のフレームに於けるカ
メラ座標系の三次元位置をPc=(pcx ,pcy ,p
cz)とすると、これに対応する二次元座標での二次元
位置は、Pi=(pix ,piy )=(pcx /p
cz ,pcy /pcz )で表すことができる。すると、
二次元動きベクトルy=(u,v)は、j=Nとして次
式で表される。
【数1】
【0070】(5)式の右辺のη(k)は定常白色性の
雑音プロセスであり、二つの独立したガウス性の白色雑
音の和としてモデル化することができる。一方は観測雑
音であり、他方はシステムが潜在的に持っているノイズ
である。拡張カルマンフィルタの状態ベクトルは、6個
の三次元動きパラメータ(剛体の並進及び回転)とN個
の特徴点の三次元構造パラメータとから構成される。
雑音プロセスであり、二つの独立したガウス性の白色雑
音の和としてモデル化することができる。一方は観測雑
音であり、他方はシステムが潜在的に持っているノイズ
である。拡張カルマンフィルタの状態ベクトルは、6個
の三次元動きパラメータ(剛体の並進及び回転)とN個
の特徴点の三次元構造パラメータとから構成される。
【数2】
【0071】(6)式の状態ベクトルx(k)は、非線
形関数fにより次式のように更新される。
形関数fにより次式のように更新される。
【数3】
【0072】三次元物体を中心にしたフレームの起点に
関しての三次元物体の回転的な動きは、quatern
ionsを用いて直接求めることができる。t0 に於い
て三次元物体を中心にしたフレームと、初めのカメラを
中心としたフレームとが一直線になっていると仮定する
と、三次元物体を中心にしたフレームに関する回転行列
RCOは、qco(k)=(q1 ,q2 ,q3 ,q4 )の項
を用いて次式のように表される。
関しての三次元物体の回転的な動きは、quatern
ionsを用いて直接求めることができる。t0 に於い
て三次元物体を中心にしたフレームと、初めのカメラを
中心としたフレームとが一直線になっていると仮定する
と、三次元物体を中心にしたフレームに関する回転行列
RCOは、qco(k)=(q1 ,q2 ,q3 ,q4 )の項
を用いて次式のように表される。
【数4】
【0073】この(8)式のωc (k)が第kフレーム
目と第k−1フレーム目との間で一定であると仮定する
と、quaternionsは、ωc (k)を用いて次
式で表すことができる。
目と第k−1フレーム目との間で一定であると仮定する
と、quaternionsは、ωc (k)を用いて次
式で表すことができる。
【数5】
【0074】前述の(7)式に従ってx(k)を更新し
た後、回転行列を計算することにより回転ベクトルωc
(k)が導出される。第kフレーム目と第k−1フレー
ム目との間で回転ベクトルωc (k)が一定であるとい
う仮定は、“zero−order”近似、つまりテイ
ラー展開に於いて1次以降の剰余項を省略して近似する
ことと同じことである。このようにして、三次元物体の
回転的な動きが一定速度でない時、若しくは一定の並進
でない時の状態方程式を容易に導出することができる。
た後、回転行列を計算することにより回転ベクトルωc
(k)が導出される。第kフレーム目と第k−1フレー
ム目との間で回転ベクトルωc (k)が一定であるとい
う仮定は、“zero−order”近似、つまりテイ
ラー展開に於いて1次以降の剰余項を省略して近似する
ことと同じことである。このようにして、三次元物体の
回転的な動きが一定速度でない時、若しくは一定の並進
でない時の状態方程式を容易に導出することができる。
【0075】対象物体(三次元物体)の剛体運動と三次
元構造の推定について要約すると、 1.対象物体に特徴点の組を選び、それらの初期画像に
於ける座標Pi(k)を自動的或いは手動で指定して抽
出する。 2.特徴点のフレーム間のオプティカルフローy(k)
を計算する。 3.フレーム間の三次元変換ベクトルtc (k),ωc
(k)及び回転ベクトルωc (k)を計算し、(5),
(7)式を拡張カルマンフィルタを用いて解くことによ
って三次元構造パラメータPc (k)を更新する。 4.ωc (k)から(9)式を用いてフレーム間の四次
元列ベクトルqco(k)を計算する。 5.四次元列ベクトルqco(k)から(8)式を用いて
回転行列Rco(k)を計算する。
元構造の推定について要約すると、 1.対象物体に特徴点の組を選び、それらの初期画像に
於ける座標Pi(k)を自動的或いは手動で指定して抽
出する。 2.特徴点のフレーム間のオプティカルフローy(k)
を計算する。 3.フレーム間の三次元変換ベクトルtc (k),ωc
(k)及び回転ベクトルωc (k)を計算し、(5),
(7)式を拡張カルマンフィルタを用いて解くことによ
って三次元構造パラメータPc (k)を更新する。 4.ωc (k)から(9)式を用いてフレーム間の四次
元列ベクトルqco(k)を計算する。 5.四次元列ベクトルqco(k)から(8)式を用いて
回転行列Rco(k)を計算する。
【0076】対象物体追跡の為の対象物体の特徴点を選
ぶ時に、曖昧な動きの時に動かないでいる特徴点ではな
く、厳密な動きの結果として動く特徴点を選ぶもので、
実画像を対象物体と背景とに分割し、その対象物体であ
る領域から特徴点を、最大曲率,端点或いは節点として
検出する。この場合の特徴点の検出は、人間によって簡
単に行うことができるが、コンピュータ処理によって行
うことも可能である。
ぶ時に、曖昧な動きの時に動かないでいる特徴点ではな
く、厳密な動きの結果として動く特徴点を選ぶもので、
実画像を対象物体と背景とに分割し、その対象物体であ
る領域から特徴点を、最大曲率,端点或いは節点として
検出する。この場合の特徴点の検出は、人間によって簡
単に行うことができるが、コンピュータ処理によって行
うことも可能である。
【0077】又特徴点の追跡は、オプティカルフロー法
によって計算する。このオプティカルフローには、主に
二つの方法があり、その一つは、正規化相互相関に基づ
くブロックマッチングであり、例えば、8×8ブロック
を用い、探索範囲を±10ピクセルと設定した時、最も
良い追跡精度が得られた。他の一つは、勾配法であり、
例えば、4点からの一次微分を計算し、5×5ブロック
について最小二乗法を用いて速度を推定することができ
る。
によって計算する。このオプティカルフローには、主に
二つの方法があり、その一つは、正規化相互相関に基づ
くブロックマッチングであり、例えば、8×8ブロック
を用い、探索範囲を±10ピクセルと設定した時、最も
良い追跡精度が得られた。他の一つは、勾配法であり、
例えば、4点からの一次微分を計算し、5×5ブロック
について最小二乗法を用いて速度を推定することができ
る。
【0078】又カルマンフィルタに対して、初期値を次
のように設定する。状態ベクトルについて、6個の三次
元運動パラメータを0に設定し、構造パラメータを設定
し、推定誤差の共分散行列を0に設定する。オプティカ
ルフローを勾配法を用いて計算する場合、測定誤差の共
分散行列を更新するが、ブロックマッチングを用いる場
合は、その共分散行列は定常的な零平均ガウス分布とし
て更新する。
のように設定する。状態ベクトルについて、6個の三次
元運動パラメータを0に設定し、構造パラメータを設定
し、推定誤差の共分散行列を0に設定する。オプティカ
ルフローを勾配法を用いて計算する場合、測定誤差の共
分散行列を更新するが、ブロックマッチングを用いる場
合は、その共分散行列は定常的な零平均ガウス分布とし
て更新する。
【0079】又視点を固定して対象物体が動くと仮定す
ると、視点の移動量に於ける性質は、剛体運動の移動量
の性質と同等であると見做される。その為、画像補間手
段により剛体運動を補正することができる。即ち、 1.平行移動tc の移動量により、その視点と物体中心
との射影関係を求める。 2.視点からの射影関係によりアドレス変換を行う。 3.アドレス変換により階層的軌跡情報を変形する。 4.回転ωc 或いはRcoの移動量により、その変形した
階層的軌跡情報を移動する。
ると、視点の移動量に於ける性質は、剛体運動の移動量
の性質と同等であると見做される。その為、画像補間手
段により剛体運動を補正することができる。即ち、 1.平行移動tc の移動量により、その視点と物体中心
との射影関係を求める。 2.視点からの射影関係によりアドレス変換を行う。 3.アドレス変換により階層的軌跡情報を変形する。 4.回転ωc 或いはRcoの移動量により、その変形した
階層的軌跡情報を移動する。
【0080】図21は三次元多眼画像の透視射影関係の
説明図であり、視点Cと三次元物体中心との距離が、こ
の三次元物体の三次元多眼画像取得時の距離と異なる場
合、視点Cからの視線V1,V2,V3が画面IPの点
S1,S2,S3を通る透視射影を求め、視点Cからの
射影関係により画像位置を表すアドレスを変換し、変換
されたアドレスによって階層的軌跡特徴情報を変形す
る。この場合、視点Cと三次元物体中心との間の距離が
短い場合は、アドレス変換により画像は拡大されること
になる。又視点Cと三次元物体中心との間の距離が長い
場合は、アドレス変換により画像は縮小されることにな
る。
説明図であり、視点Cと三次元物体中心との距離が、こ
の三次元物体の三次元多眼画像取得時の距離と異なる場
合、視点Cからの視線V1,V2,V3が画面IPの点
S1,S2,S3を通る透視射影を求め、視点Cからの
射影関係により画像位置を表すアドレスを変換し、変換
されたアドレスによって階層的軌跡特徴情報を変形す
る。この場合、視点Cと三次元物体中心との間の距離が
短い場合は、アドレス変換により画像は拡大されること
になる。又視点Cと三次元物体中心との間の距離が長い
場合は、アドレス変換により画像は縮小されることにな
る。
【0081】図22は画像補間手段の説明図であり、
(a)は記憶手段に記憶された符号化階層的軌跡特徴情
報であり、位置,形状,色情報,見え方の前後関係を含
み、形状,色情報は近似関数により近似され、又前後関
係は識別子等によって表されている。従って、(b)に
示す階層的軌跡特徴情報の軌跡a21’,a22’及び
前後関係を示すオーバーラップ部分a23a,a23b
(図8参照)が得られ、前後関係を示す識別子によって
(c)に示す軌跡a21,a22が得られる。
(a)は記憶手段に記憶された符号化階層的軌跡特徴情
報であり、位置,形状,色情報,見え方の前後関係を含
み、形状,色情報は近似関数により近似され、又前後関
係は識別子等によって表されている。従って、(b)に
示す階層的軌跡特徴情報の軌跡a21’,a22’及び
前後関係を示すオーバーラップ部分a23a,a23b
(図8参照)が得られ、前後関係を示す識別子によって
(c)に示す軌跡a21,a22が得られる。
【0082】この軌跡a21,a22は、三次元物体の
見え方を示し、従って、三次元物体を見る方向が異なる
と、この軌跡a21,a22の形状は異なったものとな
る。そこで、指定された入力視点に応じて軌跡a21,
a22の補間処理を行う。即ち、(c)の軌跡a21,
a22は、例えば、(d)に示す軌跡a21A,a22
Aとなる。このような補間処理を行うことにより、
(e)に示す軌跡群が得られるから、視差軸θ上の入力
視点に対応した位置のu,v方向の軌跡群から、三次元
物体の画像を形成することができる。即ち、(f)に於
ける三次元多眼画像を取得する画像取得手段1による画
像取得位置と異なる視点が指定された場合でも、(e)
に示す軌跡群から三次元物体の画像を形成することがで
きる。
見え方を示し、従って、三次元物体を見る方向が異なる
と、この軌跡a21,a22の形状は異なったものとな
る。そこで、指定された入力視点に応じて軌跡a21,
a22の補間処理を行う。即ち、(c)の軌跡a21,
a22は、例えば、(d)に示す軌跡a21A,a22
Aとなる。このような補間処理を行うことにより、
(e)に示す軌跡群が得られるから、視差軸θ上の入力
視点に対応した位置のu,v方向の軌跡群から、三次元
物体の画像を形成することができる。即ち、(f)に於
ける三次元多眼画像を取得する画像取得手段1による画
像取得位置と異なる視点が指定された場合でも、(e)
に示す軌跡群から三次元物体の画像を形成することがで
きる。
【0083】図23は情報圧縮手段の説明図であり、図
3の(e)について説明した場合と同様に、階層的軌跡
特徴情報が画像解析手段2から情報圧縮手段4に加えら
れ、矢印で処理過程を示すように、階層的軌跡特徴情報
の個々の軌跡について、位置,形状,色情報,見え方の
前後関係を求め、位置,形状近似関数,色情報近似関
数,見え方の前後関係を符号化階層的軌跡特徴情報と
し、階層的軌跡特徴情報の冗長性を取り除いて圧縮符号
化し、記憶手段6に記憶させる。
3の(e)について説明した場合と同様に、階層的軌跡
特徴情報が画像解析手段2から情報圧縮手段4に加えら
れ、矢印で処理過程を示すように、階層的軌跡特徴情報
の個々の軌跡について、位置,形状,色情報,見え方の
前後関係を求め、位置,形状近似関数,色情報近似関
数,見え方の前後関係を符号化階層的軌跡特徴情報と
し、階層的軌跡特徴情報の冗長性を取り除いて圧縮符号
化し、記憶手段6に記憶させる。
【0084】図24は情報復元手段の説明図であり、矢
印で処理過程を示すように、図23に示す情報圧縮手段
の処理と逆の処理によって、記憶手段6から読出した符
号化階層的軌跡特徴情報(位置,形状近似関数,色情報
近似関数,見え方の前後関係)を順次復元し、元の階層
的軌跡特徴情報を得ることができる。
印で処理過程を示すように、図23に示す情報圧縮手段
の処理と逆の処理によって、記憶手段6から読出した符
号化階層的軌跡特徴情報(位置,形状近似関数,色情報
近似関数,見え方の前後関係)を順次復元し、元の階層
的軌跡特徴情報を得ることができる。
【0085】この階層的軌跡特徴情報が得られると、図
22について説明したように、入力視点に対応して軌跡
を変形し、それを基に入力視点に対応した画像を形成す
ることができる。この場合、三次元物体の画像を補間処
理するものであるが、画像情報は三次元構造が必要でな
いことから、処理量は従来例に比較して著しく低減でき
る。
22について説明したように、入力視点に対応して軌跡
を変形し、それを基に入力視点に対応した画像を形成す
ることができる。この場合、三次元物体の画像を補間処
理するものであるが、画像情報は三次元構造が必要でな
いことから、処理量は従来例に比較して著しく低減でき
る。
【0086】
【発明の効果】以上説明したように、本発明は、三次元
物体を複数の地点から見た画像群からなる三次元多眼画
像を取得し、その三次元多眼画像の各画像から階層的軌
跡特徴情報を求め、この階層的軌跡特徴情報を基に任意
の視点から三次元物体を見た画像を補間処理によって形
成するもので、従来例のような三次元構造情報を用いる
必要がなく、二次元構造情報を用いることにより、任意
の視点からの三次元物体の画像を形成できる。又シーン
の複雑性によらず計算量はほぼ一定となり、且つ回想的
軌跡特徴情報の圧縮符号化によって冗長性を除くことに
より、記憶容量の削減が可能となる。従って、経済的に
且つ高速で三次元多眼画像の処理が可能となる利点があ
る。
物体を複数の地点から見た画像群からなる三次元多眼画
像を取得し、その三次元多眼画像の各画像から階層的軌
跡特徴情報を求め、この階層的軌跡特徴情報を基に任意
の視点から三次元物体を見た画像を補間処理によって形
成するもので、従来例のような三次元構造情報を用いる
必要がなく、二次元構造情報を用いることにより、任意
の視点からの三次元物体の画像を形成できる。又シーン
の複雑性によらず計算量はほぼ一定となり、且つ回想的
軌跡特徴情報の圧縮符号化によって冗長性を除くことに
より、記憶容量の削減が可能となる。従って、経済的に
且つ高速で三次元多眼画像の処理が可能となる利点があ
る。
【0087】又三次元物体を複数の曲線に沿った複数の
地点から見た画像系列を取得した場合は、階層的軌跡特
徴情報を解析し、軌跡群間の対応付け,軌跡群間の移動
量算出,視点による射影関係を基に階層的軌跡特徴情報
の変形量算出を行うことにより、任意の視点からの三次
元物体の画像を補間処理によって容易に形成することが
できる。又三次元物体が運動する場合に於いても、その
運動量を求めることにより、容易に三次元物体の画像を
形成することができる。
地点から見た画像系列を取得した場合は、階層的軌跡特
徴情報を解析し、軌跡群間の対応付け,軌跡群間の移動
量算出,視点による射影関係を基に階層的軌跡特徴情報
の変形量算出を行うことにより、任意の視点からの三次
元物体の画像を補間処理によって容易に形成することが
できる。又三次元物体が運動する場合に於いても、その
運動量を求めることにより、容易に三次元物体の画像を
形成することができる。
【図1】本発明の実施例の説明図である。
【図2】画像取得手段の説明図である。
【図3】本発明の実施例の画像解析手段の説明図であ
る。
る。
【図4】三次元多眼画像と軌跡特徴情報との対応説明図
である。
である。
【図5】複数の曲線に沿った地点から見た三次元物体の
画像と視点との説明図である。
画像と視点との説明図である。
【図6】階層的軌跡特徴情報の説明図である。
【図7】エピポーラ平面画像の説明図である。
【図8】オーバーラップ部分の処理の説明図である。
【図9】アスペクト・グラフの説明図である。
【図10】アスペクトの分類の説明図である。
【図11】三次元多眼画像とエピポーラ平面画像との説
明図である。
明図である。
【図12】エッジ検出結果の説明図である。
【図13】ラベル付け処理とソーベルフィルタとの説明
図である。
図である。
【図14】セグメンテーション結果の説明図である。
【図15】アスペクトの分類の説明図である。
【図16】ピクセルの対応付けの説明図である。
【図17】アスペクトの分類結果の説明図である。
【図18】境界線の近似説明図である。
【図19】剛体運動の補償説明図である。
【図20】非剛体運動の補償説明図である。
【図21】三次元多眼画像の透視射影関係の説明図であ
る。
る。
【図22】画像補間手段の説明図である。
【図23】情報圧縮手段の説明図である。
【図24】情報復元手段の説明図である。
1 画像取得手段 2 画像解析手段 3 画像補間手段 4 情報圧縮手段 5 情報復元手段 6 記憶手段
Claims (20)
- 【請求項1】 三次元物体を複数の地点から見た画像群
からなる三次元多眼画像を画像取得手段によって取得
し、該画像取得手段によって得られた前記三次元多眼画
像の各画像間の前記三次元物体の同一点を繋ぐ階層的軌
跡特徴情報を画像解析手段によって求め、前記階層的軌
跡特徴情報を基に任意の視点から前記三次元物体を見た
画像を画像補間手段による補間処理によって求める過程
を含むことを特徴とする三次元多眼画像の処理方法。 - 【請求項2】 前記画像解析手段によって得られた前記
階層的軌跡特徴情報を情報圧縮手段によって圧縮符号化
し、該圧縮符号化された階層的軌跡特徴情報を記憶手段
に記憶し、該記憶手段から読出された前記圧縮符号化階
層的軌跡特徴情報を復号して、元の階層的軌跡特徴情報
を情報復元手段により復元し、前記画像補間手段に入力
する過程を含むことを特徴とする請求項1記載の三次元
多眼画像の処理方法。 - 【請求項3】 三次元物体を複数の地点から見た画像群
からなる三次元多眼画像を取得する画像取得手段と、 該画像取得手段によって得られた前記三次元多眼画像の
各画像間の前記三次元物体の同一点を繋ぐ階層的軌跡特
徴情報を求める画像解析手段と、 該画像解析手段によって得られた前記階層的軌跡特徴情
報を基に任意の視点から前記三次元物体を見た画像を補
間処理によって求める画像補間手段とを備えたことを特
徴とする三次元多眼画像の処理装置。 - 【請求項4】 前記画像解析手段によって得られた前記
階層的軌跡特徴情報を圧縮符号化する情報圧縮手段と、 該情報圧縮手段による符号化階層的軌跡特徴情報を記憶
する記憶手段と、 該記憶手段に記憶された前記符号化階層的軌跡特徴情報
を読出して復号化し、前記画像補間手段に入力する情報
復元手段とを備えたことを特徴とする請求項3記載の三
次元多眼画像の処理装置。 - 【請求項5】 前記画像取得手段は、単一又は複数の曲
線に沿った複数の地点から前記三次元物体を見た画像を
取得する構成を備えていることを特徴とする請求項3記
載の三次元多眼画像の処理装置。 - 【請求項6】 前記画像取得手段は、前記三次元物体の
一部又は全体を取り囲む曲面上に形成された複数の曲線
に沿った複数の地点から、前記三次元物体を見た画像を
取得する構成を備えていることを特徴とする請求項3記
載の三次元多眼画像の処理装置。 - 【請求項7】 前記画像解析手段は、前記三次元多眼画
像の各画像間の前記三次元物体の同一点を繋ぐ軌跡群を
求める軌跡群生成手段と、前記軌跡群のオーバーラップ
する点を検出して、該オーバーラップ点の前後関係を認
識するオーバーラップ点認識手段と、前記軌跡群を基に
前記三次元物体の穴若しくは凹面による見え隠れする部
分を検出する検出手段と、前記軌跡群の座標,形状及び
色情報を求める手段と、前記各手段により得られた情報
を階層的軌跡特徴情報として出力する解析出力手段とを
含むことを特徴とする請求項3記載の三次元多眼画像の
処理装置。 - 【請求項8】 前記画像解析手段は、前記複数の曲線に
沿って取得した前記三次元多眼画像の前記複数の軌跡群
を、幾何不変量又は色不変量に基づいて対応付けを行う
対応付け手段と、前記軌跡群間の移動量を求める手段
と、該移動量と視点による射影関係とを基に前記階層的
軌跡特徴情報の変形量を求める手段とを含むことを特徴
とする請求項3又は7記載の三次元多眼画像の処理装
置。 - 【請求項9】 前記画像解析手段により求めた前記階層
的軌跡特徴情報の変形量を基に、指定した視点による任
意の高さに於ける階層的軌跡特徴情報を補間する補間手
段と、該補間手段による補間結果を基に、前記視点から
の三次元画像を生成する生成手段とを含むことを特徴と
する請求項3,7又は8記載の三次元多眼画像の処理装
置。 - 【請求項10】 前記画像解析手段は、前記三次元多眼
画像中に剛体運動又は非剛体運動を行う物体について該
物体の移動量を求め、該移動量を基に前記階層的軌跡特
徴情報を変形する運動補正手段を備えたことを特徴とす
る請求項3又は7記載の三次元多眼画像の処理装置。 - 【請求項11】 前記運動補正手段は、剛体運動の平行
移動の移動量を基に視点と剛体運動物体中心との射影関
係を求める射影関係算出手段と、前記視点からの射影関
係によりアドレス変換を行う変換手段と、該変換手段に
より変換されたアドレスを基に階層的軌跡特徴情報を変
形する変形手段と、前記剛体の回転の移動量を基に、前
記変形手段により変形された階層的軌跡特徴情報を移動
する移動手段とを含む構成を備えたことを特徴とする請
求項3又は10記載の三次元多眼画像の処理装置。 - 【請求項12】 前記運動補正手段は、非剛体運動を大
局的な剛体運動と局所的な剛体運動とに分類する分類手
段と、該分類手段による前記大局的な剛体運動の移動量
により、全体的に階層的軌跡特徴情報を変形する第1の
変形手段と、前記分類手段による前記局所的な剛体運動
の移動量により、部分的に階層的軌跡特徴情報を変形す
る第2の変形手段とを含む構成を備えたことを特徴とす
る請求項10記載の三次元多眼画像の処理装置。 - 【請求項13】 前記画像解析手段の前記三次元物体の
穴若しくは凹面による見え隠れする部分を検出する検出
手段は、該見え隠れする部分について前記画像取得手段
により更に細かい間隔で前記三次元物体を見た画像を取
得するように制御する制御手段を含む構成を備えたこと
を特徴とする請求項3又は7記載の三次元多眼画像の処
理装置。 - 【請求項14】 前記画像解析手段の前記軌跡群のオー
バーラップ点を検出し、該オーバーラップ点の前後関係
を認識するオーバーラップ点認識手段は、前記軌跡群を
基に不連続な点を識別し、該不連続点を基に領域を分割
する分割手段と、分割された領域から前記三次元物体の
同一部分を表す領域を選択する選択手段と、選択された
領域間を接続する接続手段と、該接続手段による接続部
分と他の領域の接続部分との前後関係を判定して識別子
を付加する付加手段とを含む構成を備えたことを特徴と
する請求項3又は7記載の三次元多眼画像の処理装置。 - 【請求項15】 前記画像補間手段は、視点による射影
関係を求める射影手段と、該射影手段による射影関係を
基にアドレス変換を行うアドレス変換手段と、該アドレ
ス変換によるアドレスを基に前記階層的軌跡特徴情報を
変形する変形手段と、前記射影関係によりオーバーラッ
プ部分の前後関係を決定する決定手段と、三次元多眼画
像に対応する階層的軌跡特徴情報を合成する合成手段
と、該階層的軌跡特徴情報を基に三次元多眼画像を生成
する生成手段と、該三次元多眼画像を基に指定された視
点からの画像を形成する画像形成手段とを含む構成を備
えたことを特徴とする請求項3記載の三次元多眼画像の
処理装置。 - 【請求項16】 前記画像補間手段の前記アドレス変換
手段は、指定された視点と三次元物体中心との距離が、
三次元多眼画像取得時の距離と相違する時、該指定され
た視点に対して形成された画像の拡大,縮小を施す拡
大,縮小手段を備えたことを特徴とする請求項15記載
の三次元多眼画像の処理装置。 - 【請求項17】 前記画像解析手段によって得られた階
層的軌跡特徴情報を圧縮符号化する情報圧縮手段は、前
記階層的軌跡特徴情報の個々の軌跡について、それぞれ
形状情報と色情報とを関数で近似する近似手段と、前記
軌跡についてグループ化するグループ化手段と、前記グ
ループ化された各グループの形状情報と色情報との各近
似関数の代表値を求める手段と、前記代表値に符号を割
当てる割当手段とを備えたことを特徴とする請求項3又
は4項記載の三次元多眼画像の処理装置。 - 【請求項18】 前記情報圧縮手段は、前記形状情報の
近似関数として多項式を用いることを特徴とする請求項
17記載の三次元多眼画像の処理装置。 - 【請求項19】 前記情報圧縮手段は、前記色情報の近
似関数としてフラクタル変換を用いることを特徴とする
請求項17記載の三次元多眼画像の処理装置。 - 【請求項20】 前記情報復元手段は、前記記憶装置か
ら読出したデータを基に軌跡の形状と色の情報とを復元
し、階層的軌跡特徴情報を復元する手段を備えたことを
特徴とする請求項3又は4記載の三次元多眼画像の処理
装置。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP6215523A JPH0877356A (ja) | 1994-09-09 | 1994-09-09 | 三次元多眼画像の処理方法及び処理装置 |
| US08/400,756 US5710875A (en) | 1994-09-09 | 1995-03-08 | Method and apparatus for processing 3-D multiple view images formed of a group of images obtained by viewing a 3-D object from a plurality of positions |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP6215523A JPH0877356A (ja) | 1994-09-09 | 1994-09-09 | 三次元多眼画像の処理方法及び処理装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH0877356A true JPH0877356A (ja) | 1996-03-22 |
Family
ID=16673836
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP6215523A Pending JPH0877356A (ja) | 1994-09-09 | 1994-09-09 | 三次元多眼画像の処理方法及び処理装置 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US5710875A (ja) |
| JP (1) | JPH0877356A (ja) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2003103278A1 (ja) * | 2002-06-03 | 2003-12-11 | ソニー株式会社 | 画像処理装置および方法、プログラムおよびプログラム記録媒体、並びにデータ構造およびデータ記録媒体 |
| WO2006080739A1 (en) * | 2004-10-12 | 2006-08-03 | Electronics And Telecommunications Research Institute | Method and apparatus for encoding and decoding multi-view video using image stitching |
| EP1055179B1 (en) * | 1997-12-24 | 2007-02-21 | Intel Corporation | Method and apparatus for automated dynamics of three-dimensional graphics scenes for enhanced 3d visualization |
| JP2009516864A (ja) * | 2005-11-23 | 2009-04-23 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | マルチビューディスプレイ装置のためのビューの描画 |
| WO2018151038A1 (ja) * | 2017-02-17 | 2018-08-23 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
| JP2020532022A (ja) * | 2017-09-01 | 2020-11-05 | 畳境数字科技(上海)有限公司Plex−Vr Digital Technology (Shanghai) Co., Ltd. | 全視角方向の球体ライトフィールドレンダリング方法 |
Families Citing this family (96)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09153146A (ja) * | 1995-09-28 | 1997-06-10 | Toshiba Corp | 仮想空間表示方法 |
| JP3320295B2 (ja) * | 1996-02-22 | 2002-09-03 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
| US6445807B1 (en) * | 1996-03-22 | 2002-09-03 | Canon Kabushiki Kaisha | Image processing method and apparatus |
| JPH09293147A (ja) * | 1996-04-24 | 1997-11-11 | Canon Inc | 視線検出を用いた画像処理装置 |
| US6184892B1 (en) * | 1996-11-14 | 2001-02-06 | Fujitsu Limited | Image production processing apparatus and structural data generating apparatus for generating structural data used in the image production processing apparatus |
| IL120136A0 (en) * | 1997-02-03 | 1997-06-10 | Yissum Res Dev Co | Synthesizing virtual two dimensional images of three dimensional space from a collection of real two dimensional images |
| JPH10276455A (ja) * | 1997-03-28 | 1998-10-13 | Sony Corp | 映像表示方法および映像表示装置 |
| US6058397A (en) * | 1997-04-08 | 2000-05-02 | Mitsubishi Electric Information Technology Center America, Inc. | 3D virtual environment creation management and delivery system |
| US6097394A (en) * | 1997-04-28 | 2000-08-01 | Board Of Trustees, Leland Stanford, Jr. University | Method and system for light field rendering |
| US6094199A (en) * | 1997-05-23 | 2000-07-25 | University Of Washington | 3D objects morphing employing skeletons indicating symmetric differences to define intermediate objects used in morphing |
| CN1173296C (zh) * | 1997-12-05 | 2004-10-27 | 动力数字深度研究有限公司 | 改进的图像转换和编码技术 |
| EP1040450A4 (en) * | 1997-12-22 | 2001-04-11 | Eimar M Boesjes | ACQUISITION AND ANIMATION OF SURFACE DETAIL IMAGES |
| US6269172B1 (en) | 1998-04-13 | 2001-07-31 | Compaq Computer Corporation | Method for tracking the motion of a 3-D figure |
| US6256418B1 (en) * | 1998-04-13 | 2001-07-03 | Compaq Computer Corporation | Method and system for compressing a sequence of images including a moving figure |
| US6240198B1 (en) | 1998-04-13 | 2001-05-29 | Compaq Computer Corporation | Method for figure tracking using 2-D registration |
| US6198852B1 (en) * | 1998-06-01 | 2001-03-06 | Yeda Research And Development Co., Ltd. | View synthesis from plural images using a trifocal tensor data structure in a multi-view parallax geometry |
| US6278460B1 (en) | 1998-12-15 | 2001-08-21 | Point Cloud, Inc. | Creating a three-dimensional model from two-dimensional images |
| US6553138B2 (en) | 1998-12-30 | 2003-04-22 | New York University | Method and apparatus for generating three-dimensional representations of objects |
| US6744914B1 (en) * | 2000-04-28 | 2004-06-01 | Orametrix, Inc. | Method and system for generating a three-dimensional object |
| US6525731B1 (en) | 1999-11-09 | 2003-02-25 | Ibm Corporation | Dynamic view-dependent texture mapping |
| US6754389B1 (en) * | 1999-12-01 | 2004-06-22 | Koninklijke Philips Electronics N.V. | Program classification using object tracking |
| JP4531897B2 (ja) * | 1999-12-27 | 2010-08-25 | パナソニック株式会社 | 人物追跡装置、人物追跡方法及びそのプログラムを記録した記録媒体 |
| US6980690B1 (en) * | 2000-01-20 | 2005-12-27 | Canon Kabushiki Kaisha | Image processing apparatus |
| GB2358540B (en) * | 2000-01-21 | 2004-03-31 | Canon Kk | Method and apparatus for generating model data from camera images |
| US6674877B1 (en) * | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
| US20030052899A1 (en) * | 2000-08-16 | 2003-03-20 | Diana Walczak | Dynamic spatial warp |
| US6616347B1 (en) | 2000-09-29 | 2003-09-09 | Robert Dougherty | Camera with rotating optical displacement unit |
| US6914618B2 (en) * | 2000-11-02 | 2005-07-05 | Sun Microsystems, Inc. | Methods and systems for producing A 3-D rotational image from A 2-D image |
| US6831643B2 (en) * | 2001-04-16 | 2004-12-14 | Lucent Technologies Inc. | Method and system for reconstructing 3D interactive walkthroughs of real-world environments |
| US20040125228A1 (en) * | 2001-07-25 | 2004-07-01 | Robert Dougherty | Apparatus and method for determining the range of remote objects |
| US20030137506A1 (en) * | 2001-11-30 | 2003-07-24 | Daniel Efran | Image-based rendering for 3D viewing |
| US7051937B2 (en) * | 2002-03-22 | 2006-05-30 | Lockheed Martin Corporation | System and method for fast binarization of bar codes in the presence of noise |
| US7051040B2 (en) * | 2002-07-23 | 2006-05-23 | Lightsurf Technologies, Inc. | Imaging system providing dynamic viewport layering |
| GB2393088B (en) * | 2002-09-10 | 2006-06-28 | British Broadcasting Corp | Texture mapping |
| JP3744002B2 (ja) * | 2002-10-04 | 2006-02-08 | ソニー株式会社 | 表示装置、撮像装置、および撮像/表示システム |
| US20040222987A1 (en) * | 2003-05-08 | 2004-11-11 | Chang Nelson Liang An | Multiframe image processing |
| US7352911B2 (en) * | 2003-07-31 | 2008-04-01 | Hewlett-Packard Development Company, L.P. | Method for bilateral filtering of digital images |
| WO2005065085A2 (en) * | 2003-12-21 | 2005-07-21 | Kremen Stanley H | System and apparatus for recording, transmitting, and projecting digital three-dimensional images |
| US20050206874A1 (en) * | 2004-03-19 | 2005-09-22 | Dougherty Robert P | Apparatus and method for determining the range of remote point light sources |
| US7525541B2 (en) * | 2004-04-05 | 2009-04-28 | Actuality Systems, Inc. | Data processing for three-dimensional displays |
| US8059153B1 (en) | 2004-06-21 | 2011-11-15 | Wyse Technology Inc. | Three-dimensional object tracking using distributed thin-client cameras |
| WO2006002320A2 (en) * | 2004-06-23 | 2006-01-05 | Strider Labs, Inc. | System and method for 3d object recognition using range and intensity |
| US8027531B2 (en) * | 2004-07-21 | 2011-09-27 | The Board Of Trustees Of The Leland Stanford Junior University | Apparatus and method for capturing a scene using staggered triggering of dense camera arrays |
| US20060187297A1 (en) * | 2005-02-24 | 2006-08-24 | Levent Onural | Holographic 3-d television |
| EP1897033A4 (en) * | 2005-06-16 | 2015-06-24 | Strider Labs Inc | SYSTEM AND METHOD FOR RECOGNIZING 2D IMAGES USING 3D CLASS MODELS |
| US20070046924A1 (en) * | 2005-08-30 | 2007-03-01 | Chang Nelson L A | Projecting light patterns encoding correspondence information |
| JP2007072528A (ja) * | 2005-09-02 | 2007-03-22 | Internatl Business Mach Corp <Ibm> | 文書構造解析方法、プログラム、装置 |
| KR100731979B1 (ko) * | 2005-10-18 | 2007-06-25 | 전자부품연구원 | 다시점 정방향 카메라 구조 기반의 메쉬를 이용한 중간영상 합성 방법 및 장치와 이를 구현하는 기능을실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는기록 매체 |
| US8018579B1 (en) * | 2005-10-21 | 2011-09-13 | Apple Inc. | Three-dimensional imaging and display system |
| US8014588B2 (en) * | 2005-11-04 | 2011-09-06 | Cognitech, Inc. | System and method for three-dimensional estimation based on image data |
| WO2007107214A2 (de) * | 2006-03-22 | 2007-09-27 | Pilz Gmbh & Co. Kg | Verfahren und vorrichtung zur korrespondenzbestimmung, vorzugsweise zur dreidimensionalen rekonstruktion einer szene |
| DE102007010806B4 (de) * | 2007-03-02 | 2010-05-12 | Siemens Ag | Verfahren zum Schaffen erweiterter Möglichkeiten bei der Verwendung von für den Einsatz von Registrierungsverfahren ungeeigneten Bilddaten eines Patienten und Röntgenangiographiesystem |
| JP5039921B2 (ja) * | 2008-01-30 | 2012-10-03 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 圧縮システム、プログラムおよび方法 |
| US8275194B2 (en) * | 2008-02-15 | 2012-09-25 | Microsoft Corporation | Site modeling using image data fusion |
| US8125481B2 (en) * | 2008-03-21 | 2012-02-28 | Google Inc. | Lightweight three-dimensional display |
| US8886669B2 (en) * | 2008-03-21 | 2014-11-11 | Trimble Navigation Limited | File access via conduit application |
| US20110001791A1 (en) * | 2009-07-02 | 2011-01-06 | Emaze Imaging Techonolgies Ltd. | Method and system for generating and displaying a three-dimensional model of physical objects |
| EP2384001A1 (en) * | 2010-04-29 | 2011-11-02 | Alcatel Lucent | Providing of encoded video applications in a network environment |
| DE102010022791B4 (de) * | 2010-06-04 | 2015-08-06 | Siemens Aktiengesellschaft | Verfahren zur dreidimensionalen Darstellung einer bewegten Struktur durch ein Rotationsangiographie-Verfahren |
| US8446461B2 (en) * | 2010-07-23 | 2013-05-21 | Superd Co. Ltd. | Three-dimensional (3D) display method and system |
| KR101666019B1 (ko) | 2010-08-03 | 2016-10-14 | 삼성전자주식회사 | 외삽 뷰 생성을 위한 장치 및 방법 |
| US8923567B2 (en) * | 2011-12-19 | 2014-12-30 | General Electric Company | Apparatus and method for predicting solar irradiance variation |
| US8750566B2 (en) * | 2012-02-23 | 2014-06-10 | General Electric Company | Apparatus and method for spatially relating views of sky images acquired at spaced apart locations |
| USD781318S1 (en) | 2014-04-22 | 2017-03-14 | Google Inc. | Display screen with graphical user interface or portion thereof |
| US9934222B2 (en) | 2014-04-22 | 2018-04-03 | Google Llc | Providing a thumbnail image that follows a main image |
| US9972121B2 (en) | 2014-04-22 | 2018-05-15 | Google Llc | Selecting time-distributed panoramic images for display |
| USD781317S1 (en) | 2014-04-22 | 2017-03-14 | Google Inc. | Display screen with graphical user interface or portion thereof |
| USD780777S1 (en) | 2014-04-22 | 2017-03-07 | Google Inc. | Display screen with graphical user interface or portion thereof |
| US10008027B1 (en) | 2014-10-20 | 2018-06-26 | Henry Harlyn Baker | Techniques for determining a three-dimensional representation of a surface of an object from a set of images |
| US9508157B2 (en) | 2014-12-12 | 2016-11-29 | Siemens Medical Solutions Usa, Inc. | Reconstruction of aneurysm wall motion |
| US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
| JP6585371B2 (ja) * | 2015-04-24 | 2019-10-02 | 株式会社デンソーテン | 画像処理装置、画像処理方法および車載装置 |
| TW201719572A (zh) * | 2015-11-19 | 2017-06-01 | 國立交通大學 | 三維模型分析及搜尋方法 |
| US10019851B2 (en) | 2016-10-25 | 2018-07-10 | Microsoft Technology Licensing, Llc | Positioning objects in three-dimensional graphical space |
| US10713853B2 (en) | 2016-10-25 | 2020-07-14 | Microsoft Technology Licensing, Llc | Automatically grouping objects in three-dimensional graphical space |
| US10430994B1 (en) | 2016-11-07 | 2019-10-01 | Henry Harlyn Baker | Techniques for determining a three-dimensional textured representation of a surface of an object from a set of images with varying formats |
| CN110473232B (zh) * | 2017-07-14 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置、存储介质及电子设备 |
| WO2020162035A1 (ja) * | 2019-02-07 | 2020-08-13 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| WO2020242047A1 (en) * | 2019-05-30 | 2020-12-03 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring virtual object data in augmented reality |
| CN114600165B (zh) | 2019-09-17 | 2025-08-15 | 波士顿偏振测定公司 | 用于使用偏振提示表面建模的系统和方法 |
| EP4042366A4 (en) | 2019-10-07 | 2023-11-15 | Boston Polarimetrics, Inc. | SYSTEMS AND METHODS FOR AUGMENTING SENSOR SYSTEMS AND IMAGING SYSTEMS WITH POLARIZATION |
| WO2021108002A1 (en) | 2019-11-30 | 2021-06-03 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
| KR102942542B1 (ko) | 2020-01-29 | 2026-03-23 | 인트린식 이노베이션 엘엘씨 | 물체 포즈 검출 및 측정 시스템들을 특성화하기 위한 시스템들 및 방법들 |
| WO2021154459A1 (en) | 2020-01-30 | 2021-08-05 | Boston Polarimetrics, Inc. | Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images |
| WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
| US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
| US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
| US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
| US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
| US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
| US12175741B2 (en) | 2021-06-22 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for a vision guided end effector |
| US12340538B2 (en) | 2021-06-25 | 2025-06-24 | Intrinsic Innovation Llc | Systems and methods for generating and using visual datasets for training computer vision models |
| US12172310B2 (en) | 2021-06-29 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for picking objects using 3-D geometry and segmentation |
| US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
| US12293535B2 (en) | 2021-08-03 | 2025-05-06 | Intrinsic Innovation Llc | Systems and methods for training pose estimators in computer vision |
| US12608879B2 (en) * | 2022-12-12 | 2026-04-21 | Adobe Inc. | Generation of a 360-degree object view by leveraging available images on an online platform |
Family Cites Families (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0766445B2 (ja) * | 1988-09-09 | 1995-07-19 | 工業技術院長 | 画像処理方法 |
| US5028996A (en) * | 1989-06-26 | 1991-07-02 | Matsushita Electric Industrial Co., Ltd. | Picture coding method |
| JP2941412B2 (ja) * | 1990-11-26 | 1999-08-25 | 株式会社東芝 | 3次元計測方法 |
| JPH07122908B2 (ja) * | 1991-03-12 | 1995-12-25 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 3次元のソリッド物体を表す表示可能情報を生成する装置と方法 |
| AU652051B2 (en) * | 1991-06-27 | 1994-08-11 | Eastman Kodak Company | Electronically interpolated integral photography system |
| GB9117443D0 (en) * | 1991-08-13 | 1992-05-27 | British Aerospace | Optical apparatus |
| DE4130237A1 (de) * | 1991-09-11 | 1993-03-18 | Zeiss Carl Fa | Verfahren und vorrichtung zur dreidimensionalen optischen vermessung von objektoberflaechen |
| WO1993023835A1 (en) * | 1992-05-08 | 1993-11-25 | Apple Computer, Inc. | Textured sphere and spherical environment map rendering using texture map double indirection |
| KR940017747A (ko) * | 1992-12-29 | 1994-07-27 | 에프. 제이. 스미트 | 영상 처리 디바이스 |
| US5475422A (en) * | 1993-06-21 | 1995-12-12 | Nippon Telegraph And Telephone Corporation | Method and apparatus for reconstructing three-dimensional objects |
| JP3311830B2 (ja) * | 1993-09-20 | 2002-08-05 | 株式会社東芝 | 3次元動画作成装置 |
| US5530774A (en) * | 1994-03-25 | 1996-06-25 | Eastman Kodak Company | Generation of depth image through interpolation and extrapolation of intermediate images derived from stereo image pair using disparity vector fields |
| US5525883A (en) * | 1994-07-08 | 1996-06-11 | Sara Avitzour | Mobile robot location determination employing error-correcting distributed landmarks |
-
1994
- 1994-09-09 JP JP6215523A patent/JPH0877356A/ja active Pending
-
1995
- 1995-03-08 US US08/400,756 patent/US5710875A/en not_active Expired - Lifetime
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1055179B1 (en) * | 1997-12-24 | 2007-02-21 | Intel Corporation | Method and apparatus for automated dynamics of three-dimensional graphics scenes for enhanced 3d visualization |
| EP1821258A3 (en) * | 1997-12-24 | 2008-11-26 | Heathway Holdings LLC | Method and apparatus for automated dynamics of three-dimensional graphics scenes for enhanced 3D visualization |
| WO2003103278A1 (ja) * | 2002-06-03 | 2003-12-11 | ソニー株式会社 | 画像処理装置および方法、プログラムおよびプログラム記録媒体、並びにデータ構造およびデータ記録媒体 |
| WO2006080739A1 (en) * | 2004-10-12 | 2006-08-03 | Electronics And Telecommunications Research Institute | Method and apparatus for encoding and decoding multi-view video using image stitching |
| US8204133B2 (en) | 2004-10-12 | 2012-06-19 | Electronics And Telecommunications Research Institute | Method and apparatus for encoding and decoding multi-view video using image stitching |
| US8855210B2 (en) | 2004-10-12 | 2014-10-07 | Electronics And Telecommunications Research Institute | Method and apparatus for encoding and decoding multi-view video using image stitching |
| JP2009516864A (ja) * | 2005-11-23 | 2009-04-23 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | マルチビューディスプレイ装置のためのビューの描画 |
| WO2018151038A1 (ja) * | 2017-02-17 | 2018-08-23 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
| JP2018133063A (ja) * | 2017-02-17 | 2018-08-23 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
| US11120613B2 (en) | 2017-02-17 | 2021-09-14 | Sony Interactive Entertainment Inc. | Image generating device and method of generating image |
| JP2020532022A (ja) * | 2017-09-01 | 2020-11-05 | 畳境数字科技(上海)有限公司Plex−Vr Digital Technology (Shanghai) Co., Ltd. | 全視角方向の球体ライトフィールドレンダリング方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| US5710875A (en) | 1998-01-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JPH0877356A (ja) | 三次元多眼画像の処理方法及び処理装置 | |
| EP0930585B1 (en) | Image processing apparatus | |
| CN113421328B (zh) | 一种三维人体虚拟化重建方法及装置 | |
| Saito et al. | Shape reconstruction in projective grid space from large number of images | |
| JP3148045B2 (ja) | 三次元物体cg作成装置 | |
| US10043315B2 (en) | Method and apparatus for representing a virtual object in a real environment | |
| CA2274977C (en) | Apparatus and method for 3-dimensional surface geometry reconstruction | |
| RU2215326C2 (ru) | Иерархическое основанное на изображениях представление неподвижного и анимированного трехмерного объекта, способ и устройство для использования этого представления для визуализации объекта | |
| US6124864A (en) | Adaptive modeling and segmentation of visual image streams | |
| US5577175A (en) | 3-dimensional animation generating apparatus and a method for generating a 3-dimensional animation | |
| US20030012410A1 (en) | Tracking and pose estimation for augmented reality using real features | |
| EP1567988A1 (en) | Augmented virtual environments | |
| JPH10320588A (ja) | 画像処理装置および画像処理方法 | |
| CN118076977A (zh) | 使用分层神经表示的可编辑自由视点视频 | |
| CN120339561A (zh) | 一种多视频与三维场景融合方法、系统、设备和介质 | |
| KR102358854B1 (ko) | 얼굴 이미지 색상 합성 장치 및 방법 | |
| JP5719277B2 (ja) | 物体座標系変換行列推定成否判定装置および物体座標系変換行列推定成否判定方法ならびにそのプログラム | |
| KR100560464B1 (ko) | 관찰자의 시점에 적응적인 다시점 영상 디스플레이 시스템을 구성하는 방법 | |
| CN119832132B (zh) | 一种三维虚拟人视频合成方法、系统、设备及存储介质 | |
| Remondino et al. | 3D reconstruction of human skeleton from single images or monocular video sequences | |
| KR102793259B1 (ko) | 공간 구조 추정을 위한 객체 감지 및 인페인팅 방법 그리고 공간 구조 추정 서버 | |
| Koch | Surface segmentation and modeling of 3D polygonal objects from stereoscopic image pairs | |
| JP2002094849A (ja) | 広視野画像撮像装置 | |
| Habib et al. | Integration of lidar and airborne imagery for realistic visualization of 3d urban environments | |
| Izquierdo et al. | Modeling arbitrary objects based on geometric surface conformity |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20031118 |