JP2000285260A - 多視点画像の符号化方法及び任意視点画像の生成方法 - Google Patents

多視点画像の符号化方法及び任意視点画像の生成方法

Info

Publication number
JP2000285260A
JP2000285260A JP9421399A JP9421399A JP2000285260A JP 2000285260 A JP2000285260 A JP 2000285260A JP 9421399 A JP9421399 A JP 9421399A JP 9421399 A JP9421399 A JP 9421399A JP 2000285260 A JP2000285260 A JP 2000285260A
Authority
JP
Japan
Prior art keywords
image
viewpoint
information
model
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9421399A
Other languages
English (en)
Inventor
Hideyuki Ueno
秀幸 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP9421399A priority Critical patent/JP2000285260A/ja
Publication of JP2000285260A publication Critical patent/JP2000285260A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】PCレベルの演算能力、メモリ量を持つプラッ
トフォームで自然な任意視点画像をリアルタイム再生す
る任意視点画像生成方法を提供する。 【解決手段】多視点画像を入力するステップ501、多
視点画像を符号化するステップ502〜511、被写体
面上の点より座標推定の容易性が高いと予想される特徴
点を求め、この特徴点に対してその座標とその点が有効
に見えている視点の範囲を表す情報よりなる特徴点リス
トを作成し、符号化するステップ512〜513を有す
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、多視点画像を用い
て任意の視点から見た画像をリアルタイムで作成し、仮
想空間内のウォークスルーなどを可能とするような画像
処理システムにおける多視点画像の符号化方法および任
意視点画像生成方法に関する。
【0002】
【従来の技術】近年、コンピュータ技術、グラフィクス
技術の進展により、バーチャルショッピングモールなど
に代表される仮想空間内のウォークスルーが身近な存在
になりつつある。現状の仮想空間は、構成要素がCG
(コンピュータグラフィクス)によって生成されるもの
が大半である。これに対し、最近ではリアリティに注目
した別のアプローチとして、実写画像から仮想3次元空
間を生成する試みがなされてきている。
【0003】CGの分野では、モデルを精密にし、演算
資源を投入することによりリアリティを追求する努力が
払われてきたが、これとは別に、近年、“image based
rendering ”と称して、実写を利用してリアリティを高
めようという動きがある。このような技術として既に実
用に供せられている例として、文献1(S.E.Che
n et al,SIGGRAPH‘95 p29−3
8)に開示されているQuickTime VRが挙げられる。
【0004】QuickTime VRは、一つの視点から撮った
パノラマ画像から視線方向の成分を切り出す技術であ
り、自分の周りの360°の視野をインタラクティブに
見渡すような画像表現ができる。但し、この方法では画
像入力の際の視点はある一点に固定されているので、任
意視点からの画像を再構成することはできない。すなわ
ち、視線方向は選択できるものの、視点は常に固定され
ているので、視点が変わったときに発生するオクルージ
ョン(隠れ)の状況の変化を再現することはできない。
【0005】このような物体との距離方向も含めた任意
視点の実現、オブジェクトとしての操作可能性、空間へ
の配置可能性といった更に進んだ機能を実現することが
できる画像表現方法としては、例えば文献2(「光線情
報による3次元実空間の効率的記述へ向けた光線空間射
影法」苗村他、信学技報IE95−119)に開示され
ている方法が知られている。この方法では、3次元空間
上を通る光線を表現する「光線空間」という概念を導入
し、多視点画像と光線空間とを相互に変換することによ
り、入力された多視点画像から任意視点画像を生成して
いる。以下、この原理につき具体的に説明する。
【0006】光線情報に基づく記述の考え方は、3次元
空間を伝播する光線の情報を3次元の直交座標空間上に
おける光線の通過位置(X,Y,Z)とその方向(θ,
φ)によって定義される5次元情報空間f(X,Y,
Z,θ,φ)に記述するというものである。ここで、θ
は直交座標空間上の任意の点(X,Y,Z)を通過する
光線の水平方向の傾き、つまりX−Z平面上の角度を示
し、φは(X,Y,Z)を通過する光線の垂直方向の傾
き、つまりX−Z平面上からY軸方向への角度を示す。
【0007】画像情報が直交座標空間上の任意の点
(X,Y,Z)に視点を置いたときにそこを通過する
(θ,φ)方向の光線の集合により形成されるものであ
ることを考慮すると、画像情報と前述の光線情報は相互
に変換可能であることが分かる。ここで、光線が減衰せ
ずに直進するという仮定が成立するような場合には、5
次元情報空間f(X,Y,Z,θ,φ)を4次元に縮退
させることができる。上述した文献2には、光線情報を
記録する面の取り方によって平面記録、円筒記録、球面
記録の3通りの記録方法があることが記されているが、
ここでは以後の説明を行うために必要な円筒記録につい
て簡単に説明する。
【0008】図20に、円筒記録のための座標系を示
す。まず、空間を4次元に縮退するために、(X,Y,
Z)から(P,Q,R)への座標変換が行われる。
(P,Q,R)座標のR軸は、図示のように光線の進行
方向(θ,φ)と一致するように規定される。これによ
りR軸に沿った信号の変化はなくなり、この軸は無視す
ることができるので、(X,Y,Z,θ,φ)は(P,
Q,R)、つまり(P,Q,θ,φ)の4次元に変換さ
れる。次に、円筒記録ではθが同一であるφ方向の全て
の光線は、θ方向に法線を持つ(P,Q)平面上の各点
に記録される。これより、 P=Xcosθ−Zsinθ (1) Q=−Xsinθ・tanφ+Y−Zcosθ・tanφ (2) の関係が得られる。
【0009】図20は、直交座標系O−XYZの原点
(0,0,0)を通る進行方向(θ,φ)の光線を記録
する例を示している。R軸からX−Y平面上に降ろした
垂線の足をMとした場合、O−Mを法線とする(P,
Q)平面が定義され、そこにφ方向の全ての光線が記録
されることになる。このようにして、同一θ方向の光線
はそのφ方向に関わらず全て同一の(P,Q)平面上の
対応する座標位置に記録される。
【0010】次に、この原理を使って多視点画像から光
線空間への記録を行い、記録された光線空間から任意視
点画像を生成する原理について説明する。上述の原理に
よって光線空間が4次元に縮退されたといっても、扱う
べき多視点画像の数や演算量は非常に多く、現実的では
ない。そこで、文献3(「光線情報に基づく3次元空間
操作」石川他、PCSJ96 P−3.13)において
はφ方向の視差を無視して、(p,θ)の2次元空間
(以下、p−θ平面という)への記録で代用している。
【0011】また、実際に扱える光線の数には限りがあ
るので、実用にはサンプリングが介在することになる。
すなわち、入力として扱われる視点の数は有限個にとど
められる。このとき、Y=一定の平面上でのある視点の
座標(X,Z)が決まると、その点を通る光線の軌跡は
式(1)のみで与えられる。Y=一定の平面上ではQ方
向の値は変化しないからである。
【0012】有限個の複数の視点を設定して画像を入力
すると、光線空間はある視点の座標(X,Z)を通る光
線の軌跡に沿った光線情報によって埋められてくる。光
線空間上で光線情報の得られていない部分は、得られて
いる光線情報により内挿等によって補間してやると、密
に光線情報で埋まった光線空間が得られる。再生の際は
任意視点(X,Z)を指定すると、その点を通る光線の
軌跡が式(1)から得られるので、その軌跡上の光線情
報を入力画像情報から取ってくることにより、任意の視
点画像の画面のY=一定における一つの走査線、つまり
ある特定のYの値に対応する一本の表示ライン上の画像
が得られる。こうして得られる走査線をY方向に積み重
ねることによって、任意の視点から見た1画面分の画像
を得ることができる。
【0013】上述したように、光線空間を用いた原理に
基づく任意視点画像の生成においては従来、扱うべき情
報ができる限り少なくて済むように簡略化を施してはい
るが、現状では、このような簡略化を施しても情報量、
処理量は依然として非常に多く、再生のリアルタイム
化、情報量の削減などが課題として挙げられている。
【0014】次に、情報量削減の観点から見た従来の技
術につき説明する。通常、情報量を削減しようとする場
合、符号化が行われる。多視点画像を符号化する場合、
種々の方法が考えられる。第1は、多視点画像を構成す
る各視点画像をそれぞれ静止画とみなして、JPEGな
どの方法により符号化する方法である。この方法は、各
視点画像同士の相関を使っておらず無駄がある。第2
は、多視点画像を動画像とみなしてMPEGなどの方法
により符号化する方法であり、動き補償予測によって隣
り合う視点画像同士の相関がある程度取り除かれる。特
に、多視点画像の1つのケースとしてのステレオ画像の
符号化では、同様の原理は視差補償予測と呼ばれてお
り、これは例えば文献4(特開平2−100592号公
報)などに開示されている。
【0015】また、MPEG2標準においても類似の原
理はマルチビュープロファイルの範疇にてサポートされ
ている。この方法は画像に対して一種のモデル化を行っ
ていることになるが、モデル化がブロック毎にしか行わ
れておらず、画素単位で見たときにはモデルからのずれ
が大きくなりがちである。また、モデルのパラメータと
しても各ブロックに動きベクトルの形でパラメータを与
えることになり、全体としてモデルパラメータの情報量
もかなり大きくなる。
【0016】光線空間の概念を取り入れた多視点画像の
符号化に関する技術としては、文献5(「複合現実感表
示のための光線空間データの圧縮」片山他、IMPS9
6I−6.1)に開示されている技術がある。この方法
では、同一被写体から得た120枚の多視点画像のうち
の何枚かを参照画像として設定してそのまま送り、他の
画像については参照画像中のどの画素値に近いか、とい
う画素を指定する情報として送ることによって、情報を
圧縮している。従って、上述の動き補償の流用と比較し
て、モデル化が画素単位で行われてる点でモデルからの
ずれは少なくなるが、モデルのパラメータ情報は逆に多
くなる。
【0017】また、文献6(特開平8−115439号
公報)では多視点画像の圧縮に関連する別の技術とし
て、(少ない)多視点画像の対応点の軌跡を規定するパ
ラメータを利用することにより、受信側で任意視点画像
のための内挿を行う技術が開示されている。この際、こ
のパラメータのみによって光線空間を表現すれば、非常
に少ない情報量による表現が可能となる。
【0018】文献5,6はいずれもモデルのみによって
多視点画像を表現しようとするものであるが、実際には
特に後者の場合、多視点画像からのモデルの推定はかな
り難しく、誤差を伴うものとなる。この結果、モデルの
推定に誤差が生じた部分については、再生される画像が
不自然になってしまう。
【0019】これに対し、文献7(「3次元構造推定に
基づく多眼3次元画像の圧縮と補間」藤井、原島 3次
元画像コンファレンス’94 1−4)には、3次元構
造モデルから多眼画像の予測信号を生成し、予測誤差を
送る方法が開示されている。この文献7でのモデルは、
平面や平面パッチなどの近似であって、これによる予測
の精度はあまりよいとは言えない。しかし単純にモデル
の精度を良くすると、精度を良くするほどモデル自体の
情報量が大きくなってしまい、全体の情報量を減らすこ
とはできない。
【0020】次に、任意視点からの画像生成の観点から
従来技術につき説明する。上述した文献6(特開平8−
115439号公報)では、被写体の各点に与えられた
パラメータから任意視点画像をオクルージョンを考慮し
ながら作成する。この方法では全ての画素について前記
の演算を行うための演算量が非常に大きくなり、実時間
での再生は困難である。そこで、文献8(特開平9−2
45195号公報)では、あらかじめ光線空間において
内挿を行ったものを再生時にメモリに保持しておき、再
生演算を高速化するとしている。しかし、この場合は内
挿された光線空間は多視点画像情報全体よりも更に大き
な情報量となり、再生に必要なメモリ量は膨大になる。
【0021】同じ光線空間を用いた原理に基づく方法で
あっても、前記内挿の方法にも種々の技術がある。最も
原始的な方法は、図21に示すように得られている視点
画像の間をそのまま近い視点画像のデータで繰り返し埋
める方法である。すなわち、この方法では例えば図21
で境界2104と境界2105とで囲まれた領域は、視
点画像2101の画素をそれぞれθ方向に埋めていくよ
うにして内挿する。この方法は処理は簡単であるが、内
挿された光線空間は参照される視点画像の切り変わり目
で不連続となる。
【0022】例えば、新たな視点として視点画像210
3に相当する視点が与えられたとする。このとき、視点
画像2103上の画素としては、2107及び2108
はデータとして持っている視点画像2101,2102
と重なっているため、正しい光線として再生される。し
かし、それ以外の点では内挿された光線空間から画素値
が作られることとなり、特に視点画像の参照の切り替え
点である2111においては2109及び2110の値
より作られるが、一般に2109と2110には被写体
の同一点が映されていないからである。
【0023】逆に、ある意味で最も理想的な方法は、文
献6(特開平8−115439号公報)の方法のよう
に、被写体の各点に対して形状と等価なパラメータを求
め、各点からの投影を行い、オクルージョンを考慮して
有効な光線を求めることにより内挿を行う方法である。
しかし、実際には被写体の全ての点に対して正確な形状
パラメータを求めることは非常に困難であり、理想的な
内挿はなかなか実現できない。また、先にも述べたよう
に点毎の内挿演算を再生時に行おうとすると演算量の問
題が生じ、事前に内挿を行っておこうとするとメモリ量
の問題が出てくる。そこで、文献9(S.J.Gort
ler et al,“The Lumigrap
h“,SIGGRAPH’96 pp.43−54)で
は、再生時の各視点画像の参照は点単位ではなくブロッ
クによって構成される面単位とし、ブロックに対して代
表的な形状と等価なパラメータを与え、このパラメータ
に相当する分だけ参照位置をシフトして再生画像を作る
ものとしている。但し、この方法でも形状はブロックに
含まれる各点に対しては代表的なパラメータとして与え
られるため、そのままでは再生画像にはやはり不連続が
確認され、これに対処するために複数領域から参照を行
ったものを重み付け加算して不自然さを和らげるものと
している。
【0024】
【発明が解決しようとする課題】上述したように多視点
画像からの任意視点画像の再生においては、演算量およ
び使用メモリ量が少なく、かつ高画質を維持することが
重要であるが、従来の技術ではこれらの要求を同時に満
足することができないという問題点があった。
【0025】本発明は、メモリに保持する情報量と任意
視点画像の再生に必要な演算量とのバランスをとり、か
つ自然性の高い任意視点画像の生成を行うことのできる
システムを提供することを目的とし、より具体的にはP
Cレベルの演算能力、メモリ量を持つプラットフォーム
で実写と変わりない任意視点画像をリアルタイム再生す
ることを目的とする。
【0026】
【課題を解決するための手段】上記の課題を解決するた
め、本発明は被写体との位置関係が既知の複数の視点か
らそれぞれ異なる視線方向で得られた該被写体について
の複数の視点画像からなる多視点画像を符号化する多視
点画像符号化方法において、前記多視点画像を入力する
入力ステップと、前記多視点画像を符号化する符号化ス
テップと、前記被写体面上の点より座標推定の容易性が
高いと予想される特徴点を求める特徴点抽出ステップ
と、前記特徴点に対してその座標とその点が有効に見え
ている視点の範囲を表す情報よりなる特徴点リストを作
成するリスト作成ステップとを有することを特徴とす
る。
【0027】また、前記符号化ステップは、前記被写体
面上の各点の座標値と輝度値とから構成されるモデル情
報を求めるモデル化ステップと、前記モデル情報を符号
化してモデルデータを得るモデル情報符号化ステップ
と、前記モデルモータを復号化してモデル情報を得るモ
デルデータ復号化ステップと、前記モデルデータ復号化
ステップにより復号化されたモデル情報から前記多視点
画像に含まれる各視点画像の予測信号を作成する予測信
号作成ステップと、前記多視点画像と前記予測信号との
予測誤差情報を符号化して予測誤差データを得る予測誤
差符号化ステップとを有することを特徴とする。
【0028】さらに、前記特徴点リストを符号化して特
徴点リストデータを得る特徴点リスト符号化ステップ
と、前記モデルデータ、予測誤差データ及び符号化され
た特徴点リストデータを多重化する多重化ステップとを
さらに有することを特徴とする。
【0029】本発明に係る多視点画像の任意画像生成方
法は、被写体との位置関係が既知の複数の視点より多視
点画像を入力して符号化した情報及び、前記被写体面上
の点より座標推定の容易性が高いと予想される特徴点に
対してその座標とその点が有効に見えている視点の範囲
を表す情報よりなる特徴点リストを用いて任意視点画像
を生成する方法であって、前記多視点画像を復号するス
テップと、再生すべき視点位置及び視線方向を決定する
ステップと、前記決定された視点位置から見た画像を生
成するために使用する特徴点を前記特徴点の特徴点リス
トより選択するステップと前記決定された視点位置から
見た画像を生成するための多視点画像の被参照部分の位
置を前記視点情報と前記選択された特徴点より確定する
ステップと、前記復号された多視点画像より前記決定さ
れた視点位置から見た画像を生成するステップとを有す
ることを特徴とする。
【0030】さらに、本発明に係る多視点画像の任意画
像生成方法は、被写体との位置関係が既知の複数の視点
より多視点画像を入力し、被写体面上の点の座標と輝度
の情報よりなるモデル情報を求めて、モデル情報より前
記多視点画像に含まれる各視点画像の予測信号を作成
し、前記モデル情報及び、前記多視点画像と前記予測信
号との予測誤差として符号化するとともに、前記被写体
面上の点より座標推定の容易性が高いと予想される特徴
点を求め、前記特徴点に対してその座標とその点が有効
に見えている視点の範囲を表す情報よりなる特徴点リス
トを作成し、前記モデルデータ、予測誤差データ及びリ
スト情報として多重する方法によって符号化多重された
情報を復号し任意視点画像を生成する方法であって、前
記符号化多重された情報から前記モデルデータ、前記予
測誤差データ及び前記特徴点のリストデータを分離し、
前記予測誤差データ及び前記特徴点のリスト情報をRA
Mに保持するステップと、前記モデルデータを復号しモ
デル情報としてRAMに保持するステップと、再生すべ
き視点位置及び視線方法を決定するステップと、前記決
定された視点位置から見た画像を生成するために使用す
る特徴点を前記特徴点のリスト情報より選択するステッ
プと、前記決定された視点位置から見た画像を生成する
ための視点画像の被参照部分の位置を前記視点情報と前
記選択された特徴点より確定するステップと、前記計算
された視点画像の被参照部分の位置に前記RAMより読
み出した前記モデル情報より予測信号を生成するステッ
プと、前記計算された視点画像の被参照部分の位置に対
応する前記予測誤差データの必要部分を前記RAMより
読み出し復号して予測誤差を得るステップと、前記予測
信号と前記予測誤差とを加算し再生画像を得るステップ
と、前記再生画像より前記決定された視点位置から見た
画像を生成するステップとを有することを特徴とする。
【0031】このような本発明によれば、多視点画像を
用いて任意視点画像を再生するシステムにおいて、再生
される任意視点画像は不連続な部分のない実写画像に近
いものとすることができる。
【0032】また、再生演算はデータとして持つ視点画
像から面単位でマッピングするようにし、参照される領
域のみを逐次復号するようにしているため、使用するメ
モリ量、生成に要する演算量をリーズナブルな範囲に収
めることができる。
【0033】
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。なお、以下の例では前述した文献
[1]に示された円筒記録モデルに従う例を基に説明す
るが、他のモデルを使用した場合においても本発明は適
用することが可能である。
【0034】[多視点画像符号化について]図1は、本
発明の多視点画像符号化方法が適用される装置の典型的
な構成を示すブロック図である。この装置はCPU10
1、画像入力装置102、大容量の記憶装置(典型的な
例としては、ハードディスク装置)103およびRAM
(ランダムアクセスメモリ)104からなり、これらを
バス100により接続して構成される。
【0035】図2は、図1における画像入力装置102
として用いられる多視点画像装置の構成例を示す図であ
る。この例では、被写体201は回転台202に載せら
れ、カメラ203により撮影される。カメラ203の光
軸206は回転台202の回転軸205と交差してお
り、回転軸205と光軸206とは互いに直交している
ものとする。回転軸205と光軸206の位置関係は既
知であり、その間の距離はRであるとする。回転台20
2は、制御装置204により一定の角度(例えば3°)
ずつステップ的に回転するように制御され、その都度カ
メラ203により画像が入力される。この例では、カメ
ラ203の一回転で視点の異なる120枚の画像が入力
されることになる。制御装置204は、図1のCPU1
01が兼ねてもよい。次に、この場合の光線空間につい
て説明する。
【0036】前述した文献2に示されているように、円
筒記録の場合、点(X,Y,Z)を通る光線は、光線空
間上の次式により表現される座標に記録される。 P=Xcosθ−Zsinθ (3) Q=−Xsinθ・tanφ+Y−Zcosθ・tanφ (4) ここで今、従来技術の項でも説明したように、扱う情報
量、演算量が大きくなりすぎないようにQ方向の光線の
変化は考えないものとする。また、光線空間は回転軸2
05に直交する平面207で定義し、これをY方向に積
み上げて近似するものとする。この場合、φ方向の変化
によるオクルージョンなどは再現されない。
【0037】図3は、平面207上での被写体201の
断面301とカメラ203の位置関係を表している。こ
こで表記上、回転台202の回転軸205を中心とする
極座標表現(r,ψ)を図3に示すように導入すると、 X=rsinψ (5) Z=rcosψ (6) であるから、式(3)より P=rcosθ・sinψ−rsinθ・cosψ =rsin(ψ−θ) (7) となる。従って、図4に示すように光線空間であるp−
θ平面上での120枚の視点画像からなる多視点画像の
光線空間上における軌跡411は、 P=Rsin(n*3°−θ),n=0,…,119 (8) で表される。
【0038】ここで、軌跡411の中の曲線401,4
02,403,404,…は、それぞれ3°ずつ異なる
角度から撮影した視点画像を示している。すなわち、曲
線401,402,403,404,…は、それぞれ互
いに3°ずつ異なる角度から撮影した複数の視点画像に
おける特定のY方向位置に対応する一走査線分の画像を
表している。
【0039】同様の性質は、被写体面上の点においても
当てはまり、被写体面を表す関数r(ψ)を導入する
と、被写体面上の任意の点(r(ψ),ψ)から出る光
線の軌跡412は、 P=r(ψ)sin(ψ−θ) (9) で表される。
【0040】従って、被写体面上の任意の点(r
(ψ),ψ)から出る光線の軌跡412の光線情報は、
軌跡411の中の曲線401,402,403,40
4,…と軌跡412との交点405,406,407,
408,…で与えられることになる。このことは、被写
体面上の点のみならず、(X,Y,Z)座標上の任意の
点についても言える。
【0041】そこで、多視点画像から任意視点画像を再
生する場合には、その視点の位置情報によってその視点
を通る光線の軌跡が図4の光線空間上に決定され、その
軌跡と軌跡411の中の各曲線401,402,40
3,404,…との交点における光線情報を採ってくる
ことにより、任意視点画像の画面の一つの走査線が再生
される。従って、この例においては平面207に平行な
各平面で同様の操作を行い、得られた各走査線をY方向
に積み上げることによって、任意視点画像の画面全体、
つまり全てのYについての走査線を再生できる。
【0042】被写体面上の一点r(ψ)から出る光線の
光線空間上の軌跡が前述の式(9)で表せるということ
は、被写体面が光線の方向によって光線情報の値があま
り変わらない完全拡散面に近い性質の面である場合に
は、被写体面上の一点r(ψ)に対応する多視点画像
は、その点の座標値rと代表輝度値でモデル化でき、ま
た被写体面が完全拡散面から遠い性質の場合には、座標
値rとθの関数である輝度L(θ)でモデル化できるこ
とを示している。ここでいう輝度とは、TVカメラでい
うと輝度信号Yおよび色差信号Cr,Cb、または3原
色信号R,G,Bなどに対応するものを称している点に
注意されたい。文献2では、この輝度は光線情報と称せ
られている。
【0043】次に、図5に示すフローチャートを参照し
て本発明に係る多視点画像符号化の処理手順を説明す
る。
【0044】まず、図1の画像入力装置102により多
視点画像が入力され(ステップ501)、記憶装置10
3に蓄えられる。次に、モデル推定が行われ、モデル情
報が生成される(ステップ502)。このステップ50
2を含め、以下のステップでの処理は全て多視点画像を
記憶装置103から参照しつつ必要なデータをRAM1
04に蓄え、CPU101によりデータを参照すること
によって行われる。
【0045】本実施形態では、モデル情報は被写体面上
の各点の座標情報と輝度情報よりなる。座標情報は元々
は3次元の座標情報(x,y,z)であるが、y一定の
断面で考え、極座標を導入することにより(r,ψ)と
なる。さらに、ψは後述するようにモデルを考慮する視
点画像と、そこでの座標からz値が正か負かの2通りに
限られるので、1ビットのパリティによって表すことが
できる。また、座標情報は推定の確度により全点に対し
て与えるのではなく、高い確度で求まる代表的な点のみ
について求め、他の点の座標は代表点の座標より推測す
るようにしてもよい。モデル推定ステップ502につい
ては、後に詳しく説明する。
【0046】モデル推定ステップ502でモデル情報が
求まったら、次にモデル情報の符号化が行われる(ステ
ップ503)。符号化の典型例としては、モデル情報の
うちの輝度値に対してはテキスチャ画像としてJPEG
やMPEGのIピクチャの符号化に代表されるような、
ブロック化した後、DCT+量子化+可変長符号化を行
う方法が適当である。座標情報については先に述べたよ
うにz値が計算され、rとパリティの組として符号化さ
れる。また、座標情報についてもブロック上に密に得ら
れる場合には輝度情報と同様の方法で、代表点について
のみ得られるような場合には予測符号化等の方法で符号
化することが考えられる。このようにして最終的に可変
長符号化されたモデル情報は、記憶装置402に一旦蓄
えられる。。
【0047】次に、モデルデータの復号化が行われる
(ステップ504)。この復号化はモデルデータをステ
ップ503の処理と逆の手順で元のモデル情報に戻す操
作であり、例えば逆量子化+逆DCTにより行われる。
このモデルデータの復号化によって得られたモデル情報
は、後のステップで使用するためにRAM104に蓄え
られる。
【0048】こうしてモデル情報の符号化が終了する
と、次に多視点画像を構成する各視点画像の予測符号化
のループに入る。例として、多視点画像の画像の枚数を
nmax(例えば120枚)として説明する。
【0049】まず、フレーム番号nを0にセットし(ス
テップ505)、フレーム番号nを1ずつインクリメン
トしながら(ステップ510)、記憶装置103より多
視点画像を1フレームずつ読み出す(ステップ50
6)。なお、多視点画像を構成する個々の視点画像がそ
れぞれここでいうフレームで構成されているとする。
【0050】次に、各フレームに対してRAM104に
蓄えられたモデル情報から予測信号を生成する(ステッ
プ507)。この予測信号生成ステップ507について
は、後に詳しく説明する。
【0051】次に、このようにして生成された予測信号
と入力フレームnとの差分がとられて予測誤差が生成さ
れ(ステップ508)、この予測誤差が符号化される
(ステップ509)。この予測誤差の符号化の典型例
も、DCT+量子化+可変長符号化である。こうして予
測誤差を符号化して得られた予測誤差データは、記憶装
置103に蓄えられる。
【0052】上述したステップ506〜510の処理を
多視点画像の全てのフレームについて、つまりステップ
511でn=nmax と判定されるまで繰り返し行う。
【0053】ここで、予測誤差符号化ステップ509に
おける量子化においては、量子化されたDCT係数情報
が全て0であった場合に、そのブロックを無効と判定
し、そのブロックについては情報を全く送らないものと
する。本実施形態における予測では、物理現象に直接対
応したモデルを使用しているので、モデル化が良好に行
われる画像については、予測誤差がほとんど発生しない
ことが期待できる。従って、情報量を大幅に減らすため
に、このように有効判定を行って無効なブロックを送ら
なくすることは非常に重要である。
【0054】次に、特徴点リストの作成を行う(ステッ
プ512)。作成された特徴点リストは符号化され(ス
テップ513)、特徴点リストデータが生成される。特
徴点リストの作成ステップ512については、後に詳し
く説明する。
【0055】最後に、記憶装置103に蓄えられたモデ
ルデータと各視点画像の予測誤差データおよび特徴点リ
ストデータを多重化して、多重化ストリームを生成する
(ステップ512)。この場合の多重化フォーマットに
ついても、後に詳しく説明する。
【0056】なお、上述した多視点画像符号化の手順の
中で、モデル符号化ステップ503以降のステップと特
徴点リスト作成ステップ512とは順序が逆であっても
よいし、並列に行うことにしてもよい。また、モデル推
定ステップ502と特徴点リスト作成ステップ512は
処理的には共通するので、一つのステップの中で同時に
行うことにしてもよい。
【0057】(モデル推定について)次に、図6、図
7、図8および図9を用いて図5のモデル推定ステップ
502の処理について詳しく説明する。図6は、モデル
推定ステップ502の詳細な処理手順を示すフローチャ
ートである。まず、ステップ600で各視点からの画像
に対してテキスチャとして特徴のある被写体上の点を抽
出する。この方法としては、例えば点を含む所定の大き
さ(あまり大きくない方が望ましいと思われる。例えば
5*5画素など)のブロックについて水平方向のエッジ
検出を行い、しきい値以上の大きさのエッジが得られた
ブロックを特徴点として抽出する。
【0058】ステップ601では、得られた複数の特徴
点に対して処理する順序付けを行う。処理はp−θ平面
でp=0に近いところにある特徴点から処理するものと
する。
【0059】次に、ステップ602から特徴点の数の処
理ループに入る。各点に対応するrの値の推定はステッ
プ606で上述したブロックでの動きベクトル(MV)
検出を行うことにより行われるが、その際のMVの探索
範囲がステップ605で制限される。図7を用いて、こ
の探索範囲の制限を行う原理を説明する。
【0060】今、注目している点に対応する光線のp−
θ平面上での軌跡を701とすると、図7においてブロ
ック702についてMV検出を行おうとするとき、軌跡
701上でθ=ψ±90°に対応する点は、図8に示す
ようにその点が見えていればrの値が直接見えている視
点である。従って、rの値はこの位置での包絡線のうち
小さい方よりも必ず小さい値となるので、この値を一画
面間隔に換算したMVをMV探索すべき範囲の最大値と
する。このように多視点画像から得られる性質を利用し
て、必要のない計算を避けることができる。
【0061】次に、ステップ606で隣り合った画像同
士でのMV探索を行う。これは図9に示すように、まず
特徴点kから隣の画像に対して探索を行って得られたブ
ロックから更に隣の画像に対して探索を行うというよう
に連続して行う。この場合、全て探索の範囲はステップ
605で得られた値が上限である。
【0062】また、MV探索で予測誤差を比較する際に
誤差の差があまり無い場合には、特徴点として選ばれた
点が優先的に選ばれるように判定基準を設定する。この
ステップ606で特徴点kと対応付けられた他の特徴点
k+αについては、スキップフラグを仮に立て、後述の
ステップでこの点k+αについてrの値が確定した時点
でスキップフラグを確定する。
【0063】ステップ604の判定条件では、ステップ
フラグの立っている特徴点は既にrが確定した点に対応
するものとして、以降の処理をスキップする。次に、ス
テップ607において所定の枚数以上の画像間で共通の
rの値でつじつまが合うようなMVが求められたかを判
断する。ここでYESであれば、その点に対してエッジ
に対応する画素に対してrの値がフィットするかをステ
ップ608で確認し、rの細かい精度に対して微調節を
行った後に、ステップ609でその点に対してrの値を
確定し、対応するψの値と組にして記憶する。
【0064】以上の操作を特徴点の数だけ行うと、特徴
的なテキスチャを持つ点についてrの値が決まるので、
ステップ611でrが決まった点の間の面上の点のrを
求める。この面上の点はテキスチャが無いので、rが決
まった点の間を直線近似したrの値を初期近似として再
構成しながら、各視点の画像と比較してrの値を調整し
て確定する。
【0065】最後に、ステップ612で得られたモデル
の推定値から全体の光線空間を再構成し比較して微調整
を行い、モデルの推定を終了する。
【0066】本実施形態においては、モデルの推定があ
る程度間違っていてもこれを用いて予測を行った後に誤
差を送るので、復号再生側で再構成される光線空間は実
際と大きく違ったものになることはない。
【0067】また、モデルの推定としてより確実に形状
情報を得られる別の方法としては、被写体の形状を入力
された多視点画像から推定するのではなく3Dディジタ
イザやレンジファインダといった3D計測機器で直接形
状情報を取得する方法を用いてもよい。この場合、入力
のフェーズでの手間はかかるが予測が非常によくなるこ
とが期待できる。
【0068】(予測信号の生成原理について)次に、図
10および図11を用いて図5のステップ507での予
測信号の生成原理を説明する。図10は、図4で説明し
たp−θ平面の図であり、前述したように多視点画像を
Y=一定の断面で切った一つの走査線に対応している。
フレーム1001は現在符号化しようとしているフレー
ム(ある特定角度から被写体を撮影することによって得
られた視点画像)、フレーム1002はモデルを含むフ
レーム(代表輝度値として使用された部分を含む特定角
度の視点画像)、ブロック1006はモデルとして符号
化され、復号化されたブロックを示している。
【0069】予測信号の作成は、入力される符号化対象
フレームに対して、ブロック1006のようにモデルと
して符号化された全てのブロック上の点から、その符号
化対象フレームに対して投影を行うことにより行われ
る。ブロック1006上の点1007は、復号化された
輝度値および座標値rの値を有している。この点100
7も被写体上の点より投影されてできているものである
から、点1007の輝度値は既に説明した原理より、点
1007の輝度の源となっている被写体上の点の極座標
表現を(r,ψ)とすれば、rsin(ψ−θ)とフレ
ーム1002の交点として表現される。これらのうち座
標値rは情報として復号化されており、θの値はフレー
ム1002の位置により一意に決まるため、ψの値を求
めればよい。
【0070】点1007を通るrsin(ψ−θ)の曲
線は、例えば図5の例では1003,1004の2通り
存在するが、図11に示すようにp−θ平面に見える点
として投影されるのは、z=rcos(ψ−θ)の値が
大きい方のψ1であることにより、一意に求められる。
従って、点1007を通る光線の軌跡は1003と確定
する。このことから、点1007より投影されるフレー
ム1001上の点は曲線1003,1001の交点10
08となる。点1008に投影される光線の軌跡は他に
も存在し得る(この例では1005)。一点に複数の光
線が投影された場合、図11に示されるzの値が最も大
きい光線が最終的に投影されたことになる(図の例では
1003)。モデルとして符号化された1007のよう
な全ての点からフレーム201への投影を行うと、フレ
ーム1001は予測信号で密に埋まる。モデルはこれを
満たすように選択され、符号化されている。このように
して、符号化対象の各フレーム毎に被写体面上の各点の
モデル情報によってそのフレームの画像が予測される。
【0071】また、別の方法としてモデル化の負荷を小
さくし、不完全なモデルを許容する方法も考えられる。
この場合は、モデルの全点を投影し終わっても予測信号
が形成されない点があり得ることになる。その場合、予
測信号は0であるとしてよいし(方法1)、あるいは生
成された近隣の予測信号から内挿してもよい(方法
2)。
【0072】逆に、本実施形態ではモデルの符号化の最
小単位はブロックになっているので、被写体面上のある
点に対応する視点画像上の点は被写体面上のその一つの
点に対して、複数回符号化される可能性があり得る。こ
の場合、一点に重複して投影されたときは、モデルから
の投影における規則として例えば非投影面に角度的に一
番近い視点画像上でモデルとして符号化された点からの
投影を有効にするなどとして、符号化側と復号側で投影
による予測信号生成にミスマッチが起こらないようにす
ることが必要である。
【0073】(特徴点リストの作成について)次、図5
の特徴点リスト作成ステップ512の処理について説明
する。図12は、ステップ512の処理を詳細に示した
フローチャートである。
【0074】まず、ステップ1201で視点画像のライ
ン番号lnを0にセットして、ライン番号を固定の値l
sおきずつカウントしながら(ステップ1215)、ラ
イン位置毎の処理をする。lsは1としてもよいが、リ
ストの情報が多くなり、リスト作成の処理量も大きくな
るので、8または16などの値を用いてサンプルするも
のとしてもよい。
【0075】次に、処理しているラインにおいて図6で
説明したモデル推定で抽出された特徴点の中から適切な
個数の特徴点を選び(ステップ1202)、そのライン
の特徴点数spnmaxを特徴点リストにセットする
(ステップ1203)。特徴点数spnmaxは図6の
kmaxと同じでもよいが、多すぎると再生処理が重く
なるので、特徴点として有効なものから順に必要最小限
の個数に絞る方が良い。
【0076】次に、ステップ1204で特徴点番号sp
nを0にセットして、特徴点番号を1ずつカウントしな
がら(ステップ1213)、以下のように特徴点の処理
を行う。まず、その特徴点についてモデル推定で得たr
とψの値を特徴点リストにセットする(ステップ120
5)。続いて視点番号vpを0にセットし(ステップ1
206)、視点番号を1ずつカウントしながら(ステッ
プ1211)、その特徴点が各視点において見えている
かどうかをチェックする処理をする。
【0077】この一連の処理の中では、まずステップ1
207でr,ψより、この特徴点がこの視点画像に投影
されるべき画素位置を計算する。次に、この特徴点が1
つ前の視点画像に投影された画素位置の画素との差分を
とり、これをしきい値と比較する(ステップ120
8)。差分がしきい値以下の場合は特徴点が有効に見え
ていると判断し、有効/無効テーブルに1をセットする
(ステップ1209)。差分がしきい値よりも大きい場
合は、この視点ではこの特徴点は隠されて見えないと判
断し、有効/無効テーブルに0をセットする(ステップ
1210)。以上の処理を全ての視点(ステップ121
2)、全ての特徴点(ステップ1214)、全てのライ
ン(ステップ1216)について行って、処理を終了す
る。
【0078】以上の処理によって作成される特徴点リス
トの実体について整理すると、図13に示すようなもの
になる。図13は、リストのうちライン番号がx番目の
ln=ln(x)の部分を取り出して示したものであ
る。ここに含まれる情報はライン番号1300、特徴点
数1301、spn(x)個の特徴点に対するrとψの
リスト1302、spn(x)個の特徴点及びvpma
x個の視点(今まで実施形態で説明してきた例では、v
pmax=120)に対する有効/無効テーブル130
3(これは0/1の要素を持つspn(x)vpm
axの配列となる)であり、実際の特徴点リストはこれ
がlsおきに調べたライン数分だけ集まったものにな
る。
【0079】図5の特徴点リスト符号化ステップ513
では、この値を符号化する。符号化の例としては、rと
ψのリスト1302に対しては隣り合った特徴点との予
測符号化+可変長符号化、有効/無効テーブル1303
に対してはランレングス符号化が考えられる。いずれも
可変長となるので、符号の区切りが分かるように、使用
している可変長符号の組み合わせでは発生しないユニー
クな符号パターン(ユニークワード)で符号の終了を知
らせる必要がある。
【0080】(多重化フォーマットについて)図5に示
した多重化ステップ514では、一旦記憶装置102に
蓄えられたモデル符号化データと各視点画像の予測誤差
符号化データ、特徴点リストデータを多重化する。
【0081】図14(a)〜(g)に、図1中の多重化
回路116における多重化フォーマットの例を示す。こ
の多重化フォーマットは、TV会議用のITU−T勧告
H.261の多重化フォーマットの記述方法に準じて記
述されている。本実施形態では、多重化フォーマットは
可能な限り、MPEG等の既存の符号化に似せたフォー
マットとなるようにした。まず、フォーマットは階層的
な構造とした。各レイヤの情報にはスタートコード、エ
ンドコードなどレイヤ固有の情報を含むヘッダおよびト
レイラが存在する。最上位レイヤは、1セットの多視点
画像で表現される図14(a)のオブジェクトレイヤで
ある。このオブジェクトレイヤは、大きくは図14
(h)のリストレイヤ、図14(b)のモデルレイヤ、
図14(c)の誤差レイヤの3つから構成される。
【0082】モデルレイヤのヘッダは輝度情報を量子化
するステップサイズ(QUANT)、rを量子化するス
テップサイズ(QUANT_r)を含み、誤差レイヤの
ヘッダは誤差情報を量子化するステップサイズ(QUA
NT)を含む。再生側では、モデルレイヤはどのような
視点からの画像を再生する場合でも必ず全てが復号の初
期のステージでアクセスされるのに対して、誤差レイヤ
は視点によってアクセスされる部分が変わるので、モデ
ルレイヤは図14(a)に示すようにオブジェクトレイ
ヤの情報のうち前の方に固めて配置され、その後に誤差
レイヤの情報が続くようにするのが良い。
【0083】図14(b)(c)に示したモデルレイヤ
と誤差レイヤの内容は、共通の構造を持つ。まず、モデ
ルレイヤと誤差レイヤの直ぐ下のレイヤとして図14
(d)に示すフレームレイヤが来る。フレームレイヤの
へッダはフレーム番号(PN)、そのフレームが撮影さ
れた条件である、被写体の中心軸とカメラとの距離Rお
よびカメラの光軸と交わる被写体面の角度座標ψの情報
を含む。R、ψの情報は、図2で説明したように固定距
離、固定回転角での撮影である場合に限定すれば、オブ
ジェクトレイヤのヘッダに入っていてもよいが、より一
般的にはフレーム毎に異なっても問題なく、本実施形態
ではフレームレイヤに存在するものとする。また、この
情報は論理的にはモデルまたは誤差のいずれか一方に入
っていれば再生可能であるが、アクセスを簡単にする都
合上、ここでは両方に入っているものとする。
【0084】フレームレイヤの下は図14(f)に示す
MB(マクロブロック)レイヤであるが、MPEGのよ
うにフレームレイヤとMBレイヤの間に図14(e)に
示すスライスレイヤが入ってもよい。スライスレイヤ
は、SSC(Slice Start Code)、S
N(Slice Number)およびそのスライスに
属する複数のマクロブロックレイヤから構成されてい
る。スライスレイヤが入るとスライス毎へのアクセスが
しやすくなり、復号処理が楽になると共にオブジェクト
を軸に直交する面で切った一部のみの再生がしやすくな
る。
【0085】また、上述したリスト作成のライン間隔を
スライスに含まれるライン数に合わせれば、リストの処
理はスライスに1回となり整合性が良い。
【0086】マクロブロックレイヤの下は図14(g)
に示すブロックレイヤであり、この中はDCT係数(T
coeff)とEOB(End of Block)よ
りなる。モデルのマクロブロックは、図15に示すよう
にY(輝度)、r、CrおよびCb(色差)のブロック
よりなる。また、誤差のマクロブロックは図15からr
のブロックを取り除いたY(輝度)、CrおよびCb
(色差)のブロックよりなる。
【0087】スライス、マクロブロック共にへッダには
フレーム内でのアドレス情報を含み(SNおよびMB
A)、情報の無いスライス、マクロブロックは送られな
い(スキップ)。マクロブロックレイヤのパリティ(P
ARITY)は、図10および図15の説明で前述した
ψを指示するためのパリティ(z:+or−を示す)で
あり、モデルレイヤについてのみ送られる。CBPはマ
クロブロック内の情報を含むブロックのパターンを示す
情報であり、誤差レイヤのマクロブロックについてのみ
送られる。
【0088】なお、本実施形態ではMPEG等との親和
性からマクロブロックレイヤを持つ構造にしたが、マク
ロブロックレイヤの階層にいきなりブロックレイヤが来
るように構成しても何等問題はない。
【0089】図14(h)に示すリストレイヤは、図1
3で説明した構造を符号化したもので、リストスタート
コード(LSC)で始まり、ライン番号(LN)、特徴
点数(SPN)、特徴点の形状データであるr,ψ、有
効/無効テーブル(V/NV)およびリストエンドコー
ド(LEC)よりなる。1つのオブジェクトに対するリ
ストには、LNから始まる構造がモデルを作成したライ
ン数分、各LNから始まる構造の中には、rから始まる
構造がそこに書かれたSPN個分含まれる。
【0090】[多視点画像復号化および任意視点画像生
成について]次に、本発明に係る多視点画像復号化方法
および任意視点画像の生成方法の一実施形態に説明す
る。図16は、本発明の多視点画像復号化方法および任
意視点画像の生成方法が適用される装置の典型的な構成
を示すブロック図である。この装置はCPU1601、
視点位置・視線方向入力装置1602、大容量の記憶装
置(典型的な例としては、ハードディスク装置)160
3、RAM(ランダムアクセスメモリ)1604および
画像出力装置1605からなり、これらをバス1600
により接続して構成される。
【0091】次に、図17に示すフローチャートを用い
て、符号化されたデータを復号し、任意視点画像として
再生する手順を説明する。本実施形態では、リストを求
めるためにサンプルしたライン数はスライス当り1つで
あり、再生処理はスライス単位に行われるようになって
いるものとして説明する。
【0092】まず、ステップ1700で符号化されたデ
ータ(多重化ストリーム)を記憶装置1603に入力す
る。入力された符号化データは既に説明したように、符
号化された特徴点のリスト、モデルデータと予測誤差デ
ータが多重化されたストリームであるので、次のCPU
1601でヘッダを解析しながらこれら3つのデータを
分離する。
【0093】CPU1601で分離されたデータのう
ち、予測誤差データについては符号化されたままの形で
RAM1604に保持する(ステップ1701)。図1
6の装置構成の場合、この分離の処理を含めて、以後の
処理は全てCPU1601で行われる。
【0094】次に、分離されたデータのうちモデルデー
タを復号し、得られたモデル情報をRAM1604に保
持する(ステップ1702)。このモデルデータの復号
は、符号化手順で説明したモデル復号化処理と全く同じ
であり、典型的には可変長復号、逆量子化、逆DCTと
いった処理である。
【0095】次に、分離されたデータのうち特徴点リス
トデータを復号し、リスト情報としてRAM1604に
保持する(ステップ1703)。特徴点リストデータの
復号は、符号化手順で説明したリスト符号化の逆の処理
であり、図13で説明したデータを復元するものであ
る。
【0096】また、さらに再生処理を高速にするために
は、rとψのリスト1302及び有効/無効テーブル1
303の形でRAM1604に保持するのではなく、図
12のステップ1207で説明した、r,ψより各特徴
点が各視点画像に投影されるべき画素位置の計算までを
このステップで行って、各ラインに相当するspn
(x)vpmaxの配列に元々テーブルに1が入っ
ていた位置に対してはこの画素の座標を保持し、0が入
っていた位置はそのままにしたようなテーブルに変換し
たものとして、RAM16043に保持するようにして
もよい。再生時に参照するのはこの座標であるから、こ
の処理を事前に行っておくことにより、再生時の処理は
少なくできる。
【0097】上述したステップ1601〜1603の処
理は、ソフトウェア起動時あるいはソフトウェア内での
オブジェクトを選択した時点で、視点に関する情報が入
力される前に行われ、これで再生の準備が整った状態と
なる。
【0098】次に、視点位置・視線方向入力装置160
2より視点の位置、視線方向の情報を入力する(ステッ
プ1704)。視点位置・視線方向入力装置1602の
例としては、バーチャルリアリティの分野ではヘッドマ
ウントディスプレイに位置センサ、方向センサを取り付
けたものなどを使用することがある。しかし、PCレベ
ルのプラットフォームで手軽に使う手段としては、例え
ばVRMLブラウザで実現されている、表示画面上に仮
想的なレバーやハンドルを表示し、これをマウスなどの
ポインティング装置で仮想的に操作することによって視
点位置、方向を入力するシステムのようにソフトウエア
的に実現されるものでもよい。この入力によって、対応
する視点からの画像の生成のループが開始される。以
下、このループ内では、この視点から見た画像作成の処
理が行われる。
【0099】まず、指定した視点から指定された方向を
見た再生画像p−θ面上での位置を計算する(ステップ
1705)。この計算に際しては、視点位置・視線方向
入力装置1602より得られた視点に対応する位置、方
向のパラメータをオブジェクト固定の座標に変換した距
離R、移動角ξのパラメータに変換する。
【0100】次に、まず移動角ξを0として再生画像を
求め、求まった画像をξを考慮して平行移動して指定し
た視点から指定された方向を見た再生画像を作成する。
この時の平行移動量は、カメラの視野角と扱う再生画像
の解像度によって決まる。
【0101】すなわち、カメラの視野角を±η、扱う画
像サイズの横方向をHとすると、 αtanη=H/2 (10) なる関係を持つαを求め、 Δ=αtanξ (11) なるΔだけ平行移動すればよい。より正確には撮影系の
パラメータを考慮した変換が必要になるが、簡易的には
この程度でも実用上使えないことはない。
【0102】ここで、次にξ=0として再生画像を求め
る様子を図18を参照しつつ説明する。まず、求められ
た距離のパラメータRより、p−θ平面上での再生すべ
き画像を表す曲線1801が求められる。この曲線は、
Yの値によらず共通である。この時点で、再生画像のど
の位置の座標がどの視点画像を参照して作成されるかが
大まかに確定する。例えば、図18の例では再生画像1
801上の点1804と1805の間の領域は、少なく
とも視点画像1802または1803を参照して作成さ
れることが確定する。
【0103】次に、スライス番号slを0にセットし
(ステップ1706)、スライスを1つずつカウントし
て(ステップ1715)、処理するスライスのループに
入る。本実施形態では、1マクロブロックラインを1ス
ライスとして符号化されたものとし、復号はスライス毎
に行うとして説明する。
【0104】画像1801の再生において参照される画
像1802、1803等は、被写体の形状に応じて異な
ったpに相当する部分が参照されるが、Y座標は同じ値
が参照されるので、マクロブロックライン(=スライ
ス)毎の処理はこの性質に適している。
【0105】次に、再生に使用する特徴点を特徴点リス
トの中から選択する(ステップ1707)。このステッ
プ1707以降の処理は、参照する視点画像が変わる単
位毎に行われる。ここでは、一例として図18の再生画
像1801上の点1804と1805の間の領域に対し
ての処理として説明する。また、特徴点リストは上述し
たようにステップ1703で有効な画素は座標に変換さ
れたテーブルになっているものとして説明する。
【0106】まず、処理しているスライスに対応するラ
インのテーブルを選び、視点画像1802と1803に
相当する列を見る。これらの中で特徴点として両方の列
で有効であり、対応する軌跡と視点画像1801が点1
804と1805の間で交わるような図18中の特徴点
1806、1807の組を持つような特徴点を選択す
る。
【0107】ここで、このような特徴点の組が複数あっ
た場合には、予め決められた規則にしたがって1組を選
択する。例えば、(a)図18の1808のような交点
の位置が1804と1805の中央に近いものを選択す
る。この場合、後のマッピング処理での歪みも小さくで
きる。あるいは、(b)特徴点の軌跡1806→180
7のような線が上のスライスの同様の線と平行に近いも
のを選択する。この場合、再生画像の上下方向の連続性
が良くなる。あるいは、(c)対応するrの値が大きい
特徴点を選択する。この場合、最も目立つ視差の変化を
正確に再現することができる。
【0108】なお、別の実施形態として複数の特徴点が
条件を満たした場合は、その全てを切り替え点として採
用するようにしてもよい。その場合は、全ての特徴点に
ついて点1808に相当する点を求め、隣同士の180
8に相当する点で挟まれた領域をそれに対応する180
6または1807に相当する点に挟まれた領域からマッ
ピングする。視点画像1802、1803のどちらから
マッピングするかは例えば切り替え点(1808に相当
する点)が中央に対してどちらに近いかによって決定す
る。
【0109】また、この範囲に対して条件を満たすよう
な特徴点が1つもなかった場合、この領域は例えば図2
1で説明した従来の方法で作成する。特徴点が見つから
なかったということは、この範囲は輝度の変化が小さい
平坦な領域である可能性が高く、どの点で参照を切り替
えてもそれほど不自然な画像にはならないと期待でき
る。
【0110】この時点で視点画像中の参照される画素位
置及び再生画像領域との対応が確定する(ステップ17
08)。例えば、図18では点1804から点1808
までの間の領域は光線空間上で近い位置にある視点画像
1802上の点1804から点1806の間を参照し、
点1808から点1805までの間の領域は光線空間上
で近い位置にある視点画像1803上の点1807から
点1805の間を参照して再生される。
【0111】この中で点1804、1805はデータと
して持っている光線と全く一致するので、完全に再生で
きる画素である。点1808は被写体の同じ点から出た
光線の軌跡上にあるので、かなり実際と近く再生できる
画素である。その他の画素は、この方法で推測して再生
した画素であり、実際とは少しずれているかもしれない
が、不自然にならないように再生した画素ということに
なる。
【0112】次に、ステップ109で再生画像位置18
01にモデルから投影を行って予測信号の仮作成を行う
(ステップ1709)。このステップ1709は、参照
する領域に対して予測信号を作成する際に投影すべきモ
デルの被写体面上の点を制限し、予測のための演算量を
減らすための処理である。
【0113】この先の一連のステップを再び図18を参
照しながら説明する。まず、モデルとして把握している
点を全て再生画像位置1801に投影してみる。このと
き、各視点画像間に挟まれた領域毎に、そこと交わるモ
デル上の点を記憶する。次にステップ1708で参照さ
れることが特定された領域に対して、予測信号を生成す
る(ステップ1710)。
【0114】このステップ1710では、例えば図18
の例では点1804と1806に挟まれた領域及び点1
807と1805に挟まれた領域に予測信号を生成す
る。この際、モデルとしてRAM1604に保持されて
いる全ての点から投影し、オクルージョンを考慮して最
前面の投影を選択するのでは演算が多くなる。
【0115】しかし、本実施形態では事前にステップ1
708でモデル全体から仮投影し、上述の領域に有効に
投影される可能性のあるモデルの点につき絞り込みを行
ってあるので、ここでの予測信号生成のための投影はス
テップ1708で記憶された点からのみRAM1604
から読み出して投影を行い、オクルージョン判定を行っ
て最終的に有効な投影を決定すればよい。
【0116】次に、上述の位置に対応する誤差ブロック
をRAM1604から読み出して復号する(ステップ1
711〜1712)。誤差の復号は符号化方法で説明し
た予測誤差の符号化の逆の処理であり、典型的な例とし
ては可変長復号、逆量子化、逆DCTである。
【0117】次に、予測信号と予測誤差が加算されて上
述の領域における画像が再生される(ステップ171
3)。
【0118】次に、再生された画像が再生画像位置18
01に図7の下の図(上の図を拡大したもの)に示した
ようにマッピングされる(ステップ1714)。
【0119】以上の処理をslmax個の全てのスライ
スに対して行い(ステップ1716)、先に述べたよう
に視線方向分シフトを行えば(ステップ1717)、入
力された視点に対応する再生画像の生成処理は終了す
る。別の視点の入力が新たに行われれば(ステップ17
18)、また同じ処理を繰り返す。
【0120】オブジェクトが複数ある場合には、視線の
ループ内の処理をオブジェクトの個数分行う。この際、
シフト量はオブジェクトが仮想空間に配置された座標に
したがってオブジェクト毎に異なる値が設定されること
に注意が必要である。
【0121】以上の実施形態ではスライスの中のライン
に対しては全て同じマッピングで再生画像を生成するよ
うに説明したが、リストが与えられたラインの間のライ
ンにおける切り替え点の位置は内挿によって連続的に変
化するようにしてもよい。
【0122】その場合、画像レベルで見たときには図1
9に示すような台形から台形へのテキスチャマッピング
となる。図19では、処理中のスライスの1つ下のスラ
イスに対する特徴点を1806’も求め、間の特徴点は
特徴点1806と1806’とから内挿するため、画像
レベルで見ると図のように台形の領域となる。再生画像
側でも同様に、1つ下のスライスの切り替え点180
8’と切り替え点1808とから間の切り替え点が内挿
されるので、これも台形となる。このようなテキスチャ
マッピングは標準的なグラフィックライブラリを使用す
ることによって一括して処理することができる。
【0123】
【発明の効果】以上説明したように、本発明によれば多
視点画像を用いて任意視点画像を再生するシステムにお
いて、実写に近い自然な任意視点画像を生成することが
できるようになり、また使用するメモリ量、生成に要す
る演算量をリーズナブルな範囲に収めることができる。
【図面の簡単な説明】
【図1】本発明で想定している多視点画像符号化に使わ
れる装置の例を説明する図
【図2】本発明における画像入力装置の一実施形態を示
す図
【図3】被写体の断面と極座標の関係を説明する図
【図4】入力された多視点画像のp−θ平面上での位置
関係を説明する図
【図5】本発明に係る多視点画像符号化方法の一実施形
態を説明するフローチャート
【図6】図5におけるモデル推定の手順の一実施形態を
説明するフローチャート
【図7】図6のモデル推定処理における探索範囲の制限
について説明する図
【図8】図6のモデル推定処理における探索範囲の制限
について説明する図
【図9】図6のモデル推定処理におけるMV検出につい
て説明する図
【図10】本発明における予測信号が作成される原理を
説明する図
【図11】重なった光線の処理を説明する図
【図12】特徴点リスト作成の手順の一実施形態を説明
するフローチャート
【図13】本発明における特徴点リストの構成例を示す
【図14】本発明の多重化フォーマットの一実施形態を
示す図
【図15】本発明のマクロブロックの構成の一実施形態
を示す図
【図16】本発明で想定している任意視点画像の生成に
使われる装置の例を説明する図
【図17】本発明に係る多視点画像復号/任意視点画像
生成方法の一実施形態を説明するフローチャート
【図18】復号再生時の参照画素を求める原理を説明す
る図
【図19】本発明におけるマッピングの様子を示す図
【図20】光線空間の円筒記録を説明する図
【図21】従来の任意視点画像生成方法の例を説明する
【符号の説明】
100…バス 101…CPU 102…画像入力装置(多視点画像入力装置) 103…記憶装置 104…RAM 1600…バス 1601…CPU 1602…視点位置・視線方向入力装置 1603…記憶装置 1604…RAM 1605…画像表示装置
フロントページの続き Fターム(参考) 5B050 BA09 DA07 EA10 EA18 EA27 EA28 5B057 BA02 BA19 CA13 CA16 CB13 CB18 CG03 5C059 KK08 KK15 MA04 MB00 MB08 MB14 PP12 PP13 RB02 UA02 UA05 UA34 UA38 5L096 AA09 CA04 EA24 FA09 GA08 9A001 EE04 HH23 HH27 HZ32

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】被写体との位置関係が既知の複数の視点か
    らそれぞれ異なる視線方向で得られた該被写体について
    の複数の視点画像からなる多視点画像を符号化する多視
    点画像符号化方法において、 前記多視点画像を入力する入力ステップと、 前記多視点画像を符号化する符号化ステップと、 前記被写体面上の点より座標推定の容易性が高いと予想
    される特徴点を求める特徴点抽出ステップと、 前記特徴点に対してその座標とその点が有効に見えてい
    る視点の範囲を表す情報よりなる特徴点リストを作成す
    るリスト作成ステップとを有することを特徴とする多視
    点画像の符号化方法。
  2. 【請求項2】前記符号化ステップは、 前記被写体面上の各点の座標値と輝度値とから構成され
    るモデル情報を求めるモデル化ステップと、 前記モデル情報を符号化してモデルデータを得るモデル
    情報符号化ステップと、 前記モデルモータを復号化してモデル情報を得るモデル
    データ復号化ステップと、 前記モデルデータ復号化ステップにより復号化されたモ
    デル情報から前記多視点画像に含まれる各視点画像の予
    測信号を作成する予測信号作成ステップと、 前記多視点画像と前記予測信号との予測誤差情報を符号
    化して予測誤差データを得る予測誤差符号化ステップと
    を有することを特徴とする請求項1記載の多視点画像符
    号化方法。
  3. 【請求項3】前記リスト情報を符号化するリスト情報符
    号化ステップと、 前記モデルデータ、予測誤差データ及びリストデータを
    多重化する多重化ステップとをさらに有することを特徴
    とする請求項2記載の多視点画像符号化方法。
  4. 【請求項4】被写体との位置関係が既知の複数の視点よ
    り多視点画像を入力して符号化した情報及び、前記被写
    体面上の点より座標推定の容易性が高いと予想される特
    徴点に対してその座標とその点が有効に見えている視点
    の範囲を表す情報よりなる特徴点リストを用いて任意視
    点画像を生成する方法であって、 前記多視点画像を復号するステップと、 再生すべき視点位置及び視線方向を決定するステップ
    と、 前記決定された視点位置から見た画像を生成するために
    使用する特徴点を前記特徴点リストより選択するステッ
    プと前記決定された視点位置から見た画像を生成するた
    めの多視点画像の被参照部分の位置を前記視点情報と前
    記選択された特徴点より確定するステップと、 前記復号された多視点画像より前記決定された視点位置
    から見た画像を生成するステップとを有することを特徴
    とする多視点画像の任意視点画像生成方法。
  5. 【請求項5】被写体との位置関係が既知の複数の視点よ
    り多視点画像を入力し、被写体面上の点の座標と輝度の
    情報よりなるモデル情報を求めて、モデル情報より前記
    多視点画像に含まれる各視点画像の予測信号を作成し、
    前記モデル情報及び、前記多視点画像と前記予測信号と
    の予測誤差として符号化するとともに、前記被写体面上
    の点より座標推定の容易性が高いと予想される特徴点を
    求め、前記特徴点に対してその座標とその点が有効に見
    えている視点の範囲を表す情報よりなる特徴点リストを
    作成し、前記モデルデータ、予測誤差データ及び特徴点
    リストを多重する方法によって符号化多重された情報を
    復号し任意視点画像を生成する方法であって、 前記符号化多重された情報から前記モデルデータ、前記
    予測誤差データ及び前記特徴点リストを分離し、前記予
    測誤差データ及び前記特徴点リストをRAMに保持する
    ステップと、 前記モデルデータを復号しモデル情報としてRAMに保
    持するステップと、 再生すべき視点位置及び視線方法を決定するステップ
    と、 前記決定された視点位置から見た画像を生成するために
    使用する特徴点を前記特徴点リストより選択するステッ
    プと、 前記決定された視点位置から見た画像を生成するための
    視点画像の被参照部分の位置を前記視点情報と前記選択
    された特徴点より確定するステップと、 前記計算された視点画像の被参照部分の位置に前記RA
    Mより読み出した前記モデル情報より予測信号を生成す
    るステップと、 前記計算された視点画像の被参照部分の位置に対応する
    前記予測誤差データの必要部分を前記RAMより読み出
    し復号して予測誤差を得るステップと、 前記予測信号と前記予測誤差とを加算し再生画像を得る
    ステップと、 前記再生画像より前記決定された視点位置から見た画像
    を生成するステップとを有することを特徴とする多視点
    画像の任意視点画像生成方法。
JP9421399A 1999-03-31 1999-03-31 多視点画像の符号化方法及び任意視点画像の生成方法 Pending JP2000285260A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9421399A JP2000285260A (ja) 1999-03-31 1999-03-31 多視点画像の符号化方法及び任意視点画像の生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9421399A JP2000285260A (ja) 1999-03-31 1999-03-31 多視点画像の符号化方法及び任意視点画像の生成方法

Publications (1)

Publication Number Publication Date
JP2000285260A true JP2000285260A (ja) 2000-10-13

Family

ID=14104048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9421399A Pending JP2000285260A (ja) 1999-03-31 1999-03-31 多視点画像の符号化方法及び任意視点画像の生成方法

Country Status (1)

Country Link
JP (1) JP2000285260A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005157329A (ja) * 2003-10-30 2005-06-16 Brother Ind Ltd 画像表示装置
KR100612848B1 (ko) 2003-07-15 2006-08-14 삼성전자주식회사 다중시점 얼굴 데이터베이스 구축장치 및 방법과 다중시점얼굴기술자 생성장치 및 방법
WO2007129840A1 (en) * 2006-05-04 2007-11-15 Electronics And Telecommunications Research Institute Method and apparatus for encoding multi-view moving pictures
WO2010029671A1 (ja) * 2008-09-09 2010-03-18 頓智ドット株式会社 視界情報に仮想情報を付加して表示できるシステム
JP2011013890A (ja) * 2009-07-01 2011-01-20 Fujifilm Corp 画像合成装置及び方法
CN102065301A (zh) * 2011-01-20 2011-05-18 北京中星微电子有限公司 一种智能监控系统中检测信息的编码方法及装置
WO2019198784A1 (ja) * 2018-04-12 2019-10-17 凸版印刷株式会社 ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法
WO2021149336A1 (ja) * 2020-01-22 2021-07-29 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100612848B1 (ko) 2003-07-15 2006-08-14 삼성전자주식회사 다중시점 얼굴 데이터베이스 구축장치 및 방법과 다중시점얼굴기술자 생성장치 및 방법
JP2005157329A (ja) * 2003-10-30 2005-06-16 Brother Ind Ltd 画像表示装置
WO2007129840A1 (en) * 2006-05-04 2007-11-15 Electronics And Telecommunications Research Institute Method and apparatus for encoding multi-view moving pictures
WO2010029671A1 (ja) * 2008-09-09 2010-03-18 頓智ドット株式会社 視界情報に仮想情報を付加して表示できるシステム
JP2011013890A (ja) * 2009-07-01 2011-01-20 Fujifilm Corp 画像合成装置及び方法
CN102065301A (zh) * 2011-01-20 2011-05-18 北京中星微电子有限公司 一种智能监控系统中检测信息的编码方法及装置
CN102065301B (zh) * 2011-01-20 2017-04-19 北京中星微电子有限公司 一种智能监控系统中检测信息的编码方法及装置
CN111954896A (zh) * 2018-04-12 2020-11-17 凸版印刷株式会社 光场图像生成系统、图像显示系统、形状信息取得服务器、图像生成服务器、显示装置、光场图像生成方法及图像显示方法
WO2019198784A1 (ja) * 2018-04-12 2019-10-17 凸版印刷株式会社 ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法
JPWO2019198784A1 (ja) * 2018-04-12 2021-04-30 凸版印刷株式会社 ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法
EP3779892A4 (en) * 2018-04-12 2021-05-05 Toppan Printing Co., Ltd. LIGHT FIELD GENERATION SYSTEM, IMAGE DISPLAY SYSTEM, INFORMATION ACQUISITION SERVER, IMAGE GENERATION SERVER, DISPLAY DEVICE, LIGHT FIELD IMAGE GENERATION METHOD, AND PICTURE DISPLAY METHOD
JP7377413B2 (ja) 2018-04-12 2023-11-10 Toppanホールディングス株式会社 ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、ライトフィールド画像生成方法及び画像表示方法
US11961250B2 (en) 2018-04-12 2024-04-16 Toppan Printing Co., Ltd. Light-field image generation system, image display system, shape information acquisition server, image generation server, display device, light-field image generation method, and image display method
WO2021149336A1 (ja) * 2020-01-22 2021-07-29 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JPWO2021149336A1 (ja) * 2020-01-22 2021-07-29
JP7322191B2 (ja) 2020-01-22 2023-08-07 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JP2023163182A (ja) * 2020-01-22 2023-11-09 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JP7630562B2 (ja) 2020-01-22 2025-02-17 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
US12513271B2 (en) 2020-01-22 2025-12-30 Fujifilm Corporation Information processing apparatus, information processing method, and program for deciding line-of-sight direction of virtual viewpoint

Similar Documents

Publication Publication Date Title
CN113853796B (zh) 用于体积视频编码和解码的方法、装置
US11202086B2 (en) Apparatus, a method and a computer program for volumetric video
US6738424B1 (en) Scene model generation from video for use in video processing
KR101340911B1 (ko) 다중 뷰들의 효율적인 인코딩 방법
JP4878451B2 (ja) 空間および時間符号化を使用して複数の階層化ビデオ・ストリームの圧縮および圧縮解除を行うためのシステムおよびプロセス
EP1622381A2 (en) A system and method for client services for interactive multi-view video
JP2006050612A (ja) インタラクティブマルチビュービデオのシステムおよび方法
JPH10271511A (ja) 画像符号化装置と画像復号化装置
JP4975985B2 (ja) マルチビュービデオフォーマット
JP2006081161A (ja) オフラインマルチビュービデオ圧縮のシステムおよび方法
KR102308604B1 (ko) 레거시 및 몰입형 렌더링 디바이스들에 대한 몰입형 비디오를 포맷하는 방법, 장치 및 스트림
EP3918793B1 (en) An apparatus and a method for volumetric video
WO2019115867A1 (en) An apparatus, a method and a computer program for volumetric video
Chan et al. The plenoptic video
JP4989051B2 (ja) オフラインマルチビュービデオ圧縮のシステムおよび方法
JP2001283201A (ja) 3次元画像データ作成方法及び3次元画像データを用いた任意視点画像作成方法
JP2000285260A (ja) 多視点画像の符号化方法及び任意視点画像の生成方法
WO2019162564A1 (en) An apparatus, a method and a computer program for volumetric video
JPH11161800A (ja) 多視点画像符号化/復号化装置および多視点画像符号化/復号化方法ならびに三次元物体の画像符号化/復号化装置
EP3729805B1 (en) Method and apparatus for encoding and decoding volumetric video data
Tong et al. Interactive rendering from compressed light fields
US20070064099A1 (en) Method of representing a sequence of pictures using 3d models, and corresponding devices and signals
JP2000322576A (ja) 3次元画像データ作成方法および3次元画像データを用いた任意視点画像作成方法
Chai et al. A depth map representation for real-time transmission and view-based rendering of a dynamic 3D scene
JP2000285259A (ja) 多視点画像からの任意視点画像再生方法