JPH11149575A - 画像処理方法及びその装置 - Google Patents

画像処理方法及びその装置

Info

Publication number
JPH11149575A
JPH11149575A JP10262042A JP26204298A JPH11149575A JP H11149575 A JPH11149575 A JP H11149575A JP 10262042 A JP10262042 A JP 10262042A JP 26204298 A JP26204298 A JP 26204298A JP H11149575 A JPH11149575 A JP H11149575A
Authority
JP
Japan
Prior art keywords
image
image processing
computer model
dimensional computer
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10262042A
Other languages
English (en)
Other versions
JP4217305B2 (ja
Inventor
Simon Michael Rowe
サイモン ミッシェル ロウ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JPH11149575A publication Critical patent/JPH11149575A/ja
Application granted granted Critical
Publication of JP4217305B2 publication Critical patent/JP4217305B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/00Three-dimensional [3D] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

(57)【要約】 【課題】 動作中の対象物体の画像を処理して、三次元
コンピュータモデル内における物体の平面表現を定義す
る画像処理方法及びその装置を提供する。 【解決手段】 実世界の静的背景シーンの三次元コンピ
ュータモデルが創出される(S2)。背景上を動作中の
物体のビデオ画像を記録し(S4)、動作中の物体に対
応する画像の部分を識別し、かつ三次元コンピュータモ
デル内での対応する位置を算出するために処理する(S
6、S8)。動作中の各物体は、三次元コンピュータモ
デル内の少なくとも1つの垂直平面によって表される。
シミュレーションされた背景と動作中の物体の平面を含
み、ビデオカメラによって記録された動作中の物体のビ
デオデータがその上にレンダリングされる平面上の画像
が、所望の(複数の)観察方向からユーザに表示される
(S10)。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、三次元コンピュー
タ・モデルの動画で(複数の)物体の表現を生成するた
めに、動画を表示するデータを処理する画像処理方法及
びその装置に関するものである。
【0002】
【従来の技術】現在、ビデオから生成される画像やその
他の動画の内容、即ちデータは、そのデータを取り込む
カメラの視野特性に依存する。より詳細には、観察者が
物体を見る位置は、そのシーンをカメラが観察する位置
及び観察する方向によって決定される。
【0003】この制約の解決策として、ビデオデータを
使用してシーンの動的三次元コンピュータモデルを作り
出し、所望のどの観察方向からもシミュレーションされ
た眺めを生成してユーザに表示することのできる、対話
式システムが提案されてきている。
【0004】
【発明が解決しようとする課題】本発明は、このような
対話式システムを実現するための画像処理方法及びその
装置を提供することを目的とする。すなわち、ビデオ画
面内を移動する物体を確実に効率よく三次元コンピュー
タモデル内に表現可能とする画像処理方法及びその装置
を提供する。
【0005】
【課題を解決するための手段】この課題を解決するため
に、本発明の画像処理方法は、シーン内を移動している
物体の一連の画像を定義する画像データを処理して、前
記シーン内での前記物体の位置に対応する、三次元コン
ピュータモデル内の複数の位置での前記物体の表現を定
義する信号を生成する画像処理方法であって、複数の画
像の前記画像データを処理して、前記画像内の前記物体
の境界を表わす各画像のそれぞれの多角形を定義する工
程と、前記物体のそれぞれの位置を表す少なくとも1つ
の平面状表面を三次元コンピュータモデル内で定義する
工程であって、各平面状表面が、三次元コンピュータモ
デル内の所定の表面上の底辺と、前記画像内の前記物体
の境界を表わす前記多角形のそれぞれ1つに対応する位
置及びサイズとで定義される工程と、前記画像データに
応じて前記物体の形状を表すために、前記平面状表面の
テクスチャデータを生成する工程とを含むことを特徴と
する。
【0006】ここで、前記平面状表面の幅が前記画像デ
ータ中の境界の多角形の幅で決定され、前記平面状表面
の高さが前記画像データ中の境界の多角形のアスペクト
比を使って計算される。また、前記各平面状表面が垂直
平面内にある。また、前記物体の境界を表わす多角形が
矩形である。また、前記矩形の辺が画像の辺に平行であ
る。また、1つの前記平面状表面が、前記三次元コンピ
ュータモデル内の物体の各位置を表わすように定義され
る。また、複数の接続された平面状表面が前記三次元コ
ンピュータモデル内の物体の各位置を表わすために定義
される。また、前記画像データが、前記境界多角形内で
前記物体の位置を定義するマスクを抽出するために処理
される。また、三次元コンピュータモデルを創出する工
程を更に含む。また、前記画像データと、前記三次元コ
ンピュータモデルを定義するデータとを処理して、その
中の複数の対応点を識別し、定義された前記対応点を用
いて前記画像と前記モデルとの間での変換を定義する工
程を更に含む。また、選択された観察方向から前記三次
元コンピュータモデルの画像をレンダリングすることに
よって画像データを生成し、そこで前記テクスチャデー
タが前記平面状表面上にレンダリングされる工程を更に
含む。また、前記画像データを伝達する信号を発生させ
る工程を更に含む。また、前記信号を記録する工程を更
に含む。また、前記生成した画像データを用いて、前記
物体の画像を表示する工程を更に含む。また、前記画像
データの記録を直接又は間接に実施する工程を更に含
む。
【0007】又、本発明の画像処理方法は、シーン内の
表面を移動する物体の三次元コンピュータモデルを創出
する画像処理方法であって、前記シーンの画像から決定
された前記シーン内の物体の位置に応じた位置を有する
少なくとも1つの平面状表面と、物体が移動する表面と
三次元コンピュータモデルの表面との間のマッピングを
定義する変換とを用いて、前記物体がモデル化されるこ
とを特徴とする。
【0008】又、本発明の画像処理方法は、シーン内の
物体の動きをモデル化する画像処理方法であって、前記
移動物体の画像が画像データが記録された位置あるいは
記録装置の画像形成パラメータの予備知識なしに処理さ
れて、前記シーンの三次元コンピュータモデル内で平面
状表面と前記平面状表面上にレンダリングするテクスチ
ャデータとを作成することを特徴とする。
【0009】又、本発明の画像処理装置は、シーン内を
移動している前記物体の一連の画像を定義する画像デー
タを処理して、前記シーン内での物体の位置に対応する
三次元コンピュータモデル内の複数の位置における前記
物体の表現を定義する信号を発生する画像処理装置であ
って、複数の画像の前記画像データを処理して、前記画
像内の前記物体の境界を表わす各画像のそれぞれの多角
形を定義する第1処理手段と、前記物体のそれぞれの位
置を表す少なくとも1つの平面状表面を三次元コンピュ
ータモデル内で定義する第2処理手段であって、各平面
状表面が、三次元コンピュータモデル内の所定の表面上
の底辺と、前記画像内の前記物体の境界を表わす前記多
角形のそれぞれ1つに対応する位置及びサイズとで定義
する第2処理手段と、前記画像データに応じて前記物体
の形状を表すために、前記平面状表面のテクスチャデー
タを生成する第3処理手段とを含むことを特徴とする。
【0010】ここで、前記第2処理手段が、前記平面状
表面の幅が前記画像データ中の境界の多角形の幅で定義
され、前記平面状表面の高さが前記画像データ中の境界
の多角形のアスペクト比を使って決定されるように、前
記平面状表面を定義するよう構成される。また、前記第
2処理手段が、前記各平面状表面が垂直平面内にあるよ
うに定義されるよう構成される。また、前記物体の境界
を表わす多角形が矩形である。また、前記矩形の辺が画
像の辺に平行である。また、前記第2処理手段が、1つ
の前記平面状表面が、前記三次元コンピュータモデル内
の物体の各位置を表わすように定義されるよう構成され
る。また、前記第2処理手段が、複数の接続された平面
状表面が前記三次元コンピュータモデル内の物体の各位
置を表わすために定義されるよう構成される。また、前
記境界多角形内で前記物体の位置を定義するマスクを抽
出するために前記画像データを処理する手段を更に含
む。また、前記三次元コンピュータモデルを創出する手
段を更に含む。また、前記画像データと、前記三次元コ
ンピュータモデルを定義するデータとを処理して、その
中の複数の対応点を識別し、定義された前記対応点を用
いて前記画像と前記モデルの間での変換を定義する手段
を更に含む。また、観察方向から前記三次元コンピュー
タモデルの画像用の画像データを作成するため、前記平
面状表面上にテクスチャデータをレンダリングする手段
を更に含む。
【0011】又、本発明の画像処理装置は、シーン内の
表面を移動する物体の三次元コンピュータモデルを創出
する画像処理装置であって、前記シーンの画像から決定
された前記シーン内の物体の位置に応じた位置を有する
少なくとも1つの平面状表面と、物体が移動する表面と
三次元コンピュータモデルの表面との間のマッピングを
定義する変換とを用いて、前記物体がモデル化する手段
を含むことを特徴とする。
【0012】又、本発明の画像処理装置は、シーン内の
物体の動きをモデル化する画像処理装置であって、前記
移動物体の画像が画像データが記録された位置あるいは
記録装置の画像形成パラメータの予備知識なしに処理し
て、前記シーンの三次元コンピュータモデル内で平面状
表面と前記平面状表面上にレンダリングするテクスチャ
データとを作成する手段を含むことを特徴とする。
【0013】本発明によれば、三次元コンピュータモデ
ル内の物体の平面表現を定義するため、移動している物
体の画像を処理する画像処理方法及びその装置が提供さ
れる。画像内の物体の位置を用いてモデル内での位置を
決定し、この物体に対応する画像データをその表現の際
に使用する。物体を表現するため、複数の平面を使用す
ることが可能である。又、本発明は、画像データ内に記
録される移動中の物体の位置を表すために三次元コンピ
ュータモデル内で平らな表面を定義し、上記画像データ
を用いてその表面のテクスチャデータを作成して、その
表現を表示できるようにする画像処理方法及びその装置
を提供する。テクスチャデータは、物体の画像からの実
画素データでよい。
【0014】
【発明の実施の形態】次に、添付の図面を参照しなが
ら、本発明の実施の形態をその一例によって説明する。
【0015】<本実施の形態の画像処理装置の構成例>
図1は、本実施の形態の画像処理装置の全体的な構成例
を示すブロック図である。
【0016】本装置には、メモリ6に接続された中央処
理装置(CPU)4を含むコンピュータ2が設けられ、
メモリ6は、CPU4によって実行されるオペレーショ
ンを定義するプログラムを格納し、CPU4によって処
理される対象物体データ及び画像データを格納する働き
をする。
【0017】メモリ6にはディスクドライブ8が結合さ
れる。ディスクドライブ8は、フロッピーディスク10
など取り外し可能なデータ記憶媒体を受け入れると共
に、その媒体に格納されたデータやプログラムをメモリ
6に転送する働きをする。ディスクドライブ8を使用し
て、CPU4に対する操作命令を、取り外し可能なデー
タ記憶媒体からメモリ6に入力することが可能である。
【0018】ディスクドライブ8を使用して、CPU4
によって処理される画像データを、取り外し可能なデー
タ記憶媒体からコンピュータ2に入力することも可能で
ある。その代わりに又はそれに加えて、ソニー社製のD
CR−PC7などディジタル画像データ出力装置を有す
るビデオカメラ12から、処理される画像データを直接
メモリ6に入力することも可能である。画像データをメ
モリ6に入力する前にカメラ12に格納したり、又は上
記データをカメラ12で収集すると同時にリアルタイム
でメモリ6に転送することも可能である。また、ディジ
タルカメラ12の代わりに非ディジタルのビデオカメラ
から画像データを入力することも可能である。この場
合、上記カメラで撮った画像をディジタイザ(図示せ
ず)を用いてディジタル化し、そこからディジタル画像
データを生成してメモリ6に入力する。更に、画像デー
タを格納する局所の又は遠隔のデータベースからの接続
(図示せず)を介して、画像データをメモリ6にダウン
ロードすることも可能である。
【0019】CPU4の入力ポートには、例えばキーボ
ード及び/又はマウスやトラッカボールなどの位置感応
入力装置を含むユーザ命令入力装置14が結合されてい
る。
【0020】又、CPU4にはフレームバッファ16が
結合される。フレームバッファ16は、例えば、画像の
1画素に対し1つ(又は数個)の記憶位置を与えること
によって、CPU4によって生成された少なくとも1つ
の画像に関する画像データを格納するように構成され
た、メモリ装置を含んでいる。各画素ごとにフレームバ
ッファ内に格納される値が、画像内の画素の色又は輝度
を定義する。
【0021】フレームバッファ16には、このフレーム
バッファ16に格納される画像を従来の方法で表示す
る、表示装置18が結合されている。またフレームバッ
ファ16には、ビデオテープレコーダ(VTR)20、
又はペーパプリンタや35mmフィルムレコーダなどそ
の他の画像記録装置も結合される。
【0022】ハードディスクドライブなどデータ記憶容
量の大きい大容量記憶装置がメモリ6に(通常はCPU
4を介して)結合され、またフレームバッファ16にも
結合される。大容量記憶装置22は、CPU4によって
処理されたデータをメモリ6から受け取り、又は表示装
置18で表示されるデータをフレームバッファ16から
受け取ることができる。
【0023】CPU4、メモリ6、フレームバッファ1
6、表示装置18と大容量記憶装置22は、例えばSu
nMicrosystems社から発売されているSp
arcStationのようなワークステーションな
ど、市販の完成システムの一部から構成することが可能
である。
【0024】本実施の形態としてコンピュータ2に実行
させるための操作命令は、フロッピーディスク10やそ
の他のデータ記憶媒体に格納されたプログラムの形で、
市販用として供給することができ、又は、例えばデータ
リンク(図示せず)などを介したコンピュータ2への信
号として伝送することができる。その結果、受信側コン
ピュータ2は、本発明を組み込んだ装置に再構成され
る。
【0025】図2に、CPU4によって処理する画像デ
ータの集合体の例を概略的に示す。
【0026】例として、図2には、フットボール競技場
34(コーナー36、38、40、42で定義された)
内を動いている2人の人間30、32を示す。競技場3
4とその中での人間30、32の動きは、固定した観察
位置に取り付けられかつ固定した観察方向を有するビデ
オカメラ12によって記録される。
【0027】<本実施の形態の画像処理の手順例>図3
に、本実施の形態で実行される画像処理動作例の例を示
す。
【0028】図3を参照すると、ステップS2では、カ
メラ12によって観察されるシーンの静的背景(即ち、
動いていない部分)の三次元コンピュータモデルが、ユ
ーザによって創出される。またステップS2では、この
背景シーンの画像パラメータも設定される。
【0029】図4に、図3のステップS2で実行される
処理段階の例をより詳細に示す。
【0030】図4を参照すると、ステップS20では静
的背景をモデル化する。すなわち、図2に示す例では、
フットボール競技場34がモデル化される。これは、市
販のモデリングパッケージを使用して従来の方法で実施
される。
【0031】ステップS22では、カメラ12を使用し
て、静的背景の複数の参照画像を記録する。本実施の形
態では、ビデオの4つのフレームがカメラ12によって
記録される。複数の参照画像は、以下に更に説明するよ
うに、背景の採光条件の経時的な変化やノイズ、「静
的」背景内での(例えば、動いている木の枝や葉によっ
て引き起こされる)好ましくない動きを考慮に入れるた
めに記録される。
【0032】ステップS24では、画像空間(即ち、カ
メラ12によって記録される画像)と三次元(3D)世
界空間(即ち、ステップS20で三次元コンピュータモ
デルが創出された空間)との間での変換が計算される。
変換は、画像空間での(対象物体がその上で移動する)
基平面と3D世界空間(3Dコンピュータモデル)での
基平面との間のマッピングである。この変換は、カメラ
の絶対位置や観察されているシーン(図2の例では、フ
ットボール競技場34)に関連するカメラの位置が前も
って決定されて乃至、同様にカメラの像形成のパラメー
タ(焦点長さ、CCDのサイズ、ズーム設定など)も前
もって決定されてないため、実施される。この変換によ
って、以下に説明するように、画像空間での対象物体の
位置や大きさに基づいて、確実で効率的な方法での3D
コンピュータモデルにおける対象物体の表現の創出が可
能になる。
【0033】ステップS24での変換を計算するため、
ステップS22で記録した背景の画像の1つを表示装置
18上でユーザに表示する。ユーザは、CPU4からの
催促に応じて、シーン内の対象物体が動く平面上にある
画像内の複数の点(本実施の形態では4点)を指定す
る。すなわち、図2に示す例を参照すると、フットボー
ル競技場34のコーナーの点36、38、40、42を
指定することになる(競技場は人間30、32が動く表
面を表す)。ビデオ画像内で識別された点に対応する、
ステップS20で創出された三次元コンピュータモデル
内の点も、ユーザによって定義される。例えば、所定の
観察方向からの三次元コンピュータモデルの眺めを表示
装置18でユーザに表示し、対応する点を入力手段14
を使用して指定する。CPU4は、次いで、ビデオ画像
内で指定した点の位置と、三次元コンピュータモデル内
で指定した対応する点の位置とを用いて、従来の方法、
例えば次の方程式を用いて、画像空間と3D世界空間と
の間の変換演算を行う。
【0034】
【数1】
【0035】ただし、n=1,…,4、Xn及びYnは
世界空間内の点、xn及びynは画像空間内の点を示
し、A〜Hは次式によって得られる。
【0036】
【数2】
【0037】これは、画像空間での基平面と3Dコンピ
ュータモデル(3D世界空間)での基平面との間の変換
を定義している。
【0038】ステップS26では、CPU4は静的背景
の参照画像の画素パラメータを計算する。これは、ステ
ップS22で記録した複数の画像から、各画素ごとに平
均グレーレベルμを計算することによって実行される。
即ち、4つのフレームのそれぞれの対応する画素のグレ
ーレベルを考慮し、平均をとる。求めた平均の分散σも
算出する。次に、各画素のグレーレベル用「ウィンド
ウ」をμ±(2σ+F)に設定する。ただし、Fは、ビ
デオカメラ12の利得や雑音などの変数を考慮に入れる
ように設定されたエラーファクタである。本実施の形態
では、グレースケールレベルの合計数は256であり、
エラーファクタFは5グレースケールレベルに設定され
る。
【0039】ステップS26で各画素ごとに設定される
「ウィンドウ」は、画素が静的背景の画像の一部を形成
する場合にとるグレースケール値の広がりを表す(ビデ
オカメラ12の観察位置及び方向は一定であり、したが
って背景の一部を形成する画素のグレースケール値が採
光の変化やノイズによるエラーに応じてのみ変化す
る)。以下に説明するように、これらの「ウィンドウ」
は、背景上を動作中の(したがって、定義されたウィン
ドウの外側で画素値を移動させる)対象物体を識別する
ために使用される。
【0040】図3を再び参照すると、ステップS4では
「アクション」の画像、即ち背景上で対象物体が動いて
いる画像(例えば、フットボール競技場34の人物3
0,32の動き)がビデオカメラ12によって記録され
る。
【0041】ステップS6では、CPU4がステップS
4で記録した画像の画像データを処理して、画像内の
「静的背景」の一部ではない対象物体、即ち背景上を動
作中の対象物体を識別する。次に、CPU4は、この対
象物体の情報とステップS2で定義した三次元コンピュ
ータモデルとを用い、カメラ12によって記録されたシ
ーンの三次元コンピュータモデルを示すタイムスタンプ
付きの三次元物体データを創出する。
【0042】図5に、ステップS6でCPU4によって
実行される処理動作例の例を示す。
【0043】図5を参照すると、ステップS30では、
CPU4が画像内の対応する画素について、処理中の画
像データの各画素のグレーレベルを、ステップS26で
予め設定したグレースケール「ウィンドウ」と比較す
る。その画素について予め定義されたウィンドウの外側
にあるグレーレベルを有するどの画素も、「前景」画
素、即ち背景上を動作中の対象物体の一部を形成する画
素となる可能性があると見なされる。従って、ステップ
S30では、CPU4が、どの画素が対応して予め計算
されたウィンドウの外側のグレースケールレベルを持つ
かの記録を保持する。
【0044】ステップS32では、ノイズを除去するた
めに、画像データをCPU4で処理する。このようなノ
イズは、例えば、ビデオカメラ12がCCD(電荷結合
素子)カメラである場合は量子効果によって、またカメ
ラ12からのデータを圧縮するために用いられるデータ
圧縮技術によって、またCPU4で処理されるビデオデ
ータのフレーム取り込みに使用するフレームグラッバに
よってなど、数々の方法によって画像データ中に導入さ
れる。また、このようなノイズは、動作中の対象物体の
境界に近接する画像データでしばしば発生するノイズの
こともある。
【0045】図6に、図5のステップS32でノイズを
除去するために画像データを処理する際に、CPU4が
実行する動作を示す。
【0046】図6を参照すると、ステップS50では、
従来の方法、例えばR.M.Haralick、L.
G.Shapiro著「Computer and R
obot Vision Volume 2」,Add
ison−Wesley Publishing Co
mpany,1993 ISBN 0−201−569
43−4(v.2)の583頁に示される方法で、CP
U4が画像データに「縮小」マスクを適用する。この操
作では、3×3の画素マスクを画像データに適用し、こ
のマスクによって定義される9つの画素の各組ごとに、
「前景」画素(ステップS30で識別された)数と「背
景」画素数をカウントする。マスク内の大多数の画素が
背景画素である場合、中央の画素は背景画素であると定
義される(たとえその画素が、以前に前景画素であると
識別されたとしても)。マスク内の大多数の画素が前景
画素である場合は、何の変化も生じない。この操作は、
縮小マスクが全ての画像データに適用されるまで繰り返
される。
【0047】ステップS52では、従来の方法、例えば
R.M.Haralick、L.G.Shapiro著
「Computer and Robot Visio
nVolume 2」,Addison−Wesley
PublishingCompany,1993 I
SBN 0−201−56943−4(v.2)の58
3頁に示される方法で、CPU4が画像に「増大マス
ク」を適用する。この操作は、マスク内の大多数の画素
が前景画素である場合、中央の画素は前景画素であると
定義され(たとえその画素が、以前に背景画素であると
識別されたとしても)、マスク内の大多数の画素が背景
画素である場合は何の変化も生じないこと以外は、ステ
ップS50と同様の方法で実行される。ステップS52
の効果は、ステップS50での縮小マスク操作で誤って
背景画素であると設定された画素を、前景画素に復帰さ
せることである。
【0048】図5を再び参照すると、ステップS34で
は、前景画素の集団を識別するためにCPU4がデータ
の処理を行う。これは、同じ特性を有する画素の集団を
識別するために、従来の方法によって実行され、まず画
像データを走査して前景画素を識別し、次に隣接する画
素を反復的に検討して接続された全ての前景画素を識別
する。
【0049】ステップS36では、CPU4がステップ
S34で識別された前景画素の次の集団(ここで、ステ
ップS36によって初めて実行されるのは第1の集団で
ある)を考察し、この集団の画素数が30よりも大か否
か判定する。
【0050】画素数が30以下である場合、その集団は
全体画像(本実施の形態では、768画素×512画
素)の比較的小さな部分を形成するので、ノイズを表す
と見なせる。この場合、その集団はそれ以上は処理され
ない。一方、集団の画素数が30より大である場合は、
その集団は動作中の物体を表すと見なされ、更に処理が
実行される。
【0051】ステップS38では、CPU4は画素集団
の大きさを決定する。本実施の形態では、CPU4が、
二次元画像内で画像の辺に平行な辺を有する集団の境界
四角形を決定することにより、この処理を実施する。。
【0052】ステップS40では、CPU4が、ステッ
プS24で算出された変換値を用いてステップS20で
コンピュータモデルが形成された三次元世界空間に、ス
テップS38で決定された境界四角形を投影する。これ
によって、三次元コンピュータモデル内に1つの平面が
作成され、以下に示すように、この平面上には動作中の
対象物体のビデオ画像がユーザに表示するために投影さ
れる。本実施の形態では、三次元コンピュータモデル内
の平面は垂直であり、その底辺は、ステップS24でユ
ーザが選択した点によって定義される3Dモデル内の表
面上にある(対象物体は、観察されるシーンと共に、対
応する実世界表面、図2の例ではフットボール競技場3
4上を動くと想定されるためである)。
【0053】図7に、図5のステップS40で行われる
境界平面の変換の際に、CPU4によって実行される動
作を示す。
【0054】図7を参照すると、ステップS62では、
CPU4が、ステップS24で予め算出した変換値を用
いて座標変換を行うことによって、境界四角形の底辺の
2つのコーナーを像空間から三次元世界空間に投影す
る。境界四角形の底辺の各コーナーは、ステップS24
で予め選択された点によって定義される表面にあるコン
ピュータモデルの三次元世界空間内の点へと変換され
る。
【0055】ステップS64では、CPU4が、ステッ
プS62で変換されたコーナー間の距離を決定すること
により、三次元世界空間内の境界四角形の幅を計算す
る。
【0056】ステップS66では、CPU4が像空間内
の境界四角形の幅と高さの比と、ステップS64で計算
された三次元世界空間内の幅とを用いて、三次元世界空
間内の境界四角形の高さを計算する(即ち、境界四角形
のアスペクト比が、像空間と三次元世界空間とで同一に
維持される)。
【0057】図5を再び参照すると、ステップS42で
は、CPU4が、予めステップS40で計算された三次
元世界空間内の境界四角形の位置と大きさを格納すると
共に、ビデオ画像内の境界四角形から抽出された境界四
角形のテクスチャデータ及び「前景マスク」、即ち前景
画素に対応する境界四角形内の画素を識別するマスクも
格納される。抽出されたテクスチャデータは、3D世界
空間内の境界四角形のテクスチャマップを効果的に提供
する。
【0058】ステップS44では、ステップS34で識
別された前景画素の他の集団でまだ未処理のものが存在
するかどうか、CPU4が判定する。考察中のビデオフ
レーム用の前景画素の全ての集団が上述の方法によって
処理されるまで、ステップS36からS44が繰り返さ
れる。この段階では、動作中の各対象物体の位置を表わ
す1つの平面(境界四角形)が配置され、更に、これら
動作中の対象物体のテクスチャ画像データを、後でユー
ザによって選択される観察点に基づき平面上に投影でき
るように格納する、三次元コンピュータモデルが作成さ
れている。従ってこのデータは、カメラ12から得られ
る1つの二次元画像(ビデオフレーム)の、三次元コン
ピュータモデルに対応する。
【0059】図3を再び参照すると、ステップS8で
は、ステップS4でカメラ12によって記録され未だ処
理されていない他の画像(ビデオフレーム)が存在する
か否か、CPU4が判定する。ステップS4でカメラ1
2により記録された全ての画像が上述の方法で処理され
るまで、ステップS6及びS8が繰り返される。
【0060】ステップS10では、CPU4が、ユーザ
に選択された所望の観察点からの画像を、表示装置18
でユーザに表示する。この段階でCPU4によって表示
される画像は、予め創出された三次元モデルの対象物体
データを使用して作成された、シミュレーションされた
ビデオ画像である。
【0061】図8は、ステップS10での画像表示の際
にCPU4によって実行される処理動作を示す。
【0062】図8を参照すると、ステップS70では、
対象物体が観察される方向が入力装置14を使用してユ
ーザにより定義される。
【0063】ステップS72では、ステップS70で選
択された観察方向に従って、3D世界空間を視野空間へ
と変換する。この変換によって、モデル化された空間全
体よりも通常は狭い範囲である特定の視野が識別され
る。従って、ステップS74では、視野からはみ出る表
面又はその一部を除去するために、CPU4がクリッピ
ング処理を実行する。
【0064】この段階に至るまでは、CPU4によって
処理される対象物体データが三次元座標での位置を定義
する。ステップS76では、3Dコンピュータモデルを
構成する三角形の面の頂点が投影されて、二次元画像を
定義する。
【0065】画像を二次元に投影した後に、「前向
き」、即ち観察者に面している三角形表面、及び「後ろ
向き」、即ち観察者が視認できない三角形表面を識別す
ることが必要である。従って、ステップS78では、後
ろ向きの面を識別して選別する。すなわち、ステップS
78の後には、視認される多角形の三角形の面を識別す
る頂点が二次元内で定義されている。
【0066】ステップS80では、CPU4によって表
面を定義する二次元データが走査変換され、画素値を生
成する。この段階では、画像内の背景を表す表面をレン
ダリングすると共に、ステップS42で格納された適正
なビデオテクスチャデータによって、ステップS40で
先に決定された境界四角形もレンダリングされる。境界
四角形内の前景画素のみが格納されたビデオテクスチャ
データでレンダリングされるが、これらの画素は格納さ
れた「前景マスク」によって定義される。その他の画素
は、背景テクスチャデータでレンダリングされる。ステ
ップS80で作成されたレンダリングデータは、シミュ
レーションされたビデオフレームを表す。ここで、背景
は、ステップS20で創出されたコンピュータモデルか
ら作成され、動作中の各対象物体は、ビデオ画像から抽
出された動作中の対象物体の画像データが投影される背
景(図2の例では、フットボール競技場34)の水平表
面から延びる、垂直な平面として表される。
【0067】ステップS82では、ステップS80で生
成した画素値が、表面ごとにフレームバッファに書き込
まれ、これにより、完全な二次元画像のデータが生成さ
れる。
【0068】ステップS84では、CPU4によって、
画素値を定義する信号が生成される。この信号は、表示
装置18上に対象物体の画像を生成するために用いら
れ、かつ/又は、例えばビデオテープレコーダ20のビ
デオテープなどに記録される。(生成した画像を、この
ビデオテープから更に生成画像を記録することが可能で
ある。)表示又は記録のために、この信号を遠隔の受信
機に伝送することも可能である。
【0069】ステップS86では、ステップS6で先に
創出されたタイムスタンプ付きの他の「フレーム」の三
次元対象物体データで、ユーザに未だ表示されていない
ものが存在するかどうか、CPU4が判定する。このよ
うな対象物体データの全てのフレームが上述の方法に基
づいて表示されるまで、ステップS70からS86が繰
り返され、これによって、シミュレーションされた動く
画像のシーケンスを所望の観察方向からユーザに表示す
ることができる。表示中、ユーザがいつでも観察方向を
変えることができるのは当然である。
【0070】上述の実施の形態に対し、様々な変更点を
加えることが可能である。
【0071】図3を再び参照すると、上述の実施の形態
では、ステップS4で全ての画像を記録した後、ステッ
プS6(画像データを処理して動作中の対象物体を識
別、そこから対象物体データを創出)を実行する。同様
に、ステップS6及びS8を完了した後、ステップS1
0(画像の表示)を実行する。しかしながら、ステップ
S4、S6、S10を、所望の観察方向からユーザに対
し画像を実時間表示させるように実行することが可能で
ある。即ち、ビデオカメラ12によって次のデータのフ
レームが記録される間に、ステップS6及びS10をビ
デオデータの1つのフレーム上で実行することができ
る。この実時間操作が可能なのは、ステップS6及びS
10の処理要件がCPU4上で特に面倒なものではな
く、また、1/30秒間以内という、ビデオフレームを
記録する合間の時間で処理が実施できるからである。
【0072】上述の実施の形態では、動作中の物体は、
グレースケール値を基に識別される。しかしながら、そ
れに加えて又はその代わりに、色及び赤外の値のウィン
ドウを設定し、これらの画像特性を用いて前景物体を識
別することも可能である。
【0073】上述の実施の形態では、CPU4によって
処理する画像を記録するのに1台のビデオカメラ12を
使用している。同様に、3D世界空間内の1つの境界四
角形が計算され、そこにビデオ画像データがレンダリン
グされる。このシステムには、ユーザが境界四角形の平
面内の観察方向を選択する場合、その境界平面によって
定義される動作中の対象物体が、ユーザに表示されない
(ユーザにとっては「エッジオン(edge on)」状態にあ
るから)という問題がある。この問題は、ステップS4
で「動作中」の画像を同時に記録するために複数のカメ
ラを使用することによって、また、閉平面を形成するよ
うに接続した複数の平面(例えば複数の垂直な平面)で
各対象物体を表現することによって、対処できる。ユー
ザに表示するために1つの平面上にレンダリングされる
ビデオ画像データは、表示される境界平面の垂線に最も
近い観察方向をどのビデオカメラが持っているかを決定
することによって、選択される(そのカメラからのビデ
オデータが、境界四角形のテクスチャデータとして使用
される)。
【0074】上述の実施の形態では、カメラに向かう動
作中の対象物体の表面に関するデータのみが記録される
ように、1台のビデオカメラ12によって画像データを
記録する。従って、ステップS70(図8)で、カメラ
12に向かう観察方向をユーザが選択する場合、カメラ
12によって視認されたビデオ画像データが境界四角形
上でレンダリングされ、実際にはユーザには対象物体の
反対側の表面の画像が表示されていても、そのビデオ画
像データがユーザに表示される。この問題は、反対方向
を向いている第1及び第2のカメラを使用することによ
って、また、ユーザが選択する観察方向に最も近い観察
方向をどのビデオカメラが持っているかを判定すること
により、境界四角形上にレンダリングされるビデオデー
タを選択する(このカメラで得られるビデオデータが、
境界四角形上でレンダリングされる)ことによって、克
服することができる。
【0075】なお、本発明は、複数の機器(例えばホス
トコンピュータ,インタフェイス機器,リーダ,プリン
タなど)から構成されるシステムに適用しても、一つの
機器からなる装置に適用してもよい。
【0076】また、本発明の目的は、前述したように実
施形態の機能を実現するソフトウェアのプログラムコー
ドを記録した記憶媒体を、システムあるいは装置に供給
し、そのシステムあるいは装置のコンピュータ(または
CPUやMPU)が記憶媒体に格納されたプログラムコ
ードを読出し実行することによっても達成される。この
場合、記憶媒体から読出されたプログラムコード自体が
前述した実施形態の機能を実現することになり、そのプ
ログラムコードを記憶した記憶媒体は本発明を構成する
ことになる。
【0077】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。
【0078】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれる。
【0079】更に、記憶媒体から読出されたプログラム
コードが、コンピュータに挿入された機能拡張ボードや
コンピュータに接続された機能拡張ユニットに備わるメ
モリに書込まれた後、そのプログラムコードの指示に基
づき、その機能拡張ボードや機能拡張ユニットに備わる
CPUなどが実際の処理の一部または全部を行い、その
処理によって前述した実施形態の機能が実現される場合
も含まれる。
【0080】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明したフローチャートに対応す
る処理を実行するプログラムコードを格納することにな
る。
【発明の効果】以上説明したように、本発明により、ビ
デオ画面内を移動する物体を確実に効率よく三次元コン
ピュータモデル内に表現可能とする画像処理方法及びそ
の装置を提供できる。
【0081】すなわち、本発明によれば、三次元コンピ
ュータモデル内の物体の平面表現を定義するため、移動
している物体の画像を処理する画像処理方法及びその装
置が提供される。画像内の物体の位置を用いてモデル内
での位置を決定し、この物体に対応する画像データをそ
の表現の際に使用する。物体を表現するため、複数の平
面を使用することが可能である。又、本発明は、画像デ
ータ内に記録される移動中の物体の位置を表すために三
次元コンピュータモデル内で平らな表面を定義し、上記
画像データを用いてその表面のテクスチャデータを作成
して、その表現を表示できるようにする画像処理方法及
びその装置を提供する。テクスチャデータは、物体の画
像からの実画素データでよい。
【0082】
【図面の簡単な説明】
【図1】本実施の形態の画像処理装置の構成要素の一例
を示す概略図である。
【図2】本実施の形態の動的環境から得られるビデオデ
ータの集合体の例を示す概略図である。
【図3】本実施の形態において、動画を定義する信号を
処理し、三次元コンピュータモデルを創出し、所望の観
察方向からの画像をユーザに表示するために、本実施の
形態で実行される処理動作例を示す最上位レベルのフロ
ーチャートである。
【図4】図3のステップS2で実行される処理動作例を
示すフローチャートである。
【図5】図3のステップS6で実行される処理動作例を
示すフローチャートである。
【図6】図5のステップS32で実行される処理動作例
を示すフローチャートである。
【図7】図5のステップS40で実行される処理動作例
を示すフローチャートである。
【図8】図3のステップS10で実行される処理動作例
を示すフローチャートである。

Claims (32)

    【特許請求の範囲】
  1. 【請求項1】 シーン内を移動している物体の一連の画
    像を定義する画像データを処理して、前記シーン内での
    前記物体の位置に対応する、三次元コンピュータモデル
    内の複数の位置での前記物体の表現を定義する信号を生
    成する画像処理方法であって、 複数の画像の前記画像データを処理して、前記画像内の
    前記物体の境界を表わす各画像のそれぞれの多角形を定
    義する工程と、 前記物体のそれぞれの位置を表す少なくとも1つの平面
    状表面を三次元コンピュータモデル内で定義する工程で
    あって、各平面状表面が、三次元コンピュータモデル内
    の所定の表面上の底辺と、前記画像内の前記物体の境界
    を表わす前記多角形のそれぞれ1つに対応する位置及び
    サイズとで定義される工程と、 前記画像データに応じて前記物体の形状を表すために、
    前記平面状表面のテクスチャデータを生成する工程とを
    含むことを特徴とする画像処理方法。
  2. 【請求項2】 前記平面状表面の幅が前記画像データ中
    の境界の多角形の幅で決定され、前記平面状表面の高さ
    が前記画像データ中の境界の多角形のアスペクト比を使
    って計算されることを特徴とする請求項1に記載の画像
    処理方法。
  3. 【請求項3】 前記各平面状表面が垂直平面内にあるこ
    とを特徴とする請求項1又は2に記載の画像処理方法。
  4. 【請求項4】 前記物体の境界を表わす多角形が矩形で
    あることを特徴とする請求項1乃至3のいずれか1つに
    記載の画像処理方法。
  5. 【請求項5】 前記矩形の辺が画像の辺に平行であるこ
    とを特徴とする請求項4に記載の画像処理方法。
  6. 【請求項6】 1つの前記平面状表面が、前記三次元コ
    ンピュータモデル内の物体の各位置を表わすように定義
    されることを特徴とする請求項1乃至5のいずれか1つ
    に記載の画像処理方法。
  7. 【請求項7】 複数の接続された平面状表面が前記三次
    元コンピュータモデル内の物体の各位置を表わすために
    定義されることを特徴とする請求項1乃至5のいずれか
    1つに記載の画像処理方法。
  8. 【請求項8】 前記画像データが、前記境界多角形内で
    前記物体の位置を定義するマスクを抽出するために処理
    されることを特徴とする請求項1乃至7のいずれか1つ
    に記載の画像処理方法。
  9. 【請求項9】 三次元コンピュータモデルを創出する工
    程を更に含むことを特徴とする請求項1乃至8のいずれ
    か1つに記載の画像処理方法。
  10. 【請求項10】 前記画像データと、前記三次元コンピ
    ュータモデルを定義するデータとを処理して、その中の
    複数の対応点を識別し、定義された前記対応点を用いて
    前記画像と前記モデルとの間での変換を定義する工程を
    更に含むことを特徴とする請求項1乃至9いずれか1つ
    に記載の画像処理方法。
  11. 【請求項11】 選択された観察方向から前記三次元コ
    ンピュータモデルの画像をレンダリングすることによっ
    て画像データを生成し、そこで前記テクスチャデータが
    前記平面状表面上にレンダリングされる工程を更に含む
    ことを特徴とする請求項1乃至10のいずれか1つに記
    載の画像処理方法。
  12. 【請求項12】 前記画像データを伝達する信号を発生
    させる工程を更に含むことを特徴とする請求項11に記
    載の画像処理方法。
  13. 【請求項13】 前記信号を記録する工程を更に含むこ
    とを特徴とする請求項12に記載の画像処理方法。
  14. 【請求項14】 前記生成した画像データを用いて、前
    記物体の画像を表示する工程を更に含むことを特徴とす
    る請求項11乃至13のいずれか1つに記載の画像処理
    方法。
  15. 【請求項15】 前記画像データの記録を直接又は間接
    に実施する工程を更に含むことを特徴とする請求項11
    乃至14のいずれか1つに記載の画像処理方法。
  16. 【請求項16】 シーン内の表面を移動する物体の三次
    元コンピュータモデルを創出する画像処理方法であっ
    て、 前記シーンの画像から決定された前記シーン内の物体の
    位置に応じた位置を有する少なくとも1つの平面状表面
    と、物体が移動する表面と三次元コンピュータモデルの
    表面との間のマッピングを定義する変換とを用いて、前
    記物体がモデル化されることを特徴とする画像処理方
    法。
  17. 【請求項17】 シーン内の物体の動きをモデル化する
    画像処理方法であって、 前記移動物体の画像が画像データが記録された位置ある
    いは記録装置の画像形成パラメータの予備知識なしに処
    理されて、前記シーンの三次元コンピュータモデル内で
    平面状表面と前記平面状表面上にレンダリングするテク
    スチャデータとを作成することを特徴とする画像処理方
    法。
  18. 【請求項18】 シーン内を移動している前記物体の一
    連の画像を定義する画像データを処理して、前記シーン
    内での物体の位置に対応する三次元コンピュータモデル
    内の複数の位置における前記物体の表現を定義する信号
    を発生する画像処理装置であって、 複数の画像の前記画像データを処理して、前記画像内の
    前記物体の境界を表わす各画像のそれぞれの多角形を定
    義する第1処理手段と、 前記物体のそれぞれの位置を表す少なくとも1つの平面
    状表面を三次元コンピュータモデル内で定義する第2処
    理手段であって、各平面状表面が、三次元コンピュータ
    モデル内の所定の表面上の底辺と、前記画像内の前記物
    体の境界を表わす前記多角形のそれぞれ1つに対応する
    位置及びサイズとで定義する第2処理手段と、 前記画像データに応じて前記物体の形状を表すために、
    前記平面状表面のテクスチャデータを生成する第3処理
    手段とを含むことを特徴とする画像処理装置。
  19. 【請求項19】 前記第2処理手段が、前記平面状表面
    の幅が前記画像データ中の境界の多角形の幅で定義さ
    れ、前記平面状表面の高さが前記画像データ中の境界の
    多角形のアスペクト比を使って決定されるように、前記
    平面状表面を定義するよう構成されることを特徴とする
    請求項18に記載の画像処理装置。
  20. 【請求項20】 前記第2処理手段が、前記各平面状表
    面が垂直平面内にあるように定義されるよう構成される
    ことを特徴とする請求項18又は19に記載の画像処理
    装置。
  21. 【請求項21】 前記物体の境界を表わす多角形が矩形
    であることを特徴とする請求項18乃至20のいずれか
    1つに記載の画像処理装置。
  22. 【請求項22】 前記矩形の辺が画像の辺に平行である
    ことを特徴とする請求項21に記載の画像処理装置。
  23. 【請求項23】 前記第2処理手段が、1つの前記平面
    状表面が、前記三次元コンピュータモデル内の物体の各
    位置を表わすように定義されるよう構成されることを特
    徴とする請求項18乃至22のいずれか1つに記載の画
    像処理装置。
  24. 【請求項24】 前記第2処理手段が、複数の接続され
    た平面状表面が前記三次元コンピュータモデル内の物体
    の各位置を表わすために定義されるよう構成されること
    を特徴とする請求項18乃至22のいずれか1つに記載
    の画像処理装置。
  25. 【請求項25】 前記境界多角形内で前記物体の位置を
    定義するマスクを抽出するために前記画像データを処理
    する手段を更に含むことを特徴とする請求項18乃至2
    4のいずれか1つに記載の画像処理装置。
  26. 【請求項26】 前記三次元コンピュータモデルを創出
    する手段を更に含むことを特徴とする請求項18乃至2
    5のいずれか1つに記載の画像処理装置。
  27. 【請求項27】 前記画像データと、前記三次元コンピ
    ュータモデルを定義するデータとを処理して、その中の
    複数の対応点を識別し、定義された前記対応点を用いて
    前記画像と前記モデルの間での変換を定義する手段を更
    に含むことを特徴とする請求項18乃至26のいずれか
    1つに記載の画像処理装置。
  28. 【請求項28】 観察方向から前記三次元コンピュータ
    モデルの画像用の画像データを作成するため、前記平面
    状表面上にテクスチャデータをレンダリングする手段を
    更に含むことを特徴とする請求項18乃至27のいずれ
    か1つに記載の画像処理装置。
  29. 【請求項29】 シーン内の表面を移動する物体の三次
    元コンピュータモデルを創出する画像処理装置であっ
    て、 前記シーンの画像から決定された前記シーン内の物体の
    位置に応じた位置を有する少なくとも1つの平面状表面
    と、物体が移動する表面と三次元コンピュータモデルの
    表面との間のマッピングを定義する変換とを用いて、前
    記物体がモデル化する手段を含むことを特徴とする画像
    処理装置。
  30. 【請求項30】 シーン内の物体の動きをモデル化する
    画像処理装置であって、 前記移動物体の画像が画像データが記録された位置ある
    いは記録装置の画像形成パラメータの予備知識なしに処
    理して、前記シーンの三次元コンピュータモデル内で平
    面状表面と前記平面状表面上にレンダリングするテクス
    チャデータとを作成する手段を含むことを特徴とする画
    像処理装置。
  31. 【請求項31】 プログラマブル処理装置に請求項1乃
    至17のいずれか1つに記載の画像処理方法を実行させ
    るための命令を格納する記憶媒体。
  32. 【請求項32】 プログラマブル処理装置に請求項1乃
    至17のいずれか1つに記載の画像処理方法を実行させ
    るためのプログラム。
JP26204298A 1997-09-16 1998-09-16 画像処理装置 Expired - Fee Related JP4217305B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GBGB9719694.3A GB9719694D0 (en) 1997-09-16 1997-09-16 Image processing apparatus
GB97196943 1997-09-16

Publications (2)

Publication Number Publication Date
JPH11149575A true JPH11149575A (ja) 1999-06-02
JP4217305B2 JP4217305B2 (ja) 2009-01-28

Family

ID=10819160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26204298A Expired - Fee Related JP4217305B2 (ja) 1997-09-16 1998-09-16 画像処理装置

Country Status (5)

Country Link
US (1) US6421459B1 (ja)
EP (1) EP0903695B1 (ja)
JP (1) JP4217305B2 (ja)
DE (1) DE69812518T2 (ja)
GB (1) GB9719694D0 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064445A (ja) * 2007-09-05 2009-03-26 Sony United Kingdom Ltd 画像処理装置及び方法

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60231373D1 (de) 2001-01-11 2009-04-16 Smal Camera Technologies Inc Angepasste empfindlichkeitssteuerung auf einer pixel-zu-pixel-basis für eine digitale bildaufnahmevorrichtung
US6747647B2 (en) * 2001-05-02 2004-06-08 Enroute, Inc. System and method for displaying immersive video
GB2382033A (en) * 2001-07-16 2003-05-21 Samantha Bhalla A sports analysis system intended for use in a betting game
US20030046177A1 (en) * 2001-09-05 2003-03-06 Graham Winchester 3-dimensional imaging service
GB2383915B (en) * 2001-11-23 2005-09-28 Canon Kk Method and apparatus for generating models of individuals
US7190809B2 (en) 2002-06-28 2007-03-13 Koninklijke Philips Electronics N.V. Enhanced background model employing object classification for improved background-foreground segmentation
US7173666B1 (en) 2002-08-22 2007-02-06 Smal Camera Technologies System and method for displaying a non-standard aspect ratio image on a standard aspect ratio monitor
US20040189828A1 (en) * 2003-03-25 2004-09-30 Dewees Bradley A. Method and apparatus for enhancing a paintball video
US7884848B2 (en) * 2005-05-25 2011-02-08 Ginther Mark E Viewing environment and recording system
US9158975B2 (en) * 2005-05-31 2015-10-13 Avigilon Fortress Corporation Video analytics for retail business process monitoring
US8131077B2 (en) * 2007-04-03 2012-03-06 Flashfoto, Inc. Systems and methods for segmenting an image based on perceptual information
DE102007056835A1 (de) 2007-11-26 2009-05-28 Robert Bosch Gmbh Bildverarbeitunsmodul zur Schätzung einer Objektposition eines Überwachungsobjekts, Verfahren zur Bestimmung einer Objektposition eines Überwachungsobjekts sowie Computerprogramm
US9311567B2 (en) 2010-05-10 2016-04-12 Kuang-chih Lee Manifold learning and matting
US9525802B2 (en) 2013-07-24 2016-12-20 Georgetown University Enhancing the legibility of images using monochromatic light sources
US9269126B2 (en) * 2013-07-24 2016-02-23 Georgetown University System and method for enhancing the legibility of images
US11074827B2 (en) * 2017-08-25 2021-07-27 Aurora Flight Sciences Corporation Virtual reality system for aerial vehicle
CN108597010A (zh) * 2018-04-19 2018-09-28 北京知道创宇信息技术有限公司 三维巡航渲染方法及装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0437313A (ja) 1989-12-06 1992-02-07 Texas Instr Inc <Ti> 論理状態検出センス回路装置及び検出方法
US5341467A (en) * 1991-12-30 1994-08-23 Xerox Corporation Method and apparatus for generating and displaying freeform strokes of varying or constant width using adaptive forward differencing
WO1993019441A1 (en) * 1992-03-20 1993-09-30 Commonwealth Scientific And Industrial Research Organisation An object monitoring system
US5363297A (en) * 1992-06-05 1994-11-08 Larson Noble G Automated camera-based tracking system for sports contests
EP0669758B1 (en) 1993-09-06 2000-03-08 Kabushiki Kaisha Oh-Yoh Keisoku Kenkyusho Time-varying image processor and display device
FR2710434B1 (fr) * 1993-09-20 1995-11-10 Daver Gil Dispositif d'acquisition en temps réel de données relatives à des personnes en mouvement.
CA2179809A1 (en) * 1994-01-10 1996-08-20 Richard C. Fuisz Viewing imaged objects from selected points of view
US5511153A (en) 1994-01-18 1996-04-23 Massachusetts Institute Of Technology Method and apparatus for three-dimensional, textured models from plural video images
JP3638637B2 (ja) * 1994-06-17 2005-04-13 株式会社ナムコ ポリゴンデータ変換装置及び3次元シミュレータ装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US5714997A (en) 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US5671086A (en) * 1995-04-18 1997-09-23 The Regents, University Of California Method and apparatus for accurately manipulating an object during microelectrophoresis
FR2741225A1 (fr) * 1995-11-13 1997-05-16 Production Multimedia Apm Atel Console de camera virtuelle
US6268862B1 (en) * 1996-03-08 2001-07-31 Canon Kabushiki Kaisha Three dimensional virtual space generation by fusing images
US6124862A (en) 1997-06-13 2000-09-26 Anivision, Inc. Method and apparatus for generating virtual views of sporting events

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064445A (ja) * 2007-09-05 2009-03-26 Sony United Kingdom Ltd 画像処理装置及び方法
US8284238B2 (en) 2007-09-05 2012-10-09 Sony Corporation Image processing apparatus and method

Also Published As

Publication number Publication date
EP0903695B1 (en) 2003-03-26
EP0903695A1 (en) 1999-03-24
US6421459B1 (en) 2002-07-16
DE69812518T2 (de) 2003-12-11
GB9719694D0 (en) 1997-11-19
JP4217305B2 (ja) 2009-01-28
DE69812518D1 (de) 2003-04-30

Similar Documents

Publication Publication Date Title
JP4217305B2 (ja) 画像処理装置
US6914599B1 (en) Image processing apparatus
JP6560480B2 (ja) 画像処理システム、画像処理方法、及びプログラム
US6396491B2 (en) Method and apparatus for reproducing a shape and a pattern in a three-dimensional scene
US8289317B2 (en) Automatic 3D modeling
US6016148A (en) Automated mapping of facial images to animation wireframes topologies
CN109711246B (zh) 一种动态物体识别方法、计算机装置及可读存储介质
JP2008102972A (ja) 自動3dモデリングシステム及び方法
EP2065854B1 (en) posture dependent normal vectors for texture mapping
CN109064533B (zh) 一种3d漫游方法及系统
US20030146918A1 (en) Appearance modelling
US11228706B2 (en) Plate reconstruction of obscured views of a main imaging device using capture device inputs of the same scene
JPH11144076A (ja) 映像作成装置
JPH10111934A (ja) 3次元形状モデル作成方法及び媒体
CN115908585B (zh) 基于时序坐标信息的单阶段多人网格模型构建方法及系统
JP3706545B2 (ja) 画像の生成方法及びそれに用いるプログラム
JPH06332993A (ja) 景観の解析・予測システム
CN115775292A (zh) 一种动作捕捉数据映射方法、装置、存储介质及电子设备
JP2026011336A (ja) 情報処理装置、情報処理方法及びプログラム
JP2026028410A (ja) 映像データから3次元モデルを生成するシステム
CN118474327A (zh) 视频编辑方法、装置、设备及存储介质
Jeftha RGBDVideoFX: Processing RGBD data for real-time video effects
JP2001028049A (ja) 3次元形状取得方法、装置及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050908

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20050908

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080701

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080728

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081024

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081110

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111114

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121114

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131114

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees