JPH04169980A - レンダリング装置 - Google Patents

レンダリング装置

Info

Publication number
JPH04169980A
JPH04169980A JP29679090A JP29679090A JPH04169980A JP H04169980 A JPH04169980 A JP H04169980A JP 29679090 A JP29679090 A JP 29679090A JP 29679090 A JP29679090 A JP 29679090A JP H04169980 A JPH04169980 A JP H04169980A
Authority
JP
Japan
Prior art keywords
information
texture
light source
model
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP29679090A
Other languages
English (en)
Inventor
Michio Kurata
道夫 倉田
Toshio Motegi
敏雄 茂出木
Hideki Murota
秀樹 室田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP29679090A priority Critical patent/JPH04169980A/ja
Publication of JPH04169980A publication Critical patent/JPH04169980A/ja
Priority to US08/396,895 priority patent/US5566283A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 【産業上の利用分野】 本発明は、レンダリング装置に係り、特に、コンピュー
タ・グラフィックス(CG)の画像製作、例えばCGカ
レンダー、CGホログラム、CGアニメーション、CG
コマーシャル、CGポスター、あるいは、ハイビジョン
CG静止画番組を製作する際に用いるのに好適な、レン
ダリング装置に関する。 【従来の技術】 コンピュータ内で図形や画像を生成するコンピュータ・
グラフィックス(CG)技術は、今日、コンピュータの
高機能化、メモリの低価格化、大容量化等により、高速
化、高密度化が著しくなっている。このため、CG画像
は5.映像メディア情報、ハイビジョン静止画番組、印
刷画像情報等積々の分野への利用が考えられる。 コンピュータで生成されるCG画像は、物体にある光を
照射してそれをカメラで写した情景を画像として表示す
るものである。C0画像データの生成においては、前記
物体に関する情報(CGモデル)を生成する作業と、生
成されたCGモデルに種々の処理を施して物体形状を画
像として表示を行うレンダリングとを行うのが通常であ
る。 前記CGモデルは、一般に、生成しようとする物体の形
状データ、例えば面の集まりで表わした形状データと、
前記物体形状の3次元位置データと、前記物体を写す(
仮想)カメラの情報、例えばカメラの位置(視点)、カ
メラの向き(注視点)からなるカメラ位置情報と、カメ
ラの画角・縦横比からなるカメラ情報と、前記物体の質
感情報、例えば環境反射率等と、前記物体に光を照射す
るライト情報、例えばライトの3次元位置や種類と、マ
ツピングの種類の情報とから主に構成される。 このように生成されたCGモデルのレンダリングは、こ
のCGモデル生成用システムと一体となったレンダリン
グシステムで実施するのが一般的である。 又、前記CGモデルをあるシステムAで生成し、そのC
Gモデルを他のシステムBでレンダリングを行うことが
望まれている。 特に、システムBの処理速度が高速な場合、システムA
で製作した物体情報をそのシステムAより高速な他のシ
ステムBで処理することが望まれる場合がある。この場
合、CGモデルにおいて形状データについてはシステム
Aで製作したものをシステムBに渡し処理することが、
一般に行われている。 【発明が解決しようとする課!!l!!]しかしながら
、従来、他のCGモデルのパラメータ(質感パラメータ
、光源パラメータ、マツピングパラメータ等)について
は、システム間の陰影計算モデルの相違によりデータを
渡してレンダリングすることができなかった。 従って、従来は、あるシステムAで製作したCGモデル
を高速なシステムBで処理することを望む場合、形状デ
ータのみしかシステムBに渡せず、他のCGモデルのデ
ータはシステムBで新たに製作するしかなかっな。 よって、例えば、以前に、速度の遅い古いシステムで作
ったCGモデルを新しい高速なシステムでレンダリング
することができず、そのモデルは低速のシステムでレン
ダリングするしかなくCG製作の高速化が困難であると
いう問題点があった。 又、CG画像の製作においては、形状データ以外のCG
モデル(質感モデル等)については、CGデデー製作シ
ステム毎に、各々異なったCGモデルを生成する必要が
あり、作業負荷が非常に大きいという問題点もあった。 なお、あるシステムAのCGモデル情報にはシテスムA
から読出した際に、そのままでは情報フォーマットの関
係から用い難い情報があるという問題点があった。 本発明は、前記従来の問題点を解消するべくなされたも
ので、第1のシステムで生成したCGモデルを、第2の
システムとの間の陰影計算モデルの相違を吸収して第2
のシステム用に変換することを可能とし、従って、高速
なC0画像データの製作や、C0画像データの広範囲の
利用を図ることができる、レンダリング装置を提供する
ことを課題とする。 【課題を解決するための手段】 本発明は、コンピュータグラフィックスシステムにおい
て、第1のシステムが製作した物体形状情報、カメラ情
報、カメラ位置情報、光源位置情報、物体形状の位置情
報、質感情報、光源情報、マツピング情報等からなるコ
ンピュータグラフィックスモデルを、第1のシステムと
は陰影計算モデルが相違する第2のシステムでレンダリ
ングするための装置であって、第1のシステムの質感情
報を入力して、第2のシステム用の質感情報に変換する
ための手段、第1のシステムの光源情報を入力して、第
2のシステム用の光源情報に変換するための手段、及び
、第1のシステムのマツピング情報を入力し、第2のシ
ステム用のマッピング情報に変換するための手段を含み
、前記陰影計算モデルの相違を吸収するためのインタフ
ェイス部と、第1のシステムから読出される情報のうち
インタフェイス部の情報フォーマットと異なる情報フォ
ーマットで読出されたものを前記インタフェイス部の情
報フォーマットに変換するための手段とを備えたことに
より、前記課題を解決するものである。 【作用】 第1のシステムのコンピュータグラフィ・ツクス(CG
)モデルを、第1のシステムとは陰影計算モデルの相違
する第2のシステム用のCGモデルとしては従来用いる
ことができなかっな。 これに対して、本発明は、第1のシステムの質感情報を
入力して第2のシステム用の質感情報に変換し、第1の
システムの光源情報を入力して第2のシステム用の光源
情報に変換し、第1のシステムのマツピング情報を入力
して第2のシステム用のマツピング情報に変換して、前
記陰影計算モデルの相違を吸収する。 又、第1のシステムから読出される情報のうちインタフ
ェイス部の情報フォーマットと異なる情報フォーマット
で読出されるもの、例えばカメラ情報、カメラ位置情報
、光源位置(3次元的位置等)及び物体形状位置(3次
元的位il!f)があり、そのt、tではインタフェイ
ス部で変換ができない。 そこで、本発明は、その読出した情報をインタフェイス
部の情報フォーマットで記述する。 従って、第1のシステムで生成したCGモデルを第2の
システムに渡してレンダリングが行えることから、CG
製作効率が向上する。 よって、種々のシステムA、B、・・・用に各々異なっ
たCG製作パラメータを設定する必要がなくなることか
ら作業負荷が低減する。又、各システム毎にCG製作パ
ラメータを保存・管理する必要がなくなる。 又、以前に低速のシステムで製作したCG画像データを
用いて他の高速なシステムでレンダリングを行うことが
できる。従って、古いシステムで蓄積したCG製作のノ
ウハウを失うことなく、新しいシステムに移行すること
ができる。又、計算機の高速化に伴い、CGシステムの
高速化が自由に図れる。更に、以前から蓄積されている
CGモデルを応用して種々のレンダリングを施す等有効
に利用することができる。 【実施例】 以下、図面を参照して本発明の実施例を詳細に説明する
。 この実施例は、第1図に示すような構成のレンダリング
システムである。 第1図に示すように、このレンダリングシステムは、C
Gモデルを生成するシステムA(符号1)と、該システ
ムAと陰影計算モデルの相違するシステムB(符号2)
と、システムAからカメラ情報物体形状データ等を読込
んでインタフェイス部3の情報フォーマットに変換する
ための情報フォーマット変換部4と、システムAで生成
されたCGモデルをシステムBに陰影計算モデルの相違
を吸収して渡すためのレンダリング・インタフェイス部
3とを主に備える。 前記システムAは、CGモデルを生成するためのもので
あり、CGで表示しようとする物体形状を設計し指定す
るための形状設計指定部6と、カメラ情報、カメラ位置
情報、光源(ライト)の位置情報、物体形状の位置情報
を指定するためのカメラ・光源・形状位置情報指定部7
と、形状物体の面の質感情報、光源情報、及びマツピン
グ情報を指定するための質感・光源・マツピング情報指
定部8とを備える。なお、実施例では前記物体形状は面
の集まりで表わされ、当該面は頂点情報(X、Y、Z座
標)の集まりで表わされる。又、物体形状位置は、3次
元的位置(X、Y、Z座標)で表わされる。又、カメラ
情報は物体を写そうとするカメラの画角・縦横比からな
るものである。 又、カメラ位置情報は、カメラの位置(視点)、カメラ
の向き(注視点)からなるものである、又、前記質感情
報は、面の環境反射率Ka、面の拡散反射率Kd、面の
鏡面反射率KS、鏡面反射係数eXp 、透過率tra
についての各パラメータ(質感パラメータ)で表わされ
る。又、前記光源情報は、光源の種類(点、スポット、
平行)、色、強度、位置(3次元的位置、X、Y、Z%
標)、減衰率についての各パラメータ(光源パラメータ
)で表わされる。又、マツピング情報はマツピンクの種
類(テクスチャ、バンブ等)、マツピングのスゲールか
らなるマツピング画像で表わされる。これらの内容は後
に詳述する。 前記情報フォーマット変換部4は、前記システムAで生
成されたカメラ情報、カメラ位置情報、光源の3次元的
位置情報、物体の3次元的位置情報が読出されるに際し
てインタフェイス部の情報フォーマットとは異なる情報
フォーマットで読出されるため、これらの情報をインタ
フェイス部3の情報フォーマットに変換してインタフェ
イス部3に送出すものである。 前記インタフェイス部3は、詳細には第2図に示すよう
な構成を有しており、前記システムAで生成されたCG
モデルを、陰影計算モデルの相違を吸収してシテスムB
に渡すものである。 前記システムBは、前記インターフェイス部3で変換さ
れたCGモデルに対してレンダリングを施すものである
4例えば、このレンダリングには、2バツフア法、レイ
トレイジング法等を用いることができる。 ここで、前記インターフェイス部3の詳細な構成を第2
図を用いて説明する。第2図のインターフェイス部3は
、システムAで生成されたCGモデルのうち、質感パラ
メータ、マツピンク画像、光源パラメータのデータ(以
下、質感モデルという)を読込むためのシステムA用質
感モデル読込み格納装置10と、当該CGモデルの物体
形状のデータ、物体形状の3次元的位置のデータを入力
するための形状データ、形状位置入力装置12と、当該
CGモデルのカメラ情報、カメラ位置を入力するための
カメラ情報、カメラ位置入力袋f38と、前記システム
Aで製作されたCGモデルのうち、所定の変換を行いシ
ステムB用の質感モデルデータとなった当該データを読
込み格納するためのシステムB用質感モデル読込み格納
装置14、前記システムA用質感モデルをシステムB用
の質感モデルに変換してシステムBへ受は渡すためのレ
ンダリング・インタフェイス(I/F)装置18と、前
記装置12に格納されている形状データ、形状位置デー
タ、前記装置38に格納されているカメラ情報、カメラ
位置データ、前記装置14に格納されているシステムB
用質感モデルデータを読込み、レンダリング処理を実施
するシステムB(投影画像作成装置)16とを主に備え
る。 前記システムA用質感モデル読込み格納装置10は、各
パラメータを読込み格納するための質感パラメータ読込
み格納部20、マツピング画像読込み格納部22、及び
光源パラメータ読込み格納部24とを有する。 又、前記システムB用質感モデル読込み格納装置14は
、受は渡された各パラメータを読込み格納するための質
感パラメータ読込み格納部26、マツピング画像読込み
格納部28、及び光源パラメータ読込み格納部30とを
備える。 又、前記レンダリングI/F装置18は、システムA用
の質感モデルをシステムB用の質感モデルに受は渡すた
め、各パラメータを変換するための質感パラメータ変換
部32、マツピング画像変換部34、光源パラメータ変
換部36とを備える。 なお、前記カメラ情報、カメラ位置格納装置38に入力
されるカメラ情報は実施例では、カメラの画角・縦横比
を表わしたものとする。又、カメラ位置は、カメラの三
次元的位置(視点)、カメラの三次元的向き(注視点)
で表わしたものとする。 次に、前記システムA用、及びシステムB用の各質感モ
デルと、それら質感モデルの受は渡しに際してレンダリ
ングI/F装置18で各システムA及びB間の陰影計算
モデルの相違を吸収するため用いる変換式の例を以下に
説明する。 まず、質感パラメータ変換部32においては質感パラメ
ータの変換を次のように行う。 この場合、システムA用の各質感パラメータについては
、式(1)〜(5)のように、(1)式:面の環境反射
率(aI!b 1ent ;a )、(2);面の拡散
反射率(diffuse;+j )、(3)式;面の鏡
面反射率(5pecular+s)、(4)式;鏡面反
射係数(exponent;exp) 、及び(5)式
;透過率(transparency)を表ワス。 A  a   red、A  a−green。 A  a   blue−(1) A−σ−red 、  A  d   (lr6en 
 。 A  d   blue−(2) A  S   red、A  S   Green。 A  s   blue・(3) A  eXp                ・・・
(4)A  transparency       
    −(5)但し、(1)、(2)、(3)式にお
いては、末生のredは赤、greenは緑、blue
は青の各色についてのものであることを示している。 又、(1)式の面の環境反射率のパラメータA−a〜に
は、経験からの反射率を反映したパラメータを用いるこ
とができる。 又、システムB用の各質感パラメータは、前記システム
A用の質感パラメータにおける面の環境反射率Aa−〜
等と同様に、式(6)〜(10)のように、(6)式:
面の環境反射率、(7):面の拡散反射率、(8)式;
面の鏡面反射率、くっ)式;鏡面反射係数、及び(10
)式;透過率を表わす。 B  a  red、B  a  Qreen。 B  a  blue−(6) B  d   red、B  d−green。 B  d  blue−(7) B  S  red、B  S−green。 B  s  blue−(8) B  13XI)              ・・・
(9)B  transparency       
 = (10)前記のようなシステムA用の質感パラメ
ータをシステムB用の質感パラメータに変換する式は次
のようになる。 まず、面の環境反射率については、面にテクスチャを貼
り付けない場合の変換式には、例えば式(11)〜(1
3)を用いることができ、テクスチャを貼り付ける場合
の変換式には、例えば式(14)〜(16)を用いるこ
とができる。 B  a   red=A  a   red    
−(11)B  a   areen =A  a  
 areen−(12)B  a   blue=A 
 a   blue   −<13)B  a  re
d=A  a  red/A  d  red・・・ 
(14) B  a   Qreen =A  a   green /A  d   gre
en・・・ (15) B  a  blue=A  a  blue/A  
d  blue・・・ (16) 又、拡散反射率については、システムA用のものをシス
テムB用に、(17)〜(19)式のようにそのまま代
入する。 B  d  red=A  d  red   −(1
7)B  d  green =A  d  gree
n −= (18)B  d  blue=A  d 
 blue   −<19)又、鏡面反射率については
、第3図(λ)〜(C)に示す手順により算出する。第
3図の手順において、まず、鏡面反射率の中間的な変数
(中間変数)INS及び拡散反射率の中間変数ndにo
、。 を入れて初期化する(ステップ1)1次いで、拡散反射
率のメモリ変数d  〔0)、d  (1)、(1〔2
〕と鏡面反射率のメモリ変数5(0)、5(1)、s 
 (2)とに各拡散反射率パラメータAd−〜と前記鏡
面反射率パラメータAS  〜の各データを格納する(
ステップ2)。 次いで、メモリ変数s 〔0〕〜s 〔2〕に格納され
た鏡面反射率の最大値を前記中間変数isに入れる。又
、当該最大値となる中間変数の配列番号0〜2をインデ
ックスJIS  n1Jlに代入する。又、メモリ変数
d 〔0〕〜d 〔2〕に格納された拡散反射率の最大
値を中間変数1dに代入する(ステップ3)。 次いで、各中間変数rzd及びIsが0でないか否かを
判定する(ステップ4)0判定の結果、いずれかの中間
変数+1d、 Itsが0であるならば、第3図   
 □(C)に示すステップ5へ進んで各メモリ変数S〔
0〕〜S 〔2〕中の鏡面反射率(システムAの鏡面反
射率)をそのままシステムBの鏡面反射パラメータBs
−〜に代入する(ステップ5)。 この場合、拡散反射率及び鏡面反射率のいずれも0なら
ばパラメータは環境反射率成分のみとなる。 一方、中間変数rad及びIsがいずれも0でないなら
ば、拡散反射率、鏡面反射率のいずれも存在し処理し得
るため、処理を続行するべくステップ6に進む。 次いで、色合せの係数tdを、式(20)から求め、前
記メモリ変数S 〔0〕〜S 〔2〕中の各色鏡面反射
率について、メモリ変数d 〔0〕〜d〔2〕の各色拡
散反射率、及び色合せの係数tdを用いて、式(21)
〜(23)°により変換し、その変換値をメモリ変数b
s (o )〜bs (2:lのそれぞれに入れる(ス
テップ6)。 td=(d  (0)+d  (1)〒d  [:2)
)X2・・・(20) bs(0)=(d  (1)+d  〔2))/ld+
s  Co)   ・・・(21)bs(1)=(d 
 Co)+d  [2))/ld+5(1)  ・・・
(22) bs[2)= (d  [:O) 十d  [:j))
/ld十s  [−23・ (23) この(20)〜(23)式による変換は、鏡面反射率の
各色データに他の色の拡散反射率を加味した増加補正を
加えるものである。 次いで、先のステップ3で求めた最大鏡面反射率を与え
る番号ff1s  nullを用いて、当該番号の鏡面
反射率の前記補正前S  (Is  nulll)と補
正後bsCIIS  nun ”Jとの比を(24)式
のように求めて、当該比を変数coefに入れる(ステ
ップ7)。 coef=s  (ns  null) /bs[ns
  nul:1・・・(24) 次いで、インデックスJ−〇として初期化しくステップ
8)、補正後のメモリ変数bs[j)を正規化するべく
、式(25)のように、当該bsCj)に前記変数co
e fを乗じ、新たにbsCj)とする(ステップ9)
。 bs(j ) =bs(j ) xcoef    −
(25)次いで、(25)式で変数coefを乗じた後
のメモリ変数bs(j)の値が鏡面反射係数の最大値5
(ns  nun )より大きいか否かを判断する”(
ステップ10)4判断の結果が正であるならば、前記鏡
面反射係数の最大値5(is  nul)を補正メモリ
変数bs(j)に入れ(ステップ11)、次のステップ
12に進む、一方、判断結果が否であるならばメモリ変
数bsCj)をそのままとして次のステップ12に進む
、これにより、鏡面反射率を正規化できる。即ち、各色
鏡面反射率において補正後の最大値が補正前の最大値を
超えないようにすることができる。 次いで、前記(20)〜(23)式による変換後のメモ
リ変数bs(j)の値が変換前のメモリ変数5(j)の
値より小さいか否かを判断する(ステップ12)0判断
結果が正であるならば、前記メモリ変数bs(j)に5
(j)の値を入れ(ステラ713)、判断結果が否であ
るならば前記メモリ変数bs(j)の値はそのままとし
て次以降のステップに進む。 次いで、インデックスjを1インクリメントする(ステ
ップ14)、インクリメントの結果、jく3が成立する
ならば、次のメモリ変数bscj)(」=1ならばj=
2の如く)について変換するべく、ステップ9に戻って
ステップ9以降の処理手順を実行する(ステップ15)
、一方、j<3が成立せず、j≧3であるならば、次の
ステップ16に進む。 次いで、システムB用の面の鏡面反射パラメータ(赤)
B  s  redに前記メモリ変数bs CO)の値
を入れ、同パラメータ(緑)B  s  greenに
前記メモリ変数bs [1)の値を入れ、同パラメータ
(青)B  s  blueに前記メモリ変数bs C
2)の値を入れる(ステップ16)、このステップ16
を終了し、あるいは、ステップ5を終了することにより
、質感パラメータのうち鏡面反射率についてシステムA
用のものをシステムB用のものに変換することが終了す
る。 又、鏡面反射係数A  8Xpについては、例えば次式
(26)でシステムA用のものをシステムB用のものに
変換する。 B  eXl) =A  elXI) X215   
・(26)(26)式における定数215は両システム
の絞りの違いによるハイライトの大きさを合わせるもの
で種々のデータをとり、経験的に求めたものである。勿
論システムの特性に従って適宜の値を選べるものである
。 又、透過率A  transparencyについては
、例えば第4図に示すテーブルを用いてシステムB用の
透過率B  transparencyに変換する。 なお、第4図の関俤は種々のデータを総合的に勘案して
求めたものであり、システムに応じて適宜の値を選べる
。 マツピング画像変換については、以下のように行う。 システムAにおいてマツピング画像のパラメータは、赤
、緑、青についてA  c  red、A  cgre
en、ACblueで表わす、なお、システムAがマツ
ピングを行った際の環境反射率、拡散反射率のパラメー
タA  a  red、A  d  red等は、式(
27)〜(32)で計算される。 A  a  red=A  a  redxA  c 
 red・・・(27) A   a   gr138n =A  a   Qrln  XA  CQreen・
・・ (28) A   a   tllLIe=A   a   bl
ueXA   Cblue・・・ (29) A   d   red=A   d   redxA
   c   red・・・ (30) A   d   green =A  d   (Jreen  XA  C−gr1
3en・・・ (31) A   d   blue=A   d   blue
xA   c   blue・・・ (32) 又システムBのマツピング画像は、赤、緑、青の各デー
タをB  c  red、B  c  green、B
c  blueとする。この場合に、システムBがマツ
ピングを行った際の環境反射率、拡散反射率のパラメー
タB  a  red、B  d  red等は、以下
の式(33)〜(38)で計算される。 B  a  red=B  c  redxB  a 
 rea   −<33)B  a   Green=
B  CQreenXB  a   green   
−<34)B  a   blue=B  c   b
luexB   a   blue    −(35)
B  d  red=B  c  red     −
<36)B  d  vreen=B  c  qre
en  ・(37)B  d  blue=B  c 
 blue    −(38)従って、システムA用の
ものをシステムB用のものにマツピング画像を変換する
式は、次式(39)〜(41)となる。 B  c  red=A  c  redxB  d 
 red・・・〈39) B   c   green =A  c  areen xB  d  areen
・・・(40) B  c  blue=A  c  bluexB  
d  blue・・・(41) 光源パラメータの変換は次のように行う、システムAの
光源パラメータは、ライトの位置(×。 y、z座標で表わす)をA  X、A  V、A  Z
と−ライトの向き(X 、 v 、 z座標で表わす)
をA  nx、 A  ny、 A  nzと、ライト
の絞りをA−exp +ライトの色(3原色red 、
 green 、 blueで表わす)をA  red
 、 A  oreen 、 A  blue、ライト
の種類(平行光、点光源、スポット光源)をA  mo
deで表わす、なお、この場合システムAの光源は減衰
しないものと考える。 又、システムBの光源パラメータは、AシステムAと同
様に、ライトの位置をB  X、B  Y、B−2、ラ
イトの向きをB  nx、 B  ny、 B  nz
、ライトの絞りをB13Xp、ライトの色B  red
、B  green 、 B  blue、ライトの強
度をB  1ntenSity 、ライトの種類をB 
 modeで表わす、なお、システムBの光源は例えば
1/距離で減衰するものとする。従って、暗くなり過ぎ
るのを防止するためライトの強度s  rntensr
tyを考える。 変換に際して、ライトの位置(3次元的位置)、ライト
の向き、ライトの絞り、ライトの色、ライトの種類につ
いては、システムAのものをシステムBにそのまま代入
して用い、ライトの強度のみ新たに算出する。この場合
、ライトの強度は、ライトの位置と最も近い形状面デー
タとの距離をライトの強度とする。これは、一番目立つ
形状面のみを合わせるためである。 以下、実施例の作用を説明する。 実施例システムでは、システムA用で生成した形状デー
タ、カメラ・形状位置データ、光源(ライト)パラメー
タ質感パラメータ、マツピング画像等のCGモデルを、
システムAでレンダリングを行う代わりに、より高速な
システムBで高速にレンダリングを行う、このとき、シ
ステムA用に作成したライト・質感・マツピング情報デ
ータからなるCGモデルを、各システムA及びB閏の陰
影計算のモデルを吸収するようにシステムB用のCGモ
デルに変換する。 即ち、質感パラメータについては、質感パラメータ変換
部32で前出(1)〜(26)式及び第3図の流れ図に
より変換してシステムB用の質感パラメータ読込み格納
部26に入力する。 又、マツピング画像については、マツピング画像変換部
34において、前出(27)〜(41)式により変換し
Bシステムへ入力する。この場合、マツピンク画像変換
と処理に際し、質感パラメータ読込み格納部20から、
(2)式に示した面の拡散反射パラメータを入力する。 又、光源パラメータの変換については、前記ライトの位
置、ライトの向き、ライトの絞り、ライトの色、ライト
の種類をそのまま代入し、ライトの強度のみ新たに計算
する。この場合、ライトの位置と最も近い球状面データ
との距離をライトの強度とすることができる。そして、
形状データ、形状位置については、形状データ、形状位
置入力装置12に入力されたそれらのデータを、カメラ
情報、カメラ位置についてはカメラ情報、カメラ位置格
納装置38に入力されたデータを、質感パラメータにつ
いてはシステムB用質感モデル読込み格納装置14に格
納されているデータを用い、システムBである投影画像
作成装置16でレンダリングを実施する。 なお、システムBである投影画像作成装置の構成につい
ては、例えば、特願昭60−149765号にその詳細
を述べであるので、ここでは詳細説明は省略する。 以上のようにして、システムAの質感モデルと形状デー
タ等がシステムBへ入力され、それによりシステムBで
高速に00画像のレンダリングを行うことができる。 【発明の効果】 以上説明した通り、本発明によれば、第1のシステムで
製作したC0画像モデルを、陰影計算モデルの相違を吸
収して他の第2のシステムBに渡し、レンダリングを行
うことができ、作業効率が向上する。従って、各システ
ム毎に各々興なったCG製作パラメータを設定する必要
がなくなり、作業負荷を減少させると共に画像データの
利用効率を向上ξせ得る。又、各システム毎にCG製作
パラメータを保存・管理する必要がなくなる。特に、以
前に低速のCG製作システムで製作されたCGモデルを
用いて他の高速なシステムにより将来においてレンダリ
ング処理を行うことができる。 よって、古いシステムで蓄積したCGI!作のノウハウ
を失うことなく高速なシステムに移行することができる
。又、計算機の高速化に伴い、CGシステム高速化が自
由に図れる等の優れた効果が得られる。
【図面の簡単な説明】
第1図は、本発明の実施例に係るレンタリングシステム
の全#構成を示すブロック図、第2図は、前記実施例の
インターフェイス部の全#構成を示すブロック図、 第3図(Aン、(B)、(C)は、前記実施例の作用を
説明するための、鏡面反射の変換手原を示す流れ図、 第4図は、同じく透過率の変換例を示す線図である。 1・・・システムA、 2・・・システムB、 3・・・インタフェイス部、 4・・・情報フォーマット変換部、 5・・・形状設計部、 6・・・形状設計指定部、 7・・・カメラ・光源・形状位置情報指定部、8・・・
質感・光源・マヅピング情報指定部、10・・・システ
ム用質感モデル読込み装置、12・・・形状データ・形
状位置入力装置、14・・・システムB用質感モデル読
込み格納装置、16・・・システムB用役影画像作成装
置、18・・・レンダリング・インタフェイス(I/F
)装置、 20・・・第1の質感パラメータ読込み格納部、22・
・・第1のマツピング画像読込み格納部、24・・・第
1の光源パラメータ読込み格納部、26・・・第2の質
感パラメータ読込み格納部、28・・・第2のマツピン
グ画像読込み格納部、30・・・第2の光源パラメータ
読込み格納部、32・・・質感パラメータ変換部、 34・・・マツピング画像変換部、 36・・・光源パラメータ変換部、 38・・・カメラ情報、カメラ位置入力装置。 第1図 2(システムB) 第2図 第3図 (A) 第3図 (B) 第3図 <C)

Claims (1)

    【特許請求の範囲】
  1. (1)コンピュータグラフィックスシステムにおいて、
    第1のシステムが製作した物体形状情報、カメラ情報、
    カメラ位置情報、光源位置情報、物体形状の位置情報、
    質感情報、光源情報、マッピング情報等からなるコンピ
    ュータグラフィックスモデルを、第1のシステムとは陰
    影計算モデルが相違する第2のシステムでレンダリング
    するための装置であつて、 第1のシステムの質感情報を入力して、第2のシステム
    用の質感情報に変換するための手段、第1のシステムの
    光源情報を入力して、第2のシステム用の光源情報に変
    換するための手段、及び、第1のシステムのマッピング
    情報を入力し、第2のシステム用のマッピング情報に変
    換するための手段を含み、前記陰影計算モデルの相違を
    吸収するためのインタフェイス部と、 第1のシステムから読出される情報のうちインタフェイ
    ス部の情報フォーマットと異なる情報フォーマットで読
    出されたものを前記インタフェイス部の情報フォーマッ
    トに変換するための手段と、を備えたことを特徴とする
    レンダリング装置。
JP29679090A 1990-09-03 1990-11-01 レンダリング装置 Pending JPH04169980A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP29679090A JPH04169980A (ja) 1990-11-01 1990-11-01 レンダリング装置
US08/396,895 US5566283A (en) 1990-09-03 1995-03-01 Computer graphic image storage, conversion and generating apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29679090A JPH04169980A (ja) 1990-11-01 1990-11-01 レンダリング装置

Publications (1)

Publication Number Publication Date
JPH04169980A true JPH04169980A (ja) 1992-06-17

Family

ID=17838167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29679090A Pending JPH04169980A (ja) 1990-09-03 1990-11-01 レンダリング装置

Country Status (1)

Country Link
JP (1) JPH04169980A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0810552A3 (en) * 1996-05-28 1999-06-16 Sharp Kabushiki Kaisha Image display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0810552A3 (en) * 1996-05-28 1999-06-16 Sharp Kabushiki Kaisha Image display device

Similar Documents

Publication Publication Date Title
CA2239279C (en) Image generating apparatus and method
US9202309B2 (en) Methods and apparatus for digital stereo drawing
US5566283A (en) Computer graphic image storage, conversion and generating apparatus
US7873909B2 (en) Manipulation and merging of graphic images
CN1703724B (zh) 用于波特-达夫合成的背景色去除方法
CN101840566A (zh) 一种基于gpu并行计算的实时阴影生成方法及系统
WO2025050831A1 (zh) 建筑群渲染方法、装置、计算机设备和存储介质
CN115908606A (zh) 基于生成对抗网络的堆绣线稿图上色方法及计算机设备
US12272000B2 (en) Hierarchical depth data generation using primitive fusion
US7133052B1 (en) Morph map based simulated real-time rendering
CN114926590B (zh) 一种海量点云数据可视化方法
TW200809691A (en) A graphics processing unit and a method of processing border color information
CN116681831A (zh) 一种自下而上的单图像全景重建方法、装置及计算机设备
JP3629243B2 (ja) モデリング時の距離成分を用いてレンダリング陰影処理を行う画像処理装置とその方法
TW200529097A (en) Image rendering with multi-level z-buffers
CN118247411B (zh) 材质贴图生成方法及装置
CN111738946B (zh) 一种沙尘降质图像的增强方法及装置
JPH04169980A (ja) レンダリング装置
JP2003006667A (ja) アニメーション化された図形の画像処理方法
CN101271680A (zh) 视频串行数据处理方法
US7474928B2 (en) Hybrid vector/raster based paint
JP3191012B2 (ja) レンダリング・インタフェイス装置
CN114298891A (zh) 一种基于OpenGL ES架构的图片处理方法
JPH04169981A (ja) 鏡面反射率変換装置
JPS63213079A (ja) 画像生成装置