JPH04169980A - Rendering device - Google Patents

Rendering device

Info

Publication number
JPH04169980A
JPH04169980A JP29679090A JP29679090A JPH04169980A JP H04169980 A JPH04169980 A JP H04169980A JP 29679090 A JP29679090 A JP 29679090A JP 29679090 A JP29679090 A JP 29679090A JP H04169980 A JPH04169980 A JP H04169980A
Authority
JP
Japan
Prior art keywords
information
texture
light source
model
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP29679090A
Other languages
Japanese (ja)
Inventor
Michio Kurata
道夫 倉田
Toshio Motegi
敏雄 茂出木
Hideki Murota
秀樹 室田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP29679090A priority Critical patent/JPH04169980A/en
Publication of JPH04169980A publication Critical patent/JPH04169980A/en
Priority to US08/396,895 priority patent/US5566283A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 【産業上の利用分野】 本発明は、レンダリング装置に係り、特に、コンピュー
タ・グラフィックス(CG)の画像製作、例えばCGカ
レンダー、CGホログラム、CGアニメーション、CG
コマーシャル、CGポスター、あるいは、ハイビジョン
CG静止画番組を製作する際に用いるのに好適な、レン
ダリング装置に関する。 【従来の技術】 コンピュータ内で図形や画像を生成するコンピュータ・
グラフィックス(CG)技術は、今日、コンピュータの
高機能化、メモリの低価格化、大容量化等により、高速
化、高密度化が著しくなっている。このため、CG画像
は5.映像メディア情報、ハイビジョン静止画番組、印
刷画像情報等積々の分野への利用が考えられる。 コンピュータで生成されるCG画像は、物体にある光を
照射してそれをカメラで写した情景を画像として表示す
るものである。C0画像データの生成においては、前記
物体に関する情報(CGモデル)を生成する作業と、生
成されたCGモデルに種々の処理を施して物体形状を画
像として表示を行うレンダリングとを行うのが通常であ
る。 前記CGモデルは、一般に、生成しようとする物体の形
状データ、例えば面の集まりで表わした形状データと、
前記物体形状の3次元位置データと、前記物体を写す(
仮想)カメラの情報、例えばカメラの位置(視点)、カ
メラの向き(注視点)からなるカメラ位置情報と、カメ
ラの画角・縦横比からなるカメラ情報と、前記物体の質
感情報、例えば環境反射率等と、前記物体に光を照射す
るライト情報、例えばライトの3次元位置や種類と、マ
ツピングの種類の情報とから主に構成される。 このように生成されたCGモデルのレンダリングは、こ
のCGモデル生成用システムと一体となったレンダリン
グシステムで実施するのが一般的である。 又、前記CGモデルをあるシステムAで生成し、そのC
Gモデルを他のシステムBでレンダリングを行うことが
望まれている。 特に、システムBの処理速度が高速な場合、システムA
で製作した物体情報をそのシステムAより高速な他のシ
ステムBで処理することが望まれる場合がある。この場
合、CGモデルにおいて形状データについてはシステム
Aで製作したものをシステムBに渡し処理することが、
一般に行われている。 【発明が解決しようとする課!!l!!]しかしながら
、従来、他のCGモデルのパラメータ(質感パラメータ
、光源パラメータ、マツピングパラメータ等)について
は、システム間の陰影計算モデルの相違によりデータを
渡してレンダリングすることができなかった。 従って、従来は、あるシステムAで製作したCGモデル
を高速なシステムBで処理することを望む場合、形状デ
ータのみしかシステムBに渡せず、他のCGモデルのデ
ータはシステムBで新たに製作するしかなかっな。 よって、例えば、以前に、速度の遅い古いシステムで作
ったCGモデルを新しい高速なシステムでレンダリング
することができず、そのモデルは低速のシステムでレン
ダリングするしかなくCG製作の高速化が困難であると
いう問題点があった。 又、CG画像の製作においては、形状データ以外のCG
モデル(質感モデル等)については、CGデデー製作シ
ステム毎に、各々異なったCGモデルを生成する必要が
あり、作業負荷が非常に大きいという問題点もあった。 なお、あるシステムAのCGモデル情報にはシテスムA
から読出した際に、そのままでは情報フォーマットの関
係から用い難い情報があるという問題点があった。 本発明は、前記従来の問題点を解消するべくなされたも
ので、第1のシステムで生成したCGモデルを、第2の
システムとの間の陰影計算モデルの相違を吸収して第2
のシステム用に変換することを可能とし、従って、高速
なC0画像データの製作や、C0画像データの広範囲の
利用を図ることができる、レンダリング装置を提供する
ことを課題とする。 【課題を解決するための手段】 本発明は、コンピュータグラフィックスシステムにおい
て、第1のシステムが製作した物体形状情報、カメラ情
報、カメラ位置情報、光源位置情報、物体形状の位置情
報、質感情報、光源情報、マツピング情報等からなるコ
ンピュータグラフィックスモデルを、第1のシステムと
は陰影計算モデルが相違する第2のシステムでレンダリ
ングするための装置であって、第1のシステムの質感情
報を入力して、第2のシステム用の質感情報に変換する
ための手段、第1のシステムの光源情報を入力して、第
2のシステム用の光源情報に変換するための手段、及び
、第1のシステムのマツピング情報を入力し、第2のシ
ステム用のマッピング情報に変換するための手段を含み
、前記陰影計算モデルの相違を吸収するためのインタフ
ェイス部と、第1のシステムから読出される情報のうち
インタフェイス部の情報フォーマットと異なる情報フォ
ーマットで読出されたものを前記インタフェイス部の情
報フォーマットに変換するための手段とを備えたことに
より、前記課題を解決するものである。 【作用】 第1のシステムのコンピュータグラフィ・ツクス(CG
)モデルを、第1のシステムとは陰影計算モデルの相違
する第2のシステム用のCGモデルとしては従来用いる
ことができなかっな。 これに対して、本発明は、第1のシステムの質感情報を
入力して第2のシステム用の質感情報に変換し、第1の
システムの光源情報を入力して第2のシステム用の光源
情報に変換し、第1のシステムのマツピング情報を入力
して第2のシステム用のマツピング情報に変換して、前
記陰影計算モデルの相違を吸収する。 又、第1のシステムから読出される情報のうちインタフ
ェイス部の情報フォーマットと異なる情報フォーマット
で読出されるもの、例えばカメラ情報、カメラ位置情報
、光源位置(3次元的位置等)及び物体形状位置(3次
元的位il!f)があり、そのt、tではインタフェイ
ス部で変換ができない。 そこで、本発明は、その読出した情報をインタフェイス
部の情報フォーマットで記述する。 従って、第1のシステムで生成したCGモデルを第2の
システムに渡してレンダリングが行えることから、CG
製作効率が向上する。 よって、種々のシステムA、B、・・・用に各々異なっ
たCG製作パラメータを設定する必要がなくなることか
ら作業負荷が低減する。又、各システム毎にCG製作パ
ラメータを保存・管理する必要がなくなる。 又、以前に低速のシステムで製作したCG画像データを
用いて他の高速なシステムでレンダリングを行うことが
できる。従って、古いシステムで蓄積したCG製作のノ
ウハウを失うことなく、新しいシステムに移行すること
ができる。又、計算機の高速化に伴い、CGシステムの
高速化が自由に図れる。更に、以前から蓄積されている
CGモデルを応用して種々のレンダリングを施す等有効
に利用することができる。 【実施例】 以下、図面を参照して本発明の実施例を詳細に説明する
。 この実施例は、第1図に示すような構成のレンダリング
システムである。 第1図に示すように、このレンダリングシステムは、C
Gモデルを生成するシステムA(符号1)と、該システ
ムAと陰影計算モデルの相違するシステムB(符号2)
と、システムAからカメラ情報物体形状データ等を読込
んでインタフェイス部3の情報フォーマットに変換する
ための情報フォーマット変換部4と、システムAで生成
されたCGモデルをシステムBに陰影計算モデルの相違
を吸収して渡すためのレンダリング・インタフェイス部
3とを主に備える。 前記システムAは、CGモデルを生成するためのもので
あり、CGで表示しようとする物体形状を設計し指定す
るための形状設計指定部6と、カメラ情報、カメラ位置
情報、光源(ライト)の位置情報、物体形状の位置情報
を指定するためのカメラ・光源・形状位置情報指定部7
と、形状物体の面の質感情報、光源情報、及びマツピン
グ情報を指定するための質感・光源・マツピング情報指
定部8とを備える。なお、実施例では前記物体形状は面
の集まりで表わされ、当該面は頂点情報(X、Y、Z座
標)の集まりで表わされる。又、物体形状位置は、3次
元的位置(X、Y、Z座標)で表わされる。又、カメラ
情報は物体を写そうとするカメラの画角・縦横比からな
るものである。 又、カメラ位置情報は、カメラの位置(視点)、カメラ
の向き(注視点)からなるものである、又、前記質感情
報は、面の環境反射率Ka、面の拡散反射率Kd、面の
鏡面反射率KS、鏡面反射係数eXp 、透過率tra
についての各パラメータ(質感パラメータ)で表わされ
る。又、前記光源情報は、光源の種類(点、スポット、
平行)、色、強度、位置(3次元的位置、X、Y、Z%
標)、減衰率についての各パラメータ(光源パラメータ
)で表わされる。又、マツピング情報はマツピンクの種
類(テクスチャ、バンブ等)、マツピングのスゲールか
らなるマツピング画像で表わされる。これらの内容は後
に詳述する。 前記情報フォーマット変換部4は、前記システムAで生
成されたカメラ情報、カメラ位置情報、光源の3次元的
位置情報、物体の3次元的位置情報が読出されるに際し
てインタフェイス部の情報フォーマットとは異なる情報
フォーマットで読出されるため、これらの情報をインタ
フェイス部3の情報フォーマットに変換してインタフェ
イス部3に送出すものである。 前記インタフェイス部3は、詳細には第2図に示すよう
な構成を有しており、前記システムAで生成されたCG
モデルを、陰影計算モデルの相違を吸収してシテスムB
に渡すものである。 前記システムBは、前記インターフェイス部3で変換さ
れたCGモデルに対してレンダリングを施すものである
4例えば、このレンダリングには、2バツフア法、レイ
トレイジング法等を用いることができる。 ここで、前記インターフェイス部3の詳細な構成を第2
図を用いて説明する。第2図のインターフェイス部3は
、システムAで生成されたCGモデルのうち、質感パラ
メータ、マツピンク画像、光源パラメータのデータ(以
下、質感モデルという)を読込むためのシステムA用質
感モデル読込み格納装置10と、当該CGモデルの物体
形状のデータ、物体形状の3次元的位置のデータを入力
するための形状データ、形状位置入力装置12と、当該
CGモデルのカメラ情報、カメラ位置を入力するための
カメラ情報、カメラ位置入力袋f38と、前記システム
Aで製作されたCGモデルのうち、所定の変換を行いシ
ステムB用の質感モデルデータとなった当該データを読
込み格納するためのシステムB用質感モデル読込み格納
装置14、前記システムA用質感モデルをシステムB用
の質感モデルに変換してシステムBへ受は渡すためのレ
ンダリング・インタフェイス(I/F)装置18と、前
記装置12に格納されている形状データ、形状位置デー
タ、前記装置38に格納されているカメラ情報、カメラ
位置データ、前記装置14に格納されているシステムB
用質感モデルデータを読込み、レンダリング処理を実施
するシステムB(投影画像作成装置)16とを主に備え
る。 前記システムA用質感モデル読込み格納装置10は、各
パラメータを読込み格納するための質感パラメータ読込
み格納部20、マツピング画像読込み格納部22、及び
光源パラメータ読込み格納部24とを有する。 又、前記システムB用質感モデル読込み格納装置14は
、受は渡された各パラメータを読込み格納するための質
感パラメータ読込み格納部26、マツピング画像読込み
格納部28、及び光源パラメータ読込み格納部30とを
備える。 又、前記レンダリングI/F装置18は、システムA用
の質感モデルをシステムB用の質感モデルに受は渡すた
め、各パラメータを変換するための質感パラメータ変換
部32、マツピング画像変換部34、光源パラメータ変
換部36とを備える。 なお、前記カメラ情報、カメラ位置格納装置38に入力
されるカメラ情報は実施例では、カメラの画角・縦横比
を表わしたものとする。又、カメラ位置は、カメラの三
次元的位置(視点)、カメラの三次元的向き(注視点)
で表わしたものとする。 次に、前記システムA用、及びシステムB用の各質感モ
デルと、それら質感モデルの受は渡しに際してレンダリ
ングI/F装置18で各システムA及びB間の陰影計算
モデルの相違を吸収するため用いる変換式の例を以下に
説明する。 まず、質感パラメータ変換部32においては質感パラメ
ータの変換を次のように行う。 この場合、システムA用の各質感パラメータについては
、式(1)〜(5)のように、(1)式:面の環境反射
率(aI!b 1ent ;a )、(2);面の拡散
反射率(diffuse;+j )、(3)式;面の鏡
面反射率(5pecular+s)、(4)式;鏡面反
射係数(exponent;exp) 、及び(5)式
;透過率(transparency)を表ワス。 A  a   red、A  a−green。 A  a   blue−(1) A−σ−red 、  A  d   (lr6en 
 。 A  d   blue−(2) A  S   red、A  S   Green。 A  s   blue・(3) A  eXp                ・・・
(4)A  transparency       
    −(5)但し、(1)、(2)、(3)式にお
いては、末生のredは赤、greenは緑、blue
は青の各色についてのものであることを示している。 又、(1)式の面の環境反射率のパラメータA−a〜に
は、経験からの反射率を反映したパラメータを用いるこ
とができる。 又、システムB用の各質感パラメータは、前記システム
A用の質感パラメータにおける面の環境反射率Aa−〜
等と同様に、式(6)〜(10)のように、(6)式:
面の環境反射率、(7):面の拡散反射率、(8)式;
面の鏡面反射率、くっ)式;鏡面反射係数、及び(10
)式;透過率を表わす。 B  a  red、B  a  Qreen。 B  a  blue−(6) B  d   red、B  d−green。 B  d  blue−(7) B  S  red、B  S−green。 B  s  blue−(8) B  13XI)              ・・・
(9)B  transparency       
 = (10)前記のようなシステムA用の質感パラメ
ータをシステムB用の質感パラメータに変換する式は次
のようになる。 まず、面の環境反射率については、面にテクスチャを貼
り付けない場合の変換式には、例えば式(11)〜(1
3)を用いることができ、テクスチャを貼り付ける場合
の変換式には、例えば式(14)〜(16)を用いるこ
とができる。 B  a   red=A  a   red    
−(11)B  a   areen =A  a  
 areen−(12)B  a   blue=A 
 a   blue   −<13)B  a  re
d=A  a  red/A  d  red・・・ 
(14) B  a   Qreen =A  a   green /A  d   gre
en・・・ (15) B  a  blue=A  a  blue/A  
d  blue・・・ (16) 又、拡散反射率については、システムA用のものをシス
テムB用に、(17)〜(19)式のようにそのまま代
入する。 B  d  red=A  d  red   −(1
7)B  d  green =A  d  gree
n −= (18)B  d  blue=A  d 
 blue   −<19)又、鏡面反射率については
、第3図(λ)〜(C)に示す手順により算出する。第
3図の手順において、まず、鏡面反射率の中間的な変数
(中間変数)INS及び拡散反射率の中間変数ndにo
、。 を入れて初期化する(ステップ1)1次いで、拡散反射
率のメモリ変数d  〔0)、d  (1)、(1〔2
〕と鏡面反射率のメモリ変数5(0)、5(1)、s 
 (2)とに各拡散反射率パラメータAd−〜と前記鏡
面反射率パラメータAS  〜の各データを格納する(
ステップ2)。 次いで、メモリ変数s 〔0〕〜s 〔2〕に格納され
た鏡面反射率の最大値を前記中間変数isに入れる。又
、当該最大値となる中間変数の配列番号0〜2をインデ
ックスJIS  n1Jlに代入する。又、メモリ変数
d 〔0〕〜d 〔2〕に格納された拡散反射率の最大
値を中間変数1dに代入する(ステップ3)。 次いで、各中間変数rzd及びIsが0でないか否かを
判定する(ステップ4)0判定の結果、いずれかの中間
変数+1d、 Itsが0であるならば、第3図   
 □(C)に示すステップ5へ進んで各メモリ変数S〔
0〕〜S 〔2〕中の鏡面反射率(システムAの鏡面反
射率)をそのままシステムBの鏡面反射パラメータBs
−〜に代入する(ステップ5)。 この場合、拡散反射率及び鏡面反射率のいずれも0なら
ばパラメータは環境反射率成分のみとなる。 一方、中間変数rad及びIsがいずれも0でないなら
ば、拡散反射率、鏡面反射率のいずれも存在し処理し得
るため、処理を続行するべくステップ6に進む。 次いで、色合せの係数tdを、式(20)から求め、前
記メモリ変数S 〔0〕〜S 〔2〕中の各色鏡面反射
率について、メモリ変数d 〔0〕〜d〔2〕の各色拡
散反射率、及び色合せの係数tdを用いて、式(21)
〜(23)°により変換し、その変換値をメモリ変数b
s (o )〜bs (2:lのそれぞれに入れる(ス
テップ6)。 td=(d  (0)+d  (1)〒d  [:2)
)X2・・・(20) bs(0)=(d  (1)+d  〔2))/ld+
s  Co)   ・・・(21)bs(1)=(d 
 Co)+d  [2))/ld+5(1)  ・・・
(22) bs[2)= (d  [:O) 十d  [:j))
/ld十s  [−23・ (23) この(20)〜(23)式による変換は、鏡面反射率の
各色データに他の色の拡散反射率を加味した増加補正を
加えるものである。 次いで、先のステップ3で求めた最大鏡面反射率を与え
る番号ff1s  nullを用いて、当該番号の鏡面
反射率の前記補正前S  (Is  nulll)と補
正後bsCIIS  nun ”Jとの比を(24)式
のように求めて、当該比を変数coefに入れる(ステ
ップ7)。 coef=s  (ns  null) /bs[ns
  nul:1・・・(24) 次いで、インデックスJ−〇として初期化しくステップ
8)、補正後のメモリ変数bs[j)を正規化するべく
、式(25)のように、当該bsCj)に前記変数co
e fを乗じ、新たにbsCj)とする(ステップ9)
。 bs(j ) =bs(j ) xcoef    −
(25)次いで、(25)式で変数coefを乗じた後
のメモリ変数bs(j)の値が鏡面反射係数の最大値5
(ns  nun )より大きいか否かを判断する”(
ステップ10)4判断の結果が正であるならば、前記鏡
面反射係数の最大値5(is  nul)を補正メモリ
変数bs(j)に入れ(ステップ11)、次のステップ
12に進む、一方、判断結果が否であるならばメモリ変
数bsCj)をそのままとして次のステップ12に進む
、これにより、鏡面反射率を正規化できる。即ち、各色
鏡面反射率において補正後の最大値が補正前の最大値を
超えないようにすることができる。 次いで、前記(20)〜(23)式による変換後のメモ
リ変数bs(j)の値が変換前のメモリ変数5(j)の
値より小さいか否かを判断する(ステップ12)0判断
結果が正であるならば、前記メモリ変数bs(j)に5
(j)の値を入れ(ステラ713)、判断結果が否であ
るならば前記メモリ変数bs(j)の値はそのままとし
て次以降のステップに進む。 次いで、インデックスjを1インクリメントする(ステ
ップ14)、インクリメントの結果、jく3が成立する
ならば、次のメモリ変数bscj)(」=1ならばj=
2の如く)について変換するべく、ステップ9に戻って
ステップ9以降の処理手順を実行する(ステップ15)
、一方、j<3が成立せず、j≧3であるならば、次の
ステップ16に進む。 次いで、システムB用の面の鏡面反射パラメータ(赤)
B  s  redに前記メモリ変数bs CO)の値
を入れ、同パラメータ(緑)B  s  greenに
前記メモリ変数bs [1)の値を入れ、同パラメータ
(青)B  s  blueに前記メモリ変数bs C
2)の値を入れる(ステップ16)、このステップ16
を終了し、あるいは、ステップ5を終了することにより
、質感パラメータのうち鏡面反射率についてシステムA
用のものをシステムB用のものに変換することが終了す
る。 又、鏡面反射係数A  8Xpについては、例えば次式
(26)でシステムA用のものをシステムB用のものに
変換する。 B  eXl) =A  elXI) X215   
・(26)(26)式における定数215は両システム
の絞りの違いによるハイライトの大きさを合わせるもの
で種々のデータをとり、経験的に求めたものである。勿
論システムの特性に従って適宜の値を選べるものである
。 又、透過率A  transparencyについては
、例えば第4図に示すテーブルを用いてシステムB用の
透過率B  transparencyに変換する。 なお、第4図の関俤は種々のデータを総合的に勘案して
求めたものであり、システムに応じて適宜の値を選べる
。 マツピング画像変換については、以下のように行う。 システムAにおいてマツピング画像のパラメータは、赤
、緑、青についてA  c  red、A  cgre
en、ACblueで表わす、なお、システムAがマツ
ピングを行った際の環境反射率、拡散反射率のパラメー
タA  a  red、A  d  red等は、式(
27)〜(32)で計算される。 A  a  red=A  a  redxA  c 
 red・・・(27) A   a   gr138n =A  a   Qrln  XA  CQreen・
・・ (28) A   a   tllLIe=A   a   bl
ueXA   Cblue・・・ (29) A   d   red=A   d   redxA
   c   red・・・ (30) A   d   green =A  d   (Jreen  XA  C−gr1
3en・・・ (31) A   d   blue=A   d   blue
xA   c   blue・・・ (32) 又システムBのマツピング画像は、赤、緑、青の各デー
タをB  c  red、B  c  green、B
c  blueとする。この場合に、システムBがマツ
ピングを行った際の環境反射率、拡散反射率のパラメー
タB  a  red、B  d  red等は、以下
の式(33)〜(38)で計算される。 B  a  red=B  c  redxB  a 
 rea   −<33)B  a   Green=
B  CQreenXB  a   green   
−<34)B  a   blue=B  c   b
luexB   a   blue    −(35)
B  d  red=B  c  red     −
<36)B  d  vreen=B  c  qre
en  ・(37)B  d  blue=B  c 
 blue    −(38)従って、システムA用の
ものをシステムB用のものにマツピング画像を変換する
式は、次式(39)〜(41)となる。 B  c  red=A  c  redxB  d 
 red・・・〈39) B   c   green =A  c  areen xB  d  areen
・・・(40) B  c  blue=A  c  bluexB  
d  blue・・・(41) 光源パラメータの変換は次のように行う、システムAの
光源パラメータは、ライトの位置(×。 y、z座標で表わす)をA  X、A  V、A  Z
と−ライトの向き(X 、 v 、 z座標で表わす)
をA  nx、 A  ny、 A  nzと、ライト
の絞りをA−exp +ライトの色(3原色red 、
 green 、 blueで表わす)をA  red
 、 A  oreen 、 A  blue、ライト
の種類(平行光、点光源、スポット光源)をA  mo
deで表わす、なお、この場合システムAの光源は減衰
しないものと考える。 又、システムBの光源パラメータは、AシステムAと同
様に、ライトの位置をB  X、B  Y、B−2、ラ
イトの向きをB  nx、 B  ny、 B  nz
、ライトの絞りをB13Xp、ライトの色B  red
、B  green 、 B  blue、ライトの強
度をB  1ntenSity 、ライトの種類をB 
 modeで表わす、なお、システムBの光源は例えば
1/距離で減衰するものとする。従って、暗くなり過ぎ
るのを防止するためライトの強度s  rntensr
tyを考える。 変換に際して、ライトの位置(3次元的位置)、ライト
の向き、ライトの絞り、ライトの色、ライトの種類につ
いては、システムAのものをシステムBにそのまま代入
して用い、ライトの強度のみ新たに算出する。この場合
、ライトの強度は、ライトの位置と最も近い形状面デー
タとの距離をライトの強度とする。これは、一番目立つ
形状面のみを合わせるためである。 以下、実施例の作用を説明する。 実施例システムでは、システムA用で生成した形状デー
タ、カメラ・形状位置データ、光源(ライト)パラメー
タ質感パラメータ、マツピング画像等のCGモデルを、
システムAでレンダリングを行う代わりに、より高速な
システムBで高速にレンダリングを行う、このとき、シ
ステムA用に作成したライト・質感・マツピング情報デ
ータからなるCGモデルを、各システムA及びB閏の陰
影計算のモデルを吸収するようにシステムB用のCGモ
デルに変換する。 即ち、質感パラメータについては、質感パラメータ変換
部32で前出(1)〜(26)式及び第3図の流れ図に
より変換してシステムB用の質感パラメータ読込み格納
部26に入力する。 又、マツピング画像については、マツピング画像変換部
34において、前出(27)〜(41)式により変換し
Bシステムへ入力する。この場合、マツピンク画像変換
と処理に際し、質感パラメータ読込み格納部20から、
(2)式に示した面の拡散反射パラメータを入力する。 又、光源パラメータの変換については、前記ライトの位
置、ライトの向き、ライトの絞り、ライトの色、ライト
の種類をそのまま代入し、ライトの強度のみ新たに計算
する。この場合、ライトの位置と最も近い球状面データ
との距離をライトの強度とすることができる。そして、
形状データ、形状位置については、形状データ、形状位
置入力装置12に入力されたそれらのデータを、カメラ
情報、カメラ位置についてはカメラ情報、カメラ位置格
納装置38に入力されたデータを、質感パラメータにつ
いてはシステムB用質感モデル読込み格納装置14に格
納されているデータを用い、システムBである投影画像
作成装置16でレンダリングを実施する。 なお、システムBである投影画像作成装置の構成につい
ては、例えば、特願昭60−149765号にその詳細
を述べであるので、ここでは詳細説明は省略する。 以上のようにして、システムAの質感モデルと形状デー
タ等がシステムBへ入力され、それによりシステムBで
高速に00画像のレンダリングを行うことができる。 【発明の効果】 以上説明した通り、本発明によれば、第1のシステムで
製作したC0画像モデルを、陰影計算モデルの相違を吸
収して他の第2のシステムBに渡し、レンダリングを行
うことができ、作業効率が向上する。従って、各システ
ム毎に各々興なったCG製作パラメータを設定する必要
がなくなり、作業負荷を減少させると共に画像データの
利用効率を向上ξせ得る。又、各システム毎にCG製作
パラメータを保存・管理する必要がなくなる。特に、以
前に低速のCG製作システムで製作されたCGモデルを
用いて他の高速なシステムにより将来においてレンダリ
ング処理を行うことができる。 よって、古いシステムで蓄積したCGI!作のノウハウ
を失うことなく高速なシステムに移行することができる
。又、計算機の高速化に伴い、CGシステム高速化が自
由に図れる等の優れた効果が得られる。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a rendering device, and in particular, to computer graphics (CG) image production, such as CG calendar, CG hologram, CG animation, CG
The present invention relates to a rendering device suitable for use in producing commercials, CG posters, or high-definition CG still image programs. [Prior Art] A computer system that generates figures and images within a computer.
Today, graphics (CG) technology is becoming faster and more dense due to the increasing functionality of computers, lower prices of memory, and larger capacity. For this reason, the CG image is 5. It can be used in many fields such as video media information, high-definition still image programs, and print image information. A CG image generated by a computer is an image that displays a scene captured by a camera by shining a certain light onto an object. In the generation of C0 image data, it is usual to generate information about the object (CG model), and perform various processing on the generated CG model to display the object shape as an image. be. The CG model generally includes shape data of an object to be generated, for example, shape data represented by a collection of surfaces;
The three-dimensional position data of the object shape and the image of the object (
(virtual) camera information, such as camera position information consisting of the camera position (view point) and camera direction (point of gaze), camera information consisting of the camera's angle of view and aspect ratio, and texture information of the object, such as environmental reflection. It mainly consists of light information for irradiating light onto the object, such as the three-dimensional position and type of the light, and information on the type of mapping. Rendering of the CG model generated in this manner is generally performed by a rendering system that is integrated with the CG model generation system. Also, the CG model is generated by a certain system A, and the CG model is
It is desired that the G model be rendered by another system B. In particular, if system B has a high processing speed, system A
In some cases, it may be desirable to process object information produced by another system B, which is faster than system A. In this case, in the CG model, the shape data produced by system A can be passed to system B for processing.
This is commonly done. [The problem that the invention tries to solve! ! l! ! However, conventionally, it has not been possible to pass data regarding other CG model parameters (texture parameters, light source parameters, mapping parameters, etc.) for rendering due to differences in shadow calculation models between systems. Therefore, conventionally, if you wanted to process a CG model produced by a certain system A in a high-speed system B, only the shape data could be passed to system B, and the data of other CG models had to be newly produced in system B. That's all I can do. Therefore, for example, it is not possible to render a CG model previously created using a slow old system on a new high-speed system, and the model has no choice but to be rendered on a slow system, making it difficult to speed up CG production. There was a problem. In addition, in the production of CG images, CG images other than shape data
Regarding models (texture models, etc.), it is necessary to generate different CG models for each CG day production system, which poses a problem in that the workload is extremely large. In addition, the CG model information of a certain system A includes system A.
There is a problem in that when reading from a file, there is information that is difficult to use as is due to the information format. The present invention was made in order to solve the above-mentioned problems of the conventional system.
An object of the present invention is to provide a rendering device that can perform conversion for use in a system such as the above, and can therefore produce C0 image data at high speed and utilize the C0 image data over a wide range of areas. Means for Solving the Problems The present invention provides a computer graphics system that includes object shape information, camera information, camera position information, light source position information, object shape position information, texture information, and A device for rendering a computer graphics model consisting of light source information, mapping information, etc. with a second system having a different shading calculation model from the first system, and inputting texture information of the first system. means for inputting light source information of the first system and converting it into texture information for the second system; and means for inputting light source information of the first system and converting it into light source information for the second system; an interface section for absorbing differences in the shading calculation model; The above problem is solved by including means for converting information read in an information format different from the information format of the interface section into the information format of the interface section. [Operation] Computer graphics (CG) of the first system
) model cannot be used as a CG model for a second system whose shadow calculation model is different from that of the first system. In contrast, the present invention inputs the texture information of the first system and converts it into texture information for the second system, inputs the light source information of the first system, and converts the texture information to the light source for the second system. The mapping information of the first system is inputted and converted into mapping information for the second system, thereby absorbing the difference in the shading calculation model. Further, among the information read out from the first system, information read out in an information format different from the information format of the interface unit, such as camera information, camera position information, light source position (three-dimensional position, etc.), and object shape position. (3-dimensional position il!f), and the interface section cannot perform conversion at t and t. Therefore, the present invention describes the read information in the information format of the interface section. Therefore, since the CG model generated by the first system can be passed to the second system for rendering, the CG
Manufacturing efficiency is improved. Therefore, there is no need to set different CG production parameters for the various systems A, B, . . . , which reduces the workload. Furthermore, there is no need to store and manage CG production parameters for each system. Furthermore, CG image data previously produced using a low-speed system can be used for rendering using another high-speed system. Therefore, it is possible to transfer to the new system without losing the CG production know-how accumulated with the old system. Furthermore, as computers become faster, the speed of the CG system can be increased freely. Furthermore, it is possible to effectively utilize CG models that have been stored for a long time to perform various renderings. Embodiments Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. This embodiment is a rendering system configured as shown in FIG. As shown in FIG. 1, this rendering system uses C
System A (symbol 1) that generates a G model, and system B (symbol 2) that has a different shading calculation model from system A.
, an information format conversion unit 4 for reading camera information object shape data etc. from system A and converting it to the information format of the interface unit 3, and a CG model generated by system A to system B. Differences in shading calculation model It mainly includes a rendering interface section 3 for absorbing and passing on the information. The system A is for generating a CG model, and includes a shape design specification unit 6 for designing and specifying the shape of an object to be displayed in CG, camera information, camera position information, and light source (light) information. Camera/light source/shape position information specifying unit 7 for specifying position information and object shape position information
and a texture/light source/mapping information specifying unit 8 for specifying texture information, light source information, and mapping information of the surface of the shaped object. In the embodiment, the object shape is represented by a collection of surfaces, and the surface is represented by a collection of vertex information (X, Y, Z coordinates). Further, the object shape position is expressed by a three-dimensional position (X, Y, Z coordinates). Further, the camera information consists of the angle of view and aspect ratio of the camera used to photograph the object. Further, the camera position information consists of the camera position (viewpoint) and the camera direction (point of gaze), and the texture information includes the environmental reflectance Ka of the surface, the diffuse reflectance Kd of the surface, and the surface's diffuse reflectance Kd. Specular reflectance KS, specular reflection coefficient eXp, transmittance tra
It is expressed by each parameter (texture parameter) for Further, the light source information includes the type of light source (point, spot,
parallel), color, intensity, position (3-dimensional position, X, Y, Z%
(standard) and each parameter regarding the attenuation rate (light source parameter). Further, the mapping information is represented by a mapping image consisting of the type of pine pink (texture, bump, etc.) and the size of the mapping. These contents will be explained in detail later. The information format conversion unit 4 converts the information format of the interface unit when the camera information, camera position information, three-dimensional position information of a light source, and three-dimensional position information of an object generated by the system A is read out. Since the information is read in different information formats, this information is converted into the information format of the interface section 3 and sent to the interface section 3. The interface section 3 has a detailed configuration as shown in FIG.
The model is changed to System B by absorbing the differences in the shading calculation model.
It is to be given to. The system B performs rendering on the CG model converted by the interface unit 3. For example, a two-buffer method, a ray ranging method, etc. can be used for this rendering. Here, the detailed configuration of the interface section 3 will be explained in the second section.
This will be explained using figures. The interface unit 3 in FIG. 2 includes a texture model reading storage device 10 for the system A for reading texture parameters, pine pink images, and light source parameter data (hereinafter referred to as texture model) among the CG models generated by the system A. , object shape data of the CG model, shape data for inputting data of the three-dimensional position of the object shape, shape position input device 12, camera information of the CG model, camera information for inputting the camera position. , camera position input bag f38, and a texture model reading/storage for system B for reading and storing the data that has undergone predetermined conversion and has become texture model data for system B from among the CG models produced by system A. a device 14, a rendering interface (I/F) device 18 for converting the texture model for system A into a texture model for system B and passing it to system B; and a shape stored in the device 12. data, shape position data, camera information stored in the device 38, camera position data, system B stored in the device 14
It mainly includes a system B (projection image creation device) 16 that reads texture model data and performs rendering processing. The texture model reading and storing device 10 for system A includes a texture parameter reading and storing section 20, a mapping image reading and storing section 22, and a light source parameter reading and storing section 24 for reading and storing each parameter. The system B texture model reading and storing device 14 also includes a texture parameter reading and storing section 26, a mapping image reading and storing section 28, and a light source parameter reading and storing section 30 for reading and storing each passed parameter. Be prepared. Furthermore, in order to pass the texture model for system A to the texture model for system B, the rendering I/F device 18 includes a texture parameter converter 32 for converting each parameter, a mapping image converter 34, and a light source. and a parameter conversion section 36. In this embodiment, the camera information inputted into the camera position storage device 38 represents the angle of view and aspect ratio of the camera. In addition, the camera position includes the three-dimensional position of the camera (viewpoint) and the three-dimensional direction of the camera (point of gaze).
Let it be expressed as Next, the texture models for system A and system B and the receiver of these texture models are used by the rendering I/F device 18 to absorb differences in the shading calculation models between the systems A and B. An example of a conversion formula will be explained below. First, the texture parameter converter 32 converts texture parameters as follows. In this case, for each texture parameter for system A, as shown in Equations (1) to (5), Equation (1): Environmental reflectance of the surface (aI!b 1ent ; a ), (2); Diffuse reflectance (diffuse; +j), equation (3); specular reflectance of the surface (5 pecular+s), equation (4); specular reflection coefficient (exponent; exp), and equation (5); transmittance (transparency). Was. A red, A a-green. A blue-(1) A-σ-red, A d (lr6en
. A d blue-(2) A S red, A S Green. A s blue・(3) A eXp...
(4) A transparency
-(5) However, in formulas (1), (2), and (3), the youngest red is red, the green is green, and the youngest is blue.
indicates that it is for each color of blue. Further, as the parameter A-a~ of the environmental reflectance of the surface in equation (1), a parameter reflecting the reflectance based on experience can be used. Moreover, each texture parameter for system B is the environmental reflectance Aa of the surface in the texture parameter for system A.
etc., as in equations (6) to (10), equation (6):
Environmental reflectance of the surface, (7): Diffuse reflectance of the surface, equation (8);
The specular reflectance of the surface, the formula; the specular reflection coefficient, and (10
) formula; represents transmittance. Ba red, Ba queen. B a blue-(6) B d red, B d-green. B d blue-(7) B S red, B S-green. B s blue-(8) B 13XI)...
(9) B transparency
= (10) The formula for converting the texture parameters for system A as described above into texture parameters for system B is as follows. First, regarding the environmental reflectance of a surface, the conversion formula when no texture is attached to the surface includes, for example, equations (11) to (1).
3) can be used, and as a conversion formula when pasting a texture, for example, formulas (14) to (16) can be used. B a red = A a red
-(11) B a areeen = A a
areen-(12)B a blue=A
a blue −<13) B a re
d=A a red/A d red...
(14) B a green =A green /A d green
en... (15) B a blue=A a blue/A
d blue... (16) Also, regarding the diffuse reflectance, the one for system A is directly substituted for system B as in equations (17) to (19). B d red = A d red −(1
7) B d green = A d green
n −= (18)B d blue=A d
blue −<19) Also, the specular reflectance is calculated by the procedure shown in FIG. 3 (λ) to (C). In the procedure shown in Figure 3, first, an intermediate variable (intermediate variable) INS of specular reflectance and an intermediate variable nd of diffuse reflectance are set.
,. (Step 1) 1 Then, the memory variables d [0), d (1), (1 [2
] and specular reflectance memory variables 5(0), 5(1), s
(2) Store each data of each diffuse reflectance parameter Ad-~ and the specular reflectance parameter AS~ in (
Step 2). Next, the maximum value of the specular reflectance stored in memory variables s[0] to s[2] is entered into the intermediate variable is. Further, the array numbers 0 to 2 of the intermediate variable having the maximum value are assigned to the index JIS n1Jl. Further, the maximum value of the diffuse reflectance stored in the memory variables d[0] to d[2] is substituted into the intermediate variable 1d (step 3). Next, it is determined whether each intermediate variable rzd and Is is not 0 (step 4). If the result of the 0 determination is that any intermediate variable +1d, Its is 0, then
□ Proceed to step 5 shown in (C) and save each memory variable S [
0] ~ S [2] The specular reflectance (specular reflectance of system A) in [2] is used as the specular reflectance parameter Bs of system B.
- Substitute into ~ (step 5). In this case, if both the diffuse reflectance and the specular reflectance are 0, the only parameter is the environmental reflectance component. On the other hand, if the intermediate variables rad and Is are both non-zero, since both diffuse reflectance and specular reflectance exist and can be processed, the process proceeds to step 6 to continue the process. Next, the color matching coefficient td is obtained from equation (20), and for each color specular reflectance in the memory variables S [0] to S [2], each color diffusion of the memory variables d [0] to d [2] is calculated. Using the reflectance and color matching coefficient td, formula (21)
~ (23) °, and the converted value is stored in memory variable b
Put into each of s (o) ~ bs (2:l (step 6). td = (d (0) + d (1)〒d[:2)
)X2...(20) bs(0)=(d(1)+d[2))/ld+
s Co) ... (21) bs (1) = (d
Co)+d[2))/ld+5(1)...
(22) bs[2)= (d[:O) 10d[:j))
/ld10s [-23 (23) The conversion according to equations (20) to (23) adds an increase correction to each color data of specular reflectance by taking into account the diffuse reflectance of other colors. Next, using the number ff1s null that gives the maximum specular reflectance obtained in the previous step 3, the ratio of the specular reflectance of the number before correction S (Is null) and after correction bsCIIS nun ''J is calculated as (24 ) and enter the ratio in the variable coef (step 7). coef=s (ns null) /bs[ns
nul:1...(24) Next, in step 8), initialize as index J-〇, and normalize the corrected memory variable bs[j), as in equation (25), apply bsCj) to The variable co
Multiply e f and create new bsCj) (Step 9)
. bs(j) = bs(j) xcoef −
(25) Next, the value of the memory variable bs(j) after being multiplied by the variable coef using equation (25) is the maximum value of the specular reflection coefficient, 5.
(ns nun )” (
Step 10) If the result of judgment 4 is positive, put the maximum value 5 (is null) of the specular reflection coefficient into the correction memory variable bs(j) (step 11) and proceed to the next step 12; If the judgment result is negative, the memory variable bsCj) is left as is and the process proceeds to the next step 12, thereby normalizing the specular reflectance. That is, it is possible to prevent the maximum value of each color specular reflectance after correction from exceeding the maximum value before correction. Next, it is determined whether the value of memory variable bs(j) after conversion by the above equations (20) to (23) is smaller than the value of memory variable 5(j) before conversion (step 12) 0 judgment result is positive, 5 is added to the memory variable bs(j).
The value of (j) is entered (Stella 713), and if the judgment result is negative, the value of the memory variable bs(j) is left as is and the process proceeds to the next and subsequent steps. Next, the index j is incremented by 1 (step 14). If j times 3 holds as a result of the increment, then the next memory variable bscj) (''=1, then j=
2), return to step 9 and execute the processing procedure from step 9 onwards (step 15).
, On the other hand, if j<3 does not hold and j≧3, the process proceeds to the next step 16. Then the specularity parameters of the surface for system B (red)
Enter the value of the memory variable bs CO) in the B s red, enter the value of the memory variable bs [1) in the same parameter (green) B s green, and enter the value of the memory variable bs C in the same parameter (blue) B s blue.
2) Enter the value (step 16), this step 16
or by completing step 5, the specular reflectance of the texture parameters is determined by system A.
The conversion of the one for system B to that for system B is completed. Further, regarding the specular reflection coefficient A 8Xp, for example, the value for system A is converted into the value for system B using the following equation (26). B eXl) = A elXI) X215
- (26) The constant 215 in equation (26) is used to match the size of the highlight due to the difference in aperture of both systems, and was obtained empirically from various data. Of course, an appropriate value can be selected according to the characteristics of the system. Further, the transmittance A transparency is converted into the transmittance B transparency for the system B using, for example, the table shown in FIG. Note that the relationships shown in FIG. 4 are obtained by comprehensively considering various data, and appropriate values can be selected depending on the system. Mapping image conversion is performed as follows. In system A, the mapping image parameters are A c red and A cgre for red, green, and blue.
The parameters A a red, A d red, etc. of the environmental reflectance and diffuse reflectance when system A performs mapping are expressed by the formula (
27) to (32). A a red=A a redxA c
red...(27) A a gr138n =A a Qrln XA CQreen・
... (28) A a tllLIe=A a bl
ueXA Cblue... (29) A d red=A d redxA
c red... (30) A d green = A d (Jreen XA C-gr1
3en... (31) A d blue=A d blue
xA c blue... (32) Also, in the mapping image of system B, each red, green, and blue data is B c red, B c green, B
Set it to c blue. In this case, the environmental reflectance, diffuse reflectance parameters B a red, B d red, etc. when mapping is performed by the system B are calculated using the following equations (33) to (38). B a red=B c redxB a
rea −<33) B a Green=
B CQgreenXB a green
-<34) B a blue = B c b
bluexB a blue - (35)
Bdred=Bcred−
<36) B d vreen=B c qre
en ・(37) B d blue=B c
blue - (38) Therefore, the equations for converting the mapping image from one for system A to one for system B are the following equations (39) to (41). B c red = A c red x B d
red...〈39) B c green =A c area xB d areeen
...(40) B c blue = A c blueexB
d blue...(41) The conversion of the light source parameters is performed as follows.The light source parameters of system A are the position of the light (x. expressed in y, z coordinates) A
and - the direction of the light (expressed in X, v, z coordinates)
A nx, Any, A nz, and the light aperture is A-exp + light color (three primary colors red,
(represented by green, blue) is A red
, A oreen, A blue, type of light (parallel light, point light source, spot light source) A mo
In this case, it is assumed that the light source of system A is not attenuated. Also, the light source parameters of system B are the same as system A: the light position is B X, B Y, B-2, and the light direction is B nx, B ny, B nz.
, light aperture B13Xp, light color B red
, B green , B blue , light intensity B 1ntenSity , light type B
It is assumed that the light source of system B is attenuated by, for example, 1/distance. Therefore, to prevent it from getting too dark, the light intensity s rntensr
Think about ty. When converting, the light position (three-dimensional position), light direction, light aperture, light color, and light type are used as they are in system A, and only the light intensity is changed. Calculated as follows. In this case, the light intensity is defined as the distance between the light position and the nearest shape surface data. This is to match only the most conspicuous shape surfaces. The effects of the embodiment will be explained below. In the example system, CG models such as shape data, camera/shape position data, light source (light) parameters, texture parameters, mapping images, etc. generated for system A are
Instead of performing rendering on system A, rendering is performed at high speed on system B, which is faster. At this time, the CG model consisting of light, texture, and mapping information data created for system A is transferred to each system A and B. Convert to a CG model for System B so as to absorb the shadow calculation model. That is, the texture parameters are converted by the texture parameter conversion section 32 according to the above-mentioned equations (1) to (26) and the flowchart of FIG. 3, and are input to the texture parameter reading and storage section 26 for system B. Further, the mapping image is converted by the mapping image conversion unit 34 according to the above-mentioned equations (27) to (41) and input to the B system. In this case, when converting and processing the pine pink image, from the texture parameter reading storage unit 20,
Input the diffuse reflection parameter of the surface shown in equation (2). Regarding the conversion of the light source parameters, the light position, light direction, light aperture, light color, and light type are substituted as they are, and only the light intensity is newly calculated. In this case, the distance between the position of the light and the nearest spherical surface data can be taken as the intensity of the light. and,
Regarding the shape data and shape position, those data input into the shape data and shape position input device 12 are used as camera information, and the camera information and the data input into the camera position storage device 38 are used for the camera position, and the texture parameters are inputted into the camera information and camera position storage device 38. Using the data stored in the texture model reading/storage device 14 for system B, the projection image creation device 16 of system B performs rendering. Note that the details of the configuration of the projection image forming apparatus that is system B are described in, for example, Japanese Patent Application No. 149765/1982, and therefore detailed explanation will be omitted here. As described above, the texture model, shape data, etc. of system A are input to system B, thereby allowing system B to render the 00 image at high speed. Effects of the Invention As explained above, according to the present invention, the C0 image model produced by the first system is passed to the second system B, which absorbs the difference in the shading calculation model, and performs rendering. This improves work efficiency. Therefore, there is no need to set different CG production parameters for each system, which reduces the workload and improves the efficiency of image data usage. Furthermore, there is no need to store and manage CG production parameters for each system. In particular, a CG model previously produced using a low-speed CG production system can be used to perform rendering processing in the future using another high-speed CG production system. Therefore, the CGI accumulated with the old system! You can migrate to a faster system without losing your production know-how. Furthermore, with the speeding up of computers, excellent effects such as the ability to freely speed up the CG system can be obtained.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明の実施例に係るレンタリングシステム
の全#構成を示すブロック図、第2図は、前記実施例の
インターフェイス部の全#構成を示すブロック図、 第3図(Aン、(B)、(C)は、前記実施例の作用を
説明するための、鏡面反射の変換手原を示す流れ図、 第4図は、同じく透過率の変換例を示す線図である。 1・・・システムA、 2・・・システムB、 3・・・インタフェイス部、 4・・・情報フォーマット変換部、 5・・・形状設計部、 6・・・形状設計指定部、 7・・・カメラ・光源・形状位置情報指定部、8・・・
質感・光源・マヅピング情報指定部、10・・・システ
ム用質感モデル読込み装置、12・・・形状データ・形
状位置入力装置、14・・・システムB用質感モデル読
込み格納装置、16・・・システムB用役影画像作成装
置、18・・・レンダリング・インタフェイス(I/F
)装置、 20・・・第1の質感パラメータ読込み格納部、22・
・・第1のマツピング画像読込み格納部、24・・・第
1の光源パラメータ読込み格納部、26・・・第2の質
感パラメータ読込み格納部、28・・・第2のマツピン
グ画像読込み格納部、30・・・第2の光源パラメータ
読込み格納部、32・・・質感パラメータ変換部、 34・・・マツピング画像変換部、 36・・・光源パラメータ変換部、 38・・・カメラ情報、カメラ位置入力装置。 第1図 2(システムB) 第2図 第3図 (A) 第3図 (B) 第3図 <C)
FIG. 1 is a block diagram showing the entire configuration of the rental system according to the embodiment of the present invention, FIG. 2 is a block diagram showing the entire configuration of the interface section of the embodiment, and FIG. , (B), and (C) are flowcharts showing specular reflection conversion instructions for explaining the operation of the embodiment, and FIG. 4 is a diagram showing an example of transmittance conversion. 1 ...System A, 2...System B, 3...Interface unit, 4...Information format conversion unit, 5...Shape design unit, 6...Shape design specification unit, 7...・Camera/light source/shape position information specification section, 8...
Texture/light source/mapping information specification unit, 10... System texture model reading device, 12... Shape data/shape position input device, 14... System B texture model reading storage device, 16... System B role image creation device, 18...rendering interface (I/F
) device, 20... first texture parameter reading storage section, 22.
... first mapping image reading storage section, 24 ... first light source parameter reading storage section, 26 ... second texture parameter reading storage section, 28 ... second mapping image reading storage section, 30... Second light source parameter reading storage section, 32... Texture parameter converting section, 34... Mapping image converting section, 36... Light source parameter converting section, 38... Camera information, camera position input Device. Figure 1 2 (System B) Figure 2 Figure 3 (A) Figure 3 (B) Figure 3<C)

Claims (1)

【特許請求の範囲】[Claims] (1)コンピュータグラフィックスシステムにおいて、
第1のシステムが製作した物体形状情報、カメラ情報、
カメラ位置情報、光源位置情報、物体形状の位置情報、
質感情報、光源情報、マッピング情報等からなるコンピ
ュータグラフィックスモデルを、第1のシステムとは陰
影計算モデルが相違する第2のシステムでレンダリング
するための装置であつて、 第1のシステムの質感情報を入力して、第2のシステム
用の質感情報に変換するための手段、第1のシステムの
光源情報を入力して、第2のシステム用の光源情報に変
換するための手段、及び、第1のシステムのマッピング
情報を入力し、第2のシステム用のマッピング情報に変
換するための手段を含み、前記陰影計算モデルの相違を
吸収するためのインタフェイス部と、 第1のシステムから読出される情報のうちインタフェイ
ス部の情報フォーマットと異なる情報フォーマットで読
出されたものを前記インタフェイス部の情報フォーマッ
トに変換するための手段と、を備えたことを特徴とする
レンダリング装置。
(1) In a computer graphics system,
Object shape information produced by the first system, camera information,
Camera position information, light source position information, object shape position information,
An apparatus for rendering a computer graphics model consisting of texture information, light source information, mapping information, etc. in a second system having a different shading calculation model from the first system, the apparatus rendering the texture information of the first system. means for inputting light source information of the first system and converting it into texture information for the second system; means for inputting light source information of the first system and converting it into light source information for the second system; an interface unit including means for inputting mapping information of one system and converting it into mapping information for a second system, and absorbing differences in the shadow calculation model; A rendering device comprising: means for converting information read out in an information format different from the information format of the interface section into the information format of the interface section.
JP29679090A 1990-09-03 1990-11-01 Rendering device Pending JPH04169980A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP29679090A JPH04169980A (en) 1990-11-01 1990-11-01 Rendering device
US08/396,895 US5566283A (en) 1990-09-03 1995-03-01 Computer graphic image storage, conversion and generating apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29679090A JPH04169980A (en) 1990-11-01 1990-11-01 Rendering device

Publications (1)

Publication Number Publication Date
JPH04169980A true JPH04169980A (en) 1992-06-17

Family

ID=17838167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29679090A Pending JPH04169980A (en) 1990-09-03 1990-11-01 Rendering device

Country Status (1)

Country Link
JP (1) JPH04169980A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0810552A3 (en) * 1996-05-28 1999-06-16 Sharp Kabushiki Kaisha Image display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0810552A3 (en) * 1996-05-28 1999-06-16 Sharp Kabushiki Kaisha Image display device

Similar Documents

Publication Publication Date Title
CA2239279C (en) Image generating apparatus and method
US9202309B2 (en) Methods and apparatus for digital stereo drawing
US5566283A (en) Computer graphic image storage, conversion and generating apparatus
US7873909B2 (en) Manipulation and merging of graphic images
CN1703724B (en) Background color removal method for Baud-Daff synthesis
WO2025050831A1 (en) Building group rendering method and apparatus, computer device, and storage medium
CN115908606A (en) Coloring method and computer equipment for pile embroidery thread drawing based on generative confrontation network
US12272000B2 (en) Hierarchical depth data generation using primitive fusion
US7133052B1 (en) Morph map based simulated real-time rendering
CN114926590B (en) A method for visualizing massive point cloud data
TW200809691A (en) A graphics processing unit and a method of processing border color information
CN116681831A (en) A bottom-up single image panoramic reconstruction method, device and computer equipment
JP3629243B2 (en) Image processing apparatus and method for rendering shading process using distance component in modeling
CN108288247A (en) A kind of realtime graphic detail enhancing method on multi-core DSP platform
TW200529097A (en) Image rendering with multi-level z-buffers
CN118247411B (en) Material map generation method and device
CN111738946B (en) Method and device for enhancing sand-dust degraded image
JPH04169980A (en) Rendering device
JP2003006667A (en) Image processing method for figure made into animation
US7474928B2 (en) Hybrid vector/raster based paint
JP3191012B2 (en) Rendering interface device
CN114298891A (en) An image processing method based on OpenGL ES architecture
JPH04169981A (en) Mirror reflectivity conversion device
JPS63213079A (en) Picture producing device
JPH08249494A (en) Z-buffer type hidden surface erasing device