JPH03214369A - Shape storage system using neurocomputer - Google Patents
Shape storage system using neurocomputerInfo
- Publication number
- JPH03214369A JPH03214369A JP2011116A JP1111690A JPH03214369A JP H03214369 A JPH03214369 A JP H03214369A JP 2011116 A JP2011116 A JP 2011116A JP 1111690 A JP1111690 A JP 1111690A JP H03214369 A JPH03214369 A JP H03214369A
- Authority
- JP
- Japan
- Prior art keywords
- intersection information
- unit
- ray
- neurocomputer
- shape memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Generation (AREA)
Abstract
Description
【発明の詳細な説明】
〔目 次〕
概要
産業上の利用分野
従来の技術と発明が解決しようとする課題課題を解決す
るための手段
作用
実施例
発明の効果
〔概要〕
コンピュータグラフィンクスにおける光線追跡処理にお
ける形状記憶方式に関し、
3次元の形状記憶に必要な、見えていない部分の計算や
.全ての方向からの可視計算、即ち、イメージ・コンパ
イレイションの実現に必要となる膨大なデータ量を削減
(圧縮)することを目的とし、
物体を囲む外接ハウンディングボンクスを設定して、該
設定されたハウンディングホンクスの各表面上の格子点
を通過する代表的な光線パラメータを交差情報の形で大
域的に記憶するニューロコンピュータを用いた形状記憶
部と、与えられた任意の光線パラメータと、上記形状記
憶部で記憶されている交差情報に基づいて、該物体の形
状を上記交差情報の形で生成するニューロコンピュータ
を用いた生成部と、該与えられた任意の光線パラメータ
に対して、上記生成部から出力される任意の光線に対す
る交差情報に基づいて、3次元映像の合成を行う3次元
映像合成部とを設けて、予め、入力された複数個の光線
に対する物体との交差計算結果(光線パラメータ)に基
づいて、上記形状記憶部で記憶したニューラル・ネント
ワークの結合重みによって、新たに入力された光線パラ
メータに対する交差情報を生成し、該生成された交差情
報に基づいて、3次元映像の合成を行うように構成する
。[Detailed Description of the Invention] [Table of Contents] Overview Industrial Application Fields Prior Art and Problems to be Solved by the Invention Means for Solving the Problems Action Examples Effects of the Invention [Summary] Ray tracing in computer graphics Regarding the shape memory method used in processing, we are focusing on the calculation of invisible parts necessary for three-dimensional shape memory. The purpose of this method is to reduce (compress) the enormous amount of data required to perform visual calculations from all directions, that is, image compilation. A shape memory unit using a neurocomputer that globally stores representative ray parameters passing through grid points on each surface of Hounding Honks in the form of intersection information, and a given arbitrary ray parameter. , a generation unit using a neurocomputer that generates the shape of the object in the form of the intersection information based on the intersection information stored in the shape memory unit, and for the given arbitrary ray parameters, A 3D image synthesis unit is provided that synthesizes a 3D image based on the intersection information for arbitrary light rays output from the generation unit, and the calculation result of the intersection with the object for a plurality of input rays is provided in advance. (ray parameters), intersection information for the newly input ray parameters is generated using the neural network connection weights stored in the shape memory unit, and based on the generated intersection information, 3D Configure to perform video compositing.
本発明は、コンピュータグラフィンクスにおける光線追
跡処理における形状記憶方式に関する。The present invention relates to a shape memory method in ray tracing processing in computer graphics.
一般に、モデリングが完成した形状は、形を変えること
なく、別なシーンで、部品として扱うごとができる。Generally, a shape that has been modeled can be used as a component in another scene without changing its shape.
然して、光線追跡(レイトレーシング)を含めた従来の
映像生成の方法は、懇切丁寧乙こ、殆から計算を行う方
式であった。However, conventional image generation methods, including ray tracing, are methods that perform calculations from scratch.
しかし、上記のように、定義が固定された物体の形状を
そのまま覚え、該記憶した情報を用いて、別なシーンで
の映像を3次元的に合成することができれば、非常に有
効な3次元映像合成法が確立できる。However, as mentioned above, if you can memorize the shape of an object with a fixed definition as it is and use the memorized information to synthesize images from different scenes three-dimensionally, it will be a very effective three-dimensional A video synthesis method can be established.
該3次元映像合成に要求される事項としては、■手前の
物体が、後ろの物体を隠す機能としての隠面処理
■反射,透過,影の表現
■視点によって異゛なる見え方
が必要である。The requirements for 3D image synthesis include: ■ Hidden surface processing that allows objects in the foreground to hide objects behind them ■ Expression of reflections, transmission, and shadows ■ It is necessary to see things differently depending on the viewpoint .
上記、3次元の形状を固定する方式としては、所謂、ホ
ログラフィが従来での唯一の方式であった。これは、物
体の情報を振幅の他に、位相情報も含めて干渉パターン
として記憶するものである。So-called holography has been the only conventional method for fixing the three-dimensional shape. This is to store object information as an interference pattern, including not only amplitude but also phase information.
本発明は、上記ホログラフィの方式とは異なり、該3次
元の形状記憶を光線追跡法の枠組みで行うようにしよう
とするものである。The present invention attempts to perform the three-dimensional shape memory within the framework of a ray tracing method, unlike the holography method described above.
2次元の映像は奥行情報をもっていないため、例えば、
視点を変えた場合には、正しい映像とはならない。これ
を克服するために、3次元の形状記憶を行い、且つ、見
えていない部分の計算や全ての方向からの可視計算が必
要となる。Since 2D images do not have depth information, for example,
If you change the viewpoint, the image will not be correct. In order to overcome this, it is necessary to perform three-dimensional shape memory, and to perform calculations for invisible parts and visible calculations from all directions.
この計算は、本質的に省くことはできない。それは、ど
んな方向から物体を見るかは、計算時には不明であるか
らである。This calculation cannot essentially be omitted. This is because the direction from which the object is viewed is unknown at the time of calculation.
この全方向からの可視計算を、ここでは、イメージコン
パイレイション(imag’e−compi Ia t
ion) と呼ぶことにする。これは、通常の意味の
コンパイルと同様に考えることができる。Here, this visibility calculation from all directions is performed using image compilation.
ion). This can be thought of in the same way as compilation in the normal sense.
該コンパイル時間は確かに長時間必要とする。The compilation time does require a long time.
然し、一旦コンパイルすると、インクプリタ (従来の
映像生成)の処理時間に比べて遥かに小さいコストで映
像の生成を行うことができる。However, once compiled, video can be generated at a much lower cost than the processing time of an inkpreter (traditional video generation).
該イメージコンパイレイションが実現できれば、ホログ
ラフィとは異なる方式による3次元の映像合成が可能に
なる。If this image compilation can be realized, it will become possible to synthesize three-dimensional images using a method different from holography.
〔従来の技術と発明が解決しようとする課題〕第3図は
、従来のイメージコンパイレイションを説明する図であ
る。[Prior art and problems to be solved by the invention] FIG. 3 is a diagram illustrating conventional image compilation.
前述のように、イメージコンパイレイソヨンを行うため
には、物体上の点に対して、全方向がらの光線に対する
可視点を記憶しなくてはならない。As mentioned above, in order to perform image compilation, visible points for light rays in all directions must be stored for points on the object.
これに必要なデータ量を試算すると、例えば、物体を1
面が512 X 512個の格子からなるバウンディン
グボックスで外接させ、各格子点について、「1度」の
解像度の光線を記憶すると仮定し、該可視点データ(T
)を4ハイトの浮動小数点データとし、法線を4ハイ゛
ト×3方向−12ハイトの浮動小数点データとすると、
各面について、512 X512 X360 X180
X16ハイト#270Gハイト
のデータ量が必要となる。If we estimate the amount of data required for this, for example,
Assuming that the surface is circumscribed by a bounding box consisting of a 512 x 512 grid, and that a ray with a resolution of "1 degree" is stored for each grid point, the visible point data (T
) is 4-height floating point data, and the normal is 4-height x 3 directions - 12-height floating point data, then
For each side, 512 x 512 x 360 x 180
A data amount of X16 height #270G height is required.
従って、該3次元の映像合成のためCこ、上記イメージ
コンパイレイションの結果により、物体の形状を記憶す
ることは、現実的には困難であるという問題があった。Therefore, there is a problem in that it is actually difficult to memorize the shape of an object based on the result of the image compilation for the three-dimensional image synthesis.
本発明は上記従来の欠点に鑑み、コンビュークグラフィ
ノクスるこおける光線追跡処理における形状記憶を行う
のに、3次元の形状記憶に必要な、見えていない部分の
計算や,全ての方向からの可視計算、即ち、イメージ・
コンパイレインヨンの実現に必要となる膨大なデータ量
を削減(圧縮)することができる形状記憶方式を提供す
ることを目的とするものである。In view of the above-mentioned drawbacks of the conventional technology, the present invention has been developed to perform shape memory in ray tracing processing using Conbuque Graphicnox. Visual computation of the image, i.e.
The purpose is to provide a shape memory method that can reduce (compress) the huge amount of data required to implement a compiler.
(課題を解決するための手段〕
第1図は本発明の原理を説明する図であり、(a)はシ
ステム構成を示し、(b)はニューラル・矛ントワーク
学習装置,生成装置の構成例を示し、(c)はニューラ
ル・ネソトワークの入出力特性を示し、(d)はニュー
ラル・ネントワークの構造例を示している。(Means for Solving the Problems) Fig. 1 is a diagram explaining the principle of the present invention, in which (a) shows the system configuration, and (b) shows an example of the configuration of the neural/distortion work learning device and generation device. (c) shows the input/output characteristics of the neural network, and (d) shows an example of the structure of the neural network.
上記の問題点は下記のように構成した形状記憶方式によ
って解決される。The above problems are solved by a shape memory method configured as follows.
コンピュータグラフィンクスにおける光線追跡処理にお
ける形状記憶方式であって、
物体を囲む外接バウンディングボックスを設定して、該
設定されたバウンディングボックスの各表面上の格子点
を通過する代表的な光線パラメタを交差情報の形で大域
的に記憶するニューロコンピュータを用いた形状記憶部
1と、
与えられた任意の光線パラメータと、上記形状記憶部1
で記憶されている交差情報に基づいて、該物体の形状を
上記交差情報の形で生成するニューロコンピュータを用
いた生成部2と、該与えられた任意の光線パラメータに
対して、上記生成部2から出力される任意の光線に対す
る交差情報に基づいて、3次元映像の合成を行う3次元
映像合成部3とを設けて、
予め、入力された複数個の光線に対する物体との交差計
算結果に基づいて、上記記憶部1で記憶したニューラル
・ネットワークの結合重みによって、新たに入力された
光線パラメータに対する交差情報を生成し、該生成され
た交差情報に基づいて、3次元映像の合成を行うように
構成する。A shape memory method for ray tracing processing in computer graphics, in which a circumscribed bounding box surrounding an object is set, and representative ray parameters passing through grid points on each surface of the set bounding box are stored as intersection information. A shape memory unit 1 using a neurocomputer that stores globally in the form of a given arbitrary ray parameter, and the shape memory unit 1
a generating section 2 using a neurocomputer that generates the shape of the object in the form of the intersection information based on the intersection information stored in the above; A 3D image synthesis unit 3 is provided which synthesizes a 3D image based on intersection information for arbitrary light rays output from the 3D image synthesis unit 3, and a 3D image synthesis unit 3 is provided to synthesize a 3D image based on intersection information for arbitrary rays output from the 3D image synthesis unit 3. Then, intersection information for the newly input ray parameters is generated using the neural network connection weights stored in the storage unit 1, and a three-dimensional image is synthesized based on the generated intersection information. Configure.
即ち、本発明は、ニューロコンピュータの持っている特
徴の一つとして、離散的な点における学習と、学習され
ていない点に対して補間して生成結果を出力する機能が
あること乙こ着目して、この特性をコンピュータグラフ
ィノクスで生成された物体の形状の記憶に用いるもので
ある。That is, the present invention focuses on the fact that one of the characteristics of a neurocomputer is that it has the ability to learn at discrete points and the ability to interpolate for points that have not been learned and output a generated result. This characteristic is used to store the shape of objects generated by computer graphics.
即ち、本方式の記憶表現には、ニューラル・ネットワー
クによる分散表現を用いて、膨大な情報量を効率的に記
憶する。That is, the memory representation of this method uses distributed representation using a neural network to efficiently store a huge amount of information.
更に、交差情報の生成部,及び、3次元映像合成部では
、上記ニューロコンピュータの補間機能を用いて、学習
時に与えられていない角度の光線や,格子点を通る光線
の物体との交差情報(具体的には、可視点,法線ヘクタ
)の生成結果を用いて、該3次元映像の合成を行うよう
にする。Furthermore, the intersection information generation unit and the three-dimensional image synthesis unit use the interpolation function of the neurocomputer to generate intersection information ( Specifically, the three-dimensional images are synthesized using the generation results of visible points and normal hectares.
該ニューロコンピュータによる形状記憶処理で学習した
交差情報(認識パターン)は該物体固有の情報として、
例えば、データヘースに登録しておき、3次元の映像合
成に使用する。The intersection information (recognition pattern) learned through shape memory processing by the neurocomputer is information unique to the object,
For example, it can be registered in a data database and used for three-dimensional image synthesis.
以下、「ニューロコンピュータ学習.認識装置」ニュー
ラル・ネソトワーク学習装置20は学習パターン保持部
201と,ニューラル・ネントワク実行部200と,重
み更新部202からなる。学習パターン保持部201で
は入力パターン(光線パラメータ)と.それに対する望
ましい出力パターン(交差情報:教師信号)を保持して
いる。Hereinafter, "neurocomputer learning and recognition device" The neural neural network learning device 20 consists of a learning pattern holding section 201, a neural neural network execution section 200, and a weight updating section 202. The learning pattern holding unit 201 stores input patterns (ray parameters) and . It holds the desired output pattern (cross information: teacher signal) for it.
ハノクブ口パゲーション法を通用するニューラル・ネノ
トワークは、多層皐ノトワークである。The neural network that can be used with the Hanokubu mouth pagination method is a multilayer network.
各層は多くのユニノトで構成されており、各層のユニン
ト間は、互いにある重みで結合されている。Each layer is composed of many unitots, and the units in each layer are connected to each other with a certain weight.
このZノトワークCこ入カパターンと、望ましい出力パ
ターン(教師信号)の組を与えることによって、ネノト
ワークの重みを学習させることができる。By providing a set of this Z note work C input pattern and a desired output pattern (teacher signal), the weight of the new note work can be learned.
学習は以下の様に進められる。ニューラル・ネットワー
クに或る入力パターンを与え、出力を得る。その出力が
正しくなければ正しい(望ましい)出力値を該ニューラ
ル・ネットワークに教える。すると、ニューラル・ネ,
トワークは正じい出力と実際の出力値の差が滅少するよ
うに、該ニューラル・ネノトワークの内部構造(結合の
強さ一重み)を調整する。これを何度も繰り返すことに
よって、該ニューラル・ネットワークは、或る入出力関
係を満たす様な重みを、自動的に学習していくのである
。この学習アルゴリズムをハックプロパゲーション法と
いう。Learning proceeds as follows. A certain input pattern is given to a neural network and an output is obtained. If the output is incorrect, the correct (desired) output value is taught to the neural network. Then, the neural net,
The network adjusts the internal structure (strength and weight of connections) of the neural network so that the difference between the correct output and the actual output value is minimized. By repeating this many times, the neural network automatically learns weights that satisfy a certain input-output relationship. This learning algorithm is called the hack propagation method.
このようにして学習したニューラル・ネノトヮークを用
いると、学習させた入力パターン(光線パラメータ)に
ついては教示した正しい出力(交差情報)を返すが、更
に学習させていない入力パターン(光線パラメータ)に
ついても学習した入出力パターンを補間した出力パター
ン(交差情報)を返すことができる。これが、ニューラ
ル・ネ,トワークの大きな特徴となっている。When using the neural neowork trained in this way, it returns the correct output (intersection information) taught for input patterns (ray parameters) that have been trained, but it also learns for input patterns (ray parameters) that have not been trained. It is possible to return an output pattern (intersection information) that is an interpolated input/output pattern. This is a major feature of neural networks.
以下に、この学習を行うニューラル・ネ・ノトヮク学習
装置{第1[F(b)参照}について述べる。The neural network learning device (see first [F(b)]) that performs this learning will be described below.
ニューラル・ネットワーク学習装置20は、前述のよう
Cこ、学習パターン保持部201と,ニューラル・ネノ
トワーク実行部200と,重み更新部202からなる。As described above, the neural network learning device 20 includes a learning pattern holding section 201, a neural network execution section 200, and a weight updating section 202.
(1)学習パターン保持部
入力パターンと,それに対する望ましい出力バターン(
教師信号)を保持している。(1) Learning pattern holding unit Input pattern and its desired output pattern (
teacher signal).
(2) ニューラル・ネントワーク実行部多層のネッ
トワーク構造になっている。各層は多くのユニントで構
成されており,各ユニント間には、各々結合の重みWが
定義される。(2) Neural network execution unit It has a multi-layer network structure. Each layer is composed of many units, and a connection weight W is defined between each unit.
各ユニノトは以下に示すようにしてネノトワークの出力
値を計算ず゛る。Each Uninote calculates the output value of the Nenotework as shown below.
あるユニントが複数のユニソトから入力を受けた場合、
その総和に該ユニントの閾値θを加えたものか、入力値
netになる。{第1図(c)参照}即ち、ユニントU
iの入力neJ は、net ; =ΣW i j O
j +θ、W、、: ユニントU4からユニ,ン
}tJiへの結合の重み
OJ = ユニノトUJの出力
e,: ユニントU8の闇値
ユニントの出力値はこの入力の総和netに、活性化関
数を適用して計算される。該活性化関数には微分可能な
非線型関数である、例えば、siBmoi一関数をもち
いると、ユニyトlJ; の出力値0,は、
1
になる。If a unit receives input from multiple units,
The total sum plus the threshold value θ of the unit becomes the input value net. {See Figure 1(c)} That is, unit U
The input neJ of i is net; =ΣW i j O
j + θ, W, ,: Weight of connection from unit U4 to unit }tJi OJ = Output of unit UJ e,: Dark value of unit U8 The output value of unit is the summation net of this input, and the activation function is Calculated by applying. When the activation function is a differentiable nonlinear function, for example, the siBmoi function, the output value 0 of the unit yJ; becomes 1.
ハックプ口パゲーション法で用いるネッワークは、一般
的には多層のネットワークであるが、ここでは通常よ《
用いられる、第1図(d)に示すような3層のネントワ
ークの場合についてのべる。The network used in the hack pagination method is generally a multilayer network, but here we usually
The following describes the case of a three-layer network as shown in FIG. 1(d).
3つの層は入力層,隠れ層,出力層と呼ばれており、各
層は多くのユニントで構成される。隠れ層の各ユニット
は、入力層のすべてのユニットと結合している。出力層
の各ユニントは、入力層と隠れ層のすべてのユニットと
結合している。そして、各層内での結合は無い。The three layers are called the input layer, hidden layer, and output layer, and each layer is composed of many units. Each unit of the hidden layer is connected to all units of the input layer. Each unit of the output layer is connected to all units of the input and hidden layers. There is no connection within each layer.
入力層の各ユニソトには、ネットワークへの入力データ
が与えられる。Each unit in the input layer is given input data to the network.
従って、隠れ層の各ユニノトUJの出力値hJは、
netJ 一 ΣwJ,d,+ OB1
d,:k番目の入力ユニントの出力値
h、:j番目の隠れユニソトの出力値
wJk:k番目の入力ユニットと.j番目の隠れユニン
ト間の結合の重み
e、:j番目の隠れユニノトの闇値
また,出力層の各ユニットの出力値O,は、上記の式よ
り、
h、:j番目の隠れユニノトの出力イ直0,:1番目の
出力ユニントの出力値
wij’J番目の隠れユニットと,i番目の出力ユニノ
ト間の結合の重み
θ,=i番目の出力ユニノトのlld{直となる。Therefore, the output value hJ of each unit UJ in the hidden layer is: netJ - ΣwJ, d, + OB1 d,: output value h of the k-th input unit,: output value wJk of the j-th hidden unit With the unit. The weight of the connection between the j-th hidden unit, e,: the darkness value of the j-th hidden unit. Also, the output value O, of each unit in the output layer is, from the above formula, h,: the output of the j-th hidden unit. i direct 0,: output value wij' of the first output unit; weight θ of the connection between the Jth hidden unit and the i-th output unit; = lld of the i-th output unit;
(3)重み更新部
ネントワークの出力が、望ましい出力になるように、ネ
ントワークの重みを変える部分てある。(3) Weight updating section This section changes the weight of the network so that the output of the network becomes a desired output.
あるパターンpを与えた時の実際の出力値(op,)と
,望ましい出力値(t..i)の平均2乗誤差E,をと
る。When a certain pattern p is given, the mean squared error E between the actual output value (op,) and the desired output value (t...i) is taken.
1
E,= Σ (tp、 O pi)22′
上記、あるパターンpを学習させるためには、この誤差
を減らすように、ネソトワーク中のすべての重みを変え
る。1 E, = Σ (tp, O pi)22' As mentioned above, in order to learn a certain pattern p, all the weights in the network are changed so as to reduce this error.
・出力層についての学習規則(上記の誤差を滅ら為の学
習規則)
)隠れ層のユニットU、一出力層のユニットU.の間の
重みの変化ΔW;J(n)は、Δw== (n)=ηΣ
δail”lpj +txΔwij(n1)
11)入力層のユニノトU5一出力層のユニ,トU80
間の重みの変化ΔWik(n)は、ΔWi1( (n
) −77Σδ9、d., +rxΔWi,(fi1
)
ここで、n:学習回数
α:モーメンタム(上記、s i gmo id関数の
滑らかさ)
δpr= (tp.Op=) (Op; (1
op;) )・隠れ層についての学習規則
入力層のユニットU, 一隠れ層のユニッl−UJO間
の重みの変化ΔWJk(n)は、
ΔwJk(n)=ηΣδ.JhpJ +CXΔWJk(
n1)
δ,J= h pj ( 1 −’h pj)Σδ.i
Wijで求められる。・Learning rules for the output layer (Learning rules to eliminate the above errors) Unit U in the hidden layer, unit U in the output layer. The change in weight between ΔW; J(n) is Δw== (n)=ηΣ
δail”lpj +txΔwij(n1) 11) Input layer UNINOTO U5 - output layer UNINOTO U80
The weight change ΔWik(n) between ΔWi1((n
) −77Σδ9, d. , +rxΔWi, (fi1
) Here, n: number of learning α: momentum (smoothness of the s i gmo id function above) δpr= (tp.Op=) (Op; (1
op;) )・Learning rule for hidden layer The change in weight between the input layer unit U and one hidden layer unit I-UJO, ΔWJk(n), is as follows: ΔwJk(n)=ηΣδ. JhpJ +CXΔWJk(
n1) δ, J=h pj (1 −'h pj)Σδ. i
It can be found in Wij.
上記の平均2乗誤差E,を減らすように、上記重み変化
ΔW、、,ΔWik.ΔWjkを計算して、ニューラル
・ネソトワークに与えることで、学習が行われる。The weight changes ΔW, , ΔWik. Learning is performed by calculating ΔWjk and providing it to the neural network.
上記の各入力層,隠れ層,出力層での各ユニントの出力
値を与える式,或いは、出力層,隠れ層での学習規則の
式の導出過程の詳細については、例えば、rPDPモデ
ル“認知科学とニューロン回路網の探索”,D.E.ラ
メルハー1− ,J.L.マクレランド, PDPリサ
ーチグループ著,甘利俊一監訳,平成元年2月27日,
産業図書株式会社,初版刊」に詳しいので、ここでは、
結果のみ乙こついて示すのみとする。For details on the process of deriving the formulas that give the output values of each unit in each input layer, hidden layer, and output layer, or the formulas for learning rules in the output layer and hidden layers, see the rPDP model "Cognitive Science and Exploration of Neuronal Networks”, D. E. Ramelhar 1-, J. L. McClelland, PDP Research Group, supervised translation by Shunichi Amari, February 27, 1989,
As I am familiar with "Sangyo Tosho Co., Ltd., First Edition", I will explain it here.
Only the results will be presented here.
■ 結合の重み記憶部(データヘース)結合重み記憶部
2lでは、上記ニューラル・ネントワークの各ユニット
間の重みを、任意の学習段階で保存する。(2) Connection weight storage unit (data storage) The connection weight storage unit 2l stores the weights between each unit of the neural network at any learning stage.
■
■ 生成装置
生成装置22は、上記結合重み記憶部(データヘース)
21に保存してあるニューラル・ネソトワクの結合重み
をロードし、上記学習時とは異なる入力パターン(光線
パラメータ)を与えると、各ユニントの結合重みによっ
て定まる該ニューラル・ネットワークの出力(交差情報
)を計算する。■ ■ Generation device The generation device 22 stores the connection weight storage unit (data storage)
By loading the connection weights of the neural network stored in 21 and giving an input pattern (ray parameters) different from the one used in the above learning, the output (intersection information) of the neural network determined by the connection weights of each unit can be obtained. calculate.
以上のように学習した不ノトワークを用いると、学習さ
せた入力パターンについては、上記教示した正しい出力
を返すが、更に学習させていない入力パターンについて
も学習した入出力パターンを元乙こしたような出力、即
ち、上記補間出力のパターン(交差情報)を返すように
機能する。When using the non-notowork learned as described above, for input patterns that have been learned, the correct output as taught above will be returned, but for input patterns that have not been trained, it will also return the input/output pattern that was learned. It functions to return the output, ie, the pattern (intersection information) of the above interpolated output.
該ニューロコンピュータは上記のように機能するので、
物体の形状をニューラル・ネントワークの結合重みとし
て記憶し、このデータを、該ニューラル・ネソトワーク
にストア.或いは、ロードし、該ニューラル・ネソトワ
ークに新たな光線パラメータを入力することによって、
学習時とは異なる人力光線に対する物体との交差情報(
可視点法線ヘクタ)を得ることができ、その光線に対す
る3次元映像を、現実的な記憶手段と,現実的な処理時
間によって合成することができる効果がある。Since the neurocomputer functions as described above,
The shape of the object is memorized as the connection weight of the neural network, and this data is stored in the neural network. Alternatively, by loading and entering new ray parameters into the neural network,
Intersection information with objects for human-powered rays that is different from that during learning (
This method has the effect of being able to obtain the visible point normal (hectare), and to synthesize a three-dimensional image for that ray using a realistic storage means and a realistic processing time.
以下本発明の実施例を1面によって詳述する。 Embodiments of the present invention will be described in detail below using one page.
前述の第1ばか本発明の原理を説明する図であり、第2
図は本発明の一実施例を示した関であって、(a)は記
憶される形状と,その外接立方体の例を示し、(b)は
ニューロコンピュータへの入出力パターンの例を示し、
(c)は世界座標系と外接立方体の座標系との関係を示
し、(d)はニューロコンピュータからのデータ出力の
例を示し、(e)はンステム構成の例を模式的に示して
おり、形状記憶部1で、先ず、物体に外接するハウンデ
ィングボソクスを設定し、該設定されたハウンディング
ボンクス上の全格子点を通過するN度毎の光線を人力し
たときの各光線と物体との交差を計算し、上記入力した
光線のパラメータ (ハウンディングホ,クスの面番号
,格子点.入射角度)をニューロコンピュータ乙こ入力
し、上記計算で得られた交差情報{可視点情報(例えば
、スカラーデークT),法線ヘクク(NX, Ny.
N2)を教師信号として、学習しfコ光線パラメータと
交差情報との対応関係を、ニューラル・ふソトワークの
結合重みとしてデークヘース(結合重み記憶部)21に
記憶しておき、該記憶されている結合重みを該ニューラ
ル・不ットワークにロードして、新たな、光線パラメー
タを入力して、該入力された光線に対する交差情報を得
て、その光線に対する3次元映像を合成する手段が本発
明を実施するの乙こ必要な手段である。尚、全回を通し
て同じ符号は同し対象物を示している。It is a diagram explaining the principle of the above-mentioned first fool invention, and the second fool is a diagram illustrating the principle of the present invention.
The figures show an example of an embodiment of the present invention, in which (a) shows an example of a memorized shape and its circumscribed cube, (b) shows an example of an input/output pattern to a neurocomputer,
(c) shows the relationship between the world coordinate system and the coordinate system of the circumscribed cube, (d) shows an example of data output from the neurocomputer, and (e) schematically shows an example of the system configuration. In the shape memory unit 1, first set the Hounding Boxes circumscribing the object, and then manually generate each ray of light every N degrees passing through all the grid points on the set Hounding Boxes. The parameters of the ray input above (hounding hole, surface number of the square, lattice point, angle of incidence) are input to the neurocomputer, and the intersection information obtained from the above calculation {visible point information ( For example, scalar data (T), normal Hekku (NX, Ny.
N2) as a teacher signal, and stores the correspondence between the learned f-ray parameters and the intersection information in the database (connection weight storage unit) 21 as connection weights for the neural/fusotowork, and stores the stored connections. Means for loading weights into the neural network, inputting new ray parameters, obtaining intersection information for the input rays, and synthesizing a three-dimensional image for the rays implements the present invention. This is a necessary means. Note that the same reference numerals indicate the same objects throughout the series.
以下、第1圀を参照しながら第2図によって、本発明の
ニューロコンピュータを用いた形状記憶方式を説明する
。Hereinafter, the shape memory method using the neurocomputer of the present invention will be explained with reference to the first diagram and FIG.
本発明による形状記憶処理は、物体の形状を記憶する段
階と、該記憶された情報を抽出して、3次元の映像を合
成する段階とに分けることができる。Shape memory processing according to the present invention can be divided into a stage of memorizing the shape of an object and a stage of extracting the stored information and synthesizing a three-dimensional image.
形状記憶処理でば、先ず、各物体の形状を3次元的に記
憶する為に、(a)図に示したように、外接立方体(ハ
ウンディングホンクス)を設定し、該ハウンディングボ
ンクスの各面の各格子点を通過するサンプル光線を必要
量出射して、それぞれの光線と物体との交差情報を、予
め、計算して、該入力された光線と該光線に対する物体
との交差情報を関係付ける。In shape memory processing, first, in order to memorize the shape of each object three-dimensionally, as shown in figure (a), a circumscribed cube (Hounding Honks) is set, and the shape of the Hounding Bonks is Emit the required amount of sample rays passing through each grid point on each surface, calculate the intersection information between each ray and the object in advance, and calculate the intersection information between the input ray and the object with respect to the ray. relate.
即ち、該ハウンディングホ,クスの各表面の格子点に対
して、幾つかのサンプルされた角度(α)の光線に対す
る可視点と,その法線ヘクタを求める。That is, for each grid point on the surface of the hounding hole, visible points and normal hectares for light rays at several sampled angles (α) are determined.
前述のように、各格子点に対して、必要量のサンプル光
線の情報を記憶することは、従来の技術では事実上不可
能であった。As mentioned above, it has been virtually impossible with the prior art to store the necessary amount of sample ray information for each grid point.
本発明においては、この対応関係の情報の記憶を、ニュ
ーロコンピュータの学習によって実現する。In the present invention, storage of this correspondence information is realized by learning of a neurocomputer.
該ニューロコンピュータに対する入力パターンは、各光
線(i)に対する、
■ハウンディングホックスの面番号情報■各面の通過格
子点情報(G.”,Gy’)■光線の入射角度(但し、
世界座標系での方向余弦)(α、”.α,”、α2”)
で、これらを光線パラメータと総称する。The input pattern to the neurocomputer is, for each ray (i), ■ Surface number information of Hounding Hox ■ Passing grid point information for each surface (G.'', Gy') ■ Incident angle of the ray (however,
direction cosine in the world coordinate system) (α, “.α,”, α2”), and these are collectively called ray parameters.
該入力パターンに対する教師信号として、上記各光線に
対する物体との交差情報、即ち、(1)上記ハウンディ
ングボックスの格子点から物体の交点迄のスカラーデー
ク(T)
(2)該交点での法線ヘクタ(NX’, Ny’, N
2’)を入力することで、該ニューラル・ネノトワーク
の出力パターンと、上記教師信号との差が小さくなるよ
うに学習され、該学習結果は該ニューロコンピュータの
ニューラル・不ノトワークの結合重みとして記憶され、
例えば、データヘース21に格納される。{(e)図参
照}
,t図の(b)は該ニューロコンピュータへの上記入出
力のパターンを示したもので、それぞれの入出力パター
ンは、゛0”〜“1゛ の範囲に入るよう乙こ規格化さ
れで使用される。As a teacher signal for the input pattern, information on the intersection of each of the rays with the object, that is, (1) a scalar dike (T) from the lattice point of the hounding box to the intersection of the object, (2) the normal at the intersection Hector (NX', Ny', N
2'), the neural computer learns to reduce the difference between the output pattern of the neural computer and the teacher signal, and the learning result is stored as the connection weight of the neural computer's neural computer. ,
For example, it is stored in the data cache 21. {See figure (e)} , (b) of figure t shows the above-mentioned input/output patterns to the neurocomputer, and each input/output pattern is set to fall within the range of ``0'' to ``1''. It is standardized and used.
次に、3次元映像゛合成段階の処理を説明する。Next, the processing at the three-dimensional image synthesis stage will be explained.
この段階では、先ず、前処理として、(c)図乙こ示し
たようCこ、世界座標系上での光線を該当ハウンディン
グホノクス(外接立方体)の固有座標系己こ変換する。At this stage, first, as a preprocessing, the rays on the world coordinate system are transformed into the eigencoordinate system of the corresponding Hounding Honox (circumscribed cube) as shown in FIG.
この変換によって、固定された形状をシーンの任意の部
分に移動させたり、回転することが可能になる。This transformation allows fixed shapes to be moved or rotated to any part of the scene.
続いて、該物体に対する視点からの光線か、−L記ハウ
ンディングホノクスのどの面の,どの位置を通過するか
を計算する。Next, it is calculated which surface and which position of the -L Hounding Honox the light ray from the viewpoint of the object passes through.
この計算は、(e) Uaに示したように、例えば、汎
用計算機上で、通常の、光線と立方体との交差計算によ
って行う。As shown in (e) Ua, this calculation is performed, for example, on a general-purpose computer by ordinary calculation of the intersection of a ray and a cube.
次に、上記記憶されている結合重み情報をニューラル・
ネットワークCこロートした後、上記のようにして求め
た、視点からの光線のパラメータ、即ち、「面番号」
「通過格子点(GX’ ,Gy’ ) 」[光線の角度
(αウ′,α,゜,α2゛)」を入カパターンとして入
力すると、該結合重みに従った可視点(T:スカラー表
示)と、その法線ベクタ(NY’,Ny”,NX’)が
、補間された値として出力される。Next, the above memorized connection weight information is applied to the neural
After traversing the network C, the parameters of the ray from the viewpoint obtained as described above, ie, "surface number", "passing grid point (GX', Gy')", [ray angle (αu', α ,゜,α2゛)'' as an input pattern, the visible point (T: scalar display) according to the connection weight and its normal vector (NY', Ny'', NX') are interpolated. Output as a value.
(d)図は学習の完了したニューロコンピュータから上
記可視点(T) と,その法線ヘクタ(NX’,Ny旨
゛)が出力される動作を模式的に示したものである。Figure (d) schematically shows the operation in which the visible point (T) and its normal hector (NX', Ny) are output from the neurocomputer that has completed learning.
」二記のようにして求めた、可視点と、その法綿ヘクタ
情報を用いて、所望の3次元の映像を合成するのである
。A desired three-dimensional image is synthesized using the visible points and their hectare information obtained as described in Section 2 above.
(e)図は上記の形状記憶方式のシステム構成例を模式
的乙こ示したものである。Figure (e) schematically shows an example of the system configuration of the above-mentioned shape memory method.
形状記憶部1では、ハウンディングホノクスの各格子点
を通過する光線(光線パラメータ)を出し、これとハウ
ンディングボンクス内の物体との交点(可視点)と,法
線ベクタ、即ち、交差情報を、例えば、汎用計算機上で
算出する。この際に、該ハウンディングボンクスを構成
する、例えば、8個の面を識別しておく。The shape memory unit 1 outputs a ray (ray parameter) that passes through each grid point of the Hounding Bonx, and calculates the intersection point (visible point) of this with the object in the Hounding Bonx and the normal vector, that is, the intersection. The information is calculated, for example, on a general-purpose computer. At this time, for example, eight faces forming the Hounding Bonx are identified.
上記の算出で得られた交差情報{即ち、可視点(T)と
,法線ベクタ}を教師信号とし、上記光線パラメータを
入力パターンとして、ハウンディングボックスの面毎に
、上記ニューロコンピュータで学習を行う。Using the intersection information (i.e., visible point (T) and normal vector) obtained in the above calculation as a teacher signal and the above ray parameters as an input pattern, the neurocomputer performs learning for each face of the haunting box. conduct.
該学習結果のニューラル・ネットワークの結合重みが記
憶の本体となり、これを、例えば、データヘース21に
格納することにより、上記記憶処理を完了する。The connection weights of the neural network resulting from the learning become the main body of the memory, and by storing this in the data cache 21, for example, the above storage process is completed.
生成部2では、最初、視点からの光線と上記バウンディ
ングボックスとの交差(光線パラメータ)の計算を、例
えば、汎用計算機上で行う。The generation unit 2 first calculates the intersection (ray parameter) between the ray from the viewpoint and the bounding box, for example, on a general-purpose computer.
このとき、上記光線パラメータを,世界座標系から該ハ
ウンディングボックスの持つ固有座標系に変換する。こ
れは、記憶時と同し光線バラメークを使用することを意
味する。At this time, the ray parameters are converted from the world coordinate system to the unique coordinate system of the haunting box. This means that the same ray variation is used as when storing.
続いて、対応する物体のニューラル・ネットワークの結
合重みを、上記データヘース21からニューラル・ネッ
トワークにロードする。Subsequently, the neural network connection weights of the corresponding objects are loaded from the data base 21 into the neural network.
このニューラル・ネントワークに対して、上記生成部2
で算出した光線パラメータを入力すると、上記形状記憶
部1での記憶処理時に与えられていない光線に対しても
、前述のように、補間された交差情報が出力される。For this neural network, the generation unit 2
When the ray parameters calculated in are input, interpolated intersection information is output as described above even for rays that were not given during the storage process in the shape memory section 1.
この値、即ち、可視点(T) と,法線ヘクタ(NX’
N yl . N . l )を用いて、3次元映像合
成部(例えば、汎用計算機)3で、公知の映像処理{こ
より、光線追跡法のアルゴリズムを実行して3次元の映
像合成を行うことができる。This value, that is, the visible point (T) and the normal hector (NX'
Nyl. N. 1), a three-dimensional image synthesis unit (for example, a general-purpose computer) 3 executes a known image processing algorithm (ray tracing algorithm) to perform three-dimensional image synthesis.
このように、本発明は、コンピュータグラフィンクスに
おける光線追跡処理において形状を記憶するのに、モデ
リングが完成した形状は、形を変えることなく別なンー
ンで部品として使うことができること,及び、ニューロ
コンピュータに、離敗的な点における学習と、学習せれ
ていない点に対する補間機能があることに着目して、先
ず、物体に外接するハウンディングボックスを設定し、
該ハウンディングホノクス上の全格子点を通過するN度
毎の光線を入力したときの各光線と物体との交差(交差
情報)を計算し、上記入力した光線のパラメータ (ハ
ウ′ンデイングホックスの面番号格子点,入射角度)を
ニューロコンピュータに入力し、上記計算で得られた交
差情報{可視点情報(例えば、スカラーデークT),法
線ヘクタ(NX,N,,N2)を教師信号として、該光
線パラメータと交差情報との対応関係を学習し、ニュー
ラル・ネ7トワークの結合重みとして記憶し、デークヘ
ースに格納しておき、該格納されている結合重みを該ニ
ューラル・不ントワークにロードして、新たな、光線パ
ラメータを入力して、該入力された光線に対する補間さ
れた交差情報を得て、その光線に対する3次元映像を合
成するようにした所に特徴がある。In this way, the present invention is capable of storing shapes in ray tracing processing in computer graphics, but the shape that has been modeled can be used as a component in another program without changing its shape, and that Focusing on the fact that there is a learning function for disastrous points and an interpolation function for unlearned points, we first set a hounding box circumscribing the object,
When inputting rays every N degrees that pass through all grid points on the Hounding Honox, the intersection (intersection information) between each ray and the object is calculated, and the parameters of the input ray (Hounding Honox) are calculated. input the surface number lattice point, incident angle) into the neurocomputer, and input the intersection information {visible point information (for example, scalar data T), normal hector (NX, N, , N2) obtained by the above calculation into the teacher signal. As a result, the correspondence between the ray parameters and the intersection information is learned, memorized as the connection weight of the neural network, stored in the database, and the stored connection weight is loaded into the neural network. The feature is that a new ray parameter is inputted, interpolated intersection information for the input ray is obtained, and a three-dimensional image for the ray is synthesized.
以上、詳細に説明したように、本発明のニューロコンピ
ュータを用いた形状記憶方式は、コンピュータグラフィ
ンクスにおける光線追跡処理において形状を記憶するの
に、物体を囲む外接ノ\ウンディングボノクスを設定し
て、該設定されたハウンディングホソクスの各表面上の
格子点を通過する代表的な光線パラメータを交差情報の
形で大域的に記憶するニューロコンピュータを用いた形
状記憶部と、与えられた任意の光線パラメータと上記形
状記憶部で記憶されている交差情報に基づいて、該物体
の形状を上記交差情報の形で生成すルニューロコンピュ
ータを用いた生成部と、該与えられた任意の光線パラメ
ータに対して、上記生成部から出力される任意の光線に
対する交差情報に基づいて、3次元映像の合成を行う3
次元映像合成部とを設けて、予め、入力され1こ複数個
の光線に対する物体との交差計算結果(光線パラメータ
)に基ついて、上記記憶部で記憶したニューラル・ネノ
トワークの結合重みによって、新たに入カされた光線パ
ラメータに対する交差情報を生成し、該生成された交差
情報に基づいて、3次元映像の合成を行うようにしたも
のであるので、物体の形状をニューラル・ぶットワーク
の結合重みとして記憶し、このデータをニューラル・ネ
ットワークにストア.或いは、ロードし、該ニューラル
・ネノトワークに新たな光線パラメータを入力すること
によって、学習時とは異なる入力光線に対する物体との
交差情報(可視点,法線ヘクタ)を得ることができ、そ
の光線に対する3次元映像を、現実的な記憶手段と,現
実的な処理時間によって合成することかできる効果があ
る。As explained above in detail, the shape memory method using a neurocomputer of the present invention sets a circumscribed \rounding bonox surrounding an object to memorize the shape in ray tracing processing in computer graphics. A shape memory section using a neurocomputer that globally stores representative ray parameters passing through grid points on each surface of the set Hounding Hosox in the form of cross information, and a given arbitrary a generation unit using a neurocomputer that generates the shape of the object in the form of the intersection information based on the ray parameters of and the intersection information stored in the shape memory unit; and the given arbitrary ray parameters. 3, which synthesizes a three-dimensional image based on the intersection information for arbitrary light rays output from the generation unit.
A dimensional image synthesis unit is provided, and based on the intersection calculation results (ray parameters) of one or more input rays with an object, a new image is generated using the connection weights of the neural network stored in the storage unit. Intersection information is generated for the input ray parameters, and a three-dimensional image is synthesized based on the generated intersection information, so the shape of the object is used as the connection weight of the neural network. and store this data in the neural network. Alternatively, by loading the neural network and inputting new ray parameters to the neural network, it is possible to obtain the intersection information (visible point, normal hectare) with the object for the input ray that is different from that at the time of learning, and This has the advantage of being able to synthesize three-dimensional images using a realistic storage means and a realistic processing time.
第1回は本発明の原理を説明する図,
第2回は本発明の一実施例を示した図
第3図は従来のイメーンコンパイレイションを説明する
圀,
である。
圓面において、
1は形状記憶部,
2は交差情報の生成部,又は、生成部,20はニューラ
ル・ネットワーク学習装置21は結合重み記憶部,又は
、データヘース22は生成装置
200はニューラル・゛ネットワーク実行部201は学
習パターン保持部,
202は重み更新部,
3は3次元映像合成部,
をそれぞれ示す。
(a)
本発明の原理を説明する閲
第
■
図
(その1)
(b)
本発明の原理を説明する図
第
l
図
(その2)
(c)
(d)
本発明の原理を説明する図
第
1
図
(その3)
出力
[PX.Py,Pア.NX,Ny,N2]11
↑
入力
↑
[面番号,GX.Gy
α、,α,.α21
(b)
本発明の一実加散11を示した図
第
2
図
(その1)
交差情報tpX’,py’,p.’
l1
NX,Ny
N2′1
?
光線パラメータ
[面番号
GX’ + Gy’ +α8
α,゛,α2′]
G゛
:学習された以外の点
(d)
本発明の一実加散I1を示した図
第
2
図
(その2)The first part is a diagram explaining the principle of the present invention, the second part is a diagram showing an embodiment of the present invention, and the third part is a diagram explaining conventional image compilation. In the circle, 1 is a shape memory section, 2 is a cross information generation section or generation section, 20 is a neural network learning device 21 is a connection weight storage section, or data head 22 is a generation device 200 is a neural network. An execution unit 201 is a learning pattern holding unit, 202 is a weight updating unit, and 3 is a three-dimensional video synthesis unit. (a) Diagram to explain the principle of the present invention (Part 1) (b) Diagram to explain the principle of the present invention Figure l (Part 2) (c) (d) Diagram to explain the principle of the present invention Figure 1 (Part 3) Output [PX. Py, P a. NX, Ny, N2] 11
↑ Input ↑ [Surface number, GX. Gy α,,α,. α21 (b) Diagram showing the one-real addition 11 of the present invention FIG. 2 (Part 1) Cross information tpX', py', p. ' l1 NX, Ny N2'1? Ray parameter [surface number GX' + Gy' + α8 α, ゛, α2'] G゛: Point other than the learned point (d) Figure 2 showing the real dispersion I1 of the present invention (Part 2)
Claims (1)
ける形状記憶方式であって、 物体を囲む外接バウンディングボックスを設定して、該
設定されたバウンディングボックスの各表面上の格子点
を通過する代表的な光線パラメータを交差情報の形で大
域的に記憶するニューロコンピュータを用いた形状記憶
部(1)と、 与えられた任意の光線パラメータと、上記形状記憶部(
1)で記憶されている交差情報に基づいて、該物体の形
状を上記交差情報の形で生成するニューロコンピュータ
を用いた生成部(2)と、該与えられた任意の光線パラ
メータに対して、上記生成部(2)から出力される任意
の光線に対する交差情報に基づいて、3次元映像の合成
を行う3次元映像合成部(3)とを設けて、 予め、入力された複数個の光線に対する物体との交差計
算結果に基づいて、上記形状記憶部(1)で記憶したニ
ューラル・ネットワークの結合重みによって、新たに入
力された光線パラメータに対する交差情報を生成し、該
生成された交差情報に基づいて、3次元映像の合成を行
うことを特徴とするニューロコンピュータを用いた形状
記憶方式。[Claims] A shape memory method in ray tracing processing in computer graphics, comprising: setting a circumscribed bounding box surrounding an object, and passing through a representative lattice point on each surface of the set bounding box; a shape memory unit (1) using a neurocomputer that globally stores light ray parameters in the form of cross information, a given arbitrary ray parameter, and the shape memory unit (1);
a generation unit (2) using a neurocomputer that generates the shape of the object in the form of the intersection information based on the intersection information stored in step 1); A 3D image synthesis unit (3) is provided which synthesizes a 3D image based on the intersection information for arbitrary rays output from the generation unit (2), and a Based on the intersection calculation results with the object, intersection information for the newly input ray parameters is generated using the neural network connection weights stored in the shape memory section (1), and based on the generated intersection information, A shape memory method using a neurocomputer, which is characterized by synthesizing three-dimensional images.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011116A JPH03214369A (en) | 1990-01-19 | 1990-01-19 | Shape storage system using neurocomputer |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011116A JPH03214369A (en) | 1990-01-19 | 1990-01-19 | Shape storage system using neurocomputer |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH03214369A true JPH03214369A (en) | 1991-09-19 |
Family
ID=11769038
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011116A Pending JPH03214369A (en) | 1990-01-19 | 1990-01-19 | Shape storage system using neurocomputer |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH03214369A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05274443A (en) * | 1991-09-25 | 1993-10-22 | Internatl Business Mach Corp <Ibm> | Method and system for computer display |
| JPH06233186A (en) * | 1993-01-29 | 1994-08-19 | Kawai Musical Instr Mfg Co Ltd | Video synthesizing device |
-
1990
- 1990-01-19 JP JP2011116A patent/JPH03214369A/en active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05274443A (en) * | 1991-09-25 | 1993-10-22 | Internatl Business Mach Corp <Ibm> | Method and system for computer display |
| JPH06233186A (en) * | 1993-01-29 | 1994-08-19 | Kawai Musical Instr Mfg Co Ltd | Video synthesizing device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN117036612A (en) | Three-dimensional reconstruction method based on nerve radiation field | |
| CN117710757B (en) | Industrial anomaly detection method and system based on multi-scale feature guidance and fusion | |
| CN119850720B (en) | Method for determining preset position of video monitoring camera | |
| CN114565742A (en) | Dynamic simulation and landing visual simulation system and method for surface of small celestial body | |
| CN116822100A (en) | Digital twin modeling method and simulation test system thereof | |
| Reed et al. | Coupling rendering and generative adversarial networks for artificial SAS image generation | |
| CN119963711B (en) | High-quality semitransparent object reconstruction method based on implicit micro-renderable | |
| US20050185834A1 (en) | Method and apparatus for scene learning and three-dimensional tracking using stereo video cameras | |
| CN119579797A (en) | Reconstruction and visualization method of explosion damage in brick-concrete structures based on deep learning | |
| JPH03214369A (en) | Shape storage system using neurocomputer | |
| CN118762314B (en) | Scene simulation-based image water level identification method and device | |
| CN119625178B (en) | Reconstruction method and device of three-dimensional scene | |
| CN118710814A (en) | A three-dimensional scene construction method, system, terminal and storage medium | |
| Weng et al. | Incremental learning for vision-based navigation | |
| JPH04500738A (en) | Continuous Bayesian estimation using neural network techniques | |
| Gao et al. | A lightweight multi-view 3D surfaces reconstruction method and system for aggregate particles | |
| Zhang | Application of Rhino Modeling Software in Product Fading Surface Modeling Design from the Perspective of Computer | |
| CN114092649B (en) | Picture generation method and device based on neural network | |
| CN119091050B (en) | A 3D reconstruction method of sonar images based on canonical multivariate decomposition of neural radiation fields | |
| CN121392305B (en) | Image Feature Extraction Method Based on Multiple Encoders and Deformable Convolution | |
| Manfredi et al. | Combining CNN Feature Extraction and Kolmogorov-Arnold Networks Regression for Procedural 3D Shape Generation | |
| CN121236170B (en) | A Method and System for 3D Localization of Physical Objects Based on Video Data | |
| Fang et al. | Lightweight Real World 3-D Point Cloud Object Classification Using Synthetic Data | |
| Ge et al. | Nonlinear camera model calibrated by neural network and adaptive genetic-annealing algorithm | |
| Lu | Computer modeling and simulation techniques for computer vision problems |