JPH03216767A - Picture forming device - Google Patents
Picture forming deviceInfo
- Publication number
- JPH03216767A JPH03216767A JP2010861A JP1086190A JPH03216767A JP H03216767 A JPH03216767 A JP H03216767A JP 2010861 A JP2010861 A JP 2010861A JP 1086190 A JP1086190 A JP 1086190A JP H03216767 A JPH03216767 A JP H03216767A
- Authority
- JP
- Japan
- Prior art keywords
- image
- parameters
- parameter
- input
- memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
- A63F2300/6607—Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
Landscapes
- Controls And Circuits For Display Device (AREA)
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
- Processing Or Creating Images (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.
Description
【発明の詳細な説明】 以下の順序で本発明を説明する。[Detailed description of the invention] The present invention will be explained in the following order.
A産業上の利用分野
B発明の概要
C従来の技術
D発明が解決しようとする問題点
E問題点を解決するための手段(第1図)F作用(第1
図)
G実施例
(G1)第1の実施例(第1図〜第3図)(G2)他の
実施例
H発明の効果
A産業上の利用分野
本発明は画像作成装置に関し、例えばコンピュータグラ
フィックによるアニメーション作成装1に適用し得る.
B発明の概要
第1の発明は、画像作成装置において、外部入力のパラ
メータ及び主メモリに格納されたパラメータに基づいて
合成パラメータを生成し、当該合成パラメータに基づい
て入力画像を変形処理することにより、リアルタイムで
動画を作成することができる。A. Industrial field of application B. Overview of the invention C. Conventional technology D. Problem to be solved by the invention E. Means for solving the problem (Fig. 1) F. Effect (Fig. 1)
Figure) G Embodiment (G1) First embodiment (Figures 1 to 3) (G2) Other embodiments H Effects of the invention It can be applied to animation creation device 1 by B Summary of the Invention The first invention is an image creation device that generates synthesis parameters based on externally input parameters and parameters stored in the main memory, and transforms the input image based on the synthesis parameters. , you can create videos in real time.
さらに第2の発明は、画像作成装置において、MIDI
信号に応じてパラメータを生成して入力画像を変形処理
すると共に合成音を出力することにより、MIDI信号
を出力する演奏手段等を当該画像作成装置に接続して動
画をリアルタイムで生成することができる。Furthermore, a second invention provides an image creation device that uses MIDI
By generating parameters according to the signal, transforming the input image, and outputting a synthesized sound, it is possible to generate a video in real time by connecting a performance device that outputs MIDI signals to the image creation device. .
C従来の技術
従来、コンピュータグラフィックによるアニメーション
作成装置においては、キャラクタの各部の基本的な形状
を表す形状データを用いて動画を作成するようになされ
たものが提案されている(特開昭62−26584号公
報)。C. PRIOR TECHNOLOGY In the past, an animation creation device using computer graphics has been proposed that creates a moving image using shape data representing the basic shape of each part of a character (Japanese Patent Application Laid-Open No. 1983-1989). 26584).
このアニメーション装置においては、予め入力した各部
の形状データを所定のパラメータに基づいて変形処理し
た後、変形処理した画像を合成することにより、1つの
画像を形成するようになされている。In this animation device, a single image is formed by transforming shape data of each part input in advance based on predetermined parameters, and then combining the transformed images.
このため合成した画像が所望の変化を呈するように当該
パラメータを設定することにより、簡易に動画を作成し
得る.
D発明が解決しようとする問題点
ところでこの種のアニメーション装置においては、所望
の変化を呈するような動画をリアルタイムで作成するこ
とが困難な問題がある。Therefore, by setting the relevant parameters so that the synthesized image exhibits the desired change, it is possible to easily create a moving image. Problems to be Solved by the Invention In this type of animation device, there is a problem in that it is difficult to create a moving image exhibiting desired changes in real time.
すなわち、所望する動きの動画を作成するためには、一
旦パラメータを設定して動きを確認した後、修正作業を
繰り返す必要がある.
このため例えばキーボードの演奏に追従して変化する動
画を表示する場合、予定された演奏においては、予め時
間をかけてパラメータを設定することにより、あたかも
リアルタイムで変化するような動画を表示することがで
きるのに対し、予定にない即興的な部分においては演奏
に追従した動画を表示し得ず、結局適用し得ない問題が
あった。In other words, in order to create a video with the desired movement, it is necessary to set the parameters once, check the movement, and then repeat the correction work. Therefore, for example, when displaying a video that changes according to a keyboard performance, it is possible to display a video that appears to change in real time by setting parameters over time during a scheduled performance. However, there was a problem in that it was not possible to display videos that followed the performance during unplanned improvisational parts, making it impossible to apply in the end.
本発明は以上の点を考慮してなされたもので、所望の変
化を呈する動画をリアルタイムで作成することができる
画像作成装置を提案しようとするものである。The present invention has been made in consideration of the above points, and it is an object of the present invention to propose an image creation device that can create a moving image exhibiting desired changes in real time.
E問題点を解決するための手段
かかる問題点を解決するため第1の発明においては、入
力画像を格納する入力画像メモリ2と、入力画像の変形
を指定するパラメータQ,R,Sを、順次時系列で格納
する主メモリA,B,Cと、パラメータRQ..RR.
.RSをリアルタイムで入力するパラメータ入力手段2
0、26と、主メモリA,B,Cに格納されたパラメー
タQ,R,S及びパラメータ入力手段20、26を介し
て入力されるパラメータR.Q,RR,RSを所定の比
で加算し、合成パラメータを出力する加算手段l2A,
12B,12G、14A,14B、14C,28A、2
8B,28Cと、入力画像メモリ2に格納された入力画
像を合成パラメータに応じて変形させ、変形画像を生成
する画像処理手段lOと、変形画像を格納する出力画像
メモリ16と、出力画像メモリ16に格納された変形画
像を表示する表示手段6と、合成パラメータを格納する
バッファメモリ32A、32B,32Cと、バッファメ
モリ32A、32B,32Cに格納された合成パラメー
タを主メモリA,B,Cに転送し、主メモリA,B,C
に該合成パラメータをパラメータQ、R,Sとして格納
する合成パラメータ転送手段4とを備えるようにする。E Means for Solving the Problem In order to solve the problem, in the first invention, the input image memory 2 that stores the input image and the parameters Q, R, and S that specify the transformation of the input image are sequentially changed. Main memories A, B, and C are stored in time series, and parameters RQ. .. R.R.
.. Parameter input means 2 for inputting RS in real time
0, 26, parameters Q, R, S stored in the main memories A, B, C and parameters R. Adding means l2A for adding Q, RR, and RS at a predetermined ratio and outputting a synthesis parameter;
12B, 12G, 14A, 14B, 14C, 28A, 2
8B, 28C, an image processing means lO that deforms the input image stored in the input image memory 2 according to the synthesis parameters and generates a deformed image, an output image memory 16 that stores the deformed image, and an output image memory 16. a display means 6 for displaying the deformed image stored in the buffer memory 32A, 32B, 32C for storing the synthesis parameters; Transfer and main memory A, B, C
and a synthesis parameter transfer means 4 for storing the synthesis parameters as parameters Q, R, and S.
さらに第2の発明においては、入力画像を格納する入力
画像メモリ2と、MIDI信号S.を出力するMIDI
信号発生手段20と、MIDI信号S.に応じて、合成
音を発生する合成音発生手段22、24と、MIDI信
号S.に応じて、入力画像の変形を指定するパラメータ
RQ,RR、RSを生成するパラメータ生成手段26と
、入力画像メモリ2に・格納された人力画像をパラメー
タRQ,RR,RSに応じて変形させ、変形画像を生成
する画像処理手段10と、変形画像を格納する出力画像
メモリ16と、出力画像メモリl6に格納された変形画
像を表示する表示手段6とを備えるようにする.
F作用
主メモリA,BXCに格納されたパラメータQ1R,S
と、パラメータ入力手段20、26を介して入力される
パラメータRQ,RR,RSに基づいて合成パラメータ
を生成し、当該合成パラメータに基づいて入力画像を変
形処理すれば、パラメータ入力手段20、26を操作し
て所望の変化を呈する動画をリアルタイムで表示するこ
とができる。Furthermore, in the second invention, an input image memory 2 that stores input images, and a MIDI signal S. MIDI that outputs
The signal generating means 20 and the MIDI signal S. Synthetic sound generating means 22 and 24 generate synthetic sounds according to the MIDI signal S. a parameter generating means 26 that generates parameters RQ, RR, and RS for specifying transformation of the input image in accordance with the input image memory 2; The image processing apparatus is provided with an image processing means 10 for generating a deformed image, an output image memory 16 for storing the deformed image, and a display means 6 for displaying the deformed image stored in the output image memory l6. Parameters Q1R, S stored in F action main memory A, BXC
Then, if a synthesis parameter is generated based on the parameters RQ, RR, and RS inputted via the parameter input means 20 and 26, and the input image is transformed based on the synthesis parameter, the parameter input means 20 and 26 are It is possible to display in real time a moving image that undergoes desired changes through manipulation.
さらにMIDI信号S.に応じて合成音を発生すると共
にパラメータRQSRR,RSを生成して人力画像を変
形処理すれば、MIDI信号S4を出力する所望の演奏
手段を接続して、演奏に追従して変化する動画をリアル
タイムで表示することができる。Furthermore, MIDI signal S. If a synthesized sound is generated according to the performance, parameters RQSRR and RS are generated, and the human image is transformed, a desired performance means that outputs the MIDI signal S4 can be connected, and a moving image that changes according to the performance can be created in real time. It can be displayed in
G実施例 以下図面について、本発明の一実施例を詳述する。G example An embodiment of the present invention will be described in detail below with reference to the drawings.
(G1)第1の実施例
第1図において、1は全体としてアニメーション装置を
示し、リアルタイムで動画を作成する.このためアニメ
ーション装置lにおいては、撮像手段を介して得られた
キャラクタの基本的な形状データを入力画像メモリ2に
格納する。(G1) First Embodiment In FIG. 1, 1 indicates an animation device as a whole, which creates moving images in real time. Therefore, in the animation device 1, basic shape data of the character obtained through the imaging means is stored in the input image memory 2.
すなわち第2図及び第3図に示すように、入力画像メモ
リ2は、キャラクタの足の動きに関する3つの基本的な
形状(第2図(A)、(B)及び(C))と、キャラク
タの腕の動きに関する3つの基本的な形状(第3図(A
)、(B)及び(C))を格納する。That is, as shown in FIGS. 2 and 3, the input image memory 2 stores three basic shapes related to the movement of the character's feet (FIG. 2 (A), (B), and (C)) and the character The three basic shapes related to arm movements (Figure 3 (A)
), (B) and (C)).
これに対応してパラメータメモリ4は、足の動きに関す
るパラメータQ、腕の動きに関するパラメータR及びキ
ャラクタの表示位置に関するパラメータSを、それぞれ
メモリA,B及びCに格納する。Correspondingly, the parameter memory 4 stores a parameter Q related to leg movement, a parameter R related to arm movement, and a parameter S related to the display position of the character in memories A, B, and C, respectively.
このパラメータQ,R及びSは、順次時間軸(時、分、
秒、フレーム番号を基準にして表す)に割り当てられて
それぞれメモリA,B及びCに格納され、これにより当
該パラメータQ,R及びSに応じて入力画像メモリ2に
格納された形状を変形さて合成し、所望の動きのキャラ
クタを表示し得るようになされている。These parameters Q, R and S are sequentially set on the time axis (hours, minutes,
seconds, expressed based on the frame number) and stored in the memories A, B, and C, respectively, and the shape stored in the input image memory 2 is transformed and synthesized according to the parameters Q, R, and S. However, it is possible to display characters with desired movements.
このためパラメータQを格納するメモリAにおいては、
始めにオペレータが所望の時刻T3、T8及びTcを指
定し、モニタ6に表示されるキャラクタの足の形状が、
当該時刻T3、T8及びTCで入力画像メモリ2に格納
された足の形状(第2図(A)、(B>及び(C))に
なるように指定することにより、当該時刻T3、T8及
びTcに値A3、A8及びAcのパラメータQが格納さ
れる。Therefore, in memory A that stores parameter Q,
First, the operator specifies desired times T3, T8, and Tc, and the shape of the character's feet displayed on the monitor 6 is
By specifying the shape of the foot stored in the input image memory 2 at the times T3, T8 and TC (Fig. 2 (A), (B> and (C)), the shapes at the times T3, T8 and TC are specified. Parameter Q with values A3, A8, and Ac is stored in Tc.
さらに時刻T3、T8及びTcのパラメータQの値A3
、A8及びAcから、補間演算の手法を用いて値a1、
a2、a4〜a7、a9〜ab、ad,ae、・・・・
・・のパラメータQが生成され、時刻T3、T8及びT
cの前後の時刻に割り当てられる.
同様にパラメータRを格納するメモリBにおいては、オ
ペレータが所望の時刻T1、T8及びTeを指定し、モ
ニタ6に表示されるキャラクタの腕の形状が、当該時刻
T1、T8及びTeで入力画像メモリ2に格納された腕
の形状(第3図(A)、(B)及び(C))になるよう
に指定することにより、当該時刻T1、T8及びTeに
値B1、B8及びBeのパラメータRが格納される.さ
らに時刻T1、T8及びTeのパラメータRの値B1、
B8及びBeから、補間演算の手法を用いて値b2〜b
7、b9〜bd、・・・・・・のパラメータRが生成さ
れ、時刻T1、T8及びTeの前後の時刻に割り当てら
れる。Furthermore, the value A3 of the parameter Q at times T3, T8, and Tc
, A8 and Ac, the values a1,
a2, a4~a7, a9~ab, ad, ae,...
The parameter Q of ... is generated, and the time T3, T8 and T
It is assigned to the time before and after c. Similarly, in the memory B that stores the parameter R, the operator specifies desired times T1, T8, and Te, and the shape of the character's arm displayed on the monitor 6 is displayed in the input image memory at the relevant times T1, T8, and Te. By specifying the arm shape stored in 2 (Fig. 3 (A), (B), and (C)), the parameters R of values B1, B8, and Be are set at the relevant times T1, T8, and Te. is stored. Further, the value B1 of the parameter R at times T1, T8 and Te,
From B8 and Be, the values b2 to b are obtained using the interpolation method.
Parameters R of 7, b9 to bd, . . . are generated and assigned to times T1, T8, and times before and after Te.
これに対してパラメータSを格納するメモリCにおいて
は、オペレータが所望の時刻T4、T7及びTcを指定
し、時刻T4、T7及びTcでモニタ6に表示されるキ
ャラクタの表示位置を指定することにより、当該時刻T
4、T7及びTcに値C4、C7及びCcのパラメータ
Sが格納される.
さらに時刻T4、T7及びTcのパラメータSの値C4
、C7及びCcから、補間演算の手法を用イテ値c1〜
c3、c5、c6、c8〜cb,cd,ce、・・・・
・・のパラメータSが生成され、時刻T4、T7及びT
cの前後の時刻に割り当てられる.
画像変換処理装置10は、それぞれ重み付け回路12A
,12B及び12Gと加算回路14A,14B及び14
Cを介して、パラメータQ,R及びSを入力し、このと
きパラメータQ,R及びSを時間軸に割り当てられた順
序で入力する。On the other hand, in the memory C that stores the parameter S, the operator specifies desired times T4, T7, and Tc, and specifies the display position of the character to be displayed on the monitor 6 at the times T4, T7, and Tc. , the relevant time T
4, parameter S with values C4, C7, and Cc is stored in T7 and Tc. Furthermore, the value C4 of the parameter S at times T4, T7, and Tc
, C7 and Cc, using the interpolation calculation method, ite value c1 ~
c3, c5, c6, c8~cb, cd, ce,...
... parameters S are generated, and the parameters S are generated at times T4, T7 and T.
It is assigned to the time before and after c. Each image conversion processing device 10 has a weighting circuit 12A.
, 12B and 12G and addition circuits 14A, 14B and 14
Parameters Q, R and S are input via C, with the parameters Q, R and S being input in the order assigned to the time axis.
さらに画像変換処理装置10は、入力画像メモリ2に格
納された形状データを人力し、当該形状データで表され
るキャラクタの各部の形状をパラメータQ,R及びSの
値に応じて変形処理する.すなわち画像変換処理装置1
0は、キャラクタの足においては、キャラクタが歩くよ
うに変形処理し、時刻T1、T2で徐々に変形して時刻
T3で入力画像メモリ2に格納された形状(第2図(A
))に一致するように画像を変形させる.さらに、時刻
T3〜T7にかけて徐々に変形させ、時刻T8で入力画
像メモリ2に格納された形状(第2図(B))に一致す
るように画像を変形させる.
これに対してキャラクタの腕においては、腕が振られる
ように変形処理し、時刻TIで入力画像メモリ2に格納
された形状(第3図(A))と一致した後、時刻T2〜
T8にかけて徐々に変化し、時刻T8で入力画像メモリ
2に格納された形状(第3図(B))と一敗するように
変形させる.さらに画像変換処理装置10は、各時刻T
1、T2・・・・・・で変形処理された足及び腕の形状
を合成してキャラクタの全体形状を形成した後、形成し
たキャラクタの全体形状をパラメータSで決まる位置に
配置する.
出力画像メモリ16は、画像変換処理装置10で生成さ
れた画像を一旦格納した後、ビデオ信号に変換してモニ
タ6に出力する。Furthermore, the image conversion processing device 10 manually processes the shape data stored in the input image memory 2 and transforms the shape of each part of the character represented by the shape data according to the values of the parameters Q, R, and S. That is, the image conversion processing device 1
0, the character's feet are deformed as if the character is walking, gradually deformed at times T1 and T2, and then stored in the input image memory 2 at time T3 (Fig. 2 (A).
)) Transform the image to match. Further, the image is gradually deformed from time T3 to T7, and at time T8, the image is deformed so as to match the shape stored in the input image memory 2 (FIG. 2(B)). On the other hand, the character's arm is deformed so that it swings, and after matching the shape stored in the input image memory 2 at time TI (FIG. 3(A)), the character's arm is deformed so that it swings.
The shape changes gradually over time T8, and at time T8, the shape is transformed so as to match the shape stored in the input image memory 2 (FIG. 3(B)). Furthermore, the image conversion processing device 10
1. After forming the overall shape of the character by combining the shapes of the legs and arms that have been deformed in T2..., the overall shape of the formed character is placed at a position determined by the parameter S. The output image memory 16 temporarily stores the image generated by the image conversion processing device 10, converts it into a video signal, and outputs the video signal to the monitor 6.
これによりモニタ6を介して、オペレータが予め設定し
た変化を呈する動画を表示することができる.
キーボード20は、M I D I (susica
l instrusent degital inte
rface)規格の信号(以下MlDI信号と呼ぶ)S
l1を音源22に出力し、これにより当該キーボード2
0の押鍵操作に応動してスビーカ24から合成音を出力
するようになされている。This allows the monitor 6 to display a moving image exhibiting changes preset by the operator. The keyboard 20 has an MID I (susica
l instrument digital inte
rface) standard signal (hereinafter referred to as MlDI signal) S
l1 to the sound source 22, and thereby the keyboard 2
A synthesized sound is output from the speaker 24 in response to the key press operation.
フィルタ26は、演算処理回路で構成され、MIDI信
号SNに基づいて、スピーカ24から出力される合成音
の音階、強弱、長さを検出し、当該検出結果に基づいて
、3つのパラメータRQ、RR及びRSを生成する.
このときフィルタ26は、メモリA,B及びCに格納さ
れたパラメータQ,R及びSの時間軸と一致する周期で
パラメータRQ,RR及びRSを生成し、重み付け回路
28A、28B及び28Cに出力する。The filter 26 is composed of an arithmetic processing circuit, and detects the scale, strength, and length of the synthesized sound output from the speaker 24 based on the MIDI signal SN, and based on the detection results, three parameters RQ, RR. and generate RS. At this time, the filter 26 generates the parameters RQ, RR, and RS at a period that matches the time axis of the parameters Q, R, and S stored in the memories A, B, and C, and outputs them to the weighting circuits 28A, 28B, and 28C. .
さらにこのときフィルタ26は、それぞれパラメータQ
,R及びSに対応する範囲で値が変化するように、パラ
メータRQ,RR及びRSを生成する。Furthermore, at this time, the filter 26 has a parameter Q
, R and S are generated so that their values change within a range corresponding to R and S.
これにより重み付け回路28A、28B及び28Cにお
いては、キーボード2oの演奏が開始されると、それぞ
れ値AIX,A2X,・・・・・・、BIX,B2X,
・・・・・・及びCIX,C2X,・・・・・・のパラ
メータRQ,RR及びRSを、パラメータQ1R及びS
に対応して入力し得るようになされている.
これに対して係数制御部30は、′キーボード20の演
奏者の操作に応動してキーボード2oから出力される制
御信号SCOエを受け、当該制御信号Scowlに応じ
て重み付け回路12A,12B,12C及び28A、2
8B、28Cにそれぞれ値K1、K3、K5及びK2、
K4及、K6の重み付け係数を出力する.
重み付け回路12A,12B、12C及び28A、28
B、28Cは、当該重み付け係数に応じてパラメータQ
,RSS及びRQSRR及びRSを重み付け処理する.
加算回路14A,14BS 14Cは、それぞれ重み付
け回路12A及び28A,12B及び28B、12C及
び28Cの重み付け処理結果を加算して画像変換処理装
置10に出力する.これにより画像変換処理装置10に
おいては、キーボード20を演奏する場合、パラメータ
Q1R及びSに代えて、当該パラメータQ,R及びSと
パラメータRQ,RR及びRSを合成してなる合成パラ
メータが入力され、当該合成パラメータに基づいて入力
画像メモリ2に格納されたキャラクタの形状を変形処理
する.
従って画像変換処理装置10においては、係数制御部3
0から出力される重み付け係数に応じて、キーボード2
0の演奏に追従して値が変化する合成パラメータを得る
ことができ、当該合成バラメ一夕に基づいて、キャラク
タの形状を変形処理して動画を形成することにより、キ
ーボード20の演奏に追従して変化する動画を得ること
ができる.さらにこのとき重み付け係数を切り換えるこ
とにより、予めメモリASB,Cに設定した動きを主体
にしてキーボード20の演奏に追従する動画を形成した
り、これとは逆にキーボード20の演奏に追従する動き
を主体にして予めメモリA,B、Cに設定した動きを呈
する動画を形成し得、当該動画の表現形式を拡大するこ
とができる。As a result, in the weighting circuits 28A, 28B and 28C, when the performance of the keyboard 2o starts, the values AIX, A2X, . . . , BIX, B2X,
...and the parameters RQ, RR and RS of CIX, C2X, ......, and the parameters Q1R and S
It is designed so that it can be input correspondingly. On the other hand, the coefficient control section 30 receives the control signal SCOe output from the keyboard 2o in response to the player's operation of the keyboard 20, and controls the weighting circuits 12A, 12B, 12C and 12C according to the control signal Scowl. 28A, 2
Values K1, K3, K5 and K2 for 8B and 28C, respectively.
Output the weighting coefficients of K4 and K6. Weighting circuits 12A, 12B, 12C and 28A, 28
B and 28C are parameters Q according to the weighting coefficients.
, RSS, RQSRR and RS are weighted. Adding circuits 14A, 14BS and 14C add the weighting processing results of weighting circuits 12A and 28A, 12B and 28B, 12C and 28C, respectively, and output the result to image conversion processing device 10. As a result, in the image conversion processing device 10, when playing the keyboard 20, instead of the parameters Q1R and S, a composite parameter obtained by combining the parameters Q, R, and S with the parameters RQ, RR, and RS is input, The shape of the character stored in the input image memory 2 is transformed based on the synthesis parameters. Therefore, in the image conversion processing device 10, the coefficient control section 3
Keyboard 2 according to the weighting coefficient output from 0
It is possible to obtain a synthesis parameter whose value changes in accordance with the performance of the keyboard 20, and by deforming the shape of the character and forming a moving image based on the synthesis parameters, it is possible to obtain a synthesis parameter whose value changes according to the performance of the keyboard 20. You can get videos that change depending on the image. Furthermore, by switching the weighting coefficients at this time, a moving image that follows the performance of the keyboard 20 can be formed based on the movements set in advance in the memories ASB, C, or, conversely, a motion that follows the performance of the keyboard 20 can be created. It is possible to create a moving image that exhibits the movements set in the memories A, B, and C in advance, and to expand the expression format of the moving image.
さらにこのとき当該アニメーション装置1においては、
MIDI信号Sκに基づいてパラメータRQ,RR及び
RSを生成することから、キーボード20に代えてMI
DI信号Sやを出力し得るようになされたリズムマシー
ン等、さらには演算処理装置を接続して合成音を出力す
ると共に動画を形成することができる.
従って、その分当該アニメーション装置1の使い勝手を
向上することができる.
さらにこの実施例においては、バッファメモリ32A、
32B,32Cに+れぞれ加算回路14A,14B,1
4cから出力される合成パラメータを格納し、メモリA
,B,Cに格納されたパラメータQ,R,Sを必要に応
じて当該バッファメモリ32A、32B,32Cに格納
した合成パラメータに置き換える得るようになされてい
る.これにより、モニタ6を介して動画の動きを確認し
、オペレータが必要と思われるとき、その動画生成に用
いた合成パラメータを格納することができる.
従ってメモIJA,B,Cの内容を更新することにより
、即興的に作成された動画を再現することができる.
また、必要に応じて動画の修正作業に適用して、当該修
正作業を簡略化することができる.かくしてこの実施例
において、入方画像メモリ2は、入力画像を格納する入
カ画像メモリを構成するのに対し、メモリA,B,Cは
、入カ画像の変形を指定するパラメータQ,R,Sを、
順次時系列で格納する主メモリを構成する.
さらにキーボード20は、MIDI信号S.を出力する
MIDI信号発生手段を溝成し、フィルタ26は、MI
DI信号S.に応じて、入力画像の変形を指定するパラ
メータRQ,RR,RSを生成するパラメータ生成手段
を構成し、これによりキーボード20及びフィルタ26
でパラメータRQ,RR,RSをリアルタイムで入力す
るパラメータ入力手段を構成する。Furthermore, at this time, in the animation device 1,
Since the parameters RQ, RR and RS are generated based on the MIDI signal Sκ, the MIDI
It is possible to connect a rhythm machine, etc. that can output a DI signal S, and further, to output a synthesized sound and create a moving image by connecting an arithmetic processing unit. Therefore, the usability of the animation device 1 can be improved accordingly. Furthermore, in this embodiment, the buffer memory 32A,
Addition circuits 14A, 14B, 1 are added to 32B and 32C, respectively.
Stores the synthesis parameters output from 4c, and stores the synthesis parameters output from memory A.
, B, C can be replaced with the synthesis parameters stored in the buffer memories 32A, 32B, 32C as needed. This allows the operator to check the motion of the moving image via the monitor 6 and store the synthesis parameters used to generate the moving image when deemed necessary. Therefore, by updating the contents of memos IJA, B, and C, it is possible to reproduce an improvised video. In addition, it can be applied to video correction work as needed to simplify the correction work. Thus, in this embodiment, input image memory 2 constitutes an input image memory for storing input images, whereas memories A, B, and C store parameters Q, R, S,
Configure main memory that stores data in sequential time series. Furthermore, the keyboard 20 receives MIDI signals S. The filter 26 constitutes a MIDI signal generating means for outputting the MIDI signal.
DI signal S. The keyboard 20 and the filter 26
constitutes a parameter input means for inputting parameters RQ, RR, and RS in real time.
これに対して重み付け回路12A,12B,12C、2
8A、28B、28C及び加算回路14A,14B、1
4Cは、主メモリA,BSCに格納されたパラメータQ
,R,S及びパラメータ入力手段を介して入力されるパ
ラメータRQ,RR,RSを所定の比で加算し、合成パ
ラメータを出力する加算手段を構成し、画像変換処理回
路10は入力画像メモリ2に格納された入力画像を合成
パラメータに応じて変形させ、変形画像を生成する画像
処理手段を構成する。On the other hand, weighting circuits 12A, 12B, 12C, 2
8A, 28B, 28C and adder circuits 14A, 14B, 1
4C is the parameter Q stored in main memory A, BSC
. An image processing means is configured to transform the stored input image according to the synthesis parameters and generate a transformed image.
さらに出力画像メモリ16は、変形画像を格納する出力
画像メモリを、モニタ6は出力画像メモリ16に格納さ
れた変形画像を表示する表示千段6を形成し、パラメー
タメモリ4はバッファメモリ32A,32B、32Gに
格納された合成パラメータを、主メモリASB,Cに転
送し、主メモリA,BSCに該合成パラメータをパラメ
ータQ、R,Sとして格納する合成パラメータ転送手段
を構成する。Further, the output image memory 16 forms an output image memory for storing a deformed image, the monitor 6 forms a 1,000-stage display 6 for displaying the deformed image stored in the output image memory 16, and the parameter memory 4 forms an output image memory for storing a deformed image. , 32G are transferred to the main memories ASB, C, and the synthesis parameters are stored as parameters Q, R, S in the main memories A, BSC.
以上の構成において、始めに邊像手段を介して得られた
キャラクタの基本的な形状データが入力画像メモリ2に
格納される。In the above configuration, the basic shape data of the character obtained through the side image means is first stored in the input image memory 2.
さらにオペレータが時刻を指定してキャラクタの各部の
形状を指定することにより、キャラクタの足、腕の形状
、キャラクタの表示位置を表すパラメータQ,R及びS
が、時間軸に割り当てられてそれぞれメモリA,B及び
Cに格納される.この予備的処理の後、演奏者がキーボ
ード20を演奏すると、当該キーボード20から出力さ
れるMIDI信号S4に基づいて、パラメータQ、R及
びSに対応するパラメータRQ,RR及びRSが順次フ
ィルタ26で生成され、演奏者の操作に応動して重み付
け回路28A、28B、28Cで重み付け処理される.
同時にメモリA,B及びCに格納されたパラメータQ,
R及びSが、重み付け回路12A、12B、12Cで重
み付け処理され、それぞれ重み付け回路12A及び28
A、12B及び28B,12C及び28Cの重み付け処
理結果が加算回路14A、14B,14Cで加算される
。Furthermore, by specifying the time and the shape of each part of the character, the operator can set the parameters Q, R, and S that represent the shape of the character's legs, arms, and display position of the character.
are allocated to the time axis and stored in memories A, B, and C, respectively. After this preliminary processing, when the performer plays the keyboard 20, the parameters RQ, RR, and RS corresponding to the parameters Q, R, and S are sequentially filtered through the filter 26 based on the MIDI signal S4 output from the keyboard 20. are generated and weighted by weighting circuits 28A, 28B, and 28C in response to the player's operations. Parameter Q stored in memories A, B and C at the same time,
R and S are weighted by weighting circuits 12A, 12B, and 12C, respectively.
The weighting processing results of A, 12B and 28B, 12C and 28C are added by addition circuits 14A, 14B and 14C.
これにより加算回路14A、14B,14Cを介して、
キーボード20の演奏に追従して値が変化する合成パラ
メータを得ることができ、当該合成パラメータに基づい
て入力画像メモリ2に格納されたキャラクタの各部の基
本的な形状が画像変換処理装置10″?:!変形処理さ
れる。As a result, via the adder circuits 14A, 14B, and 14C,
It is possible to obtain a synthesis parameter whose value changes in accordance with the performance of the keyboard 20, and based on the synthesis parameter, the basic shape of each part of the character stored in the input image memory 2 is determined by the image conversion processing device 10''? :!Transformed.
変形処理されたキャラクタの各部の形状は、当該画像変
換処理装置10で合成されてキャラクタの全体形状が生
成された後、パラメータSで決まる表示位置に配置され
、これによりキーボード20の操作に追従して変化する
動画をリアルタイムで得ることができる。The shape of each part of the character that has undergone the deformation processing is combined by the image conversion processing device 10 to generate the overall shape of the character, and then placed at a display position determined by the parameter S, so that it can follow the operation of the keyboard 20. You can get videos that change in real time.
画像変換処理装置lOで生成された画像は、出力画像メ
モリ16を介してモニタ6に表示され、このときスピ一
カ24を介して音源22で生成された合成音が出力され
、かくしてキーボード20の演奏にリアルタイ゛ムで追
従変化する動画を表示することができる。The image generated by the image conversion processing device IO is displayed on the monitor 6 via the output image memory 16, and at this time, the synthesized sound generated by the sound source 22 is output via the speaker 24, and thus the keyboard 20 is It is possible to display videos that follow the performance in real time.
このとき合成パラメータにおいては、バッファメモリ3
2A,32B、32Gにそれぞれ一旦格納された後、必
要に応じてメモリA,B,Cに格納されたパラメータQ
SR,Sと置き換えられるようになされ、これにより動
画を再現したり、動画修正作業を簡略化することができ
る.以上の構成によれば、メモリASB,Cに設定され
たパラメータQ,R,Sと、キーボード20の操作に応
動して生成されたパラメータRQ,RR,RSに基づい
て合成パラメータを生成し、当該合成パラメータに基づ
いて入力画像を変形処理することにより、キーボード2
0の演奏に追従してリアルタイムで変化する動画を作成
することができる。At this time, in the synthesis parameters, the buffer memory 3
After being stored in 2A, 32B, and 32G, the parameter Q is stored in memories A, B, and C as necessary.
It is designed to be replaced with SR and S, which makes it possible to reproduce videos and simplify video editing work. According to the above configuration, the synthesis parameters are generated based on the parameters Q, R, S set in the memories ASB, C and the parameters RQ, RR, RS generated in response to the operation of the keyboard 20. By deforming the input image based on the synthesis parameters, the keyboard 2
You can create a video that changes in real time by following the performance of 0.
さらにこのときキーボード20から出力されるMIDI
信号に基づいてパラメータRQ,RR、RSを生成すこ
とにより、必要に応じてキーボード以外の演奏手段を用
いて、さらには演夏処理装置等の入力手段を用いてパラ
メータRQ,RR、RSを入力し得、当該アニメーショ
ン装置の使い勝手を向上することができる。Furthermore, the MIDI output from the keyboard 20 at this time
By generating the parameters RQ, RR, and RS based on the signals, the parameters RQ, RR, and RS can be input using a performance means other than the keyboard as necessary, and further using an input means such as an enka processing device. Therefore, the usability of the animation device can be improved.
(G2)他の実施例
なお上述の実施例においては、MIDI信号に基づいて
パラメータを生成する場合について述べたが、本発明は
これに限らず、MIDI信号以外の種々の信号を広く適
用することができる。(G2) Other Embodiments Although the above-mentioned embodiment describes the case where parameters are generated based on MIDI signals, the present invention is not limited to this, and can be widely applied to various signals other than MIDI signals. I can do it.
この場合例えばデジタイザ、マウス等の入力信号に基づ
いてパラメータを生成すれば、当該デジタイザ、マウス
等の操作に応動して変化する動画を形成することができ
る。In this case, for example, by generating parameters based on input signals from a digitizer, mouse, etc., it is possible to create a moving image that changes in response to the operation of the digitizer, mouse, etc.
さらにテープレコーダ等に録音された自然音等を用いて
パラメータを生成すれば、当該自然音に追従して変化す
る動画を形成することができる。Furthermore, if parameters are generated using natural sounds recorded on a tape recorder or the like, it is possible to create a moving image that changes according to the natural sounds.
さらに上述の実施例においては、キャラクタの足、腕、
表示位置をパラメータで指定して動画を形成する場合に
ついて述べたが、本発明はこれに限らず、キャラクタの
向き等を指定して動画を形成する場合、さらにはキャラ
クタ以外の例えば人の人相を変化させる場合等広《適用
することができる。Furthermore, in the above embodiment, the character's legs, arms,
Although the case where a moving image is formed by specifying the display position with a parameter has been described, the present invention is not limited to this, and the present invention is not limited to this. It can be widely applied when changing the .
H発明の効果
上述のように第1の発明によれば、予め設定されたパラ
メータと、パラメータ入力手段を介して入力されたパラ
メータに基づいて合成パラメータを生成し、当該合成パ
ラメータに基づいて入力画像を変形処理することにより
、パラメータ入力手段を操作して所望の変化を呈する動
画をリアルタイムで表示することができる画像作成装置
を得ることができる。Effects of the Invention H As described above, according to the first invention, synthesis parameters are generated based on preset parameters and parameters input via the parameter input means, and the input image is generated based on the synthesis parameters. By performing the transformation process, it is possible to obtain an image creation device that can display a moving image exhibiting a desired change in real time by operating the parameter input means.
さらに第2の発明によれば、MIDI信号に応じて合成
音を発生すると共にパラメータを生成して入力画像を変
形処理することにより、MIDI信号を出力する所望の
演奏手段を接続して動画をリアルタイムで表示すること
ができる画像作成装置を得ることができる.Furthermore, according to the second invention, by generating a synthesized sound according to the MIDI signal, generating parameters, and transforming the input image, it is possible to connect a desired performance means that outputs the MIDI signal and create a moving image in real time. It is possible to obtain an image creation device that can be displayed using .
第1図は本発明の一実施例によるアニメーション装置を
示すブロック図、第2図及び第3図は入力画像を示す路
線図である。
■・・・・・・アニメーション装置、2・・・・・・入
力画像メモリ、4・・・・・・パラメータメモリ、6・
・・・・・モニタ、10・・・・・・画像変換処理装置
、12A,12B、12C、28A、28B、28C・
・・・・・重み付け回路、14A、14B、14C・・
・・・・加算回路、16・・・・・・出力画像メモリ、
20・・・・・・キーボード、22・・・・・・音源、
24・・・・・・スビーカ、26・・・・・・フィルタ
、32A、32B、32C・・・・・・バッファメモリ
、A、B,C・・・・・・メモリ。FIG. 1 is a block diagram showing an animation device according to an embodiment of the present invention, and FIGS. 2 and 3 are route maps showing input images. ■... Animation device, 2... Input image memory, 4... Parameter memory, 6.
...Monitor, 10...Image conversion processing device, 12A, 12B, 12C, 28A, 28B, 28C.
...Weighting circuit, 14A, 14B, 14C...
...Addition circuit, 16...Output image memory,
20...Keyboard, 22...Sound source,
24...Subika, 26...Filter, 32A, 32B, 32C...Buffer memory, A, B, C...Memory.
Claims (2)
画像の変形を指定するパラメータを、順次時系列で格納
する主メモリと、 上記パラメータをリアルタイムで入力するパラメータ入
力手段と、 上記主メモリに格納された上記パラメータ及び上記パラ
メータ入力手段を介して入力される上記パラメータを所
定の比で加算し、合成パラメータを出力する加算手段と
、 上記入力画像メモリに格納された上記入力画像を上記合
成パラメータに応じて変形させ、変形画像を生成する画
像処理手段と、 上記変形画像を格納する出力画像メモリと、上記出力画
像メモリに格納された上記変形画像を表示する表示手段
と、 上記合成パラメータを格納するバッファメモリと、 上記バッファメモリに格納された上記合成パラメータを
上記主メモリに転送し、上記主メモリに該合成パラメー
タを上記パラメータとして格納する合成パラメータ転送
手段と を具えることを特徴とする画像作成装置。(1) an input image memory that stores an input image; a main memory that stores parameters specifying the transformation of the input image sequentially in chronological order; and a parameter input means that inputs the parameters in real time; adding means for adding the stored parameters and the parameters input via the parameter input means at a predetermined ratio and outputting a synthesis parameter; an image processing means for generating a deformed image by deforming the deformed image according to the deformed image; an output image memory for storing the deformed image; a display means for displaying the deformed image stored in the output image memory; and a display means for storing the composition parameter. and a composition parameter transfer means for transferring the composition parameters stored in the buffer memory to the main memory and storing the composition parameters as the parameters in the main memory. Creation device.
信号を出力するMIDI信号発生手段と、 上記MIDI信号に応じて、合成音を発生する合成音発
生手段と、 上記MIDI信号に応じて、上記入力画像の変形を指定
するパラメータを生成するパラメータ生成手段と、 上記入力画像メモリに格納された上記入力画像を上記パ
ラメータに応じて変形させ、変形画像を生成する画像処
理手段と、 上記変形画像を格納する出力画像メモリと、上記出力画
像メモリに格納された上記変形画像を表示する表示手段
と を具えることを特徴とする画像作成装置。(2) Input image memory that stores input images and MIDI
MIDI signal generating means for outputting a signal; synthetic sound generating means for generating a synthesized sound according to the MIDI signal; parameter generating means for generating a parameter specifying transformation of the input image according to the MIDI signal. an image processing means for deforming the input image stored in the input image memory according to the parameters to generate a deformed image; an output image memory for storing the deformed image; and display means for displaying the modified image.
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010861A JP2943201B2 (en) | 1990-01-21 | 1990-01-21 | Image creation apparatus and method |
| US07/609,612 US5214758A (en) | 1989-11-14 | 1990-11-06 | Animation producing apparatus |
| DE69030298T DE69030298T2 (en) | 1989-11-14 | 1990-11-14 | Device for generating moving images |
| EP90121824A EP0428164B1 (en) | 1989-11-14 | 1990-11-14 | Animation producing apparatus |
| KR1019900018393A KR0154976B1 (en) | 1989-11-14 | 1990-11-14 | Animation producing apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010861A JP2943201B2 (en) | 1990-01-21 | 1990-01-21 | Image creation apparatus and method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH03216767A true JPH03216767A (en) | 1991-09-24 |
| JP2943201B2 JP2943201B2 (en) | 1999-08-30 |
Family
ID=11762139
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010861A Expired - Lifetime JP2943201B2 (en) | 1989-11-14 | 1990-01-21 | Image creation apparatus and method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2943201B2 (en) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11161271A (en) * | 1997-09-24 | 1999-06-18 | Yamaha Corp | Musical sound producing method, musical sound producing device and medium with program recorded |
| JPH11352962A (en) * | 1998-06-08 | 1999-12-24 | Yamaha Corp | Visual display method of playing state and recording medium for recording visual display program of playing state |
| US6201552B1 (en) | 1997-03-25 | 2001-03-13 | Sharp Kabushiki Kaisha | Information processing device |
| US6646644B1 (en) | 1998-03-24 | 2003-11-11 | Yamaha Corporation | Tone and picture generator device |
| JP2004038219A (en) * | 2003-10-27 | 2004-02-05 | Yamaha Corp | Automatic performance system |
| US6898759B1 (en) | 1997-12-02 | 2005-05-24 | Yamaha Corporation | System of generating motion picture responsive to music |
| JP2007334187A (en) * | 2006-06-19 | 2007-12-27 | Konami Digital Entertainment:Kk | Program for program creation and program creation method |
| US7476796B2 (en) | 2002-02-19 | 2009-01-13 | Yamaha Corporation | Image controlling apparatus capable of controlling reproduction of image data in accordance with event |
| JP7827800B1 (en) * | 2024-09-30 | 2026-03-10 | 株式会社Cygames | Information processing device, information processing method, and guidance method |
-
1990
- 1990-01-21 JP JP2010861A patent/JP2943201B2/en not_active Expired - Lifetime
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6201552B1 (en) | 1997-03-25 | 2001-03-13 | Sharp Kabushiki Kaisha | Information processing device |
| JPH11161271A (en) * | 1997-09-24 | 1999-06-18 | Yamaha Corp | Musical sound producing method, musical sound producing device and medium with program recorded |
| US6898759B1 (en) | 1997-12-02 | 2005-05-24 | Yamaha Corporation | System of generating motion picture responsive to music |
| US6646644B1 (en) | 1998-03-24 | 2003-11-11 | Yamaha Corporation | Tone and picture generator device |
| JPH11352962A (en) * | 1998-06-08 | 1999-12-24 | Yamaha Corp | Visual display method of playing state and recording medium for recording visual display program of playing state |
| US7476796B2 (en) | 2002-02-19 | 2009-01-13 | Yamaha Corporation | Image controlling apparatus capable of controlling reproduction of image data in accordance with event |
| JP2004038219A (en) * | 2003-10-27 | 2004-02-05 | Yamaha Corp | Automatic performance system |
| JP2007334187A (en) * | 2006-06-19 | 2007-12-27 | Konami Digital Entertainment:Kk | Program for program creation and program creation method |
| JP7827800B1 (en) * | 2024-09-30 | 2026-03-10 | 株式会社Cygames | Information processing device, information processing method, and guidance method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2943201B2 (en) | 1999-08-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR0154976B1 (en) | Animation producing apparatus | |
| US6245982B1 (en) | Performance image information creating and reproducing apparatus and method | |
| US5915972A (en) | Display apparatus for karaoke | |
| JP3578498B2 (en) | Image information processing device | |
| JP3168244B2 (en) | Image generating apparatus and method | |
| KR940009434B1 (en) | Method of and device for editing data | |
| US6898759B1 (en) | System of generating motion picture responsive to music | |
| JP3278670B2 (en) | Video processing equipment | |
| TW558715B (en) | Music and image generating device | |
| JP6805422B2 (en) | Equipment, programs and information processing methods | |
| JPH03216767A (en) | Picture forming device | |
| JP4917446B2 (en) | Image generation apparatus, image generation program, data interpolation apparatus, and data interpolation program | |
| JP5408205B2 (en) | Control point setting method, control point setting device, and program | |
| JPH11175061A (en) | Control unit and karaoke device | |
| US7113189B2 (en) | Recording medium storing 3D model deformation program, 3D model deformation program, 3D model deformation method and video game device | |
| JP2002133444A (en) | Video information creation device | |
| JPH10307930A (en) | Animation production system | |
| JPH09160575A (en) | Karaoke display device | |
| US20130050241A1 (en) | Image creation method, image creation apparatus and recording medium | |
| JPH10312469A (en) | Animation production system | |
| JP2559390B2 (en) | Sound / image converter | |
| JP4278288B2 (en) | Dance image emphasis synthesizer | |
| JPH10326353A (en) | 3D character animation display device and 3D motion data transmission system | |
| JP3062784B2 (en) | Music player | |
| JP3106491B2 (en) | Image creation apparatus and image creation method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| EXPY | Cancellation because of completion of term | ||
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100625 Year of fee payment: 11 |