JPH10282971A - Method for instructing singing timing in lyrics display system of karaoke device - Google Patents
Method for instructing singing timing in lyrics display system of karaoke deviceInfo
- Publication number
- JPH10282971A JPH10282971A JP9082967A JP8296797A JPH10282971A JP H10282971 A JPH10282971 A JP H10282971A JP 9082967 A JP9082967 A JP 9082967A JP 8296797 A JP8296797 A JP 8296797A JP H10282971 A JPH10282971 A JP H10282971A
- Authority
- JP
- Japan
- Prior art keywords
- color
- character
- timing
- singing
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明はカラオケ装置に関
するものであり、より具体的にはカラオケ装置の歌詞表
示システムにおける歌唱時機指示方法に関するものであ
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a karaoke apparatus, and more particularly to a singing timing instruction method in a lyrics display system of a karaoke apparatus.
【0002】[0002]
【従来の技術】カラオケ装置は、楽曲の歌詞文字列、表
示レイアウト、表示シーケンス、歌唱時機指示などの各
情報を含んだ歌詞描出データをカラオケ伴奏音楽の出力
処理と同期的に処理することで、カラオケ伴奏音楽の進
行と同期して歌詞画像を順次生成してディスプレイにス
ーパーインポーズ表示するグラフィック処理系を備え
る。歌詞文字列は、適宜なフレーズ毎に区切られた文字
群を1単位として処理される。1つの文字群は、通常デ
ィスプレイに表示される横1列分の文字列である。グラ
フィック処理系は、この文字列をふつう2列分表示し
て、楽曲の進行に合わせて1列単位あるいは2列単位で
順々に表示・消去する。2. Description of the Related Art A karaoke apparatus processes lyrics rendering data including various information such as a lyric character string of a song, a display layout, a display sequence, and a singing timing instruction in synchronism with output processing of karaoke accompaniment music. A graphic processing system is provided that sequentially generates lyrics images in synchronization with the progress of karaoke accompaniment music and superimposes and displays them on a display. The lyric character string is processed with a character group delimited for each appropriate phrase as one unit. One character group is a character string for one horizontal line normally displayed on a display. The graphic processing system normally displays this character string for two columns, and sequentially displays and deletes the character string in units of one line or two lines in accordance with the progress of the music.
【0003】また、グラフィック処理系は、表示されて
いる文字列において、歌唱時機に該当する文字を歌唱者
に指示するための制御も行う。歌唱時機の指示方法とし
ては、歌唱者が発音開始すべきタイミングになると該当
する文字の色を変えることによって指示する。この色変
え表示は、歌唱者が発音開始すべきタイミングになると
該当文字の色を一変させる方法もあるが、歌唱者が伴奏
音楽に合わせてさらに歌いやすくするために、表示され
ている文字が歌唱時機を迎えると、その文字に対応した
伴奏音の長さに同期させて1文字を縦割りにして左端か
ら徐々に文字の色をワイプしながら塗りつぶしていく方
法が採用される。現在ではこのワイプ方式が歌唱時機指
示方法の主流となっている。The graphic processing system also performs control for instructing a singer of a character corresponding to a singing timing in a displayed character string. As a method of instructing the singing timing, the singer gives an instruction by changing the color of the corresponding character when it is time to start sounding. This color change display can be done by changing the color of the character when it is time for the singer to start sounding.However, in order to make it easier for the singer to sing along with the accompaniment music, the displayed characters must be sung. When the time comes, a method is adopted in which one character is vertically divided in synchronization with the length of the accompaniment sound corresponding to the character, and the color of the character is gradually painted from the left end while being wiped. At present, this wipe method is the mainstream of the singing timing instruction method.
【0004】[0004]
【発明が解決しようとする課題】カラオケ利用者は歌唱
する曲を歌詞を含めて完全にマスターしているとは限ら
ないので、伴奏音楽の進行に同期した歌詞表示が必要不
可欠である。ワイプ方式による歌唱時機指示方法は、伴
奏音楽の進行に同期した速度で文字が左から塗り変わっ
ていくため歌唱者が歌のテンポについていきやすい。し
かし、一つの文字に対する伴奏音が長いと塗り変わり途
中の状態、すなわち、一つの文字が2つの色の領域に分
けられた状態が長く続く。そのため、文字が読みづらく
なる。また、塗り変わる面積の変化も認識しづらくな
り、かえってテンポに合わせにくくなる。Since the karaoke user does not always master the song to be sung, including the lyrics, it is indispensable to display the lyrics in synchronization with the progress of the accompaniment music. In the singing timing instruction method by the wipe method, the singer can easily follow the tempo of the song because the characters change from the left at a speed synchronized with the progress of the accompaniment music. However, if the accompaniment sound for one character is long, a state in which the character is being repainted, that is, a state in which one character is divided into two color areas, continues for a long time. Therefore, it becomes difficult to read characters. In addition, it becomes difficult to recognize a change in the area where the color changes, which makes it difficult to match the tempo.
【0005】さらに、歌唱時機に該当する文字にルビが
振ってある場合、漢字などの歌詞の主文字列とその文字
の上方に振られているルビの文字列が同じ速度で塗り変
わっていく。複数の音を1文字の漢字で割り振って、し
かも1音ずつが異なる長さで発音されなくてはならない
場合が当然想定される。この場合、どちらか一方の文字
列の長さを基準にした速度で色変えをしているので、他
方の文字列を見て歌唱している人は、発音すべき文字と
伴奏音が食い違い、歌うタイミングを逸してしまう。英
文などのアルファベットに振られたルビであればその違
和感はさらに増大する。英文のアルファベット1文字と
日本語(カタカナ)のルビ1文字とは母音以外は1対1
の対応がとれていないので、例えば、ルビを見て歌う人
に合わせて塗り変え制御が行われているとすれば、英文
を見て歌う人が伴奏音楽のテンポに合わせることは至難
の業であろう。Further, when ruby is assigned to a character corresponding to the singing occasion, the main character string of lyrics such as kanji and the ruby character string above the character change at the same speed. It is naturally assumed that a plurality of sounds must be assigned with one kanji and each sound must be pronounced with a different length. In this case, since the color is changed at a speed based on the length of one of the character strings, a person who sings while watching the other character string has a discrepancy between the character to be pronounced and the accompaniment sound, I miss the timing of singing. If it is ruby swayed in alphabets such as English, the discomfort will further increase. One English alphabet and one Japanese (Katakana) ruby character are one-to-one except for vowels.
For example, if repainting control is performed according to the person who sings and sees ruby, it is extremely difficult for the person who sings and sees the English text to match the tempo of the accompaniment music. There will be.
【0006】そこで本発明は、歌詞表示に従って歌う歌
唱者が歌唱時機にある文字をより認識しやすい表現で表
示するとともに、ルビが振られた文字に対して主文字と
ルビのどちらを見ながら歌唱しても容易に伴奏音楽に合
わせることができる歌唱時機指示方法を提供することを
目的としている。[0006] Therefore, the present invention provides a singer who sings according to the lyrics display, presenting a character at the time of singing in a more easily recognizable expression, and singing while watching either the main character or the ruby with respect to the rubbed character. It is an object of the present invention to provide a singing timing instruction method that can easily be adjusted to accompaniment music.
【0007】[0007]
【課題を解決するための手段】以上の目的を達成するた
めに、本発明は、楽曲の歌詞文字列、表示レイアウト、
表示シーケンス、歌唱時機指示などの各情報を含んだ歌
詞描出データに含まれている歌詞文字列の1文字ごとに
発音開始すべきタイミングと発音終了すべきタイミング
を指定した歌唱時機データを付帯させる。そして、歌詞
画像を生成してスーパーインポーズ表示するグラフィッ
ク処理系に、表示中の歌詞画像の1文字ごとに文字フォ
ントの全体を包含する文字輪郭部分または前記文字輪郭
部分により包囲された文字骨格部分のいずれか一方ある
いは両方の表示色を一斉に可変制御する色制御処理手段
を備えさせ、この色制御処理手段が、表示中の1文字に
付帯している前記歌唱時機データに基づいて、前記発音
開始すべきタイミングではその文字の表示色を規定の発
音開始色に制御するとともに、その時点から前記発音終
了すべきタイミングに向けて規定の色変化プロセスに従
って表示色を発音終了色へ変化させるような歌唱時機指
示方法とした。In order to achieve the above object, the present invention provides a lyric character string of a music, a display layout,
Singing timing data specifying the timing to start sounding and the timing to end sounding are attached to each character of the lyrics character string included in the lyrics rendering data including information such as a display sequence and singing timing instructions. Then, a graphic processing system that generates a lyrics image and superimposes and displays a character outline portion including the entire character font for each character of the displayed lyrics image or a character skeleton portion surrounded by the character outline portion Color control processing means for variably controlling one or both of the display colors at the same time, and the color control processing means performs the sound generation based on the singing timing data attached to one character being displayed. At the timing to start, the display color of the character is controlled to a prescribed sounding start color, and the display color is changed to the sounding end color according to a prescribed color change process from that time to the timing to end sounding. The song timing instruction method was used.
【0008】前記歌唱時機に該当する文字の前記発音開
始すべきタイミングにおける前記輪郭部分と前記骨格部
分の表示色を別の色にして、前記色制御処理手段は、前
記発音開始すべきタイミングではその文字の前記輪郭部
分と前記骨格部分の表示色を規定の発音開始色に制御す
るとともに、その時点から前記発音終了すべきタイミン
グに向けて前記輪郭部分と前記骨格部分の表示色をそれ
ぞれ別系統の色変化プロセスに従って前記輪郭部分と前
記骨格部分の表示色をそれぞれの発音終了色へ変化させ
ていくような歌唱時機表示方法とすることが望ましい。[0008] The display color of the outline portion and the skeleton portion at the timing of starting the sounding of the character corresponding to the singing timing is set to different colors, and the color control processing means sets the display color at the timing of starting the sounding. The display color of the outline portion and the skeleton portion of the character is controlled to a prescribed sounding start color, and the display colors of the outline portion and the skeleton portion are separately set from that point toward the timing at which the sound should end. It is desirable to adopt a singing time display method in which the display colors of the outline portion and the skeleton portion are changed to the respective pronunciation end colors according to a color change process.
【0009】前記色変化プロセスとしては、前記ディプ
レイに表示されている歌詞文字を、前記発音すべきタイ
ミング時点でそれまでの表示色である待機色から前記発
音開始色に一変させ、その時点から前記発音終了すべき
タイミングに向けて前記発音終了色へ徐々に変化させ
る。あるいは、前記ディプレイに表示されている歌詞文
字を、前記発音すべきタイミング時点から前記発音終了
すべきタイミングに向けて、前記待機色から前記発音終
了色へ徐々に変化させることとした。In the color changing process, the lyric character displayed on the display is completely changed from a standby color, which is a display color up to that time, to the sound generation start color at the time when the sound is to be generated. The tone is gradually changed to the sound ending color toward the timing at which the sound is to be ended. Alternatively, the lyric character displayed on the display is gradually changed from the standby color to the sound ending color from the time of sounding to the time of sound ending.
【0010】前記歌詞描出データに含まれる歌詞文字
に、それぞれ独唱部分やデュエットのパートなどを指定
する種別コードを割り当て、前記色制御処理手段が前記
種別コード別に表示色を割り振った対照テーブルを参照
して前記歌詞文字の表示色を制御してもよい。[0010] To the lyrics characters included in the lyrics rendering data, a type code for designating a singing part or a duet part is assigned, and the color control processing means refers to a comparison table in which display colors are allocated for each type code. Thus, the display color of the lyrics may be controlled.
【0011】前記歌詞描出データに含まれる歌詞文字に
ついて前記発音開始色と前記発音終了色を規定し、前記
色制御処理手段が前記歌唱時機データに基づいて、前記
発音開始すべきタイミングと前記発音終了すべきタイミ
ング間の発音時間帯を適宜な数の区間に区切るととも
に、前記表示時機に該当する文字が前記区間数で前記発
音開始色から前記発音終了色へ向けて段階的に色変化す
るような補間中間色を前記区間ごとに生成することによ
り前記歌唱時機に該当する文字を色変化させていくよう
な制御を行ってもよい。The utterance start color and the utterance end color are defined for the lyric characters included in the lyric rendering data, and the color control processing means performs the utterance start timing and the utterance end based on the singing timing data. The sounding time zone between the timings to be divided is divided into an appropriate number of sections, and the character corresponding to the display timing changes color stepwise from the sounding start color to the sounding end color in the number of sections. Control may be performed such that a character corresponding to the singing occasion is changed in color by generating an interpolation intermediate color for each section.
【0012】また、前記スーパーインポーズ表示されて
いる歌詞文字は、前記発音すべきタイミングにおいて規
定された前記発音開始色とともに規定された発音開始透
明度で表示され、その時点から前記発音終了すべきタイ
ミングに向けて表示色を前記発音終了色へ徐々に変化す
るとともに、発音終了透明度へ徐々に変化することで当
該歌詞文字の背後に表示された画像の透過状態が徐々に
変化しながら表示されるようにしてもよい。The superimposed and displayed lyric character is displayed with the sound generation start transparency specified at the sound generation timing and the sound generation start transparency, and the sound generation end timing is determined from that time. The display color gradually changes to the sounding end color and the sounding end transparency changes gradually so that the transmission state of the image displayed behind the lyric character is gradually changed. It may be.
【0013】[0013]
【発明の実施の形態】図1は本発明によるカラオケ装置
1における実施例の構成図である。このカラオケ装置1
はカラオケ楽曲の伴奏音楽と歌詞画像などからなるカラ
オケデータがホスト装置40より通信回線30を通して
適時に配信される通信カラオケシステムの演奏端末とな
っている。内部にRAM、ROMを含むコンピュータ本
体である中央制御部11は、配信されたカラオケデータ
をモデム26を介して受け取ってハードディスク装置1
2に格納する。そして、操作パネル23やリモコン送信
器22の送信信号を受け付けるリモコン受信部24など
から利用者の選曲入力を操作制御部25を介して受け取
ると、適宜なカラオケデータをハードディスク装置12
より読み出す。中央制御部11は、シンセサイザ13が
カラオケデータに含まれるMIDI規格でコード化され
たオーディオデータに従って伴奏音楽を生成するのに同
期させて、歌詞画像を生成するためのグラフィック処理
系を制御するとともに、ビデオCDチェンジャ20を制
御して、イメージ映像などの動画像が収録されたビデオ
CDから適宜な動画データを再生させる。そして、映像
制御部17を制御して、歌詞画像をこのイメージ映像に
スーパーインポーズしてディスプレイ21に出力させ
る。FIG. 1 is a block diagram showing an embodiment of a karaoke apparatus 1 according to the present invention. This karaoke device 1
Is a performance terminal of a communication karaoke system in which karaoke data including accompaniment music and lyric images of karaoke music is distributed from the host device 40 through the communication line 30 in a timely manner. The central control unit 11, which is a computer body including a RAM and a ROM inside, receives the distributed karaoke data via the modem 26 and
2 is stored. When a user's music selection input is received via the operation control unit 25 from the operation panel 23 or the remote control reception unit 24 that receives a transmission signal from the remote control transmitter 22, appropriate karaoke data is transmitted to the hard disk drive 12.
Read from. The central control unit 11 controls a graphic processing system for generating a lyric image in synchronization with the synthesizer 13 generating accompaniment music according to audio data encoded by the MIDI standard included in the karaoke data, The video CD changer 20 is controlled to reproduce appropriate moving image data from a video CD containing moving images such as image videos. Then, the video controller 17 is controlled to superimpose the lyric image on the image video and output it to the display 21.
【0014】グラフィック処理系は、中央制御部11を
主制御部として、ビデオRAM18、カラールックアッ
プテーブル(以下、CLUT)19、および映像制御部
17などから構成されている色制御処理手段を備えてい
る。色制御処理手段は、これら各構成要素がつぎに示す
情報処理を行うことによって歌詞画像の文字の色を制御
する。ビデオRAM18はディスプレイ21の各画素に
対応したメモリ領域である。歌詞文字のテキストデータ
がビデオRAM18上にビットマップ展開されることで
ディスプレイ21に所定の歌詞文字が表示される。表示
する文字のカラーデータは、このビデオRAM18の各
画素に対応したメモリ領域に直接記述しないで、8ビッ
トのデータからなるカラーコードによって表現されてい
る。この8ビットで記述された色、すなわち256色分
のカラーコードに対応した色はCLUT19に格納され
ている。CLUT19は、RGBの3原色が各8ビット
(256)ずつの階調レベルをとり得ることで約167
0万色中から任意の256色を同時に格納することがで
きる。カラーデータは表示される色を赤(R)、緑
(G)、青(B)の3原色で表すために、RGB各色が
とり得る0〜255の階調レベルで記述している。例え
ば(R,G,B)=(230,230,230)などで
ある。CLUT19に格納される各カラーコードのデー
タは中央制御部11により適宜書き替えられる。そし
て、CLUT19は、ビデオRAM18上の各画素に記
述されたカラーコードに応じたRGB階調レベルをディ
スプレイ21に表示するためのアナログRGB信号に変
換して出力する。この信号が映像制御部17によりビデ
オCDの映像信号と合成されることで、背景映像にスー
パーインポーズされた歌詞画像としてディスプレイ21
に表示される。The graphic processing system includes a central control section 11 as a main control section, and a color control processing means comprising a video RAM 18, a color look-up table (hereinafter, CLUT) 19, a video control section 17, and the like. I have. The color control processing means controls the color of the characters of the lyrics image by performing the following information processing by each of these components. The video RAM 18 is a memory area corresponding to each pixel of the display 21. A predetermined lyrics character is displayed on the display 21 by developing the text data of the lyrics characters into a bitmap on the video RAM 18. The color data of the characters to be displayed is not directly described in the memory area corresponding to each pixel of the video RAM 18, but is represented by a color code composed of 8-bit data. The color described by the 8 bits, that is, the color corresponding to the color code of 256 colors is stored in the CLUT 19. The CLUT 19 has about 167 colors because the three primary colors of RGB can take gradation levels of 8 bits (256) each.
Any 256 colors out of 10,000 colors can be stored simultaneously. The color data is described with gradation levels of 0 to 255 that can be taken by each of the RGB colors in order to represent a displayed color with three primary colors of red (R), green (G), and blue (B). For example, (R, G, B) = (230, 230, 230). The data of each color code stored in the CLUT 19 is appropriately rewritten by the central control unit 11. Then, the CLUT 19 converts the RGB gradation level corresponding to the color code described in each pixel on the video RAM 18 into an analog RGB signal for displaying on the display 21 and outputs the analog RGB signal. This signal is combined with the video signal of the video CD by the video control unit 17 so that the lyrics image superimposed on the background video is displayed on the display 21.
Will be displayed.
【0015】図2は本実施例における歌詞描出データの
構成を示している。伴奏音楽の進行に伴って逐次出力さ
れる歌詞文字には、種々のデータが付帯している。頁と
行は表示シーケンスであり、伴奏音楽の進行に同期して
順次表示・消去される文字群の順番を示している。行は
1つの頁内で1行目と2行目に表示される文字群に対応
している。FIG. 2 shows the structure of the lyrics rendering data in this embodiment. Various data are attached to the lyric characters sequentially output as the accompaniment music progresses. The page and the line are a display sequence, and indicate the order of the character group to be sequentially displayed and deleted in synchronization with the progress of the accompaniment music. The line corresponds to the character group displayed on the first and second lines in one page.
【0016】文字番号は歌詞文字1つ1つに割り振られ
た通し番号である。文字番号で指定された歌詞文字には
それぞれ文字コード、種別コード、表示レイアウト、発
音タイミングなどの属性が付加されている。文字コード
は中央制御部11が内部の漢字ROMのアドレスを指定
したものであり、これを参照することによって所定の文
字を抽出することができる。種別コードは、独唱、デュ
エット曲のパート(男性、女性)、あるいはルビなどそ
の文字の種類を分別するための識別符号である。表示レ
イアウトはディスプレイ21にこれらの文字を表示した
ときの座標を示している。The character number is a serial number assigned to each lyric character. Attributes such as a character code, a type code, a display layout, and a sounding timing are added to the lyrics characters specified by the character numbers. The character code is the one in which the central control unit 11 designates the address of the internal kanji ROM, and a predetermined character can be extracted by referring to this. The type code is an identification code for discriminating the type of character such as solo, duet music part (male, female), or ruby. The display layout shows the coordinates when these characters are displayed on the display 21.
【0017】発音タイミングは、文字番号で振り分けら
れた文字を歌唱者が発音すべき時間を規定したものであ
り、発音開始すべきタイミングと発音終了すべきタイミ
ングが伴奏音楽の再生開始からの累積時間として記述さ
れている。本実施例ではカラオケデータに含まれるテン
ポクロックをカウントしている。なお、この発音タイミ
ングは頁や行が切り替わったときなどを出発点として相
対的にカウントしてもよい。The sounding timing defines the time at which a singer should sound a character assigned by a character number, and the timing at which sounding is to be started and the time at which sounding is to be ended are the cumulative time from the start of reproduction of accompaniment music. It is described as In the present embodiment, the tempo clock included in the karaoke data is counted. Note that the sounding timing may be relatively counted starting from a time when a page or a line is switched.
【0018】図3(A)(B)は種別コード毎に付帯さ
れたカラーデータを示すための概略図である。(A)は
種別コード毎に設定された色を記述したカラーデータ・
テーブルの構造図である。色はRGB3原色の各階調レ
ベルで記述されている。ここでは、歌詞文字をディスプ
レイに表示したときにその文字を縁取る輪郭部分の色
と、その輪郭部分によって包囲された文字内部である骨
格部部分の色とに分けてある。そして、これら各文字部
分の色は、それぞれ発音開始タイミングと発音終了タイ
ミングでの色として発音開始色と発音終了色が規定さ
れ、さらに、発音開始タイミングに至る前の色である待
機色が規定されている。もちろん、待機色を発音開始色
を同じにしたり、文字を輪郭部分と骨格部分に分けず、
単一の色で表示するようにしてもよい。FIGS. 3A and 3B are schematic diagrams showing color data attached to each type code. (A) is color data describing the color set for each type code.
It is a structural diagram of a table. The color is described at each gradation level of the three primary colors RGB. Here, the color of a lyric character is displayed on a display, and the color of the outline portion surrounding the character is divided into the color of a skeleton portion inside the character surrounded by the outline portion. For the colors of these character portions, the sound start color and the sound end color are defined as the colors at the sound start timing and the sound end timing, respectively, and further, the standby color, which is the color before the sound start timing, is defined. ing. Of course, do not make the standby color the same as the pronunciation start color, or divide characters into outline parts and skeleton parts,
It may be displayed in a single color.
【0019】図3(B)は、歌詞文字毎に割り振られた
カラーコードの1例を示すための概略図である。1文字
毎に骨格部と輪郭色の各2色分のカラーコードを割り当
てている。なお、CLUT19には前述したように0番
〜255番まで256色分のカラーデータを格納するこ
とができる。その内255番の色を予め背景色として割
り当てることによって、文字色を255番目の色に指定
するとその文字がディスプレイの画面上から消去される
ようにしてある。そして、残りの255色を最大127
文字分のカラーコードに対応させることにした。1画面
中に表示する歌詞の文字数としては127文字もあれば
充分である。FIG. 3B is a schematic diagram showing an example of a color code assigned to each lyric character. Color codes for two colors, skeleton and outline color, are assigned to each character. Note that the CLUT 19 can store color data for 256 colors from No. 0 to No. 255 as described above. By assigning the 255th color as the background color in advance, when the character color is designated as the 255th color, the character is erased from the display screen. And the remaining 255 colors can be up to 127
We decided to support color codes for characters. As for the number of characters of the lyrics to be displayed on one screen, 127 characters are sufficient.
【0020】つぎに、色制御処理手段が前述した歌詞描
出データやテーブルに基づいて、ディスプレイに表示す
る歌詞画像の表示状態を制御したり、歌唱時機に該当す
る文字に対しては、歌唱者に発音タイミングを指示する
表現を付加したりする情報処理について説明する。Next, the color control processing means controls the display state of the lyrics image displayed on the display based on the above-described lyrics rendering data and the table, and provides the singer with a character corresponding to the singing occasion. Information processing for adding an expression indicating a sounding timing will be described.
【0021】図4は、グラフィック処理系における中央
制御部が行う情報処理のフローチャートの1例である。
まず、中央制御部は、表示シーケンスに従って1頁分の
文字群を抽出し、それぞれの文字の骨格部分と輪郭部分
にカラーコード0から順々に割る振る。そして、その各
文字の種別コードを判別する(101〜103)。種別
コード別のカラーデータ・テーブルを参照して、対応す
る1頁の文字分の待機色のカラーデータをカラーコード
に対応させてCLUTに格納する。そして、この頁の文
字群をディスプレイに表示する(104、105)。つ
ぎに、この頁の文字群の中に歌唱時機に該当する文字が
あるかどうかを判定する(106)。もちろん、ルビな
ど同時に発音すべき文字がある場合は2文字以上の文字
が指示される。FIG. 4 is an example of a flowchart of information processing performed by the central control unit in the graphic processing system.
First, the central control unit extracts a group of characters for one page according to the display sequence, and assigns the skeleton part and outline part of each character sequentially from the color code 0. Then, the type code of each character is determined (101 to 103). With reference to the color data table for each type code, the corresponding standby color data for one page of characters is stored in the CLUT in association with the color code. Then, the character group of this page is displayed on the display (104, 105). Next, it is determined whether there is a character corresponding to the singing occasion in the character group of this page (106). Of course, if there are characters to be pronounced simultaneously such as ruby, two or more characters are specified.
【0022】そして、歌唱時機に該当する文字として指
定された文字は、この文字に振り分けられたカラーコー
ドに対応したCLUT内のカラーデータを発音開始色の
データ(R,G,B)=(R1,G1,B1)に置換す
る(107)。このとき、ディスプレイでは発音開始す
べき文字が待機色から発音開始色に一変する。つぎに、
中央制御部は発音開始すべきタイミングから発音終了す
べきタイミングまでの発音時間帯で該当する文字を徐々
に色変えていくための処理を行う。For the character designated as the character corresponding to the singing occasion, the color data in the CLUT corresponding to the color code assigned to this character is converted to the tone generation start color data (R, G, B) = (R1 , G1, B1) (107). At this time, on the display, the character to start sounding changes from the standby color to the sounding start color. Next,
The central control unit performs processing for gradually changing the color of the corresponding character in the sounding time zone from the timing at which the sound is to be started to the timing at which the sound is to be ended.
【0023】まず、発音時間帯を取得し、この時間帯を
適宜な区間に区分けする。ここでは、ディスプレイ1画
面分の走査時間である1/30秒を色変えの最小単位と
している。例えば発音時間帯が2秒であれば2×30=
60となり、区間数s=60となる。そして、発音終了
色のカラーデータ(R2,G2,B2)を取得し、発音
時間帯での色変化分を区間数で割ることにより、区間毎
の色変化分(Δr,Δg,Δb)が算出される。First, a sounding time zone is obtained, and this time zone is divided into appropriate sections. Here, 1/30 seconds, which is the scanning time for one screen of the display, is set as the minimum unit of color change. For example, if the sounding time zone is 2 seconds, 2 × 30 =
60, and the number of sections s = 60. Then, the color data (R2, G2, B2) of the tone generation end color is obtained, and the color change (Δr, Δg, Δb) for each section is calculated by dividing the color change in the tone generation time zone by the number of sections. Is done.
【0024】一方、歌唱時機に該当する文字をその発音
時間で所定の色変化をさせるために、1/30秒毎に割
り込み処理が発生する。この処理において、歌唱時機に
該当する文字が指定しているカラーコードに対応したC
LUT内のカラーデータは、発音開始色のカラーデータ
を初期値として、前述した色変化分を逐次加算した補間
中間色データに置換される(120)。On the other hand, in order to cause a character corresponding to a singing occasion to change a predetermined color according to its sounding time, an interrupt processing is generated every 1/30 second. In this process, the character corresponding to the singing occasion corresponds to the C code corresponding to the color code specified by the character.
The color data in the LUT is replaced with the interpolated intermediate color data obtained by sequentially adding the above-described color changes with the color data of the tone generation start color as an initial value (120).
【0025】これにより、ディスプレイでは、歌唱時機
に該当する文字の骨格部分と輪郭部分がそれぞれ一斉に
歌唱時間帯で徐々に色を変化させていくように表現され
る。例えば、図3(A)に示した男性パートの文字であ
れば、骨格部分は青から紫そして赤へ、輪郭部分は白か
ら水色そして青へ多段階的に変色する。また、ルビが振
られた文字における色変化の状態としては、例えば、主
文字列に表示される漢字「山」にルビ「や」と「ま」が
振られている場合を想定する。「山」の発音時間帯がt
1であるとする。「や」と「ま」のの発音時間がそれぞ
れt2、t3とするとt1=t2+t3となる。「山」
と「や」は同じ発音開始タイミングから色変化が始ま
る。「山」の色変化の途中で「や」の方が先に発音終了
タイミングを迎えて発音終了色になる。これと同時に
「ま」の色変化が始まり「山」と「ま」は同じ発音終了
タイミングで色変化が終了する。そして、この頁に表示
されている文字群の全ての文字に対して色変化が終了す
ると、この頁の文字群を消去し、つぎの頁に該当する文
字の制御を行う(112〜114)。Thus, on the display, the skeleton portion and the outline portion of the character corresponding to the singing occasion are expressed in such a manner that the color gradually changes simultaneously in the singing time zone. For example, in the case of the characters of the male part shown in FIG. 3A, the skeleton changes from blue to purple and red, and the outline changes from white to light blue and blue in multiple stages. Also, as a state of color change in a character with ruby, it is assumed that, for example, ruby “ya” and “ma” are waved on the kanji “yama” displayed in the main character string. The pronunciation time zone of "yama" is t
Let it be 1. Assuming that the sounding times of “ya” and “ma” are t2 and t3, respectively, t1 = t2 + t3. "Mountain"
And "ya" change color at the same sounding start timing. In the middle of the color change of the “mountain”, the “ya” first reaches the sounding end timing and becomes the sounding end color. At the same time, the color change of “ma” starts and the color change of “mountain” and “ma” ends at the same sounding end timing. Then, when the color change is completed for all the characters in the character group displayed on this page, the character group on this page is deleted, and the characters corresponding to the next page are controlled (112 to 114).
【0026】なお、本実施例では発音開始色と発音終了
色を規定してその間を補間する中間色を生成している
が、歌詞描出データ中に文字毎の色データを時系列的に
配置して、伴奏音楽の進行に同期させたタイミングでこ
の色データを順次送出するようにしてもい。また、種別
コード別のカラーデータを示すテーブルを多数用意し
て、利用者が自由に選択できるようにしておいたり、利
用者が色データを入力して、テーブルの内容を自在に変
更できるようなインタフェースを備えさせてもよい。も
ちろん、このテーブルを別途用意しないで、歌詞描出デ
ータの文字番号毎にカラーデータを記述するようなデー
タ構造としてもよい。In this embodiment, an intermediate color for generating and interpolating between the sound generation start color and the sound generation end color is generated. However, color data for each character is arranged in the lyrics rendering data in time series. The color data may be sequentially transmitted at a timing synchronized with the progress of the accompaniment music. Also, a large number of tables showing color data for each type code are prepared so that the user can freely select them, or the user can input color data and freely change the contents of the table. An interface may be provided. Of course, the data structure may be such that color data is described for each character number of the lyrics rendering data without separately preparing this table.
【0027】本実施例では、カラーデータをRGBの3
原色の階調レベルのみで表現しているが、CLUT内の
カラーデータは、このRGBデータのほかに透明度Tを
記述したデータが付加されている。TもRGB色データ
と同様に8ビットのデータとして記述されることで、2
56レベルの値をとり得る。Tが0のときは歌詞画像の
背景のイメージ映像が完全に透過する状態となる。通
常、背景色の透明度を0、歌詞画像の透明度を255に
設定しておくことによって、歌詞画像がイメージ映像に
スーパーインポーズされる。そして、色制御処理手段
は、この透明度Tを発音開始すべきタイミング時点から
発音終了すべきタイミング時点へ向けて可変制御するよ
うに変更が可能である。これにより、発音時間帯で徐々
に文字をフェードアウト(フェードイン)させるなどの
表現を付加して歌唱時機を指示してもよい。In the present embodiment, color data is converted to RGB 3 data.
Although the data is expressed only by the gradation levels of the primary colors, the data describing the transparency T is added to the color data in the CLUT in addition to the RGB data. T is described as 8-bit data in the same manner as RGB color data.
There are 56 possible values. When T is 0, the background image of the lyrics image is completely transparent. Normally, by setting the transparency of the background color to 0 and the transparency of the lyrics image to 255, the lyrics image is superimposed on the image video. Then, the color control processing means can be changed so as to variably control the transparency T from the timing when the sound should be started to the timing when the sound should be ended. Thus, the singing timing may be instructed by adding an expression such as gradually fading out (fading in) the characters in the sounding time zone.
【0028】また、カラーデータはRGB各8ビットに
限るものではなく、少ないビット数で表現してもよい。
さらに、CLUTによるカラーコードを用いずにビデオ
RAMにカラーデータを直接記述してもよい。The color data is not limited to 8 bits for each of RGB, but may be represented by a small number of bits.
Further, the color data may be directly described in the video RAM without using the color code by the CLUT.
【0029】[0029]
【発明の効果】本発明のカラオケ装置によれば、ディス
プレイに表示される歌詞において、歌唱時機に該当する
文字が間延びした音であっても視認性が高く、しかも歌
唱者が容易にタイミングを合わせることができる表現に
よって歌唱時機を指示することができる。さらに、ルビ
が振られた文字に対して主文字とルビのどちらを見なが
ら歌唱しても容易に伴奏音楽に合わせることができる。According to the karaoke apparatus of the present invention, in the lyrics displayed on the display, even if the character corresponding to the singing time is a prolonged sound, the visibility is high and the singer easily adjusts the timing. The singing time can be indicated by the expressions that can be performed. Furthermore, it is possible to easily tune to the accompaniment music by singing while watching either the main character or ruby with respect to the rubbed character.
【0030】また、文字の骨格部と輪郭部を色分けし
て、それぞれを異なったプロセスで色変化させることで
より視認性が向上する。文字の色は、待機色と発音開始
色を別の色にしたり、同一の色にしたり、自由に設定す
ることが可能である。このため、歌唱者にとって視認し
やすいような表現が自在に選択できる。Further, the skeleton portion and the outline portion of the character are color-coded, and the color is changed by a different process, so that the visibility is further improved. As the color of the character, the standby color and the tone generation start color can be different colors, or the same color, or can be set freely. For this reason, expressions that are easy for the singer to visually recognize can be freely selected.
【0031】そして、歌詞文字毎に種別コードを付し、
この種別コード毎の色データを割り振ったテーブルを用
意することにより、歌詞文字ごとの色データを変更する
ことなく、自在な色指定をテーブルを変更するだけで可
能となる。また、テーブルを多数用意しておいて、歌唱
者の好みに応じて文字色を適宜変更することが可能とな
る。Then, a type code is attached to each lyric character,
By preparing a table in which color data for each type code is allocated, it is possible to freely specify colors only by changing the table without changing the color data for each lyrics character. In addition, it is possible to prepare a large number of tables and appropriately change the character color according to the singer's preference.
【0032】発音開始色と発音終了色を予め設定してお
き、その間を埋める補間中間色を生成することにより、
データ容量を大幅に縮小することができる。また、色デ
ータに透明度を付加することによってより多彩な表現で
歌唱時機を指示することができる。By setting a sound generation start color and a sound generation end color in advance, and generating an interpolation intermediate color filling the space between them,
Data capacity can be greatly reduced. Also, by adding transparency to the color data, it is possible to instruct the singing timing in various expressions.
【図1】本発明の実施例によるカラオケ装置の構成図で
ある。FIG. 1 is a configuration diagram of a karaoke apparatus according to an embodiment of the present invention.
【図2】前記カラオケ装置で処理される歌詞描出データ
の構造図である。FIG. 2 is a structural diagram of lyrics rendering data processed by the karaoke apparatus.
【図3】カラーデータを説明するための概略図である。
(A)は種別コード毎のカラーデータ・テーブルの構造
図であり、(B)は文字番号毎のカラーコードと色変化
を示すための概略図である。FIG. 3 is a schematic diagram for explaining color data.
(A) is a structural diagram of a color data table for each type code, and (B) is a schematic diagram showing a color code and a color change for each character number.
【図4】色制御処理手段による情報処理のフローチャー
トである。FIG. 4 is a flowchart of information processing by a color control processing unit.
1 カラオケ装置 11 中央制御部 12 ハードディスク装置 13 シンセサイザ 17 映像制御部 18 ビデオRAM 19 カラールックアップテーブル 21 ディスプレイ DESCRIPTION OF SYMBOLS 1 Karaoke apparatus 11 Central control unit 12 Hard disk drive 13 Synthesizer 17 Video control unit 18 Video RAM 19 Color lookup table 21 Display
Claims (7)
示シーケンス、歌唱時機指示などの各情報を含んだ歌詞
描出データをカラオケ伴奏音楽の出力処理と同期的に処
理することで、カラオケ伴奏音楽の進行と同期して歌詞
画像を順次生成してスーパーインポーズ表示するカラオ
ケ装置の歌詞表示システムにおいて、つぎの要件(1)
〜(3)により表示された歌詞画像に歌唱時機を指示す
る表現を付加することを特徴とする歌唱時機指示方法。 (1)前記歌詞描出データに含まれる歌詞文字列の1文
字ごとに歌唱時機データが付帯されており、その歌唱時
機データには、該当の1文字を発音開始すべきタイミン
グ情報と発音終了すべきタイミング情報が直接的または
間接的に表現されている。 (2)歌詞画像を生成してスーパーインポーズ表示する
グラフィック処理系は、表示中の歌詞画像の1文字ごと
に文字フォントの全体を包含する文字輪郭部分または前
記文字輪郭部分により包囲された文字骨格部分のいずれ
か一方あるいは両方の表示色を一斉に可変制御する色制
御処理手段を有している。 (3)前記色制御処理手段は、表示中の1文字に付帯し
ている前記歌唱時機データに基づいて、前記発音開始す
べきタイミングではその文字の表示色を規定の発音開始
色に制御するとともに、その時点から前記発音終了すべ
きタイミングに向けて規定の色変化プロセスに従って表
示色を発音終了色へ変化させていく。The karaoke accompaniment music is processed by synchronizing lyric rendering data including information such as a lyric character string, a display layout, a display sequence, and a singing timing instruction of the tune with the output processing of the karaoke accompaniment music. In the lyrics display system of a karaoke apparatus which sequentially generates lyrics images in synchronization with progression and superimposes and displays the lyrics images, the following requirements (1)
A singing timing instruction method, characterized by adding an expression indicating a singing timing to the lyrics image displayed by (3). (1) Singing timing data is attached to each character of the lyric character string included in the lyric rendering data, and the singing timing data should include timing information for starting the sounding of the corresponding character and ending the sounding. The timing information is expressed directly or indirectly. (2) A graphic processing system that generates a lyric image and superimposes and displays the lyric image is a character outline portion encompassing the entire character font for each character of the displayed lyric image, or a character skeleton surrounded by the character outline portion. There is a color control processing means for simultaneously and variably controlling one or both of the display colors. (3) The color control processing means controls the display color of the character to a prescribed sounding start color at the timing at which the sounding is to be started, based on the singing timing data attached to one character being displayed. Then, the display color is changed to the sound ending color according to a specified color change process from the time to the timing at which the sound ending is to be performed.
する文字は、前記発音開始すべきタイミングにおいて前
記輪郭部分と前記骨格部分の表示色が異なり、前記色制
御処理手段は、前記発音開始すべきタイミングではその
文字の前記輪郭部分と前記骨格部分の表示色を規定の発
音開始色に制御するとともに、その時点から前記発音終
了すべきタイミングに向けて前記輪郭部分と前記骨格部
分の表示色をそれぞれ別系統の色変化プロセスに従って
前記輪郭部分と前記骨格部分の表示色をそれぞれの発音
終了色へ変化させていくことを特徴とする歌唱時機指示
方法。2. The character corresponding to the singing occasion according to claim 1, wherein the display color of the outline portion and the skeleton portion is different at the timing at which the sound is to be started, and the color control processing means starts the sounding. At the power timing, the display color of the outline portion and the skeleton portion of the character is controlled to a prescribed sounding start color, and the display color of the outline portion and the skeleton portion is changed from that point toward the timing at which the sound should be ended. A singing timing instruction method, wherein the display colors of the outline portion and the skeleton portion are changed to respective sounding end colors in accordance with different color change processes.
ーインポーズ表示されている歌詞文字は、前記発音すべ
きタイミングになると、それまでの表示色である待機色
から別の発音開始色に一変し、その時点から前記発音終
了すべきタイミングに向けて前記発音終了色へ徐々に変
化することを特徴とする歌唱時機指示方法。3. The superimposed lyric character according to claim 1, wherein the lyric character displayed in the superimposed mode changes from the standby color, which is the display color up to that time, to another utterance start color when the timing to generate the utterance is reached. A singing timing instruction method, wherein the singing timing is gradually changed from the time to the sound ending color toward the timing at which the sound is to be ended.
ーインポーズ表示されている歌詞文字は、前記発音すべ
きタイミングになると、それまでの表示色である待機色
から前記発音終了色へ前記発音終了すべきタイミングに
向けて徐々に変化することを特徴とする歌唱時機指示方
法。4. The utterance character according to claim 1, wherein the superimposed displayed lyric character is changed from a standby color, which is a display color up to that time, to the utterance ending color when the timing to generate the utterance is reached. A singing timing instruction method characterized by gradually changing to a timing to be performed.
歌詞描出データに含まれる歌詞文字は、それぞれ独唱部
やデュエットのパートなどを指定する種別コードが付さ
れており、前記色制御処理手段は、前記種別コード別に
表示色を割り振った対照テーブルを参照して前記歌詞文
字の表示色を制御することを特徴とする歌唱時機指示方
法。5. The color control processing means according to claim 1, wherein each of the lyrics characters included in the lyrics rendering data has a type code for designating a solo part, a duet part, or the like. Controlling the display color of the lyric character by referring to a comparison table in which display colors are assigned according to the type codes.
歌詞描出データに含まれる歌詞文字について前記発音開
始色と前記発音終了色が規定されており、前記色制御処
理手段は、前記歌唱時機データに基づいて、前記発音開
始すべきタイミングと前記発音終了すべきタイミング間
の発音時間帯を適宜な数の区間に区切るとともに、前記
歌唱時機に該当する文字が前記区間数で前記発音開始色
から前記発音終了色へ向けて段階的に色変化するような
補間中間色を前記区間ごとに生成することにより前記歌
唱時機に該当する文字を色変化させていくことを特徴と
する歌唱時機指示方法。6. The singing timing according to claim 1, wherein the pronunciation start color and the pronunciation end color are defined for lyric characters included in the lyric rendering data. Based on the data, the sounding time zone between the timing to start sounding and the timing to end sounding is divided into an appropriate number of sections, and the character corresponding to the singing timing is the number of sections from the sounding start color. A singing occasion instruction method, wherein a character corresponding to the singing occasion is changed in color by generating an interpolation intermediate color that changes stepwise toward the pronunciation end color for each section.
スーパーインポーズ表示されている歌詞文字は、前記発
音すべきタイミングにおいて規定された前記発音開始色
とともに規定された発音開始透明度で表示され、その時
点から前記発音終了すべきタイミングに向けて表示色を
前記発音終了色へ徐々に変化させるとともに、発音終了
透明度へ徐々に変化させることで当該歌詞文字の背後に
表示された画像の透過状態が徐々に変化しながら表示さ
れることを特徴とする歌唱時機指示方法。7. The superimposed lyric character according to claim 1, wherein the lyric character displayed in the superimposed manner is displayed with a specified utterance start transparency together with the utterance start color specified at the timing to be uttered. The display state of the image displayed behind the lyric character is gradually changed from the time point toward the timing at which the sound is to be ended to the sound generation end color and gradually changed to the sound generation end transparency. A singing timing indication method, wherein is displayed while gradually changing.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP08296797A JP4260232B2 (en) | 1997-04-01 | 1997-04-01 | Lyric subtitle display system that stores lyrics subtitle data that changes the color of lyric subtitles with ruby on the display in synchronization with the progress of the song |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP08296797A JP4260232B2 (en) | 1997-04-01 | 1997-04-01 | Lyric subtitle display system that stores lyrics subtitle data that changes the color of lyric subtitles with ruby on the display in synchronization with the progress of the song |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH10282971A true JPH10282971A (en) | 1998-10-23 |
| JP4260232B2 JP4260232B2 (en) | 2009-04-30 |
Family
ID=13789003
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP08296797A Expired - Fee Related JP4260232B2 (en) | 1997-04-01 | 1997-04-01 | Lyric subtitle display system that stores lyrics subtitle data that changes the color of lyric subtitles with ruby on the display in synchronization with the progress of the song |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4260232B2 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005301169A (en) * | 2004-04-16 | 2005-10-27 | Hitachi Ltd | Subtitle display method and apparatus, reproducing apparatus and recording medium thereof |
| WO2006114021A1 (en) * | 2005-04-27 | 2006-11-02 | Beijing Digital Chaotex Information Technology Ltd. | Synchronous caption generating method and device that can be used in portable device |
| JP2010217898A (en) * | 2010-04-05 | 2010-09-30 | Hitachi Ltd | Caption display method |
| JP2014194819A (en) * | 2014-06-12 | 2014-10-09 | Nippon Telegr & Teleph Corp <Ntt> | Document display device, document display method and program |
-
1997
- 1997-04-01 JP JP08296797A patent/JP4260232B2/en not_active Expired - Fee Related
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005301169A (en) * | 2004-04-16 | 2005-10-27 | Hitachi Ltd | Subtitle display method and apparatus, reproducing apparatus and recording medium thereof |
| WO2006114021A1 (en) * | 2005-04-27 | 2006-11-02 | Beijing Digital Chaotex Information Technology Ltd. | Synchronous caption generating method and device that can be used in portable device |
| JP2010217898A (en) * | 2010-04-05 | 2010-09-30 | Hitachi Ltd | Caption display method |
| JP2014194819A (en) * | 2014-06-12 | 2014-10-09 | Nippon Telegr & Teleph Corp <Ntt> | Document display device, document display method and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4260232B2 (en) | 2009-04-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP2590162B1 (en) | Music data display control apparatus and method | |
| JPH10282971A (en) | Method for instructing singing timing in lyrics display system of karaoke device | |
| JP2000293181A (en) | Karaoke device with feature of lyrics image drawing function | |
| JP3157999B2 (en) | Audio information display device | |
| JP3522194B2 (en) | A karaoke device with a feature of modifying the lyrics display | |
| JP4226563B2 (en) | Lyric display method, lyrics display program, mobile information terminal that displays the lyrics and changes color in sync with the performance of the song | |
| JP3319985B2 (en) | Karaoke lyrics display system and lyrics display method | |
| JP3168781B2 (en) | Image and audio processing device | |
| JPH1020870A (en) | Karaoke equipment | |
| JP3698874B2 (en) | Karaoke device and character display device | |
| JP3552571B2 (en) | Karaoke equipment | |
| JP3439697B2 (en) | Character display control device and bitmap font creation method | |
| JPH09319383A (en) | Karaoke equipment | |
| JPH1124648A (en) | Data display method, data display device, score display method, and score display device | |
| JP3453298B2 (en) | Karaoke lyrics display system | |
| JPH11282464A (en) | Display device of automatic playing device | |
| JP2002333893A (en) | Lyric display control method in karaoke device | |
| JP2866895B2 (en) | Lyric display device for karaoke display | |
| JP2005077528A (en) | Karaoke device that can select and switch between lyrics in multiple languages | |
| JP3082615B2 (en) | Music player | |
| JP2586243Y2 (en) | Voice message editing device | |
| JP2018189736A (en) | Karaoke device | |
| JP3015497B2 (en) | Display device | |
| JPH03239282A (en) | Musical information display device | |
| JP2005070210A (en) | Electronic musical instrument and music information display method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040325 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20040325 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070116 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070216 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20070216 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070612 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070807 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071002 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071127 |
|
| A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20071210 |
|
| A912 | Removal of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20080118 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090113 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090204 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120220 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120220 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130220 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130220 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140220 Year of fee payment: 5 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |