JPH04129062A - Video and audio simultaneous output device - Google Patents
Video and audio simultaneous output deviceInfo
- Publication number
- JPH04129062A JPH04129062A JP24795990A JP24795990A JPH04129062A JP H04129062 A JPH04129062 A JP H04129062A JP 24795990 A JP24795990 A JP 24795990A JP 24795990 A JP24795990 A JP 24795990A JP H04129062 A JPH04129062 A JP H04129062A
- Authority
- JP
- Japan
- Prior art keywords
- video
- audio
- output
- change
- reproducing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Signal Processing Not Specific To The Method Of Recording And Reproducing (AREA)
Abstract
Description
【発明の詳細な説明】 〔目次〕 概要 産業上の利用分野 従来の技術(第23図) 発明が解決しようとする課題 課題を解決するための手段(第1図) 作用 実施例 第1の実施例(第2図〜第9図) 第2の実施例(第10図〜第15図) 第3の実施例(第16図〜第21図) 第4の実施例(第22図) 発明の効果 〔概要〕 本発明は映像音声同期出力装置に係り。[Detailed description of the invention] 〔table of contents〕 overview Industrial applications Conventional technology (Figure 23) Problems that the invention aims to solve Means to solve the problem (Figure 1) action Example First embodiment (Figures 2 to 9) Second embodiment (Figures 10 to 15) Third embodiment (Figures 16 to 21) Fourth embodiment (Figure 22) Effect of the invention 〔overview〕 The present invention relates to a video and audio synchronous output device.
映像を再生するときその映像の変化を抽出し。When playing a video, extract changes in the video.
その映像変化状態に応じて対応する音声を同期的に出力
することを目的とし。The purpose is to synchronously output the corresponding audio according to the video change state.
記録されている映像を再生出力する映像記録再生手段と
、出力された映像の変化を抽出する映像変化抽出手段と
、前記映像の変化に基づいて記録されている音声の再生
出力に対して制御命令を生成する音声出力制御手段と、
前記制御命令に基づいて音声出力を再生出力する音声記
録再生手段を具備し。A video recording and reproducing means for reproducing and outputting a recorded video, a video change extracting means for extracting a change in the output video, and a control command for reproducing and outputting the recorded audio based on the change in the video. an audio output control means for generating;
The apparatus includes an audio recording/reproducing means for reproducing and outputting an audio output based on the control command.
記録された映像出力の変化に応じて自動的に同期された
音声を出力するように構成する。The system is configured to automatically output synchronized audio in response to changes in recorded video output.
本発明は映像編集装置や、計算機(ワークステージ富ン
あるいはパソコン等)を人間が操作するための装置部分
である計算機インタフェース等において、ディジタルに
再生される映像に対して。The present invention is applicable to video that is digitally reproduced in a video editing device or a computer interface, which is a device part for human operation of a computer (such as a work stage or personal computer).
予め記録されている音声情報を自動的に同期出力する装
置に関する。The present invention relates to a device that automatically synchronously outputs prerecorded audio information.
ビデオやアニメーシ買ン作成(二おいて、映像と音声を
再生する場合、音声も同時(=録音してそれを再生した
り、映像のみを作成し、後でアフレコと称する°青金わ
せ”を行って作品を完成する方法がある。特にビデオ撮
影で得られる映像や計算機作成等で得られるアニメーシ
富ン映儂(動画像)を集めて編集・合成して作品を作る
場合やその映像を計算機インターフェースに利用する場
合1作成された映像に適当な音声、音響を後で割り当て
ることは、その臨場感やインターフェースの親和性を増
すことにつながり、大変有用である。この時、予め記録
された音声な映像に同期して出力する技術が必要となる
。Creating a video or animation (2) When playing video and audio, the audio is also recorded at the same time (=recording and playing it back, or creating only the video and later doing what is called dubbing). In particular, there are ways to complete a work by collecting, editing and compositing animation footage obtained from video shooting or computer creation, or by creating a work by editing and composing the images. When using it as an interface 1 It is very useful to assign appropriate audio and sound to the created video afterwards, as it increases the sense of realism and the compatibility of the interface. Technology is needed to output images in synchronization with the images.
従来のアフレコ等の映像編集システムや計算機インタフ
ェースでは、音声な映像と同期するには。Conventional video editing systems such as dubbing and computer interfaces cannot synchronize audio with video.
同期−覧表を予め人手で作成しておき、その後この同期
−覧表を参照しながら、同期制御部が映像出力と音声出
力の同期をとるという手法がとられていた。A method has been used in which a synchronization list is created manually in advance, and then the synchronization control section synchronizes the video output and the audio output while referring to the synchronization list.
第23図について従来の技術を説明する。The conventional technique will be explained with reference to FIG.
第23図は従来の映像音声の編集装置の構成を示し1図
中、81はオペレータ、82は同期−覧表を示し、映像
の何コマ目にどの音声を再生するか等の指示をマニュア
ルで作成したものである。Figure 23 shows the configuration of a conventional video and audio editing device. In the figure, 81 is an operator, 82 is a synchronization list, and instructions such as which audio to play in which frame of the video are manually given. This is what I created.
83は同期制御部であって、同期−覧表82から得られ
る情報にもとづき後述する映像記録再生部84、音声記
録再生部86の動作をそれぞれ制御するものである。Reference numeral 83 denotes a synchronization control section, which controls the operations of a video recording and reproducing section 84 and an audio recording and reproducing section 86, which will be described later, based on information obtained from the synchronization table 82.
映像記録再生部84は予め撮影あるいは作成された映像
をファイル85に記憶し、同期制御部83の制御(=よ
り、記憶された映像を出力するもの、音声記録再生部8
6は、予め音声ファイル87に記録されている音声を同
期制御部83の制御により音声出力するものである。The video recording and reproducing section 84 stores the video shot or created in advance in a file 85, and controls the synchronization control section 83 (= means that the audio recording and reproducing section 8 outputs the stored video.
Reference numeral 6 outputs the audio recorded in advance in the audio file 87 under the control of the synchronization control section 83.
従来、オペレータ81は予めマニュアルで例えば映像の
コマ数と出力すべき音声との同・期=覧表82を作成し
、この同期−覧表により映像と音声の同期制御を行う。Conventionally, the operator 81 manually prepares in advance a synchronization/period=list 82 of, for example, the number of video frames and the audio to be output, and controls the synchronization of the video and audio based on this synchronization list.
編集装置の同期制御部83は映像記録再生部84がその
ファイル85に記録された映像を出力するコマ数を常に
監視し、同期−覧表82を参照して映像のコマ数に同期
して、音声記録再生部86に対して音声を出力するよう
制御信号を送る。The synchronization control unit 83 of the editing device constantly monitors the number of frames that the video recording and reproducing unit 84 outputs the video recorded in the file 85, and synchronizes with the number of video frames by referring to the synchronization list 82. A control signal is sent to the audio recording and reproducing section 86 to output audio.
音声記録再生部86はこの制御信号にもとづき音声ファ
イル87に記録された音声を出力して、ビデオあるいは
アニメーシ璽ンの編集が行われる。Based on this control signal, the audio recording and reproducing section 86 outputs the audio recorded in the audio file 87, and the video or animation script is edited.
ところがこの従来の編集装置では同期−覧表の設定には
事前の人手による作業を要するため、映像再生時に実時
間(リアルタイム)で同期をとることは出来ない。即ち
、映像に同期する音声を。However, in this conventional editing device, setting the synchronization list requires manual work in advance, and therefore it is not possible to synchronize in real time during video playback. In other words, audio that is synchronized with the video.
前もって同期−覧表を作成する段階で決定してしまうた
め、映像に応じた種々の音声を動的に選択して出力する
ことは出来ない。Since the synchronization list is determined in advance at the stage of creating the synchronization list, it is not possible to dynamically select and output various sounds according to the video.
従って本発明の目的は記録された映像に事前に同期信号
をマニユアルで入力することなく、様々な音声を自動的
に付加し、再生された映像の変化に応じて複数の音声信
号の中から実時間でこれに適した音声を選択して同期出
力させることができる装置を提供するものである。Therefore, an object of the present invention is to automatically add various audio signals to recorded video without manually inputting a synchronization signal in advance, and to add audio signals from among multiple audio signals according to changes in the reproduced video. To provide a device that can select and synchronously output audio suitable for the selected audio at a given time.
第1図は本発明の発明原理図である。 FIG. 1 is a diagram illustrating the inventive principle of the present invention.
第1図(a)は本発明の映像音声同期出力装置の構成ブ
ロック図であり、第1図(b)はその動作説明図である
。FIG. 1(a) is a block diagram of the configuration of the video/audio synchronous output device of the present invention, and FIG. 1(b) is an explanatory diagram of its operation.
第11!4(a)において、1は映像記録再生部であっ
て、記録されている映像を再生するものである。In No. 11!4(a), 1 is a video recording and reproducing unit, which reproduces recorded video.
2は映像変化抽出部であって、映像記録再生部1に接続
され、出力された映像の変化を抽出するものである。Reference numeral 2 denotes a video change extraction section, which is connected to the video recording and reproducing section 1 and extracts changes in the output video.
3は音声出力制御部であって、映像変化抽出部2に接続
され、前記映像の変化に基づいて音声出力に対して制御
命令を生成するもの、4は音声記録再生部であって、音
声出力制御部3の制御命令に同期して音声出力を開始す
るものであり、自動的に同期をとれるものであればファ
イルでもテープレコーダでもCDでもよい。Reference numeral 3 denotes an audio output control unit, which is connected to the video change extraction unit 2 and generates a control command for audio output based on the change in the video image; 4 is an audio recording and reproducing unit, which is connected to the video change extraction unit 2; Audio output is started in synchronization with a control command from the control unit 3, and it may be a file, a tape recorder, or a CD as long as it can automatically synchronize.
本発明を、映像記録再生部1から例えば第1図(b)に
示す如く、背景に花火が上り、その前に人がいる場面の
映像を出力する例について説明する。The present invention will be described with reference to an example in which the video recording and reproducing section 1 outputs a video of a scene where fireworks are going off in the background and there are people in front of them, as shown in FIG. 1(b), for example.
この映像は図示省略した映像出力部に出力されるととも
に映像変化抽出部2に出力される。This video is output to a video output section (not shown) and also to the video change extraction section 2.
映像変化抽出部2は映像の予め設定された抽出領域大の
特徴量2例えば明るさLを抽出し、これを音声出力制御
部3に送出する。The image change extracting section 2 extracts a feature amount 2 of the image in a preset extraction area size, for example, brightness L, and sends this to the audio output control section 3.
即ち、映像が第1図(b3の画面Iから画面Iの如く変
化する場合、第1図(b)の画面Iの抽出領域Aの明る
さをLl、画面■の抽出領域Aの明るさをL2とすると
、映像変化抽出部2はその変化状態(Lx −Ll )
を抽出−し、これを音声出力制御部3に送出する。That is, when the image changes from screen I to screen I in Figure 1 (b3), the brightness of extraction area A in screen I in Figure 1 (b) is Ll, and the brightness of extraction area A in screen ■ is If L2, the image change extraction unit 2 extracts the change state (Lx −Ll)
is extracted and sent to the audio output control section 3.
音声出力制御部3は送られた特徴量をもとに制御命令を
生成し、音声記録再生部4に送出する。The audio output control unit 3 generates a control command based on the sent feature amount, and sends it to the audio recording and reproducing unit 4.
即ち、音声出力制御部3は抽出された映像変化の特徴量
(L2−Ll)があるしきい値Leより大きくなった時
、これを「花火が爆発した」と判断し、「花火爆発音再
生開始」という制御命令を音声記録再生部4に送出する
。That is, when the extracted feature amount (L2-Ll) of the image change becomes larger than a certain threshold value Le, the audio output control unit 3 determines that "fireworks have exploded" and "plays fireworks explosion sound." A control command "Start" is sent to the audio recording/reproducing section 4.
音声記録再生部4は送られた制御命令に従って記録され
ている音声2例えば「トーン」という「花火爆発音」を
再生出力する。The audio recording/reproducing section 4 reproduces and outputs the recorded audio 2, for example, a "fireworks explosion sound" called "tone" in accordance with the sent control command.
このように本発明の映像音声同期出力装置を用いること
により、出力映像の変化(=応じて自動的にリアルタイ
ムで画面と同期した音声を出力することが出来る。As described above, by using the video/audio synchronized output device of the present invention, it is possible to output audio that is automatically synchronized with the screen in real time in response to changes in the output video.
(1)第1の実施例
本発明の第1の実施例として背景に花火が上る映像シー
ンを想定し、これに花火の爆発音を同期して付加する場
合について第1図(′b)および第2図〜第9図によっ
て説明する。(1) First Embodiment As a first embodiment of the present invention, suppose a video scene in which fireworks are set off in the background, and the case where the explosion sound of fireworks is added synchronously to this is shown in Fig. 1('b) and This will be explained with reference to FIGS. 2 to 9.
第1図(b)は(後述する第2図の映像記録再生部1か
ら)出力する映像の例を示し2画面PI2画面PHIの
順で変化する映像のコマを表わす。各画面内の点線の領
域は予め規定された特徴量の抽出領域Aを示し、この抽
出領域Aに花火の映像が画面P■の如く表われる。なお
画面内の人物Bは花火の前で叫ぶ人を表わす。FIG. 1(b) shows an example of a video output (from the video recording and reproducing section 1 of FIG. 2, which will be described later), and represents frames of the video that change in the order of 2-screen PI and 2-screen PHI. The dotted line area in each screen indicates a predetermined feature extraction area A, and an image of fireworks appears in this extraction area A as shown in screen P■. Note that Person B in the screen represents a person shouting in front of fireworks.
第2図は本発明の映像音声同期出力装置の構成ブロック
図である。FIG. 2 is a block diagram of the configuration of the video/audio synchronous output device of the present invention.
第2図において第1図と同一符号は同一部分を示し、1
は映像記録再生部、2は映像変化抽出部。In Fig. 2, the same symbols as in Fig. 1 indicate the same parts, and 1
2 is a video recording and playback section, and 2 is a video change extraction section.
3は音声出力制御部、4は音声記録再生部を示す0音声
出力制御部3は映像変化検索部31と映像変化分類表3
2.制御命令生成部33.音声制御命令表34を具備す
る。3 is an audio output control section, 4 is an audio recording and reproducing section 0 Audio output control section 3 is a video change search section 31 and a video change classification table 3
2. Control instruction generation unit 33. A voice control command table 34 is provided.
映像変化分類表32は後述する例えば第4図に示す如く
、映像変化抽出部2で抽出される映像変化と分類結果の
一覧が記録されている。The video change classification table 32 records a list of video changes extracted by the video change extraction section 2 and classification results, as shown in FIG. 4, which will be described later.
音声制御命令表34は後述する例えば第5図に示す如く
、映像変化分類表32の分類結果とそれに基づく、音声
記録再生部4への音声制御命令が記録されている。The audio control command table 34 records classification results of the video change classification table 32 and audio control commands to the audio recording/reproducing section 4 based on the classification results, as shown in FIG. 5, which will be described later.
第3図は第1図(b)の映像と音声の同期例を示す説明
図である。横軸は時間を表わし、矢印PI。FIG. 3 is an explanatory diagram showing an example of synchronization of video and audio in FIG. 1(b). The horizontal axis represents time, and the arrow PI.
Piは映像記録再生部1の出力映像の変化点を表わす。Pi represents a point of change in the output video of the video recording and reproducing section 1.
右向矢印は音声再生中を表わす。A rightward arrow indicates that audio is being played.
第4図は映像変化分類表32の一例を示す詳細説明図で
あり、 Llはある時点での映像抽出領域大の明るさ
、 LlはLlから一定時間経過後2例えばLlの次の
コマでの映像抽出領域Aの明るさ。FIG. 4 is a detailed explanatory diagram showing an example of the image change classification table 32, where Ll is the brightness of the image extraction area at a certain point in time, and Ll is the brightness of the image extraction area at a certain point in time, and Ll is the brightness of the image extraction area after a certain period of time has elapsed since Ll, for example, in the next frame after Ll. Brightness of image extraction area A.
Loは判断基準を表わす定数である。Lo is a constant representing a criterion.
第5図は音声制御命令表34の一例を示す詳細説明図で
ある。FIG. 5 is a detailed explanatory diagram showing an example of the voice control command table 34.
第6図は記録音声の一例を示す詳細説明図であるO
第7図〜第9図は第1の実施例の実施の態様を示す構成
ブロック図である。FIG. 6 is a detailed explanatory diagram showing an example of recorded audio. FIGS. 7 to 9 are block diagrams showing the implementation of the first embodiment.
次に映像と音声の同期出力の動作を説明する0第2因に
おいて、映像記録再生部1から例えば第1図(′b)の
如き映像が出力され、映像出力部(図示省略)と映像変
化抽出部2に送出される。Next, in the second factor to explain the operation of synchronized output of video and audio, a video as shown in FIG. It is sent to the extraction unit 2.
映像変化抽出部2は予め規定された幾つかの特徴量2例
えば第1図(b)における画面の抽出領域Aの明るさL
の差(Lx−Lt)を抽出し、音声出力制御部3に送出
する0
音声出力制御部3に送られた映像変化の特徴量(Lx−
Ll)はまず映像変化検索部31に送られる。映像変化
検索部31は、第4図に示す如き映像変化分類表I32
を参照する。The image change extraction unit 2 extracts several predefined feature quantities 2, for example, the brightness L of the extraction area A of the screen in FIG. 1(b).
The feature quantity (Lx-Lt) of the video change sent to the audio output control unit 3 is extracted and sent to the audio output control unit 3.
Ll) is first sent to the video change search section 31. The video change search unit 31 uses a video change classification table I32 as shown in FIG.
See.
この例では抽出された特徴量(Ll−Ll)が定数Lo
より犬きく、「花火が爆発した」という分類結果を得る
。この分類結果を映像変化検索部31は制御命令生成部
33に送出する0制御命令生成部33はこの分類結果か
ら、第5図に示す如き音声制御命令表Iを参照して、音
声記録再生部4に対して制御命令[花火爆発音再生開始
」を送出する0
音声記録再生部4は送られた命令に従って、第6図に示
す如き記録音声「トーン」という花火爆発音を再生出力
する0
これにより第3図に示す如く、映像出力の画面P■が画
面PIIに変化した時点に同期して花火の爆発音が出力
されることになる0
また、第2図の映像音声同期出力装置に他の構成要素を
加えることもできる。In this example, the extracted feature amount (Ll-Ll) is a constant Lo
Even more so, we get the classification result "The fireworks exploded." The video change search unit 31 sends this classification result to the control command generation unit 33.The control command generation unit 33 uses the classification result to refer to the audio control command table I as shown in FIG. The audio recording and reproducing unit 4 sends a control command [Start reproducing fireworks explosion sound] to the voice recorder 4. According to the sent command, the audio recording and reproducing unit 4 reproduces and outputs the recorded audio "tone" as a fireworks explosion sound as shown in FIG. 6. As shown in Fig. 3, the explosion sound of fireworks is output in synchronization with the time when the video output screen P■ changes to the screen PII. You can also add components.
第7図〜第9図にこれらの実施例の実施の態様の例につ
いて説明する。Examples of implementation aspects of these embodiments will be explained in FIGS. 7 to 9.
第7図に示す実施の態様は音声出力制御部3にタイマ部
5を具備するものである。In the embodiment shown in FIG. 7, the audio output control section 3 is provided with a timer section 5.
タイマ部5は映像と音声の間に時間差がある時。Timer unit 5 is activated when there is a time difference between video and audio.
音声出力の同期時刻を遅延させるものである。This delays the synchronization time of audio output.
映像記録再生部1から映像が出力されると、映像変化抽
出部2は予め規定された幾つかの特徴量を抽出し、音声
出力制御部3に送る。When a video is output from the video recording/playback section 1, the video change extraction section 2 extracts several predefined feature amounts and sends them to the audio output control section 3.
音声出力制御部3は各々の特徴量の変化に従ってタイマ
部5で同期時刻を遅延した後、音声記録再生部4に命令
を送る。音声記録再生部4は送られた命令に従つて記録
されている音声を出力する。The audio output control section 3 delays the synchronization time using the timer section 5 according to the change in each characteristic amount, and then sends a command to the audio recording/reproducing section 4. The audio recording and reproducing section 4 outputs the recorded audio according to the sent command.
これにより映像の変化に応じた音声がある時間間隔を持
りて同期出力される。As a result, audio corresponding to changes in the video is output synchronously at certain time intervals.
第8図に示す実施の態様は、映像記録再生部1と図示省
略した映像出力部の間に映像記憶バッファ6を具備する
ものである。The embodiment shown in FIG. 8 is provided with a video storage buffer 6 between the video recording/reproducing section 1 and a video output section (not shown).
映像記憶バッファ6は、映像出力を遅延させるためのバ
ッファであって2例えば画面に映像変化が現われない間
画面を保持して、音声出力が先に出るようにするもので
ある。The video storage buffer 6 is a buffer for delaying video output, and for example, holds the screen while no video changes appear on the screen so that audio output is output first.
映像記録再生部1から映像が出力されると、映像記憶バ
ッファ6で一定時間分の映像を蓄積し。When a video is output from the video recording/playback section 1, the video storage buffer 6 stores the video for a certain period of time.
一定時間後に映像を出力する。Outputs the video after a certain period of time.
一方、映像変化抽出部2は規定された幾つかの特徴量を
抽出し、音声出力制御部3に送る。音声出力制御部3は
各々の特徴量の変化に従って音声記録再生部4に命令を
送る。音声記録再生部4は送られた命令に従って記録さ
れている音声を出力する。On the other hand, the video change extraction section 2 extracts several prescribed feature amounts and sends them to the audio output control section 3. The audio output control unit 3 sends commands to the audio recording and reproducing unit 4 according to changes in each feature amount. The audio recording and reproducing unit 4 outputs the recorded audio according to the sent command.
音声は映像記憶バッファ6に入る前の映像(二同期する
ため、映像出力の変化より、見掛は上早い時刻に同期し
て、映像の変化に応じた音声が同期出力されることにな
る。Since the audio is synchronized with the video before entering the video storage buffer 6, it appears to be synchronized at a time earlier than the change in the video output, and the audio corresponding to the change in the video is output synchronously.
第9図に示す実施の態様は、音声出力制御部3に履歴記
憶部7を具備するものである。In the embodiment shown in FIG. 9, the audio output control section 3 is provided with a history storage section 7.
履歴記憶部7は再生した音声の履歴を記憶するものであ
る。The history storage section 7 stores the history of reproduced audio.
映像記録再生部1から映像が出力されると、映像変化抽
出部2は予め規定された特徴量2例えば前記の(Ll
−Lt )を抽出し、音声出力制御部3に送る。When a video is output from the video recording and reproducing unit 1, the video change extraction unit 2 extracts a predefined feature amount 2, for example, the above (Ll
-Lt) and sends it to the audio output control section 3.
音声出力制御部3は各々の特徴量の変化及び履歴記憶部
7の内容2例えば「音声が第1回目の再生であること」
に従って音声記録再生部4に命令を送るとともに、現在
の音声出力制御部3の状態。The audio output control unit 3 records changes in each feature amount and the contents 2 of the history storage unit 7, for example, “the audio is being played for the first time.”
It sends a command to the audio recording/playback unit 4 according to the current state of the audio output control unit 3.
例えば「第2回目の音声再生」を履歴記憶部7に送出す
る。For example, “second audio reproduction” is sent to the history storage unit 7.
音声記録再生部4は送られた命令に従って記録されてい
る音声9例えば「たまや〜」を出力する。The voice recording and reproducing section 4 outputs the recorded voice 9, for example, "Tamaya~" according to the sent command.
これにより映像の変化に応じた音声が同期出力される。This allows audio to be output in synchronization with changes in the video.
(2)第2の実施例
本発明の第2の実施例として、背景に花火が上り爆発す
る映像シーンを想定し、これに花火の打ち上げ音と爆発
音を付加する場合について、第10図〜第15図によっ
て説明する。(2) Second Embodiment As a second embodiment of the present invention, suppose a video scene in which fireworks rise and explode in the background, and add the sound of fireworks and explosion to this. This will be explained with reference to FIG.
第10図は後述する第11図の映像記録再生部1から出
力する映像の例を示し、第1図(b3の例と同様に画面
Pi、画面P2.画面P3の類ζ:変化するOAは予め
規定された特徴量の抽出領域を示す。なお画面内の人物
Bは花火の前で叫ぶ人を表わす。FIG. 10 shows an example of a video output from the video recording and reproducing unit 1 in FIG. 11, which will be described later. It shows a predefined feature extraction area. Person B in the screen represents a person screaming in front of fireworks.
第11図は本発明の第2の実施例の構成ブロック図であ
る。FIG. 11 is a block diagram of a second embodiment of the present invention.
第11図において第1図〜第9図と同一符号は同一部分
を示し、1は映像記録再生部、2は映像変化抽出部であ
って第1変化抽出部21を具備する。3は音声出力制御
部であって、映像変化検索部31.映像変化分類表32
.制御命令生成部33、音声制御命令表34を具備する
。4は音声記録再生部、5はタイマ部、6は映像記憶バ
ッファを示す。In FIG. 11, the same reference numerals as in FIGS. 1 to 9 indicate the same parts, and 1 is a video recording and reproducing section, and 2 is a video change extraction section, which includes a first change extraction section 21. 3 is an audio output control section, which includes a video change search section 31. Image change classification table 32
.. It includes a control command generation section 33 and a voice control command table 34. Reference numeral 4 indicates an audio recording/reproducing section, 5 a timer section, and 6 a video storage buffer.
第12図は第10図の映像と音声の同期例を示す説明図
である。横軸は時間を表わし、矢印pip2 p3は
映像記録再生部1の出力映像の変化点。FIG. 12 is an explanatory diagram showing an example of synchronization of video and audio in FIG. 10. The horizontal axis represents time, and arrows pip2 and p3 indicate changing points of the output video of the video recording and reproducing section 1.
矢印P1. Pz、 Psは映像装置の映像出力におけ
る映像変化点を表わす。右向矢印は音声再生中を表わし
、TOは映像記憶バッファ7による映像遅延時間、Tl
はタイマ部6による音声遅延時間を表わす。Arrow P1. Pz and Ps represent video change points in the video output of the video device. The rightward arrow indicates that the audio is being played back, TO is the video delay time due to the video storage buffer 7, and Tl
represents the audio delay time by the timer section 6.
第13図は映像変化分類表32の一例を示す詳細説明図
であり、 Ll、 Lxは第4図と同様に映像変化の抽
出領域大の明るさ、 Lo、 Lo’は判断基準を表わ
す定数であり、 L6’は0より少し大きく。FIG. 13 is a detailed explanatory diagram showing an example of the image change classification table 32, where Ll and Lx are the brightness of the image change extraction area as in FIG. 4, and Lo and Lo' are constants representing judgment criteria. Yes, L6' is slightly larger than 0.
Loよりはかなり小さい定数である。This is a constant that is considerably smaller than Lo.
第14図は音声制御命令表34の一銭を示す詳細説明図
である。第14図においてT1はタイマ部5による音声
遅延時間を表わす。FIG. 14 is a detailed explanatory diagram showing a penny in the voice control command table 34. In FIG. 14, T1 represents the audio delay time caused by the timer section 5.
第15図は記録音声の一例を示す詳細説明図である0
次に映像と音声の同期出力の動作を説明する0第11図
における映像記録再生部1から第10図に示す如き映像
を再生・出力する。FIG. 15 is a detailed explanatory diagram showing an example of recorded audio.Next, the operation of synchronized output of video and audio will be explained.0 The video recording and reproducing section 1 in FIG. Output.
出力された映像pは映像記憶バッファ6に送出され、こ
こで一定期間TOだけ映像を蓄積する。The output video p is sent to the video storage buffer 6, where the video is stored for a certain period TO.
その結果TOだけ遅延されて映像装置に映gRPが出力
される(第5図参照)。As a result, the video gRP is output to the video device with a delay of TO (see FIG. 5).
他方、映像記録再生部1で再生・出力された花火の映像
は同時に映像変化抽出部2にも送出される。On the other hand, the fireworks video reproduced and output by the video recording and reproducing section 1 is also sent to the video change extraction section 2 at the same time.
映像変化抽出部2のうちの第1変化抽出部21は各画面
毎の抽出領域Aの明るさを抽出する。The first change extraction section 21 of the video change extraction section 2 extracts the brightness of the extraction area A for each screen.
例えば2画面p1の抽出領域大の明るさを始めの明るさ
Ll、画面p2の抽出領域Aの明るさを変化後の明るさ
L2とすると、(Lx−Lt)が逐次抽出される〇
同様に画面p2から画面p3へ変化する時点では画面p
2の抽出領域Aの明るさがはじめの明るさLl、画面p
3の抽出領域大の明るさがLxとなり、(Lx−Ll)
が逐次抽出されて音声制御出力部3へ送出される。For example, if the brightness of the large extraction area of the second screen p1 is the initial brightness Ll, and the brightness of the extraction area A of the screen p2 is the brightness after the change L2, then (Lx-Lt) will be extracted sequentially.Similarly, At the time of changing from screen p2 to screen p3, screen p
The brightness of extraction area A in 2 is the initial brightness Ll, screen p
The brightness of the large extraction area of 3 is Lx, (Lx - Ll)
are sequentially extracted and sent to the audio control output section 3.
音声出力制御部3では抽出された映像変化は先ず映像変
化検索部31に送られる。映像変化検索部31は具備さ
れている第13図に示す如き映像変化分類表■を参照す
る。In the audio output control section 3, the extracted video change is first sent to the video change search section 31. The video change search section 31 refers to the video change classification table (2) as shown in FIG. 13 provided therein.
この例では抽出された映像変化(L−2−Ll)がLo
’からLoの間では、「花火が打ち上げられた」。In this example, the extracted video change (L-2-Ll) is Lo
``Fireworks were set off'' between ' and Lo.
Lo以上で「花火が爆発した」という分類結果を示す。If it is Lo or higher, the classification result is that "the fireworks exploded."
従って映像変化検索部31はこれらの分類結果を制御命
令生成部33に送出する〇制御命令生成部33では送ら
れた分類結果から第14図にその詳細例を示す如き音声
制御命令表1を参照して音声制御命令を生成する。Therefore, the video change search unit 31 sends these classification results to the control command generation unit 33.The control command generation unit 33 uses the sent classification results to refer to the audio control command table 1, a detailed example of which is shown in FIG. to generate voice control commands.
前記制御命令表■を参照した結果、制御命令生成部33
は「花火が打ち上げられた」という分類結果から音声記
録再生部4に対して「花火打ち上げ音再生を開始」とい
う制御命令を送出するとともにタイマ部5に対してT1
時間を設定する。As a result of referring to the control command table (■), the control command generation unit 33
Based on the classification result that “fireworks were launched”, it sends a control command to the audio recording and reproducing unit 4 to “start playing fireworks launch sound” and also sends a control command to the timer unit 5 at T1.
Set the time.
その結果、制御命令生成部33は、T1時間経過後(二
、音声記録再生部4に対して「花火打ち上げ音再生を停
止」2次に「花火爆発音再生開始」の制御命令を送出す
る。As a result, the control command generating unit 33 sends control commands to the audio recording and reproducing unit 4 to “stop reproducing fireworks launch sounds” and “start reproducing fireworks explosion sounds” after the elapse of time T1 (2).
音声記録再生部4は送られた制御命令に従って。The audio recording and reproducing unit 4 follows the sent control command.
第15図に例示する如き記録音声の再生を行う。The recorded audio is reproduced as illustrated in FIG.
即ち、 (Lx−Lり> Lo’になりた時点で例え
ハ「ヒエルヒュル」という花火打ち上げ音を再生・出力
し、T1時間経過後にこの花火打ち上げ音を停止すると
ともに「トーン」という花火爆発音を再生する(第5図
参照)0
これにより、第5図において映像出力部の映像出力は映
像記録再生部1の出力よりTOだけ遅延して出力すると
同時に、音声は画面Pに変化を生じないうちから出力す
るなど、現実の音声に一層近づいた映像と音声の同期出
力が自動的に得られる0
(3)第3の実施例
次に花火の前で叫ぶ人物Bの映像とその声との同期につ
いて第16図〜第21図によって説明する。That is, at the point when (Lx-L >Lo'), for example, a fireworks sound called "hieruhyuru" is played and outputted, and after T1 time has passed, this fireworks sound is stopped and a fireworks explosion sound called "tone" is emitted. Playback (See Figure 5) 0 As a result, in Figure 5, the video output of the video output section is delayed by TO from the output of the video recording and playback section 1, and at the same time, the audio is output before any change occurs on the screen P. (3) Third Example Next, synchronize the video and voice of person B screaming in front of fireworks. This will be explained with reference to FIGS. 16 to 21.
第16図は映像記録再生部1に記録されている映像の例
を示し、第10図に例示した画面の人物Bの顔の拡大図
である。第16図において、顔F1はある時刻の映像で
あり、顔F2は一定時間後の例えば次のコマの映像であ
る。また、hl、h2は映像中の口の縦の大きさ、wl
、w2は映像中の口の幅、sl、s2は口の内部の色部
分の面積を示す。FIG. 16 shows an example of a video recorded in the video recording and reproducing section 1, and is an enlarged view of the face of person B on the screen illustrated in FIG. In FIG. 16, a face F1 is an image at a certain time, and a face F2 is an image of, for example, the next frame after a certain period of time. Also, hl and h2 are the vertical sizes of the mouth in the video, wl
, w2 is the width of the mouth in the image, and sl and s2 are the areas of the colored parts inside the mouth.
第17医は本発明の第3の実施例の構成ブロック図であ
る。The seventeenth doctor is a configuration block diagram of a third embodiment of the present invention.
第17図において第1図等と同一符号は同一部分を示し
、1は映像記録再生部、2は映像変化抽出部であって、
第2変化抽出部22を具備する。In FIG. 17, the same symbols as in FIG. 1, etc. indicate the same parts, 1 is a video recording and reproducing section, 2 is a video change extraction section,
A second change extraction section 22 is provided.
3は音声出力制御部であって、映像変化検索部31、映
像変化分類表32.制御命令生成部33゜音声制御命令
表34を具備する。4は音声記録再生部、7は履歴記憶
部を示す。3 is an audio output control section, which includes a video change search section 31, a video change classification table 32. A control command generation unit 33 is provided with a voice control command table 34. Reference numeral 4 indicates an audio recording/reproducing section, and 7 indicates a history storage section.
第18図は第16図の映像と音声の同期例を示す説明図
である。第18図においても、第3図同様横軸は時間軸
であり、下向矢印は映像の変化点を、右向き矢印は音声
再生中を表わす。FIG. 18 is an explanatory diagram showing an example of synchronization of video and audio in FIG. 16. In FIG. 18, as in FIG. 3, the horizontal axis is the time axis, the downward arrow indicates the point of change in the video, and the rightward arrow indicates the audio being played back.
第19図は映像変化分類表32のさらに他の例を示す詳
細説明図である。第19図において、h。FIG. 19 is a detailed explanatory diagram showing still another example of the video change classification table 32. In FIG. 19, h.
Wはそれぞれ映像中の口の縦の大きさ2幅を示し。W indicates the vertical size 2 width of the mouth in the image.
81.82は口の内部の色部分の面積を示し、に1、に
2.に3.に4は判断基準を表わす定数である。81.82 indicates the area of the colored part inside the mouth, 1, 2. 3. 4 is a constant representing a judgment criterion.
第20図は音声制御命令表34のさらに他の例を示す詳
細説明図である。FIG. 20 is a detailed explanatory diagram showing still another example of the voice control command table 34.
第21図は記録音声のさらに他の例を示す詳細説明図で
ある。FIG. 21 is a detailed explanatory diagram showing still another example of recorded audio.
映像と音声の同期出力の動作について説明する。The operation of synchronous output of video and audio will be explained.
第17図における映像記録再生部1から第16図の如き
映像が映像出力部に送出されるとともに。The video as shown in FIG. 16 is sent from the video recording and reproducing section 1 in FIG. 17 to the video output section.
映像変化抽出部2に送出される。It is sent to the video change extraction section 2.
映像変化検索部2のうち第2変化抽出部22は各映像毎
の指定された特徴量2口の縦の大きさ(hl、h2)、
幅(yl、vr2)、 口の内部の色部分の面積(’1
* ’2)を抽出する。The second change extraction unit 22 of the video change search unit 2 extracts the vertical size (hl, h2) of two specified feature quantities for each video,
Width (yl, vr2), area of the colored part inside the mouth ('1
* Extract '2).
抽出した特徴量の変化は音声出力制御部3を構成する映
像変化検索部31に送られる。映像変化検索部31は具
備されている第19図に示す如き映像変化分類表■を参
照する。第19図の映像変化分類表Iでは2例えば口の
大きさの縦横比(h/W)が一定時間で定数klを越え
た時、[口を開けた」という分類結果を示す。The extracted feature quantity change is sent to the video change search unit 31 that constitutes the audio output control unit 3. The video change search unit 31 refers to the video change classification table (2) as shown in FIG. 19 provided therein. In the image change classification table I in FIG. 19, for example, when the aspect ratio (h/W) of the mouth size exceeds a constant kl for a certain period of time, the classification result is ``opened the mouth.''
同様に口の大きさの縦横比(h/W)かに3より小さい
時1分類結果は「口を閉じた」となり。Similarly, when the aspect ratio (h/W) of the mouth size is smaller than 3, the classification result is ``mouth closed.''
口の内部の色部分の面積の比(11/$2)が定数に2
より大きい時2分類結果は「口を開けた」となり、(s
1/s2)が定数に4より小さい時1分類結果は「口を
閉じた」となる0
映像変化抽出部2において抽出された特徴量から得られ
た例えば、「口を開けた」という分類結果は映像変化検
索部31を介して制御命令生成部33に送られる。The ratio of the areas of the colored parts inside the mouth (11/$2) is a constant of 2.
When it is larger than 2, the classification result is "opened mouth", and (s
1/s2) is a constant smaller than 4, one classification result is "mouth closed" 0 For example, the classification result "open mouth" obtained from the feature extracted by the image change extraction unit 2 is sent to the control command generation section 33 via the video change search section 31.
制御命令生成部33は、送られた分類結果から第20図
にその詳細例を示す如き音声制御命令表1と履歴記憶部
7に記憶しである情報に従って。The control command generation section 33 follows the received classification results according to the voice control command table 1, a detailed example of which is shown in FIG. 20, and the information stored in the history storage section 7.
音声記録再生部4と履歴記憶部7に制御命令を送出する
。A control command is sent to the audio recording/playback section 4 and the history storage section 7.
即ち、「口を開けた」という分類結果が制御命令生成部
33(二送られると、「口を開けた」履歴が1回目であ
れば「音声1の再生開始」という制御命令を音声記録再
生部4と履歴記憶部7に送出する。That is, when the classification result "opened the mouth" is sent to the control command generation unit 33 (2), if the history of "opened the mouth" is the first time, the control command "start playing audio 1" is sent to the voice recording and reproduction. section 4 and history storage section 7.
音声記録再生部4は送られた制御命令に従って。The audio recording and reproducing unit 4 follows the sent control command.
第21図に例示する記録音声2例えば「たまや〜」の再
生を行う〇
一方、上記制御命令は履歴記憶部7にも送られるので、
履歴記憶部7はこの「口を開けた」という分類結果を1
回履歴したことを記憶する0以上の同期例を第18図に
示す。即ち、装置映像出力の人物Bが1回目に口を開け
る画面と同時に音声1「たまや〜」が再生され2口を閉
じると同時に音声も停止し、2回目に口を開ける画面と
同時に音声2「かぎや〜」が再生され2口を閉じると同
時(二音声も停止するという映像と音声の同期出力が自
動的に行われることになる。Recorded audio 2 exemplified in FIG. 21, for example, plays back "Tamaya~" On the other hand, the above control command is also sent to the history storage section 7, so
The history storage unit 7 stores this classification result of “opened mouth” as 1
FIG. 18 shows an example of synchronization of zero or more times in which the times of history are stored. That is, the sound 1 "Tama-ya~" is played at the same time as the screen where Person B opens his mouth for the first time in the device video output, the sound stops at the same time as he closes his mouth, and the sound 2 " When "Kagiya~" is played and the two doors are closed, synchronized video and audio output will be automatically performed in which the two audio stops at the same time.
(4)第4の実施例
次に本発明の第4の実施例として、第10図に示す如く
、背景に花火が上り、その前で人が叫んでいる映像を想
定し、これに付加する音声として花火の打ち上げ音、爆
発音2人の叫び声を想定し。(4) Fourth Embodiment Next, as a fourth embodiment of the present invention, suppose an image of fireworks going off in the background and people screaming in front of it, as shown in Figure 10, and add it to this image. Assuming the sound is the sound of fireworks, an explosion, and two people screaming.
これらの映像と音声を同期出力する場合について説明す
る。A case where these video and audio are output synchronously will be explained.
第22図はこの第4実施例の構成ブロック図である。第
22図において、第1図〜第21図と同一符号は同一部
分を示す。FIG. 22 is a block diagram of the configuration of this fourth embodiment. In FIG. 22, the same symbols as in FIGS. 1 to 21 indicate the same parts.
本実施例においては第22図の映像記録再生部1より出
力された映像は映像記憶バッファ6に送出されると同時
に映像変化抽出部2にも送出される0
映像変化抽出部2に入力した映像出力は第1変化抽出部
21において花火の打ち上げ・爆発について、前記の第
2の実施例の如く処理されて、第12図に示す如き同期
出力を得る。In this embodiment, the video output from the video recording and reproducing section 1 shown in FIG. 22 is sent to the video storage buffer 6 and at the same time is also sent to the video change extraction section 2. The output is processed in the first change extracting section 21 in the same way as in the second embodiment with respect to fireworks being launched and exploding, to obtain a synchronized output as shown in FIG. 12.
また、映像変化抽出部2に入力した映像出力は第2変化
抽出部22において1人物Bに関する映像出力が第3の
実施例で説明した如く処理されて。Further, the video output input to the video change extraction section 2 is processed in the second change extraction section 22 as the video output regarding one person B is explained in the third embodiment.
第18図に示す如き映像と音声の同期出力が得られる。A synchronized output of video and audio as shown in FIG. 18 can be obtained.
この結果、花火の打ち上げ、爆発に呼応して人物が叫ぶ
映像と音声が自動的に付加されて同期出力されることに
なる。As a result, the video and audio of a person screaming in response to fireworks being launched or exploding are automatically added and output synchronously.
なお、第22図における映像変化抽出部2では。Note that in the image change extraction section 2 in FIG.
第1変化抽出部21において画面の抽出領域の明るさの
変化を抽出し、第2変化抽出部22においては画面の人
物の口の大きさ等の変化を抽出して。A first change extraction section 21 extracts changes in brightness in an extraction area of the screen, and a second change extraction section 22 extracts changes in the mouth size of a person on the screen.
これらの映像変化をそれぞれ1つの映像変化検索部31
に送出するが、映像変化検索部31を含めた音声出力制
御部3はこれらの複数の種類の映像変化に対して時分割
制御によって各々の制御を行うものである。Each of these image changes is searched by one image change search unit 31.
However, the audio output control section 3 including the video change search section 31 controls each of these multiple types of video changes by time-division control.
本発明の如く構成することにより、映像に事前に同期信
号を入力すべく1人手で同期−覧表を作成することなく
、予め予測出来る映像が出力された時、様々な音声を自
動的に付加し、多種の音声の中から実時間で動的に選択
し同期出力させることが出来る。By configuring as in the present invention, various sounds are automatically added when a predictable video is output, without having to input a synchronization signal into the video in advance and create a synchronization list manually. It is possible to dynamically select and synchronously output a variety of sounds in real time.
これにより映像編集装置への貢献が大きく、また計算機
インターフェースにおいて映像、音声の利用範囲が広が
る0This will greatly contribute to video editing equipment and expand the scope of use of video and audio in computer interfaces.
第1図は本発明の発明原理図。
第2図は第1の実施例の構成ブロック図。
第3図は映像と音声の同期例Iの詳細説明図。
第4図は映像変化分類表1の詳細説明図。
第5図は音声制御命令表1の詳細説明図。
第6図は記録音声Iの詳細説明図−
第7図〜第9図は第1の実施例の実施の態様説明図。
第10図は映像の他の例。
第11図は第2の実施例の構成ブロック図。
第12図は映像と音声の同期例の他の例の説明図。
第13図は映像変化分類表■の詳細説明図。
第14図は音声制御命令表の他の例の詳細説明図。
第15図は記録音声の他の例の詳細説明図。
第16図は映像のさらに他の例。
第17図は第3の実施例の構成ブロック図。
第18図は映像と音声の同期例■の説明図。
第19図は映像変化分類表夏の説明図。
第20図は音声制御命令表1の説明図。
第21図は記録音声■の説明図。
第22図は第4の実施例の構成ブロック図。
第23図は従来例の構成ブロック図である。
1・・・映像記録再生部。
2・・・映像変化抽出部。
3・・・音声出力制御部。
4・・・音声記録再生部。
5・・・タイマ部。
6・・・映像記憶バッファ。
7・・・履歴記憶部。
31・・・映像変化検索部。
32・・・映像変化分類表。
33・・・制御命令生成部。
34・・・音声制御命令表。
登山願人 富士通株式会社
□弁理士山谷晧榮
晶面1
画面1
発明原工里図
第1図
竿り碧に施例Q精成フ゛ロッグ図
第2図
花火4−発音
第6図た偉−7ljB I
第7図17tmJ幀施禰楳の摘成加、7層1第8 間
第1の貢紗jの実施の態樺泌肩成アnフク図■画ii[
lPl
墨@P乙
出向ら
映4啄のイク1且(十〇Eの花−火)
第io図
第11図
第12図りと畜ハ用期例
■
第13図剃鎮僻−鎖表■
第14図4Ip制御争陳1
第15図麹i、ini n
映像の伊り(入物の頗)
第16図
穿3の*秒Jの、羽1ベフ′ロック図
第17図
第18図吹像と音声の同期4列■
第19図秋摩麦化方頽表■
第20図音声$9御卆鎚■
第21図記慄特ユ
悌4の突施P1の積板7七ツク起
第22図FIG. 1 is a diagram showing the inventive principle of the present invention. FIG. 2 is a block diagram of the configuration of the first embodiment. FIG. 3 is a detailed explanatory diagram of example I of video and audio synchronization. FIG. 4 is a detailed explanatory diagram of the video change classification table 1. FIG. 5 is a detailed explanatory diagram of voice control command table 1. FIG. 6 is a detailed explanatory diagram of recorded audio I. FIGS. 7 to 9 are explanatory diagrams of implementation aspects of the first embodiment. Figure 10 is another example of the video. FIG. 11 is a block diagram of the configuration of the second embodiment. FIG. 12 is an explanatory diagram of another example of synchronization of video and audio. FIG. 13 is a detailed explanatory diagram of the video change classification table ■. FIG. 14 is a detailed explanatory diagram of another example of the voice control command table. FIG. 15 is a detailed explanatory diagram of another example of recorded audio. Figure 16 is yet another example of the video. FIG. 17 is a block diagram of the configuration of the third embodiment. FIG. 18 is an explanatory diagram of example (2) of synchronization of video and audio. FIG. 19 is an explanatory diagram of the video change classification table summer. FIG. 20 is an explanatory diagram of voice control command table 1. FIG. 21 is an explanatory diagram of recorded audio ■. FIG. 22 is a block diagram of the configuration of the fourth embodiment. FIG. 23 is a block diagram of a conventional example. 1...Video recording and playback section. 2...Video change extraction section. 3...Audio output control section. 4...Audio recording and playback section. 5...Timer section. 6...Video storage buffer. 7...History storage section. 31...Video change search section. 32...Video change classification table. 33...Control command generation unit. 34...Voice control command table. Climbing Applicant Fujitsu Ltd. Patent Attorney Akira Yamatani Screen 1 Screen 1 Invention Factory Map Figure 1 Blue Blue Example Q Refined Log Diagram Figure 2 Fireworks 4 - Pronunciation Figure 6 Tawei - 7ljB I Fig. 7 17tmJ The implementation of the first tribute in the 7th layer 1st 8th section.
1 Pl Sumi @P Otsu dispatch 4 pictures 1 and (10E no Hana - Fire) Fig. io Fig. 11 Fig. 12 Fig. 12 Examples of slaughter and slaughter usage ■ Fig. 13 Shaving and killing - chain table ■ Chapter 14 Fig. 4 Ip control dispute 1 Fig. 15 Koji i, ini n video image (entering chestnut) Fig. 16 Perforation 3 *sec. and audio synchronization 4 rows ■ Figure 19 Autumn wheat conversion method ■ Figure 20 Audio $9 hammer ■ Figure 21 Record of fear special Yu 4 protrusion P1 stacking plate 7 Seventh tsuku rise No. 22 figure
Claims (5)
手段(1)と、 出力された映像の変化を抽出する映像変化抽出手段(2
)と、 前記映像の変化に基づいて記録されている音声の再生出
力に対して制御命令を生成する音声出力制御手段(3)
と、 前記制御命令に基づいて音声出力を再生出力する音声記
録再生手段(4)を具備し、 記録された映像出力の変化に応じて自動的に同期された
音声を出力することを特徴とする映像音声同期出力装置
。(1) Video recording and reproducing means (1) for reproducing and outputting recorded video, and video change extraction means (2) for extracting changes in the output video.
), and an audio output control means (3) that generates a control command for the playback output of the recorded audio based on the change in the video image.
and an audio recording and reproducing means (4) for reproducing and outputting audio output based on the control command, and outputting audio that is automatically synchronized according to changes in the recorded video output. Video and audio synchronous output device.
出手段(2)より入力した映像の変化を映像変化分類表
32により検索分類し、その結果に基づいて、音声制御
命令を生成することを特徴とする請求項(1)記載の映
像音声同期出力装置。(2) The audio output control means (3) includes: a video change search means (31), a video change classification recording means (32), a control command generation means (33), and a sound control command recording means (34). Claim (1) characterized in that the video change extraction means (2) searches and classifies the video changes inputted from the video change extraction means (2) using the video change classification table 32, and generates the audio control command based on the result. The video/audio synchronous output device described above.
り、 映像の出力時刻からある一定時刻後に音声出力を再生制
御することを特徴とする請求項(1)または(2)記載
の映像音声同期出力装置。(3) The audio output control means (3) is characterized in that it controls the reproduction of the audio output after a certain fixed time from the video output time by comprising a timer means (5) for delaying the audio output. The video/audio synchronous output device according to item (1) or (2).
を具備することにより、 映像の変化に対応した音声を見掛け上、映像変化より早
くあるいは遅く出力することを特徴とする請求項(1)
または(2)記載の映像音声同期出力装置。(4) The video recording and reproducing means (1) includes a video storage buffer means (6) that controls the video output time of the device.
Claim (1) characterized in that by comprising the above, the sound corresponding to the change in the video is outputted apparently earlier or later than the change in the video.
Or the video/audio synchronous output device described in (2).
備し、 記憶されている過去の履歴と現在の映像の変化に基づい
て音声制御命令を生成することを特徴とする請求項(1
)または(2)記載の映像音声同期出力装置。(5) The audio output control means (3) includes a history storage means (7) that sequentially stores the history of audio output, and issues audio control commands based on the stored past history and changes in the current video. Claim (1)
) or the video/audio synchronous output device described in (2).
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP24795990A JPH04129062A (en) | 1990-09-18 | 1990-09-18 | Video and audio simultaneous output device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP24795990A JPH04129062A (en) | 1990-09-18 | 1990-09-18 | Video and audio simultaneous output device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH04129062A true JPH04129062A (en) | 1992-04-30 |
Family
ID=17171101
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP24795990A Pending JPH04129062A (en) | 1990-09-18 | 1990-09-18 | Video and audio simultaneous output device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH04129062A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5430495A (en) * | 1992-07-15 | 1995-07-04 | Samsung Electronics Co., Ltd. | Video playback apparatus capable of varying caption brightness based on audio level |
| GB2408164A (en) * | 2003-11-12 | 2005-05-18 | Alastair Breward | Controlling a dynamic display apparatus |
| JP2012008824A (en) * | 2010-06-25 | 2012-01-12 | Funai Electric Co Ltd | Av device |
-
1990
- 1990-09-18 JP JP24795990A patent/JPH04129062A/en active Pending
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5430495A (en) * | 1992-07-15 | 1995-07-04 | Samsung Electronics Co., Ltd. | Video playback apparatus capable of varying caption brightness based on audio level |
| GB2408164A (en) * | 2003-11-12 | 2005-05-18 | Alastair Breward | Controlling a dynamic display apparatus |
| JP2012008824A (en) * | 2010-06-25 | 2012-01-12 | Funai Electric Co Ltd | Av device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7565059B2 (en) | Dynamic variation of output media signal in response to input media signal | |
| JPH056251A (en) | Device for previously recording, editing and regenerating screening on computer system | |
| US6195503B1 (en) | Image and sound recording/reproducing apparatus | |
| JPH04129062A (en) | Video and audio simultaneous output device | |
| Pauletto | Invisible seams: the role of Foley and voice postproduction recordings in the design of cinematic performances | |
| EP1811523B1 (en) | Data outputting device, data outputting method, data outputting program, and recording medium | |
| JPH08307417A (en) | Recorder and reproducer for electronic conference | |
| JP2002008052A (en) | Presentation system and recording medium | |
| US20020089645A1 (en) | Producing a soundtrack for moving picture sequences | |
| JP3848144B2 (en) | Video shortening / reproducing apparatus, video shortening / reproducing method, program for the method, and recording medium recording the program | |
| JPH06133220A (en) | Program production device, information transmission system and playback device | |
| JPH02309882A (en) | Synchronous reproduction control method for static picture and voice | |
| Rafter | BFI Handbook: Sound Design & Mixing | |
| KR100428382B1 (en) | Media Reproducing Device with a Function of Dubbing Voice and Method therefor | |
| JPH05266084A (en) | Minutes preparation system | |
| JPH10257463A (en) | Recording method of electronic conference information, recording medium, recording device, reproducing device, recording / reproducing device, and electronic conference system | |
| KR20050075082A (en) | Manufacture system of music video using karaoke | |
| JPH0528728A (en) | Av sequential reproduction system | |
| JP2000331182A (en) | Animation editing device, animation reproducing device, and program recording medium | |
| JP2002278568A (en) | Karaoke machine | |
| JPH0723329A (en) | Video editing equipment | |
| JPS5816290A (en) | Performance recorder/reproducer | |
| JP3350583B2 (en) | Synchronized output of audio / image / text information | |
| JPH01285066A (en) | Sound field reproducing device and recording medium therefor | |
| JPH05232601A (en) | Method and device for producing animation |