JP2000350192A - 画像処理装置 - Google Patents
画像処理装置Info
- Publication number
- JP2000350192A JP2000350192A JP2000086806A JP2000086806A JP2000350192A JP 2000350192 A JP2000350192 A JP 2000350192A JP 2000086806 A JP2000086806 A JP 2000086806A JP 2000086806 A JP2000086806 A JP 2000086806A JP 2000350192 A JP2000350192 A JP 2000350192A
- Authority
- JP
- Japan
- Prior art keywords
- data
- speaker
- person
- sight
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
を防ぎ、当該データベースからの情報検索を適切に処理
するアーカイブ装置を提供する。 【解決手段】アーカイブプロセッサ58は、各カメラか
らの映像データ、マイクからの音声データとから、頭部
追跡装置50、方向プロセッサ53、音声認識プロセッ
サ54からの受信データにより、音声データを変換した
テキストデータ及び所定の時点で会議の各参加者の視線
の先にいる人物を定義するデータと共に会議アーカイブ
データベース60に格納する。中央制御装置36の制御
の下に、テキストサーチャ62は会議の一つ又は複数部
について、ユーザー指定の基準に適合する音声及び映像
データを発見すべくデータベース60を検索するのに使
用され、表示プロセッサ64は、表示装置26を介し
て、データベース60に格納されている音声及び映像デ
ータを、ユーザに対し再生表示するのに使われる。
Description
イビングに関する。
するために存在している。しかし、特に、格納すべき画
像データの量が膨大であり、また、データベースから情
報を検索する目的でデータベースを問い合わせるために
使用できる方法がかぎられているため、問題も生じてい
る。
留意してなされた。
ている人物を示す、複数のカメラからの画像データをア
ーカイブするために処理を実行する装置又は方法が提供
される。現在話をしている人物と、その人物の視線の先
にいる人物(又は視線の先にある物体)を判定し、それ
に従ってアーカイブすべき画像データの部分集合を選択
する。
像データを格納する必要がなくなるので、容量が減少す
る。
された、話をしている人物を示す画像データの中から画
像データを選択する装置又は方法を提供する。この場
合、画像データの少なくとも一部を処理することによ
り、少なくとも、現在話をしている人物の頭部と、その
人物の視線の先にいる人物(又は視線の先にある物体)
の三次元位置を判定し、判定された位置及びカメラの視
野に基づいて画像データの選択を実行する。
をそのようなシステムにおいて装置として構成させる又
は方法を実行可能な状態にさせるための、信号及び記録
形態を含めた命令を提供する。
明の実施形態を説明する。
(図1に示す例では3台であるが、これ以外の台数であ
っても差し支えない)2−1、2−2、2−3及びマイ
クロホンアレイ4を使用して、数人の人物6、8、1
0、12の間で行われている会議から画像データと、音
声データとをそれぞれ記録している。
許第2140558号、米国特許第4333170号及
び米国特許第3392392号に記載されているよう
に、入って来る音の方向を判定することができるように
配列されたマイクロホンのアレイから構成されている。
の画像データと、マイクロホンアレイ4からの音声デー
タはケーブル(図示せず)を介してコンピュータ20に
入力される。コンピュータ20は受信したデータを処理
し、データベースにデータを格納して、会議のアーカイ
ブ記録を作成する。後に、このデータベースから情報を
検索することができる。
にこの実施形態ではキーボード28及びマウス30から
構成されるユーザ入力装置と共に、従来のように1つ又
は複数のプロセッサと、メモリと、サウンドカードなど
を含む処理装置24を含む従来通りのパーソナルコンピ
ュータである。
構成要素の入出力データとを図2に概略的に示す。
は、例えば、ディスク32などのデータ記憶媒体に格納
されたデータとして、及び/又は例えば、インターネッ
トなどの通信ネットワーク(図示せず)を介する送信に
より又は無線通信により遠隔データベースから処理装置
24に入力され且つ/又はユーザによりキーボード28
などのユーザ入力装置又は他の入力装置を介して入力さ
れた信号34として入力されるプログラミング命令に従
って動作するようにプログラムされている。
ると、処理装置24は処理動作を実行するためのいくつ
かの機能ユニットに有効に構成される。そのような機能
ユニットの例と、その相互接続を図2に示す。しかし、
図2に示されているユニットと接続は概念的なもので、
単に理解を助けるための例示を目的として示されている
にすぎない。従って、図2に示すユニットや接続は、処
理装置24のプロセッサ、メモリなどが実際に構成され
る厳密なユニットと接続を必ずしも表してはいない。
央制御装置36はユーザ入力装置28、30からの入力
を処理すると共に、ユーザによりディスク38などの記
憶装置に格納されたデータとして、又は処理装置24へ
送信される信号40として処理装置24に入力されるデ
ータを受信する。更に、中央制御装置36はいくつかの
他の機能ユニットの制御とそれに関わる処理を実行す
る。メモリ42は、中央制御装置36及び他の機能ユニ
ットにより使用される。
8、10、12それぞれの頭部の位置と向きを三次元で
追跡するために、ビデオカメラ2−1、2−2、2−3
から受信される画像データを処理する。この実施形態で
は、この追跡を実行するために、頭部追跡装置50はそ
れぞれの参加者の頭部の三次元コンピュータモデルを定
義するデータと、その顔の特徴を定義するデータとを使
用する。それらのデータは、後述するように、頭部モデ
ル記憶装置52に格納されている。
からの音声データを処理して、マイクロホンにより記録
された音が受信された方向(1つ又は複数)を判定す
る。このような処理は、例えば、英国特許第21405
58号、米国特許4333170号及び米国特許第33
92392号に記載されているような従来の方式により
実行される。
イ4から受信された音声データを処理して、そこからテ
キストデータを生成する。すなわち、音声認識処理装置
54は、「Dragon Dictate」又はIBMの「ViaVoice」などの
従来の音声認識プログラムに従って動作し、参加者6、
8、10、12が話した言葉に対応するテキストデータ
を生成する。音声認識処理を実行するため、音声認識処
理装置54は、音声認識パラメータ記憶装置56に格納
されている、参加者6、8、10、12ごとの音声認識
パラメータを定義するデータを使用する。すなわち、音
声認識パラメータ記憶装置56に格納されているデータ
は、従来の方式により音声認識処理装置を訓練すること
により生成された各参加者の音声プロファイルを定義す
るデータである。
50、方向処理装置53及び音声認識処理装置54から
受信したデータを使用して、会議アーカイブデータベー
ス60に格納すべきデータを生成する。すなわち、後述
するように、カメラ2−1、2−2、2−3からの映像
データと、マイクロホンアレイ4からの音声データと
を、音声認識処理装置54からのテキストデータ及び所
定の時点で会議の各参加者の視線の先にいる人物を定義
するデータと共に会議アーカイブデータベース60に格
納する。
6と関連して、会議の1つ又は複数の部分について、後
に詳細に説明するように、ユーザにより指定される探索
基準に適合する音声データ及び映像データを発見し、再
生すべく、会議アーカイブデータベース60を探索する
ために使用される。
の制御の下に、表示装置26を介してユーザに対し情報
を表示すると共に、会議アーカイブデータベース60に
格納されている音声データと映像データを再生する。
ース60のデータの一部又は全てを、例えば、ディスク
68などの記憶装置に出力するか、あるいは信号70と
して出力する。
処理動作を実行させることができるようにするために必
要なデータを入力することにより、コンピュータ20を
初期設定しなければならない。
より実行される処理動作を示している。
プS1では、中央処理装置36は、表示プロセッサ64
にユーザが会議に参加するそれぞれの人物の名前を入力
することを要求するメッセージを表示装置26に表示さ
せる。
例えば、キーボード28を使用してユーザにより入力さ
れた名前を定義するデータを受信して、各参加者にその
人独自の識別番号を割り当てると共に、識別番号と参加
者の名前との関係を定義するデータ、例えば、図4に示
すテーブル4を会議アーカイブデータベース60に格納
する。 ステップS3では、中央制御装置36は、表示
プロセッサ64に、会議中の相当に長い時間にわたって
人物が見ると思われ、会議アーカイブデータベース60
にアーカイブデータを格納することが望まれる物体それ
ぞれの名前をユーザが入力することを要求するメッセー
ジを表示装置26に表示させる。そのような物体として
は、例えば、図1に示すフリップチャート14のような
フリップチャート、ホワイトボード又は黒板、テレビな
どが考えられるであろう。
例えば、キーボード28を使用してユーザにより入力さ
れた物体の名前を定義するデータを受信して、各々の物
体にそれ独自の識別番号を割り当てると共に、識別番号
と物体の名前との関係を定義するデータ、例えば、図4
に示すテーブル80のデータを会議アーカイブデータベ
ースに格納する。
会議の参加者ごとに頭部モデルが既に格納されているか
否かを判定するために、頭部モデル記憶装置52を探索
する。
者について頭部モデルがまだ格納されていないと判定さ
れたならば、ステップS8で、中央制御装置36は、表
示プロセッサ64に、モデルがまだ格納されていない各
参加者の頭部モデルを定義するデータをユーザが入力す
ることを要求するメッセージを表示装置26に表示させ
る。
スク38などの記憶媒体により又は接続している処理装
置からの信号40としてデータをダウンロードすること
により、必要とされている頭部モデルを定義するデータ
を入力する。そのような頭部モデルは、従来の方法に従
って、例えば、Valente他の「An Analysis/SynthesisCo
operation for Head Tracking and Video Face Clonin
g」(ProceedingsECCV’98 Workshop on Perception of
Human Action、ドイツ、フライブルク大学、1998年
6月6日開催)に記載されている方法により生成されれ
ば良い。
ユーザにより入力されたデータを頭部モデル記憶装置5
2に格納する。
び表示プロセッサ64はユーザにより入力されたそれぞ
れの三次元コンピュータ頭部モデルをレンダリングし
て、ユーザに対し、ユーザが各モデルの少なくとも7つ
の特徴を識別することを要求するメッセージと共にモデ
ルを表示装置26に表示する。
の、参加者の顔の正面、側面及び(可能であれば)背面
にある顕著な特徴、例えば、目の輪郭、鼻孔、口、耳又
は参加者がかけている眼鏡の特徴などに対応する点をマ
ウス30を使用して指定する。
は、ユーザにより識別された特徴を定義するデータを頭
部モデル記憶装置52に格納する。
ついて、頭部モデルが既に頭部モデル記憶装置52に格
納されていると判定された場合には、上記のステップS
8からS14を省略する。
は、参加者ごとに音声認識パラメータが既に格納されて
いるか否かを判定するために、音声認識パラメータ記憶
装置56を探索する。
音声認識パラメータを利用できるわけではないと判定さ
れたならば、ステップS18で、中央制御装置36は、
表示プロセッサ64に、パラメータがまだ格納されてい
ない各参加者についてユーザが音声認識パラメータを入
力することを要求するメッセージを表示装置26に表示
させる。
スク38などの記憶媒体により又は遠隔処理装置からの
信号40として、必要な音声認識パラメータを定義する
データを入力する。先に述べた通り、それらのパラメー
タはユーザの音声のプロファイルを定義するもので、音
声認識プロセッサを従来の方法で訓練することにより生
成される。従って、例えば、Dragon Dictateを装備した
音声認識プロセッサの場合、ユーザにより入力される音
声認識パラメータはDragon Dictateの「ユーザファイル」
に格納されるパラメータに相当する。
は、ユーザにより入力された音声認識パラメータを音声
認識パラメータ記憶装置56に格納する。
とに音声認識パラメータが既に利用可能になっていると
判定された場合には、ステップS18及びS20を省略
する。
は、表示プロセッサ64に、ユーザがカメラ2−1、2
−2及び2−3の校正を可能にするためのステップを実
行させることを要求するメッセージを表示装置26に表
示させる。
を実行し、ステップS24では、中央制御装置36はカ
メラ2−1、2−2及び2−3を校正するための処理を
実行する。すなわち、この実施形態においては、ユーザ
により実行されるステップ及び中央制御装置36により
実行される処理は、Wiles及びDavisonの「Calibratingan
d 3D Modeling with a Multi−Camera System」(1999 I
EEE Workshop on Multi−View Modeling and Analysis
of Visual Scenes,ISBN 0769501109)に記載されてい
るような方式で実行される。これは、会議室に対する各
カメラ2−1、2−2及び2−3の位置と向きを定義す
る校正データと、各カメラの固有パラメータ(横縦比、
焦点距離、主点、一次半径方向ひずみ係数)とを生成す
る。カメラ校正データは、例えば、メモリ42に格納さ
れる。
は、表示プロセッサ64に、ステップS4で識別データ
を格納した物体それぞれの位置と向きを判定できるよう
にするためのステップをユーザが実行することを要求す
るメッセージを表示装置26に表示させる。
を実行し、ステップS26では、中央制御装置36は各
物体の位置と向きを判定するための処理を実行する。す
なわち、この実施形態では、ユーザは、会議の参加者が
見ると思われる物体の面の周囲、例えば、フリップチャ
ート14の紙面の平面の周囲にカラーマーカーで点を書
く。その後、中央制御装置36は、各々のカメラ2−
1、2−2及び2−3により記録された画像データをス
テップS24で格納されたカメラ校正データを使用して
処理し、従来通りに、それぞれのカラーマーカーの三次
元位置を判定する。各カラーマーカーの位置を別個に推
定するために、この処理はカメラ2−1、2−2及び2
−3ごとに実行され、各カメラ2−1、2−2及び2−
3からのデータを使用して計算された位置から各マーカ
ーの位置の平均を判定する。各マーカーの平均位置を使
用して、中央制御装置36は、従来の方式により、物体
の面の中心及び物体の面の向きを定義するための面垂線
を計算する。物体ごとに判定された位置と向きは、例え
ば、メモリ42に物体校正データとして格納される。
は、表示プロセッサ64に、会議の次の参加者(初めて
ステップS27を実行するときには、これは最初の参加
者である)を着席させることを要求するメッセージを表
示装置26に表示させる。
された参加者が着席するまでの時間をとるために所定の
期間待機し、続くステップS30では、中央制御装置3
6は、カメラごとの着席した参加者の頭部の推定位置を
判定するために、各カメラ2−1、2−2及び2−3か
らのそれぞれの画像データを処理する。すなわち、この
実施形態においては、中央制御装置36は従来のように
カメラごとに別個に処理を実行して、参加者の肌の色に
対応する色を有するカメラからの画像データのフレーム
の中のそれぞれの位置を識別し(この色は、頭部モデル
記憶装置52に格納されている参加者の頭部モデルを定
義するデータから判定される)、次に、(頭部は人体の
中で最も高い位置にある肌色の部分であると推定される
ため)会議室で最も高い位置に相当する部分を選択す
る。画像中の識別された部分の位置と、ステップS24
で判定されたカメラ校正パラメータとを使用して、中央
制御装置36は従来の方式により頭部の推定三次元位置
を判定する。カメラ2−1、2−2及び2−3ごとに別
個の推定頭部位置を得るために、この処理はカメラごと
に実行される。
カメラ2−1、2−2及び2−3ごとに参加者の頭部の
三次元推定向きを判定する。すなわち、この実施形態に
おいては、中央制御装置36は、頭部モデル記憶装置5
2に格納されている参加者の頭部の三次元コンピュータ
モデルをモデルの複数の異なる向きについてレンダリン
グして、向きごとに対応するモデルの二次元画像を作成
する。この実施形態では、参加者の頭部のコンピュータ
モデルを108の異なる向きについてレンダリングし
て、108枚の対応する二次元画像を作成する。これら
の向きは、0°(まっすぐに向いている場合)、+45
°(上を向いている場合)及び−45°(下を向いてい
る場合)に相当する3つの頭部の傾きのそれぞれについ
て10°ずつ頭部モデルを36回転させた向きに相当し
ている。次に、中央制御装置36はモデルの各二次元画
像を参加者の頭部を示すカメラ2−1、2−2、2−3
からのビデオフレームの部分と比較し、モデルの画像が
映像データと最も良く整合する向きを選択する。カメラ
ごとに別個の推定頭部向きを得るために、この比較と選
択はカメラごとに実行される。頭部モデルをレンダリン
グすることにより生成された画像データをカメラからの
映像データと比較するときには、例えば、Schodl、Haro
及びEssaの「Head Tracking Using a Textured Polygona
l Model」(Proceedings1998 Workshop on Perceptu
al User Interfacesに掲載)に記載されているような従
来の技法を使用する。
成した参加者の頭部のそれぞれの推定位置と、ステップ
S32で生成した参加者の頭部のそれぞれの推定向きと
を頭部追跡装置50に入力し、各々のカメラ2−1、2
−2及び2−3から受信した画像データのフレームを処
理して、参加者の頭部を追跡する。すなわち、この実施
形態においては、頭部追跡装置50は、例えば、Valent
e他の「An Analysis/Synthesis Cooperation for Head
Tracking and Video Face Cloning」(Proceedings EECV
'98 Workshop on Perceptionof Human Action、ドイ
ツ、フライブルク大学、1998年6月)に記載されて
いるような従来の方式により頭部を追跡するために処理
を実行する。
0により実行される処理動作の概要を示す。
2−1からS42−n(この実施形態で使用するカメラ
は3台であるので、「n」は3である)の各々において、
頭部追跡装置50は会議を記録した、対応する1台のカ
メラからの画像データを処理して、そのカメラからの画
像データに含まれる参加者の頭部の特徴(ステップS1
4で格納されている)の位置を判定すると共に、そこか
ら、そのカメラからの画像データの現在フレームについ
て、参加者の頭部の三次元位置と向きを判定する。
のうち所定の1つのステップで実行される処理動作を示
す。これらの処理動作は各ステップで同一であるが、異
なるカメラからの画像データについて実行される。
0では、頭部追跡装置50は、初めてステップS50が
実行されるときに図3のステップS30及びS32で生
成される推定値である、参加者の頭部の現在推定3D位
置及び現在推定向きを読み取る。
ステップS24で生成されたカメラ校正データを使用し
て、ステップS50で読み取られた推定位置及び推定向
きに従って、頭部モデル記憶装置52に格納されている
参加者の頭部の三次元コンピュータモデルをレンダリン
グする。
カメラから受信した映像データの現在フレームについて
画像データを処理して、ユーザにより識別され、ステッ
プS14で識別された頭部の特徴の1つの期待位置を取
り囲む各領域からの画像データを取り出す。この期待位
置は、ステップS50で読み取られた推定位置及び推定
向きと、ステップS24で生成されたカメラ校正データ
とから判定される。
ステップS52で生成、レンダリングされた画像データ
と、ステップS54で取り出されたカメラ画像データと
を整合して、レンダリングされた頭部モデルに最も良く
整合するカメラ画像データを求める。
ステップS56で識別された、レンダリングされた頭部
モデルに最も良く整合するカメラ画像データを、ステッ
プS24(図3)で格納されていたカメラ校正データと
共に使用して、映像データの現在フレームについて参加
者の頭部の3D位置と向きを判定する。
頭部追跡装置50はステップS42−1からS42−n
のそれぞれで識別された、(図6のステップS58で識
別された)レンダリングされた頭部モデルに最も良く整
合するカメラ画像データを使用して、映像データの現在
フレームについて参加者の頭部の平均3D位置と平均向
きを判定する。
ップS46では、ステップS42−1からS42−nの
それぞれで判定されたカメラ画像データ中の頭部の特徴
の位置(図6のステップS58で識別されている)を従
来のカルマンフィルタに入力して、映像データの次のフ
レームについて参加者の頭部の推定3D位置及び推定向
きを生成する。ビデオカメラ2−1,2−2及び2−3
から映像データのフレームが受信されるにつれて、参加
者についてステップS42からS46を繰り返し実行す
る。
中央制御装置36は、会議に別の参加者がいるか否かを
判定し、各参加者に対して先に説明したように処理が実
行され終わるまで、ステップS27からS36を繰り返
す。しかし、これらのステップが参加者ごとに実行され
ている間、ステップS34では、頭部追跡装置50は既
に着席した各参加者の頭部を追跡し続けている。
者がなく、従って、頭部追跡装置50により各参加者の
頭部が追跡されていることが判定されると、ステップS
38で、中央制御装置36は、参加者間で会議を始めて
も良いことを指示するために、可聴信号を処理装置24
から出力させる。
きに処理装置24により実行される処理動作を示す。
頭部追跡装置50は会議中の各参加者の頭部を追跡し続
けている。ステップS70で頭部追跡装置50により実
行される処理は、先にステップS34に関して説明した
のと同じ処理であるので、ここでは繰り返し説明しな
い。
加者の頭部を追跡しているのと同時に、ステップS72
では、会議アーカイブデータベース60に格納すべきデ
ータを生成し、それを格納するための処理を実行する。
動作を示す。
0では、アーカイブプロセッサ58は、参加者がどの人
物又はどの物体を見ているかを定義するいわゆる「視線
パラメータ」を参加者ごとに生成する。
動作を示す。
は、アーカイブプロセッサ58は頭部追跡装置50から
各参加者の頭部の現在三次元位置を読み取る。これは、
ステップS44(図5)で頭部追跡装置50により実行
される処理により生成された平均位置である。
ッサ58は頭部追跡装置50から次の参加者(ステップ
S112を初めて実行するときには、これは最初の参加
者である)の頭部の現在向きを読み取る。ステップS1
12で読み取られる向きは、ステップS44(図5)で
頭部追跡装置50により実行される処理で生成された平
均向きである。
ッサ58は、参加者がどこを見ているかを定義する線
(いわゆる「視線」)と、その参加者の頭部を別の参加者
の頭部の中心と結ぶ概念上のそれぞれの線とが成す角度
を判定する。
11を参照すると、ステップS114で実行される処理
の一例が1人の参加者、すなわち、図1の参加者6につ
いて示されている。図10を参照すると、ステップS1
12で読み取られる参加者の頭部の向きは、参加者の両
目の中心の間の一点から出る、参加者の頭部に対し垂直
な視線90を定義する。同様に、図11を参照すると、
ステップS110で読み取られた参加者の頭部全ての位
置は、参加者6の両目の中心の間の点からその他の参加
者8、10、12それぞれの頭部の中心に至る概念上の
線92、94、96を定義する。ステップS114で実
行される処理では、アーカイブプロセッサ58は視線9
0と、それぞれの概念上の線92、94、96とが成す
角度98、100、102を判定する。
は、アーカイブプロセッサ58は最小値を有する角度9
8、100又は102を選択する。すなわち、図11に
示す例でいえば、角度100が選択されることになるで
あろう。
ッサ58は、ステップS116で選択した角度が10°
より小さいか否かを判定する。
さいと判定されれば、ステップS120で、アーカイブ
プロセッサ58は参加者の視線パラメータを、視線と最
小の角度を成す概念上の線により結ばれている参加者の
識別番号(図3のステップS2で割り当てられている)
に設定する。すなわち、図11に示す例でいえば、角度
100が10°より小さければ、この角度100は視線
90と、参加者6を参加者10と結ぶ概念上の線94と
が成す角度であるので、視線パラメータは参加者10の
識別番号に設定されることになるであろう。
度が10°以上であることが判定された場合には、ステ
ップS122で、アーカイブプロセッサ58は先にステ
ップS26(図3)で格納されていた各物体の位置を読
み取る。
ッサ58は、参加者の視線90がいずれかの物体の平面
と交わるか否かを判定する。
の平面と交わると判定されれば、ステップS126で、
アーカイブプロセッサ50は参加者の視線パラメータ
を、視線と交わる物体の識別番号(図3のステップS4
で割り当てられている)に設定する。視線と交わる物体
が2つ以上ある場合には、視線と交わる物体のうち、参
加者に最も近い物体を選択する。
0が物体の平面と交わらないと判定された場合には、ス
テップS128で、アーカイブプロセッサ58は参加者
の視線パラメータの値を「0」に設定する。これは、(視
線90が概念上の線92、94、96のいずれに対して
も十分な近さにないために)参加者は他の参加者のいず
れをも見ておらず、また、(視線90と交わる物体がな
いために)参加者はどの物体も見ていないと判定された
ことを示す。このような状況は、例えば、ステップS4
でデータが格納されず且つステップS26で校正されな
かった、会議室内のいずれかの物体を参加者が見ている
場合(例えば、図1に示す例では、参加者12が持って
いるメモ)などに起こりうるであろう。
ッサ58は会議に別の参加者がいるか否かを判定し、そ
れぞれの参加者について上述の処理が実行され終わるま
で、ステップS112からS130を繰り返す。
中央制御装置36及び音声認識プロセッサ54は、マイ
クロホンアレイ4から映像データの現在フレームに対応
する音声データが受信されたか否かを判定する。
たと判定されれば、ステップS84で、会議の参加者の
中で誰が話しているかを判定するための処理を実行す
る。
理動作を示す。
140では、方向プロセッサ53はマイクロホンアレイ
4からの音声データを処理して、その音声が来ている方
向を判定する。この処理は、例えば、英国特許第214
0558号、米国特許第4333170号及び米国特許
第3392392号に記載されているような従来の方式
で実行される。
ッサ58は、画像データの現在フレームについてステッ
プS44(図5)で頭部追跡装置50により判定された
各参加者の頭部の位置を読み取り、そこから、ステップ
S140で判定された方向、すなわち、音声が来ている
方向に対応する位置に頭部がある参加者は誰であるかを
判定する。
ッサ58は、音声が来ている方向に2人以上の参加者が
いるか否かを判定する。
に参加者が1人しかいないと判定されれば、ステップS
146で、アーカイブプロセッサ58は、音声が来てい
る方向にいる参加者を画像データの現在フレームに関わ
る話者として選択する。
来ている方向に対応する位置に頭部がある参加者は2人
以上いると判定された場合には、ステップS148で、
アーカイブプロセッサ58は、それらの参加者の1人が
画像データの直前のフレームで話者として識別されてい
たか否かを判定する。
にいる参加者の1人が画像データの直前のフレームで話
者として選択されていたと判定されれば、ステップS1
50で、アーカイブプロセッサ58は画像データの直前
のフレームで識別されていた話者を画像データの現在フ
レームについても話者として選択する。これは、画像デ
ータの直前のフレームの話者が現在フレームの話者と同
一である確率が高いからである。
来ている方向にいる参加者がいずれも直前のフレームで
話者として識別された参加者ではないと判定された場
合、又は直前のフレームで識別されていた話者がいない
場合には、ステップS152で、アーカイブプロセッサ
58は、音声が来ている方向にいるそれぞれの参加者を
「話者になりうる」参加者として選択する。
アーカイブプロセッサ58は、話者である各参加者の視
線パラメータ値、すなわち、ステップS80で判定され
た、話者である各参加者が誰を又は何を見ているかを定
義する視線パラメータ値を、後の解析に備えて、例え
ば、メモリ42に格納する。
サ58は、ステップS84で判定された話者である各参
加者のアイデンティティを音声認識プロセッサ54に報
知する。これに応答して、音声認識プロセッサ54は話
者である参加者の音声認識パラメータを音声認識パラメ
ータ記憶装置56から選択し、選択されたパラメータを
使用して、受信した音声データについて音声認識処理を
実行し、話者である参加者が話した言葉に対応するテキ
ストデータを生成する。
音声データが話し言葉を含んでいないと判定された場合
には、ステップS84からS88を省略する。
サ58は、会議アーカイブデータベース60にどの画像
データを格納すべきか、すなわち、カメラ2−1、2−
2及び2−3のうちどのカメラからの画像データを格納
すべきかを判定する。図13は、ステップS89でアー
カイブプロセッサ58により実行される処理動作を示
す。
は、アーカイブプロセッサ58は、画像データの現在フ
レームについてステップS82(図8)で話し言葉が検
出されたか否かを判定する。ステップS160で、現在
フレームについては話し言葉が存在しないと判定された
ならば、ステップS162で、アーカイブプロセッサ5
8は、画像データを格納すべきカメラとしてデフォルト
カメラを選択する。すなわち、この実施形態において
は、アーカイブプロセッサ58は直前のフレームで画像
データが記録されたカメラを選択する。処理中の現在フ
レームが最初のフレームである場合には、アーカイブプ
ロセッサ58はカメラ2−1、2−2、2−3の1台を
無作為に選択する。
の現在フレームについて話し言葉が存在すると判定され
た場合には、ステップS164で、アーカイブプロセッ
サ58は、次の話者である参加者(ステップS164を
初めて実行するときには、これは最初の話者である参加
者となる)についてステップS86で先に格納された視
線パラメータを読み取り、その話者である参加者が見て
いる人物又は物体を判定する。
ッサ58は、現在考慮されている話者である参加者の
(図5のステップS44で判定された)頭部の位置と向
きを、話者である参加者の視線の先にいる参加者の頭部
の位置と向き(図5のステップS44で判定されてい
る)、又は話者である参加者の視線の先にある物体の位
置と向き(図3のステップS26で格納されている)と
共に読み取る。
ッサ58はステップS166で読み取られた位置と向き
を処理して、カメラ2−1、2−2、2−3のうち、話
者である参加者と、その話者である参加者が見ている参
加者又は物体の双方を最も良く示しているカメラはどれ
であるかを判定し、このカメラを現在フレームの画像デ
ータを会議アーカイブデータベース60に格納すべきカ
メラとして選択する。
プロセッサ58により実行される処理動作を示す。
176では、アーカイブプロセッサ58は次のカメラ
(ステップS176を初めて実行するときには、これは
最初のカメラである)の三次元位置と視野方向を読み取
る。この情報は先に図3のステップS24で生成され、
格納されている。
ッサ58はステップS176で読み取られた情報を、
(図5のステップS44で判定された)話者である参加
者の頭部の三次元位置及び向きを定義する情報及び(図
5のステップS44で判定された)話者である参加者の
視線の先にいる参加者の頭部の三次元位置及び向き又は
(図3のステップS26で格納された)話者である参加
者の視線の先にある物体の三次元位置及び向きを定義す
る情報と共に使用して、話者である参加者と、その視線
の先にいる参加者又はその視線の先にある物体の双方が
現在考慮されているカメラの視野の中にあるか否か(す
なわち、現在考慮されているカメラが話者である参加者
と、その視線の先にいる参加者又はその視線の先にある
物体の双方を視野におさめることができるか否か)を判
定する。すなわち、この実施形態においては、アーカイ
ブプロセッサ58は下記の式を評価し、全ての不等式が
成立した場合に、カメラは話者である参加者と、その視
線の先にいる参加者又はその視線の先にある物体の双方
を視野におさめることができると判定する。
メラの主点のx座標、y座標及びz座標(先に図3のステ
ップS24で判定され、格納されている)であり、(dX
c、dYc,dZc)は、それぞれ、x方向、y方向及びz方向に
おけるカメラの視野方向(同様に、図3のステップS2
4で判定され、格納されている)を表し、θh及びθ
vは、それぞれ、水平方向と垂直方向におけるカメラの
視野角度(同様に図3のステップS24で判定され、格
納されている)であり、(Xp1、Yp1,Zp1)は、それぞ
れ、話者である参加者の頭部の中心のx座標、y座標及び
z座標(図5のステップS44で判定されている)であ
り、(dXp1、dYp1,dZp1)は、それぞれ、話者である参
加者の視線90の向き(同様に図5のステップS44で
判定されている)を表し、(Xp2、Yp2,Zp2)は、それ
ぞれ、話者である参加者の視線の先にいる人物の頭部の
中心のx座標、y座標及びz座標(図5のステップS44
で判定されている)、又は話者である参加者の視線の先
にある物体の面の中心のx座標、y座標及びz座標(図3
のステップS26で判定されている)であり、(dXp2、
dYp2,dZp2)は、それぞれ、話者である参加者の視線の
先にいる参加者に視線90のx方向、y方向及びz方向に
おける方向(同様に図5のステップS44で判定されて
いる)、又は話者である参加者の視線の先にある物体の
面に対する垂線のx方向、y方向及びz方向における方向
(図3のステップS26で判定されている)を表す。
と、話者である参加者の視線の先にいる人物又は視線の
先にある物体の双方をカメラが捉えることができると判
定されれば(すなわち、上記の式(1)、(2)、
(3)及び(4)における不等式が成立すれば)ステッ
プS180で、アーカイブプロセッサ58は、現在考慮
されているカメラが話者である参加者を捉えている視野
の画質を表す値を計算し、格納する。すなわち、この実
施形態においては、アーカイブプロセッサ58は、下記
の式を使用して、画質値Q1を計算する。
(2)に関して挙げた用語と同じである。
は、−1から+1までの値を有するスカラであり、話者
である参加者の頭部の背面が直接にカメラに面している
場合には、この値は−1であり、話者である参加者の顔
面が直接にカメラに面している場合には、この値は+1
であり、話者である参加者の頭部がその他の方向を向い
ているときには−1から+1までの値をとる。
ッサ58は、考慮されているカメラが話者である参加者
の視線の先にいる参加者又は視線の先にある物体を捉え
ている視野の画質を表す値を計算し、格納する。すなわ
ち、この実施形態においては、アーカイブプロセッサ5
8は、下記の式を使用して、画質値Q2を計算する。
び(4)に関して挙げた用語と同じである。
取るスカラであり、参加者の頭部の背面又は物体の面の
背面が直接にカメラに面している場合には−1であり、
参加者の顔面又は物体の正面が直接にカメラに面してい
る場合には+1になる。参加者の頭部又は物体の面がそ
の他の方向を向いているときには、その間の値をとる。
ッサ58は、ステップS180で計算された画質値Q1
をステップS182で計算された画質値Q2と比較し、
最小値を選択する。この最小値は、カメラが話者である
参加者、あるいは話者である参加者の視線の先にいる参
加者又は視線の先にある物体を捉えるときの「最悪の視
野」を示す(最悪の視野は、話者である参加者について
はQ1がQ2より小さい場合の視野であり、話者である参
加者の視線の先にいる参加者又は視線の先にある物体に
ついては、Q2がQ1より小さい場合の視野である)。
(1)、(2)、(3)及び(4)の不等式のいずれか
1つ又は2つ以上が成立しない(すなわち、カメラが話
者である参加者と、話者である参加者の視線の先にいる
参加者又は視線の先にある物体の双方を捉えることがで
きない)と判定された場合には、ステップS180から
S184を省略する。
ッサ58は、受信画像データを提供したカメラが他に存
在するか否かを判定する。カメラごとに上述の処理が実
行され終わるまで、ステップS176からS186を繰
り返す。
ッサ58は、ステップS184で処理を実行したときに
カメラごとに格納された「最悪の視野」の値(すなわち、
ステップS184でカメラごとに格納された値Q1又はQ
2)を比較し、それらの格納値の中の最大値を選択す
る。この最大値は「最良の最悪視野」を表し、従って、ス
テップS188では、アーカイブプロセッサ58は、ス
テップS184でこの「最良の最悪視野」値が格納された
カメラを会議アーカイブデータベースに格納すべき画像
データを提供するカメラとして選択する。これは、この
カメラが話者である参加者と、話者である参加者の視線
の先にいる参加者又は視線の先にある物体の双方を捉え
る最良の視野を有するからである。
ッサ58は、話者に「なりうる」参加者を含めて、他の話
者である参加者が存在するか否かを判定する。話者であ
る参加者ごとに、また、話者に「なりうる」参加者ごと
に、上述の処理が実行され終わるまで、ステップS16
4からS170を繰り返す。
アーカイブプロセッサ58は、ステップS89で選択し
たカメラから受信された映像データの現在フレームと、
マイクロホンアレイ4から受信された音声データとを従
来の方式によりMPEG2データとして符号化し、符号化さ
れたデータを会議アーカイブデータベース60に格納す
る。
0におけるデータの格納状態を概略的に示す。図15に
示す格納構造は概念上のものであり、格納される情報の
連係を例示することにより理解を助けるために示されて
いる。従って、この格納構造は会議アーカイブデータベ
ース60を構成するメモリにデータが格納される厳密な
状態を必ずしも表してはいない。
イブデータベース60は水平軸200により表される情
報を格納している。水平軸200上の各単位は所定の量
の時間、例えば、カメラから受信される映像データの1
つのフレームの時間周期を表す。(会議アーカイブデー
タベース60が一般に図15に示す数より多くの時間単
位を含むことは言うまでもなく理解されるであろう。)
ステップS90で生成されたMPEG2データは、時間情報
(この時間情報は図15には水平軸200に沿ったMPEG
2データ202の位置により概略的に表されている)と
共に、データ202として会議アーカイブデータベース
60に格納されている。
アーカイブプロセッサ58は、現在フレームについてス
テップS88で音声認識プロセッサ54により生成され
たテキストデータを会議アーカイブデータベース60に
格納する(図15には204で示されている)。すなわ
ち、テキストデータは対応するMPEG2データとのリンク
を保ちながら格納され、このリンクは図15には、テキ
ストデータがMPEG2データと同じ縦列に格納されるもの
として表されている。図からわかるように、話をしてい
ない参加者からは格納すべきテキストデータは得られな
い。図15に示す例においては、テキストは参加者1に
関しては初めの10個のタイムスロットに格納され(2
06で示す)、参加者3については12番目から20番
目のタイムスロットに格納され(208で示す)、参加
者4については21番目のタイムスロットに格納されて
いる(210で示す)。この例では、参加者2は図15
に示すタイムスロットの間には話をしていなかったの
で、参加者2についてはテキストは格納されていない。
サ58は、ステップS80で参加者ごとに現在フレーム
について生成された視線パラメータ値を会議アーカイブ
データベース60に格納する(図15には212で示
す)。図15を参照すると、視線パラメータ値は、参加
者ごとに、関連するMPEG2データ202及び関連するテ
キストデータ204と共に格納されている(このリンク
は、図15では、視線パラメータ値が関連するMPEG2デ
ータ202及び関連するテキストデータ204と同じ列
にあることにより表されている)。すなわち、一例とし
て図15の第1のタイムスロットを参照すると、参加者
1の視線パラメータ値は、参加者1が参加者3を見てい
ることを示す3であり、参加者2の視線パラメータ値
は、参加者2がフリップチャート14を見ていることを
示す5であり、参加者3の視線パラメータ値は、参加者
3が参加者1を見ていることを示す1であり、参加者4
の視線パラメータ値は、参加者4がその他の参加者の誰
も見ていないことを示す「0」である(図1に示す例で
は、12で指示される参加者はその他の参加者ではな
く、自分のメモを見ている)。
及びアーカイブプロセッサ58は、会議の参加者の1人
が話し終えたか否かを判定する。この実施形態において
は、この検査は、所定の参加者についてテキストデータ
が直前のタイムスロットでは存在していたが、現在タイ
ムスロットでは存在しないことを判定するためにテキス
トデータ204を検査することにより実行される。いず
れかの参加者がこの条件を満たすのであれば(すなわ
ち、参加者が話を止めていれば)、ステップS98で、
アーカイブプロセッサ58は、話を止めた参加者のそれ
ぞれについてステップS86を実行したときに先に格納
されていた視線パラメータ値を処理して(これらの視線
パラメータ値は、現時点では終了している話をしていた
期間中にその参加者が誰を又は何を見ていたかを定義す
る)、視線ヒストグラムを定義するデータを生成する。
すなわち、参加者が話をしていた期間における視線パラ
メータ値を処理して、話者である参加者がその他の参加
者及び物体の各々を見ていた時間の割合(%)を定義す
るデータを生成する。
206及び208にそれぞれ対応する期間に対応する視
線ヒストグラムを示す。
と、参加者1が話していた期間206、参加者1は10
個のタイムスロットのうち6個の間(すなわち、参加者
1が話していた期間全体の長さの60%)は参加者3を
見ており(図16Aには300で示されている)、10
個のタイムスロットのうち4個の間(すなわち、時間全
体の40%)は参加者4を見ていた(図16Aには31
0で示されている)。
と、期間208の間、参加者3は時間の約45%につい
ては参加者1を見ており(図16Bには320で示され
ている)、時間の約33%については物体5(すなわ
ち、フリップチャート14)を見ており(図16Bには
330で示されている)、時間の約22%については参
加者2を見ていた(図16Bには340で示されてい
る)。
は、ステップS98で生成した各視線ヒストグラムをそ
れが生成されたテキスと関連する期間にリンクする会議
アーカイブデータベース60に格納する。図15を参照
すると、格納された視線ヒストグラムは214で示され
ており、テキスト期間206のヒストグラムを定義する
データは216で示されており、テキスト期間208の
ヒストグラムを定義するデータは218で示されてい
る。図15において、視線ヒストグラムと関連するテキ
ストとの間のリンクは、視線ヒストグラムがテキストデ
ータと同じ列に格納されることにより表されている。
周期については参加者の1人が話を止めていないことが
判定された場合には、ステップS98及びS100を省
略する。
ッサ58は、映像データの直前のフレーム(すなわち、
ステップS80からS100でデータが生成、格納され
たばかりのフレームの直前のフレーム)及びそれ以前の
フレームについて、必要に応じて、会議アーカイブデー
タベース60に格納されているデータを修正する。
プロセッサ58により実行される処理動作を示す。
は、アーカイブプロセッサ58は、1つ前のフレーム
(初めてステップS190を実行する場合には、これは
現在フレームの直前のフレームということになる。すな
わち、現在フレームを「i」番目のフレームとすれば、
「i−1」番目のフレーム)について、話者に「なりうる」
参加者に関するデータが会議アーカイブデータベース6
0に格納されているか否かを判定する。
レームについて話者に「なりうる」参加者のデータが格納
されていないと判定されれば、会議アーカイブデータベ
ース60のデータを修正する必要はない。
べき直前のフレームについて話者に「なりうる」参加者の
データが格納されていると判定された場合には、ステッ
プS192で、アーカイブプロセッサ58は、直前のフ
レームについてデータが格納されていた話者に「なりう
る」参加者の1人が現在フレームについて識別されてい
る話者である参加者(話者に「なりうる」参加者ではな
い)、すなわち、図12のステップS146で識別され
た話者である参加者と同1人物であるか否かを判定す
る。
者に「なりうる」参加者がいずれも現在フレームについて
ステップS146で識別された話者である参加者と同じ
ではないと判定されれば、考慮すべき直前のフレームに
ついて会議アーカイブデータベース60に格納されてい
るデータの修正を実行しない。
フレームの話者に「なりうる」参加者が現在フレームにつ
いてステップS146で識別された話者である参加者と
同じであると判定された場合には、ステップS194
で、アーカイブプロセッサ58は、現在フレームの話者
である参加者と同じではない話者に「なりうる」参加者の
各々について、考慮すべき直前のフレームに関わるテキ
ストデータ204を会議アーカイブデータベース60か
ら削除する。
及びS194の処理を実行することにより、現在フレー
ムの画像データ及び音声データの処理によってある話者
が明確に識別された場合、現在フレームにおける話者は
直前のフレームにおける話者と同1人物であると言う仮
定を利用して、話者に「なりうる」参加者について格納さ
れている直前のフレームのデータを更新する(すなわ
ち、話者を曖昧でなく識別することが不可能であったた
めである)。
フレームについてステップS190からS194を繰り
返す。すなわち、現在フレームを「i」番目のフレームと
すれば、初めてステップS190からS194を実行す
るときに「i−1」番目のフレームを考慮し、2度目にス
テップS190からS194を実行するときには「i−
2」番目のフレームを考慮する。以下、同様である。ス
テップS190で、話者に「なりうる」参加者のデータが
考慮すべき直前のフレームについては格納されていない
と判定されるか、又はステップS192で、考慮すべき
直前のフレームにおける話者に「なりうる」参加者のいず
れも現在フレームについて明確に識別された話者である
参加者と同じではないと判定されるまで、ステップS1
90からS194を繰り返し続ける。このようにして、
いくつかの連続するフレームにわたって話者に「なりう
る」参加者が識別された場合、話者に「なりうる」参加者
の中の実際の話者である参加者が次のフレームで識別さ
れれば、会議アーカイブデータベースに格納されている
データを修正する。
は、中央制御装置36は、カメラ2−1、2−2、2−
3から映像データの別のフレームが受信されたか否かを
判定する。カメラ2−1、2−2、2−3から画像デー
タが受信されている間、ステップS80からS104を
繰り返し実行する。
が格納されている場合、会議に関連するデータを検索す
るために、会議アーカイブデータベース60を問い合わ
せても良い。
たす会議の各部分に関連するデータを検索する目的で会
議アーカイブデータベース60を探索するために実行さ
れる処理動作を示す。
200では、中央制御装置36は表示プロセッサ64
に、要求される会議アーカイブデータベース60の探索
を定義する情報をユーザが入力することを要求するメッ
セージを表示装置26に表示させる。すなわち、この実
施形態においては、中央制御装置36は図19Aに示す
ものを表示装置26に表示させることになる。
ーカイブデータベース60中で見出すことを望む会議の
1つ又は複数の部分を定義する情報を入力することを求
められる。すなわち、この実施形態においては、ユーザ
は話をしていた参加者を定義する情報400と、情報4
00の中で識別される参加者が話した1つ又は複数のキ
ーワードから成る情報410と、情報400の中で識別
される参加者が話している間に見ていた参加者又は物体
を定義する情報420とを入力することを求められる。
更に、ユーザは、探索を実行すべき会議の部分を定義す
る時間情報を入力することができる。すなわち、ユーザ
は、探索を打ち切るべき会議中の時間(すなわち、指定
時間の前の会議の期間を探索することになる)を定義す
る情報430と、その時間の後から探索を実行すべき会
議中の時間を定義する情報440と、探索を実行すべき
開始時間と終了時間をそれぞれ定義する情報450及び
460とを入力できる。この実施形態では、情報43
0、440、450及び460は、例えば、分単位の絶
対期限を指定するか、又は会議時間全体に占める割合を
指示する小数値を入力するという方法により相対期限を
指定することにより入力されれば良い。例えば、情報4
30として値0.25を入力すると、探索時間は会議の
初めの四分の一に制限されることになるであろう。
報400、410及び420の全てを入力する必要はな
く、これらの情報のうち1つ又は2つを省いても差し支
えない。ユーザが情報400、410及び420の全て
を入力すると、情報400の中で識別される参加者が情
報420の中で識別される参加者又は物体に対して話を
していた会議中の各部分及び情報410の中で定義され
るキーワードを話した各部分を識別するための探索が実
行される。これに対し、情報410を省いた場合には、
情報400の中で定義される参加者が何を話したかには
関係なく、参加者が情報420の中で定義される参加者
又は物体に対して話をしていた会議中の各部分を識別す
るための探索が実行される。情報410及び420を省
いた場合には、何を誰に話したかには関係なく、情報4
00で定義される参加者が話していた会議の各部分を識
別するための探索が実行される。情報400を省いた場
合には、いずれかの参加者が情報420の中で定義され
る参加者又は物体を見ている間に情報410の中で定義
されるキーワードを話した会議中の各部分を識別するた
めの探索が実行される。情報400及び410を省いた
場合には、いずれかの参加者が情報420の中で定義さ
れる参加者又は物体に対して話をした会議中の各部分を
識別するための探索が実行される。情報420を省いた
場合には、情報400の中で定義される参加者が誰にキ
ーワードを話したかに関わらず情報410の中で定義さ
れるキーワードを話した会議中の各部分を識別するため
の探索が実行される。同様に、情報400及び420を
省いた場合には、誰が誰にキーワードを話したかに関わ
らず、情報410の中で識別されるキーワードが話され
た会議中の各部分を識別するための探索が実行される。
450及び460の全てを入力しても良いし、これらの
情報の1つ又は2つ以上を省いても良い。
言葉に代わる言葉を探索できるようにするために、情報
410の中で入力されるキーワードと組み合わせて周知
のブール演算子及び探索アルゴリズムを使用しても良
い。
情報の全てを入力したならば、マウス30などのユーザ
入力装置を使用して領域470をクリックすることによ
り探索を開始する。
は、ユーザにより入力された探索情報を中央制御装置3
6により読み取り、命令された探索を実行する。すなわ
ち、この実施形態においては、中央制御装置36は、情
報400又は420により入力された参加者又は物体の
名前をテーブル80(図4)を使用して識別番号に変換
し、情報400の中で定義されている参加者(情報40
0が入力されなかった場合には全ての参加者)について
テキスト情報204を考慮する。ユーザにより情報42
0が入力されていれば、テキストの期間ごとに、中央制
御装置36は対応する視線ヒストグラムを定義するデー
タを検査して、情報420の中で定義されている参加者
又は物体のヒストグラムにおける視線を受けている時間
の割合がこの実施形態では25%である閾値以上である
か否かを判定する。このようにして、発言(テキスト)
の各期間を考慮し、情報400の中で定義されている参
加者がその発言の時間の少なくとも25%にわたり情報
420の中で定義されている参加者又は物体を見ていた
ならば、話者である参加者が話している間に他の参加者
又は物体を見ていたとしても、話者である参加者は情報
420の中で定義されている参加者又は物体に向かって
話していたという基準を満たすことになる。従って、例
えば、2人以上の参加者が情報420の中で指定されて
いた場合には、それらの参加者について視線ヒストグラ
ムの値が25%以上である話の期間が識別されることも
あるだろう。ユーザにより情報410が入力されていれ
ば、中央制御装置36及びテキストサーチャ62は、情
報400及び420に基づいて先に識別されたテキスト
の各部分(情報400及び420が入力されなかった場
合にはテキストの全ての部分)を探索して、情報410
の中で識別されているキーワードを含む部分を識別す
る。ユーザにより時間情報が入力されていれば、上記の
探索はそれらの時間情報の制限により定義される会議時
間に限られる。
は表示プロセッサ64に、探索中に識別された関連する
発言のリストを表示装置26を介してユーザに対し表示
させる。すなわち、中央制御装置36は図19Bに示す
ような情報をユーザに対し表示させる。図19Bを参照
すると、探索パラメータを満足させる発言についてリス
トが作成されており、その発言の開始時間を絶対期間と
して定義すると共に、会議時間全体に占める割合として
も定義する情報が表示される。そこで、ユーザは、例え
ば、マウス30を使用してリストの必要な発言の場所を
クリックすることにより、再生のために発言の1つを選
択することができる。
はステップS204でユーザにより行われた選択を読み
取り、会議の関連部分の格納されているMPEG2データ2
02を会議アーカイブデータベース60から再生する。
すなわち、中央制御装置36及び表示プロセッサ64は
MPEG2データ202を復号し、表示装置26を介して画
像データと音声データを出力する。発言の一部又は全体
について、再生すべきデータとして2台以上のカメラか
らの画像データが格納されている場合には、そのことを
表示装置26を介してユーザに指示する。そこで、ユー
ザは、例えば、キーボード28を使用して中央制御装置
36に命令を入力することにより、再生すべき画像デー
タを選択することができる。
は、ユーザが会議アーカイブデータベース60の問い合
わせを中止することを望むか否かを判定し、望まないの
であれば、ステップS200からS208を繰り返す。
は、様々な変形や変更を行うことができる。
ンアレイ4は、受信した音声がどの方向から来たかを判
定するために、会議室のテーブルの上に置かれていた。
しかし、その代わりに、会議中の参加者ごとに対応する
1台のマイクロホンを設けても良い(参加者の衣服に装
着するマイクロホンなど)。このようにすると、参加者
の音声データがそれぞれ対応するチャネルを介して処理
装置24に入力されるので、話者である参加者を容易に
識別できる。
3)及びステップS70(図7)において、会議中の各
参加者の頭部を追跡していた。しかし、それに加えて、
ステップS4及びS26でデータを格納した物体が移動
する物体(例えば、参加者が回覧すると思われるメモ、
又は参加者の間で手渡されるべき物体)である場合に
は、そのような物体を追跡することも可能であろう。
(図13)において、話者である参加者を最も良く視野
に捉えているカメラと、話者である参加者の視線の先に
いる参加者又は視線の先にある物体とを識別するための
処理を実行していた。しかし、カメラを先の実施形態で
説明した方法により識別するのではなく、ユーザが処理
装置24の初期設定中に、会議テーブルを囲む2つずつ
の着席位置を最も良く視野に捉えるのはカメラ2−1、
2−2、2−3のうちどのカメラであるか及び/又はそ
れぞれの着席位置と所定の物体(フリップチャート14
など)を最も良く視野に捉えるのはどのカメラであるか
を定義することが可能である。このようにして、話者で
ある参加者と、話者である参加者の視線の先にいる参加
者とがあらかじめ定義された着席位置にいることが判定
された場合、ユーザがそれらのあらかじめ定義された着
席位置を最も良く捉えると定義したカメラを画像データ
を格納すべきカメラとして選択することができる。同様
に、話者である参加者があらかじめ定義された位置にあ
り且つある物体を見ている場合、ユーザがそのあらかじ
め定義された着席位置と物体を最も良く捉えると定義し
たカメラを画像データを格納すべきカメラとして選択す
ることができる。
(図13)において、直前のフレームについて画像デー
タが格納されたカメラをデフォルトカメラとして選択し
ていた。しかし、その代わりに、例えば、処理装置24
の初期設定中にユーザがデフォルトカメラを選択しても
良い。
(図17)において、その時点で実際には話者である参
加者ではないと識別されている話者に「なりうる」参加者
について、会議アーカイブデータベース60からテキス
トデータ204を削除していた。しかし、これに加え
て、関連する視線ヒストグラムデータ214をも削除し
て良い。更に、2台以上のカメラ2−1、2−2、2−
3からのMPEG2データ202を格納していた場合、その
話者に「なりうる」参加者に関連するMPEG2データも削除
して良い。
唯一の話者として識別できない場合、話者に「なりうる」
参加者を定義し、話者になりうる参加者のデータを処理
して、会議アーカイブデータベース60に格納し、その
後、会議アーカイブデータベース60に格納されたデー
タを修正していた(図8のステップS102)。しか
し、話者に「なりうる」参加者のデータを処理し、格納す
るのではなく、カメラ2−1、2−2及び2−3から受
信した映像データと、マイクロホンアレイ4から受信し
た音声データとを格納しておき、後に、後続フレームに
関連するデータから話者である参加者が識別された時点
でデータを処理し、アーカイブしても良い。あるいは、
ステップS114(図12)の処理を実行した結果、音
声が来ている方向に2人以上の参加者がいると指示され
た場合に、カメラ2−1、2−2及び2−3からの画像
データを処理して、参加者の唇の動きを検出し、音声が
来る方向にいて、唇が動いている参加者を話者である参
加者として選択しても良い。
と、各人物の頭部の向きと、人物ごとの、その人物が誰
を又は何を見ているかを定義する視線パラメータとを判
定するための処理を実行していた。その後、人物ごとの
視線パラメータ値を画像データのフレームごとに会議ア
ーカイブデータベース60に格納する。しかし、全ての
人物について視線パラメータを判定する必要はない。例
えば、話者である参加者に限って視線パラメータを判定
し、画像データのフレームごとにこの視線パラメータ値
のみを会議アーカイブデータベース60に格納すること
が可能である。従って、この場合には、話者である参加
者の頭部の向きを判定することだけが必要になるであろ
う。このようにすれば、処理及び格納に課される負担を
軽減することができる。
(図18)において、テキストの特定の部分について視
線ヒストグラムを考慮し、視線ヒストグラムにおいて別
の参加者又は物体を見ている時間が占める割合が所定の
閾値以上である場合に、参加者はその別の参加者又は物
体に対して話していたと判定していた。しかし、閾値を
使用する代わりに、テキスト(発言)の期間中に話者で
ある参加者が見ていた参加者又は物体を視線ヒストグラ
ムの中で最も大きな割合の注目値を有する参加者又は物
体(例えば、図16Aでは参加者3、図16Bでは参加者
1)であると定義しても良い。
2、2−3及びマイクロホンアレイ4からデータが受信
されている間、リアルタイムでMPEG2データ202と、
テキストデータ204と、視線パラメータ212と、視
線ヒストグラム214を会議アーカイブデータベース6
0に格納していた。しかし、その代わりに、映像データ
と音声データを格納し、リアルタイムではなくデータ2
02、204、212及び214を生成して、会議アー
カイブデータベース60に格納しても良い。
分に関わるデータを検索するために会議アーカイブデー
タベース60が問い合わされる前に、MPEG2データ20
2、テキストデータ204、視線パラメータ212及び
視線ヒストグラム214を生成し、会議アーカイブデー
タベース60に格納していた。しかし、ユーザの要求の
前に視線ヒストグラムデータ214を生成、格納してお
くのではなく、ユーザにより要求される会議アーカイブ
データベース60の探索に応答して、既に会議アーカイ
ブデータベース60に格納されているデータを処理する
ことにより、視線ヒストグラムデータ214の一部又は
全てを生成しても良い。例えば、上記の実施形態では視
線ヒストグラム214はステップS98及びS100
(図8)でリアルタイムで計算、格納されていたが、ユ
ーザにより入力される探索要求に応答してそれらのヒス
トグラムを計算することも可能であろう。
4を会議アーカイブデータベース60に格納していた。
テキストデータ204の代わりに、音声データを会議ア
ーカイブデータベース60に格納しても良い。その後、
格納されている音声データを音声認識処理を利用してキ
ーワードを求めて探索しても良いし、あるいは音声認識
処理を使用して音声データをテキストに変換し、従来の
テキストサーチャを使用してテキストサーチを実行して
も良い。
カイブすべきデータを受信し、生成するための機能構成
要素(例えば、中央制御装置36、頭部追跡装置50、
頭部モデル記憶装置52、方向プロセッサ53、音声認
識プロセッサ54、音声認識パラメータ記憶装置56及
びアーカイブプロセッサ58)と、アーカイブデータを
格納するための機能構成要素(例えば、会議アーカイブ
データベース60)と、データベースを探索し、そこか
ら情報を検索するための機能構成要素(例えば、中央制
御装置36及びテキストサーチャ62)とを含む。しか
し、これらの機能構成要素を別個の装置に設けても良
い。例えば、アーカイブすべきデータを生成するための
1つ又は複数の装置と、データベース探索のための1つ
又は複数の装置をインターネットなどのネットワークを
介して1つ又は複数のデータベースに接続しても良い。
所又は2箇所以上で行われている会議500、510、
520からの映像データと音声データをデータ処理・デ
ータベース格納装置530(アーカイブデータを生成、
格納するための機能構成要素を具備する)に入力し、1
つ又は複数のデータベース問い合わせ装置540、55
0をデータ処理・データベース格納装置530に接続し
て、データベースを問い合わせ、そこから情報を検索す
るようにしても良い。
により定義される処理ルーチンを使用してコンピュータ
により処理を実行していた。しかし、処理の一部又は全
てをハードウェアを使用して実行することも可能であろ
う。
上記の実施形態を説明したが、本発明はこの用途には限
定されず、フィルムセットなどの画像データ及び音声デ
ータを処理するなどの他の用途にも適用できる。
でもなく可能であり、本発明の趣旨から逸脱せずに他に
も変更や変形を実施することは可能である。
タ及び映像データの記録を示す図である。
構成要素の一例を示すブロック線図である。
の処理装置24により実行される処理動作を示す図であ
る。
の処理装置24により実行される処理動作を示す図であ
る。
の処理装置24により実行される処理動作を示す図であ
る。
ーカイブデータベース60に格納されるデータを概略的
に示す図である。
0で実行される処理動作を示す図である。
2−nの各々で実行される処理動作を示す図である。
装置24により実行される処理動作を示す図である。
を示す図である。
を示す図である。
を示す図である。
を示す図である。
4で実行される処理において使用される参加者の視線を
示す図である。
計算される角度を示す図である。
を示す図である。
を示す図である。
動作を示す図である。
格納を概略的に示す図である。
れているデータにより定義される視線ヒストグラムの例
を示す図である。
れているデータにより定義される視線ヒストグラムの例
を示す図である。
作を示す図である。
検索するために処理装置24により実行される処理動作
を示す図である。
表示される情報を示す図である。
表示される情報の一例を示す図である。
を格納し、1つ又は複数の遠隔装置からそのデータベー
スを問い合わせる実施形態を概略的に示す図である。
Claims (43)
- 【請求項1】 複数のカメラにより記録され且つ複数の
人物の動きを示す画像データを受信する手段と、 どの人物が現在話しているかを判定する話者識別手段
と、 話者の視線の先にいる人物を判定する手段と、 話者の位置と、話者の視線の先にいる人物の位置とを判
定する手段と、 判定された話者及び話者の視線の先にいる人物の位置に
基づいて、受信した画像データから画像データを選択す
るカメラ選択手段とを具備することを特徴とする画像処
理装置。 - 【請求項2】 カメラ選択手段は、話者と話者の視線の
先にいる人物の双方が現れている画像データを選択する
ように構成されていることを特徴とする請求項1記載の
装置。 - 【請求項3】 カメラ選択手段は、少なくともカメラの
一部が話者及び話者の視線の先にいる人物を捉えている
複数の視野の画質を表す画質値を生成し、且つどのカメ
ラが最高の画質を表す画質値を有しているかに基づいて
画像データを選択するように構成されていることを特徴
とする請求項2記載の装置。 - 【請求項4】 カメラ選択手段は、どのカメラが話者及
び話者の視線の先にいる人物を捉える視野を有している
かを判定し、且つ話者及び話者の視線の先にいる人物を
捉える視野を有しているカメラごとに画質値をそれぞれ
生成するように構成されていることを特徴とする請求項
3記載の装置。 - 【請求項5】 カメラ選択手段は、話者の頭部の位置及
び向きと、話者の視線の先にいる人物の頭部の位置及び
向きとに従って各画質値を生成するように構成されてい
ることを特徴とする請求項3又は4記載の装置。 - 【請求項6】 カメラ選択手段は、 それぞれの対の位置ごとに画像データを選択すべきカメ
ラを定義するデータを格納するデータ格納手段と、 データ格納手段に格納されたデータを使用して、話者及
び話者の視線の先にいる人物の位置に従って画像データ
を選択する手段とを具備することを特徴とする請求項1
又は2記載の装置。 - 【請求項7】 話者の視線の先にいる人物を判定する手
段と、話者及び話者の視線の先にいる人物の位置を判定
する手段とは、話者の視線の先にいる人物及び位置を判
定するために少なくとも一台のカメラからの画像データ
を処理する画像処理手段を具備することを特徴とする請
求項1乃至6のいずれか1項に記載の装置。 - 【請求項8】 画像処理手段は、少なくとも一台のカメ
ラからの画像データを処理することにより、各人物及び
各人物の視線の先にいる人物の位置を判定するように構
成されていることを特徴とする請求項7記載の装置。 - 【請求項9】 画像処理装置は、各人物の頭部の位置及
び向きを三次元で追跡するように構成されていることを
特徴とする請求項7又は8記載の装置。 - 【請求項10】 話者識別手段は、それぞれが対応する
1人の人物に割り当てられている複数のマイクロホンか
らの音声データを受信し、且つ音声データが受信された
マイクロホンに基づいてどの人物が話しているかを判定
するように構成されていることを特徴とする請求項1乃
至9のいずれか1項に記載の装置。 - 【請求項11】 人物が話した言葉を定義する音声デー
タを処理して、話者識別手段により実行された処理の結
果に従って音声データからテキストデータを生成する音
声処理手段を更に具備することを特徴とする請求項1乃
至10のいずれか1項に記載の装置。 - 【請求項12】 音声処理手段は、人物ごとの音声認識
パラメータを格納する格納手段と、話者識別手段により
現在話していると判定された人物に従って音声データを
処理するために使用すべき音声認識パラメータを選択す
る手段とを含むことを特徴とする請求項11記載の装
置。 - 【請求項13】 受信した画像データ、音声データ及び
音声処理手段により生成されたテキストデータの少なく
とも一部と、少なくとも現在話している人物の視線の先
にいる人物を定義する視線データとを格納するデータベ
ースを更に具備し、データベースは、対応するテキスト
データと視線データとが互いに関連すると共に、対応す
る画像データ及び音声データとも関連するようにデータ
を格納すべく構成されていることを特徴とする請求項1
1又は12記載の装置。 - 【請求項14】 データベースに格納するために画像デ
ータ及び音声データを圧縮する手段を更に具備すること
を特徴とする請求項11記載の装置。 - 【請求項15】 画像データ及び音声データを圧縮する
手段は、画像データ及び音声データをMPEGデータとして
符号化する手段を具備することを特徴とする請求項14
記載の装置。 - 【請求項16】 所定の期間にわたり、その所定の期間
中に所定の人物が他の人物をそれぞれ見るのに費やした
時間の割合を定義するデータを生成する手段を更に具備
し、データベースは、データが対応する画像データ、音
声データ、テキストデータ及び視線データと関連するよ
うにデータを格納するように構成されていることを特徴
とする請求項13乃至15のいずれか1項に記載の装
置。 - 【請求項17】 所定の期間は、所定の人物が話をして
いた期間であることを特徴とする請求項16記載の装
置。 - 【請求項18】 複数のカメラにより記録され且つ複数
の人物の動きを示す画像データを受信する手段と、 どの人物が現在話しているかを判定する話者識別手段
と、 話者の視線の先にある物体を判定する手段と、 話者の位置及び話者の視線の先にある物体の位置を判定
する手段と、 判定された話者及び話者の視線の先にある物体の位置に
基づいて、受信した画像データから画像データを選択す
るカメラ選択手段とを具備することを特徴とする画像処
理装置。 - 【請求項19】 複数のカメラにより記録された、複数
の人物の動きを示す画像データを処理して、格納するた
めの画像データを選択する方法であって、 どの人物が現在話しているかを判定する話者識別ステッ
プと、 話者の視線の先にいる人物を判定するステップと、 話者の位置と、話者の視線の先にいる人物の位置とを判
定するステップと、 判定された話者及び話者の視線の先にいる人物の位置に
基づいて、画像データを選択するカメラ選択ステップと
を備えることを特徴とする方法。 - 【請求項20】 カメラ選択過程では、話者と話者の視
線の先にいる人物の双方が現れている画像データを選択
することを特徴とする請求項19記載の方法。 - 【請求項21】 カメラ選択過程では、少なくともカメ
ラの一部が話者及び話者の視線の先にいる人物を捉えて
いる複数の視野の画質を表す画質値を生成し、且つどの
カメラが最高の画質を表す画質値を有しているかに基づ
いて画像データを選択することを特徴とする請求項20
記載の方法。 - 【請求項22】 カメラ選択ステップでは、どのカメラ
が話者及び話者の視線の先にいる人物を捉える視野を有
しているかを判定し、且つ話者及び話者の視線の先にい
る人物を捉える視野を有しているカメラごとに画質値を
それぞれ生成するように処理を実行することを特徴とす
る請求項21記載の方法。 - 【請求項23】 カメラ選択ステップでは、話者の頭部
の位置及び向きと、話者の視線の先にいる人物の頭部の
位置及び向きとに従って各画質値を生成することを特徴
とする請求項21又は22記載の方法。 - 【請求項24】 カメラ選択ステップでは、それぞれの
対の位置ごとに画像データを選択すべきカメラを定義す
る事前格納済みデータを使用して、話者及び話者の視線
の先にいる人物の位置に従って画像データを選択するこ
とを特徴とする請求項19又は20記載の方法。 - 【請求項25】 話者の視線の先にいる人物を判定する
ステップ及び話者及び話者の視線の先にいる人物の位置
を判定するステップでは、話者の視線の先にいる人物及
び位置を判定するために少なくとも一台のカメラからの
画像データを処理することを特徴とする請求項19から
24のいずれか1項に記載の方法。 - 【請求項26】 前記少なくとも一台のカメラからの画
像データを処理して、各人物及び各人物の視線の先にい
る人物の位置を判定することを特徴とする請求項25記
載の方法。 - 【請求項27】 各人物の頭部の位置及び向きを三次元
で追跡するように画像データを処理することを特徴とす
る請求項25又は26記載の方法。 - 【請求項28】 それぞれが対応する1人の人物に割り
当てられている複数のマイクロホンからの音声データを
受信し、且つ話者識別過程では、音声データが受信され
たマイクロホンに基づいてどの人物が話しているかを判
定することを特徴とする請求項19乃至26のいずれか
1項に記載の方法。 - 【請求項29】 人物が話した言葉を定義する音声デー
タを処理して、話者識別過程により実行された処理の結
果に従って音声データからテキストデータを生成する音
声処理ステップを更に含むことを特徴とする請求項19
乃至28のいずれか1項に記載の方法。 - 【請求項30】 音声処理ステップは、人物ごとに格納
されている音声認識パラメータの中から、話者識別過程
により現在話していると判定された人物に従って音声デ
ータを処理するために使用すべき音声認識パラメータを
選択することを特徴とする請求項29記載の方法。 - 【請求項31】 受信した画像データ、音声データ及び
音声処理過程で生成されたテキストデータの少なくとも
一部と、少なくとも現在話している人物の視線の先にい
る人物を定義する視線データとをデータベースに格納す
るステップを更に含み、データは、対応するテキストデ
ータと視線データとが互いに関連すると共に、対応する
画像データ及び音声データとも関連するようにデータベ
ースに格納されることを特徴とする請求項29又は30
記載の方法。 - 【請求項32】 画像データ及び音声データは 圧縮さ
れた形態でデータベースに格納されることを特徴とする
請求項31記載の方法。 - 【請求項33】 画像データ及び音声データはMPEGデー
タとして格納されることを特徴とする請求項32記載の
方法。 - 【請求項34】 所定の期間にわたり、その所定の期間
中に所定の人物が他の人物をそれぞれ見るのに費やした
時間の割合を定義するデータを生成するステップと、デ
ータが対応する画像データ、音声データ、テキストデー
タ及び視線データと関連するようにデータをデータベー
スに格納するステップとを更に含むことを特徴とする請
求項31乃至33のいずれか1項に記載の方法。 - 【請求項35】 所定の期間は、所定の人物が話をして
いた期間であることを特徴とする請求項34記載の方
法。 - 【請求項36】 カメラ選択ステップで選択された画像
データを定義する情報を搬送する信号を発生するステッ
プを更に含むことを特徴とする請求項19乃至35のい
ずれか1項に記載の方法。 - 【請求項37】 データベースを格納されているデータ
と共に搬送する信号を発生するステップを更に含むこと
を特徴とする請求項31乃至35のいずれか1項に記載
の方法。 - 【請求項38】 信号を直接に又は間接的に記録して、
その記録を生成するステップを更に含むことを特徴とす
る請求項37記載の方法。 - 【請求項39】 複数のカメラにより記録された、複数
の人物の動きを示す画像データを処理して、格納するた
めに画像データを選択する方法であって、 どの人物が現在話しているかを判定する話者識別ステッ
プと、 話者の視線の先にある物体を判定するステップと、 話者の位置及び話者の視線の先にある物体の位置を判定
するステップと、 判定された話者及び話者の視線の先にある物体の位置に
基づいて、画像データを選択するカメラ選択ステップと
を備えることを特徴とする方法。 - 【請求項40】 プログラム可能処理装置を請求項1乃
至18の少なくとも1項に記載の装置として構成させる
ための命令を格納することを特徴とする記憶装置。 - 【請求項41】 プログラム可能処理装置を請求項19
乃至39の少なくとも1項に記載の方法を実行可能な状
態にさせるための命令を格納することを特徴とする記憶
装置。 - 【請求項42】 プログラム可能処理装置を請求項1乃
至18の少なくとも1項に記載の装置として構成させる
ための命令を搬送する信号。 - 【請求項43】 プログラム可能処理装置を請求項19
乃至39の少なくとも1項に記載の方法を実行可能な状
態にさせるための命令を搬送する信号。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| GB9908545.8 | 1999-04-14 | ||
| GBGB9908545.8A GB9908545D0 (en) | 1999-04-14 | 1999-04-14 | Image processing apparatus |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2000350192A true JP2000350192A (ja) | 2000-12-15 |
| JP2000350192A5 JP2000350192A5 (ja) | 2007-05-17 |
| JP4697907B2 JP4697907B2 (ja) | 2011-06-08 |
Family
ID=10851529
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000086806A Expired - Fee Related JP4697907B2 (ja) | 1999-04-14 | 2000-03-27 | 画像処理装置及び方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US7113201B1 (ja) |
| EP (1) | EP1045586B1 (ja) |
| JP (1) | JP4697907B2 (ja) |
| DE (1) | DE60030027D1 (ja) |
| GB (1) | GB9908545D0 (ja) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005124143A (ja) * | 2003-07-24 | 2005-05-12 | Hewlett-Packard Development Co Lp | 複数のカメラ出力の編集装置及びその編集方法 |
| US7227566B2 (en) | 2003-09-05 | 2007-06-05 | Sony Corporation | Communication apparatus and TV conference apparatus |
| JP2013519135A (ja) * | 2010-01-25 | 2013-05-23 | マイクロソフト コーポレーション | 音声−体識別の相関 |
| JP2016092601A (ja) * | 2014-11-05 | 2016-05-23 | 日本電信電話株式会社 | 推定装置、推定方法、およびプログラム |
| JP2019121105A (ja) * | 2017-12-28 | 2019-07-22 | 富士ゼロックス株式会社 | 制御装置、及び制御プログラム |
| JP2021108411A (ja) * | 2019-12-27 | 2021-07-29 | Necプラットフォームズ株式会社 | 映像処理装置及び映像処理方法 |
| JP2023526209A (ja) * | 2020-05-17 | 2023-06-21 | ベミフェガ,エスエル | 発表者の発表内容を視聴覚的に追跡するシステムと装置と方法 |
Families Citing this family (48)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7006236B2 (en) | 2002-05-22 | 2006-02-28 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
| US7050177B2 (en) | 2002-05-22 | 2006-05-23 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
| US6690618B2 (en) | 2001-04-03 | 2004-02-10 | Canesta, Inc. | Method and apparatus for approximating a source position of a sound-causing event for determining an input used in operating an electronic device |
| JP3992909B2 (ja) * | 2000-07-03 | 2007-10-17 | 富士フイルム株式会社 | 本人画像提供システム |
| GB0030918D0 (en) * | 2000-12-19 | 2001-01-31 | Hewlett Packard Co | Activation of voice-controlled apparatus |
| AU2002240415A1 (en) | 2001-02-16 | 2002-09-04 | Canesta Inc. | Technique for removing blurring from a captured image |
| US7173230B2 (en) | 2001-09-05 | 2007-02-06 | Canesta, Inc. | Electromagnetic wave detection arrangement with capacitive feedback |
| US10242255B2 (en) | 2002-02-15 | 2019-03-26 | Microsoft Technology Licensing, Llc | Gesture recognition system using depth perceptive sensors |
| AU2003217587A1 (en) | 2002-02-15 | 2003-09-09 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
| US7379978B2 (en) * | 2002-07-19 | 2008-05-27 | Fiserv Incorporated | Electronic item management and archival system and method of operating the same |
| US7526120B2 (en) | 2002-09-11 | 2009-04-28 | Canesta, Inc. | System and method for providing intelligent airbag deployment |
| US7428000B2 (en) * | 2003-06-26 | 2008-09-23 | Microsoft Corp. | System and method for distributed meetings |
| JP2005122128A (ja) * | 2003-09-25 | 2005-05-12 | Fuji Photo Film Co Ltd | 音声認識システム及びプログラム |
| US20050228673A1 (en) * | 2004-03-30 | 2005-10-13 | Nefian Ara V | Techniques for separating and evaluating audio and video source data |
| JP2006197115A (ja) * | 2005-01-12 | 2006-07-27 | Fuji Photo Film Co Ltd | 撮像装置及び画像出力装置 |
| US8009871B2 (en) | 2005-02-08 | 2011-08-30 | Microsoft Corporation | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
| US8094193B2 (en) * | 2005-10-12 | 2012-01-10 | New Vad, Llc | Presentation video control system |
| US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
| DE602006007322D1 (de) * | 2006-04-25 | 2009-07-30 | Harman Becker Automotive Sys | Fahrzeugkommunikationssystem |
| US10410676B2 (en) | 2006-11-27 | 2019-09-10 | Kbport Llc | Portable tablet computer based multiple sensor mount having sensor input integration with real time user controlled commenting and flagging and method of using same |
| WO2008067295A2 (en) * | 2006-11-27 | 2008-06-05 | Kb Port, Llc | Method and apparatus for integrated recording and playback of video audio data inputs |
| US8074581B2 (en) | 2007-10-12 | 2011-12-13 | Steelcase Inc. | Conference table assembly |
| US8537196B2 (en) | 2008-10-06 | 2013-09-17 | Microsoft Corporation | Multi-device capture and spatial browsing of conferences |
| US10631632B2 (en) | 2008-10-13 | 2020-04-28 | Steelcase Inc. | Egalitarian control apparatus and method for sharing information in a collaborative workspace |
| US20140361954A1 (en) | 2013-06-07 | 2014-12-11 | Lewis Epstein | Personal control apparatus and method for sharing information in a collaboration workspace |
| WO2010071928A1 (en) * | 2008-12-22 | 2010-07-01 | Seeing Machines Limited | Automatic calibration of a gaze direction algorithm from user behaviour |
| CN101442654B (zh) * | 2008-12-26 | 2012-05-23 | 华为终端有限公司 | 视频通信中视频对象切换的方法、装置及系统 |
| US10884607B1 (en) | 2009-05-29 | 2021-01-05 | Steelcase Inc. | Personal control apparatus and method for sharing information in a collaborative workspace |
| US8676581B2 (en) * | 2010-01-22 | 2014-03-18 | Microsoft Corporation | Speech recognition analysis via identification information |
| DE102010035834A1 (de) * | 2010-08-30 | 2012-03-01 | Vodafone Holding Gmbh | Bilderfassungssystem und Verfahren zum Erfassen eines Objekts |
| US8630854B2 (en) * | 2010-08-31 | 2014-01-14 | Fujitsu Limited | System and method for generating videoconference transcriptions |
| US8791977B2 (en) | 2010-10-05 | 2014-07-29 | Fujitsu Limited | Method and system for presenting metadata during a videoconference |
| US8705812B2 (en) * | 2011-06-10 | 2014-04-22 | Amazon Technologies, Inc. | Enhanced face recognition in video |
| DE102012105784A1 (de) * | 2012-06-29 | 2014-01-02 | Vahit Tas | Videokonferenzsystem und Videokonferenzverfahren |
| US20150332034A1 (en) * | 2012-12-21 | 2015-11-19 | Nokia Corporation | Spatial Audio Apparatus |
| US9661041B2 (en) * | 2013-06-28 | 2017-05-23 | Linkedin Corporation | Virtual conference manager |
| US9113036B2 (en) | 2013-07-17 | 2015-08-18 | Ebay Inc. | Methods, systems, and apparatus for providing video communications |
| JP2015152316A (ja) * | 2014-02-10 | 2015-08-24 | 株式会社小野測器 | 音源可視化装置 |
| JP6528574B2 (ja) | 2015-07-14 | 2019-06-12 | 株式会社リコー | 情報処理装置、情報処理方法、および情報処理プログラム |
| JP2017028375A (ja) | 2015-07-16 | 2017-02-02 | 株式会社リコー | 映像処理装置、及びプログラム |
| JP2017028633A (ja) | 2015-07-27 | 2017-02-02 | 株式会社リコー | 映像配信端末、プログラム、及び、映像配信方法 |
| US9621795B1 (en) | 2016-01-08 | 2017-04-11 | Microsoft Technology Licensing, Llc | Active speaker location detection |
| US10264213B1 (en) | 2016-12-15 | 2019-04-16 | Steelcase Inc. | Content amplification system and method |
| US10951859B2 (en) | 2018-05-30 | 2021-03-16 | Microsoft Technology Licensing, Llc | Videoconferencing device and method |
| US11227602B2 (en) * | 2019-11-20 | 2022-01-18 | Facebook Technologies, Llc | Speech transcription using multiple data sources |
| KR102184649B1 (ko) * | 2019-12-05 | 2020-11-30 | (주)힐링사운드 | 치과 치료용 소리 제어 시스템 및 방법 |
| US11295543B2 (en) | 2020-03-31 | 2022-04-05 | International Business Machines Corporation | Object detection in an image |
| US11743428B2 (en) | 2022-01-19 | 2023-08-29 | Ebay Inc. | Detailed videoconference viewpoint generation |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0759075A (ja) * | 1993-08-19 | 1995-03-03 | Jamco Corp | 全方位監視装置 |
| JPH08163526A (ja) * | 1994-11-30 | 1996-06-21 | Canon Inc | 映像選択装置 |
| JPH10227849A (ja) * | 1997-02-14 | 1998-08-25 | Fuji Xerox Co Ltd | 音源位置計測装置、カメラ撮影制御装置、音源位置記録装置及び音源位置計測方法 |
Family Cites Families (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US3392392A (en) | 1967-06-05 | 1968-07-09 | Motorola Inc | Bearing measurement system using statistical signal processing by analog techniques |
| US3601530A (en) | 1969-04-29 | 1971-08-24 | Bell Telephone Labor Inc | Video conference system using voice-switched cameras |
| US4333170A (en) | 1977-11-21 | 1982-06-01 | Northrop Corporation | Acoustical detection and tracking system |
| DE3381357D1 (de) | 1982-12-22 | 1990-04-26 | Marconi Co Ltd | Akustische peilsysteme. |
| JPH0771279B2 (ja) | 1988-08-17 | 1995-07-31 | 富士通株式会社 | テレビ会議用画像処理装置 |
| US5231674A (en) | 1989-06-09 | 1993-07-27 | Lc Technologies, Inc. | Eye tracking method and apparatus |
| US5206721A (en) * | 1990-03-08 | 1993-04-27 | Fujitsu Limited | Television conference system |
| JPH04297196A (ja) * | 1991-03-26 | 1992-10-21 | Toshiba Corp | 被写体撮像装置 |
| JPH04301976A (ja) * | 1991-03-28 | 1992-10-26 | Kyocera Corp | テレビ会議システム |
| US5347306A (en) | 1993-12-17 | 1994-09-13 | Mitsubishi Electric Research Laboratories, Inc. | Animated electronic meeting place |
| JP3631266B2 (ja) | 1994-05-13 | 2005-03-23 | 株式会社応用計測研究所 | 移動物体の計測装置 |
| US5508734A (en) | 1994-07-27 | 1996-04-16 | International Business Machines Corporation | Method and apparatus for hemispheric imaging which emphasizes peripheral content |
| US5500671A (en) | 1994-10-25 | 1996-03-19 | At&T Corp. | Video conference system and method of providing parallax correction and a sense of presence |
| JP3272906B2 (ja) * | 1995-05-29 | 2002-04-08 | シャープ株式会社 | 視線方向検出方法及び装置及びそれを含むマンマシンインターフェース装置 |
| DE19528425C1 (de) | 1995-08-02 | 1996-05-15 | Siemens Ag | Anordnung und Verfahren zur automatischen Auswahl zweier Kamerasignale aus einer Vielzahl von Kamerasignale durch Bestimmung der Kopfposition eines Betrachters |
| JPH10145763A (ja) * | 1996-11-15 | 1998-05-29 | Mitsubishi Electric Corp | 会議システム |
| US5995936A (en) | 1997-02-04 | 1999-11-30 | Brais; Louis | Report generation system and method for capturing prose, audio, and video by voice command and automatically linking sound and image to formatted text locations |
| CA2233047C (en) * | 1998-02-02 | 2000-09-26 | Steve Mann | Wearable camera system with viewfinder means |
| US6593956B1 (en) | 1998-05-15 | 2003-07-15 | Polycom, Inc. | Locating an audio source |
| GB2342802B (en) | 1998-10-14 | 2003-04-16 | Picturetel Corp | Method and apparatus for indexing conference content |
-
1999
- 1999-04-14 GB GBGB9908545.8A patent/GB9908545D0/en not_active Ceased
-
2000
- 2000-03-22 US US09/533,398 patent/US7113201B1/en not_active Expired - Fee Related
- 2000-03-24 DE DE60030027T patent/DE60030027D1/de not_active Expired - Lifetime
- 2000-03-24 EP EP00302422A patent/EP1045586B1/en not_active Expired - Lifetime
- 2000-03-27 JP JP2000086806A patent/JP4697907B2/ja not_active Expired - Fee Related
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0759075A (ja) * | 1993-08-19 | 1995-03-03 | Jamco Corp | 全方位監視装置 |
| JPH08163526A (ja) * | 1994-11-30 | 1996-06-21 | Canon Inc | 映像選択装置 |
| JPH10227849A (ja) * | 1997-02-14 | 1998-08-25 | Fuji Xerox Co Ltd | 音源位置計測装置、カメラ撮影制御装置、音源位置記録装置及び音源位置計測方法 |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005124143A (ja) * | 2003-07-24 | 2005-05-12 | Hewlett-Packard Development Co Lp | 複数のカメラ出力の編集装置及びその編集方法 |
| US7227566B2 (en) | 2003-09-05 | 2007-06-05 | Sony Corporation | Communication apparatus and TV conference apparatus |
| JP2013519135A (ja) * | 2010-01-25 | 2013-05-23 | マイクロソフト コーポレーション | 音声−体識別の相関 |
| JP2016092601A (ja) * | 2014-11-05 | 2016-05-23 | 日本電信電話株式会社 | 推定装置、推定方法、およびプログラム |
| JP2019121105A (ja) * | 2017-12-28 | 2019-07-22 | 富士ゼロックス株式会社 | 制御装置、及び制御プログラム |
| JP2021108411A (ja) * | 2019-12-27 | 2021-07-29 | Necプラットフォームズ株式会社 | 映像処理装置及び映像処理方法 |
| JP2023526209A (ja) * | 2020-05-17 | 2023-06-21 | ベミフェガ,エスエル | 発表者の発表内容を視聴覚的に追跡するシステムと装置と方法 |
| JP7682510B2 (ja) | 2020-05-17 | 2025-05-26 | ベミフェガ,エスエル | 発表者の発表内容を視聴覚的に追跡するシステムと装置と方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| US7113201B1 (en) | 2006-09-26 |
| EP1045586B1 (en) | 2006-08-16 |
| EP1045586A2 (en) | 2000-10-18 |
| JP4697907B2 (ja) | 2011-06-08 |
| DE60030027D1 (de) | 2006-09-28 |
| GB9908545D0 (en) | 1999-06-09 |
| EP1045586A3 (en) | 2002-08-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2000350192A (ja) | 画像処理装置 | |
| JP4474013B2 (ja) | 情報処理装置 | |
| US7139767B1 (en) | Image processing apparatus and database | |
| JP2022036998A (ja) | 映像音響処理装置および方法、並びにプログラム | |
| US9628908B2 (en) | Sound collection method and electronic device | |
| US9949056B2 (en) | Method and apparatus for presenting to a user of a wearable apparatus additional information related to an audio scene | |
| JP2000125274A (ja) | 会議内容に索引付けを行うための方法と装置 | |
| JP4439763B2 (ja) | 画像録画再生システムおよび画像録画再生方法 | |
| JP2004515982A (ja) | テレビ会議及び他の適用においてイベントを予測する方法及び装置 | |
| KR102566072B1 (ko) | 인물 위치 완속 조정형 화상회의 방법 | |
| US11477393B2 (en) | Detecting and tracking a subject of interest in a teleconference | |
| JP2009510877A (ja) | 顔検出を利用したストリーミングビデオにおける顔アノテーション | |
| CN114513622A (zh) | 说话人检测方法、设备、存储介质及程序产品 | |
| JP4638183B2 (ja) | 複数のカメラ出力の編集装置及びその編集方法 | |
| JP4414708B2 (ja) | 動画表示用パーソナルコンピュータ、データ表示システム、動画表示方法、動画表示プログラムおよび記録媒体 | |
| JP4451892B2 (ja) | 映像再生装置、映像再生方法、及び映像再生プログラム | |
| TWI588590B (zh) | 影像產生系統及影像產生方法 | |
| GB2351628A (en) | Image and sound processing apparatus | |
| JP2003111041A (ja) | 画像処理装置、画像処理システム、画像処理方法、記憶媒体、及びプログラム | |
| JP2004248125A (ja) | 映像切り替え装置、映像切り替え方法、この方法のプログラムおよびこのプログラムを記録した記録媒体 | |
| JP3954439B2 (ja) | 映像記録システム、プログラム及び記録媒体 | |
| TWI799048B (zh) | 環景影像會議系統及方法 | |
| CN117319594A (zh) | 会议人员追踪显示方法、装置、设备及可读存储介质 | |
| CN113099158A (zh) | 拍摄现场的拾音装置控制方法、装置、设备及存储介质 | |
| JP6860178B1 (ja) | 映像処理装置及び映像処理方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070327 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070327 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20070327 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080812 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100226 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100305 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100426 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110225 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110228 |
|
| LAPS | Cancellation because of no payment of annual fees |