JPH10301675A - マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法 - Google Patents

マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法

Info

Publication number
JPH10301675A
JPH10301675A JP30395397A JP30395397A JPH10301675A JP H10301675 A JPH10301675 A JP H10301675A JP 30395397 A JP30395397 A JP 30395397A JP 30395397 A JP30395397 A JP 30395397A JP H10301675 A JPH10301675 A JP H10301675A
Authority
JP
Japan
Prior art keywords
information
user
input
image
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP30395397A
Other languages
English (en)
Other versions
JP3886074B2 (ja
Inventor
Tetsuro Chino
哲朗 知野
Tomoo Ikeda
朋男 池田
Yasuyuki Kono
恭之 河野
Takehide Yano
武秀 屋野
Katsumi Tanaka
克己 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP30395397A priority Critical patent/JP3886074B2/ja
Priority to US09/030,213 priority patent/US6118888A/en
Publication of JPH10301675A publication Critical patent/JPH10301675A/ja
Priority to US09/593,296 priority patent/US6345111B1/en
Application granted granted Critical
Publication of JP3886074B2 publication Critical patent/JP3886074B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

(57)【要約】 【課題】人間同士の対話のように人間にとって自然なか
たちで対話を進めることができるようにしたインタフェ
ースを提供すること。 【解決手段】擬人化されたエージェント画像を供給する
擬人化イメージ提供手段103と、利用者の注視対象を検
出する検出手段101と、利用者の音声入力情報、操作入
力情報、画像入力情報のうち、少なくとも一つ以上の入
力情報を取得する他メディア入力手段102と、この他メ
ディア入力手段からの入力情報を受け、認識動作の状況
を制御するものであって検出手段101により得られる注
視対象情報を基に利用者の注視対象が擬人化イメージ提
示手段により提示されるエージェント画像のいずれの部
分かを認識して、その認識結果に応じ前記他メディア入
力認識手段からの入力の受付選択をする制御手段107と
を備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、自然言語情報、音
声情報、視覚情報、操作情報のうち少なくとも一つの入
力あるいは出力を通じて利用者と対話するマルチモーダ
ル対話装置に適用して最適なマルチモーダルインタフェ
ース装置およびマルチモーダルインタフェース方法に関
する。
【0002】
【従来の技術】近年、パーソナルコンピュータを含む計
算機システムにおいて、従来のキーボードやマウスなど
による入力と、ディスプレイなどによる文字や画像情報
の出力に加えて、音声情報や画像情報などマルチメディ
ア情報を入出力することが可能になって来ている。
【0003】このような状況下に加え、自然言語解析や
自然言語生成、あるいは音声認識や音声合成技術あるい
は対話処理技術の進歩などによって、利用者と音声入出
力を対話する音声対話システムへの要求が高まってお
り、自由発話による音声入力によって利用可能な対話シ
ステムである“TOSBURG−II”(電子通信学会
論文誌、Vol.J77−D−II、No.8,pp1
417−1428,1994)など、様々な音声対話シ
ステムの研究開発がなされ、発表されている。
【0004】また、さらに、このような音声入出力に加
え、例えばカメラを使用しての視覚情報入力を利用した
り、あるいは、タッチパネル、ぺン、タブレット、デー
タグローブやフットスイッチ、対人センサ、ヘッドマウ
ントディスプレイ、フォースディスプレイ(提力装置)
など、様々な入出力デバイスを通じて利用者と授受でき
る情報を利用して、利用者とインタラクションを行なう
マルチモーダル対話システムへの要求が高まっている。
【0005】すなわち、このような各種入出力デバイス
を用いたマルチモーダルインタフェースを駆使すること
で、様々な情報を授受でき、従って、利用者はシステム
と自然な対話が可能であることから、人間にとって自然
で使い易いヒューマンインタフェースを実現するための
一つの有力な方法となり得る故に、注目を集めている。
【0006】つまり、人間同士の対話においても、例え
ば音声など一つのメディア(チャネル)のみを用いてコ
ミュニケーションを行なっている訳ではなく、身振りや
手ぶりあるいは表情といった様々なメディアを通じて授
受される非言語メッセージを駆使して対話することによ
って、自然で円滑なインタラクションを行なっている
(“Intelligent Multimedia
Interfaces”,Maybury M.T,E
ds., The AAAI Press/The M
IT Press,1993参照)。
【0007】このことから考えても、自然で使い易いヒ
ューマンインタフェースを実現するためには、音声入出
力の他に、カメラを使用しての視覚情報入力、タッチパ
ネル、ぺン、タブレット、データグローブやフットスイ
ッチ、対人センサ、ヘッドマウントディスプレイ、フォ
ースディスプレイなど、様々な入出力のメディアを用い
た言語メッセージ、非言語メッセージによる対話の実現
と応用に期待が高まっている。
【0008】しかし、次の(i)(ii)のような現状が
ある。 [バックグラウンド(i)]従来、それぞれのメディア
からの入力の解析精度の低さの問題や、それぞれの入出
力メディアの性質が十分に明らかとなっていないことな
どのため、新たに利用可能となった各入出力メディアあ
るいは、複数の入出力メディアを効率的に利用し、高能
率で、効果的で、利用者の負担を軽減する、マルチモー
ダルインタフェースは実現されていない。
【0009】つまり、各メディアからの入力の解析精度
が不十分であるため、たとえば、音声入力における周囲
雑音などに起因する誤認識が発生したり、あるいはジェ
スチャ入力の認識処理において、入力デバイスから刻々
得られる信号の中から、利用者が入力メッセージとして
意図した信号部分の切り出しに失敗するといったことな
どによって、誤動作が起こり、それが結果的には利用者
への負担となる。
【0010】また、音声入力やジェスチャ入力など、利
用者が現在の操作対象である計算機などへの入力として
用いるだけでなく、例えば周囲の他の人間へ話しかけた
りする場合にも利用されるメディアを用いたインタフェ
ース装置では、利用者が、インタフェース装置ではな
く、たとえば自分の横にいる他人に対して話しかけた
り、ジェスチャを示したりした場合にも、インタフェー
ス装置が自己への入力であると判断して、認識処理など
を行ない、結果として誤動作を起す。そして、その誤動
作の取消や、誤動作の影響の復旧の処置を利用者は行わ
ねばならず、また、誤動作を避けるために利用者は絶え
ず注意を払わなくてはならないなど、利用者への負担が
大きい。
【0011】また、本来、判断が不要な場面において
も、入力信号の処理が継続的にして行なわれるため、そ
の処理負荷によって、利用している装置に関与する他の
サービスの実行速度や利用効率が低下するなどの問題を
抱える。
【0012】また、この問題を解決するために、音声や
ジェスチャなどの入力を行なう際に、たとえば、ボタン
を押したり、メニュー選択するなど、特別な操作によっ
てモードを変更する方法も採用されているが、このよう
な特別な操作は、人間同士の会話であった場合、存在し
ない操作であるため、不自然なインタフェースとなるば
かりでなく、利用者にとって繁雑であったり、操作の種
類によっては、習得のための訓練が必要となったりする
ことによって、利用者の負担をいたずらに増やすことと
なっている。
【0013】また、例えば、音声入力の可否をボタン操
作によって切替える場合などでは、音声メディアの持つ
利点を活かすことができない。すなわち、音声メディア
による入力は、本来、口だけを使ってコミュニケーショ
ンが出来るもので、例えば手で行なっている作業があっ
たとしてもそれを妨害することがなく、双方を同時に利
用することが可能であるが、音声入力の可否をボタン操
作で切り替えることが必要な仕組みにした場合、このよ
うな音声メディア本来の利点を活かすことが出来ない。
【0014】また、音声出力や、動画像情報や、複数画
面に亙る文字や画像情報など、提示する情報がすぐ消滅
しまうものであったり、刻々変化するものであったりす
る等、一過性のメディアも用いて利用者に情報提示する
必要があるケースも多いが、このような場合、利用者が
その情報に注意を払っていないと、提示された情報の一
部あるいは全部を利用者が受け取れない場合があると言
う問題があった。
【0015】また、従来は、一過性のメディアも用いて
利用者に情報提示する際、利用者が一度に受け取れる分
量毎の情報を提示し、利用者が何らかの特別な操作によ
る確認動作を行なうことによって、継続する次の情報を
提示する方法もあるが、この場合は、確認動作のため
に、利用者の負担が増えることになり、また、慣れない
と操作に戸惑い、システムの運用効率が悪くなるという
問題も残る。
【0016】また、従来のマルチモーダルインタフェー
スでは、利用技術の未発達から、人間同士のコミュニケ
ーションにおいては重要な役割を演じていると言われ
る、視線一致(アイコンタクト)、注視位置、身振り、
手振りなどのジェスチャ、顔表情などの非言語メッセー
ジを、効果的に利用することが出来ない。
【0017】[バックグラウンド(ii)]また、別の観
点として従来における現実のマルチモーダルインターフ
ェースを見てみると、音声入力、タッチセンサ入力、画
像入力、距離センサ入力といったものを扱うが、その処
理を考えてみる。
【0018】音声入力の場合、たとえば利用者から音声
入力がなされたとして、その場合には入力された音声波
形信号を例えばアナログ/デジタル変換し、単位時間当
たりのパワー計算を行うことなどによって、音声区間を
検出し、これを例えばFFT(高速フーリエ変換)など
の方法によって分析すると共に、例えば、HMM(隠れ
マルコフモデル)などの方法を用いて、予め用意した標
準パターンである音声認識辞書と照合処理を行うことな
どにより、発声内容を推定し、その結果に応じた処理を
行う。
【0019】また、タッチセンサなどの接触式の入力装
置を通じて、利用者からの指し示しジェスチャの入力が
なされた場合には、タッチセンサの出力情報である、座
標情報、あるいはその時系列情報、あるいは入力圧力情
報、あるいは入力時間間隔などを用いて、指し示し先を
同定する処理を行う。
【0020】また、画像を使用する場合には、単数ある
いは複数のカメラを用いて、例えば、利用者の手などを
撮影し、観察された形状、あるいは動作などを例えば、
“Uncalibrated Stereo Visi
on With Pointing for a Ma
n−Machine Interface(R.Cip
olla,et.al.,Proceedings o
f MVA’94,IAPR Workshop on
Machine Vision Applicati
on,pp.163−166,1994.)などに示さ
れた方法を用いて解析することによって、利用者の指し
示した、実世界中の指示対象、あるいは表示画面上の指
示対象などを入力することが出来るようにしている。
【0021】また、距離センサ、この場合、例えば、赤
外線などを用いた距離センサなどを用いるがこの距離セ
ンサにより、利用者の手の位置や形、あるいは動きなど
を画像の場合と同様の解析方法により、解析して認識す
ることで、利用者の指し示した、実世界中の指示対象、
あるいは表示画面上の指示対象などへの指し示しジェス
チャを入力することが出来るようにしている。
【0022】その他、入力手段としては利用者の手に、
例えば、磁気センサや加速度センサなどを装着すること
によって、手の空間的位置や、動き、あるいは形状を入
力したり、仮想現実(VR=Virtual Real
ity)技術のために開発された、データグローブやデ
ータスーツを利用者が装着することで、利用者の手や体
の、動き、位置、あるいは形状を解析することなどによ
って利用者の指し示した実世界中の指示対象、あるいは
表示画面上の指示対象などを入力するといったことが採
用可能である。
【0023】ところが、従来、指し示しジェスチャの入
力において、例えばタッチセンサを用いて実現されたイ
ンタフェース方法では、離れた位置からや、機器に接触
せずに、指し示しジェスチャを行うことが出来ないとい
う問題があった。さらに、例えばデータグローブや、磁
気センサや、加速度センサなどを利用者が装着すること
で実現されたインタフェース方法では、機器を装着しな
ければ利用できないという問題点があった。
【0024】また、カメラなどを用いて、利用者の手な
どの形状、位置、あるいは動きを検出することで実現さ
れているインタフェース方法では、十分な精度が得られ
ないために、利用者が入力を意図したジェスチャだけ
を、適切に抽出することが困難であり、結果として、利
用者かジェスチャとしての入力を意図していない手の動
きや、形やなどを、誤ってジェスチャ入力であると誤認
識したり、あるいは利用者が入力を意図したジェスチャ
を、ジェスチャ入力であると正しく抽出することが出来
ないといったことが生じる。
【0025】その結果、例えば、誤認識のために引き起
こされる誤動作の影響の訂正が必要になったり、あるい
は利用者が入力を意図して行ったジェスチャ入力が実際
にはシステムに正しく入力されず、利用者が再度入力を
行う必要が生じ、利用者の負担を増加させてしまうとい
う問題があった。
【0026】また、利用者が入力したジェスチャが、解
析が終了した時点で得られるために、利用者が入力意図
したジェスチャを開始した時点あるいは入力を行ってい
る途中の時点では、システムがそのジェスチャ入力を正
しく抽出しているかどうかが分からない。
【0027】そのため、例えばジェスチャの開始時点が
間違っていたり、あるいは利用者によってジェスチャ入
力が行われていることを正しく検知できなかったりする
などして、利用者が現在入力途中のジェスチャが、実際
にはシステムによって正しく抽出されておらず、結果と
して誤認識を引き起こしたり、あるいは利用者が再度入
力を行わなくてはならなくなるなどして、利用者にかか
る負担が大きくなる。
【0028】あるいは、利用者がジェスチャ入力を行っ
ていないのにシステムが誤ってジェスチャが開始されて
いるなどと誤認識することによって、誤動作が起こり、
その影響の訂正をしなければならなくなる。
【0029】また、例えばタッチセンサやタブレットな
どの接触式の入力装置を用いたジェスチャ認識方法で
は、利用者は接触式入力装置自身の一部分を指し示すこ
ととなるため、その接触式入力装置自身以外の実世界の
場所や、ものなどを参照するための、指し示しジェスチ
ャを入力することが出来ないという問題があり、一方、
例えばカメラや赤外センサーや加速度センサなどを用い
る接触式でない入力方法を用いる、指し示しジェスチャ
入力の認識方法では、実世界の物体や場所を指し示すこ
とは可能であるがシステムがその指し示し先として、ど
の場所、あるいはどの物体あるいはそのどの部分を受け
取ったかを適切に表示する方法がないという問題があっ
た。
【0030】
【発明が解決しようとする課題】以上、バックグラウン
ド(i)で説明したように、従来のマルチモーダルイン
タフェースは、それぞれの入出力メディアからの入力情
報についての解析精度の低さ、そして、それぞれの入出
力メディアの性質が十分に解明されていない等の点か
ら、新たに利用可能となった種々の入出力メディアある
いは、複数の入出力メディアを効果的に活用し、高能率
で、利用者の負担を軽減する、マルチモーダルインタフ
ェースは実現されていないと言う問題がある。
【0031】つまり、各メディアからの入力の解析精度
が不十分であるため、たとえば、音声入力における周囲
雑音などに起因する誤認識の発生や、あるいはジェスチ
ャ入力の認識処理において、入力デバイスから刻々得ら
れる信号の中から、利用者が入力メッセージとして意図
した信号部分の切り出しに失敗することなどによって、
誤動作が起こり、利用者へ負担が増加すると言う問題が
あつた。
【0032】また、音声やジェスチャなどのメディアは
マルチモーダルインタフェースとして重要なものである
が、このメディアは、利用者が現在の操作対象である計
算機などへの入力として用いるだけでなく、例えば、周
囲の人との対話にも利用される。
【0033】そのため、このようなメディアを用いたイ
ンタフェース装置では、利用者が、インタフェース装置
ではなく、たとえば自分の横にいる人に対して話しかけ
たり、ジェスチャを示したりした場合にも、インタフェ
ース装置が自己への入力であると誤判断をして、その情
報の認識処理などを行なってしまい、誤動作を引き起こ
すことにもなる。そのため、その誤動作の取消や、誤動
作の影響の復旧に利用者が対処しなければならなくな
り、また、そのような誤動作を招かないようにするため
に、利用者は絶えず注意を払わなくてはならなくなると
いった具合に、利用者の負担が増えるという問題があっ
た。
【0034】また、マルチモーダル装置において本来、
情報の認識処理が不要な場面においても、入力信号の監
視と処理は継続的に行なわれるため、その処理負荷によ
って、利用している装置に関与する他のサービスの実行
速度や利用効率が低下するという問題点があった。
【0035】また、この問題を解決するために、音声や
ジェスチャなどの入力を行なう際に、利用者にたとえ
ば、ボタンを押させるようにしたり、メニュー選択させ
るなど、特別な操作によってモードを変更するなどの手
法を用いることがあるが、このような特別な操作は、人
間同士の対話では本来ないものであるから、このような
操作を要求するインタフェースは、利用者にとって不自
然なインタフェースとなるだけでなく、繁雑で煩わしさ
を感じたり、操作の種類によっては、習得のための訓練
が必要となったりすることによって、利用者の負担増加
を招くという問題があった。
【0036】また、音声メディアによる入力は、本来、
口だけを使ってコミュニケーションが出来るため、例え
ば手で行なっている作業を妨害することがなく、双方を
同時に利用することが可能であると言う利点があるが、
例えば、音声入力の可否をボタン操作によって切替える
といった構成とした場合などでは、このような音声メデ
ィアが本来持つ利点を損なってしまうという問題点があ
った。
【0037】また、例えば、音声出力や、動画像情報
や、複数画面に亙る文字や画像情報などでは、提示情報
が提示されるとすぐ消滅したり、刻々変化したりする一
過性のものとなることも多いが、このような一過性メデ
ィアも用いて利用者に情報提示する際、利用者がその情
報に注意を払っていないと提示された情報の一部あるい
は全部を利用者が受け取れない場合があると言う問題が
あった。
【0038】また、従来は、一過性のメディアも用いて
利用者に情報提示する際、利用者が一度に受け取れる分
量毎の情報を提示し、利用者が何らかの特別な操作によ
る確認動作を行なうことによって、継続する次の情報を
提示する手法を用いることがあるが、このような方法で
は、確認動作のために、利用者の負担が増加し、また、
システムの運用効率を悪くするという問題があった。
【0039】また、従来のマルチモーダルインタフェー
スでは、応用技術の未熟から人間同士のコミュニケーシ
ョンにおいて重要な役割を演じていると言われる、視線
一致(アイコンタクト)、注視位置、身振り、手振りな
どのジェスチャ、そして、顔表情などの非言語メッセー
ジを、効果的に利用することが出来ないという問題があ
った。
【0040】また、バックグラウンド(ii)で説明した
ように、マルチモーダルインタフェース用の現実の入力
手段においては、指し示しジェスチャの入力の場合、接
触式の入力機器を使用するインタフェース方法では、離
れた位置からや、機器に接触せずに、指し示しジェスチ
ャを行うことが出来ず、また、装着式のインタフェース
方法では、機器を装着しなければ利用できないという問
題があった。
【0041】また、ジェスチャ認識を遠隔で行うインタ
フェース方法では、十分な精度が得られないために、利
用者がジェスチャとしての入力を意図していない手の動
きや、形やなどを、誤ってジェスチャ入力であると誤認
識してしまったり、あるいは利用者が入力を意図したジ
ェスチャを、ジェスチャ入力であると正しく抽出するこ
とが出来ない場合が多発するという問題があった。
【0042】また、利用者が入力意図したジェスチャを
開始した時点あるいは入力を行っている途中の時点で
は、システムが、そのジェスチャ入力を正しく抽出して
いるかどうかが分からないため、結果として誤認識を引
きおこしたり、あるいは、利用者が再度入力を行わなく
てはならなくなるなどして、利用者の負担が増加すると
いう問題があった。
【0043】また、接触式の入力装置を用いたジェスチ
ャ認識方法では、その接触式入力装置自身以外の実世界
の場所や、ものなどを参照するための、指し示しジェス
チャを入力することが出来ず、一方、非接触式の入力方
法を用いる、指し示しジェスチャ入力の認識方法では、
実世界の物体や場所を指し示すことは可能であるが、シ
ステムがその指し示し先として、どの場所、あるいはど
の物体あるいはそのどの部分を受け取ったかを適切に表
示する方法がないという問題があった。
【0044】さらに、以上示した問題によって誘発され
る従来方法の問題としては、例えば、誤動作による影響
の訂正が必要になったり、あるいは再度の入力が必要に
なったり、あるいは利用者が入力を行う際に、現在行っ
ている入力が正しくシステムに入力されているかどうか
が分からないため、不安になるなどして、利用者の負担
が増すという問題があった。
【0045】そこでこの発明の目的とするところは、バ
ックグラウンド(i)の課題を解決するために、第1に
は、複数種の入出力メディアを効率的、効果的に利用す
ることができ、利用者の負担を軽減できて人間同士のコ
ミュニケーションに近い状態で自然な対話ができるよう
にしたマルチモーダルインタフエースを提供することに
ある。
【0046】また、本発明の第2の目的は、各メディア
からの入力の解析精度が不十分であるための誤動作や、
あるいは周囲雑音による誤動作や、あるいは入力デバイ
スから刻々得られる信号の中から、利用者が入力メッセ
ージとして意図した信号部分の切り出しの失敗などに起
因する誤動作などによる利用者への負担を解消するマル
チモーダルインタフェースを提供するものである。
【0047】また、第3には、音声やジェスチャなどの
ように、利用者が現在の操作対象である計算機などへの
入力として用いるだけでなく、人間同士の対話に用いる
メディアを用いたインタフェース装置では、利用者が、
操作中のマルチモーダルシステムのインタフェース装置
にではなく、たとえば自分の横にいる他人に対して話し
かけたり、ジェスチャを示したりした場合にも、利用者
がマルチモーダルシステムのそばにいるがために、その
マルチモーダルシステムのインタフェース装置が自己へ
の入力であると判断してしまうことになり誤動作の原因
となるが、その場合でもこのような事態を解消でき、誤
動作に伴う取消操作や、誤動作の影響の復旧のための処
置や、誤動作を避けるために利用者が絶えず注意を払わ
なくてはならないといった負荷を含め、利用者への負担
を解消することができるマルチモーダルインタフェース
を提供することにある。
【0048】また、第4には、システムの処理動作状態
から、本来メディア入力の情報識別が不要な場面におい
ても、入力信号の処理が継続的に行なわれることによっ
てその割り込み処理のために、現在処理中の作業の遅延
を招くという悪影響をなくすべく、不要な場面でのメデ
ィア入力に対する処理負荷を解消できるようにすること
により、利用している装置に関与する他のサービスの実
行速度や利用効率の低下を抑制できるようにしたマルチ
モーダルインタフェースを提供することにある。
【0049】また、第5には、音声やジェスチャなどの
入力を行なう際に、たとえば、ボタンを押したり、メニ
ュー選択などによるモード変更などといった、特別な操
作を必要としない構成とすることにより、煩雑さを伴わ
ず、自然で、しかも、習得のための訓練などが不要、且
つ、利用者に負担をかけないマルチモーダルインタフェ
ースを提供することにある。
【0050】また、第6には、音声メディアを使用する
際には、例えば、音声入力の可否をボタン操作によって
切替えるといった余分な操作を完全に排除して、しか
も、必要な音声情報を取得することができるようにした
マルチモーダルインタフェースを提供することにある。
【0051】また、第7には、提示が一過性となるかた
ちでの情報を、見逃すことなく利用者が受け取れるよう
にしたマルチモーダルインタフェースを提供することに
ある。
【0052】また、第8には、一過性のメディアによる
情報提示の際に、利用者が一度に受け取れる量に小分け
して提示するようにした場合に、特別な操作など利用者
の負担を負わせることなく円滑に情報を提示できるよう
にしたインタフェースを提供することにある。
【0053】また、第9には、人間同士のコミュニケー
ションにおいては重要な役割を演じていると言われる
が、従来のマルチモーダルインタフェースでは、効果的
に利用することが出なかった、視線一致(アイコンタク
ト)、注視位置、身振り、手振りなどのジェスチャ、顔
表情など非言語メッセージを、効果的に活用できるイン
タフェースを提供することにある。
【0054】また、この発明の目的とするところは、バ
ックグラウンド(ii)の課題を解決するために、利用者
がシステムから離れた位置や、あるいは機器に接触せず
に、かつ、機器を装着せずに、遠隔で指し示しジェスチ
ャを行って指示を入力することが出来、かつ、ジェスチ
ャ認識方式の精度が十分に得られないために発生する誤
認識やジェスチャ抽出の失敗を無くすことができるよう
にしたマルチモーダルインタフェース装置およびマルチ
モーダルインタフェース方法を提供するものである。ま
た、利用者が入力意図したジェスチャを開始した時点あ
るいは入力を行っている途中の時点では、システムがそ
のジェスチャ入力を正しく抽出しているか否かが分から
ないため、結果として誤認識を引きおこしたり、あるい
は、利用者が再度入力を行わなくてはならなくなるなど
して発生する利用者の負担を抑制することが可能なマル
チモーダルインタフェース装置およびマルチモーダルイ
ンタフェース方法を提供するものである。
【0055】また、実世界の場所やものなどを参照する
ための利用者からの指し示しジェスチャ入力に対して、
その指し示し先として、どの場所、あるいはどの物体あ
るいはそのどの部分を受け取ったかを適切に表示するこ
とが可能なマルチモーダルインタフェース装置およびマ
ルチモーダルインタフェース方法を提供するものであ
る。
【0056】さらに、前述の問題によって誘発される従
来方法の問題である、誤動作による影響の訂正や、ある
いは再度の入力によって引き起こされる利用者の負担
や、利用者の入力の際の不安による利用者の負担を解消
することができるマルチモーダルインタフェース装置お
よびマルチモーダルインタフェース方式を提供すること
にある。
【0057】さらに、擬人化インタフェースを用いたイ
ンタフェース装置、およびインタフェース方法で、利用
者の視界、および擬人化エージェントから視界などを考
慮した、適切なエージェントの表情を生成し、フィード
バックとして提示することが出来るマルチモーダルイン
タフェース装置およびマルチモーダルインタフェース方
式を提供することにある。
【0058】
【課題を解決するための手段】上記目的を達成するた
め、本発明は次のように構成する。バックグラウンド
(i)に関する課題を解決するために、 [1] 第1には、利用者の注視対象を検出する検出手
段と、利用者の音声入力情報、操作入力情報、画像入力
情報のうち、少なくとも一つ以上の入力情報を受け、認
識動作の状況を制御する制御手段とを備えたことを特徴
とする。
【0059】本発明にかかるマルチモーダルインタフェ
ースは、利用者を観察するカメラや利用者が装着したカ
メラなどから入力される視覚情報を用いた視線検出処理
や、利用者の視線の動きを検出するアイトラッカや、利
用者の頭部の動きを検出するヘッドトラッカや、着席セ
ンサ、対人センサなどによって、利用者が、現在見てい
るか、あるいは向いている、場所、領域、方向、物、あ
るいはその部分を検出して、注視対象情報としてを出力
する検出手段と、音声入力や、ジェスチャ入力や、キー
ボード入力や、ポインティングデバイスを用いた入力
や、カメラからの視覚入力情報や、マイクからの音声入
力情報や、キーボード、タッチパネル、ぺン、マウスな
どポインティングデバイス、データグローブなどからの
操作入力情報など、利用者の注視対象以外を表す利用者
からの入力情報を受けとり処理を行なう少なくとも一つ
の他メディア入力処理手段とを具備しており、制御手段
により、該注視対象情報に応じて、少なくとも一つの他
メディア入力処理手段の、入力受付可否、あるいは処理
あるいは認識動作の開始、終了、中断、再開、処理レベ
ルの調整などの動作状況を適宜制御するようにしたもの
である。
【0060】[2] 第2には、擬人化されたエージェ
ント画像を供給する擬人化イメージ提供手段と、利用者
の注視対象を検出する検出手段と、利用者の音声入力情
報、操作入力情報、画像入力情報のうち、少なくとも一
つ以上の入力情報を取得する他メディア入力手段と、こ
の他メディア入力手段からの入力情報を受け、認識動作
の状況を制御するものであって、前記検出手段により得
られる注視対象情報を基に、利用者の注視対象が擬人化
イメージ提示手段により提示されるエージェント画像の
いずれの部分かを認識して、その認識結果に応じ前記他
メディア入力認識手段からの入力の受付選択をする制御
手段とを備えたことを特徴とする。
【0061】この構成によれば、利用者に対して応対す
る擬人化されたエージェント画像具体的には、利用者と
対面してサービスを提供する人物、生物、機械、あるい
はロボットなどとして擬人化されたエージェント人物
の、静止画あるいは動画による画像情報を、利用者へ提
示する擬人化イメージ提示手段があり、検出手段によっ
て得られる注視対象情報に応じて、利用者の注視対象
が、擬人化イメージ提示手段で提示されるエージェント
人物の、全体、あるいは、顔、目、口、耳など一部を指
しているか否かに応じて、制御手段は他メディア入力認
識手段からの入力受付を選択するようにしたものであ
る。
【0062】[3] 第3には、文字情報、音声情報、
静止面像情報、動画像情報、力の提示など少なくとも一
つの信号の提示により、利用者に対してフィードバック
信号提示するフィードバック提示手段と、注視対象情報
を参照して、メディア入力認識手段からの入力の受付選
択をする際に、該フィードバック提示手段を通じて適宜
利用者へのフィードバック信号を提示すべく制御する制
御手段を更に具備したことを特徴とする。
【0063】この場合、利用者に対し、文字情報、音声
情報、静止画像情報、動画像情報、力の提示など少なく
とも一つの信号の提示によって、フィードバック信号を
提示するフィードバック提示手段があり、制御手段は、
注視対象情報を参照して、メディア入力認識手段からの
入力を受付可否を切替える際に、該フィードバック提示
手段を通じて利用者へのフィードバック信号を適宜提示
するよう制御することを特徴とするものである。
【0064】[4] 第4には、利用者と対面してサー
ビスを提供する擬人化されたエージェン卜人物の画像で
あって、該エージェント人物画像は利用者に、所要のジ
ェスチャ、表情変化を持つ画像による非言語メッセージ
として当該画像を提示する擬人化イメージ提示手段と、
注視対象情報を参照して、メディア入力認識手段からの
入力の受付選択する際に、擬人化イメージ提示手段を通
じて利用者への非言語メッセージによる信号を適宜提示
すべく制御する制御手段とを具備したことを特徴とす
る。
【0065】この場合、擬人化イメージ提示手段は、利
用者と対面してサービスを提供する人物、生物、機械、
あるいはロボットなどとして擬人化されたエージェント
人物の、静止画あるいは動画による面像情報と、利用者
へ、うなづき、身振り、手振り、などのジェスチャや、
表情変化など、任意個数、任意種類のエージェント人物
画像を用意、あるいは適宜に生成できるようにしてあ
り、これらの画像を使用して非言語メッセージを提示す
ることができるようにしてあって、制御手段により、注
視対象情報を参照して、メディア入力認識手段からの入
力を受付選択する際に、擬人化イメージ提示手段を通じ
て利用者への非言語メッセージによる信号を適宜提示す
るよう制御するものである。
【0066】[5] 第5には、利用者の注視対象を検
出する検出手段と、利用者への音声情報、操作情報、画
像情報を出力する情報出力手段と、利用者からの音声入
力情報、操作入力情報、画像入力情報のうち、少なくと
も一つ以上の入力情報を受け、認識動作の状況を制御す
る第1の制御手段と、前記注視対象情報を参照して、少
なくとも一つの情報出力手段の、出力の開始、終了、中
断、再開、あるいは提示速度の調整などの動作状況を適
宜制御する第2の制御手段とを備したことを特徴とす
る。
【0067】この構成の場合、注視対象物を検出する検
出手段、具体的には、利用者を観察するカメラや利用者
が装着したカメラなどから入力される視覚情報を用いた
視線検出処理や、利用者の視線の動きを検出するアイト
ラッカや、利用者の頭部の動きを検出するヘッドトラッ
カや、着席センサ、対人センサなどによって、利用者
が、現在見ているか、あるいは向いている、場所、領
域、方向、物、あるいはその部分を検出して、注視対象
情報としてを出力する注視対象検出用の検出手段があ
り、また、利用者へ、文字情報、音声情報、静止画像情
報、動画像情報、力の提示など少なくとも一つの信号の
提示によって、情報を出力する少なくとも一つの情報出
力手段があって、制御手段は前記注視対象情報を参照し
て、少なくとも一つの情報出力手段の、出力の開始、終
了、中断、再開、あるいは提示速度の調整などの動作状
況を適宜制御するものである。
【0068】[6] 第6には、文字情報、音声情報、
静止面像情報、動画像情報、力の提示などのうち、少な
くとも一つの信号の提示によって、利用者の注意を喚起
する注意喚起手段と、情報出力手段から情報を提示する
際に、注視対象情報に応じて、注意喚起手段を通じて、
利用者の注意を喚起するための信号を適宜提示するよう
制御する第2の制御手段とを更に具備する。
【0069】この構成の場合、文字情報、音声情報、静
止画像情報、動画像情報、力の提示など少なくとも一つ
の信号の提示によって、利用者の注意を喚起する注意喚
起手段があり、第2の制御手段は、情報出力手段から情
報を提示する際に、注視対象情報に応じて、注意喚起手
段を通じて、利用者の注意を喚起するための信号を適宜
提示するよう制御する。
【0070】[7] 第7には、注視対象情報あるい
は、カメラ、マイク、キーボード、スイッチ、ポインテ
ィングデバイス、センサなどの入力手段のうち、少なく
とも一つの入力手段を用いて、該注意喚起のための信号
に対する利用者の反応を検知し、これを利用者反応情報
として出力する反応検知手段と、利用者反応情報の内容
に応じて、情報出力手段の動作状況および注意喚起手段
の少なくとも一つを適宜制御する制御手段を設ける。
【0071】このような構成において、注視対象情報あ
るいは、カメラ、マイク、キーボード、スイッチ、ポイ
ンティングデバイス、センサなどの入力手段を用いて、
該注意喚起のための信号に対する利用者の反応を検知し
利用者反応情報として出力する反応検知手段があり、制
御手段は、利用者反応情報の内容に応じて、情報出力手
段の動作状況およぴ注意喚起手段の少なくとも一つを適
宜制御するようにしたものである。
【0072】[8] 第8には、利用者の注視対象を検
出する検出手段と、利用者の音声入力情報、操作入力情
報、画像入力情報のうち、少なくとも一つ以上の入力情
報を取得する他メディア入力手段と、利用者と対面して
サービスを提供する擬人化されたエージェント人物の画
像であって、該エージェント人物画像は利用者に所要の
ジェスチャ、表情変化を持つ画像による非言語メッセー
ジとして当該画像を提示する擬人化イメージ提示手段
と、文字情報、音声情報、静止画像情報、動画像情報、
力の提示などのうち、少なくとも一つの信号の提示によ
り、利用者に対して情報を出力する情報出力手段と、前
記擬人化イメージ提示手段を通しての非言語メッセージ
の提示により、利用者の注意を喚起する注意喚起手段
と、注視対象情報あるいは、カメラ、マイク、キーボー
ド、スイッチ、ポインティングデバイス、センサなどか
らの入力情報のうち、少なくとも一つの情報を参照し
て、前記注意喚起のための信号に対する利用者の反応を
検知し、利用者反応情報として出力する反応検知手段
と、該注視対象情報に応じて、少なくとも一つの他メデ
ィア入力処理手段の、入力受付可否、あるいは処理ある
いは認識動作の開始、終了、中断、再開、処理レベルの
調整などの動作状況を適宜制御し、注視対象情報を参照
して、メディア入力認識手段からの入力を受付可否を切
替える際に、利用者へ、文字情報、音声情報、静止画像
情報、動画像情報、力の提示、あるいは、擬人化イメー
ジ提示手段を通じて利用者への非言語メッセージによる
信号を適宜提示するよう制御し、該注視対象情報を参照
して、少なくとも一つの情報出力手段の、出力の開始、
終了、中断、再開、処理レベルの調整などの動作状況を
適宜制御し、情報出力手段から情報を提示する際に、注
視対象情報に応じて、注意喚起手段を通じて、利用者の
注意を喚起するための信号を適宜提示するよう制御し、
利用者反応情報の内容に応じて、情報出力手段の動作状
況および注意喚起手段の少なくとも一つを適宜制御する
制御手段とを具備する。
【0073】このような構成においては、注視対象を検
出する検出手段、具体的には、利用者を観察するカメラ
や利用者が装着したカメラなどから入力される視覚情報
を用いた視線検出処理や、利用者の視線の動きを検出す
るアイトラッカや、利用者の頭部の動きを検出するヘッ
ドトラッカや、着席センサ、対人センサなどによって、
利用者が、現在見ているか、あるいは向いている、場
所、領域、方向、物、あるいはその部分を検出して、注
視対象情報としてを出力する検出手段があり、音声入力
や、ジェスチャ入力や、キーボード入力や、ポインティ
ングデバイスを用いた入力や、カメラからの視覚入力情
報や、マイクからの音声入力情報や、キーボード、タッ
チパネル、ペン、マウスなどポインティングデバイス、
データグローブなどからの操作入力情報など、利用者の
注視対象以外を表す利用者からの入力情報を受け取り、
処理を行なう少なくとも一つの他メディア入力処理手段
と、利用者と対面してサービスを提供する人物、生物、
機械、あるいはロボットなどとして擬人化されたエージ
ェント人物の、静止画あるいは動画による画像情報と、
利用者へ、うなづき、身振り、手振り、などのジェスチ
ャや、表情変化など、任意個数、任意種類の非言語メッ
セージを提示する提示する擬人化イメージ提示手段と、
利用者へ、文字情報、音声情報、静止画像情報、動画像
情報、力の提示など少なくとも一つの信号の提示によっ
て、情報を出力する少なくとも一つの情報出力手段と、
利用者へ、文字情報、音声情報、静止画像情報、動画像
情報、力の提示など少なくとも一つの信号の提示あるい
は、擬人化イメージ提示手段を通じての非言語メッセー
ジの提示によって、利用者の注意を喚起する注意喚起手
段と、注視対象情報あるいは、カメラ、マイク、キーボ
ード、スイッチ、ポインティングデバイス、センサなど
からの入力情報を参照して、該注意喚起のための信号に
対する利用者の反応を検知し利用者反応情報として出力
する反応検知手段があり、制御手段は、前記注視対象情
報に応じて、少なくとも一つの他メディア入力処理手段
の、入力受付可否、あるいは処理あるいは認識動作の開
始、終了、中断、再開、処理レベルの調整などの動作状
況を適宜制御し、注視対象情報を参照して、メディア入
力認識手段からの入力を受付可否を切替える際に、利用
者へ、文字情報、音声情報、静止画像情報、動画像情
報、力の提示、あるいは、擬人化イメージ提示手段を通
じて利用者への非言語メッセージによる信号を適宜提示
するよう制御し、該注視対象情報を参照して、少なくと
も一つの情報出力手段の、出力の開始、終了、中断、再
開、処理レベルの調整などの動作状況を適宜制御し、情
報出力手段から情報を提示する際に、注視対象情報に応
じて、注意喚起手段を通じて、利用者の注意を喚起する
ための信号を適宜提示するよう制御し、利用者反応情報
の内容に応じて、情報出力手段の動作状況および注意喚
起手段の少なくとも一つを適宜制御するものである。
【0074】[9] また、第9には、マルチモーダル
インタフェース方法として、利用者の注視対象を検出
し、利用者の音声、ジェスチャ、操作手段による利用者
の操作情報などのうち、少なくとも一つの情報への処理
について、前記注視対象情報に応じて、入力受付の選
択、あるいは処理あるいは認識動作の開始、終了、中
断、再開、処理レベルの調整などの動作状況を適宜制御
するようにした。また、利用者の注視対象を検出すると
ともに、利用者と対面してサービスを提供する擬人化さ
れたエージェント人物の画像を画像情報として利用者へ
提示し、また、注視対象情報を基に、注視対象が前記エ
ージェン卜人物画像のどの部分かに応じて、利用者の音
声、ジェスチャ、操作手段による利用者の操作情報など
の受付を選択するようにした。
【0075】すなわち、マルチモーダル入力にあたって
は、利用者を観察するカメラや利用者が装着したカメラ
などから入力される視覚情報を用いた視線検出処理や、
利用者の視線の動きを検出するアイトラッカや、利用者
の頭部の動きを検出するヘッドトラッカや、着席セン
サ、対人センサなどによって、利用者が、現在見ている
か、あるいは向いている、場所、領域、方向、物、ある
いはその部分を検出して注視対象情報としてを出力し、
音声入力や、ジェスチャ入力や、キーボード入力や、ポ
インティングデバイスを用いた入力や、カメラからの視
覚入力情報や、マイクからの音声入力情報や、キーボー
ド、タッチパネル、ぺン、マウスなどポインティングデ
バイス、データグローブなどからの操作入力情報など、
利用者の注視対象以外を表す利用者からの少なくとも一
つの入力情報への処理について、注視対象情報に応じ
て、入力受付可否、あるいは処理あるいは認識動作の開
始、終了、中断、再開、処理レベルの調整などの動作状
況を適宜制御する方法である。
【0076】また、利用者と対面してサービスを提供す
る人物、生物、機械、あるいはロボットなどとして擬人
化されたエージェント人物の、静止画あるいは動画によ
る画像情報を、利用者ヘ提示し、注視対象情報に応じ
て、注視対象が、擬人化イメージ提示手段で提示される
エージェント人物の、全体、あるいは、顔、目、口、耳
など一部を指しているか否かに応じて、他メディア入力
認識手段からの入力を受付可否を切替えるものである。
【0077】また、注視対象情報を参照して、メディア
入力認識手段からの入力を受付可否を切替える際に、利
用者へ、文字情報、音声情報、静止画像情報、動画像情
報、力の提示など少なくとも一つの信号の提示によっ
て、フィードバック信号を提示する。
【0078】また、利用者と対面してサービスを提供す
る人物、生物、機械、あるいはロボットなどとして擬人
化されたエージェント人物の、静止面あるいは動画によ
る画像情報と、利用者ヘ、うなづき、身振り、手振り、
などのジェスチャや、表情変化など、任意個数、任意種
類の非言語メッセージを提示し、注視対象情報を参照し
て、メディア入力認識手段からの入力を受付可否を切替
える際に、擬人化イメージ提示手段を通じて利用者への
非言語メッセージによる信号を適宜提示する。
【0079】[10] 第10には、文字情報、音声情
報、静止画像情報、動画像情報、力の提示などのうち、
少なくとも一つの信号の提示によって、利用者に情報を
提供するにあたり、利用者の注視対象を検出し、この検
出された注視対象情報を参照して、前記提示の開始、終
了、中断、再開、処理レベルの調整などの動作状況を制
御するようにする。
【0080】また、情報を提示する際に、注視対象情報
に応じて、利用者へ、文字情報、音声情報、静止画像情
報、動画像情報、力の提示などのうち、少なくとも一つ
の信号の提示によって、利用者の注意を喚起するように
する。また、注意喚起のための信号に対する利用者の反
応を検知し、利用者反応情報として得ると共に、利用者
反応情報内容に応じて、利用者の音声入力情報、操作入
力情報、画像入力情報の取得および注意喚起の少なくと
も一つを制御するようにする。
【0081】このように、利用者の注視対象を検知して
その情報を注視対象情報として得る。具体的には利用者
を観察するカメラや利用者が装着したカメラなどから入
力される視覚情報を用いた視線検出処理や、利用者の視
線の動きを検出するアイトラッカや、利用者の頭部の動
きを検出するヘッドトラッカや、着席センサ、対人セン
サなどによって、利用者が、現在見ているか、あるいは
向いている、場所、領域、方向、物、あるいはその部分
を検出して、注視対象情報として得る。そして、利用者
へ、文字情報、音声情報、静止画像情報、動画像情報、
力の提示など少なくとも一つの信号の提示によって、情
報を出力する際に、この注視対象情報を参照して、出力
の開始、終了、中断、再開、処理レベルの調整などの動
作状況を適宜制御する。
【0082】また、情報出力手段から情報を提示する際
に、注視対象情報に応じて、利用者へ、文字情報、音声
情報、静止画像情報、動画像情報、力の提示など少なく
とも一つの信号の提示によって、利用者の注意を喚起す
る。
【0083】また、注視対象情報あるいは、カメラ、マ
イク、キーボード、スイッチ、ポインティングデバイ
ス、センサなどの入力手段を用いて、該注意喚起のため
の信号に対する利用者の反応を検知し利用者反応情報と
して出力し、利用者反応情報の内容に応じて、情報出力
手段の動作状況および注意喚起手段の少なくとも一つを
適宜制御する。
【0084】[11] 第11には、利用者の注視対象
を検出して注視対象情報として出力し、利用者に対面し
てサービスを提供する擬人化されたエージェント人物画
像であって該エージェント人物画像は利用者に所要のジ
ェスチャ、表情変化を持つ画像による非言語メッセージ
として提示するようにし、また、文字情報、音声情報、
静止画像情報、動画像情報、力の提示などのうち、少な
くとも一つの信号の提示によって、利用者に情報を出力
し、利用者の音声入力情報、ジェスチャ入力情報、操作
入力情報のうち、少なくとも一つ以上の入力情報を受
け、処理を行なう際に、注視対象情報に応じて、入力受
付可否、あるいは処理あるいは認識動作の開始、終了、
中断、再開、処理レベルの調整などの動作状況を制御す
る。また、注視対象情報を参照して、入力を受付可否を
切替える際に、利用者へ、文字情報、音声情報、静止画
像情報、動画像情報、力の提示、あるいは、擬人化イメ
ージ人物画像により所要の提示をする。
【0085】[12] 第12には、利用者の注視対象
を検出して注視対象情報として出力し、利用者に対面し
てサービスを提供する擬人化されたエージェント人物画
像であって該エージェント人物画像は利用者に所要のジ
ェスチャ、表情変化を持つ画像による非言語メッセージ
として提示するようにし、また、文字情報、音声情報、
静止画像情報、動画像情報、力の提示などのうち、少な
くとも一つの信号の提示によって、利用者に情報を出力
し、利用者の音声入力情報、ジェスチャ入力情報、操作
入力情報のうち、少なくとも一つ以上の入力情報を受
け、処理を行なう際に、注視対象情報に応じて、入力受
付可否、あるいは処理あるいは認識動作の開始、終了、
中断、再開、処理レベルの調整などの動作状況を制御す
ることを特徴とする。
【0086】また、注視対象情報を参照して、入力を受
付可否を切替える際に、利用者へ、文字情報、音声情
報、静止画像情報、動画像情報、力の提示、あるいは、
擬人化イメージ人物画像により所要の提示をすることを
特徴とする。
【0087】これは、利用者を観察するカメラや利用者
が装着したカメラなどから入力される視覚情報を用いた
視線検出処理や、利用者の視線の動きを検出するアイト
ラッカや、利用者の頭部の動きを検出するヘッドトラッ
カや、着席センサ、対人センサなどによって、利用者
が、現在見ているか、あるいは向いている、場所、領
域、方向、物、あるいはその部分を検出して、注視対象
情報としてを出力し、利用者と対面してサービスを提供
する人物、生物、機械、あるいはロボットなどとして擬
人化されたエージェント人物の、静止画あるいは動画に
よる画像情報と、利用者へ、うなづき、身振り、手振
り、などのジェスチャや、表情変化など、任意個数、任
意種類の非言語メッセージを提示する提示し、利用者
へ、文字情報、音声情報、静止画像情報、動面像情報、
力の提示など少なくとも一つの信号の提示によって、情
報を出力し、音声入力や、ジェスチャ入力や、キーボー
ド入力や、ポインティングデバイスを用いた入力や、カ
メラからの視覚入力情報や、マイクからの音声入力情報
や、キーボード、タッチパネル、ぺン、マウスなどポイ
ンティングデバイス、データグローブなどからの操作入
力情報など、利用者の注視対象以外を表す利用者からの
入力情報を受けとり処理を行なう際に、注視対象情報に
応じて、入力受付可否、あるいは処理あるいは認識動作
の開始、終了、中断、再開、処理レベルの調整などの動
作状況を適宜制御する方法である。
【0088】また、注視対象情報を参照して、入力を受
付可否を切替える際に、利用者へ、文字情報、音声情
報、静止画像情報、動画像情報、力の提示、あるいは、
擬人化イメージ提示手段を通じて利用者への非言語メッ
セージによる信号を適宜提示する方法である。
【0089】また、注視対象情報あるいは、カメラ、マ
イク、キーボード、スイッチ、ポインティングデバイ
ス、センサなどからの入力情報を参照して、該注意喚起
のための信号に対する利用者の反応を検知し利用者反応
情報として出力し、利用者反応情報の内容に応じて、情
報出力手段の動作状況および注意喚起手段の少なくとも
一つを適宜制御する。
【0090】以上、本発明は、視線検出等の技術を用
い、利用者の注視対象を検出するとともに、その検出し
た注視対象に応じて他メディアからの入力の受付可否
や、認識処理、あるいは出力の提示方法や中断、確認等
を制御するようにしたものであって、特に擬人化インタ
ーフェースでは例えば顔を見ることによって会話を開始
できるようにする等、人間同士のコミュニケーションで
の非言語メッセージの使用法や役割をシミュレートする
ようにシステムに応用したものである。
【0091】従って、本発明によれば、複数種の入出力
メディアを効率的、効果的に利用することができ、利用
者の負担を軽減できて人間同士のコミュニケーションに
近い状態で自然な対話ができるようにしたインタフエー
スを提供できる。
【0092】また、各メディアからの入力の解析精度が
不十分であるための誤動作や、あるいは周囲雑音による
誤動作や、あるいは入力デバイスから刻々得られる信号
の中から、利用者が入力メッセージとして意図した信号
部分の切り出しの失敗などに起因する誤動作などによる
利用者への負担を解消するインタフェースを提供でき
る。
【0093】また、音声やジェスチャなどのように、利
用者が現在の操作対象である計算機などへの入力として
用いるだけでなく、人間同士の対話に用いるメディアを
用いたインタフェース装置では、利用者が、操作中のマ
ルチモーダルシステムのインタフェース装置にではな
く、たとえば自分の横にいる他人に対して話しかけた
り、ジェスチャを示したりした場合にも、利用者がマル
チモーダルシステムのそばにいるがために、そのマルチ
モーダルシステムのインタフェース装置が自己への入力
であると判断してしまうことになり誤動作の原因となる
が、その場合でもこのような事態を解消でき、誤動作に
伴う取消操作や、誤動作の影響の復旧のための処置や、
誤動作を避けるために利用者が絶えず注意を払わなくて
はならないといった負荷を含め、利用者への負担を解消
することができるインタフェースを提供できる。
【0094】また、システムの処理動作状態から、本来
メディア入力の情報識別が不要な場面においても、入力
信号の処理が継続的に行なわれることによってその割り
込み処理のために、現在処理中の作業の遅延を招くとい
う悪影響をなくすべく、不要な場面でのメディア入力に
対する処理負荷を解消できるようにすることにより、利
用している装置に関与する他のサービスの実行速度や利
用効率の低下を抑制できるようにしたインタフェースを
提供できる。
【0095】また、音声やジェスチャなどの入力を行な
う際に、たとえば、ボタンを押したり、メニュー選択な
どによるモード変更などといった、特別な操作を必要と
しない構成とすることにより、煩雑さを伴わず、自然
で、しかも、習得のための訓練などが不要で、利用者に
負担を与えないインタフェースを提供できる。
【0096】また、本発明によれば、音声メディアによ
る入力の場合、本来、口だけを用いてコミュニケーショ
ンが出来るため、例えば手で行なっている作業を妨害す
ることがなく、双方を同時に利用することが可能である
と言う、音声メディア本来の利点を、阻害することなく
活用できるインタフェースを提供できる。
【0097】また、例えば、音声出力や、動画像情報
や、複数画面に亙る文字や面像情報など、提示される情
報が提示してすぐ消滅したり、刻々変化したりする一過
性のメディアも用いて利用者に情報提示する際に、利用
者がその情報に注意を払っていなかった場合にも、提示
された情報の一部あるいは全部を利用者が受け取れない
といったことのないようにしたインタフェースを提供で
きる。
【0098】また、一過性のメディアも用いて利用者に
情報提示する際、利用者が一度に受け取れる分量毎の情
報を提示して、継続する次の情報を提示する際に、利用
者が何らかの特別な操作を行なうといった負担を負わせ
ることなく、円滑に情報提示できるようになるインタフ
ェースを提供できる。
【0099】また、擬人化エージェント人物画像で現在
の様々な状況を表示するようにし、利用者の視線を検知
して、利用者が注意を向けている事柄を知って、対処す
るようにしたので、人間同士のコミュニケーションに近
い形でシステムと人間との対話を進めることができるよ
うになるインタフェースを提供できる。
【0100】また、バックグラウンド(ii)に関する課
題、すなわち、非接触遠隔操作を可能にし、誤認識を防
止し、利用者の負担を解消するために、擬人化エージェ
ントに利用者の指し示したジェスチャの指示対象を、注
視させるようにし、これにより、システムの側で認識で
きなくなったり、システム側での認識結果が誤っていな
いかなどが、利用者の側で直感的にわかるようにするべ
く、本発明は次のように構成する。すなわち、 [13] 利用者からの音声入力を取り込むマイク、あ
るいは利用者の動作や表情などを観察するカメラ、ある
いは利用者の目の動きを検出するアイトラッカ、あるい
は頭部の動きを検知するヘッドトラッカ、あるいは手や
足など体の一部あるいは全体の動きを検知する動きセン
サ、あるいは利用者の接近、離脱、着席などを検知する
対人センサのうち少なくとも一つからなり、利用者から
の入力を随時取り込み入力情報として出力する入力手段
と、該入力手段から得られる入力情報を受け、音声検出
処理、音声認識、形状検出処理、画像認識、ジェスチャ
認識、表情認識、視線検出処理、あるいは動作認識の少
なくとも一つの処理を施すことによって、該利用者から
の入力を、受付中であること、受け付け完了したこと、
認識成功したこと、あるいは認識失敗したこと、などと
いった利用者からの入力の受け付け状況を、動作状況情
報として出力する入力認識手段と、警告音、合成音声、
文字列、画像、あるいは動画を用い、フィードバックと
して利用者に提示する出力手段と、該入力認識手段から
得られる該動作状況情報に応じて、該出力手段を通じ
て、利用者にフィードバック情報を提示する制御手段を
具備したことを特徴とする。
【0101】[14] また、カメラ(撮像装置)など
の画像入力手段によって利用者の画像を取り込み、入力
情報として例えばアナログデジタル変換された画像情報
を出力する入力手段と、前記入力手段から得られる画像
情報に対して、例えば前時点の画像との差分抽出やオプ
ティカルフローなどの方法を適用することで、例えば動
領域を検出し、例えばパターンマッチング技術などの手
法によって照合することで、入力画像から、ジェスチャ
入力を抽出し、これら各処理の進行状況を動作状況情報
として随時出力する入力認識手段と、該入力認識手段か
ら得られる動作状況情報に応じて、文字列や画像を、あ
るいはブザー音や音声信号などを、例えば、CRTディ
スプレイやスピーカといった出力手段から出力するよう
制御する制御部を持つことを特徴とする。
【0102】[15] また、入力手段から得られる入
力情報、および入力認識手段から得られる動作状況情報
の少なくとも一方の内容に応じて、利用者へのフィード
バックとして提示すべき情報であるフィードバック情報
を生成するフィードバック情報生成手段を具備したこと
を特徴とする。
【0103】[16] また、利用者と対面してサービ
スを提供する人物、生物、機械、あるいはロボットなど
として擬人化されたエージェント人物の、静止画あるい
は動画による画像情報を、利用者へ提示する擬人化イメ
ージを生成するフィードバック情報生成手段と、入力認
識手段から得られる動作状況情報に応じて、利用者に提
示すべき擬人化イメージの表情あるいは動作の少なくと
も一方を決定し、出力手段を通じて、例えば指し示しジ
ェスチャの指し示し先、あるいは例えば指先や顔や目な
ど、利用者がジェスチャ表現を実現している部位あるい
はその一部分など、注視する表情であるフィードバック
情報を生成するフィードバック情報生成手段と、利用者
に該フィードバック情報生成手段によって生成されたフ
ィードバック情報を、出力手段から利用者へのフィード
バック情報として提示する制御手段を具備したことを特
徴とする。
【0104】[17] また、入力手段の空間的位置、
および出力手段の空間的位置に関する情報、および利用
者の空間的位置に関する情報の少なくとも一つを配置置
情報として保持する配置情報記憶手段と、利用者の入力
した指し示しジェスチャの参照物、利用者、利用者の顔
や手などの空間位置を表す参照物位置情報を出力する入
力認識手段と、該配置情報記憶手段から得られる配置情
報と、該入力認識手段から得られる参照物位置情報と、
動作状況情報との少なくとも一つを参照して、擬人化エ
ージェントの動作、あるいは表情、あるいは制御タイミ
ングの少なくとも一つを決定し、フィードバック情報と
して出力するフィードバック手段を具備したことを特徴
とする。
【0105】[18] また、利用者からの音声入力を
取り込むマイク、あるいは利用者の動作や表情などを観
察するカメラ、あるいは利用者の目の動きを検出するア
イトラッカ、あるいは頭部の動きを検知するヘッドトラ
ッカ、あるいは手や足など体の一部あるいは全体の動き
を検知する動きセンサ、あるいは利用者の接近、離脱、
着席などを検知する対人センサのうち少なくとも一つか
らなり、利用者からの入力を随時取り込み入力情報とし
て出力する入力ステップと、該入力ステップによって得
られる該入力情報を受け、音声検出処理、音声認識、形
状検出処理、画像認識、ジェスチャ認識、表情認識、視
線検出処理、あるいは動作認識の少なくとも一つの処理
を施すことによって、該利用者からの入力を、受付中で
あること、受け付け完了したこと、認識成功したこと、
あるいは認識失敗したこと、などといった利用者からの
入力の受け付け状況を、動作状況情報として出力する入
力認識ステップと、警告音、合成音声、文字列、画像、
あるいは動画を用い、フィードバックとして利用者に提
示する出力ステップと、入力認識ステップによって得ら
れる動作状況情報に基づいて、出力ステップを制御し
て、フィードバックを利用者に提示することを特徴とす
る。
【0106】[19] また、利用者と対面してサービ
スを提供する人物、生物、機械、あるいはロボットなど
として擬人化されたエージェント人物の、静止画あるい
は動画による画像情報を、入力認識ステップから得られ
る動作状況情報に応じて、利用者に提示すべき擬人化イ
メージ情報として生成するフィードバック情報生成ステ
ップと、入力認識ステップによって得られる動作状況情
報に基づいて、フィードバック情報生成ステップと、出
力ステップを制御することによって、たとえば音声入力
がなされた時点で擬人化エージェントによって例えば、
「うなずき」の表情を提示するなど、利用者にフィード
バックを提示することを特徴とする。
【0107】[20] また、利用者の入力した指し示
しジェスチャの参照物、利用者、利用者の顔や手などの
空間位置に関する情報である位置情報を出力する認識ス
テップと、入力部の空間的位置、および出力部の空間的
位置に関する情報、および利用者の空間的位置に関する
情報の少なくとも一つを配置情報として保持する配置情
報記憶ステップと、位置情報、および配置情報、動作状
況情報の少なくとも一つに応じて、例えば、利用者の指
し示しジェスチャの対象である参照物を、随時注視する
表情を提示するなど利用者にフィードバックを提示する
ことを特徴とするものである。
【0108】そして、このような構成の本システムは、
利用者からの音声入力を取り込むマイク、あるいは利用
者の動作や表情などを観察するカメラ、あるいは利用者
の目の動きを検出するアイトラッカあるいは頭部の動き
を検知するヘッドトラッカー、あるいは手や足など体の
一部あるいは全体の動きを検知する動きセンサ、あるい
は利用者の接近、離脱、着席などを検知する対人センサ
などによる入力手段のうち、少なくとも一つから入力さ
れる利用者からの入力を随時取り込み、入力情報として
得、これを音声検出処理、音声認識、形状検出処理、画
像認識、ジェスチャ認識、表情認識、視線検出処理、あ
るいは動作認識のうち、少なくとも一つの認識処理を施
すことによって、該利用者からの入力に対する受付状況
の情報、すなわち、受付中であること、受け付け完了し
たこと、認識成功したこと、あるいは認識失敗したこ
と、などといった利用者からの入力の受付状況の情報を
動作状況情報として得、得られた動作状況情報に基づい
て、警告音、合成音声、文字列、画像、あるいは動画を
用い、利用者に対するシステム側からのフィードバック
(すなわち、システム側から利用者に対する認識状況対
応の反応)として、利用者に提示するものである。
【0109】また、利用者と対面してサービスを提供す
る人物、生物、機械、あるいはロボットなどとして擬人
化されたエージェント人物の、静止画あるいは動画によ
る画像情報を、フィードバック情報認識手段から得られ
る動作状況情報に応じて、利用者に提示すべき擬人化イ
メージ情報として生成し、これを表示することで、たと
えば音声入力がなされた時点で擬人化エージェントによ
って例えば「うなずき」の表情を提示するなど利用者に
フィードバックを提示する。
【0110】また、認識手段により画像認識して、利用
者の入力した指し示しジェスチャの参照物、利用者、利
用者の顔や手などの空間位置に関する情報である位置情
報を得、配置情報記憶手段により入力部の空間的位置、
および出力部の空間的位置に関する情報、および利用者
の空間的位置に関する情報の少なくとも一つを配置情報
として保持し、位置情報、および配置情報、動作状況情
報の少なくとも一つに応じて、例えば、利用者の指し示
しジェスチャの対象である参照物を、随時注視する表情
を提示するなど利用者にフィードバックを提示する。
【0111】このように、利用者がシステムから離れた
位置や、あるいは機器に非接触状態で行った指し示しジ
ェスチャを認識させ、そのジェスチャによる指示を入力
させることが出来るようになり、かつ、誤認識なくジェ
スチャ認識を行えて、ジェスチャ抽出の失敗を無くすこ
とができるようになるマルチモーダルインタフェース装
置およびマルチモーダルインタフェース方法を提供する
ことができる。また、利用者が入力意図したジェスチャ
を開始した時点あるいは入力を行っている途中の時点
で、システムがそのジェスチャ入力を正しく抽出してい
るか否かを知ることができ、利用者が再入力を行わなく
てはならなくなるな負担を解消できるマルチモーダルイ
ンタフェース装置およびマルチモーダルインタフェース
方法を提供できる。また、実世界の場所やものなどを参
照するための利用者からの指し示しジェスチャ入力に対
して、その指し示し先として、どの場所、あるいはどの
物体あるいはそのどの部分を受け取ったかを適切に表示
することができるマルチモーダルインタフェース装置お
よびマルチモーダルインタフェース方法を提供できる。
【0112】
【発明の実施の形態】以下、図面を参照して本発明の実
施例を説明するが、初めに上述のバックグラウンド
(i)に関わるその解決策としての発明の実施例を説明
する。
【0113】(第1の実施例)本発明は、視線検出等の
技術を使用し、利用者の注視対象に応じて他メディアか
らの入力の受付可否や、認識処理、あるいは出力の提示
方法や中断、確認等を制御するもので、特に擬人化イン
ターフェースでは例えば顔を見ることによって会話を開
始できるようにする等、人間同士のコミュニケーション
での非言語メッセージの使用法や役割をシミュレートす
ることで、利用者にとって自然で負担がなく、かつ確実
なヒューマンインタフェースを実現する。
【0114】以下、図面を参照して、本発明の第1の実
施例に係るマルチモーダル対話装置について詳細に説明
する。
【0115】本発明は種々のメディアを駆使して、より
自然な対話を進めることができるようにしたマルチモー
ダル対話装置におけるヒューマンインタフェースに関わ
るものであり、発明の主体はヒューマンインタフェース
(マルチモーダルインタフェース)の部分にあるが、マ
ルチモーダル対話装置全体から、それぞれ必要な構成要
素とその機能を抽出し組み合わせることによって、イン
タフェース部分の各種構成が実現可能であるため、ここ
では、マルチモーダル対話装置に係る一実施形態を示す
こととする。
【0116】<本装置の構成の説明>図1は、本発明の
一例としてのマルチモーダル対話装置の構成例を示した
ブロック図であり、図に示す如く、本装置は注視対象検
出部101、他メディア入力部102、擬人化イメージ
提示部103、情報出力部104、注意喚起部105、
反応検知部106、および制御部107から構成されて
いる。
【0117】これらのうち、注視対象検出部101は、
当該マルチモーダル対話装置の利用者の視線方向を検出
して、当該利用者が向いている“場所”、“領域”、
“方向”、“物”、あるいはその“部分”を検出し、注
視対象情報としてを出力する装置である。この注視対象
検出部101は、例えば、利用者の眼球運動を観察する
アイトラッカ装置や、利用者の頭部の動きを検出するヘ
ッドトラッカ装置や、着席センサや、例えば、特開平0
8−059071号公報「視箇所推定装置とその方法」
に開示されている方法などによって、利用者を観察する
カメラや利用者が装着したカメラから得られる画像情報
を処理し、利用者の視線方向の検出することなどによっ
て、利用者が、“現在見ている”か、あるいは利用者が
向いている“場所”、“領域”、“方向”、“物”、あ
るいはその“部分”を検出して、注視対象情報としてを
出力するようにしている。
【0118】また、注視対象検出部101では、任意の
注視対象となる物体の全部あるいは位置部分や、任意の
注視対象となる領域と、その注視対象の記述(名称な
ど)の組を予め定義して保存しておくことによって、注
視対象記述を含む注視対象情報と、利用者がその注視対
象を注視した時間に関する情報を出力するようにしてい
る。
【0119】図2は、当該注視対象検出部101により
出力される注視対象情報の例を表しており、注視対象情
報が、“注視対象情報ID”、“注視対象記述情報
A”、“時間情報B”、などから構成されていることを
示している。
【0120】図2に示した注視対象情報では、“注視対
象情報ID”の欄には“P101”,“P102”,
“P103”,…“P201”,…といった具合に、対
応する注視対象情報の識別記号が記録されている。
【0121】また、“注視対象記述A”の欄には、“擬
人化イメージ”,“他人物”,“出力領域”,“画面外
領域”,…といった具合に、注視対象検出部101によ
って検出された注視対象の記述が記録され、また、“時
間情報B”の欄には“t3”,“t10”,“t1
5”,“t18”,…といった具合に、利用者が、対応
する注視対象を注視した時点に関する時間情報が記録さ
れている。
【0122】すなわち、利用者が注視行動をとり、それ
が検出される毎に“P101”,“P102”,“P1
03”,“P104”,“P105”,…といった具合
に順に、ID(識別符号)が付与され、その検出された
注視行動の対象が何であるか、そして、それが行われた
時点がいつであるのかが、注視対象情報として出力され
る。
【0123】図2の例はIDが“P101”の情報は、
注視対象が“擬人化イメージ”であり、発生時点は“t
3”であり、IDが“P102”の情報は、注視対象が
“他人物”であり、発生時点は“t10”であり、ID
が“P106”の情報は、注視対象が“出力領域”であ
り、発生時点は“t22a”であるといったことを示し
ている。
【0124】図1における他メディア入力部102は、
種々の入力デバイスから得られる利用者からの入力情報
を取得するためのものであって、その詳細な構成例を図
3に示す。
【0125】すなわち、他メディア入力部102は、図
3に示すように、入力デバイス部とデータ処理部とに別
れており、これらのうち、データ処理部の構成要素とし
ては、音声認識装置102a、文字認識装置102b、
言語解析装置102c、操作入力解析装置102d、画
像認識装置102e、ジェスチャ解析装置102f等か
が該当する。また、入力デバイス部の構成要素として
は、マイク(マイクロフォン)102g、キーボード1
02h、ペンタブレット102i、OCR(光学文字認
識装置)102j、マウス102k、スイッチ102
l、タッチパネル102m、カメラ102n、データグ
ローブ102o、データスーツ102p、さらにはアイ
トラッカ、ヘッドトラッカ、対人センサ、着席センサ、
…等が該当する。
【0126】これらのうち、音声認識装置102aは、
マイク102gの音声出力信号を解析して単語の情報に
して順次出力する装置であり、文字認識装置102b
は、ペンタブレット102iやOCR 102jから得
られる文字パターン情報を基に、どのような文字である
かを認識し、その認識した文字情報を出力するものであ
る。
【0127】また、言語解析装置102cは、キーボー
ド102hからの文字コード情報、音声認識装置102
aや文字認識装置102bからの文字情報を基に、言語
解析して利用者の意図する内容を利用者入力情報として
出力する装置である。
【0128】また、操作入力解析装置102dは、マウ
ス102kやスイッチ102l、あるいはタッチパネル
102mなどによる利用者の操作情報を解析して、利用
者の意図する内容を利用者入力情報として出力する装置
である。また、画像認識装置102eは、逐次、カメラ
102nで得た利用者の画像から、利用者のシルエット
や、視線、顔の向き等を認識してその情報を出力する装
置である。
【0129】また、データグローブ102oは、各所に
各種センサを設けたものであり、利用者の手に当該グロ
ーブをはめることにより、指の曲げや指の開き、指の動
き等の情報を出力することができる装置であり、データ
スーツ102pは各所に各種のセンサを取り付けたもの
で、利用者に当該データスーツ102pを着せることに
より、利用者の体の動き情報を種々得ることができるも
のである。
【0130】ジェスチャ解析装置102fは、これらデ
ータスーツ102pやデータグローブ102oからの情
報、あるいは画像認識装置102eからの情報を基に、
使用者の示した行動がどのようなジェスチャであるかを
解析してその解析したジェスチャ対応の情報を利用者入
力情報として出力するものである。
【0131】すなわち、他メディア入力部102は、マ
イク102gや、カメラ102n、キーボード102
h、タッチパネル102m、ペンタブレット102i、
そして、マウス102k(あるいはトラックボール)な
どのポインティングデバイス、あるいはデータグローブ
102oや、データスーツ102p、さらにはアイトラ
ッカ、ヘッドトラッカ、OCR102j、そして、さら
には図3には示さなかったが、対人センサ、着席セン
サ、などを含め、これらのうちの少なくとも一つの入力
デバイスを通じて得られる利用者からの音声情報、視覚
情報、操作情報などの入力に対して、取り込み、標本
化、コード化、ディジタル化、フイルタリング、信号変
換、記録、保存、パターン認識、言語/音声/画像/動
作/操作の解析、理解、意図抽出など、少なくとも一つ
の処理を処理を行なうことによって利用者からの装置へ
の入力である利用者入力情報を得る様にしている。
【0132】なお、図3は、他メディア入力部の構成の
一例を示したものに過ぎず、その構成要素およびその数
およびそれら構成要素間の接続関係はこの例に限定され
るものではない。
【0133】図1における擬人化イメージ提示部103
は、身振り、手振り、顔表情の変化などのジェスチャ
を、利用者に対して像として提示するための装置であ
り、図4に擬人化イメージ提示部103の出力を含むデ
ィスプレイ画面の例を示す。
【0134】図4において、103aは擬人化イメージ
を提示するための表示領域であり、102bは情報を出
力するための表示領域である。擬人化イメージ提示部1
03は、マルチモーダル対話装置が利用者に対して対話
する上で、提示したい意図を、身振り、手振り、顔表情
の変化などのジェスチャのかたちで画像提示できるよう
にしており、後述の制御部107からの制御によって、
“肯定”や、“呼掛け”、“音声を聞きとり可能であ
る”こと、“コミュニケーションが失敗した”ことなど
を適宜、利用者にジェスチャ画像で提示するようにして
いる。
【0135】従って、利用者はこのジェスチャ画像を見
ることで、今どのような状態か、直感的に認識できるよ
うになるものである。すなわち、ここでは人間同士の対
話のように、状況や理解の度合い等をジェスチャにより
示すことで、機械と人とのコミュニケーションを円滑に
行い、意志疎通を図ることができるようにしている。
【0136】図1における情報出力部104は、利用者
に対して、“文字”、“静止面画”、“動画像”、“音
声”、“警告音”、“力”などの情報提示を行なう装置
であり、図5にこの情報出力部104の構成例を示す。
【0137】図5に示すように、情報出力部104は文
字画像信号生成装置104a、音声信号生成駆動装置1
04b、機器制御信号生成装置104c等から構成され
る。これらのうち、文字画像信号生成装置104aは、
制御部107からの出力情報を基に、表示すべき文字列
の画像信号である文字時画像信号を生成する装置であ
り、また、音声信号生成駆動装置104bは制御部10
7からの出力情報を基に、利用者に伝えるべき音声の信
号を生成してマルチモーダル対話装置の備えるスピーカ
やヘッドホーン、イヤホン等の音声出力装置に与え、駆
動するものである。また、機器制御信号生成装置104
cは、制御部107からの出力情報を基に、利用者に対
する反応としての動作を物理的な力で返すフォースディ
スプレイ(提力装置)に対する制御信号や、ランプ表示
などのための制御信号を発生する装置である。
【0138】このような構成の情報出力部104では、
利用者への出力すべき情報として、当該情報出力部10
4が接続されるマルチモーダル対話装置の構成要素であ
る問題解決装置やデータベース装置などから渡される出
力情報を受け取り、文字および画像ディスプレイや、ス
ピーカやフォースディスプレイ(提力装置)などの出力
デバイスを制御して、利用者へ、文字、静止面画、動画
像、音声、警告音、力など情報提示を行なう様にしてい
る。
【0139】すなわち、マルチモーダル対話装置は、利
用者が投げかける質問や、要求、要望、戸惑い等を解釈
して解決しなければならない問題や為すべき事柄を解釈
し、その解を求める装置である問題解決装置や、この問
題解決装置の用いるデータベース(知識ベースなども含
む)を備える。そして、問題解決装置やデータベース装
置などから渡される出力情報を受け取り、文字および画
像ディスプレイや、スピーカやフォースディスプレイ
(提力装置)などの出力デバイスを制御して、利用者
へ、“文字”、“静止面画”、“動画像”、“音声”、
“警告音”、“力”など様々な意志伝達手段を活用して
情報提示を行なうものである。
【0140】また、図1における注意喚起部105は、
利用者に対して呼び掛けや警告音を発するなどして注意
を喚起する装置である。この注意喚起部105は、制御
部107の制御に従って、利用者に対し、警告音や、呼
掛けのための特定の言語表現や、利用者の名前などを音
声信号として提示したり、画面表示部に文字信号として
提示したり、ディスプレイ画面を繰り返し反転(フラッ
シュ)表示させたり、ランプなどを用いて光信号を提示
したり、フォースディスプレイを用いることによって、
物理的な力信号を利用者に提示したり、あるいは擬人化
イメージ提示部103を通じて、例えば身振り、手振
り、表情変化、身体動作を摸した画像情報などを提示す
るといったことを行い、これによって、利用者の注意を
喚起するようにしている。
【0141】なお、この注意喚起部105は、独立した
一つの要素として構成したり、あるいは、利用者への注
意喚起のための信号の提示を出力部104を利用して行
なうように構成することも可能である。
【0142】図1における反応検知部106はマルチモ
ーダル対話装置からのアクションに対して、利用者が何
らかの反応を示したか否かを検知するものである。この
反応検知106は、カメラ、マイク、キーボード、スイ
ッチ、ポインティングデバイス、センサなどの入力手段
を用いて、注意喚起部105により利用者に注意喚起の
提示をした際に、利用者が予め定めた特定の操作を行っ
たり、予め定めた特定の音声を発したり、予め定めた特
定の身振り手振りなどを行なったりしたことを検知した
り、あるいは、注視対象検出部101から得られる注視
対象情報を参照することによって、利用者が注意喚起の
ための信号に反応したかどうかを判断し、利用者反応情
報として出力する様にしている。
【0143】なお、この反応検知部106は、独立した
一つの部品として構成することも、あるいは、他メディ
ア入力部102に機能として組み込んで実現することも
可能である。
【0144】図1における制御部107は、本システム
の各種制御や、演算処理、判断等を司どるもので、本シ
ステムの制御、演算の中枢を担うものである。
【0145】なお、この制御部107が本装置の他の構
成要素を制御することによって、本発明装置の動作を実
現し、本発明装置の効果を得るものであるので、この制
御部107の処理の手順については後で、その詳細に触
れることとする。
【0146】図6に制御部107の内部構成例を示す。
図に示すように、制御部107は、制御処理実行部20
1、制御規則記憶部202、および解釈規則記憶部20
3などから構成される。
【0147】これらのうち、制御処理実行部201は、
内部に各要素の状態情報を保持するための状態レジスタ
Sと、情報種別を保持する情報種レジスタMとを持ち、
また、本マルチモーダル対話装置の各構成要素の動作状
況、注視対象情報、利用者反応情報、出力情報など、各
構成要素からの信号を受け取ると共に、これらの信号
と、状態レジスタSの内容と、制御規則記憶部202お
よび解釈規則記憶部203の内容を参照して、後述の処
理手順Aに沿った処理を行ない、得られた結果対応に本
マルチモーダルインタフェース装置の各構成要素への制
御信号を出力することによつて、本マルチモーダルイン
タフェース装置の機能と効果を実現するものである。
【0148】また、制御規則記憶部202は所定の制御
規則を保持させたものであり、また、解釈規則記憶部2
03は、所定の解釈規則を保持させたものである。
【0149】図7は、制御規則記憶部202に記憶され
た制御規則の内容例を表している。ここでは、各制御規
則の情報が、“規則ID”、“現状態情報A”、“イベ
ント条件情報B”、“アクションリスト情報C”、“次
状態情報D”などに分類され記録されるようにしてい
る。
【0150】制御記憶記憶部202の各エントリに於い
て、“規則ID”には制御規則毎の識別記号が記録され
る。
【0151】また、“現状態情報A”の欄には、対応す
るエントリの制御規則を適用するための条件となる状態
レジスタSの内容に対する制限が記録され、“イベント
情報B”の欄には、対応するエントリの制御規則を適用
するための条件となるイベントに対する制限が記録され
るようにしている。
【0152】また、“アクションリスト情報C”の欄に
は、対応する制御規則を適応した場合に、行なうベき制
御処理に関する情報が記録されており、また、“次状態
情報D”の欄には、対応するエントリの制御規則を実行
した場合に、状態レジスタSに更新値として記録すべき
状態に関する情報が記録されるようにしている。
【0153】具体的には、制御記憶記憶部202の各エ
ントリに於いて、“規則ID”には“Q1”,“Q
2”,“Q3”,“Q4”,“Q5”,…といった具合
に制御規則毎の識別記号が記録される。また、“現状態
情報A”には、“入出力待機”,“入力中”,“可否確
認中”,“出力中”,“準備中”,“中断中”,“呼掛
中”,…といった具合に、それぞれの規則IDによるエ
ントリの制御規則を適用するための条件として状態レジ
スタSの内容が、どのようなものでなければならないか
を規則ID対応に設定してある。
【0154】また、“イベント条件情報B”は、“入力
要求”,“出力制御受信”,“出力開始要求”,“出力
準備要求”,“入力完了”,…といった具合に、対応す
るエントリの制御規則を適用するための条件となるイベ
ントがどのようなものでなければならないかを規則ID
対応に設定してある。また、“アクション情報C”は、
“[入力受付FB 入力受付開始]”,“[]”,
“[出力開始]”,“[出力可否]”,“[入力受付停
止 入力完了FB]”,“[入力受付停止 取消FB提
示]”,“[出力開始]”,“[呼掛け]”,…といっ
た具合に、対応する制御規則を適用した場合に、どのよ
うなアクションを行うのかを規則ID対応に設定してあ
る。
【0155】なお、“アクション情報C”の欄に記録さ
れる制御処理のうち、“[入力受付FB(フィードバッ
ク)]”は利用者に対して、本装置の他メディア入力部
102からの入力が可能な状態になったことを示すフィ
ードバックを提示するものであり、例えば文字列や、面
像情報あるいはチャイムや肯定の意味を持つ相槌など音
声などの音信号を提示したり、あるいは擬人化イメージ
提示部103を通じて利用者へ視線を向けたり、耳に手
を当てるジェスチャを表示するなどを利用者へ提示する
処理を表している。
【0156】また、“[入力完了FB(フィードバッ
ク)]”と“[確認受領FB(フィードバック)]”
は、利用者に対してコミュニケーションが正しく行なわ
れたこと、あるいは利用者への呼掛けに対する利用者か
らの確認の意図を正しく受け取ったことを表すフィード
バックを提示する処理である。
【0157】なお、“アクションリスト情報C”の欄に
記録される制御処理のうち、“[入力受付FB(フィー
ドバック)]”は利用者に対して、本装置の他メディア
入力部102からの入力が可能な状態になったことを示
すフィードバックを提示するものであり、その提示方法
としては例えば“文字列”や、“面像情報”で提示した
り、あるいは“チャイム”や肯定の意味を持つ“相槌”
の音声などのように、音信号で提示したり、あるいは擬
人化イメージ提示部103を通じて利用者へ視線を向け
たり、耳に手を当てるジェスチャの画像を表示するな
ど、利用者に対しての反応を提示する処理を表してい
る。
【0158】また、“[入力完了FB(フィードバッ
ク)]”と“[確認受領FB(フィードバック)]”
は、利用者に対してコミュニケーションが正しく行なわ
れたこと、あるいは利用者への呼掛けに対する利用者か
らの確認の意図を正しく受け取ったことを表すフィード
バックを提示する処理であり、“[入力受付FB(フィ
ードバック)]”と同様に、音や音声や文字や画像によ
る信号を提示したり、あるいは擬人化イメージ提示部1
03を通じて、例えば「うなづき」などのジェスチャを
提示する処理を表している。
【0159】また、“[取消FB(フィードバッ
ク)]”は、利用者とのコミュニケーションにおいて、
何らかの問題が生じたことを示すフィードバックをを利
用者に提示する処理であり、警告音や、警告を意味する
文字列や画像を提示したり、あるいは、擬人化イメージ
提示部103を通じて、例えば手の平を上にした両手を
曲げながら広げるジェスチャを提示する処理を表してい
る。
【0160】また、“[入力受付開始]”、および
“[入力受付停止]”はそれぞれ、他モード入力部10
2の入力を開始、および停止する処理であり、同様に
“[出力開始]”、“[出力中断]”、“[出力再
開]”、“[出力停止]”は情報出力部104からの利
用者への情報の出力を、それぞれ開始、中断、再開、お
よび停止する処理を表している。
【0161】また、“[出力可否検査]”は、注視対象
検出部101から出力される注視対象情報と、解釈規則
記憶部203の内容を参照して、利用者へ提示しようと
している情報を、現在利用者に提示可能であるかどうか
を調べる処理を表している。
【0162】また、“[呼掛け]”は、利用者へ情報を
提示する際に、利用者の注意を喚起するためにに、例え
ば警告音を提示したり、呼掛けの間投詞音声を提示した
り、利用者の名前を提示したり、画面をフラッシュ(一
次的に繰り返し反転表示させる)させたり、特定の画像
を提示したり、あるいは擬人化イメージ提示部103を
通じて、例えば手を左右に振るジェスチャを提示する処
理を表している。
【0163】“[入力受付FB(フィードバック)]”
と同様に、音や音声や文字や画像による信号を提示した
り、あるいは擬人化イメージ提示部103を通じて、例
えば「うなづき」などのジェスチャを提示する処理を表
している。
【0164】また、“[取消FB(フィードバッ
ク)]”は、利用者とのコミュニケーションにおいて、
何らかの問題が生じたことを示すフィードバックをを利
用者に提示する処理であり、警告音や、警告を意味する
文字列や画像を提示ししたり、あるいは、擬人化イメー
ジ提示部103を通じて、例えば手の平を上にした両手
を曲げながら広げるジェスチャを提示する処理を表して
いる。
【0165】また、“[入力受付開始]”、および
“[入力受付停止]”はそれぞれ、他モード入力部10
2の入力を開始、および停止する処理であり、同様に
“[出力開始]”、“[出力中断]”、“[出力再
開]”、“[出力停止]”は情報出力部104からの利
用者への情報の出力を、それぞれ開始、中断、再開、お
よび停止する処理を表している。
【0166】また、“[出力可否検査]”は、注視対象
検出部101から出力される注視対象情報と、解釈規則
記憶部203の内容を参照して、利用者へ提示しようと
している情報を、現在利用者に提示可能であるかどうか
を調べる処理を表している。
【0167】また、“[呼掛け]”は、利用者へ情報を
提示する際に、利用者の注意を喚起するために、例えば
警告音を提示したり、呼掛けの間投詞音声を提示した
り、利用者の名前を提示したり、画面をフラッシュ(一
次的に反転表示させる)させたり、特定の画像を提示し
たり、あるいは擬人化イメージ提示部103を通じて、
例えば手を左右に振るジェスチャを提示する処理を表し
ている。
【0168】また、“次状態情報D”は、“入力中”,
“可否確認中”,“出力中”,“準備中”,“入出力待
機”,“呼掛中”,…といった具合に、対応するエント
リの制御規則を実行した場合に、状態レジスタSに更新
値として記録すべき情報(状態に関する情報)を規則I
D対応に設定してある。
【0169】従って、“規則ID”が“Q1”のもの
は、対応するエントリの制御規則を適用する条件となる
状態レジスタSの内容が“入出力待機”であり、“Q
1”なるエントリが発生したときは、状態レジスタSの
内容が“入出力待機”であれば、イベントとして“入力
要求”が起こり、このとき、“入力受付フィードバック
と入力受付開始”という制御処理を行って、状態レジス
タSには“入力中”なる内容を書き込んで、“入出力待
機”から“入力中”なる内容に当該状態レジスタSの内
容を更新させる、ということがこの制御規則で示されて
いることになる。
【0170】同様に“規則ID”が“Q5”のものは、
対応するエントリの制御規則を適用する条件となる状態
レジスタSの内容が“入力中”であり、“Q5”なるエ
ントリが発生したときは、状態レジスタSの内容が“入
力中”であれば、イベントとして“入力完了”が起こ
り、このとき“入力受付停止と入力完了フィードバッ
ク”という制御処理を行って、状態レジスタSはその内
容を“入出力待機”に改める、ということがこの制御規
則で示されていることになる。
【0171】図8は、解釈規則記憶部203の内容例を
表しており、各解釈規則に関する情報が、“現状態情報
A”、“注視対象情報B”、“入出力情報種情報C”、
および“解釈結果情報D”などに分類され記録されるよ
うにしている。
【0172】解釈規則記憶部203の各エントリにおい
て、“規則ID”の欄には、対応する規則の識別記号が
記録されている。また、“現状態情報A”の欄には対応
する解釈規則を適応する場合の、状態レジスタSに対す
る制約が記録されている。
【0173】また、“注視対象情報B”の欄には、注視
対象検出部101から受け取り、制御処理実行部201
によって解釈を行なう、注視対象情報の“注視対象情報
A”の欄と比較照合するための注視対象に関する情報が
記録されている。
【0174】また、“入出力情報C”の欄には、入力時
には利用者から入力される情報の種類に対する制約が、
また出力時には利用者へ提示する情報の種類に関する制
約が記録されるようにしている。
【0175】そして、“解釈結果情報D”の欄には、受
け取った注視対象情報に対してその解釈規則を適用した
場合の解釈結果が記録されるようにしている。
【0176】具体的には、“規則ID”には、“R
1”,“R2”,“R3”,“R4”,“R5”,“R
6”,…といった具合に、対応する規則の識別符号が記
録される。また、“現状態情報A”には“入出力待
機”,“入力中”,“可否確認中”,“出力中”,“準
備中”,“中断中”,…といった具合に、対応する解釈
規則を適応する場合に、状態レジスタSの保持している
情報の持つべき内容が記録されている。
【0177】また、“注視対象情報B”には、“入力要
求領域”,“擬人化イメージ”,“マイク領域”,“カ
メラ領域”,“出力要求領域”,“キャンセル要求領
域”,“出力要求領域以外”,“他人物”,“出力領
域”,“装置正面”,…といった具合に、注視対象検出
部101から受け取り、制御処理実行部201によって
解釈を行なう、注視対象情報の“注視対象情報A”の欄
と比較照合するための注視対象に関する情報が記録され
ている。
【0178】また、“入出力情報種情報C”には、“音
声情報”,“視覚情報”,“動画情報”,“動画情報以
外”,“静止画情報”,…といった具合に、入力時にお
いては利用者から入力される情報の種類に対する制約
が、また出力時には利用者へ提示する情報の種類に関す
る制約が記録される。
【0179】そして、“解釈結果情報D”には、“入力
要求”,“出力準備”,“取消要求”,“要中断”,
“開始可能”,“再会可能”,“確認検出”,…といっ
た具合に、受け取った注視対象情報に対してその解釈規
則を適用した場合の解釈結果が記録される。
【0180】従って、例えば、“規則ID”が“R2”
である規則を適用する場合は、状態レジスタSの内容が
“入出力待機”である必要があり、注視対象領域は“擬
人化イメージ”であり、入力時及び出力時は“音声情
報”を使用し、解釈結果は“入力要求”であることを示
している。
【0181】以上が制御部107の構成である。
【0182】続いて、本発明装置において、中心的な役
割を演じる制御処理実行部201での処理の詳細につい
て説明する。
【0183】制御部107の構成要素である制御処理実
行部201での処理は下記の処理手順Aに沿って行なわ
れる。
【0184】なお、図9は処理手順Aの流れを表すフロ
ーチャートである。
【0185】<処理手順A> [ステップA1] まずはじめに、制御処理部201
は初期化処理をする。この初期化処理は状態レジスタS
と情報種レジスタMを初期状態に設定するもので、この
初期化処理により状態レジスタSには「入出力待機」な
る内容の情報が設定され、情報種レジスタMには、「未
定義」なる内容の情報が設定され、他メディア入力部1
02が入力非受付状態にされる(初期化)。
【0186】[ステップA2] 初期化が済んだなら
ば、入力/出力の判断がなされる。本制御部107への
入力を待ち、入力があった場合には、その入力が注視対
象検出部101からであった場合、すなわち、注視対象
検出部101からその検出出力である注視対象情報Gi
が送られて来た場合は、注視情報解釈処理を行うステッ
プA3へと進む。また、本発明では直接関係ないので詳
細は説明しないが、マルチモーダル対話装置の主要な構
成要素となる問題解決装置あるいは、データベース装
置、あるいはサービス提供装置から、本制御部107に
出力情報Ojが与えられた時は、入力/出力判断ステッ
プであるステップA2ではステップA12へと処理を移
す。
【0187】すなわち、制御部107ではA2におい
て、解決装置やデータベース装置あるいはサービス提供
装置から出力情報Ojが与えられたときは、ステップA
12に進む。出力情報Ojは情報出力部104を用い
て、利用者へ情報出力を行なうための制御信号であり、
利用者へ提示すべき情報内容Cjと、情報の種類である
情報種別Mjを含む(入力/出力判定)。
【0188】[ステップA3] ここでの処理は注視
情報解釈であり、状態レジスタSの内容、および注視対
象情報Giの内容、および情報種レジスタMの内容と、
解釈規則記憶部203の各エントリの“現状態情報A”
の内容、および“注視注対象情報B”の内容、および
“入出力情報種情報C”とを、それぞれ比較照合するこ
とで、解釈規則中で条件が適合する解釈規則Ri(i=
1,2,3,4,5…)を探す(注視情報解釈)。
【0189】[ステップA4] ステップA3におい
て、条件が適合する解釈規則Riが見つからない場合に
は、ステップA11へ進み、見つかった場合はステップ
A5に進む(解釈可能判定)。
【0190】[ステップA5] 見つかった解釈規則
Riに対応する“解釈結果情報D”を参照し、当該“解
釈結果情報D”に記述されている解釈結果Iiを得る。
そして、ステップA6に進む(解釈結果決定)。
【0191】[ステップA6] 状態レジスタSの内
容、および解釈結果Iiを、制御規則記憶部202の
“現状対情報A”の内容、および“イベント条件情報
B”の内容と、それぞれ比較照合することで、対応する
制御規則Qiを探す。そして、ステップA7に進む(制
御規則検索)。
【0192】[ステップA7] ステップA6の処理
において、条件に適合する解釈規則Qiが見つからなか
った場合には、ステップA11へ進む。一方、条件に適
合する解釈規則Qiが見つかった場合にはステップA8
に進む(制御規則有無判定)。
【0193】[ステップA8] ここでは制御規則Q
iの、“アクション情報C”の欄を参照して、実行すべ
き制御処理のリスト[Ci1.Ci2、…]を得る。そ
して、ステップA9に進む(制御処理リスト取得)。
【0194】[ステップA9] 実行すべき制御処理
のリスト[Ci1.Ci2、…]が得られたならば、こ
の得られた制御処理のリスト[Ci1.Ci2、…]の
各要素について、順次<処理手順B>(後述)に従い制
御処理を実行する(各制御処理実行)。
【0195】[ステップA10] 状態レジスタSに、
Qiの“次状態情報D”の内容を記録する。そして、ス
テップA11に進む(状態更新)。
【0196】[ステップA11] 注視対象情報Giに
関する処理を終了し、ステップA2へ戻る(リターン処
理)。
【0197】[ステップA12] ステップA2におい
て、出力情報Ojが与えられた時は、制御部107はス
テップA12の処理に進むが、このステップでは情報種
レジスタMに、その出力情報Ojの情報種別Mjを記録
し、制御規則記憶部202に記憶されている制御規則を
参照し、その中の“現状状態A”の内容が状態レジスタ
Sの内容と一致し、かつ“イベント条件情報B”の内容
が「出力制御受信」であるエントリQk(k=1,2,
3,4,5,…)を探す。そして、ステップA13の処
理に移る(制御規則検索)。
【0198】[ステップA13] ここでは、ステップ
A12において、Q1からQxの規則IDの中から、条
件に適合する制御規則ID Qk(k=1,2,3,
4,…k−1,k、k+1,k+2,…x)が見つから
ない場合には、ステップA17へ進み、条件に適合する
制御規則Qkが見つかった場合はステップA14に進む
(該当する制御規則の有無判定)。
【0199】[ステップA14] ステップA14で
は、制御規則記憶部202にある制御規則中の“アクシ
ョン情報C”のうち、見つかった制御規則Qkに対応す
る“アクション情報C”を参照して、実行すべき制御処
理のリスト[Ck1.Ck2、…」を得る(制御処理リ
スト取得)。
【0200】[ステップA15] 制御処理のリスト
[Ck1、Ck2、…」の各要素について、順次<処理
手順B>(後述)に従い制御処理を実行する(各制御処
理実行)。
【0201】[ステップA16] そして、状態レジス
タSに、Qkなる規則IDに対応する“次状態情報D”
の内容を記録する(状態更新)。
【0202】[ステップA17] 情報情報Ojに関す
る処理を終了し、ステップA2へ戻る(リターン処
理)。
【0203】以上が、処理手順Aの内容であり、入って
きた情報が、利用者からのものであるか、利用者に対し
て提示するものであるかを判定し、前者(利用者からの
情報)であれば注視情報を解釈し、解釈結果を決定し、
その決定した解釈結果に対応する制御規則を検索し、該
当の制御規則があればどのような制御をするのかを制御
規則中からリストアップし、そのリストアップされた制
御内容の制御を実施し、また、後者(利用者に対して提
示するもの)であれば出力のための制御規則を検索し、
該当制御規則があればどのような制御をするのかを制御
規則中からリストアップし、そのリストアップされた制
御内容の出力制御処理を行うようにしたもので、音声
や、映像、カメラ、キーボードやマウス、データグロー
ブなど、様々な入出力デバイスと解析処理や制御技術を
用いてコミュニケーションを図る際に、人間同士のコミ
ュニケーションのように、何に注意を払って対話を進め
れば良いかをルールで決めて、対話の流れと用いたデバ
イスに応じて、使用すべき情報とそれ以外の情報とに分
け、対話のための制御を進めていくようにしたから、雑
音成分の取り込みを排除できて、誤動作を防止できるよ
うにし、また、状況に応じて、注意を喚起したり、理解
度や対話の状況、反応を擬人化画像でジェスチャ表示し
たりして、自然な対話を可能にした。
【0204】次に処理手順Bを説明する。処理手順Bで
は、アクション情報の内容に応じて次のような提示動作
や制御動作をする。
【0205】<処理手順B> [ステップB1] まず、アクション情報である制御
処理Cxが「入力受付FB」である場合は、例えば「入
力可能」といった文字列や、「マイクに丸印の付された
絵」といった画像情報や、あるいはチャイム音や、肯定
の意味を持つ「はい」といった相槌などを、音声や文字
で提示したり、あるいは擬人化イメージ提示部103を
通じて利用者へ視線を向けたり、耳に手を当てるジェス
チャを表示する。
【0206】[ステップB2] 制御処理Cxが「入
力完了FB」である場合は、例えば「入力完了」といっ
た文字列や、「マイクに×印の絵」といった画像情報
や、あるいは「チャイム音」や、肯定の意味を持つ「は
い」や、「判りました」といった相槌などを、音声や文
字で提示したり、あるいは擬人化イメージ提示部103
を通じて利用者へ視線を向ける画像を提示したり、うな
づく画像を提示したりといった具合にジェスチャを画像
で表示する。
【0207】[ステップB3] 制御処理Cxが、
「受領確認FB」である場合は、例えば「確認」といっ
た文字列や、画像情報や、あるいはチャイム音や、肯定
の意味を持つ「はい」や、「判りました」といった相槌
などを、音声や文字で提示したり、あるいは擬人化イメ
ージ提示部103を通じて利用者へ視線を向けたり、う
なづくなどの画像を用いてジェスチャを表示する。
【0208】[ステップB4] 制御処理Cxが、
「取消FB」である場合は、警告音や、警告を意味する
文字列や、記号や、画像を提示したり、あるいは、擬人
化イメージ提示部103を通じて、例えば手の平を上に
した両手を曲げながら広げるといった具合の画像を用い
てジェスチャを提示する。
【0209】[ステップB5] 制御処理Cxが、
「入力受付開始」および、「入力受付停止」である場合
は、他モード入力部102からの入力をそれぞれ、開始
および停止する。
【0210】[ステップB7] 制御処理Cxが、
「出力開始」、「出力中断」、「出力再開」、および
「出力停止」である場合は、情報出力部104からの利
用者への情報の出力を、それぞれ開始、中断、再開、お
よび停止する。
【0211】[ステップB8] 制御処理Cxが、
「呼掛け」である場合は、例えば警告音を提示したり、
例えば「もしもし」などの呼掛けの間投詞音声を提示し
たり、利用者の名前を提示したり、画面をフラッシュ
(一次的に反転表示させる)させたり、特定の画像を提
示したり、あるいは擬人化イメージ提示部103を通じ
て、例えば手を左右に振るジェスチャを提示する。
【0212】なお、情報種レジスタMには、利用者へ提
示しようとする際に、出力情報の種類が適宜記録される
ようにしている。
【0213】以上が本装置の構成とその機能である。
【0214】<具体例を用いた説明>続いて、上述した
マルチモーダルインタフェース装置およびマルチモーダ
ルインタフェース方法について、さらに詳しく説明す
る。
【0215】ここでは、利用者の視線および頭部方向検
機能と、本装置の前にいる利用者と他人を認識する人物
認識出機能を持つ注視対象抽出部101と、他メディア
入力手段102としての音声入力部と、身振り、手振
り、表情変化によるジェスチャを利用者に提示可能な擬
人化イメージ提示部103と、情報出力部104として
の文字情報および静止画像情報および動画像情報の画像
出力と音声出力部を持つ装置を利用者が使用する場面
を、具体例として説明を行なう。
【0216】なお、図10は、各時点における本装置の
内部状態を表している。
【0217】[t0] 制御部107では“処理手順
A”におけるステップA1の処理によって、状態レジス
タSおよび情報種レジスタMにそれぞれ「入出力待機」
と「未定義」が記録され、これにより他メディア入力手
段102の構成要素の一つである音声入力部は「入力非
受付」の状態となる。
【0218】[t1] ここで、本装置の周囲でノイ
ズ(雑音)が発生したとする。しかし、音声入力は非受
付の状態であるので、このノイズを音声として拾うこと
はなく、従って、ノイズによる誤動作は起こらない。
【0219】[t2] つづいて、擬人化イメージ提
示部103の顔を見ることで、利用者が音声入力の開始
を試みる。すなわち、擬人化イメージ提示部103には
図4に示すように、利用者とジェスチャをまじえたコミ
ュニケーションをとることができるようにディスプレイ
画面に受付嬢の画像を提示する擬人化イメージ提示部1
02aがあり、また、文字や映像等で情報を出力するた
めに、情報出力領域102bがある。この擬人化イメー
ジ提示部103には、初期の段階では図11(a)に示
すような待機状態の受付嬢の上半身の姿が提示されるよ
うに制御されている。従って、利用者は無意識のうちに
この受付嬢の姿を目で注視することになる。
【0220】[t3] 注視対象検出部101が、こ
れを検知して、注視対象情報として、図2のID=P1
01の欄に示した、注視対象情報を出力する。
【0221】[t4] “処理手順A”におけるステ
ップA2での判断によって、ステップA3へ進み、解釈
規則記憶部203から対応する解釈規則が検索され、ま
たこのとき、“状態レジスタS”の内容が「入出力待
機」であり、かつID=P101の注視対象情報の“注
視対象情報A”が「擬人化イメージ」であることから、
図8に示した解釈規則記憶部203から、規則ID=R
2の解釈規則が抽出される(図8における“規則ID”
が“R2”の該当する“解釈結果情報D”である「入力
要求」という解釈結果情報が抽出される)。
【0222】[t5] “処理手順A”におけるステ
ップA5によって、“解釈規則R2”の“解釈結果情報
D”の内容から、解釈結果として「入力要求」が得られ
る。
【0223】[t6] “処理手順A”におけるステ
ップA6の処理によって、制御規則記憶部202からの
検索が行なわれ、現状態情報(図2の“注視対象情報
A”)が「入力待機」であり、かつ、イベン卜条件情報
(図2の“時間情報B”)が「入力要求」であることか
ら、図7の“規則ID”が[Q1]なるIDの制御規則
が選択され、ステップA8の処理によって、“制御規則
Q2”の対応の“アクション情報C”の内容として、
“[入力受付FB、入力受付開始]”を得る。
【0224】[t7] “処理手順A”におけるステ
ップA9の処理および、“処理手順B”での処理によっ
て、例えば、擬人化イメージ提示部103を通じて、図
11(b)の如き「耳に手をかざす」ジェスチャの画像
が利用者に提示されるとともに、「はい」という音声が
利用者に提示され、音声入力の受付が開始され、ステッ
プA10,ステップA11によって、状態レジスタSお
よび情報種レジスタMの内容が更新される。
【0225】[t8] 利用者からの音声入力が完了
し、制御信号(イベン卜)として「入力完了」が制御部
に通知され、“処理手順A”に従った処理により、解釈
規則Q5が選択/実行され、音声入力が非受付となった
後、“処理手順B2”によって、例えば「入力完了」と
いった文字列や、マイクに×印の絵といった画像情報
や、あるいはチャイム音が利用者に提示される。
【0226】以上例示した処理によって、“音声入力が
必要でない場面”では入力を“非受付”としておくこと
によって、ノイズなどによる誤動作を防ぐことが出来、
また“音声入力が必要な場面”では、単に擬人化イメー
ジの方を向くだけで音声入力が可能となり、さらに、そ
のときジェスチャなどにより利用者へフィードバックを
提示することによって、音声入力の受付状態が変更され
たことが利用者に判るようになることによって、誤動作
がなく、しかも、特別な操作による負担がなく、人間同
士の対話での方法と同じであるために、自然で、習得や
余分な負担が必要のないヒューマンインタフェースにふ
さわしいマルチモーダルインタフェースを実現してい
る。
【0227】[t9] つづいて、利用者ではない他
の人物xが利用者に近付き、利用者がその人物xの方向
を向いたとする。
【0228】[t10] ここで、注視対象検出部10
1が、これを検知して、注視対象情報として、図2の
“注視対象情報ID”のうち、“P102”なるIDの
欄に示した、“注視対象情報A”である「他人物」なる
注視対象情報を出力する。
【0229】[t11] 時点t4と同様の処理が行な
われるが、この場合の条件に適合する解釈規則は存在し
ないから、ステップA11へ進み、この注視対象情報に
関する処理は終了する。
【0230】[t12] さらに、利用者が“人物x”
の方向を向いたままの状態であるときに、制御部107
に対して、例えば、情報種別M=「動画情報」である出
力情報Ojを利用者に提示するための出力制御信号が与
えられたとする。
【0231】[t13] “制御手順A”におけるステ
ップA2によって、ステップA12へ進み、情報種レジ
スタMに「動画情報」が記録され、制御規則記憶部20
2を参照し、“現状態情報A”が、状態レジスタSの内
容「入出力待機」と一致し、かつ“イベント条件情報
B”が、「出力制御受信」であるエントリとして、規則
ID=Q2の制御規則が抽出される。
【0232】[t14] “制御手順A”におけるステ
ップA13〜A17の処理を経ることによって、“制御
規則Q2”の対応する“アクション情報C”から、「実
行すべき制御処理はない」ことが判り、ステップA16
の処理によって、“制御規則Q2”の対応する“次状態
情報D”を参照し、状態レジスタSに「可否確認中」が
記録され、ステップA2の処理へと進む。
【0233】[t15] 続いて、利用者が“人物X”
の方向を向いていることから、注視対象検出部101か
ら、図2の注視対象情報IDのうち、“P103”なる
IDを持つ注視対象情報が得られる。
【0234】[t16] “処理手順A”におけるステ
ップA2〜A5の処理を経ることによって、状態レジス
タSの内容が「可否確認中」であり、かつ注視対象情報
P103の“注視対象情報A”が「他人物」であり、か
つ情報種レジスタMの内容が「動画像情報」であること
から、図8の規則ID=R11のエントリが抽出され、
解釈結果として、「出力不能」が得られる。
【0235】[t17] “処理手順A”のステップA
6〜A9の処理を経ることによって、時点t6〜t8と
様の処理により“制御規則Q9”が選択され、処理手順
BのステップB8の処理によって、利用者に対して、例
えば、画面フラッシュや名前の呼掛けが行なわれる。
【0236】[t18] ここで利用者が、動画情報が
提示される画面領域を向くことによって、注視対象検出
部101から、図2における“P104”なる注視対象
IDの注視対象情報が出力され、上述の場合と同様の処
理によって、“解釈規則R22”から、解釈結果として
「確認検出」が得られ、図7の“制御規則Q14”によ
って、その“アクション情報C”から、制御処理とし
て、[確認受領FB提示、出力開始]なるアクション情
報が得られる。
【0237】[t19] “処理手順A”におけるステ
ップA9および“処理手順B”におけるステップB3の
処理によって、例えば、「はい」といった相槌などが音
声や文字で利用者に提示されたあと、“処理手順B”の
ステップB7の処理によって利用者に提示すべき動画情
報の出力が開始され、ステップA10で状態レジスタS
の内容が 「出力中」に更新される。
【0238】以上の処理によって、本装置では、利用者
の注視対象、および提示する情報の種類に応じて、適切
に出力の開始を制御し、また、利用者への呼掛けと、そ
の呼掛けに対する利用者の反応に応じて各部を制御する
ことによって、利用者の注意が別に向いており、かつそ
の状態で情報の提示を開始すると、提示する情報の一部
あるいは全部を利用者が受け取れなくなるという問題を
解消している。
【0239】[t20] さらに、この動画情報の提示
中に利用者が再度、他の“人物X”の方を向き、それが
注視対象検出部101によって検知され、注視対象情報
IDが “P101”なる注視対象情報が出力されたと
する。
【0240】[t21] その結果、解釈規則記憶部2
03の持つ図8の記憶情報のうちの“解釈規則R14”
により、「要中断」なる“解釈結果情報D”が得られ、
制御規則記憶部202の記憶情報中の当該「要中断」な
る“イベント条件情報B”に対応する制御規則である
“制御規則Q11”なる規則IDの制御規則により、出
力が中断され、状態レジスタが「中断中」となる。
【0241】[t22a] その後、利用者が再度出力
領域を注視すれば、“注視対象情報P106”が出力さ
れ、“解釈規則R19”と、“制御規則Q12”により
出力が再開される。
【0242】[t22b] あるいは、例えば、利用者
がそのまま他に注意を向け続けた場合には、予め定めた
時間の経過などによって、中断タイムアウトの制御信号
が出力され、“制御規則Q13”によって、動画像の出
力の中断その報告がなされる。
【0243】以上示した通り、本装置によって、利用者
の注意の向けられる対象である注視対象と、装置の動作
状況と、提示する情報の種類や性質に応じて、適切に情
報の提示を制御することによって、注意を逸らした状態
では正しく受け取ることが困難な情報を、利用者が受け
取り損なうという問題や、情報の出力を中断したり、あ
るいは中断した出力を再開する際に特別な操作を行なう
必要があるために利用者の負担が増加するという問題を
解決することが出来る。
【0244】さらに、上記の動作例には含まれてない
が、図7の制御規則Q4、Q12、Q13などを使用す
ることによって、例えば動画情報などのように利用者が
出力領域を注視していない状態で、出力を開始すると、
提示情報の一部あるいは全部を利用者が受け取り損なう
恐れのある情報を提示する際、情報の出力要求があった
時点では出力を開始せず、状態を準備中として待機し、
注視対象情報から利用者が出力対象領域を注視したこと
を知った段階で、解釈規則R13、R14、R15など
を利用することによって、情報提示が開始可能であるこ
とを検知し、その時点で情報の提示を開始することで、
これらの問題を回避することも可能である。
【0245】あるいは、解釈規則R3、解釈規則R4、
解釈規則R18、解釈規則R21などを用いることによ
って、例えば、マイクを注視したら音声入力が受付られ
るように構成したり、カメラを注視したら画像入力が開
始されるようにしたり、あるいはスピーカを注視した
ら、音声出力が開始されるように構成することも可能で
ある。
【0246】なお、以上はマルチモーダル対話装置とし
ての具体例であるが、前述の通り、本発明のインタフェ
ースとしての構成要素部分は、本実施例のマルチモーダ
ル対話装置から、それぞれ必要な構成要素とその機能を
抽出し組み合わせることによって、実現可能である。
【0247】具体的には、課題を解決するための手段の
項における[1]の発明の装置は、注視対象検出部10
1と、他メディア入力部102、および制御部107を
組み合わせることによって実現可能である。
【0248】また、[2]の発明および[4]の発明の
装置は、これらに擬人化イメージ提示部103を加える
ことによって実現可能であり、また、[3]の発明の装
置は、[4]の発明の装置において、擬人化イメージ提
示部103を通じてなされる、利用者へのフィードバッ
クの提示を、文字情報、音声情報、静止画像情報、動画
像情報、力の提示など少なくとも一つの信号の提示する
機能を追加することによって実現することができる。
【0249】また、[5]の発明の装置は、注視対象検
出部101と、情報出力部104、および制御部107
を組み合わせることで実現でき、[6]の発明の装置
は、[5]の発明の装置に、注意喚起部105を追加す
ることによつて実現することができ、[7]の発明の装
置は、[6]の発明の装置に、反応検知部106を追加
することによって実現できる。以上が本装置の構成と機
能である。
【0250】なお、第1の実施例に示した本発明は方法
としても適用できるものであり、また、上述の具体例の
中で示した処理手順、フローチャート、解釈規則や制御
規則をプログラムとして記述し、実装し、汎用の計算機
システムで実行することによっても同様の機能と効果を
得ることが可能である。
【0251】すなわち、本発明は汎用コンピュータによ
り実現することも可能で、この場合、図12に示すよう
に、CPU 301,メモリ302,大容量外部記憶装
置303,通信インタフェース304などからなる汎用
コンピュータに、入力インタフェース305a〜305
nと、入力デバイス306a〜306n、そして、出力
インタフェース307a〜307mと出力デバイス30
8a〜308mを設け、入力デバイス306a〜306
nとして、マイクやキーボード、ペンタブレット、OC
R、マウス、スイッチ、タッチパネル、カメラ、データ
グローブ、データスーツといったものを使用し、そし
て、出力デバイス308a〜308mとして、ディスプ
レイ、スピーカ、フォースディスプレイ、等を用いてC
PU 301によるソフトウエア制御により、上述の如
き動作を実現することができる。
【0252】以上、バックグラウンド(i)に関わるそ
の解決策を提示した。次に上述のバックグラウンド(i
i)に関わるその解決策としての発明の実施例を説明す
る。
【0253】利用者が入力を意図した音声やジェスチャ
などの非言語メッセージを、自然且つ、円滑に入力でき
るようにするべく擬人化エージェントを提示すること
は、利用者にとって自然人との対話をしているかの如き
効果があり、操作性の著しい改善が期待できるが、これ
を更に一歩進めて、利用者の指し示したジェスチャの指
示対象を擬人化エージェントが注視するよう表示する構
成とすることにより、利用者のジェスチャの指し示し先
をシステムの側で認識できなくなったり、システム側で
の認識結果が誤っていないかなどが、利用者の側で直感
的にわかるようになり、このようにすると、利用者にと
って、自然人の案内係が一層懇切丁寧に応対してくれて
いるかの如き操作性が得られ、操作にとまどったり、操
作上、無用に利用者に負担をかける心配が無くなる。そ
こで、次にこのようなシステムを実現するための実施例
を第2の実施例として説明する。
【0254】(第2の実施例)ここでは、利用者が入力
を意図した音声やジェスチャなどの非言語メッセージ
を、自然且つ、円滑に入力できるようにするべく、利用
者からのジェスチャ入力を検知した際に、擬人化エージ
ェントの表情によって、ジェスチャ入力を行う手などを
随時注視したり、あるいは指し示しジェスチャに対し
て、その参照対象を注視することによって、利用者へ自
然なフィードバック(すなわち、システム側から利用者
に対する認識状況対応の反応)を提示できるようにし、
さらに、その際、利用者や擬人化エージェン卜の視界、
あるいは参照対象等の空間的位置を考慮して、擬人化エ
ージェントを適切な場所に移動、表示するよう制御でき
るようにした例を説明する。
【0255】また、この第2の実施例では、その目的と
して、機器の装着や機器の接触操作による指示は勿論の
こと、これに加えて一つは離れた位置からや、機器に非
接触で、かつ、機器を装着せずとも、遠隔で指し示しジ
ェスチャを行い、認識させることも可能であり、かつ、
ジェスチャ認識方式の精度が十分に得られないために発
生する誤認識やジェスチャ抽出の失敗を抑制することが
できるようにする実施例を示す。また、利用者が入力意
図したジェスチャを開始した時点あるいは入力を行って
いる途中の時点では、システムがそのジェスチャ入力を
正しく抽出しているか否かが分からないため、結果とし
て誤認識を引きおこしたり、あるいは、利用者が再度入
力を行わなくてはならなくなるなどして生じる利用者の
負担を抑制するため、このようなことを未然に防ぐこと
ができるようにする技術を示す。
【0256】また、実世界の場所やものなどを参照する
ための利用者からの指し示しジェスチャ入力に対して、
その指し示し先として、どの場所、あるいはどの物体あ
るいはそのどの部分を受け取ったかを適切に表示するこ
とを可能にする技術提供するものである。さらに、前述
の問題によって誘発される従来方法の問題である、誤動
作による影響の訂正や、あるいは再度の入力によって引
き起こされる利用者の負担や、利用者の入力の際の不安
による利用者の負担を解消することができるようにす
る。
【0257】さらに、擬人化インタフェースを用いたイ
ンタフェース装置、およびインタフェース方法で、利用
者の視界、および擬人化エージェントから視界などを考
慮した、適切なエージェントの表情を生成し、フィード
バックとして提示することが出来るようにする。
【0258】以下、図面を参照して本発明の第2の実施
例に係るマルチモーダルインタフェース装置およびマル
チモーダルインタフェース方式につき説明する。はじめ
に構成を説明する。
【0259】<構 成>図13は、本発明の第2の実施
例にかかるマルチモーダルインタフェース装置の構成の
概要を表すブロック図であり、図13に示す如く本装置
は、入力部1101、認識部1102、フィードバック
生成部1103、出力部1104、配置情報記憶部11
05、および制御部1106から構成される。
【0260】このうち、入力部1101は、当該マルチ
モーダルインタフェース装置の利用者からの音声信号、
あるいは画像信号、あるいは操作信号などの入力を随
時、取り込むことができるものであり、利用者からの音
声入力を取り込むマイクロフォン、あるいは利用者の動
作や表情などを観察するカメラ、あるいは利用者の目の
動きを検出するアイトラッカ、あるいは頭部の動きを検
知するヘッドトラッカ、あるいは利用者の手や足など体
の一部あるいは全体の動きを検知する動きセンサ、ある
いは利用者の接近、離脱、着席などを検知する対人セン
サなどのうち少なくとも一つからなるものである。
【0261】そして、利用者からの入力として音声入力
を想定する場合には、入力部1101は、例えば、マイ
クロフォン、アンプ、アナログ/デジタル(A/D)変
換装置などから構成されることとなり、また利用者から
の入力として、画像入力を想定する場合には、入力部1
101は、例えば、カメラ、CCD素子(固体撮像素
子)、アンプ、A/D変換装置、画像メモリ装置などか
ら構成されることとなる。
【0262】また、認識部1102は、入力部1101
から入力される入力信号を随時解析し、例えば、利用者
の意図した入力の時間的区間あるいは空間的区間の抽出
処理や、あるいは標準パターンとの照合処理などによっ
て認識結果を出力するものである。
【0263】より具体的に説明すると当該認識部110
2は、音声入力に対しては、例えば、時間当たりのパワ
ーを計算することなどによって音声区間を検出し、例え
ばFFT(高速フーリエ変換)などの方法によって周波
数分析を行い、例えばHMM(隠れマルコフモデル)
や、ニューラルネットワークなどを用いて照合弁別処理
や、あるいは標準パターンである音声辞書との、例えば
DP(ダイナミックプログラミング)などの方法を用い
た照合処理によって、認識結果を出力するようにしてい
る。
【0264】また、画像入力に対しては、例えば“Un
calibrated Stereo Vision
with Pointing for a Man−M
achine Interface”(R.Cipol
la,et.al.,Proceedings of
MVA′94,IAPR Workshop onMa
chine Vision Appllcation,
pp.163−166,1994.)に示された方法な
どを用いて、利用者の手の領域を抽出し、その形状、空
間位置、向き、あるいは動きなどを認識結果として出力
するようにしている。
【0265】図14は、画像入力を想定した場合の実施
例の入力部1101および認識部1102の内部構成の
例を表している。
【0266】図14において、1201はカメラ、12
02はA/D変換部、1203は画像メモリであり、入
力部1101はこれらにて構成される。カメラ1201
は、利用者の全身あるいは、例えば、顔や手などの部分
を撮影し、例えばCCD素子などによって画像信号を出
力するようにしている。また、A/D変換部1202
は、カメラ1201から得られる画像信号を変換し、例
えばビットマップなどのデイジタル画像信号に変換する
様にしている。また、画像メモリ1203は、A/D変
換部1202から得られるディジタル画像信号を随時記
録するようにしている。
【0267】また、図14において1204は注目領域
推定部、1205は認識辞書記憶部、1206は照合部
であり、これら1204〜1206にて認識部1102
は構成される。
【0268】認識部1102の構成要素のうち、注目領
域推定部1204は、画像メモリ1203の内容を参照
し、例えば差分画像や、オプティカルフローなどの手法
によって、例えば、利用者の顔や目や口、あるはジェス
チャ入力を行っている手や腕などといった注目領域情報
を抽出するようにして構成されている。また、認識辞書
記憶部1205は、認識対象の代表画像や、抽象化され
た特徴情報などを、あらかじめ用意した標準パターンと
して記憶するものである。また、照合部1206は、画
像メモリ1203と、注目領域推定部1204から得ら
れる注目領域情報の内容と認識辞書記憶部1205の内
容とを参照し、例えば、パターンマッチングや、DP
(ダイナミックプログラミング)や、HMM(隠れマル
コフモデル)や、ニューラルネットなどの手法を用いて
両者を比較照合し、認識結果を出力するものである。
【0269】なお、注目領域推定部1204および照合
部1206の動作状況は、動作状況情報として制御部1
106に随時通知されるようにしている。また、注目領
域推定部1204および照合部1206は、両者の処理
を一括して行う同一のモジュールとして実現することも
可能である。
【0270】以上が、入力部1101と認識部1102
の詳細である。
【0271】再び、図13の構成に戻って説明を続け
る。図13におけるフィードバック生成部1103は、
利用者ヘフィードバックとして提示すべき情報を生成す
るものであり、例えば、利用者に対する注意喚起や、シ
ステムの動作状況を知らせるために、予め用意した警告
音や、文字列、画像を選択したりあるいは、動的に生成
したり、あるいは、提示すべき文字列から合成音声技術
を利用して音声波形を生成したり、あるいは第1の実施
例に示した「マルチモーダル対話装置及びマルチモーダ
ル対話方法」での擬人化イメージ提示部103や、ある
いは本発明者等が提案し、特許出願した「身体動作生成
装置および身体動作動作制御方法(特願平8−5796
7号)」に開示した技術等と同様に、例えば、CG(コ
ンピュータグラフィックス)を用いて、利用者と対面
し、サービスを行う「人間」、「動物、」あるいは「ロ
ボット」など、擬人化されたキャラクタが、例えば顔表
情や身振り、手振りなどを表現した静止画像あるいは動
画像を生成したりするようにしている。
【0272】また、出力部1404は、例えば、ラン
プ、CRTディスプレイ、LCD(液晶)ディスプレ
イ、プラズマディスプレイ、スピーカ、アンプ、HMD
(へッドマウントディスプレイ)、提力ディスプレイ、
ヘッドフォン、イヤホン、など少なくとも一つの出力装
置から構成され、フィードバック生成部1103によっ
て生成された、フィードバック情報を利用者に提示する
ようにしている。
【0273】なお、ここではフィードバック生成部11
03で音声信号が生成されるマルチモーダルインタフェ
ース装置を実現する場合には、例えばスピーカなど音声
信号を出力するための出力装置によって出力部1104
が構成され、また、フィードバック生成部1103にお
いて、例えば、擬人化イメージが生成されるマルチモー
ダルインタフェース装置を実現する場合には、例えばC
RTディスプレイによって出力部1104が構成され
る。
【0274】また、配置情報記憶部1105は、利用者
の入力した指し示しジェスチャの参照物、利用者、利用
者の顔や手などの空間位置に関する情報である位置情報
を得、入力部の空間的位置、および出力部の空間的位置
に関する情報、および利用者の空間的位置に関する情報
の少なくとも一つを配置情報として保持するようにする
と共に、位置情報、および配置情報、動作状況情報の少
なくとも一つに応じて、例えば、利用者の指し示しジェ
スチャの対象である参照物を、随時注視する表情を提示
するなど利用者にフィードバックを提示する方式にする
場合に使用される。
【0275】配置情報記憶部1105には、例えば、利
用者からの実世界への指し示しジェスチャを装置が受け
付ける場合に、利用者に対して提示するフィードバック
情報の生成の際に参照される出力部1104の空間位置
から指し示す際に必要となる方向情報算出用の出力部1
104の空間位置あるは配置方向などの情報(利用者に
対して提示するフィードバック情報生成の際に参照され
る空間位置情報あるいは方向情報であって、入力部11
01から入力され、認識部1102によって認識されて
出力される参照物位置情報に含まれる利用者の意図した
参照先の空間位置を、出力部1104の空間位置から指
し示す際に必要となる方向情報の算出のための出力部1
104の空間位置、あるは配置方向などの情報)が記録
されるようにしている。
【0276】図15は、この配置情報記憶部1105の
保持内容の例を表している。
【0277】図15に示す一例としての配置情報記憶部
1105の各エントリには、本装置の構成要素である認
識部1102によって得られる指示場所、指示対象およ
び利用者の手や顔の位置、および指し示しジェスチャの
参照先の位置、および方向などに関する情報が、「ラベ
ル情報A」、「代表位置情報B」、「方向情報C」など
と分類され、随時記録されるようにしている。
【0278】ここで、配置情報記憶部1105の各エン
トリにおいて、「ラベル情報A」の欄には該エントリに
その位置情報および方向情報を記録している場所や物を
識別するためのラベルが記録される。また、「代表位置
情報B」の欄には対応する場所あるいはものの位置(座
標)が記録される。また、「方向情報C」の欄には、対
応する場所あるいはものの方向を表現するための方向ベ
クトルの値が、必要に応じて記録される。
【0279】なお、これら「代表位置情報B」および
「方向情報C」はあらかじめ定めた座標系(世界座標
系)に基づいて記述されるようにしている。
【0280】また、図15の各エントリにおいて、記号
「−」は対応する手間の内容が空であることを表し、ま
た記号「〜」は本実施例の説明において不要な情報を省
略したものであることを表し、また記号「:」は本発明
の説明において不要なエントリを省略して表しているも
のとする(以下同様)。
【0281】また、図13における制御部1106は、
本発明システムにおける入力部1101、認識部110
2、フィードバック部1103、出力部1104、およ
び配置情報記憶部1105などの各構成要素の動作及び
これら要素間で入出力される情報の授受などの制御を司
るものである。
【0282】なお、本システムにおいては制御部110
6の動作が本発明システムの実現に重要な役割を担って
いるので、この動作については後に詳しく述べることと
する。
【0283】以上が本システムの装置構成とその機能で
ある。つづいて、制御部1106の制御によってなされ
る本発明システムの処理の流れについて説明する。
【0284】<制御部1106による制御内容>制御部
1106の制御による本発明システムの処理の流れにつ
いて説明する。なお、ここからは、入力部1101とし
て、図14に示したようにカメラ1201による画像入
力手段を有すると共に、また、例えば、“Uncali
brated Stereo Vision with
Pointing for aMan−Machin
e Interface”(R.Cipolla,e
t.al.,Proceedings of MVA
’94,IAPR Workshop on Mac
hine Vision Applicatio,p
p.163−166,1994.)に示された方法など
によって、実世界の場所あるいは物への利用者の指し示
しジェスチャを認識し、利用者の指し示しジェスチャの
参照対象の位置、および利用者の顔の位置及び向きなど
を出力する認識部1102を持ち、かつ、例えば第1の
実施例において説明した「マルチモーダル対話装置及び
マルチモーダル対話方法」での擬人化イメージ提示部1
03や、あるいは既に特許出願済みの技術である「身体
動作生成装置および身体動作動作制御方法(特願平8−
57967号)」に開示されている技術等と同様に、例
えばCG(コンピュータグラフィックス)を用いて、利
用者と対面し、サービスを行う人間、動物、あるいはロ
ボットなど、擬人化されたキャラクタによって指定した
方向へ視線を向けた顔表情や、「驚き」や「謝罪」を表
す顔表情や身振りや、ジェスチャを持つ擬人化エージェ
ントの表情あるいは動作などの静止画像あるいは動画像
を生成するフィードバック生成部1103を持ち、かつ
少なくとも一つの例えばCRTディスプレイなどによる
出力部1104を持つマルチモーダルインタフェース装
置を例題として、本発明の実施例を説明することとす
る。
【0285】第2の実施例システムにおける制御部11
06は下記の“<処理手順AA>”、“<処理手順BB
>”、“<処理手順CC>”、“<処理手順DD>”、
および“<処理手順EE>”に沿った処理に従った制御
動作をする。
【0286】ここで、“<処理手順AA>”は、「処理
のメインルーチン」であり、“<処理手順BB>”は、
「擬人化エージェントから利用者のジェスチャ入力位置
が注視可能か否かを判定する」処理手順であり、“<処
理手順CC>”は、「ある擬人化エージェントの提示位
置Lcを想定した場合に、利用者から擬人化エージェン
トを観察可能であるかどうかを判定する」ための手順で
あり、“<処理手順DD>”は、「ある擬人化エージェ
ントの提示位置Ldを想定した場合に、擬人化エージェ
ントから、現在注目しているある指し示しジェスチャG
の指示対象Rが注視可能であるか否かの判定をする」処
理手順であり、“<処理手順EE>”は「注視対象Zを
注視する擬人化エージェントの表情」を生成する擬人化
エージェント表情生成手順である。
【0287】<処理手順AA> [ステップAA1]: 認識部1102の動作状況情報
から、利用者がジェスチャ入力(Gi)の開始を検知す
るまで待機し、検知したならばステップ(AA2)へ進
む。
【0288】[ステップAA2]: “<処理手順BB
>”により、「現在の擬人化エージェントの提示位置L
jから、ジェスチャ入力Giが行われている場所Liを
擬人化エージェントから注視可能である」と判断されて
おり、かつ、“<処理手順CC>”により「提示位置L
jに提示されている擬人化エージェントを、利用者が観
察可能である」と判断された場合にはステップAA6へ
進み、そうでない場合はステップAA3へ進む。
【0289】[ステップAA3]: 配置情報記憶部1
105を参照し、全ての提示位置に対応するエントリに
対して順次、“<処理手順BB>”と“<処理手順CC
>”を用いた条件判断を実施することによって、「ジェ
スチャ入力Giが行われている場所Liを、擬人化エー
ジェントが注視可能」であり、かつ「利用者から擬人化
エージェントを観察可能」であるような擬人化エージェ
ントの提示位置Lkを探す。
【0290】[ステップAA4]: 提示位置Lkが見
つかったならば、ステップAA5へ進み、見つからない
場合は、ステップAA7へ進む。
【0291】[ステップAA5]: 出力部1104を
制御し、擬人化エージェントを提示位置Lkへ移動す
る。
【0292】[ステップAA6]: フィードバック生
成部1103と出力部1104を制御し、“<処理手順
EE>”によってジェスチャ入力が行われている場所L
iを注視する擬人化エージェントの表情を生成し、提示
し、ステップ(AA12)ヘ進む。
【0293】[ステップAA7]: “<処理手順CC
>”によって、「利用者から擬人化エージェントを観察
可能」であるかどうかを調べ、その結果、観察可能であ
れば、ステップAA11へ進み、そうでなければ、ステ
ップAA8へ進む。
【0294】[ステップAA8]: 配置情報記憶部1
105を参照し、全ての提示位置に対応するエントリに
対して順次、“<処理手順CC>”を用いた条件判断を
実施することによって、利用者から擬人化エージェント
を観察可能であるような擬人化エージェントの提示位置
Lmを探す。
【0295】[ステップAA9]: 提示位置Lmが存
在する場合は、ステップAA10に進み、そうでない場
合はステップAA12へ進む。
【0296】[ステップAA10]: 出力部1104
を制御し、擬人化エージェン卜を、提示位置Lmへ移動
する。
【0297】[ステップAA11]: フィードバック
生成部1103を制御し、「現在、システムが利用者か
らの指し示しジェスチャ入力を受付中」であることを表
す、例えば「うなづき」などの表情を生成し、出力部1
104を制御して利用者に提示する。
【0298】[ステップAA12]: もし、入力部1
101あるいは認識部1102から得られる動作状況情
報により、ジェスチャGi入力を行っている場所Li
が、入力部1101の観察範囲から逸脱したならばステ
ップAA13へ進み、そうでない場合、ステップAA1
4へ進む。
【0299】[ステップAA13]: フィードバック
生成部1103を制御し、現在システムが受け取り途中
であった、利用者からの指し示しジェスチャ入力の解析
失敗を表す、例えば「驚き」などの表情を生成し、出力
部1104を制御して、利用者に提示し、ステップAA
1へ進む。
【0300】[ステップAA14]: 認識部1102
から得られる動作状況情報から、利用者が入力してきた
ジェスチャ入力Giの終了を検知した場合は、ステップ
AA15ヘ進み、そうでない場合はステップAA26へ
進む。
【0301】[ステップAA15]: 認識部1102
から得られるジェスチャ入力Giの認識結果が、指し示
しジェスチャ(ポインティングジェスチャ)であった場
合はステツプAA16へ進み、そうでない場合はステッ
プAA21ヘ進む。
【0302】[ステップAA16]: “<処理手順D
D>”によって擬人化エージェントから、指し示しジェ
スチャGiの指示対象Rlを注視可能であると判断さ
れ、かつ“<処理手順CC>”によって、利用者から擬
人化エージェン卜を観察可能であると判定された場合に
は、ステップAA20へ進み、そうでなければ、ステッ
プAA17へ進む。
【0303】[ステップAA17]: 配置情報記憶部
1105を参照し、全ての提示位置に対応するエントリ
に対して、順次、“<処理手順DD>”および“<処理
手順CC>”を用いた条件判断を行うことによって、擬
人化エージェントから、指し示しジェスチャGiの指示
対象Rlが注視可能であり、かつ利用者から擬人化エー
ジェントを観察可能であるような、擬人化エージェント
の提示位置Lnを探す。
【0304】[ステップAA18]: 提示位置Lnが
存在する場合は、ステップAA19へ進み、そうでない
場合はステップAA21へ進む。
【0305】[ステップAA19]: 出力部1104
を制御し、擬人化エージェントを、提示位置Lnへ移動
する。
【0306】[ステップAA20]: “<処理手順E
E>”を用いて、フィードバック生成部1103を制御
し、ジェスチャGiの参照先Rlを注視する擬人化エー
ジェント表情を生成し、出力部1104を制御して利用
者に提示し、ステップAA1ヘ進む。
【0307】[ステップAA21]: “<処理手順C
C>”によって、「利用者から擬人化エージェントを観
察可能」であるかどうかを調べ、その結果、観察可能で
あればステップAA25へ進み、そうでなければステッ
プAA22へ進む。
【0308】[ステップAA22]: 配置情報記憶部
1105を参照し、全ての提示位置に対応するエントリ
に対して、順次、“<処理手順CC>”を用いた条件判
断を実施することにより、利用者から擬人化エージェン
トを観察可能であるような擬人化エージェン卜の提示位
置Loを探す。
【0309】[ステップAA23]: 提示位置Loが
存在する場合は、ステップAA24へ進み、そうでない
場合はステップAA1へ進む。
【0310】[ステップAA24]: 出力部1404
を制御し、擬人化エージェントを提示位置Loへ移動す
る。
【0311】[ステップAA25]: 次に制御部11
06はフィードバック生成部1103を制御し、「現在
システムが利用者からの指し示しジェスチャ入力を受付
中」であることを表す例えば、「うなづき」などの表情
を生成し、出力部1104を制御して利用者に提示し、
ステップAA1の処理へ戻る。
【0312】[ステップAA26]: 制御部1106
は認識部1102から得られる動作状況情報から、利用
者から入力受付中のジェスチャ入力の解析に失敗したこ
とが判明した場合には、ステップAA27へ進み、そう
でない場合はステップAA12ヘ進む。
【0313】[ステップAA27]: 制御部1106
はフィードバック生成部1103を制御し、システムが
利用者からのジェスチャ入力の解析に失敗したことを表
す、「謝罪」などの表情を生成し、さらに出力部110
4を制御して、利用者に提示し、ステップAA1へ戻
る。
【0314】なお、図17は、制御部1106による以
上の“<処理手順AA>”をフローチャートの形で表現
したものであり、記号「T」の付与された矢印線は分岐
条件が成立した場合の分岐方向を表し、記号「F」が付
与された矢印線は分岐条件が成立しなかった場合の分岐
方向を表すものとする。また、図18〜図20に図17
のフローチャートの部分詳細を示す。
【0315】次に“<処理手順BB>”を説明する。当
該“<処理手順BB>”では以下の手順を実行すること
によって、ある擬人化エージェントの提示位置Lbを想
定した場合に、擬人化エージェントから、例えば、利用
者の指の先端など、ジェスチャ入力Gが行われている位
置Lgが注視可能であるかどうかの判定を行う。
【0316】<処理手順BB> [ステップBB1]: 制御部1106は配置情報記憶
部1105を参照し、提示位置Lbに対応する“エント
リHb”を得る。
【0317】[ステップBB2]: また、配置情報記
憶部1105を参照し、ラベル情報Aの欄を調べること
によって、ジェスチャが行われている位置Gに対応する
“エントリHg”を得る。
【0318】[ステップBB3]: “エントリHb”
と“エントリHg”が得られると、制御部1106は配
置情報記憶部1105に記憶されている“エントリH
b”の“代表位置情報B”の値(Xb,Yb,Zb)、
および“方向情報C”の値(Ib,Jb,Kb)、およ
び、“エントリHg”の“代表位置情報B”の値(X
g,Yg,Zg)を参照し、ベクトル(Xb−Xg,Y
b−Yg,Zb−Zg)とベクトル(Ib,Jb,K
b)の内積の値Ibを計算する。
【0319】[ステップBB4]: そして、制御部1
106は次に当該計算結果である内積の値Ibが正の値
であるか負の値であるかを調べ、その結果、正の値であ
る場合は、“エントリHb”に対応する提示位置Lbに
提示する擬人化エージェントから、“エントリHg”に
対応するジェスチャGが行われている位置Lgが「注視
可能」であると判断し、負である場合は「注視不可能」
であると判断する。
【0320】以上により、「擬人化エージェントから利
用者のジェスチャ入力位置が注視可能か否かを判定す
る」処理が行える。
【0321】同様に、以下の“<処理手順CC>”によ
って、ある擬人化エージェントの提示位置Lcを想定し
た場合に、利用者から擬人化エージェントを観察可能で
あるかどうかの判定が行われる。
【0322】<処理手順CC> [ステップCC1]: 制御部1106は配置情報記憶
部1105を参照し、提示位置Lcに対応する“エント
リHc”を得る。
【0323】[ステップCC2]: 配置情報記憶部1
105を参照し、ラベル情報Aの内容を調べることによ
って、利用者の顔の位置に対応する“エントリHu”を
得る。
【0324】[ステップCC3]: “エントリHc”
と“エントリHu”が得られたなばらば次に制御部11
06は配置情報記憶部1105をもとに“エントリH
c”の“代表位置情報B”の値(Xc,Yc,Zc)、
および“方向情報C”の値(Ic,Jc,Kc)、およ
び、“エントリHu”の“代表位置情報B”の値(X
u.Yu.Zu)を参照し、ベクトル(Xc−Xu,Y
c−Yu,Zc−Zu)とベクトル(Ic,Jc,K
c)の内積の値Icを計算する。
【0325】[ステップCC4]: 次に制御部110
6は内積の値Icが正の値であるか負の値であるかを判
別し、その結果、正の値である場合は、“エントリH
c”に対応する提示位置Lcに提示する擬人化エージェ
ントが、「利用者から観察可能」と判断し、負である場
合は「観察不可能」と判断する。
【0326】また、同様に以下の“<処理手順DD>”
によって、「ある擬人化エージェントの提示位置Ldを
想定した場合に、擬人化エージェントから、現在注目し
ているある指し示しジェスチャGの指示対象Rが注視可
能であるかどうか」の判定が行われる。
【0327】<処理手順DD> [ステップDD1]: 制御部1106は配置情報記憶
部1105を参照し、提示位置Ldに対応する“エント
リHd”を得る。
【0328】[ステップDD2]: また、配置情報記
憶部1105を参照し、“ラベル情報A”の内容を調べ
ることによって、“指示対象R”に対応する“エントリ
Hr”を得る。
【0329】[ステップDD3]: “エントリHd”
と“エントリHr”が得られたならば、制御部1106
は“エントリHd”の“代表位置情報B”の値(Xd,
Yd,Zd)、および“方向情報C”の値(Id,J
d,Kd)、および、“エントリHr”の“代表位置情
報B”の値(Xr,Yr,Zr)を参照し、ベクトル
(Xd−Xr,Yd−Yr,Zd−Zr)とベクトル
(Id,Jd,Kd)の内積の値Idを計算する。
【0330】[ステップDD4]: 次に制御部110
6は求められた内積の値Idが正の値であるか負の値で
あるかを判断する。その結果、正の値である場合は、
“エントリHd”に対応する“提示位置Ld”に提示す
る擬人化エージェントから、“エントリHr”に対応す
る指し示しジェスチャGの“参照先R”を「注視可能」
と判断し、負である場合には「注視不可能」と判断す
る。
【0331】また、以下の“<処理手順EE>”によっ
て、フィードバック生成部1103によって、ある提示
位置Leを想定した際に、擬人化エージェントが、例え
ば、ジェスチャの行われている位置や、あるいは指し示
しジェスチャの参照先などの、“注視対象Z”を注視す
る擬人化エージェントの表情が生成される。
【0332】<処理手順EE> [ステップEE1]: 制御部1106は配置情報記憶
部1105を参照し、提示位置Leに対応する“エント
リHe”を得る。
【0333】[ステップEE2]: また、配置情報記
憶部1105を参照し、“ラベル情報A”の内容を調べ
ることによって、注視対象zに対応する“エントリH
z”を得る。
【0334】[ステップEE3]: 次に制御部110
6は“エントリHe”の“代表位置情報B”の値(X
e,Ye,Ze)、および、“エントリHz”の“代表
位置情報B”の値(Xz,Yz,Zz)を参照し、ベク
トルVf=(Xe−Xz,Ye−Yz,Ze−Ze)を
得る。
【0335】[ステップEE4]: “エントリHe”
と“ベクトルVf”が求められたならば、制御部110
6は次に“エントリHe”の“方向情報C”から得られ
る提示位置Leの基準方向を正面とした場合で擬人化エ
ージェントが“べクトルVf”の方向を向く表情を作成
する。このような表情作成には本発明者等が提案し、特
許出願した例えば、「身体動作生成装置および身体動作
動作制御方法(特願平8−57967号)」に開示の技
術などが適用可能である。
【0336】このようにして、制御部1106は、擬人
化エージェントから利用者のジェスチャ入力位置が注視
可能か否かを判定し、ある擬人化エージェントの提示位
置Lcを想定した場合に、利用者から擬人化エージェン
トを観察可能であるか否かを判断し、ある擬人化エージ
ェントの提示位置Ldを想定した場合に、擬人化エージ
ェントから、現在注目しているある指し示しジェスチャ
Gの指示対象Rが注視可能であるか否か判断し、注視可
能であれば注視対象Zを注視する擬人化エージェントの
表情を生成する。また、注視不可能の場合や認識失敗の
場合はそれを端的に示すジェスチャの擬人化エージェン
トを表示する。
【0337】以上が、本発明にかかるマルチモーダルイ
ンタフェース装置およびマルチモーダルインタフェース
方法の構成と機能及び主要な処理の流れである。続い
て、本発明にかかるマルチモーダルインタフェース装置
の動作の様子を、図を参照しながら、具体例を用いて更
に詳しく説明する。
【0338】<第2の具体例装置の具体な動作例>ここ
では、カメラを用いた入力部1101と画像認識技術と
により、利用者の顔の位置、向き、および指し示しのた
めのハンドジェスチャの行われている位置、方向、およ
び参照先の位置情報を得る認識部1102と、利用者と
システムとの自然な対話を進めるために重要な擬人化エ
ージェントのCGを生成するフィードバック生成部11
03と、2つのディスプレイ装置を出力部1104とし
て持つ、本発明の第2の実施例に基づくマルチモーダル
インタフェース装置に向かって、利用者が指し示しジェ
スチャ入力を行うという設定で具体的動作を説明する。
【0339】図16は、この動作例の状況を説明する図
である。図16において、X,Y,Zは世界座標系の座
標軸を表している。また、P1,P2,P3,〜P9は
それぞれ場所であり、これらのうち、場所P1(P1の
座標=(10,20,40))は、“提示場所1”の代
表位置を表しており、場所P1から描かれた矢印V1
(V1の先端位置座標=(10,0,1))は、“提示
場所1”の法線方向を表すベクトルである。
【0340】同様に、場所P2(P2の座標=(−2
0,0,30))は、“提示位置2”の代表位置を表し
ており、場所P2から描かれた矢印V2(V2の先端位
置座標=(10,10,−1))は、“提示場所2”の
法線方向を表すベクトルである。
【0341】また、場所P3(P3の座標=(40,3
0,50))は、認識部1102から得られる現在の利
用者の顔を代表位置を表しており、場所P3から描かれ
た矢印V3(V3の先端位置座標=(−4,−3,−1
0))は、利用者の顔の向きを表すベクトルである。ま
た、場所P4(P4の座標=(40,10,20))
は、ある時点(T2〜T8)において、利用者が指し示
しジェスチャを行った際の指の先端位置を表しており、
場所P4から描かれたV4(V4の先端位置座標=(−
1,−1,−1))は、その指し示しジェスチャの方向
を表すベクトルである。
【0342】また、場所P5(P5の座標=(20,1
0,20))は、ある時点(T14〜T15)におい
て、利用者が指し示しジェスチャを行った際の指の先端
位置を表しており、場所P5から描かれたV5(V5の
先端位置座標=(−1,−1,−1))は、その指し示
しジェスチャの方向を表すべクトルである。
【0343】また、場所P8(P8の座標=(30,
0,10))は、ある時点(T2〜T8)において、利
用者が行った指し示しジェスチャの指示対象である“物
体A”の代表位置を表している。また、場所P9(P9
の座標=(0,−10,0))は、ある時点(T14〜
T15)において、利用者が行った指し示しジェスチャ
の指示対象である“物体B”の代表位置を表している。
【0344】なお、以上の代表位置および方向に関する
情報は、予め用意されるか、あるいは入力部1101か
ら得られる画像情報などを解析する認識部1102によ
って検知され、配置情報記憶部1105に随時記録され
るようにしている。
【0345】続いて、処理の流れに沿って説明を行う。
【0346】<処理例1>ここでは、利用者が指し示し
ジェスチャ入力を行った際に、そのフィードバック情報
として、参照先を注視する擬人化エージェントの表情を
利用者に提示するための処理例を説明する。
【0347】[T1]: 最初、場所P1に対応する
“提示場所1”に擬人化エージェントが表示されている
ものとする。
【0348】[T2]: ここで、利用者が“物体A”
への指し示しジェスチャ(G1とする)を開始したとす
る。
【0349】[T3]: 入力部1101からの入力画
像を解析する認識部1102が、ジェスチャG1の開始
を検知して、動作状況情報として制御部1106に通知
する。
【0350】[T4]: 制御部1106では“<処理
手順AA>”のステップAA1からAA2へと処理を進
める。
【0351】[T5]: 制御部1106はステップA
A2の処理においてで、まず、図15に示した配置情報
記憶部1105の“エントリQ1”と“エントリQ4”
を参照した“<処理手順BB>”に基づく処理によっ
て、現在の擬人化エージェントの提示位置P1から、ジ
ェスチャG1の行われている位置P4が注視可能である
ことが判明する。
【0352】[T6]: また、図15に示した配置情
報記憶部1105の“エントリQ1”と“エントリQ
3”を参照した“<処理手順CC>”に基づく処理によ
って、現在の利用者の顔の位置であるP3から、現在の
擬人化エージェントの提示位置P1が観察可能であるこ
とが判明する。
【0353】[ステップT7]: 次に制御部1106
はステップAA6の処理へと進み、“<処理手順EE
>”に基づく処理を実行することにより、フィードバッ
ク生成部1103により、現在利用者が行っているジェ
スチャG1を注視する擬人化エージェントの表情を生成
し、出力部1104を通じて利用者に提示させる。
【0354】以上の処理によって、利用者がジェスチャ
入力を開始した際に、フィードバック情報として、ジェ
スチャ入力を行っている利用者の手や指などを注視する
擬人化エージェントの表情を、利用者に提示することが
出来る。
【0355】[T8]: 次に制御部1106はステッ
プAA12の処理に移る。ここでは、ジェスチャG1が
入力部1101の観察範囲から外れたか否かを判断す
る。
【0356】なお、ジェスチャG1は入力部1101の
観察範囲から逸脱しなかっとし、その結果、ステップA
A14ヘ進んだものとする。
【0357】[T9]: 制御部1106はステップA
A14において、利用者のジェスチャが終了を指示した
か否かを認識部1102の動作状況情報から判断する。
いま、ジェスチャG1の終了が認識部1102から動作
状況情報として通知されたものとする。従って、この場
合、ジェスチャG1の終了を制御部1106は認識す
る。
【0358】[T10]: 次に制御部1106はステ
ップAA15の処理に移る。当該処理においては、ジェ
スチャが指し示しジェスチャであるかを判断する。そし
て、この場合、ジェスチャG1は指し示しジェスチャで
あるので、認識部1102から得られる動作状況情報に
基づいて、ステップAA16へ進む。
【0359】[T11]: 制御部1106はステップ
AA16の処理において、まず、図15に示した配置情
報記憶部1105の“エントリQ1”と“エントリQ
8”を参照した“<処理手順D>”に基づく処理を行
う。そして、これにより、ジェスチャG1の指示示対象
である“物体A”を擬人化エージェントから注視可能で
あることを知る。
【0360】[T12]: また、図15に示した配置
情報記憶部1105の“エントリQ1”と“エントリQ
3”を参照した“<処理手順CC>”に基づく処理によ
って、利用者から擬人化エージェントを観察可能である
ことも判明し、ステップAA20への処理へと移る。
【0361】[T13] ステップAA20において、
制御部1106は図15に示した配置情報記憶部110
5の“エントリQ1”と“エントリQ8”を参照した
“<処理手順EE>”に基づく処理を実施し、これによ
って、ジェスチャG1の参照先である“物体A”の場所
P8を注視するエージェント表情を利用者に提示させ
る。そして、ステップAA1ヘ戻る。
【0362】以上の処理によって、利用者が指し示しジ
ェスチャ入力を行った際に、そのフィードバック情報と
して、参照先を注視する擬人化エージェントの表情を利
用者に提示することが可能となる。
【0363】続いて、条件の異なる別の処理例を示す。
【0364】<処理例2> [T21]: 利用者から、場所P9にある“物体B”
を参照する、指し示しジェスチャG2の入力が開始され
始めたとする。
【0365】[T22]: ステップT2〜T7での処
理と同様の処理によって、ジェスチャG2を注視する擬
人化エージェント表情が利用者に提示される。
【0366】[T23]: ステップAA16で、ま
ず、図15に示した配置情報記憶部1105の“エント
リQ1”と“エントリQ9”を参照した“<処理手順B
B>”に基づく処理によって、現在の擬人化エージェン
トの提示位置P1から、ジェスチャG2の行われている
位置P9が注視不可能であることが判明する。
【0367】[T24]: ステップAA17におい
て、図15に示した配置情報記憶105のエントリQ1
およびエントリQ2など全ての提示位置に対応するエン
トリを、“<処理手順DD>”に基づく処理によって判
定することによって、ジェスチャG1の指示対象である
物体Bを、擬人化エージェントが注視可能で、かつ利用
者の位置であるP3から観察可能な提示位置が検索さ
れ、提示位置2に対応する場所P2が得られる。
【0368】[T25]: ステップAA19へ進み、
出力部1104を通じて擬人化エージェントを場所P2
へ移動させ、ステップAA20へ進む。
【0369】[T26]: 前記T13と同様の処理に
よって、指示対象である“物体B”を注視する擬人化エ
ージェン卜の表情が、ジェスチャG2に対するフィード
バックとして利用者に提示される。
【0370】制御部1106による以上の処理の結果、
利用者が行った指し示しジェスチャの参照先が擬人化エ
ージェントから注視できない場所にあった場合でも、適
切な位置に擬人化エージェントが移動されるようにした
ことで、適切なフィードバックを利用者に提示すること
が可能となる。
【0371】その他、利用者が行ったジェスチャ入力
を、擬人化エージェントが注視できない場合には、ステ
ップAA3の処理によって、適切な位置に擬人化エージ
ェントを移動させることで、適切なフィードバックを利
用者に提示することが可能となる。また、そのような移
動が不可能である場合には、ステップAA7〜AA11
の処理によって、「うなずき」の表情がフィードバック
として提示される。
【0372】また、利用者の行っているジェスチャ入力
の途中で、例えばジェスチャ入力を行っている手が、カ
メラの撮影視野から外れるなどした場合には、ステップ
AA12〜AA13の処理によって、「驚きの表情」が
フィードバックとして利用者に提示される。
【0373】また、利用者の入力したジェスチャ入力
が、指し示しジェスチャ以外の種類である場合にも、ス
テップAA21〜AA25の処理によって、必要に応じ
て擬人化エージェントの表示位置を移動させた上で、
「うなずき」の表情がフィードバックとして提示され
る。また、利用者の入力したジェスチャの認識に失敗し
た場合にも、ステップAA27の処理によって、擬人化
エージェントの「謝罪」の表情がフィードバックとして
利用者に提示される。
【0374】かくして、このように構成された本装置に
よれば、利用者が、離れた位置からや、機器に接触せず
に、かつ、機器を装着せずに、遠隔で指し示しジェスチ
ャを行うことが出来、かつ、ジェスチャ認識方式の精度
が十分に得られないために発生する誤認識やジェスチャ
抽出の失敗を抑制することが可能となる。
【0375】また、利用者が入力意図したジェスチャを
開始した時点あるいは入力を行っている途中の時点で
は、システムがそのジェスチャ入力を正しく抽出してい
るかどうか分からないため、結果として誤認識を引き起
こしたり、あるいは、利用者が再度入力を行わなくては
ならなくなるなどして発生する利用者の負担を抑制する
ことができるようになる。
【0376】また、実世界の場所やものなどを参照する
ための利用者からの指し示しジェスチャ入力に対して、
その指し示し先として、どの場所、あるいはどの物体あ
るいはそのどの部分を受け取ったかを適切に表示するこ
とが可能となる。さらに、前述の問題によって誘発され
る従来方法の問題である、誤動作による影響の訂正や、
あるいは再度の入力によって引き起こされる利用者の負
担や、利用者の入力の際の不安による利用者の負担を解
消することができる。
【0377】さらに、擬人化インタフェースを用いたイ
ンタフェース装置、およびインタフェース方法では、利
用者の視界、および擬人化エージェントから視界などを
考慮した、適切なエージェントの表情を生成し、フィー
ドバックとして提示することが可能となる。
【0378】尚、本発明にかかるマルチモーダルインタ
フェース装置およびマルチモーダルインタフェース方法
の実施形態は、上述した例に限定されるものではない。
例えば、上述の実施例では、カメラを用いて取り込んだ
画像から利用者のジェスチャおよび顔等などの位置や向
きの認識処理を行うようにしているが、これを例えば、
磁気センサ、赤外センサ、データグローブ、あるいはデ
ータスーツなどを用いた方法によって実現することも可
能である。また、上述の実施例では、擬人化エージェン
トの注視の表情によって、指し示し先のフィードバック
を実現しているが、例えば、擬人化エージェントが指示
対象を手で指し示す動作をすることなどによって指し示
し先のフィードバックを実現することも可能である。
【0379】また、上述の実施例では、一箇所の場所を
指すポインティングによる指し示しジェスチャの入力を
例として説明したが、例えば空間中のある広がりを持っ
た領域を囲う動作によるサークリングジェスチャなどに
対して、例えばサークリングを行っている指先を、擬人
化エージェントが随時注視することなどによって、フィ
ードバック行うよう構成することも可能である。
【0380】また、上述の実施例では、配置情報記憶部
の内容のうち、例えば、出力部に関するエントリを予め
用意しておくよう構成していたが、例えば、出力部など
に、例えば、磁気センサなどを取り付けたり、あるいは
入力部などによって周囲環境の変化を随時観察し、出力
部や利用者の位置などが変更された場合に、動的に配置
情報記憶部の内容を更新するように構成することも可能
である。
【0381】また、上述の実施例では、利用者の指し示
したジェスチャの指示対象を擬人化エージェントが注視
するよう構成し、これにより、システムの側で認識でき
なくなったり、システム側での認識結果が誤っていない
かなどが、利用者の側で直感的にわかるようにしていた
が、逆にたとえば擬人化エージェントが、例えばフロッ
ピドライブの物理的な位置を利用者に教える場合などに
も、擬人化エージェントがその方向を見るように表示す
ることで、擬人化エージェントの目配せによる指示によ
り利用者がその対象の位置を認識し易くするように構成
することも出来る。
【0382】あるいは、上述の実施例では、たとえば、
利用者や擬人化エージェントから、ある位置が注視可能
あるいは観察可能であるかを、それらの方向ベクトルに
垂直な平面との位置関係によって判定を行っているが、
例えば、円錐状の領域によって判定を行ったり、あるい
は実際の人間の視界パターンを模擬した領域形状によっ
て判定を行うよう構成することも可能である。あるい
は、上述の実施例では、CRTディスプレイに表示され
る擬人化エージェントによる実施例を示したが、例え
ば、ホログラフなどの三次元表示技術を利用した出力部
を用いて、本発明を実現することも可能である。
【0383】また、本発明の出力部は、一つの表示装置
によって実現することも可能であるし、あるいは物理的
に複数の表示装置を用いて実現することも可能である
し、あるいは物理的には一つである表示装置の複数の領
域を用いて実現することも可能である。あるいは、例え
ば図12に示した様な汎用コンピュータを用い、上述の
処理手順に基づいて作成されたプログラムを、例えば、
フロッピディスクなど外部記憶媒体に記録しておき、こ
れをメモリに読み込み、例えば、CPU(中央演算装
置)などで実行することによっても、本発明を実現する
ことも可能である。
【0384】以上、第2の実施例に示す本発明は、利用
者からの音声入力を取り込むマイク、あるいは利用者の
動作や表情などを観察するカメラ、あるいは利用者の目
の動きを検出するアイトラッカ、あるいは頭部の動きを
検知するヘッドトラッカー、あるいは手や足など体の一
部あるいは全体の動きを検知する動きセンサ、あるいは
利用者が装着しその動作などを取り込むデータグロー
ブ、あるいはデータスーツ、あるいは利用者の接近、離
脱、着席などを検知する対人センサなどのうち、少なく
とも一つからなり、利用者からの入力を随時取り込んで
入力情報として出力する入力手段と、該入力手段から得
られる該入力情報を受け取り、音声検出処理、音声認
識、形状検出処理、画像認識、ジェスチャ認識、表情認
識、視線検出処理、あるいは動作認識の少なくとも一つ
の処理を施すことによって、該利用者からの入力を、
「受付中」であること、「受け付け完了」したこと、
「認識成功」したこと、あるいは「認識失敗」したこと
などの如き利用者からの入力の受け付け状況情報を、動
作状況情報として出力する入力認識手段と、警告音、合
成音声、文字列、画像、あるいは動画を用い、フィード
バックとして利用者に提示する出力手段と、該入力認識
手段から得られる該動作状況情報に応じ、該出力手段を
通じて利用者にフィードバック情報を提示する制御手段
とより構成したことを特徴とするものである。
【0385】あるいは、入力手段はカメラ(撮像装置)
などの画像取得手段によって利用者の画像を取り込み、
入力情報として例えば、アナログデジタル変換された画
像情報を出力する手段を用い、入力認識手段は該入力手
段から得られる該画像情報に対して、例えば前時点の画
像との差分抽出やオプティカルフローなどの方法を適用
することで、例えば動領域を検出し、例えばパターンマ
ッチング技術などの手法によって照合することで、入力
画像から、ジェスチャ入力を抽出し、これら各処理の進
行状況を動作状況情報として随時出力する認識手段と
し、制御手段は該入力認識手段から得られる該動作状況
情報に応じて、文字列や画像を、あるいはブザー音や音
声信号などを、例えば、CRTディスプレイやスピーカ
といった出力手段から出力するよう制御する手段とする
ことを特徴とする。さらには、入力手段から得られる入
力情報、および入力認識手段から得られる動作状況情報
の少なくとも一方の内容に応じて、利用者へのフィード
バックとして提示すべき情報であるフィードバック情報
を生成するフィードバック情報生成手段を具備する。ま
た、利用者と対面してサービスを提供する人物、生物、
機械、あるいはロボットなどとして擬人化されたエージ
ェント人物の、静止画あるいは動画による画像情報を、
利用者へ提示する擬人化イメージとして生成するフィー
ドバック情報生成手段と、入力認識手段から得られる動
作状況情報に応じて、利用者に提示すべき擬人化イメー
ジの表情あるいは動作の少なくとも一方を決定し、出力
手段を通じて、例えば、指し示しジェスチャの指し示し
先、あるいは例えば指先や顔や目など、利用者がジェス
チャ表現を実現している部位あるいはその一部など注視
する表情であるフィードバック情報を生成するフィード
バック情報生成手段とを更に設け、制御手段には、利用
者に該フィードバック情報生成手段によって生成された
フィードバック情報を、出力手段から利用者へのフィー
ドバック情報として提示する機能を持たせるようにした
ものである。更には、入力手段の空間的位置、および出
力手段の空間的位置に関する情報、および利用者の空間
的位置に関する情報の少なくとも一つを配置情報として
保持する配置情報記憶手段を設け、入力認識手段には、
利用者の入力した指し示しジェスチャの参照物、利用
者、利用者の顔や手などの空間位置を表す位置情報を出
力する機能を設けると共に、また、配置情報記憶手段か
ら得られる配置情報および該入力認識手段から得られる
位置情報および動作状況情報のうち、少なくとも一つを
参照して擬人化エージェントの動作、あるいは表情ある
いは制御タイミングの少なくとも一つを決定し、フィー
ドバック情報として出力するフィードバック手段とを設
ける構成としたものである。
【0386】そして、このような構成の本システムは、
利用者からの音声入力を取り込むマイク、あるいは利用
者の動作や表情などを観察するカメラ、あるいは利用者
の目の動きを検出するアイトラッカあるいは頭部の動き
を検知するヘッドトラッカー、あるいは手や足など体の
一部あるいは全体の動きを検知する動きセンサ、あるい
は利用者の接近、離脱、着席などを検知する対人センサ
などによる入力手段のうち、少なくとも一つから入力さ
れる利用者からの入力を随時取り込み、入力情報として
得、これを音声検出処理、音声認識、形状検出処理、画
像認識、ジェスチャ認識、表情認識、視線検出処理、あ
るいは動作認識のうち、少なくとも一つの認識処理を施
すことによって、該利用者からの入力に対する受付状況
の情報、すなわち、受付中であること、受け付け完了し
たこと、認識成功したこと、あるいは認識失敗したこ
と、などといった利用者からの入力の受付状況の情報を
動作状況情報として得、得られた動作状況情報に基づい
て、警告音、合成音声、文字列、画像、あるいは動画を
用い、フィードバックとして、利用者に提示するもので
ある。
【0387】また、利用者と対面してサービスを提供す
る人物、生物、機械、あるいはロボットなどとして擬人
化されたエージェント人物の、静止画あるいは動画によ
る画像情報を、フィードバック情報認識手段から得られ
る動作状況情報に応じて、利用者に提示すべき擬人化イ
メージ情報として生成し、これを表示することで、たと
えば音声入力がなされた時点で擬人化エージェントによ
って例えば「うなずき」の表情を提示するなど利用者に
フィードバックを提示する。
【0388】また、認識手段により画像認識して、利用
者の入力した指し示しジェスチャの参照物、利用者、利
用者の顔や手などの空間位置に関する情報である位置情
報を得、配置情報記憶手段により入力部の空間的位置、
および出力部の空間的位置に関する情報、および利用者
の空間的位置に関する情報の少なくとも一つを配置情報
として保持し、位置情報、および配置情報、動作状況情
報の少なくとも一つに応じて、例えば、利用者の指し示
しジェスチャの対象である参照物を、随時注視する表情
を提示するなど利用者にフィードバックを提示する。
【0389】このように、利用者がシステムから離れた
位置や、あるいは機器に非接触状態で指し示しジェスチ
ャを認識させ、指示を入力することが出来るようにな
り、かつ、誤認識なくジェスチャ認識を行えて、ジェス
チャ抽出の失敗を無くすことができるようになるマルチ
モーダルインタフェース装置およびマルチモーダルイン
タフェース方法を提供することができる。また、利用者
が入力意図したジェスチャを開始した時点あるいは入力
を行っている途中の時点で、システムがそのジェスチャ
入力を正しく抽出しているか否かを知ることができ、利
用者が再入力を行わなくてはならなくなるな負担を解消
できるマルチモーダルインタフェース装置およびマルチ
モーダルインタフェース方法を提供できる。また、実世
界の場所やものなどを参照するための利用者からの指し
示しジェスチャ入力に対して、その指し示し先として、
どの場所、あるいはどの物体あるいはそのどの部分を受
け取ったかを適切に表示することができるマルチモーダ
ルインタフェース装置およびマルチモーダルインタフェ
ース方法を提供できる。
【0390】なお、第2の実施例に示した本発明は方法
としても適用できるものであり、また、上述の具体例の
中で示した処理手順、フローチャートをプログラムとし
て記述し、実装し、汎用の計算機システムで実行するこ
とによっても同様の機能と効果を得ることが可能であ
る。すなわち、この場合、図12に示したように、CP
U 301,メモリ302,大容量外部記憶装置30
3,通信インタフェース304などからなる汎用コンピ
ュータに、入力インタフェース305a〜305nと、
入力デバイス306a〜306n、そして、出力インタ
フェース307a〜307mと出力デバイス308a〜
308mを設け、入力デバイス306a〜306nとし
て、マイクやキーボード、ペンタブレット、OCR、マ
ウス、スイッチ、タッチパネル、カメラ、データグロー
ブ、データスーツといったものを使用し、そして、出力
デバイス308a〜308mとして、ディスプレイ、ス
ピーカ、フォースディスプレイ、等を用いてCPU 3
01によるソフトウエア制御により、上述の如き動作を
実現することができる。
【0391】すなわち、第1及び第2の実施例に記載し
た手法は、コンピュータに実行させることのできるプロ
グラムとして、磁気ディスク(フロッピーディスク、ハ
ードディスクなど)、光ディスク(CD−ROM、DV
Dなど)、半導体メモリなどの記録媒体に格納して頒布
することもできるので、この記録媒体を用いてコンピュ
ータにプログラムを読み込み、CPU 301に実行さ
せれば、本発明のマルチモーダル対話装置が実現できる
ことになる。
【0392】
【発明の効果】以上示したように本発明は、視線検出等
の技術を用い、利用者の注視対象に応じて他メディアか
らの入力の受付可否や、認識処理、あるいは出力の提示
方法や中断、確認等を制御するようにしたものであっ
て、特に擬人化インターフェースでは例えば顔を見るこ
とによって会話を開始できるようにする等、人間同士の
コミュニケーションでの非言語メッセージの使用法や役
割をシミュレートするようにして適用したものである。
従って、本発明によれば、複数の入出力メディアを効率
的に利用し、高能率で、効果的で、利用者の負担を軽減
する、マルチモーダルインタフェースは実現することが
出来る。
【0393】また、各メディアからの入力の解析精度が
不十分であるため、たとえば、音声入力における周囲雑
音などに起因する誤認識の発生や、あるいはジェスチャ
入力の認識処理において、入力デバイスから刻々得られ
る信号のなかから、利用者が入力メッセージとして意図
した信号部分の切りだしに失敗することなどによる誤動
作が起こらないインタフェースが実現できる。また、音
声入力やジェスチャ入力など、利用者が現在の操作対象
である計算機などへの入力として用いるだけでなく、例
えば周囲の他の人間へ話しかけたりする場合にも利用さ
れるメディアを用いたインタフェース装置では、利用者
が、インタフェース装置ではなく、たとえば自分の横に
いる他人に対して話しかけたり、ジェスチャを示したり
した場合にも、インタフェース装置が自分への入力であ
ると誤って判断をして、認識処理などを行なって、誤動
作を起こり、その誤動作の取消や、誤動作の影響の復旧
や、誤動作を避けるために利用者が絶えず注意を払わな
くてはいけなくなるなどの負荷を解消することによっ
て、利用者の負担を軽減することが出来る。
【0394】また、本来不要な場面には、入力信号の処
理を継続的にして行なわないようにできるため、利用し
ている装置に関与する他のサービスの実行速度や利用効
率を向上することが出来る。
【0395】また、入力モードなどを変更するための特
別な操作が必要なく、利用者にとって繁雑でなく、習得
や訓練が必要でなく、利用者に負担を与えない人間同士
の会話と同様の自然なインタフェースを実現することが
出来る。
【0396】また、例えば音声入力は手で行なっている
作業を妨害することがなく、双方を同時に利用すること
が可能であると言う、音声メディア本来の利点を有効に
活用するインタフェースを実現することが出来る。
【0397】また、提示される情報が提示してすぐ消滅
したり、刻々変化したりする一過性のメディアも用いて
利用者に情報提示する際にも、利用者がそれらの情報を
受け損なうことのないインタフェースを実現することが
出来る。
【0398】また、一過性のメディアも用いて利用者に
情報提示する際、利用者が一度に受け取れる分量毎の情
報を提示し、継続する次の情報を提示する場合にも、特
別な操作が不要なインタフェースを実現することが出来
る。
【0399】また、従来のマルチモーダルインタフェー
ス不可能であった視線一致(アイコンタクト)、注視位
置、身振り、手振りなどのジェスチャ、顔表情など非言
語メッセージを、効果的活用することが出来る。
【0400】つまり本発明によって、複数の入出力メデ
ィアを効率的に利用し、高能率で、効果的で、利用者の
負担を軽減する、インタフェースが実現できる。
【0401】また、本発明は、利用者が入力を意図した
音声やジェスチャを、自然且つ、円滑に入力可能にする
ものであり、利用者からのジェスチャ入力を検知した際
に、擬人化エージェントの表情によって、ジェスチャ入
力を行う手などを随時注視したり、あるいは指し示しジ
ェスチャに対して、その参照対象を注視することによっ
て、利用者へ自然なフィードバックを提示し、さらに、
その際、利用者や擬人化エージェン卜の視界、あるいは
参照対象等の空間的位置を考慮して、擬人化エージェン
トを適切な場所に移動、表示するよう制御するようにし
たもので、このような本発明によれば、利用者が離れた
位置や、あるいは機器に接触せずに、かつ、機器を装着
せずに、遠隔で指し示しジェスチャを行うことが出来、
かつ、ジェスチャ認識方式の精度が十分に得られないた
めに発生する誤認識やジェスチャ抽出の失敗を抑制する
ことが可能となる。
【0402】また、利用者が入力意図したジェスチャを
開始した時点あるいは入力を行っている途中の時点で
は、システムが、そのジェスチャ入力を正しく抽出して
いるかどうかが分からないため、結果として誤認識を引
き起こしたり、あるいは、利用者が再度入力を行わなく
てはならなくなるなどして発生する利用者の負担を抑制
することが可能となる。また、実世界の場所やものなど
を参照するための利用者からの指し示しジェスチャ入力
に対して、その指し示し先として、どの場所、あるいは
どの物体あるいはそのどの部分を受け取ったかを適切に
表示することが可能となる。さらに、利用者の視界、お
よび擬人化エージェントから視界などを考慮した、適切
なエージェントの表情を生成し、フィードバックとして
提示することが可能となる。
【0403】さらに、前述の問題によって誘発される従
来方法の問題である、誤動作による影響の訂正や、ある
いは再度の入力によって引き起こされる利用者の負担
や、利用者の入力の際の不安による利用者の負担を解消
することができる等の実用上多大な効果が奏せられる。
【図面の簡単な説明】
【図1】本発明を説明するための図であって、本発明の
一具体例としてのマルチモーダル装置の構成例を示す
図。
【図2】本発明を説明するための図であって、本発明装
置において出力される注視対象情報の例を示す図。
【図3】本発明を説明するための図であって、本発明装
置における他メディア入力部102の構成例を示す図。
【図4】本発明を説明するための図であって、本発明装
置における擬人化イメージ提示部103の出力を含むデ
ィスプレイ画面の例を示す図。
【図5】本発明を説明するための図であって、本発明装
置における情報出力部104の構成例を示す図。
【図6】本発明を説明するための図であって、本発明装
置における制御部107の内部構成の例を示す図。
【図7】本発明を説明するための図であって、本発明装
置における制御規則記憶部202の内容の例を示す図。
【図8】本発明を説明するための図であって、本発明装
置における解釈規則記憶部203の内容の例を示す図。
【図9】本発明を説明するための図であって、本発明装
置における処理手順Aの流れを示す図。
【図10】本発明を説明するための図であって、本発明
装置における各時点における本装置の内部状態を説明す
る図。
【図11】本発明を説明するための図であって、本発明
装置の擬人化イメージ提示部103において使用する一
例として擬人化エージェント人物の画像を示す図。
【図12】本発明を説明するための図であって、本発明
を汎用コンピュータで実現するための装置構成例を示す
ブロック図。
【図13】本発明を説明するための図であって、本発明
の第2の実施例に関わるマルチモーダルインタフェース
装置の構成例を示すブロック図。
【図14】本発明を説明するための図であって、画像入
力を想定した場合における第2の実施例での入力部11
01および認識部1102の構成例を示すブロック図。
【図15】本発明を説明するための図であって、本発明
の第2の実施例における配置情報記憶部1105の保持
内容の一例を示す図。
【図16】本発明を説明するための図であって、本発明
の第2の実施例における動作例を示す状況の説明図。
【図17】本発明を説明するための図であって、本発明
の第2の実施例における制御部1106における“<処
理手順AA>”の内容例を示すフローチャート。
【図18】本発明を説明するための図であって、本発明
の第2の実施例における図17のフローチャートの部分
詳細を示す図。
【図19】本発明を説明するための図であって、本発明
の第2の実施例における図17のフローチャートの部分
詳細を示す図。
【図20】本発明を説明するための図であって、本発明
の第2の実施例における図17のフローチャートの部分
詳細を示す図。
【符号の説明】
101…注視対象検出部 102…他メディア入力部 102a…音声認識装置 102b…文字認識装置 102c…言語解析装置 102d…操作入力解析装置 102e…画像認識装置 102f…ジェスチャ解析装置 102g…マイク 102h…キーボード 102i…ペンタブレット 102j…OCR 102k…マウス 102l…スイッチ 102m…タッチパネル 102n…カメラ 102o…データグローブ 102p…データスーツ 103…擬人化イメージ提示部 104…情報出力部 104a…文字画像信号生成装置 104b…音声信号生成駆動装置 104c…機器制御信号生成装置 105…注意喚起部 106…反応検知部 107…制御部 201…制御処理実行部 202…制御規則記憶部 203…解釈規則記憶部。 1101…入力部 1102…認識部 1103…フィードバック生成部 1104…出力部 1105…配置情報記憶部 1106…制御部 1201…カメラ 1202…A/D変換部 1203…画像メモリ 1204…注目領域推定部 1205…照合部 1206…認識辞書記憶部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 屋野 武秀 兵庫県神戸市東灘区本山南町8丁目6番26 号 株式会社東芝関西研究所内 (72)発明者 田中 克己 兵庫県神戸市東灘区本山南町8丁目6番26 号 株式会社東芝関西研究所内

Claims (21)

    【特許請求の範囲】
  1. 【請求項1】利用者の注視対象を検出する検出手段と、 前記利用者の音声入力情報、操作入力情報、画像入力情
    報及び利用者の動作情報のうち、少なくとも一つ以上の
    情報を受け、その情報の中から対象装置の制御に必要な
    情報を選別する制御手段と、を備えたことを特徴とする
    マルチモーダルインタフェース装置。
  2. 【請求項2】利用者に対して応対する擬人化されたエー
    ジェント画像を供給する擬人化イメージ提供手段と、 前記利用者の注視対象を検出する検出手段と、 前記利用者の音声入力情報、操作入力情報、画像入力情
    報のうち、少なくとも一つ以上の入力情報を取得するメ
    ディア入力手段と、 前記検出手段により得られる注視対象情報を基に、前記
    利用者の注視対象が擬人化イメージ提示手段により提示
    されるエージェント画像のいずれの部分かを認識して、
    その認識結果とエージェント画像の状態に応じ前記メデ
    ィア入力認識手段からの入力の受付選択をする制御手段
    と、を備えたことを特徴とするマルチモーダルインタフ
    ェース装置。
  3. 【請求項3】利用者と対面してサービスを提供する擬人
    化されたエージェン卜人物の画像であって、該エージェ
    ント人物画像は前記利用者に、所要のジェスチャ、表情
    変化を持つ画像による非言語メッセージとして当該画像
    を提示する擬人化イメージ提示手段と、 前記注視対象情報を参照して、メディア入力認識手段か
    らの入力の受付選択する際に、擬人化イメージ提示手段
    を通じて前記利用者への非言語メッセージによる信号を
    提示すべく制御する制御手段と、を具備したことを特徴
    とする請求項2に記載のマルチモーダルインタフェース
    装置。
  4. 【請求項4】利用者の注視対象を検出する検出手段と、 利用者への音声情報、あるいは操作情報、あるいは画像
    情報を出力する情報出力手段と、 利用者への音声情報、操作情報、画像情報のうち、少な
    くとも一つ以上の情報を受け、その情報の中から対象装
    置の制御に必要な情報を選別する第1の制御手段と前記
    注視対象情報を参照して、少なくとも一つの情報出力手
    段の、出力の開始、終了、中断、再開、あるいは提示速
    度の調整動作を制御する第2の制御手段と、を備したこ
    とを特徴とするマルチモーダルインタフェース装置。
  5. 【請求項5】利用者の注視対象を検出する検出手段と、 前記利用者の音声入力情報、操作入力情報、画像入力情
    報のうち、少なくとも一つ以上の情報を取得するメディ
    ア入力手段と、 利用者と対面してサービスを提供する擬人化されたエー
    ジェント人物の画像であって、該エージェント人物画像
    は利用者に所要のジェスチャ、表情変化を持つ画像によ
    る非言語メッセージとして当該画像を提示する擬人化イ
    メージ提示手段と、 文字情報、音声情報、静止画像情報、動画像情報の少な
    くとも一つの信号の提示により、前記利用者に対して情
    報を出力する情報出力手段と、 前記擬人化イメージ提示手段を通しての非言語メッセー
    ジの提示により、前記利用者の注意を喚起する注意喚起
    手段と、 注視対象情報あるいは、前記メディア入力手段からの入
    力情報のうち、少なくとも一つの情報を参照して、前記
    注意喚起のための信号に対する利用者の反応を検知し、
    利用者反応情報として出力する反応検知手段と、 該注視対象情報に応じて、少なくとも一つのメディア入
    力処理手段の、入力受付可否、処理あるいは認識動作の
    開始、終了、中断、再開、処理レベル調整の動作を制御
    し、注視対象情報を参照してメディア入力認識手段から
    の入力を受付可否を切替える際に、利用者へ、文字情
    報、音声情報、静止画像情報、動画像情報、あるいは擬
    人化イメージ提示手段を通じて利用者への非言語メッセ
    ージによる信号を提示すべく制御し、該注視対象情報を
    参照して、少なくとも一つの情報出力手段の、出力の開
    始、終了、中断、再開、処理レベル調整の動作を制御
    し、情報出力手段から情報を提示する際に、注視対象情
    報に応じて、注意喚起手段を通じて、前記利用者の注意
    を喚起するための信号を提示するよう制御し、前記利用
    者反応情報の内容に応じて、情報出力手段の動作および
    注意喚起手段の少なくとも一つを制御する制御手段と、
    を具備したことを特徴とするマルチモーダルインタフェ
    ース装置。
  6. 【請求項6】利用者の注視対象を検出し、 前記利用者の音声、ジェスチャ、操作手段による利用者
    の操作情報などのうち、少なくとも一つの情報への処理
    について、前記注視対象情報に応じて、入力受付の選
    択、処理あるいは認識動作の開始、終了、中断、再開、
    処理レベルの調整の動作を制御することを特徴とするマ
    ルチモーダルインタフェース方法。
  7. 【請求項7】利用者の注視対象を検出するとともに、 状況対応に変化すると共に、前記利用者と対面してサー
    ビスを提供する擬人化されたエージェント人物の画像を
    画像情報として利用者へ提示し、 また、注視対象情報を基に、注視対象が前記エージェン
    卜人物画像のどの部分かに応じて、前記利用者の音声、
    ジェスチャ、操作手段による利用者の操作情報の受付を
    選別することを特徴とするマルチモーダルインタフェー
    ス方法。
  8. 【請求項8】文字情報、音声情報、静止画像情報、動画
    像情報の少なくとも一つの信号の提示によって、利用者
    に情報を提供するにあたり、利用者の注視対象を検出
    し、この検出された注視対象情報を参照して、前記提示
    の開始、終了、中断、再開、処理レベル調整の動作を制
    御することを特徴とするマルチモーダルインタフェース
    方法。
  9. 【請求項9】請求項8記載のマルチモーダルインタフェ
    ース方法において、 情報を提示する際に、注視対象情報に応じて、利用者
    へ、文字情報、音声情報、静止画像情報、動画像情報の
    少なくとも一つの信号の提示によって、利用者の注意を
    喚起することを特徴とするマルチモーダルインタフェー
    ス方法。
  10. 【請求項10】請求項9記載のマルチモーダルインタフ
    ェース方法において、 注意喚起のための信号に対する利用者の反応を検知し、
    利用者反応情報として得ると共に、 利用者反応情報内容に応じて、利用者の音声入力情報、
    操作入力情報、画像入力情報の取得および注意喚起の少
    なくとも一つを制御するマルチモーダルインタフエース
    方法。
  11. 【請求項11】利用者の注視対象を検出して注視対象情
    報として出力し、 前記利用者に対面してサービスを提供する擬人化された
    エージェント人物画像であって該エージェント人物画像
    は前記利用者に所要のジェスチャ、表情変化を持つ画像
    による非言語メッセージとして提示するようにし、 また、文字情報、音声情報、静止画像情報、動画像情報
    の少なくとも一つの信号の提示によって、前記利用者に
    情報を出力し、 前記利用者の音声入力情報、ジェスチャ入力情報、操作
    入力情報のうち、少なくとも一つ以上の情報を受け、処
    理を行なう際に、注視対象情報に応じて、入力受付可
    否、処理あるいは認識動作の開始、終了、中断、再開、
    処理レベル調整の動作を制御することを特徴とするマル
    チモーダルインタフェース方法。
  12. 【請求項12】請求項11記載のマルチモーダルインタ
    フェース方法において、 注視対象情報を参照して、入力の受付可否を切替える際
    に、利用者へ、文字情報、音声情報、静止画像情報、動
    画像情報あるいは、擬人化イメージ人物画像により所要
    の提示をすることを特徴とするマルチモーダルインタフ
    ェース方法。
  13. 【請求項13】利用者からの各種情報を随時取り込んで
    入力情報として得る入力手段と、 該入力手段から得られる該入力情報を処理して、該利用
    者からの入力の受け付け状況を、動作状況情報として出
    力する入力認識手段と、 警告音、合成音声、文字列、画像、あるいは動画のう
    ち、少なくとも一つを反応結果として利用者に提示する
    出力手段と、 前記入力認識手段から得られる動作状況情報に応じて、
    利用者に提示する反応結果を得るべく前記出力手段を制
    御する制御手段とを具備したことを特徴とするマルチモ
    ーダルインタフェース装置。
  14. 【請求項14】利用者からの音声入力を取り込むマイク
    ロフォン、あるいは利用者の動作や表情などを観察する
    カメラ、あるいは利用者の目の動きを検出するアイトラ
    ッカ、あるいは頭部の動きを検知するヘッドトラッカ、
    あるいは利用者の手や足など体の一部あるいは全体の動
    きを検知する動きセンサ、あるいは利用者の接近、離
    脱、着席などを検知する対人センサなどのうち少なくと
    も一つからなり、利用者からの入力を随時取り込み入力
    情報として出力する入力手段と、 該入力手段から得られる入力情報を受け、音声検出処
    理、音声認識、形状検出処理、画像認識、ジェスチャ認
    識、表情認識、視線検出処理、あるいは動作認識処理の
    うち、前記入力情報の種別に対応した必要な処理を施す
    ことにより利用者からの入力の受付状況を動作状況情報
    として出力する入力認識手段と、 警告音、合成音声、文字列、画像のうち、少なくともい
    ずれかにより、利用者に対する反応として利用者に提示
    する出力手段と、 前記入力認識手段から得られる動作状況情報に応じて、
    利用者に提示する反応結果を得るべく前記出力手段を制
    御する制御手段とを具備したことを特徴とするマルチモ
    ーダルインタフェース装置。
  15. 【請求項15】画像取得手段によって利用者の画像を取
    り込み、画像情報として出力する入力手段と、 該入力手段から得られる画像情報からジェスチャ入力を
    抽出し、これら各処理の進行状況を動作状況情報として
    随時出力する入力認識手段と、 該入力認識手段から得られる該動作状況情報に応じて、
    利用者による入力対応の反応を文字列、画像、あるいは
    音信号のいずれかで提示する手段と、を備えることを特
    徴とするマルチモーダルインタフェース装置。
  16. 【請求項16】利用者からの音声入力を取り込むマイク
    ロフォン、あるいは利用者の動作や表情などを観察する
    カメラ、あるいは利用者の目の動きを検出するアイトラ
    ッカ、あるいは頭部の動きを検知するヘッドトラッカ、
    あるいは利用者の手や足など体の一部あるいは全体の動
    きを検知する動きセンサ、あるいは利用者の接近、離
    脱、着席などを検知する対人センサなどのうち少なくと
    も一つからなり、利用者からの入力を随時取り込み入力
    情報として出力する入力手段と、 該入力手段から得られる入力情報を受け、音声検出処
    理、音声認識、形状検出処理、画像認識、ジェスチャ認
    識、表情認識、視線検出処理、あるいは動作認識処理の
    うち、前記入力情報の種別に対応した必要な処理を施す
    ことにより利用者からの入力の受付状況を動作状況情報
    として出力する入力認識手段と、 前記入力手段から得られる入力情報、および前記入力認
    識手段から得られる動作状況情報の少なくとも一方の内
    容に応じて、利用者へのフィードバックとして提示すべ
    き情報を生成するフィードバック情報生成手段と、を具
    備したことを特徴とするマルチモーダルインタフェース
    装置。
  17. 【請求項17】利用者と対面してサービスを提供する擬
    人化されたエージェント人物の画像情報を、利用者提示
    用の擬人化イメージとして生成するフィードバック情報
    生成手段と、 入力認識手段から得られる動作状況情報に応じて、利用
    者に提示すべき擬人化イメージの表情あるいは動作の少
    なくとも一方を決定し、出力手段を通じて、利用者がジ
    ェスチャ表現を実現している部位を注視する表情である
    フィードバック情報を生成するフィードバック情報生成
    手段と、 前記フィードバック情報生成手段によって生成されたフ
    ィードバック情報を、出力手段から利用者へのフィード
    バック情報として提示する制御手段と、を具備したこと
    を特徴とする請求項16記載のマルチモーダルインタフ
    ェース装置。
  18. 【請求項18】入力手段の空間的位置、および出力手段
    の空間的位置に関する情報、および利用者の空間的位置
    に関する情報の少なくとも一つを配置情報として保持す
    る配置情報記憶手段と、 利用者の入力した指し示しジェスチャの参照物、利用
    者、利用者の顔や手などの空間位置を表す位置情報を出
    力する入力認識手段と、 前記配置情報記憶手段から得られる配置情報と、前記入
    力認識手段から得られる位置情報と、動作状況情報との
    少なくとも一つを参照して、擬人化エージェントの動
    作、あるいは表情あるいは制御タイミングの少なくとも
    一つを決定し、フィードバック情報として出力するフィ
    ードバック手段と、を具備したことを特徴とする請求項
    17のマルチモーダルインタフェース装置。
  19. 【請求項19】利用者からの音声、あるいは利用者の動
    作や表情などを示す画像、あるいは利用者の体の一部あ
    るいは全体の動き、あるいは利用者の接近、離脱、着席
    などの検知情報のうち少なくとも一つからなり、利用者
    からの入力情報として出力する入力ステップと、 該入力ステップにより得られる入力情報をもとに、音声
    検出処理、音声認識、形状検出処理、画像認識、ジェス
    チャ認識、表情認識、視線検出処理、あるいは動作認識
    処理のうち、入力情報種別に応じた処理を施すことによ
    り、該利用者からの入力の受け付け状況を、動作状況情
    報として出力する入力認識ステップと、 利用者からの入力に対する反応の結果を、入力認識ステ
    ップによって得られる動作状況情報に基づいて、警告
    音、合成音声、文字列、画像のいずれかにより利用者に
    提示するステップと、を備えることを特徴とするマルチ
    モーダルインタフェース方法。
  20. 【請求項20】利用者と対面してサービスを提供する擬
    人化されたエージェント人物の画像情報を、入力認識ス
    テップから得られる動作状況情報に応じて、利用者に提
    示すべき擬人化イメージ情報として生成するフィードバ
    ック情報生成ステップと、 利用者からの入力がなされた時点でその反応として擬人
    化エージェントによる反応の表情を提示する利用者フィ
    ードバック提示ステップと、を具備することを特徴とす
    る請求項19記載のマルチモーダルインタフエース方
    法。
  21. 【請求項21】利用者からの音声、あるいは利用者の動
    作や表情などを示す画像、あるいは利用者の体の一部あ
    るいは全体の動き、あるいは利用者の接近、離脱、着席
    などの検知情報のうち少なくとも一つからなり、利用者
    からの入力情報として出力する入力ステップと、 入力ステップにより得られる入力情報に対し、音声検出
    処理、音声認識、形状検出処理、画像認識、ジェスチャ
    認識、表情認識、視線検出処理、あるいは動作認識処理
    のうち、入力情報種別に応じた処理を施すことにより、
    該利用者からの入力の受け付け状況を、動作状況情報と
    して出力する入力認識ステップと、 利用者の入力した指し示しジェスチャの参照物、利用
    者、利用者の特定部位の空間位置に関する情報を出力す
    る認識ステップと、 入力部の空間的位置、および出力部の空間的位置に関す
    る情報、および利用者の空間的位置に関する情報の少な
    くとも一つを配置情報として保持する配置情報記憶ステ
    ップと、 利用者からの入力に対する反応の結果を、入力認識ステ
    ップによって得られる動作状況情報に基づいて、警告
    音、合成音声、文字列、画像のいずれかにより利用者に
    提示し、また、位置情報、および配置情報、動作状況情
    報の少なくとも一つに応じて、利用者の指し示しジェス
    チャに対する反応画像を提示するステップと、からなる
    マルチモーダルインタフェース方法。
JP30395397A 1997-02-28 1997-11-06 マルチモーダルインタフェース装置 Expired - Fee Related JP3886074B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP30395397A JP3886074B2 (ja) 1997-02-28 1997-11-06 マルチモーダルインタフェース装置
US09/030,213 US6118888A (en) 1997-02-28 1998-02-25 Multi-modal interface apparatus and method
US09/593,296 US6345111B1 (en) 1997-02-28 2000-06-13 Multi-modal interface apparatus and method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP4675297 1997-02-28
JP9-46752 1997-02-28
JP30395397A JP3886074B2 (ja) 1997-02-28 1997-11-06 マルチモーダルインタフェース装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2004000494A Division JP2004192653A (ja) 1997-02-28 2004-01-05 マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法

Publications (2)

Publication Number Publication Date
JPH10301675A true JPH10301675A (ja) 1998-11-13
JP3886074B2 JP3886074B2 (ja) 2007-02-28

Family

ID=26386872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30395397A Expired - Fee Related JP3886074B2 (ja) 1997-02-28 1997-11-06 マルチモーダルインタフェース装置

Country Status (1)

Country Link
JP (1) JP3886074B2 (ja)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000200125A (ja) * 1998-12-30 2000-07-18 Fuji Xerox Co Ltd インタフェ―ス
JP2000209378A (ja) * 1999-01-20 2000-07-28 Ricoh Co Ltd 画像形成装置
EP1031935A3 (en) * 1999-02-25 2003-01-15 Kabushiki Kaisha Toshiba Electronic commerce apparatus and electronic commerce method for improving a sales efficiency, and recording medium for storing electronic commerce programs
JP2003520528A (ja) * 2000-01-20 2003-07-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 多様式的ビデオ目標捕捉及び再指向システム及び方法
JP2004527808A (ja) * 2000-10-30 2004-09-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 個人のインタラクションをシミュレートする自己更新式ユーザインタフェース/エンタテインメントデバイス
JP2005164944A (ja) * 2003-12-02 2005-06-23 Canon Inc 動作パラメータ決定装置、電子装置、音声合成装置、対話システム、動作パラメータ決定方法、及びコンピュータで読み取り可能な制御プログラム
JP2006295251A (ja) * 2005-04-05 2006-10-26 Canon Inc 監視用撮像装置及びその制御方法
JP2006302009A (ja) * 2005-04-21 2006-11-02 Mitsubishi Electric Corp ユーザインタフェース装置、家電・住設機器およびユーザインタフェース提示方法
JP2009525529A (ja) * 2006-02-01 2009-07-09 トビー テクノロジー アーベー コンピュータシステムにおけるグラフィカルフィードバックの生成
WO2010064361A1 (ja) * 2008-12-02 2010-06-10 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP2010134152A (ja) * 2008-12-04 2010-06-17 Brother Ind Ltd ヘッドマウントディスプレイ
KR20100119250A (ko) * 2009-04-30 2010-11-09 삼성전자주식회사 모션 정보를 이용하는 음성 검출 장치 및 방법
US7966188B2 (en) 2003-05-20 2011-06-21 Nuance Communications, Inc. Method of enhancing voice interactions using visual messages
JP2011209787A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
WO2012120959A1 (ja) * 2011-03-04 2012-09-13 株式会社ニコン 電子機器、処理システム及び処理プログラム
JP2012185633A (ja) * 2011-03-04 2012-09-27 Nikon Corp 電子機器、処理システム及び処理プログラム
JP2014048936A (ja) * 2012-08-31 2014-03-17 Omron Corp ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
US8886458B2 (en) 2012-05-29 2014-11-11 Fujitsu Limited Neighborhood creating device, neighborhood creating method, and computer-readable recording medium storing program
WO2016052501A1 (ja) * 2014-09-29 2016-04-07 株式会社Nttドコモ ユーザインタフェース装置、プログラム及びコンテンツの通知方法
WO2016177256A1 (zh) * 2015-05-06 2016-11-10 阿里巴巴集团控股有限公司 显示设备的控制方法及装置
JP2017204252A (ja) * 2016-05-14 2017-11-16 株式会社ユピテル システム及びプログラム
WO2017221492A1 (ja) * 2016-06-20 2017-12-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2019202804A1 (ja) * 2018-04-19 2019-10-24 ソニー株式会社 音声処理装置および音声処理方法
JP2020080116A (ja) * 2018-11-14 2020-05-28 本田技研工業株式会社 制御装置、エージェント装置及びプログラム
JP2021530814A (ja) * 2018-07-23 2021-11-11 マジック リープ, インコーポレイテッドMagic Leap, Inc. 位置ベクトルを使用して半球曖昧性を解決するための方法およびシステム
WO2021234839A1 (ja) * 2020-05-20 2021-11-25 三菱電機株式会社 対話予兆検知装置、および、対話予兆検知方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200269421A1 (en) * 2017-10-30 2020-08-27 Sony Corporation Information processing device, information processing method, and program
US20200353366A1 (en) * 2019-05-10 2020-11-12 Golden Poppy, Inc. System and method for augmented reality game system

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000200125A (ja) * 1998-12-30 2000-07-18 Fuji Xerox Co Ltd インタフェ―ス
JP2000209378A (ja) * 1999-01-20 2000-07-28 Ricoh Co Ltd 画像形成装置
EP1031935A3 (en) * 1999-02-25 2003-01-15 Kabushiki Kaisha Toshiba Electronic commerce apparatus and electronic commerce method for improving a sales efficiency, and recording medium for storing electronic commerce programs
JP2003520528A (ja) * 2000-01-20 2003-07-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 多様式的ビデオ目標捕捉及び再指向システム及び方法
JP2004527808A (ja) * 2000-10-30 2004-09-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 個人のインタラクションをシミュレートする自己更新式ユーザインタフェース/エンタテインメントデバイス
US7966188B2 (en) 2003-05-20 2011-06-21 Nuance Communications, Inc. Method of enhancing voice interactions using visual messages
JP2005164944A (ja) * 2003-12-02 2005-06-23 Canon Inc 動作パラメータ決定装置、電子装置、音声合成装置、対話システム、動作パラメータ決定方法、及びコンピュータで読み取り可能な制御プログラム
JP2006295251A (ja) * 2005-04-05 2006-10-26 Canon Inc 監視用撮像装置及びその制御方法
JP2006302009A (ja) * 2005-04-21 2006-11-02 Mitsubishi Electric Corp ユーザインタフェース装置、家電・住設機器およびユーザインタフェース提示方法
US9760170B2 (en) 2006-02-01 2017-09-12 Tobii Ab Generation of graphical feedback in a computer system
JP2009525529A (ja) * 2006-02-01 2009-07-09 トビー テクノロジー アーベー コンピュータシステムにおけるグラフィカルフィードバックの生成
US10452140B2 (en) 2006-02-01 2019-10-22 Tobii Ab Generation of graphical feedback in a computer system
US9213404B2 (en) 2006-02-01 2015-12-15 Tobii Technology Ab Generation of graphical feedback in a computer system
WO2010064361A1 (ja) * 2008-12-02 2010-06-10 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP2010134057A (ja) * 2008-12-02 2010-06-17 Brother Ind Ltd ヘッドマウントディスプレイ
JP2010134152A (ja) * 2008-12-04 2010-06-17 Brother Ind Ltd ヘッドマウントディスプレイ
KR20100119250A (ko) * 2009-04-30 2010-11-09 삼성전자주식회사 모션 정보를 이용하는 음성 검출 장치 및 방법
US9443536B2 (en) 2009-04-30 2016-09-13 Samsung Electronics Co., Ltd. Apparatus and method for detecting voice based on motion information
JP2011209787A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
WO2012120959A1 (ja) * 2011-03-04 2012-09-13 株式会社ニコン 電子機器、処理システム及び処理プログラム
JP2012185633A (ja) * 2011-03-04 2012-09-27 Nikon Corp 電子機器、処理システム及び処理プログラム
US8886458B2 (en) 2012-05-29 2014-11-11 Fujitsu Limited Neighborhood creating device, neighborhood creating method, and computer-readable recording medium storing program
JP2014048936A (ja) * 2012-08-31 2014-03-17 Omron Corp ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
WO2016052501A1 (ja) * 2014-09-29 2016-04-07 株式会社Nttドコモ ユーザインタフェース装置、プログラム及びコンテンツの通知方法
JPWO2016052501A1 (ja) * 2014-09-29 2017-04-27 株式会社Nttドコモ ユーザインタフェース装置、プログラム及びコンテンツの通知方法
WO2016177256A1 (zh) * 2015-05-06 2016-11-10 阿里巴巴集团控股有限公司 显示设备的控制方法及装置
JP2017204252A (ja) * 2016-05-14 2017-11-16 株式会社ユピテル システム及びプログラム
WO2017221492A1 (ja) * 2016-06-20 2017-12-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2019202804A1 (ja) * 2018-04-19 2019-10-24 ソニー株式会社 音声処理装置および音声処理方法
JP2021530814A (ja) * 2018-07-23 2021-11-11 マジック リープ, インコーポレイテッドMagic Leap, Inc. 位置ベクトルを使用して半球曖昧性を解決するための方法およびシステム
JP2024091754A (ja) * 2018-07-23 2024-07-05 マジック リープ, インコーポレイテッド 位置ベクトルを使用して半球曖昧性を解決するための方法およびシステム
JP2020080116A (ja) * 2018-11-14 2020-05-28 本田技研工業株式会社 制御装置、エージェント装置及びプログラム
WO2021234839A1 (ja) * 2020-05-20 2021-11-25 三菱電機株式会社 対話予兆検知装置、および、対話予兆検知方法

Also Published As

Publication number Publication date
JP3886074B2 (ja) 2007-02-28

Similar Documents

Publication Publication Date Title
JP3886074B2 (ja) マルチモーダルインタフェース装置
US6118888A (en) Multi-modal interface apparatus and method
US11409497B2 (en) Hands-free navigation of touch-based operating systems
EP3616050B1 (en) Apparatus and method for voice command context
WO2021242451A1 (en) Hand gesture-based emojis
JP2004192653A (ja) マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法
WO2019216419A1 (ja) プログラム、記録媒体、拡張現実感提示装置及び拡張現実感提示方法
JPWO2017104207A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20240231580A9 (en) System and method for multi modal input and editing on a human machine interface
WO2003044648A2 (en) Method and apparatus for a gesture-based user interface
US11947752B2 (en) Customizing user interfaces of binary applications
US10514755B2 (en) Glasses-type terminal and control method therefor
JP2000250677A (ja) マルチモーダルインターフェース装置及びマルチモーダルインターフェース方法
JP2019079204A (ja) 情報入出力制御システムおよび方法
JP2018077417A (ja) 表示システム、プログラムおよび表示制御方法
JP2020155944A (ja) 発話者検出システム、発話者検出方法及びプログラム
JP2019086858A (ja) 顧客応対システム及び顧客応対方法
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
JP2000187553A (ja) 入力装置および入力装置用ヘッドマウントディスプレイ
US10558951B2 (en) Method and arrangement for generating event data
US20230079969A1 (en) Information processing apparatus, information processing method, and storage medium
JP2017068592A (ja) ロボット、ロボット制御装置、ロボット制御方法、及びプログラム
CN119856141A (zh) 基于注视的命令消歧
US11074024B2 (en) Mobile device for interacting with docking device and method for controlling same
WO2020158218A1 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040405

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050415

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061120

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091201

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101201

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111201

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121201

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121201

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131201

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees