JP2000207170A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法

Info

Publication number
JP2000207170A
JP2000207170A JP11008195A JP819599A JP2000207170A JP 2000207170 A JP2000207170 A JP 2000207170A JP 11008195 A JP11008195 A JP 11008195A JP 819599 A JP819599 A JP 819599A JP 2000207170 A JP2000207170 A JP 2000207170A
Authority
JP
Japan
Prior art keywords
information
information processing
additional information
audio signal
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11008195A
Other languages
English (en)
Inventor
Takashi Sasai
崇司 笹井
Masakazu Hattori
雅一 服部
Hiroshi Tsunoda
弘史 角田
Yasuhiko Kato
靖彦 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11008195A priority Critical patent/JP2000207170A/ja
Publication of JP2000207170A publication Critical patent/JP2000207170A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】利用者には理解しやすい情報提示を行うと共
に、装置間では付加的な情報や誤りの少ない精度の高い
情報のやり取りを実現する。 【解決手段】CPU21は、音声信号に対して、その音
声信号による音声の聞き取りに影響しない態様で付加情
報を付加し、出力音声信号を生成する。付加情報は、例
えば音声信号と関連する情報である。この出力音声信号
による音声をスピーカ12より相手装置に向けて出力す
る。相手装置は、その音声をマイクロフォン13より取
り入れて入力音声信号を得、この音声信号をCPU21
に供給する。CPU21は、その入力音声信号より付加
情報を抽出し、その付加情報に基づく処理をする。例え
ば、音声が表現する自然言語に含まれる語句を表示部1
5に表示する。また例えば、音声が表現する自然言語の
対象領域を付加情報で限定して音声認識処理をする。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、音声による情報
の通信を可能とする情報処理装置および情報処理方法に
関する。詳しくは、音声信号に対しその音声信号による
音声の聞き取りに影響しない態様で付加情報を付加して
出力音声信号を生成し、その出力音声信号を音声に変換
して出力することによって、利用者には音声により理解
しやすい情報提示を行うことができ、装置間では付加的
な情報や誤りの少ない精度の高い情報のやり取りを実現
できるようにした情報処理装置等に係るものである。
【0002】
【従来の技術】複数の情報処理装置間の通信方法として
は、ケーブルなどによって装置間を接続したり、赤外線
や電波などを用いて無線で通信を行う方法がある。一般
には、二つの装置を一対一で接続するが、途中でハブな
どの特別な装置を用いることにより、三つ以上の装置間
での通信を行うこともできる。
【0003】利用者から情報処理装置への入力において
は、音声認識技術を用いることにより、自然言語を介し
た情報伝達を行うことができる。さらに、受信側でその
自然言語を構文解析や意味解析を行うことにより、利用
者に様々なサービスを提供することも可能である。
【0004】また、広範囲の利用者への出力としては、
スピーカを介した音声出力が広く用いられている。音声
が広範囲に伝搬すること、スピーカなど必要となる装置
が比較的安価に実現可能であることなどから、例えば、
駅や店内などの構内アナウンスのシステムなどで実施さ
れている。
【0005】
【発明が解決しようとする課題】ところが、ケーブルな
ど有線によって装置間を接続する方法では、装置にケー
ブルを接続するための端子が必要になり、また、接続の
ためのケーブルが必要になる。さらに、三つ以上の装置
間で通信を行うには、加えてハブ等の特別な装置が必要
になる。このように、通信を行うには事前の準備が必要
となり、即座に通信が行えないという課題があった。
【0006】また、赤外線や電波などを用いる方法で
は、通信を行うためだけに特別な機構を備える必要があ
り、装置の小型化や低価格化の妨げとなるという課題が
あった。
【0007】また一般に、装置間でどのようなデータが
やりとりされているのかは、利用者にはわからない。こ
れを利用者にわかるようにするには、画面表示や音声出
力など、通信路とは別の手段を用いなければならないと
いう課題があった。
【0008】また情報処理装置への入力インタフェース
として音声入力を用いた場合、現状の技術では利用者の
発話を完全に正しく認識することはできない。特に、認
識語彙数が認識性能に大きな影響を与えるため、精度の
高い認識を行うにはなるべく語彙数を制限する必要があ
り、認識の対象を絞り込むなどの工夫を行う必要があっ
た。また、現状の音声認識では、利用者の発話に内在す
る感情などの情報はほとんど得ることはできない。さら
に、構文解析や意味解析においても、発話者の入力意図
を完全に反映したものを導くことは非常に困難である。
【0009】また、音声入出力を備えた情報処理装置に
おいては、対話的に情報交換を行うことが可能であり、
互いに問い合わせをやり取りすることで装置間の情報交
換ができるが、問い合わせの結果わからなかった場合に
は何も情報交換がなされない。このため、再度問い合わ
せるには、利用者は再び音声入力する必要があり、そこ
では認識誤りなどが生じる可能性があり、利用者にとっ
て負担になるという問題があった。
【0010】また利用者への情報提示手段として音声出
力を用いた場合、例えば、現状のアナウンスでは、耳が
聞こえない人には全く情報が伝わらない。さらに自然言
語で表現されているため、利用者が使用する言語の違い
がある場合にも情報が伝わらない。また、音声による店
内アナウンスでは利用者がその場所の地理に精通してい
ない場合が多く、言葉で表現された場所などもわかりに
くい。
【0011】そこで、この発明では、上述した課題を解
決し得る情報処理装置および情報処理方法を提供するこ
とを目的とする。
【0012】
【課題を解決するための手段】請求項1の発明に係る情
報処理装置は、音声信号を発生する音声信号発生手段
と、付加情報を発生する付加情報発生手段と、音声信号
に対しその音声信号による音声の聞き取りに影響しない
態様で付加情報を付加して出力音声信号を生成する情報
付加手段と、出力音声信号による音声を出力する音声出
力手段とを備えるものである。
【0013】請求項17の発明に係る情報処理装置は、
音声を入力しその音声に対応する入力音声信号を得る音
声入力手段と、入力音声信号に付加されている付加情報
を抽出する付加情報抽出手段と、抽出された付加情報を
使用した処理をする情報処理手段とを備えるものであ
る。
【0014】請求項38の発明に係る情報処理装置は、
音声信号を発生する音声信号発生手段と、付加情報を発
生する付加情報発生手段と、音声信号に対しその音声信
号による音声の聞き取りに影響しない態様で付加情報を
付加して出力音声信号を得る情報付加手段と、出力音声
信号による音声を出力する音声出力手段と、音声を入力
しその音声に対応する入力音声信号を得る音声入力手段
と、入力音声信号に付加されている付加情報を抽出する
付加情報抽出手段と、抽出された付加情報を使用した処
理をする情報処理手段とを備えるものである。
【0015】この発明においては、音声による通信が可
能となる。この場合の音声は、本来の音声信号に対しそ
の音声信号による音声の聞き取りに影響しない態様で付
加情報を付加することで得られる出力音声信号によるも
のである。付加情報は、例えば本来の音声信号と関連す
る情報である。例えば、付加情報の付加は、音声信号中
の、アタック部分を除くと共に、広帯域である部分に瞬
断区間を形成し、その瞬断区間を用いて行われる。また
例えば、付加情報は、スペクトル拡散信号として音声信
号に付加される。これにより、利用者には音声により理
解しやすい情報提示を行うことができ、装置間では付加
的な情報や誤りの少ない精度の高い情報のやりとりを実
現することが可能となる。
【0016】
【発明の実施の形態】以下、図面を参照しながら、この
発明の実施の形態について説明する。図1は、第1の実
施の形態としての情報処理装置10の概観を示してい
る。この情報処理装置10の本体11には、音声を出力
するためのスピーカ12が設けられていると共に、音声
を入力するためのマイクロフォン13が設けられてい
る。また、この本体11には、マイクロフォン13を介
して音声を入力するとき操作されるトークスイッチ14
が設けられている。この場合、トークスイッチ14が利
用者に操作されたとき、マイクロフォン13からの音声
入力が可能となる。
【0017】また、本体11には、その中央部に、プロ
グラムのGUI(Graphical User Interface)を表示す
るために表示部15が設けられている。さらに、この表
示部15の表面上には、利用者がタッチペン1または指
などを用いて接触することにより、指示された位置に対
応する信号を出力する、いわゆるタッチパネル(タッチ
タブレット)16が配置されている。
【0018】ここで、タッチパネル16は、ガラスまた
は樹脂等の透明な材料により構成されている。そのた
め、利用者は、表示部15に表示される画像を、タッチ
パネル16を通して見ることができる。また、利用者
は、タッチペン17を用いてタッチパネル16に所定の
文字を入力したり、表示部15に表示されている所定の
オブジェクト(アイコン)の選択または実行などを行う
ことができる。
【0019】図2は、情報処理装置10の回路構成を示
している。内部バス20は、CPU(central processi
ng unit)21、ROM(read only memory)22、R
AM(random access memory)23、表示制御部24、
入力インタフェース25、および音声合成部26を相互
に接続している。これにより、各部は、内部バス20を
介してデータの授受を行うことができる。CPU21
は、ROM22またはRAM23に記憶されているプロ
グラムまたは各種のデータに従って、各種の処理を実行
するようになされている。
【0020】表示制御部24は、CPU21より供給さ
れた情報に対応して、表示部15に表示する画像のデー
タを生成し、表示部15にその画像を表示させる。入力
検出部27は、タッチパネル16やトークスイッチ14
の入力を検出し、対応する操作信号を入力インタフェー
ス25に供給するようになされている。A/D変換部2
8は、マィクロフォン13より出力される音声信号を、
アナログ信号からデジタル信号に変換し、入力インタフ
ェース25に供給するようになされている。
【0021】入力インタフェース25は、A/D変換部
28より供給された音声信号、または入力検出部27よ
り供給された操作信号を受け付け、CPU21に供給す
るようになされている。マイクロフォン13、A/D変
換部28および入力インタフェース25を介して音声信
号が入力されると、CPU21は、ROM22またはR
AM23に記憶されているデータを参照して、音声信号
に付加されている付加情報の抽出処理を実行する。
【0022】音声合成部26は、CPU21より供給さ
れる音声合成に必要なパラメータやテキストデータに基
づいて合成音声を生成し、スピーカ12を介して出力さ
せる。また、音声合成部26は、マイクロフォン13を
介してRAM23に録音された音声を再生する場合にも
用いられる。さらに、音声合成部26は、CPU21よ
り他の装置へ送信すべき付加情報が供給されている場合
には、合成音声あるいは録音された音声への付加情報の
付加処理を行い、スピーカ12を介して出力させる。
【0023】図3は、上述したCPU21の内部動作の
機能ブロック図を示している。情報処理部30は、様々
な情報処理を行うものであり、本実施の形態において
は、個人のスケジュール管理を行うアプリケーションプ
ログラムとしての処理を行う。
【0024】情報付加部31は、情報処理部30から提
供された音声信号SAaに対して、情報処理部30から
提供された特定の付加情報IFaを付加して出力音声信
号SAoutを生成する。ここで、音声信号SAaに対す
る付加情報IFaの付加は、その音声信号SAaによる
音声の聞き取りに影響しない態様で行われる。
【0025】例えば、特開平10−162501号公報
に記載される方法を用いて付加処理が行われる。この場
合、情報付加部31では、以下のような付加処理が行わ
れる。まず、音声信号SAaの急激な立ち上がりかつ大
振幅部分をアタックとして検出すると共に、音声信号S
Aaの予め定められた長さの区間についてスペクトル分
析をする。そして、音声信号SAa中の、アタック部分
を除くと共に、広帯域である部分に瞬断区間を形成し、
その遮断区間を用いて付加情報IFaを付加して出力音
声信号SAoutを生成する。アタック部分は音質に与え
る影響が大きい。また、帯域幅が広いほどクリック音は
聞こえにくくなる。したがって、上述のように付加処理
をすることで、瞬断によるクリック音をほとんど聞こえ
なくすることができ、音質の劣化がなく音声信号SAa
に付加情報IFaを付加することが可能となる。
【0026】また例えば、人間の聴覚特性のなかの、あ
る大きな音声信号が存在するときにはその周波数の近傍
の低レベルの信号は聞こえない、若しくは非常に聞こえ
にくいという「聴覚マスキング特性」を利用した付加処
理を行うようにしてもよい。さらに例えば、最近注目さ
れているスペクトル拡散により、付加情報を音声信号に
重畳するようにしてもよい。この場合、付加情報IFa
をスペクトル拡散信号として音声信号SAaに付加する
ものである。
【0027】情報抽出部32は、入力音声信号SAin
(上述した出力音声信号SAoutに対応)より付加情報
IFbを抽出する処理をする。この情報抽出部32で行
われる処理は、情報付加部31においてなされた処理方
法に依存する。またここでは、付加情報が挿入されてい
ない場合もある。
【0028】情報処理部30は、実際のアプリケーショ
ン処理を行う部分であり、情報付加部31に音声信号S
Aaと付加情報IFaを供給し、また、情報抽出部32
から付加情報IFbまたは音声信号SAbが供給される
ようになされている。
【0029】次に、スケジュール管理を目的とする情報
処理を例として、図3に示した機能ブロック図で行われ
る処理の流れを説明する。図4および図5は、その処理
の流れを示したものであり、それぞれ外部に音声(情
報)を送出する場合、外部から音声(情報)を入力する
場合を表している。なお、以下の説明では、個人のスケ
ジュール管理を行う処理を用いるが、他の適用例におい
ても同様の手順で行うことができる。
【0030】図4を参照して、音声出力動作を説明す
る。まず、ステップS40において、利用者は、表示部
15、タッチパネル16およびタッチペン17などの入
力インタフェースを用いて、送信すべき情報の選択を行
う。例えば、表示部15のスケジュールの一項目を表す
オブジェクト「5/5 15:00会議」を選択する。
そして、ステップS41において、情報処理部30では
利用者によって選択された項目を表現するような自然な
文章(発話文)、例えば「5月5日の15時から会議の
予定です」を生成し、さらに、システム内部で識別可能
なデータ表現の付加情報を生成する。
【0031】続くステップS42において、音声合成部
26ではステップS41で生成した発話文を読み上げる
ための合成音声信号SAaを生成する。さらに、ステッ
プS43において、情報付加部31では音声合成部26
で生成した合成音声信号SAaに、ステップS41で生
成した付加情報IFaを付加する。この際、付加処理
は、上述したように、合成音声信号SAaによる音声の
聞き取りに影響しない態様で行われる。つまり、付加情
報IFaの付加による音声信号SAaの変化が、人間の
聴覚では識別不可能あるいは識別困難であるような手法
によって付加処理が行われる。
【0032】最後に、ステップS44において、ステッ
プS43で生成された付加情報IFaを含む出力音声信
号SAoutをスピーカ12に供給し、このスピーカ12
より出力音声信号SAoutによる音声を出力する。こう
して出力される音声はそれを聴く人間が上述した発話文
を自然言語によって理解することが可能なものである。
また他の情報処理装置10では、その音声に係る入力音
声信号SAinより付加情報IFb(IFaと同じ)を抽
出することで、上述した発話文を理解することが可能と
なる。
【0033】次に、図5を参照して、音声入力動作を説
明する。まず、ステップS50において、マイクロフォ
ン13で外部音声を取り入れて入力音声信号SAinを得
る。外部音声の取り入れは、トークスイッチ14が利用
者によって押されることを開始合図としたり、押されて
いる間を取り入れ区間としたり、あるレベル以上の音声
を検出したりする等して、その処理を行う。
【0034】続く、ステップS51において、情報抽出
部32で入力音声信号SAinに含まれている付加情報I
Fbの抽出処理を行う。処理の結果、付加情報IFbが
抽出されなかった場合には処理を終了する。付加情報I
Fbが抽出された場合、ステップS52に進み、その付
加情報IFbに基づいた処理が情報処理部30において
なされる。例えば、図4で説明したような音声がマイク
ロフォン13で取り入れられた場合、入力音声信号SA
inには、「5/5 15:00会議」を表現するデータ
が付加情報IFbとして挿入されており、この付加情報
IFbを抽出することで、情報の追加/更新のための処
理がなされたり、利用者へのデータ更新許可を問い合わ
せるような処理がなされる。
【0035】次に、図6を参照して、第1の情報処理装
置10(装置A)と第2の情報処理装置10(装置B)
との間の相互通信動作を説明する。装置Aはスケジュー
ルに関して問い合わせを行う側の装置であり、装置Bは
その問い合わせに応答する側の装置である。
【0036】まず、装置Aでは、利用者Uaは「明日の
会議が何時であるか」を問い合わせるような命令を入力
する。この命令の入力は、表示部15、タッチパネル1
6およびタッチペン17を用いて行われる。なお、装置
Aに音声認識機能があるときは、マイクロフォン13よ
り音声によって上述の命令を入力するようにしてもよ
い。ステップS60において、装置Aでは、利用者Ua
の入力操作に従って、上述の図4の例で示した動作と同
様の手順で、「明日の会議は何時ですか」という付加情
報IFaを含んだ出力音声信号SAoutを生成し、その
出力音声信号SAoutによる音声を装置B側に向けて出
力する。装置Aの利用者Uaおよび装置Bの利用者Ub
はその音声信号を聞くことにより、装置Aが行おうとす
る処理を明確に理解することができる。
【0037】装置Bでは、ステップS61において、装
置Aより出力された音声をマイクロフォン13より取り
入れ、図5で示した例と同様な動作によって処理する。
入力音声信号SAinには「明日の会議が何時であるか」
を問い合わせる命令が付加情報IFbとして挿入されて
おり、装置Bでは、ステップS62において、この命令
の付加情報IFbを抽出する。そして、装置Bでは、続
くステップS63において、抽出した命令の付加情報I
Fbに基づいた情報処理、ここでは明日の会議の時間に
対する情報検索が行われ、問い合わせの結果として「1
5時から」という結果を得る。
【0038】ステップS63で得られた問い合わせの結
果は、そのまま図4のステップS40における送信すべ
き情報として自動的に選択されるようになされている。
あるいは、装置Bが利用者Ubの許可を求め、それが許
されたときにのみ選択されるようになされていてもよ
い。装置Bでは、送信すべき情報が決まると、続くステ
ップS64において、図4と同様の動作によって、出力
音声信号SAoutの生成が行われる。図6では、例とし
て、S64において、「わかりません」、「15時
からです」という応答文が生成された場合を示してい
る。ここでは単なる音声信号だけでなく、明確なスケジ
ュールを表現する付加情報IFaを含んだ出力音声信号
SAoutを生成し、ステップS65において、その出力
音声信号SAoutによる音声を装置A側に向けて出力す
る。
【0039】装置Aでは、ステップS66において、装
置Bより出力された音声をマイクロフォン13より取り
入れ、続いてステップ67において、入力音声信号SA
inに含まれるスケジュールを表現する付加情報IFbを
抽出する。そして、その付加情報IFbが「15時か
ら」という情報であった場合は、ステップS68に進
み、自動的に、もしくは利用者Uaの許可のもとに、装
置Bのスケジュール情報への追加/更新を行う。以上の
ような装置Aと装置Bの対話的なやり取りによって、も
ともと装置Bに格納されていた情報を装置Aからの問い
かけに従って装置Aへと取り込むような処理を実現する
ことができる。
【0040】さらに、抽出した付加情報が「わかりま
せん」という情報であった場合は、ステップS69に進
み、問い合わせが未解決であるという情報とともに装置
Aが生成した問い合わせの出力音声信号SAoutあるい
はそれを生成するために必要な情報を装置A内のRAM
23に格納する。格納された情報は表示部15を介して
利用者Uaが見ることができると共に、タッチパネル1
6を介してその情報を選択することで、その出力音声信
号SAoutによる音声を再出力するようになされてい
る。このように、装置間の対話において解決されなかっ
た問い合わせを装置内に格納しておき、その後の任意の
時点でその問い合わせに係る音声を再出力できるように
することで、利用者の作業を軽減することが可能とな
る。
【0041】なお、図6では1対1の相互通信動作を説
明したが、情報伝送媒体として音声を用いているので、
同時に1対多の通信を行うこともできる。これにより、
先の図4および5で上げた例のように、一つの情報処理
装置10から発せられる「5/5 15:00会議」と
いうスケジュール情報を、複数の情報処理装置10に同
時に伝送することが可能となる。
【0042】また、音声信号に付加する付加情報とし
て、その音声信号による音声を出力する情報処理装置1
0の識別子を含むようにしてもよい。これにより、音声
をマイクロフォン13より取り入れた情報処理装置10
はその音声を出力した情報処理装置10がどれであるか
を知ることができ、これに応じて情報処理部30での処
理を行うことができる。例えば、上述の例において、信
頼できる情報処理装置10からのスケジュール更新情報
であれば自動的に情報を更新し、そうでなければ、利用
者への許可確認を問い合わせるようにする。また、上述
の複数の装置間での通信においても、どの装置からの音
声かを各装置が知ることができる。
【0043】さらに、図6で例としてあげたような対話
的なデータ伝送も可能である。このような対話を複数装
置間で行う際には、複数の装置が同時に音声を出力する
可能性が生じてしまうため、付加情報として次の発話を
許可する権利を与える装置の識別子を含むようにする。
音声を取り込んだ装置は入力音声信号SAinに含まれて
いる識別子が自分の識別子と異なっていれば音声出力を
しないようになされており、この付加情報を用いて複数
の装置が同時に音声出力するのを防ぐことができる。
【0044】また、本発明を適用した複数の情報処理装
置10間において、メモを音声によってやりとりするこ
とでも可能である。この場合、メモを表す音声信号に、
メモの内容が属するいくつかのキーワードを付加情報と
して付加することにより、受信側の装置はその音声によ
り表現されたメモが属する領域を知ることができ、受信
側で自動的にそのメモを分類整理することができる。
【0045】さらに、本発明によれば音声メディアを媒
体とした長距離あるいは広範囲の通信を行うことが可能
である。本発明では、情報伝送に音声を用いているた
め、音声を用いたメディア、例えば、テレビやラジオな
どを介して、広範囲の情報提供を行うことが可能とな
る。例えば、テレビやラジオ中に挿入されるCMからそ
の商品の情報を得たりすることができる。
【0046】次に、この発明の第2の実施の形態につい
て説明する。
【0047】上述した第1の実施の形態としての情報処
理装置10は音声認識機能を備えていないが、この第2
の実施の形態としての情報処理装置10は音声認識機能
を備えている。この第2の実施の形態における情報処理
装置10の回路構成は、第1の実施の形態における情報
処理装置10と同様である(図2参照)。マィクロフォ
ン13、A/D変換部28および入力インタフェース2
5を介して音声信号が入力されると、第1の実施の形態
と同様にして入力音声信号SAinより付加情報IFbを
抽出する処理が行われた後、CPU21は、ROM22
またはRAM23に記憶されている音声学習データや辞
書情報を参照して、音声信号SAbに対して音声認識処
理を実行するようになされている。
【0048】現状の音声認識技術では、認識率が100
%ではなく、多くの場合、誤りを含んでしまう。さら
に、音声に含まれている微妙な意図や感情をシステム側
で抽出することは非常に困難である。例えば、「明日は
五時から会議です」と「明日は五時から会議ですか」と
いう二つの文章は、末尾に「か」が付いているかいない
かでその意味が大きく異なるが、音声認識においてはわ
ずか一音分の差でしかなく、認識誤りが生じやすい。
【0049】そこで、音声認識機能を持つ情報処理装置
10において、「問い合わせ」や「疑問」などの意図を
判別するための付加情報IFaを音声信号SAaに付加
する。装置間の相互通信動作を説明するために用いた上
述の図6を参照して説明すると、装置Aから装置Bへの
音声信号SAaに付加情報IFaとして「問い合わせ」
の意図を示す情報を付加することにより、受信側の情報
処理装置10で、末尾の「か」が音声認識時に見落とさ
れても、「断定」の意図だと解釈されることがなく、問
い合わせの文だとして解釈/処理を実行することができ
る。
【0050】また、さらに、利用者から情報処理装置1
0への情報入力時に用いる場合は利用者の音声を用い、
装置間では利用者の音声を録音したものあるいは装置内
で生成された合成音声を用いる。これらの音声信号は音
声の特性が異なるので、精度の良い音声認識を行うため
にはROM22またはRAM23にはそれぞれ別の音声
学習データが必要となり、大きな記憶容量が必要にな
る。そこで、人間と情報処理装置10間の通信において
は音声認識を用い、装置間の通信においては処理に必要
な情報を全て付加情報で与えたり、もしくは、認識誤り
が生じることを回避あるいは軽減させるための付加情
報、例えば、意図や文章が含まれる対象領域を表すキー
ワードあるいは認識に必要な辞書を明示する情報などを
与えるようにする。
【0051】例えば、情報処理装置からの音声出力が
「旅行」に関するものであり、しかも、「問い合わせ」
を意図したものである場合、付加情報として「旅行」と
いうキーワードと「問い合わせ」という意図情報を音声
信号に挿入する。その音声信号による音声を取り入れる
情報処理装置10では、まず付加情報として「旅行」と
「問い合わせ」を抽出し、続いて、音声認識のための辞
書情報として「旅行」と「問い合わせ」に適したものを
選択し、音声認識を実行する。これにより対象領域を制
限することになり、より精度よく音声認識を実行するこ
とができる。
【0052】次に、この発明の第3の実施の形態につい
て説明する。
【0053】上述した第1および第2の実施の形態にお
いてこの発明を個人情報管理装置に適用したものであっ
たが、この発明はロボットに適用することも可能であ
る。
【0054】ロボットには音声認識機構および音声合成
機構が備えられており、互いに自然言語を用いて対話を
行うことができる。人間からロボットへの発話において
は、音声認識技術を用いることで互いの意思疏通を図る
ようになされている。ただし、ロボット同士の対話は、
見かけ上は自然言語によってなされているように見える
が、実際には、音声信号に付加された付加情報に基づい
て情報交換を行うようになされている。これにより、ロ
ボット間では音声認識の誤りを回避した信頼性の高い情
報伝達を行い得ると共に、それを観察している人間もそ
の内容を合成音声として聞き取ることができ、より親和
性および信頼性の高いコミュニケーションを実現するこ
とができる。
【0055】産業界においても、複数のロボットでチー
ムを編成し、2チームによりサッカーの試合を行うとい
うロボカップ(RoboCup)というイベントが毎年開催さ
れている。ここでは、様々な形態のロボットによってサ
ッカーの試合が行われているが、それを観察する観客に
は、ロボットが何を考え、どのような情報を交換して動
いているのかはわからない。ロボット同士では様々な情
報交換がなされているが、それを観客側からは知ること
ができない。
【0056】図7に、この発明を適用したロボットによ
るサッカーの試合の概観を示している。サッカーを行う
ためにフィールド70にはゴール71が備えられてお
り、ボール72をめぐってロボット73,74,75が
プレーを行っている。なお、図7はフィールド70の一
部のみを示したものであり、図7に表れていないロボッ
トやゴールが存在する。
【0057】ロボット73,74,75には音声入出力
部が備えられており、互いに音声を発して情報交換を行
うようにすることで、ロボットたちが何を考え、どんな
情報交換をしているのか、観客76が知るようになされ
ている。図7では、ロボット73からロボット74に
「ゴール前に走れ」という発話がなされており、観客7
6はそれを音声として聞くことで知ることができる。さ
らに、ロボット73の発する音声を出力するための出力
音声信号SAoutに付加情報IFaが付加されており、
ロボット73からロボット74への情報伝達を高い精度
で行うことができる。
【0058】例えば、ロボット73からロボット74へ
の「ゴール前に走れ」という音声を出力するための出力
音声信号SAoutに、付加情報IFaとして、発話した
ロボット73を表す識別子、命令の対象とされたロボッ
ト74を表す識別子、その具体的な命令などを付加する
ことにより、ロボット間で必要な情報伝達を行うように
する。さらに、「ゴール前」という音声に対応して、付
加情報IFaとしてその位置座標を与えることにより、
ロボット間の相互の位置情報の交換を行うことも可能で
ある。音声はある程度の指向性をもつものの、広い範囲
に伝搬する性質をもつ。そのため、図7におけるロボッ
ト75においても音声を取り入れ、その付加情報を抽出
することが可能である。ところが、図7に現れていない
さらに離れたロボットにおいては、十分に音声を取り入
れることはできず、ロボット73からの音声による情報
交換は行えない。これは、実際の人間による試合と同様
の性質であり、より現実に近いゲームをロボットを用い
て実現することが可能である。
【0059】また、動物型のロボットなどのように、自
然言語を発声しない方が望ましいと考えられる場合、音
声として鳴き声などを用いてもよい。この場合、現状の
音声認識技術では自然な鳴き声を認識して、その内容を
判別することは非常に困難である。鳴き声を出力するた
めの出力音声信号SAoutに付加情報IFaとしてその
鳴き声の意図や感情を示す情報を付加することで、人間
には鳴き声から判断するのみで明確な言語としてはわか
らないが、ロボット間ではより明確な意思疏通を図るこ
とができる。これにより、動物間では何らかの言語が交
されているが、人間には詳しくはわからないという、実
際の人間と動物の関係に近いロボットを実現することが
できる。
【0060】また、この発明を適用することで仮想的な
動物園を実現することができる。この仮想動物園では、
実際の動物ではなく、動物の鳴き声と映像、あるいはロ
ボットによって構成されるものである。ここでは様々な
種類の動物が情報として蓄えられており、利用者は、普
段見ることができないような動物を見ることができる。
【0061】人間は動物の鳴き声からある程度動物の種
類を見分けることはできるが、現状の音声認識では主に
人間の言語の認識を対象としており、鳴き声などの音声
に対してはほとんど考慮されていない。そのため、鳴き
声から種類を識別するのは困難である。また、利用者も
あまりなじみのない動物ではその種類や名称がわからな
い。
【0062】そこで、鳴き声を出力する出力音声信号S
Aoutに、その動物の種類や名称などの情報を付加情報
IFaとして付加するようにする。利用者はこの発明に
おける情報処理装置10を持ち、これによりそれぞれの
動物の鳴き声から、付加情報として付加されたそのその
種類や名称を得ることができる。さらに、その種類や名
称をもとに、情報処理装置ではより詳細な情報を利用者
に提示することができる。これにより、動物の鳴き声を
キーとして、その動物の種類や名称さらにはより詳細な
情報を利用者に提示するような仮想動物園を実現するこ
とができる。
【0063】なお、上述では、ロボット間の情報伝達に
付加情報のみを用いた場合を述べたが、勿論、音声認識
を行い、その補助として付加情報を用いる形態であって
もかまわない。
【0064】次に、この発明の第4の実施の形態につい
て説明する。
【0065】上述した情報処理装置を用いたシステム例
として、駅や店内などの構内アナウンスで用いるアナウ
ンスシステムが考えられる。図8に、そのアナウンスシ
ステムの概観を示している。サーバ80は構内アナウン
スを行うためのものであり、構内各所に設置されたスピ
ーカ81などと接続するようになされている。利用者8
2は、クライアント側となる情報処理装置83を携帯し
ており、スピーカ81から出力された音声を自らの耳で
聞くと共に、情報処理装置83でその音声を取り入れ
る。
【0066】サーバ80は、図2に示す情報処理装置1
0の音声出力側の機能を備えており、出力インタフェー
ス部分は複数のスピーカ81と接続されている。サーバ
80は、例えば、迷子のお知らせ、次の電車の到着時間
および特売などの商品情報など、構内の広範囲に提供す
る必要のある様々な情報を音声としてスピーカ81を介
して利用者82に伝達する機能を持つ。一方、情報処理
装置83は、図2に示す情報処理装置10の音声入力側
の機能を備えており、例えば図1に示した概観を持つも
のである。
【0067】サーバ80はオペレータが操作しており、
随時、アナウンスすべき事象が発生したときにそれにあ
った処理操作を行う。サーバ80が送信しスピーカ81
を通して構内の利用者82に提供される自然言語による
音声は、オペレータの発声もしくはあらかじめ録音され
ている音声もしくは必要に応じて作成する合成音声であ
る。ただし、例えば、駅構内での時刻表のアナウンスや
店の開店閉店のアナウンスなど、あらかじめ定められた
スケジュールに従って自動的に音声出力しても構わない
ものについては、オペレータを必要とせず自動的に出力
されるようにしてもよい。
【0068】これら音声に係る音声信号に付加する付加
情報としては、例えば、その自然言語が意味する内容を
表現するような情報を用いることができる。アナウンス
の音声自体を情報処理装置83において音声認識するこ
とは非常に困難であるが、その意味する内容を付加情報
として付加することで、そのアナウンス内容を情報処理
装置83の表示部15を用いて確認することができる。
さらに、耳が聞こえない、あるいは、聞こえにくい人に
も同時にアナウンスを行うことが可能であるという効果
もある。
【0069】また、迷子のお知らせでなされるよう
な「...3階エレベータ前までお越し下さい」のよう
なアナウンスでは、その場所をみつけるのに時間を費や
すという問題がある。このようなアナウンスへの付加情
報として、この場合、「3階エレベータ前」の位置情報
を提供することができる。それを受信した情報処理装置
83では、その位置情報に基づく地図情報を表示部15
に表示することにより、利用者82へのより具体的な情
報提示を行うことが可能である。
【0070】また、付加情報としてアナウンスを表現す
る自然言語とは異なる言語、例えば、日本語のアナウン
スに対して英語やフランス語などの言語を表現する情報
を持たせるようにする。これにより、その国の言語がわ
からない外国人に対しても同じ情報を音声で送信するこ
とができる。言語の違いから、構内においてアナウンス
される音声自体の意味を理解することができない利用者
82は、情報処理装置83を用いることで、音声信号に
母国語への翻訳を表現する情報が付加されていれば、そ
れを表示部15あるいはスピーカ12を介して母国語と
して理解することができる。
【0071】なお、上述実施の形態においては、この発
明を、図1に示すような携帯型の情報処理装置10やロ
ボット73〜75あるいはサーバ80に適用したが、こ
の発明は他の装置にも同様に適用できることは勿論であ
る。
【0072】
【発明の効果】この発明によれば、音声信号に対しその
音声信号による音声の聞き取りに影響しない態様で付加
情報を付加して出力音声信号を生成し、その出力音声信
号を音声に変換して出力するものであり、利用者には音
声により理解しやすい情報提示を行うことができ、装置
間では付加的な情報や誤りの少ない精度の高い情報のや
り取りを実現できる。また、通信媒体として音声を用い
ているので、指向性のある一対一の通信ではなく、近傍
の複数の装置間で同時に情報のやり取りを行うことがで
きる。さらに、通信路として、テレビ、ラジオ、電話な
どの音声メディアを用いることで、長距離の通信や、大
規模人数を対象とした通信を行うことができる。
【図面の簡単な説明】
【図1】実施の形態としての情報処理装置の概観を示す
図である。
【図2】情報処理装置の回路構成を示すブロック図であ
る。
【図3】CPUの内部動作を示す機能ブロック図であ
る。
【図4】情報処理装置の音声出力動作(送信動作)の説
明に供するフローチャートである。
【図5】情報処理装置の音声入力動作(受信動作)の説
明に供するフローチャートである。
【図6】情報処理装置間の相互通信動作例を説明するた
めの図である。
【図7】ロボットによるサッカーの試合の概観を示す図
である。
【図8】アナウンスシステムの概観を示す図である。
【符号の説明】
10・・・情報処理装置、11・・・本体、12・・・
スピーカ、13・・・マイクロフォン、14・・・トー
クスイッチ、15・・・表示部、16・・・タッチパネ
ル、20・・・内部バス、21・・・CPU、22・・
・ROM、23・・・RAM、24・・・表示制御部、
25・・・入力インタフェース、26・・・音声合成
部、27・・・入力検出部、28・・・A/D変換部、
30・・・情報処理部、31・・・情報付加部、32・
・・情報抽出部
フロントページの続き (72)発明者 角田 弘史 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 加藤 靖彦 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 9A001 BB04 DD13 EE07 HH17 HH18 HH19 JJ38 JZ76

Claims (40)

    【特許請求の範囲】
  1. 【請求項1】 音声信号を発生する音声信号発生手段
    と、 付加情報を発生する付加情報発生手段と、 上記音声信号に対しその音声信号による音声の聞き取り
    に影響しない態様で上記付加情報を付加して出力音声信
    号を生成する情報付加手段と、 上記出力音声信号による音声を出力する音声出力手段と
    を備えることを特徴とする情報処理装置。
  2. 【請求項2】 上記付加情報は、上記音声信号と関連す
    る情報であることを特徴とする請求項1に記載の情報処
    理装置。
  3. 【請求項3】 上記音声信号は所定の自然言語を表現す
    るものであって、上記付加情報は上記自然言語に含まれ
    る語句を示す情報であることを特徴とする請求項2に記
    載の情報処理装置。
  4. 【請求項4】 上記音声信号は所定の自然言語を表現す
    るものであって、上記付加情報は上記自然言語の認識あ
    るいは解釈に利用される情報であることを特徴とする請
    求項2に記載の情報処理装置。
  5. 【請求項5】 上記付加情報は上記自然言語に関連する
    キーワードを示す情報であることを特徴とする請求項4
    に記載の情報処理装置。
  6. 【請求項6】 上記付加情報は上記自然言語によって表
    現される意図または感情を示す情報であることを特徴と
    する請求項4に記載の情報処理装置。
  7. 【請求項7】 上記付加情報は上記自然言語が含まれる
    対象領域を識別するための情報であることを特徴とする
    請求項4に記載の情報処理装置。
  8. 【請求項8】 上記音声信号は場所を自然言語で表現し
    たものであって、上記付加情報は上記場所を示す位置情
    報であることを特徴とする請求項2に記載の情報処理装
    置。
  9. 【請求項9】 上記音声信号は所定の自然言語を表現す
    るものであって、上記付加情報は上記自然言語に対応す
    る他国語の情報であることを特徴とする請求項2に記載
    の情報処理装置。
  10. 【請求項10】 上記音声信号は人間や動物の声に対応
    したものであって、上記付加情報は上記声によって表現
    される意図または感情を示す情報であることを特徴とす
    る請求項2に記載の情報処理装置。
  11. 【請求項11】 上記音声信号は動物の鳴き声に対応し
    たものであって、上記付加情報は上記動物の種類や名称
    を示す情報であることを特徴とする請求項2に記載の情
    報処理装置。
  12. 【請求項12】 上記付加情報は自己の装置を示す識別
    情報であることを特徴とする請求項1に記載の情報処理
    装置。
  13. 【請求項13】 上記付加情報は次に上記音声を出力す
    る権利を有する装置を識別するための情報であることを
    特徴とする請求項1に記載の情報処理装置。
  14. 【請求項14】 上記情報付加手段は、 音声信号の急激な立ち上がりかつ大振幅部分をアタック
    として検出するアタック検出部と、 上記音声信号の、予め定められた長さの区間についてス
    ペクトル分析するスペクトル分析部と、 上記アタック検出部の出力と上記スペクトル分析部の出
    力とから上記音声信号中の、上記アタック部分を除くと
    共に、広帯域である部分に瞬断区間を形成する瞬断区間
    形成部と、 形成された上記瞬断区間を用いて上記付加情報を付加す
    る情報付加部とを有してなることを特徴とする請求項1
    に記載の情報処理装置。
  15. 【請求項15】 上記情報付加手段は、上記付加情報を
    スペクトル拡散信号として上記音声信号に付加すること
    を特徴とする請求項1に記載の情報処理装置。
  16. 【請求項16】 音声信号を発生する工程と、 付加情報を発生する工程と、 上記音声信号に対しその音声信号による音声の聞き取り
    に影響しない態様で上記付加情報を付加して出力音声信
    号を生成する工程と、 上記出力音声信号を音声に変換して出力する工程とを備
    えることを特徴とする情報処理方法。
  17. 【請求項17】 音声を入力し、その音声に対応する入
    力音声信号を得る音声入力手段と、 上記入力音声信号に付加されている付加情報を抽出する
    付加情報抽出手段と、 抽出された上記付加情報を使用した処理をする情報処理
    手段とを備えることを特徴とする情報処理装置。
  18. 【請求項18】 上記付加情報は、上記音声と関連する
    情報であることを特徴とする請求項17に記載の情報処
    理装置。
  19. 【請求項19】 上記音声は所定の自然言語を表現する
    ものであって、上記付加情報は上記自然言語に含まれる
    語句を示す情報であることを特徴とする請求項18に記
    載の情報処理装置。
  20. 【請求項20】 上記情報処理手段は、上記付加情報を
    使用して表示部に上記語句を表示させることを特徴とす
    る請求項19に記載の情報処理装置。
  21. 【請求項21】 上記音声は所定の自然言語を表現する
    ものであって、上記付加情報は上記自然言語の認識に必
    要な情報であることを特徴とする請求項18に記載の情
    報処理装置。
  22. 【請求項22】 上記付加情報は、上記自然言語に関連
    するキーワードであることを特徴とする請求項21に記
    載の情報処理装置。
  23. 【請求項23】 上記付加情報は、上記自然言語によっ
    て表現される意図または感情を示す情報であることを特
    徴とする請求項21に記載の情報処理装置。
  24. 【請求項24】 上記情報処理手段は、上記入力音声信
    号より上記自然言語を認識する音声認識処理を行うこと
    を特徴とする請求項21に記載の情報処理装置。
  25. 【請求項25】 上記付加情報は、上記音声認識に必要
    な辞書を明示する情報であることを特徴とする請求項2
    4に記載の情報処理措置。
  26. 【請求項26】 上記付加情報は、上記自然言語が含ま
    れる対象領域を識別するための情報であることを特徴と
    する請求項24に記載の情報処理装置。
  27. 【請求項27】 上記音声は場所を自然言語で表現した
    ものであって、上記付加情報は上記場所を示す位置情報
    であることを特徴とする請求項18に記載の情報処理装
    置。
  28. 【請求項28】 上記情報処理手段は、上記付加情報を
    使用して、表示部に上記場所を表示させることを特徴と
    する請求項27に記載の情報処理装置。
  29. 【請求項29】 上記音声は所定の自然言語を表現する
    ものであって、上記付加情報は上記自然言語に対応する
    他国語の情報であることを特徴とする請求項18に記載
    の情報処理装置。
  30. 【請求項30】 上記情報処理手段は、上記付加情報を
    使用して、表示部に、上記他国語を表示させることを特
    徴とする請求項29に記載の情報処理装置。
  31. 【請求項31】 上記音声は人間や動物の声であって、
    上記付加情報は上記音声によって表現される意図または
    感情を示す情報であることを特徴とする請求項18に記
    載の情報処理装置。
  32. 【請求項32】 上記音声は動物の鳴き声であって、上
    記付加情報は上記動物の種類や名称を示す情報であるこ
    とを特徴とする請求項18に記載の情報処理装置。
  33. 【請求項33】 上記情報処理手段は、上記付加情報を
    使用して、表示部に、上記動物の種類や名称を表示させ
    ることを特徴とする請求項32に記載の情報処理装置。
  34. 【請求項34】 上記付加情報は、上記音声を出力した
    装置を識別するための情報であることを特徴とする請求
    項17に記載の情報処理装置。
  35. 【請求項35】 上記付加情報は、次に上記音声を出力
    する権利を有する装置を識別するための情報であること
    を特徴とする請求項17に記載の情報処理装置。
  36. 【請求項36】 上記情報処理手段は、生物を模したロ
    ボットの動作を制御する制御手段であることを特徴とす
    る請求項17に記載の情報処理装置。
  37. 【請求項37】 入力される音声を変換して入力音声信
    号を得る工程と、 上記入力音声信号に付加されている付加情報を抽出する
    工程と、 抽出された上記付加情報を使用した処理を行う工程とを
    備えることを特徴とする情報処理方法。
  38. 【請求項38】 音声信号を発生する音声信号発生手段
    と、 付加情報を発生する付加情報発生手段と、 上記音声信号に対し、その音声信号による音声の聞き取
    りに影響しない態様で上記付加情報を付加して出力音声
    信号を得る情報付加手段と、 上記出力音声信号による音声を出力する音声出力手段
    と、 音声を入力し、その音声に対応する入力音声信号を得る
    音声入力手段と、 上記入力音声信号に付加されている付加情報を抽出する
    付加情報抽出手段と、 抽出された上記付加情報を使用した処理をする情報処理
    手段とを備えることを特徴とする情報処理装置。
  39. 【請求項39】 上記情報処理手段は、生物を模したロ
    ボットの動作を制御する制御手段であることを特徴とす
    る請求項38に記載の情報処理装置。
  40. 【請求項40】 問い合わせに係る上記出力音声信号に
    よる音声を上記音声出力手段より出力した後に上記音声
    入力手段より上記問い合わせを解決する情報を含む上記
    入力音声信号が得られないとき、上記問い合わせの情報
    を未解決の問い合わせの情報として格納しておく情報格
    納手段と、 上記情報格納手段に格納されている上記未解決の問い合
    わせの情報に基づいて、任意のタイミングで上記音声出
    力手段より上記未解決の問い合わせに係る上記出力音声
    信号による音声を出力させる再出力制御手段とをさらに
    備えることを特徴とする請求項38に記載の情報処理装
    置。
JP11008195A 1999-01-14 1999-01-14 情報処理装置および情報処理方法 Pending JP2000207170A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11008195A JP2000207170A (ja) 1999-01-14 1999-01-14 情報処理装置および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11008195A JP2000207170A (ja) 1999-01-14 1999-01-14 情報処理装置および情報処理方法

Publications (1)

Publication Number Publication Date
JP2000207170A true JP2000207170A (ja) 2000-07-28

Family

ID=11686502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11008195A Pending JP2000207170A (ja) 1999-01-14 1999-01-14 情報処理装置および情報処理方法

Country Status (1)

Country Link
JP (1) JP2000207170A (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002311984A (ja) * 2001-04-13 2002-10-25 Bandai Co Ltd 会話装置
JP2007228175A (ja) * 2006-02-22 2007-09-06 Ntt Docomo Inc 音響信号伝送システム、変調装置、復調装置、及び音響信号伝送方法
US7460991B2 (en) 2000-11-30 2008-12-02 Intrasonics Limited System and method for shaping a data signal for embedding within an audio signal
US7505823B1 (en) 1999-07-30 2009-03-17 Intrasonics Limited Acoustic communication system
JP2009200933A (ja) * 2008-02-22 2009-09-03 Yamaha Corp 音声情報出力装置、音声情報処理装置、プログラム及び音声情報処理システム
JP2010156741A (ja) * 2008-12-26 2010-07-15 Yamaha Corp サービス提供装置
US7796978B2 (en) 2000-11-30 2010-09-14 Intrasonics S.A.R.L. Communication system for receiving and transmitting data using an acoustic data channel
US7796676B2 (en) 1997-01-16 2010-09-14 Intrasonics Limited Signalling system
US8248528B2 (en) 2001-12-24 2012-08-21 Intrasonics S.A.R.L. Captioning system
US8560913B2 (en) 2008-05-29 2013-10-15 Intrasonics S.A.R.L. Data embedding system
JP5887446B1 (ja) * 2014-07-29 2016-03-16 ヤマハ株式会社 情報管理システム、情報管理方法およびプログラム
JP2016075956A (ja) * 2014-07-29 2016-05-12 ヤマハ株式会社 端末装置および情報提供システム
JP2016173413A (ja) * 2015-03-16 2016-09-29 ヤマハ株式会社 情報提供システム
JP2016180852A (ja) * 2015-03-24 2016-10-13 ヤマハ株式会社 信号生成装置および音声案内装置
JP2017134201A (ja) * 2016-01-27 2017-08-03 ヤマハ株式会社 管理装置、情報処理装置、情報提供システム、管理方法、および情報提供方法
JP2017199016A (ja) * 2017-06-23 2017-11-02 ヤマハ株式会社 コンテンツの受信方法、通信端末、およびプログラム
EP3176782A4 (en) * 2014-07-29 2018-03-28 Yamaha Corporation Terminal device, information provision system, information presentation method, and information provision method
US20180098164A1 (en) 2014-08-26 2018-04-05 Yamaha Corporation Reproduction system, terminal device, method thereof, and non-transitory storage medium, for providing information
JP2019110734A (ja) * 2017-12-20 2019-07-04 日本電産株式会社 モータ装置、およびモータシステム
WO2024058147A1 (ja) * 2022-09-15 2024-03-21 京セラ株式会社 処理装置、出力装置及び処理システム

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7796676B2 (en) 1997-01-16 2010-09-14 Intrasonics Limited Signalling system
US7505823B1 (en) 1999-07-30 2009-03-17 Intrasonics Limited Acoustic communication system
US7460991B2 (en) 2000-11-30 2008-12-02 Intrasonics Limited System and method for shaping a data signal for embedding within an audio signal
US7796978B2 (en) 2000-11-30 2010-09-14 Intrasonics S.A.R.L. Communication system for receiving and transmitting data using an acoustic data channel
US8185100B2 (en) 2000-11-30 2012-05-22 Intrasonics S.A.R.L. Communication system
JP2002311984A (ja) * 2001-04-13 2002-10-25 Bandai Co Ltd 会話装置
US8248528B2 (en) 2001-12-24 2012-08-21 Intrasonics S.A.R.L. Captioning system
JP2007228175A (ja) * 2006-02-22 2007-09-06 Ntt Docomo Inc 音響信号伝送システム、変調装置、復調装置、及び音響信号伝送方法
JP2009200933A (ja) * 2008-02-22 2009-09-03 Yamaha Corp 音声情報出力装置、音声情報処理装置、プログラム及び音声情報処理システム
US8560913B2 (en) 2008-05-29 2013-10-15 Intrasonics S.A.R.L. Data embedding system
JP2010156741A (ja) * 2008-12-26 2010-07-15 Yamaha Corp サービス提供装置
JP2016075956A (ja) * 2014-07-29 2016-05-12 ヤマハ株式会社 端末装置および情報提供システム
EP3176782A4 (en) * 2014-07-29 2018-03-28 Yamaha Corporation Terminal device, information provision system, information presentation method, and information provision method
US10733386B2 (en) 2014-07-29 2020-08-04 Yamaha Corporation Terminal device, information providing system, information presentation method, and information providing method
US10691400B2 (en) 2014-07-29 2020-06-23 Yamaha Corporation Information management system and information management method
JP5887446B1 (ja) * 2014-07-29 2016-03-16 ヤマハ株式会社 情報管理システム、情報管理方法およびプログラム
US10542360B2 (en) 2014-08-26 2020-01-21 Yamaha Corporation Reproduction system, terminal device, method thereof, and non-transitory storage medium, for providing information
US20180098164A1 (en) 2014-08-26 2018-04-05 Yamaha Corporation Reproduction system, terminal device, method thereof, and non-transitory storage medium, for providing information
US10433083B2 (en) 2014-08-26 2019-10-01 Yamaha Corporation Audio processing device and method of providing information
JP2016173413A (ja) * 2015-03-16 2016-09-29 ヤマハ株式会社 情報提供システム
JP2016180852A (ja) * 2015-03-24 2016-10-13 ヤマハ株式会社 信号生成装置および音声案内装置
JP2017134201A (ja) * 2016-01-27 2017-08-03 ヤマハ株式会社 管理装置、情報処理装置、情報提供システム、管理方法、および情報提供方法
JP2017199016A (ja) * 2017-06-23 2017-11-02 ヤマハ株式会社 コンテンツの受信方法、通信端末、およびプログラム
JP2019110734A (ja) * 2017-12-20 2019-07-04 日本電産株式会社 モータ装置、およびモータシステム
WO2024058147A1 (ja) * 2022-09-15 2024-03-21 京セラ株式会社 処理装置、出力装置及び処理システム

Similar Documents

Publication Publication Date Title
JP2000207170A (ja) 情報処理装置および情報処理方法
CN110517689B (zh) 一种语音数据处理方法、装置及存储介质
JP6819672B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20200012724A1 (en) Bidirectional speech translation system, bidirectional speech translation method and program
JP2021009701A (ja) インターフェイススマートインタラクティブ制御方法、装置、システム及びプログラム
JP2018106148A (ja) 多重話者音声認識修正システム
JP5731998B2 (ja) 対話支援装置、対話支援方法および対話支援プログラム
WO2014010450A1 (ja) 音声処理システム及び端末装置
US20240005918A1 (en) System For Recognizing and Responding to Environmental Noises
JP2005513619A (ja) リアルタイム翻訳機および多数の口語言語のリアルタイム翻訳を行う方法
WO2017200080A1 (ja) 対話方法、対話装置、及びプログラム
KR20200027331A (ko) 음성 합성 장치
US20020198716A1 (en) System and method of improved communication
KR20200090355A (ko) 실시간 번역 기반 멀티 채널 방송 시스템 및 이를 이용하는 방법
CN109543021B (zh) 一种面向智能机器人的故事数据处理方法及系统
CN114464180A (zh) 一种智能设备及智能语音交互方法
JP2021076715A (ja) 音声取得装置、音声認識システム、情報処理方法、及び情報処理プログラム
CN108073572A (zh) 信息处理方法及其装置、同声翻译系统
CN109460548B (zh) 一种面向智能机器人的故事数据处理方法及系统
JPH11109991A (ja) マンマシンインターフェースシステム
KR101959439B1 (ko) 통역방법
US20170221481A1 (en) Data structure, interactive voice response device, and electronic device
KR102181583B1 (ko) 음성인식 교감형 로봇, 교감형 로봇 음성인식 시스템 및 그 방법
CN119889310B (zh) 基于对话内容生成实时音频的方法、系统及电子设备
Furui et al. Ubiquitous speech processing