JPH07129594A - Automatic interpreter system - Google Patents

Automatic interpreter system

Info

Publication number
JPH07129594A
JPH07129594A JP5272476A JP27247693A JPH07129594A JP H07129594 A JPH07129594 A JP H07129594A JP 5272476 A JP5272476 A JP 5272476A JP 27247693 A JP27247693 A JP 27247693A JP H07129594 A JPH07129594 A JP H07129594A
Authority
JP
Japan
Prior art keywords
voice
input
unit
output
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5272476A
Other languages
Japanese (ja)
Inventor
Masaie Amano
真家 天野
Kimito Takeda
公人 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP5272476A priority Critical patent/JPH07129594A/en
Publication of JPH07129594A publication Critical patent/JPH07129594A/en
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

(57)【要約】 【目的】 音声認識誤り、翻訳誤りの発生などのような
使用中に生ずる様々な状況に対処できる自動通訳システ
ムを提供すること。 【構成】 発話入力のための音声入力部1、指示情報入
力のための指示入力部2、音声出力部3および表示部4
を有し、互いに異なる種類の言語を示す属性が付された
複数の入出力手段と、一の入出力手段に含まれる音声入
力部からの発話を該属性に基づいて音声認識してコード
化する音声認識手段10と、該コードを他の属性の言語
に対応するコードに翻訳する双方向自動翻訳手段12
と、該コードを音声に変換する音声生成手段11と、該
発話の認識結果または翻訳結果が特定できなかった場合
に前記一つの入出力手段の操作者すなわち話し手と該結
果に対する確認のための対話をするとともに、該対話が
行われる間、他の入出力手段の操作者すなわち聞き手と
該対話に関する対話をする対話手段13を備えた。
(57) [Abstract] [Purpose] To provide an automatic interpretation system capable of coping with various situations occurring during use such as a voice recognition error and a translation error. [Structure] A voice input unit 1 for speech input, an instruction input unit 2 for inputting instruction information, a voice output unit 3, and a display unit 4
And a plurality of input / output means to which attributes indicating different kinds of languages are attached, and utterances from a voice input unit included in one input / output means are voice-recognized and coded based on the attributes. Voice recognition means 10 and bidirectional automatic translation means 12 for translating the code into a code corresponding to a language of another attribute.
And a voice generation means 11 for converting the code into a voice, and a dialogue for confirming the result with the operator of the one input / output means, that is, the speaker when the recognition result or the translation result of the utterance cannot be specified. In addition to the above, the dialogue means 13 is provided for making a dialogue regarding the dialogue with an operator of another input / output means, that is, a listener while the dialogue is being performed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、異なる言語の話者が互
いに自国の言語で対話することを可能とする自動通訳シ
ステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic interpreting system that enables speakers of different languages to interact with each other in their own languages.

【0002】[0002]

【従来の技術】従来、互いに異なる言語の話者が対話す
るシステムとしては、ポータブル翻訳機のように、2か
国語以上の簡単な対訳辞書とキーボードと、1行程度の
液晶表示部を持ち、キーボードから入力された複数の単
語をそのままの順序で次々と辞書を引き、表示すること
を基本としたものがあるだけであった。これは、翻訳機
という名がつけられているが、言語の文法解析、意味解
析などは行なわないので正しい翻訳は出力されず、単な
る辞書引きツールに過ぎないものであった。
2. Description of the Related Art Conventionally, as a system in which speakers of different languages interact, like a portable translator, it has a simple bilingual dictionary of two or more languages, a keyboard, and a liquid crystal display unit of about one line. There was only one that was based on displaying multiple words entered from the keyboard in the same order as they were in the dictionary. Although it was named a translator, it did not perform grammatical analysis or semantic analysis of the language, so correct translations were not output and it was just a dictionary lookup tool.

【0003】この装置では、例えば、 かれ レストラン いく と入力すると、 HE RESTAURANT GO のように単語がでてくるだけであった。このような装置
は、すぐに分かるように、複雑な文章に対しては全く実
用にならない。また、簡単な文章でさえ、助詞などの機
能語は辞書にその意味を記述することができないため、
意味がまったく逆の翻訳になることもある。例えば、
「太郎を花子は好きだ。」という意味を、次のように入
力すると、 Taro Hanako 好き Taro Hanako like となり、どちらが、どちらを好きなのか全く分からない
し、場合によっては太郎が花子を好きだと誤解されてし
まうこともあり得る。
With this device, for example, when he or she inputs to go to a restaurant, only words such as HE RESTAURANT GO appear. Such a device, as will be readily seen, is completely impractical for complex sentences. Also, even in simple sentences, function words such as particles cannot describe their meaning in the dictionary,
Sometimes the meaning is completely opposite. For example,
If you enter the meaning of "I like Taro Hanako." As follows, you will get Taro Hanako like Taro Hanako like, and you will not know which one you like, and in some cases you will misunderstand that Taro likes Hanako. There is a possibility that it will be done.

【0004】一方、本格的な自動翻訳システムとして
は、原言語の文法解析、意味解析を行なうとともに、対
象言語の生成過程を有する機械翻訳システムが、文書翻
訳の領域で実用化されている。
On the other hand, as a full-fledged automatic translation system, a machine translation system that performs grammatical analysis and semantic analysis of a source language and has a process of generating a target language has been put to practical use in the field of document translation.

【0005】しかし、これらは専ら文書翻訳に用いら
れ、対話をするための装置になっていない。典型的に
は、2言語以上の言語を同時に翻訳するような構成には
なっておらず、たとえ双方向翻訳機能をもっていても、
一度、一つ翻訳方向の翻訳を終了してから、逆方向の翻
訳プログラムを読び出すという手順が必要であった。
However, these are exclusively used for document translation and do not serve as a device for dialogue. Typically, it is not configured to translate two or more languages simultaneously, and even if it has a bidirectional translation function,
It was necessary to complete the translation in one translation direction and then read the translation program in the reverse direction.

【0006】また、従来の翻訳機はキーボード入力で原
文を入力しており、音声入力によることはできなかっ
た。一方、音声による通訳システムも研究されている
が、現在では、発話された音声を音声認識し、それを単
純に機械翻訳部に通し、翻訳された結果を音声生成部で
音声に変換するだけのものであり、音声認識誤り、翻訳
誤りが起った時にどう対処するか等の実用的な問題に対
する配慮はされていないなどの問題があった。
[0006] Further, in the conventional translator, the original sentence is input by the keyboard, and it cannot be input by voice. On the other hand, although a voice interpretation system is also being researched, at present, speech recognition is performed on the uttered voice, and the result is simply passed through a machine translation unit, and the translated result is converted into a voice by a voice generation unit. However, there is a problem in that no consideration is given to practical problems such as how to deal with voice recognition errors and translation errors.

【0007】[0007]

【発明が解決しようとする課題】このように従来では、
2か国語の話者が自由に音声で対話できる完全な通訳機
は実現されていなかった。本発明は、上記事情に鑑みて
なされたもので、音声認識誤り、翻訳誤りの発生などの
ような使用中に生ずる様々な状況に対処できる自動通訳
システムを提供することを目的とする。
As described above, in the prior art,
A complete interpreter that allows bilingual speakers to talk freely by voice has not been realized. The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an automatic interpreter system capable of coping with various situations that occur during use such as voice recognition error and translation error.

【0008】[0008]

【課題を解決するための手段】本発明に係る自動通訳シ
ステムでは、発話を入力するための音声入力部、指示情
報を入力するための指示入力部、与えられた音声信号を
音声に変換して出力する音声出力部および与えられた情
報を表示する表示部を有し、互いに異なる種類の言語を
示す属性が付与された複数の入出力手段と、前記複数の
入出力手段のうち一つの入出力手段に含まれる前記音声
入力部から入力された発話を、該一つの入出力手段に付
与された前記属性に基づいて音声認識し対応するコード
またはコード列を生成する音声認識手段と、該コードま
たはコード列を、前記一つの入出力手段の他の入出力手
段に付与された属性が示す種類の言語に対応するコード
またはコード列にそれぞれ翻訳する双方向自動翻訳手段
と、該コードまたはコード列を、前記音声出力部に与え
るための音声信号に変換する音声生成手段と、前記音声
認識手段が前記入力された発話に対する認識結果を特定
できなかった場合または前記双方向自動翻訳手段が該音
声認識手段によって生成された前記コードまたはコード
列に対する翻訳結果を特定できなかった場合に、該認識
または該翻訳の結果に対する確認のための確認処理を前
記一つの入出力手段に含まれる前記音声入力部および前
記指示入力部の少なくとも一方ならびに前記音声出力部
および前記表示部の少なくとも一方を用いて行うととも
に、該確認処理が行われる間、前記他の入出力手段に含
まれる前記表示部および前記音声入力部の少なくとも一
方に該確認処理に関する情報を出力する対話手段とを備
えたことを特徴とする。
In the automatic interpreting system according to the present invention, a voice input section for inputting utterances, an instruction input section for inputting instruction information, a given voice signal is converted into voice. A plurality of input / output means having an audio output section for outputting and a display section for displaying given information, and provided with attributes indicating different kinds of languages, and one input / output of the plurality of input / output means Voice recognition means for voice-recognizing an utterance input from the voice input unit included in the means based on the attribute given to the one input / output means, and generating a corresponding code or code string; Bidirectional automatic translation means for translating a code string into a code or a code string corresponding to a language of the type indicated by the attribute assigned to the other input / output means of the one input / output means, and the code or A voice generation means for converting a code string into a voice signal to be given to the voice output part, and a case where the voice recognition means cannot specify a recognition result for the input utterance or the bidirectional automatic translation means When the translation result for the code or code string generated by the voice recognition means cannot be specified, a confirmation process for confirming the recognition or translation result is included in the one input / output means. Section and the instruction input section and at least one of the voice output section and the display section, and the display section and the voice included in the other input / output unit while the confirmation processing is performed. It is characterized in that at least one of the input sections is provided with a dialogue means for outputting information regarding the confirmation processing.

【0009】また、好ましくは、前記音声入力部から入
力された前記発話を前記音声認識手段に与えるととも
に、前記他の入出力手段に含まれる音声出力部から該発
話をそのまま出力させるように構成すると良い。
Further, preferably, the utterance input from the voice input unit is given to the voice recognition unit, and the utterance is output as it is from a voice output unit included in the other input / output unit. good.

【0010】また、前記音声認識手段は、前記発話が前
記音声入力部から入力される際に前記指示入力部から与
えられた該発話の中の少なくとも1つの字種を特定する
情報を用いて、該発話を音声認識するように構成しても
良い。
Further, the voice recognition means uses information for specifying at least one character type in the utterance given from the instruction input unit when the utterance is input from the voice input unit, The speech may be recognized by voice.

【0011】さらに、発話者が、前記指示入力部および
前記音声入力部の少なくとも一方を用いて、自分の発話
が終了したことを該自動通訳システムに伝えるように構
成すると好ましい。また、発話者が、前記指示入力部お
よび前記音声入力部の両方を用いて発話を入力するよう
に構成しても良い。
Further, it is preferable that the speaker uses at least one of the instruction input unit and the voice input unit to notify the automatic interpreter system that his / her utterance is completed. Further, the speaker may input the utterance by using both the instruction input unit and the voice input unit.

【0012】[0012]

【作用】この結果、本発明(請求項1)によれば、2以
上の各入出力手段は、それぞれ処理対象とする言語の種
類が予め決定されており、いずれかの入出力手段の音声
入力部から発話が入力されると、音声認識手段は該発話
を前記属性が示す種類の言語として音声認識し、双方向
自動翻訳手段はこの認識結果を他の言語に翻訳し、音声
生成手段はこの翻訳結果を音声信号に変換し、翻訳した
言語に対応する音声出力部はこの音声信号を音声に変換
して出力する。ここで、発話者の発話を音声認識した結
果、音声認識に失敗した場合、または音声認識は成功し
たものとして処理され、翻訳の段階で失敗した場合のい
ずれの場合も、対話部を通じて認識または翻訳できなか
った部分を前記一つの入出力手段の操作者である発話者
と対話しながら修正するとともに、対話部は該修正のた
めに発話者と対話している間、前記他の入出力手段の操
作者である一人または複数人の聞き手の対話相手に対し
て、しばらく待つ旨などを知らせたり、聞き手に状況を
逐一知らせたり、問い合わせに答えるような対話相手に
なるなどして、聞き手に無音時間を生じさせることを防
ぐ。
As a result, according to the present invention (Claim 1), the type of language to be processed is predetermined for each of the two or more input / output means, and the voice input of any one of the input / output means is performed. When the utterance is input from the section, the voice recognition means recognizes the utterance as a language of the type indicated by the attribute, the bidirectional automatic translation means translates the recognition result into another language, and the voice generation means recognizes this utterance. The translation result is converted into a voice signal, and the voice output unit corresponding to the translated language converts the voice signal into voice and outputs the voice. Whether the speech recognition of the speaker is failed as a result of speech recognition, or the speech recognition is processed as successful and fails at the translation stage, recognition or translation is performed through the dialogue unit. While not interacting with the speaker who is the operator of the one input / output means to correct the unsuccessful portion, the dialog unit interacts with the speaker for the correction while the other input / output means Silent time is given to listeners who are one or more listeners who are operators by notifying them that they will wait for a while, letting listeners know the situation one by one, and becoming a dialogue partner who answers inquiries. Prevent from causing.

【0013】また、前記対話手段は、音声を用いるのに
加えて、表示部や指示入力部を使い文字や記号などで行
うこともできるので、音声のみによる修正情報が再び音
声認識に失敗することによる再修正が生ずることを防ぐ
ことができる。
In addition to the use of voice, the dialogue means can use characters and symbols using the display unit and the instruction input unit, so that correction information based only on voice will fail to recognize voice again. It is possible to prevent re-correction due to.

【0014】また、本発明(請求項2)によれば、前記
一つの入出力手段に含まれる音声入力部から入力された
前記発話を前記他の入出力手段に含まれる音声出力部か
らそのまま出力させる。従って、前記他の入出力手段の
操作者である聞き手が前記一つの入出力手段の操作者で
ある対話相手の発話状況を相手の肉声と背景状況をモニ
ターできる。
According to the present invention (Claim 2), the utterance input from the voice input unit included in the one input / output unit is directly output from the voice output unit included in the other input / output unit. Let Therefore, the listener who is the operator of the other input / output unit can monitor the utterance situation of the dialogue partner who is the operator of the one input / output unit, the real voice and the background situation of the other party.

【0015】すなわち、音声通訳された応答が、音声生
成部による合成音であると、発話相手に関する情報が得
られなず、はなはだしい場合、女性の話し手の声が男性
音で合成される可能性もあるが、上記によって、相手の
性別、年齢、イントネーションによる会話の焦点、感情
などの情報が、相手の肉声によって得られ、また、相手
が一人なのか、誰かと相談しながら話しているのかなど
の状況や、相手のいる場所の背景音など通常の電話のよ
うに相手の置かれた状況についての情報を得ることがで
きる。
That is, if the voice-interpreted response is a synthesized voice by the voice generation unit, information about the utterance partner cannot be obtained, and in the worst case, the voice of a female speaker may be synthesized with a male voice. However, by the above, information such as the other's gender, age, focus of conversation by intonation, feelings etc. can be obtained by the other person's real voice, and whether the other person is alone, talking with someone etc. You can get information about the situation, such as the background sound of the other party's place, the situation where the other person is placed like a normal telephone.

【0016】一方、上記対話部の動作中に対話相手と該
自動通訳システムの会話をモニターできるので、聞き手
の待ち時間が長くなった場合、話者と応答部との会話を
モニターすることにより、意味は分からなくても、状況
認識に役立たせることも可能である。
On the other hand, since the conversation between the conversation partner and the automatic interpretation system can be monitored during the operation of the dialogue unit, when the waiting time of the listener becomes long, the conversation between the speaker and the response unit can be monitored. Even if you don't understand the meaning, it can be useful for situational awareness.

【0017】また、本発明(請求項3)によれば、話し
手は発話入力の際に、該発話の中の少なくとも1つの字
種を特定する情報を前記指示入力部からシステムに与
え、前記音声認識手段は、この情報を用いて該発話を音
声認識する。
Further, according to the present invention (Claim 3), at the time of utterance input, the speaker gives information specifying at least one character type in the utterance to the system from the instruction input unit, and the voice The recognition means uses this information to recognize the speech by voice.

【0018】従って、例えば英語では大文字か小文字
か、日本語では普通名詞か固有名詞か、などの区別等の
音声のみによっては伝えることの難しい言語情報を用い
て該発話を音声認識するので、音声認識の性能が高めら
れる。
Therefore, for example, the utterance is voice-recognized by using the linguistic information which is difficult to convey only by the voice such as distinction between uppercase or lowercase in English, common noun or proper noun in Japanese, etc. The recognition performance is improved.

【0019】[0019]

【実施例】以下、図面を参照しながら実施例を説明す
る。図1は、本発明の一実施例に係る自動通訳システム
を示す概略構成図である。この自動通訳システムは、異
なる言語で話す2人の話者Aおよび話者Bの間の通訳を
行うものであり、例えば自動翻訳電話や同時通訳機とい
ったシステムに適用できる。
Embodiments will be described below with reference to the drawings. FIG. 1 is a schematic configuration diagram showing an automatic interpretation system according to an embodiment of the present invention. This automatic interpreter system is for interpreting between two speakers A and B who speak in different languages, and can be applied to a system such as an automatic translation telephone or a simultaneous interpreter.

【0020】図のように、該自動通訳システムは、表示
部1、入力部2、マイクロフォン3およびスピーカ4か
らなる話者A用の第1の入出力部、表示部5、入力部
6、マイクロフォン7およびスピーカ8からなる話者B
用の第2の入出力部、制御部9、音声処理部20および
自動通訳部30を備える。また、音声処理部20は音声
認識部10および音声生成部11を有し、自動通訳部1
5は双方向自動翻訳部12と、自然言語理解部14およ
び自然言語生成部15からなる対話部13とを有する。
As shown in the figure, the automatic interpreter system includes a display unit 1, an input unit 2, a microphone 3, and a first input / output unit for a speaker A for a speaker A, a display unit 5, an input unit 6, and a microphone. Speaker B consisting of 7 and speaker 8
A second input / output unit, a control unit 9, a voice processing unit 20, and an automatic interpreting unit 30. Further, the voice processing unit 20 has a voice recognition unit 10 and a voice generation unit 11, and the automatic interpretation unit 1
Reference numeral 5 has a bidirectional automatic translation unit 12 and a dialogue unit 13 including a natural language understanding unit 14 and a natural language generation unit 15.

【0021】第1の入出力部および第2の入出力部はそ
れぞれ、予め使用する言語の種類を決めておく。ここで
は、各入出力部に対して言語の種類を示す属性を付与し
ておくものとする。
The type of language to be used is determined in advance for each of the first input / output unit and the second input / output unit. Here, it is assumed that an attribute indicating the type of language is given to each input / output unit.

【0022】表示部1,5は、当該システムの使用者に
情報を伝えるために、文字や記号などの可視情報を表示
するためのものであり、液晶パネルなどにより構成され
る。入力部2,6は、文字や記号など音声以外により発
話や後述する確認用処理などに関する指示情報を入力す
るためのものであり、例えばキーボードマウスやタッチ
パネル等から構成される。
The display units 1 and 5 are for displaying visible information such as characters and symbols in order to convey information to the user of the system, and are composed of a liquid crystal panel or the like. The input units 2 and 6 are for inputting instruction information relating to utterance or confirmation processing to be described later other than voice such as characters and symbols, and are composed of, for example, a keyboard mouse and a touch panel.

【0023】マイクロフォン3,7は、話者の音声発話
を入力するためのものである。スピーカ4,8は、音声
生成部11からの出力を発声する。制御部9は、当該シ
ステム全体の動作を制御するものであり、2種類の言語
における翻訳の方向、各種情報の流れの方向、情報のア
ドレスなど全てに渡って管理・制御する。
The microphones 3 and 7 are for inputting the voice utterance of the speaker. The speakers 4 and 8 utter the output from the voice generation unit 11. The control unit 9 controls the operation of the entire system, and manages and controls the translation direction in two types of languages, the direction of various information flows, the address of information, and the like.

【0024】音声認識部10は、マイクロフォン3,7
から入力された音声を前記属性に基づいて認識する。音
声生成部11は、自動翻訳部12からの出力および対話
部13からの出力を音声化する。
The voice recognition unit 10 includes microphones 3 and 7.
The voice input from is recognized based on the attribute. The voice generation unit 11 converts the output from the automatic translation unit 12 and the output from the dialogue unit 13 into voice.

【0025】双方向自動翻訳部12は、音声認識部10
から送出されてくる発話者の発話を対話相手方言語に翻
訳する。対話部13は、認識結果や翻訳結果に曖昧性が
あるときのように話し手に対する確認や再度の音声入力
が必要な場合に、自然言語理解部14および自然言語生
成部15を用いて、当該システムが話し手と対話すると
ともに、この対話中に当該システムが聞き手と対話する
ものである。この対話のための入出力も双方向自動翻訳
部12と同じ経路を通って運ばれる。
The bidirectional automatic translation unit 12 is a voice recognition unit 10.
Translates the utterance of the speaker transmitted from the dialogue partner language. The dialogue unit 13 uses the natural language understanding unit 14 and the natural language generation unit 15 when the confirmation or the voice input is required again for the speaker such as when there is ambiguity in the recognition result or the translation result. Interacts with the speaker while the system interacts with the listener during this interaction. Input and output for this dialogue are also carried through the same route as the bidirectional automatic translation unit 12.

【0026】自然言語理解部14は、発話者の発話が、
曖昧性の解消に対する入力の場合には、自然言語で入力
された文章に対して構文・意味解釈を行い、発話者の指
示を解釈する。
The natural language understanding unit 14 determines that the utterance of the speaker is
In the case of the input for disambiguation, the sentence / natural meaning interpretation is performed on the sentence input in natural language, and the instruction of the speaker is interpreted.

【0027】自然言語生成部15は、音声認識部10で
認識された音声認識結果に曖昧性が生じた場合、または
双方向自動翻訳部12で翻訳結果に曖昧性が生じた場合
に、発話者へ曖昧性があることを知らせる文章を作成す
る。
The natural language generating unit 15 is a speaker when the voice recognition result recognized by the voice recognizing unit 10 is ambiguous or when the bidirectional automatic translation unit 12 is ambiguous in the translation result. Create a sentence that informs you that there is ambiguity.

【0028】例えば、音声認識結果に曖昧性がある場
合、「音声認識に曖昧性があります。つぎの2つのう
ち、どちらが正しいか番号で答えてください。1.かた
しはがくせいです 2.わたしはがくせいです」を作成
する。この作成された文章は、話し手側の表示部に出力
されるとともに、音声生成部11に送られ、音声化され
て発話に知らせられる。
For example, if there is ambiguity in the voice recognition result, "There is ambiguity in the voice recognition. Please answer by the number which of the following two is correct. 1. I am sorry but 2. I am. I'm sorry. " The created sentence is output to the display unit on the speaker side and also sent to the voice generation unit 11 to be voiced and notified to the utterance.

【0029】発話者は、スピーカに音声出力されたメッ
セージまたは表示部に表示されたメッセージで、曖昧性
があることを知ると、解消する文章を自然言語で入力す
る。例えば、「2番が正解です」と入力する。この入力
は、自然言語14で解釈が行われ、2番目の文章に該当
する「わたしはがくせいです」が選択される。
When the speaker knows that there is ambiguity in the message output by voice from the speaker or the message displayed on the display unit, the speaker inputs the sentence to be resolved in natural language. For example, enter "No. 2 is the correct answer". This input is interpreted in natural language 14, and "I am gakusei desu" corresponding to the second sentence is selected.

【0030】図2は、自動通訳システムの動作を表すフ
ローチャートである。以下、図2を参照しながら、自動
通訳システムの動作を説明する。ここでは、話者Aが話
し手となり、話者Bが聞き手となっている状態であるも
のとする。また、話者Aは日本語を用い、話者Bは英語
を用いるものとする。
FIG. 2 is a flow chart showing the operation of the automatic interpretation system. The operation of the automatic interpretation system will be described below with reference to FIG. Here, it is assumed that the speaker A is the speaker and the speaker B is the listener. Also, it is assumed that speaker A uses Japanese and speaker B uses English.

【0031】a)認識および通訳がそれぞれ一回で成功
した場合は、処理の流れは次のようになる。発話者Aの
発話はまず、マイクロフォン3で入力される(ステップ
1)。
A) When the recognition and the interpretation are successful once, the processing flow is as follows. The utterance of the speaker A is first input through the microphone 3 (step 1).

【0032】入力された音声発話(例えば「わたしはが
くせいです」)は、制御部9によって音声認識部10に
送られ、ここで前記属性に基づいてコード化される(ス
テップ2)。
The input voice utterance (for example, "I am a kid") is sent by the control unit 9 to the voice recognition unit 10, where it is coded based on the attribute (step 2).

【0033】コード化された発話(すなわちコードまた
はコード列)は、制御部9を介して自動翻訳部12に送
られ、ここで相手方である話者Bの用いる言語による文
章(例えば「I am a student.」)に対
応するコードまたはコード列に翻訳される(ステップ
4)。
The coded utterance (that is, a code or a code string) is sent to the automatic translation unit 12 via the control unit 9, and a sentence (for example, "I am a "student.") or the corresponding code or code string (step 4).

【0034】翻訳された結果は、再び制御部9を通って
音声生成部11に送られ、音声化される(ステップ
7)。音声化された発話は、制御部9により、相手方B
のスピーカ8に送られ、音声出力される(ステップ
8)。
The translated result is sent again to the voice generation unit 11 through the control unit 9 and converted into voice (step 7). The control unit 9 controls the other party B
Is sent to the speaker 8 and output as voice (step 8).

【0035】b)次に、音声認識部10による認識結果
として適正なものが得られなかったと判断された場合、
例えば認識ができないためあるいは認識結果に曖昧性が
あるために認識結果を特定できなかった場合など、につ
いて説明する。
B) Next, when it is determined that the proper recognition result by the voice recognition unit 10 is not obtained,
For example, a case where the recognition result cannot be specified because it cannot be recognized or because the recognition result is ambiguous will be described.

【0036】発話者Aの発話が、マイクロフォン3で入
力される(ステップ1)。入力された音声発話は、制御
部9によって音声認識部10に送られ、コード化される
(ステップ2)。
The utterance of the speaker A is input through the microphone 3 (step 1). The input voice utterance is sent to the voice recognition unit 10 by the control unit 9 and coded (step 2).

【0037】ここで、その認識結果として適正なものが
得られなかったと判断された場合(ステップ3)、制御
部9は、音声認識部10から音声認識結果とともに認識
結果の付帯情報を受けとり、それに応じた確認用処理を
行なう(ステップ6)。
If it is determined that the proper recognition result is not obtained (step 3), the control unit 9 receives the voice recognition result and the supplementary information of the recognition result from the voice recognition unit 10, and A corresponding confirmation process is performed (step 6).

【0038】例えば、図3のように「わたしはがくせい
です」との発話に対する認識結果として、曖昧性が生じ
たものとする。図3では、「わたし」の中の「わ」が、
「わ」と「か」のどちらか認識できず、両方が出力され
た様子を表している。
For example, as shown in FIG. 3, it is assumed that ambiguity has occurred as a recognition result for the utterance "I am a student". In Figure 3, "wa" in "I"
Either "wa" or "ka" cannot be recognized, and both are output.

【0039】制御部9は、音声認識部10から図3の2
つの音声認識結果とともに認識結果の付帯情報、例えば
「曖昧性があります」を受けとって、対話部13にこの
情報を送り、自然言語生成部15に「わ」と「か」のど
ちらが正しいかを発話者Aに問い合せる問い合せ文を作
成させ、音声生成部11により音声化して、スピーカ4
により音声で問い合せるとともに、必要に応じて文字コ
ードのまま表示部1にも同じ問い合せを表示する。発話
者Aは、この問い合せに応じて、「わ」の発音に注意す
るなりして再度「わたしはがくせいです」と発話入力
し、再度の認識処理を試みる(ステップ1〜3)。
The control unit 9 operates from the voice recognition unit 10 to 2 in FIG.
In addition to the two speech recognition results, the supplementary information of the recognition results, for example, "there is ambiguity", sends this information to the dialogue unit 13 and utters the natural language generation unit 15 which of "wa" and "ka" is correct. The person A is made to make an inquiry sentence, and the voice is generated by the voice generator 11, and the speaker 4
In addition to making an inquiry by voice, the same inquiry is displayed on the display unit 1 as the character code if necessary. In response to this inquiry, the speaker A utters “I am gakusei” again after paying attention to the pronunciation of “wa”, and tries the recognition process again (steps 1 to 3).

【0040】そして、発話が正しく認識されるまで、以
上の処理ループを繰り返す。さらに、本実施例では、前
記問い合せに対して、上記例のように表示部1に表示さ
れた音声認識結果に正しいものがある場合は、例えば図
3の2番目の音声認識結果「わたしはがくせいです」を
前述したような方法により音声であるいはキーボード等
から選択入力することで確認を行って、再度の認識処理
を省くことが可能である。
Then, the above processing loop is repeated until the utterance is correctly recognized. Further, in the present embodiment, in the case where the voice recognition result displayed on the display unit 1 is correct in response to the inquiry as in the above example, for example, the second voice recognition result of FIG. It is possible to check by inputting "I am sorry" by voice or by selecting from a keyboard etc. by the method as described above, and it is possible to omit the recognition process again.

【0041】一方、上記確認用処理が行われている間、
待機することになる聞き手Bに対しても、対話部13は
待機用処理を行なう(ステップ6)。例えば、「話し手
Aからの発話の到着が遅れますので、しばらくお待ち下
さい」あるいは「話し手Aからの発話を確認しておりま
すので、しばらくお待ち下さい」などの旨の案内を出し
て、無音状態を回避することによって、聞き手Bがいら
ついたり、不安になったりすることがないようにする。
この案内は、音声生成部11を通して、スピーカ8およ
び表示部5の一方あるいは両方を使って行なうことがで
きる。これらの様子を図4に示す。
On the other hand, while the confirmation process is being performed,
For the listener B who will be on standby, the dialogue unit 13 also performs standby processing (step 6). For example, a message such as "Please wait for a while because the arrival of the utterance from speaker A will be delayed" or "We are confirming the utterance from speaker A, please wait for a while." Avoiding this will prevent listener B from being irritated or anxious.
This guidance can be performed through the voice generation unit 11 using one or both of the speaker 8 and the display unit 5. These states are shown in FIG.

【0042】また、上記の他に、聞き手に状況を逐一知
らせたり、聞き手の問い合わせに答えるなどして対話相
手として機能させることも可能である。次に、上記のよ
うにして正しくコード化された発話は、制御部9を介し
て自動翻訳部12に送られ、ここで相手方である話者B
の用いる言語による文章に翻訳される(ステップ4)。
In addition to the above, it is also possible to inform the listener of the situation one by one and answer the inquiry of the listener so that the listener functions as a dialogue partner. Next, the utterance correctly coded as described above is sent to the automatic translation unit 12 through the control unit 9, and here the speaker B who is the other party.
Is translated into a sentence in the language used by (step 4).

【0043】翻訳された結果は、再び制御部9を通って
音声生成部11に送られ、音声化される(ステップ
7)。音声化された発話は、制御部9により、相手方B
のスピーカ8に送られ、音声出力される(ステップ
8)。
The translated result is sent again to the voice generation unit 11 through the control unit 9 and converted into voice (step 7). The control unit 9 controls the other party B
Is sent to the speaker 8 and output as voice (step 8).

【0044】c)次に、音声認識部10が認識誤りを検
出できずに、自動翻訳部12による翻訳結果として適正
なものが得られなかったと判断された場合、例えば翻訳
ができないためあるいは翻訳結果に曖昧性があるために
翻訳結果を特定できなかった場合など、について説明す
る。
C) Next, when the speech recognition unit 10 cannot detect a recognition error and it is determined that the automatic translation unit 12 cannot obtain a proper translation result, for example, because the translation cannot be performed or the translation result is not obtained. The case where the translation result could not be specified due to ambiguity is explained.

【0045】発話者Aの発話は、マイクロフォン3で入
力される(ステップ1)。入力された音声発話は、制御
部9によって音声認識部10に送られ、ここでコード化
される(ステップ2)。
The utterance of the speaker A is input through the microphone 3 (step 1). The input voice utterance is sent to the voice recognition unit 10 by the control unit 9 and coded therein (step 2).

【0046】コード化された発話は、制御部9を介して
自動翻訳部12に送られ、ここで相手方である話者Bの
用いる言語による文章に翻訳される(ステップ4)。そ
の翻訳結果として適正なものが得られなかったと判断さ
れた場合(ステップ5)、制御部9は、自動翻訳部12
から自動翻訳結果とともに翻訳結果の付帯情報を受けと
り、それに応じた確認用処理を行なう(ステップ6)。
The coded utterance is sent to the automatic translation unit 12 via the control unit 9 and is translated into a sentence in the language used by the speaker B who is the other party (step 4). When it is determined that a proper translation result has not been obtained (step 5), the control unit 9 causes the automatic translation unit 12
The auxiliary information of the translation result is received together with the automatic translation result, and the confirmation process is carried out accordingly (step 6).

【0047】例えば、図5に、音声認識部10が認識誤
りを検出できなかった場合の様子を示す。仮に音声認識
部10が音声認識結果「かたしはがくせいです」を正し
いと判断した場合、該認識結果は制御部9に送られる。
制御部9からこの結果を受取った自動翻訳部12は、
「かたし」を辞書中に見つけられず、未知語として処理
する。この結果、翻訳は不完全なものとなる。全く翻訳
できない場合、あるいは部分的に翻訳できない場合など
いろいろな場合が想定される。これは音声認識の誤りの
性質と自動翻訳部の設計思想に依存する。
For example, FIG. 5 shows a state in which the voice recognition unit 10 cannot detect a recognition error. If the voice recognition unit 10 determines that the voice recognition result “Katahagakuseisei” is correct, the recognition result is sent to the control unit 9.
The automatic translation unit 12 that receives this result from the control unit 9
"Katashi" cannot be found in the dictionary and is treated as an unknown word. The result is an incomplete translation. Various cases are conceivable, such as a case where no translation is possible, or a case where partial translation is not possible. This depends on the nature of the error in speech recognition and the design concept of the automatic translation unit.

【0048】ここでは、一例として、図5のような結果
が自動翻訳部12から制御部9に返されるものとする。
制御部9は、この結果を対話部13に送り発話者Aに、
修正を求めるための適切な問い合せ文を生成させ、上記
の音声認識誤りの場合と同様にして、話し手Aと確認の
ための対話を行なう。
Here, as an example, it is assumed that the result as shown in FIG. 5 is returned from the automatic translation unit 12 to the control unit 9.
The control unit 9 sends this result to the dialogue unit 13,
An appropriate inquiry sentence for correction is generated, and a dialogue for confirmation is made with the speaker A in the same manner as in the case of the voice recognition error described above.

【0049】また、上記の音声認識誤りの場合と同様に
して、上記対話と同時に聞き手Bと待機のための対話を
行なう。このようにして正しく翻訳された結果は、再び
制御部9を通って音声生成部11に送られ、音声化され
る(ステップ7)。
In the same manner as in the case of the voice recognition error described above, a dialogue for waiting with the listener B is performed at the same time as the above dialogue. The result of correct translation in this manner is sent again to the voice generation unit 11 through the control unit 9 and converted into voice (step 7).

【0050】音声化された発話は、制御部9により、相
手方Bのスピーカ8に送られ、音声出力される(ステッ
プ8)。このように、本実施例の自動通訳システムで
は、音声認識結果や翻訳結果に何等可の問題があった場
合に、話し手と確認のための対話をすると同時に、待機
している聞き手にも該確認に関する情報を伝えるために
対話を行う対話手段を設けたので、音声入力による自動
翻訳で実際に生ずるさまざまな問題に対しての対処が可
能となり、該システムの実用性を飛躍的に向上させるこ
とができる。
The voiced utterance is sent by the control unit 9 to the speaker 8 of the other party B and output as voice (step 8). As described above, in the automatic interpretation system according to the present embodiment, when there is any problem in the voice recognition result or the translation result, the conversation with the speaker for confirmation is made, and the confirmation is made to the waiting listener. Since a dialogue means for carrying out a dialogue is provided to convey information about the information, it becomes possible to deal with various problems actually caused by automatic translation by voice input, and it is possible to dramatically improve the practicality of the system. it can.

【0051】ここで、上記では発話として音声のみを用
いていたが、音声に加えてキーボードなどからの入力を
用いることにより、記号のように音声入力のみでは入力
しにくいもの、あるいは音声入力に何度も失敗したもの
等が簡単に入力可能になる。
Here, although only voice is used as the utterance in the above, by using input from a keyboard or the like in addition to voice, it is difficult to input only voice input such as symbols, or what is used for voice input. It is possible to easily enter things that failed.

【0052】また、本実施例の自動通訳システムは、2
人の会話者A,Bが同じ場所で対面しながら用いること
も、また制御部9を公衆通信回線に接続して遠隔地にい
る相手との対話に用いることもできる。すなわち、公衆
通信回線を通して会話する場合、スピーカからの出力は
合成音声になるため、相手の年齢、性別、感情、イント
ネーションなどの情報、あるいは相手が一人なのか、誰
かと相談しながら話しているのかなどの状況、相手のい
る場所の背景音など相手の置かれた状況についての情報
が欠落することがあり、相手側の様子が分からない可能
性があるが、制御部9によって発話者Aのマイクロフォ
ン3からの肉声をそのまま、聞き手Bに流すように構成
することによって、該欠落することがある情報を得るこ
とができる。ここで、図6には発話者の発話が、翻訳さ
れる場合の単純化したパスと肉声のパスを、図7には発
話者の発話が聞き手に到着する相対的タイミングを示
す。各図中、t1は発話の開始時刻である。この肉声
は、制御部9から直ちに、公衆通信回線を通って相手に
送られる。この遅れは、通信衛星を通した場合で、1秒
程度である。すなわち、 t2=t1+1sec程度 である。また、t3は、発話者が発話にかかる時間、音
声認識にかかる時間、自動翻訳にかかる時間、誤りが生
じた場合の問い合せ・対話にかかる時間からなる。この
時間量は、特定が困難であるが、誤りの修正のための対
話時間がないとし、10語程度の短い発話ならば、実測
によれば最大30秒程度である。すなわち、 t3≦
t1+30sec である。
Further, the automatic interpreting system of this embodiment is 2
The human talkers A and B can be used while facing each other at the same place, or can be used for a dialogue with a remote party by connecting the control unit 9 to a public communication line. That is, when talking over a public communication line, the output from the speaker is synthetic voice, so information such as the age, sex, emotion, intonation of the other party, or whether the other party is alone, talking with someone However, there is a possibility that information about the situation of the other party such as the background sound of the other party's place may be missing, and the situation of the other party may not be known. However, the control unit 9 controls the microphone of the speaker A. It is possible to obtain the information that may be missing by arranging the real voice from 3 as it is to the listener B. Here, FIG. 6 shows a simplified path and a real voice path when the utterance of the speaker is translated, and FIG. 7 shows relative timings when the utterance of the speaker arrives at the listener. In each figure, t1 is the start time of speech. This real voice is immediately sent from the control unit 9 to the other party through the public communication line. This delay is about 1 second when passing through a communication satellite. That is, t2 = t1 + 1 sec. Further, t3 is composed of a time required for the speaker to speak, a time required for voice recognition, a time required for automatic translation, and a time required for inquiry / dialogue when an error occurs. Although it is difficult to specify this amount of time, it is assumed that there is no dialogue time for correcting an error, and if the utterance is short for about 10 words, it is about 30 seconds at maximum according to actual measurement. That is, t3 ≦
It is t1 + 30 sec.

【0053】また、遠隔地通信の場合、時間遅れのため
の会話のタイミングがうまく取れないなどの問題があ
る。国際電話では、特に衛星通信の場合、この発話のタ
イミングは現在でも普通に体験されるところである。自
動通訳を行うシステムでは、音声認識処理、機械翻訳処
理などのため、この時間遅れが膨大なものになる可能性
がある。本実施例では、前記対話手段を用いることによ
って、時間遅れの期間に聞き手にメッセージを与えるな
どすることができる。
Further, in the case of remote communication, there is a problem that the timing of conversation cannot be properly taken due to a time delay. With international calls, especially in the case of satellite communications, the timing of this utterance is still commonly experienced today. In a system that performs automatic interpretation, this time delay may be enormous due to voice recognition processing, machine translation processing, and the like. In this embodiment, by using the dialogue means, it is possible to give a message to the listener during the time delay.

【0054】また、音声入力による場合、発話の終了を
自動的に認識することは困難である。そこで、ある一定
時間、音声入力がない場合、終了したと見做して、翻訳
を開始することもできる。あるいは、トランシーバのよ
うに、制御部9に対して、「どうぞ」のような一定の音
声合図をすることもできる。キーボードなどの音声以外
による入力手段を用いて、システムに発話の終了を伝え
るようにすれば確実であるのでより好ましい。
In the case of voice input, it is difficult to automatically recognize the end of speech. Therefore, if there is no voice input for a certain period of time, it can be considered that the processing has been completed and the translation can be started. Alternatively, like a transceiver, a constant voice signal such as "Please" can be given to the control unit 9. It is more preferable to inform the system of the end of the utterance by using an input means other than voice such as a keyboard, which is more preferable.

【0055】また、音声では、大文字、小文字の区別あ
るいは、普通名詞と固有名詞の区別が困難である。英語
の場合「japan」は「漆器」、「Japan」は
「日本」と訳さなければならないが、音声で、この区別
をすることは極めて困難である。また、日本語でも、
「近藤」と「混同」の区別は困難である。このような情
報もキーボードから入力するように構成すれば好まし
い。その他、文章中に他言語が混在する場合(例えば、
「How about “go men na sa
i”」)なども同様である。
Also, in voice, it is difficult to distinguish between uppercase and lowercase letters, or distinguish between common nouns and proper nouns. In the case of English, "Japan" must be translated as "lacquer ware" and "Japan" as "Japan", but it is extremely difficult to make this distinction by voice. Also in Japanese,
It is difficult to distinguish “Kondo” and “confused”. It is preferable to configure such that such information is also input from the keyboard. In addition, when other languages are mixed in the sentence (for example,
"How about" go men na sa
i "") and the like.

【0056】ここで、音声生成部5では、生成する音声
に話者の属性、例えば年齢、性別、イントネーション
(皮肉、喜怒哀楽等)、アクセントなどを反映させるよ
うに構成すると、聞き手が翻訳音声から話し相手に関す
る情報を得ることができるようになるので効果的であ
る。
Here, if the voice generation unit 5 is configured to reflect the attributes of the speaker, such as age, sex, intonation (irony, emotions, etc.), accent, etc., in the generated voice, the listener can translate the voice. This is effective because you can get information about the person you are talking to from.

【0057】また、双方向自動翻訳部12では、ダイア
レクト、例えば語彙の方言、出身地、教育背景などを反
映させて翻訳するようにすれば、聞き手が翻訳文の内容
から話し相手に関する情報を得ることができるようにな
るので効果的である。
In the bidirectional automatic translation unit 12, if the dialect, for example, the vocabulary of the vocabulary, the place of origin, the educational background, etc. are reflected and translated, the listener can obtain the information about the other party from the content of the translated sentence. It is effective because it will be possible.

【0058】例えば、英語の「I」に対応する日本語と
しては、「私」、「僕」、「俺」をはじめとして種々の
ものが揚げられるが、まず、該双方向自動翻訳部12
は、会話初期には「私」を用いておき、会話が進む過程
で用いられる語彙等を分析して、逐次適切な語彙に置き
換えていくようにすれば良い。
For example, as Japanese corresponding to English "I", various ones such as "I", "I", and "I" can be mentioned. First, the bidirectional automatic translation unit 12
In the initial stage of the conversation, "I" is used, and the vocabulary used in the process of the conversation is analyzed and sequentially replaced with an appropriate vocabulary.

【0059】次に、本発明の他の実施例に係る自動通訳
システムについて説明する。図8は、本実施例の自動通
訳システムを示す概略構成図である。この自動通訳シス
テムは、図1の自動通訳システムを、異なる言語で話す
N人の話者の間の通訳を行うもの拡張した例である。な
お、N人の話者のうちに同一の言語で話す者が含まれて
いても構わない。
Next, an automatic interpretation system according to another embodiment of the present invention will be described. FIG. 8 is a schematic configuration diagram showing the automatic interpretation system of the present embodiment. This automatic interpreting system is an example in which the automatic interpreting system in FIG. 1 is expanded to provide interpretation between N speakers who speak in different languages. It should be noted that the N speakers may include speakers who speak the same language.

【0060】図のように、該自動通訳システムは、表示
部、入力部、マイクロフォンおよびスピーカからなる入
出力部をN組み備えたものであり、例えば話者Aが話し
手となった場合、話者B〜Nが聞き手となる。
As shown in the figure, the automatic interpreter system has N sets of input / output units consisting of a display unit, an input unit, a microphone and a speaker. For example, when the speaker A is a speaker, B to N are listeners.

【0061】この場合、音声処理部20には、最大N種
類の言語を処理できる機能を付加し、自動通訳部30に
は、一方の言語から他方の言語への翻訳として最大N×
(N−1)種類の翻訳機能を付加する修正を図1のシス
テムに施せば良い。
In this case, the voice processing section 20 is provided with a function capable of processing a maximum of N kinds of languages, and the automatic interpreting section 30 has a maximum of N × as a translation from one language to the other language.
The system of FIG. 1 may be modified by adding (N-1) types of translation functions.

【0062】なお、このN人用自動通訳システムの動作
は、図1のシステムの説明から自明であるので、詳細な
説明は省略する。また、本発明は上述した各実施例に限
定されるものではなく、その要旨を逸脱しない範囲で、
種々変形して実施することができる。
The operation of the automatic interpreter system for N persons is self-explanatory from the description of the system shown in FIG. 1, and a detailed description thereof will be omitted. Further, the present invention is not limited to the above-mentioned embodiments, and within the scope of the invention,
Various modifications can be implemented.

【0063】[0063]

【発明の効果】本発明に係る自動通訳システムでは、音
声認識や翻訳において何等かの問題が生じた場合に、話
し手と確認のための対話をすると同時に、待機している
聞き手にも該確認に関する情報を伝えるために対話を行
う対話手段を設けたので、音声入力による自動翻訳で実
際に生ずる種々の問題に対する対処が可能となり、該シ
ステムの実用性を飛躍的に向上させることができる。
In the automatic interpreter system according to the present invention, when a problem occurs in voice recognition or translation, a dialogue for confirmation is made with the speaker, and at the same time, the listening listener who is on standby is also involved in the confirmation. Since the dialog means for carrying out a dialog for transmitting information is provided, it becomes possible to deal with various problems actually caused by automatic translation by voice input, and it is possible to dramatically improve the practicality of the system.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る自動通訳システムを示
す概略構成図
FIG. 1 is a schematic configuration diagram showing an automatic interpretation system according to an embodiment of the present invention.

【図2】同実施例の動作を示すフローチャートFIG. 2 is a flowchart showing the operation of the embodiment.

【図3】同実施例における認識誤りの出力例を示す図FIG. 3 is a diagram showing an output example of a recognition error in the same embodiment.

【図4】同実施例におけるシステムから発話者への問い
合せの出力例を示す図
FIG. 4 is a diagram showing an output example of an inquiry from a system to a speaker in the embodiment.

【図5】同実施例における自動翻訳部での誤りの出力例
を示す図
FIG. 5 is a diagram showing an output example of an error in the automatic translation unit in the embodiment.

【図6】同実施例における音声発話のパスを説明する図FIG. 6 is a diagram for explaining a voice utterance path in the embodiment.

【図7】同実施例における発話の聞き手に対する発話時
とその到着時の相対的タイミングを示す図
FIG. 7 is a diagram showing relative timings at the time of utterance and arrival at the listener of the utterance in the embodiment.

【図8】本発明の他の実施例に係る自動通訳システムを
示す概略構成図
FIG. 8 is a schematic configuration diagram showing an automatic interpretation system according to another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1,5…表示部、2,6…入力部、3,7…マイクロフ
ォン、4,8…スピーカ、9…制御部、10…音声認識
部、11…音声生成部、12…双方向自動翻訳部、13
…対話部、14…自然言語理解部、15…自然言語生成
部、20…音声処理部、30…自動通訳部
1, 5 ... Display unit, 2, 6 ... Input unit, 3, 7 ... Microphone, 4, 8 ... Speaker, 9 ... Control unit, 10 ... Voice recognition unit, 11 ... Voice generation unit, 12 ... Bidirectional automatic translation unit , 13
... dialogue part, 14 ... natural language understanding part, 15 ... natural language generating part, 20 ... voice processing part, 30 ... automatic interpreting part

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】発話を入力するための音声入力部、指示情
報を入力するための指示入力部、与えられた音声信号を
音声に変換して出力する音声出力部および与えられた情
報を表示する表示部を有し、互いに異なる種類の言語を
示す属性が付与された複数の入出力手段と、 前記複数の入出力手段のうち一つの入出力手段に含まれ
る前記音声入力部から入力された発話を、該一つの入出
力手段に付与された前記属性に基づいて音声認識し対応
するコードまたはコード列を生成する音声認識手段と、 該コードまたはコード列を、前記一つの入出力手段の他
の入出力手段に付与された属性が示す種類の言語に対応
するコードまたはコード列にそれぞれ翻訳する双方向自
動翻訳手段と、 該コードまたはコード列を、前記音声出力部に与えるた
めの音声信号に変換する音声生成手段と、 前記音声認識手段が前記入力された発話に対する認識結
果を特定できなかった場合または前記双方向自動翻訳手
段が該音声認識手段によって生成された前記コードまた
はコード列に対する翻訳結果を特定できなかった場合
に、該認識または該翻訳の結果に対する確認のための確
認処理を前記一つの入出力手段に含まれる前記音声入力
部および前記指示入力部の少なくとも一方ならびに前記
音声出力部および前記表示部の少なくとも一方を用いて
行うとともに、該確認処理が行われる間、前記他の入出
力手段に含まれる前記表示部および前記音声入力部の少
なくとも一方に該確認処理に関する情報を出力する対話
手段とを備えたことを特徴とする自動通訳システム。
1. A voice input unit for inputting a speech, an instruction input unit for inputting instruction information, a voice output unit for converting a given voice signal into voice and outputting the voice, and displaying the given information. A plurality of input / output units having a display unit, to which attributes indicating different types of languages are added, and utterances input from the voice input unit included in one of the plurality of input / output units A voice recognition means for performing voice recognition based on the attribute given to the one input / output means to generate a corresponding code or code string, and the code or code string for the other input / output means. Bidirectional automatic translation means for respectively translating into a code or code string corresponding to the type of language indicated by the attribute given to the input / output means, and a voice signal for giving the code or code string to the voice output unit. And a voice generation unit for converting the code or code string generated by the voice recognition unit when the voice recognition unit cannot specify a recognition result for the input utterance or the two-way automatic translation unit. When the result cannot be specified, a confirmation process for confirming the result of the recognition or the translation is included in at least one of the voice input unit and the instruction input unit included in the one input / output unit, and the voice output unit. And using at least one of the display units, and while the confirmation process is being performed, information regarding the confirmation process is output to at least one of the display unit and the voice input unit included in the other input / output unit. An automatic interpreting system, which is provided with a dialogue means.
【請求項2】前記音声入力部から入力された前記発話を
前記音声認識手段に与えるとともに、前記他の入出力手
段に含まれる音声出力部から該発話をそのまま出力させ
ることを特徴とする請求項1に記載の自動通訳システ
ム。
2. The utterance input from the voice input unit is given to the voice recognition unit, and the utterance is output as it is from a voice output unit included in the other input / output unit. The automatic interpretation system described in 1.
【請求項3】前記音声認識手段は、前記発話が前記音声
入力部から入力される際に前記指示力部から与えられた
該発話の中の少なくとも1つの字種を特定する情報を用
いて、該発話を音声認識することを特徴とする請求項1
に記載の自動通訳システム。
3. The voice recognition means uses information for specifying at least one character type in the utterance given from the pointing unit when the utterance is input from the voice input unit, 2. The voice recognition of the utterance.
Automatic interpretation system described in.
JP5272476A 1993-10-29 1993-10-29 Automatic interpreter system Pending JPH07129594A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5272476A JPH07129594A (en) 1993-10-29 1993-10-29 Automatic interpreter system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5272476A JPH07129594A (en) 1993-10-29 1993-10-29 Automatic interpreter system

Publications (1)

Publication Number Publication Date
JPH07129594A true JPH07129594A (en) 1995-05-19

Family

ID=17514461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5272476A Pending JPH07129594A (en) 1993-10-29 1993-10-29 Automatic interpreter system

Country Status (1)

Country Link
JP (1) JPH07129594A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997027551A1 (en) * 1996-01-25 1997-07-31 Makoto Hosokawa Automatic interpretation system
WO2002005125A1 (en) * 2000-07-11 2002-01-17 Soo Sung Lee Language independent voice communication system
US8275603B2 (en) 2006-09-28 2012-09-25 Kabushiki Kaisha Toshiba Apparatus performing translation process from inputted speech
JP2013045282A (en) * 2011-08-24 2013-03-04 Kyushu Institute Of Technology Communication support system
WO2014192457A1 (en) * 2013-05-30 2014-12-04 ソニー株式会社 Client device, control method, system and program
JP2016053726A (en) * 2008-04-15 2016-04-14 フェイスブック・インコーポレイテッドFacebook, Inc. System and method for maintaining speech-to-speech translation in the field
JP2016186646A (en) * 2016-06-07 2016-10-27 株式会社東芝 Voice translation apparatus, voice translation method and voice translation program
US9753918B2 (en) 2008-04-15 2017-09-05 Facebook, Inc. Lexicon development via shared translation database
US9830318B2 (en) 2006-10-26 2017-11-28 Facebook, Inc. Simultaneous translation of open domain lectures and speeches
JP2019082981A (en) * 2017-10-30 2019-05-30 株式会社テクノリンク Inter-different language communication assisting device and system
JP2020091472A (en) * 2018-12-06 2020-06-11 イーエム−テック・カンパニー・リミテッドEM−TECH.Co.,Ltd. Two-way interpreter system
JP2021032921A (en) * 2019-08-16 2021-03-01 株式会社日本レカム Automatic update by artificial intelligence of automatic translator by voice recognition and its update distribution and information system
US11222185B2 (en) 2006-10-26 2022-01-11 Meta Platforms, Inc. Lexicon development via shared translation database

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997027551A1 (en) * 1996-01-25 1997-07-31 Makoto Hosokawa Automatic interpretation system
WO2002005125A1 (en) * 2000-07-11 2002-01-17 Soo Sung Lee Language independent voice communication system
US8275603B2 (en) 2006-09-28 2012-09-25 Kabushiki Kaisha Toshiba Apparatus performing translation process from inputted speech
US9830318B2 (en) 2006-10-26 2017-11-28 Facebook, Inc. Simultaneous translation of open domain lectures and speeches
US11972227B2 (en) 2006-10-26 2024-04-30 Meta Platforms, Inc. Lexicon development via shared translation database
US11222185B2 (en) 2006-10-26 2022-01-11 Meta Platforms, Inc. Lexicon development via shared translation database
JP2016053726A (en) * 2008-04-15 2016-04-14 フェイスブック・インコーポレイテッドFacebook, Inc. System and method for maintaining speech-to-speech translation in the field
US9753918B2 (en) 2008-04-15 2017-09-05 Facebook, Inc. Lexicon development via shared translation database
JP2013045282A (en) * 2011-08-24 2013-03-04 Kyushu Institute Of Technology Communication support system
WO2014192457A1 (en) * 2013-05-30 2014-12-04 ソニー株式会社 Client device, control method, system and program
US10225608B2 (en) 2013-05-30 2019-03-05 Sony Corporation Generating a representation of a user's reaction to media content
JPWO2014192457A1 (en) * 2013-05-30 2017-02-23 ソニー株式会社 Client device, control method, system, and program
JP2016186646A (en) * 2016-06-07 2016-10-27 株式会社東芝 Voice translation apparatus, voice translation method and voice translation program
JP2019082981A (en) * 2017-10-30 2019-05-30 株式会社テクノリンク Inter-different language communication assisting device and system
JP2020091472A (en) * 2018-12-06 2020-06-11 イーエム−テック・カンパニー・リミテッドEM−TECH.Co.,Ltd. Two-way interpreter system
JP2021032921A (en) * 2019-08-16 2021-03-01 株式会社日本レカム Automatic update by artificial intelligence of automatic translator by voice recognition and its update distribution and information system

Similar Documents

Publication Publication Date Title
US6952665B1 (en) Translating apparatus and method, and recording medium used therewith
EP0465058B1 (en) Written language parser system
JP4481972B2 (en) Speech translation device, speech translation method, and speech translation program
EP2571023B1 (en) Machine translation-based multilingual human-machine dialog
US20030115059A1 (en) Real time translator and method of performing real time translation of a plurality of spoken languages
Wilpon et al. Voice communication between humans and machines
JP2005513619A (en) Real-time translator and method for real-time translation of multiple spoken languages
US20100217582A1 (en) System and methods for maintaining speech-to-speech translation in the field
JPH07129594A (en) Automatic interpreter system
US20150254238A1 (en) System and Methods for Maintaining Speech-To-Speech Translation in the Field
JPH10504404A (en) Method and apparatus for speech recognition
JP6397641B2 (en) Automatic interpretation device and method
Kodirov et al. Implementation of web application based on Augmentative and Alternative Communication (AAC) method for People with Hearing and Speech Impairment
KR102951853B1 (en) Real-time translation and conversation methods through speech recognition
Spiegel et al. Applying speech synthesis to user interfaces
JPH0950290A (en) Speech recognition device and communication device using the device
JP3136038B2 (en) Interpreting device
KR20250126241A (en) Multilateral Real-Time Voice Recognition Method
Piskala Beyond Words: Toward Audio-First Foundation Models for Effortless Human-Computer Interaction
ElAarag et al. A speech recognition and synthesis tool
Baggia THE IMPACT OF STANDARDS ON TODAY’S SPEECH APPLICATIONS
Delic et al. Speech-Enabled Computers as a Tool for Serbian-Speaking Blind Persons
Sangeetha et al. Communication Assistance for Blind and Deaf using Natural Language Processing
Mao et al. STIS: a Chinese spoken dialogue system about Shanghai transportation information
KR20250161150A (en) Multilateral Real-Time Voice Recognition Method using TCP-based Multi-IDL Generation Technology