JP3473204B2 - Translation device and portable terminal device - Google Patents

Translation device and portable terminal device

Info

Publication number
JP3473204B2
JP3473204B2 JP21155595A JP21155595A JP3473204B2 JP 3473204 B2 JP3473204 B2 JP 3473204B2 JP 21155595 A JP21155595 A JP 21155595A JP 21155595 A JP21155595 A JP 21155595A JP 3473204 B2 JP3473204 B2 JP 3473204B2
Authority
JP
Japan
Prior art keywords
information
voice
language
unit
translation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP21155595A
Other languages
Japanese (ja)
Other versions
JPH0965424A (en
Inventor
信夫 畑岡
▲吉▼紀 桶田
俊之 在塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP21155595A priority Critical patent/JP3473204B2/en
Publication of JPH0965424A publication Critical patent/JPH0965424A/en
Application granted granted Critical
Publication of JP3473204B2 publication Critical patent/JP3473204B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)
  • Machine Translation (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Telephonic Communication Services (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】少なくとも携帯端末と、基地局で
構成される新しい通信ネットワ−クサ−ビスに係り、特
に言語翻訳機能が付いて、簡便に各言語の翻訳結果を利
用できるシステム構成、及び装置に関する。
[Industrial field of use] At least a mobile terminal and a new communication network service composed of a base station, especially a system configuration with a language translation function, and a translation result of each language can be easily used, and Regarding the device.

【0002】[0002]

【従来の技術】従来の国際会議場や、歌舞伎場での翻訳
サ−ビスの方式は、各言語に対して専用の通訳者が介在
し、翻訳結果を利用者に伝えるという方式であった。ま
た、サ−ビスの構成は、講演者や、役者の発声内容を専
用の通訳者が、直接耳で聞いて、翻訳の結果をマイクを
用いて、有線あるいは無線で利用者のイアホ−ンなどを
介して伝える構成となっていた。この結果、専用の通訳
者が用意できる重要な国際会議や、人気のある歌舞伎な
ど以外の場合では、残念ながら、言語の翻訳サ−ビスは
不可能であるという問題があった。また、従来のシステ
ム構成上、利用者のイアホ−ンは固定であり、サ−ビス
が行なわれている限られた場所の、限られた位置でしか
翻訳サ−ビスを受けられないという問題があった。さら
に、専用で、かつ専門の通訳者が介在するということか
ら、サ−ビス自体が高価となるという問題があった。
2. Description of the Related Art The conventional translation service system at international conference halls and Kabuki venues is a system in which a dedicated interpreter intervenes for each language and reports the translation result to the user. . In addition, the service consists of a speaker or an interpreter who listens directly to the actors' voices, listens to the results directly, and uses a microphone to wire or wirelessly connect the user's earphones. It was configured to communicate via. As a result, there has been a problem that language translation service is not possible except for important international conferences where a dedicated interpreter can be prepared, and popular Kabuki, etc. Further, in the conventional system configuration, the user's earphone is fixed, and there is a problem that the translation service can be received only at a limited place where the service is provided. there were. In addition, there is a problem that the service itself becomes expensive because a dedicated and specialized interpreter intervenes.

【0003】[0003]

【発明が解決しようとする課題】本発明の目的は、上記
従来の問題を解決して、いつでも、どこでも、誰にで
も、そして安価な翻訳サ−ビスが利用できるシステム構
成と方式、及び装置構成を提供することにある。
SUMMARY OF THE INVENTION It is an object of the present invention to solve the above-mentioned problems of the prior art, and to provide a system configuration, a system, and a device configuration in which an inexpensive translation service can be used anytime, anywhere, anyone. To provide.

【0004】[0004]

【課題を解決するための手段】上記目的を達成するため
に、本発明では、無線、あるいは有線基地局に自動翻訳
装置を配置し、安価で、かつ簡便な携帯端末装置を基地
局と無線、あるいは有線にて連結した構成の翻訳システ
ムを提案し、利用者がいつでも、どこでも自由に、利用
したい国の言語の翻訳結果のサ−ビスを受けることを可
能としている。
In order to achieve the above object, in the present invention, an automatic translation device is arranged in a wireless or wired base station, and an inexpensive and simple portable terminal device is provided as a base station and a wireless terminal. Alternatively, we propose a translation system with a wired connection, and allow users to freely receive the service of translation results in the language of the country they want to use anytime, anywhere.

【0005】[0005]

【作用】携帯端末と基地局で構成されるシステムおい
て、携帯端末での音声を取り込むマイク機能は利用者の
発声した音声を収音するために作用し、音声をデジタル
信号へ変換するA/D変換機能は収音した音声を信号処
理するために作用し、音声を認識する音声認識機能は発
声された言語を他の言語に翻訳するために、発声した音
声を言語表記に変換するために作用し、音声認識結果を
無線あるいは、有線にて基地局へ送信する機能は携帯端
末から入力された情報を基地局へ送信するために作用
し、基地局での携帯端末からの信号を受信する機能は携
帯端末で入手し、処理した情報を受け取るために作用
し、音声認識結果を他の言語へ翻訳する機能は発声され
た言語を自動的に翻訳するために作用し、翻訳された結
果の情報を携帯端末へ送信する機能翻訳結果を他の端末
の利用者が受け取ることができるために作用する。
In the system composed of the mobile terminal and the base station, the microphone function for capturing the voice in the mobile terminal acts to collect the voice uttered by the user and converts the voice into a digital signal. The D conversion function acts to process the collected voice signal, and the voice recognition function to recognize the voice converts the uttered voice into another language in order to translate the uttered voice into another language. The function of transmitting the voice recognition result to the base station wirelessly or by wire operates to transmit the information input from the mobile terminal to the base station, and receives the signal from the mobile terminal at the base station. The function acts to receive the processed and obtained information on the mobile terminal, and the function to translate the speech recognition result into another language acts to automatically translate the spoken language, Send information to mobile device Acting functions translation result that in order to be able to receive the user of the other terminal.

【0006】また、自動翻訳機能付き無線携帯端末及び
システムにおいて、基地局に置かれた音声認識機能を持
つ音声認識サ−バは、複数の携帯端末から入力された複
数の音声を同時、あるいは逐次に処理を行ない、携帯端
末ではできない高度な音声認識処理を、相対的に安価に
実行するために作用する。
Further, in the wireless portable terminal and system with the automatic translation function, the voice recognition server having the voice recognition function, which is placed in the base station, simultaneously or sequentially outputs a plurality of voices input from a plurality of mobile terminals. The present invention serves to perform advanced speech recognition processing which is not possible with a mobile terminal, at relatively low cost.

【0007】携帯端末からの送信信号に言語の種類を識
別する符号を付ける手段は、多国語翻訳システムおい
て、入力された音声が何の言語かを用意に判定できるよ
うにするために作用する。
The means for adding a code for identifying the type of language to the signal transmitted from the portable terminal operates so that the language of the input speech can be easily determined in the multilingual translation system. .

【0008】また、基地局から送信される情報を音声多
重、あるいは手話画像、または音声多重と手話画像を送
信する手段は、複数の言語の翻訳結果を同時に複数の利
用者に送るために作用し、さらに手話画像は手話者が健
聴者が話したこと場を手話で理解できるようにするため
に作用する。
Further, the means for transmitting the information transmitted from the base station as a voice multiplex or a sign language image or a voice multiplex and sign language image functions to send translation results of a plurality of languages to a plurality of users at the same time. In addition, the sign language image acts so that the sign language person can understand the place where the hearing person speaks with the sign language.

【0009】この際、基地局から送信される情報である
音声多重、手話画像に対応して、送信情報に音声言語の
識別、あるいは手話画像の識別情報を付加する手段は、
携帯端末側で利用したい言語、あるいは手話を前もって
選択できるようにするために作用する。
At this time, the means for adding the voice language identification or the sign language image identification information to the transmission information corresponding to the voice multiplex and the sign language image which are the information transmitted from the base station,
It works so that the language to be used on the mobile terminal side or sign language can be selected in advance.

【0010】一方、基地局から送信される情報を受信す
る携帯端末の機能として存在する音声多重信号を受信す
る機能は、基地局から送信される音声多重信号を利用者
が確実に受信するために作用し、受信した情報を音声と
して出力する機能は利用者が翻訳結果を音声で聞き取る
ことができるために作用する。
On the other hand, the function of receiving a voice multiplex signal existing as a function of a mobile terminal for receiving the information transmitted from the base station is to ensure that the user receives the voice multiplex signal transmitted from the base station. The function of acting and outputting the received information as voice acts because the user can hear the translation result by voice.

【0011】また、基地局から送信される情報を受信す
る携帯端末の機能として存在する手話画像を受信し、受
信した画像を表示する機能は手話利用者が同時の本発明
の翻訳システムを利用することができるように作用す
る。
Further, the function of receiving a sign language image existing as a function of the portable terminal for receiving the information transmitted from the base station and displaying the received image uses the translation system of the present invention simultaneously for the sign language user. Act to be able to.

【0012】この際、基地局から送信される情報を受信
する携帯端末におけて、音声を受信する機能、あるいは
手話画像を受信する機能の一つを前もって設定できる構
成とする手段や、音声多重信号を受信する機能として、
言語の種類を選別して受信できるチャネルセレクタ機能
を具備することは、基地局から送信されて来る複数の言
語での翻訳結果や、手話画像の中から、利用者が前もっ
て必要な内容を指定するために作用したり、その場で自
由に選択できるために作用する。
At this time, in the portable terminal which receives the information transmitted from the base station, a function for receiving a voice or a function for receiving a sign language image can be set in advance, and a voice multiplexing function can be used. As a function to receive signals,
Providing a channel selector function that can select and receive language types allows the user to specify in advance the necessary content from the translation results in multiple languages sent from the base station and the sign language image. It works for you or because you can choose freely on the spot.

【0013】[0013]

【実施例】以下、実施例を詳細に説明する。図1は、本
発明の骨子である自動翻訳機能付き携帯端末及びシステ
ムの概念図を示す。携帯端末101〜104は、お互いが基地
局100に無線、あるいは場合によっては有線にて接続さ
れる。このネットワ−ク構成において、携帯端末101は
音声を取り込めるマイク機能が備わっており、マイクか
ら入力された音声情報は無線105を介して基地局100に送
信され、基地局では音声認識機能と自動翻訳機能によ
り、受信した音声の内容を他の言語へ翻訳し、翻訳した
結果を携帯端末へ無線で送信する。この結果、本発明の
携帯端末システムを利用して、いつでも、どこでも、誰
でも自由に、他の言語を母国語の言語へ翻訳した結果を
受け取ることができ、他の言語による会話や情報サ−ビ
スを理解できるようになる。基地局から送信される情報
は、多国語への翻訳結果を翻訳文字コ−ド情報106で送
信した情報や、音声多重情報107、あるいは手話画像情
報108など多種の形態が考えられる。このような多種の
形態で送信される情報を、使用者は必要な言語の音声
や、手話画像を選択して受け取り、各個人の携帯端末に
出力、あるいは表示して翻訳結果のサ−ビスを受け取る
ことになる。この際、発信元である携帯端末101では、
通常のマイク機能だけの場合もあり、また携帯端末で入
力された音声を分析して、認識し、基地局へ送信する情
報は音声ではなく、認識した結果の文字コ−ド情報とな
る場合もある。携帯端末としては、電話付きの携帯端
末、画像表示機能のあるディスプレイ付きの形態などが
考えられる。図2は、基地局100で行なわれる翻訳処理
の例を示す図である。例えば、日本語の情報が入力され
た場合、英語や他の言語への翻訳が実行されて、その翻
訳結果の文字コ−ド情報、さらに音声や手話画像に変換
された情報が生成され、基地局から各携帯端末へ翻訳結
果の情報が発信される。各携帯端末では必要な言語の情
報を選択して、表示・出力して翻訳結果を利用すること
になる。第2図に示されるように、翻訳結果は英語やド
イツ語など多種の言語翻訳が同時に処理され、生成され
る。また、言語翻訳情報は、少なくとも翻訳文字情報10
6、翻訳言語音声情報107、さらに翻訳言語の手話画像情
報108の3つの形態がある。
EXAMPLES Examples will be described in detail below. FIG. 1 is a conceptual diagram of a mobile terminal and a system with an automatic translation function, which is the essence of the present invention. The mobile terminals 101 to 104 are connected to the base station 100 wirelessly or in some cases by wire. In this network configuration, the mobile terminal 101 has a microphone function capable of capturing voice, the voice information input from the microphone is transmitted to the base station 100 via the wireless 105, and the base station has a voice recognition function and automatic translation. The function translates the content of the received voice into another language, and wirelessly transmits the translated result to the mobile terminal. As a result, by using the mobile terminal system of the present invention, anytime, anywhere, anyone can freely receive the result of translating another language into the native language, and conversation and information service in another language can be received. You can understand the screw. The information transmitted from the base station can be in various forms such as information obtained by transmitting the translation result into multiple languages as the translated character code information 106, voice multiplex information 107, or sign language image information 108. The user receives and receives the information transmitted in such various forms by selecting a voice in a necessary language or a sign language image and outputting or displaying the information on a mobile terminal of each individual to obtain a translation result service. You will receive it. At this time, in the mobile terminal 101 that is the source,
In some cases, only the normal microphone function is used, and in some cases, the information input by analyzing and recognizing the voice input by the mobile terminal and transmitted to the base station is not the voice but the character code information of the recognized result. is there. The mobile terminal may be a mobile terminal with a telephone, a form with a display having an image display function, or the like. FIG. 2 is a diagram showing an example of translation processing performed by the base station 100. For example, when Japanese information is input, translation into English or another language is performed, and character code information of the translation result and information converted into a voice or sign language image are generated, Information about the translation result is transmitted from the station to each mobile terminal. Each mobile terminal selects the information in the required language, displays and outputs it, and uses the translation result. As shown in FIG. 2, the translation result is generated by simultaneously processing various language translations such as English and German. Also, the language translation information should be at least the translation character information 10.
There are three forms: 6, translated language voice information 107, and sign language image information 108 in the translated language.

【0014】図3は、携帯端末101の構成の一実施例を
示すブロック図である。携帯端末から入力された音声情
報1010は、まず音声入力部1011にてアナログ信号がデジ
タル信号へと変換される。音声入力部1011の構成は、ア
ナログ信号にサンプリング処理を施してデジタル信号へ
と変換する際の折り返し雑音の混入を避けるために実行
される、低域通過フィルタ(LPF)処理10111と、ア
ナログ信号をデジタル信号へと変換するA/D変換1011
2からなっている。その後、デジタル信号は、送信部101
2から基地局へ、携帯端末送信信号105として送信され
る。あるいは、携帯端末装置に音声認識分1002が搭載さ
れている構成では、音声認識が実行され、認識結果のコ
−ド情報が基地局へ送信されることになる。
FIG. 3 is a block diagram showing an embodiment of the configuration of the mobile terminal 101. In the voice information 1010 input from the mobile terminal, first, the voice input unit 1011 converts an analog signal into a digital signal. The configuration of the audio input unit 1011 includes a low-pass filter (LPF) process 10111 and an analog signal which are executed to avoid mixing of aliasing noise when the analog signal is sampled and converted into a digital signal. A / D conversion to convert to digital signal 1011
It consists of two. After that, the digital signal is transmitted by the transmission unit 101.
2 is transmitted to the base station as a mobile terminal transmission signal 105. Alternatively, in the configuration in which the mobile terminal device is equipped with the voice recognition component 1002, voice recognition is executed and the code information of the recognition result is transmitted to the base station.

【0015】図4は、基地局100の構成の一実施例を示
すブロック図である。基地局100の構成は、携帯端末送
信信号105を受信機1001にて受信し、音声認識がまだ施
されていない場合は、音声認識部1002にて音声信号から
音声認識結果の文字・単語列情報が生成され、次に言語
翻訳部1003にて元言語の翻訳処理が実行され、翻訳言語
情報が生成される。翻訳言語情報は、さらに音声/手話
画像変換部1004にて翻訳言語音声情報107と、翻訳言語
に対応する手話画像情報108に変換される。この結果、
翻訳言語情報は音声翻訳文字情報106も加えて3種の情
報形態が存在し、いずれも送信機1005から各携帯端末へ
送信されることになる。
FIG. 4 is a block diagram showing an embodiment of the configuration of the base station 100. The configuration of the base station 100 is such that when the mobile terminal transmission signal 105 is received by the receiver 1001 and the voice recognition is not yet performed, the voice / recognition unit 1002 uses the voice signal to obtain the character / word string information of the voice recognition result. Is generated, and then the language translation unit 1003 executes translation processing of the original language to generate translated language information. The translated language information is further converted by the speech / sign language image conversion unit 1004 into translated language voice information 107 and sign language image information 108 corresponding to the translated language. As a result,
The translation language information has three types of information forms in addition to the voice translation character information 106, and all are transmitted from the transmitter 1005 to each mobile terminal.

【0016】図5は、音声認識部1002の詳細の一実施例
を示すブロック図である。入力音声1010は、まず音声分
析部10021にて分析されて、音声の特徴を表すパラメ−
タが抽出される。音声分析の代表な方式として、線形予
測分析(Linear Predictive Coding)方式があり、代表
的な音声のパラメ−タとしては、線形予測分析から抽出
されるLPCケプストラムなどがある。線形分析方式に
関しては、文献「音声情報処理の基礎」、斎藤収三、中
田和男著(オ−ム社)を参照すれば、容易に実現でき
る。分析されて求められた音声のパラメ−タを基に、H
MM(Hidden Markov Models)マッチング部10022で
は、既に標準パタ−ンとして算出されて格納されている
音の素を表わすVQ(Vector Quantization)コ−ドブ
ック10024と、音節や単語など認識の基本となるパタ−
ンなどが音の素でどう繋がっているかを表わしたHMM
ネットワ−クモデル10025との対応関係を算出すること
で、入力音声の認識が実行される。この結果、認識単語
候補列が複数求められ、言語処理部10023にて単語列と
しての文の内容が決定される。この際、言語の統語規
則、意味規則を表した言語情報10026を参照して、言語
処理が実行される。この結果、文を構成している単語列
コ−ド10027が出力される。通常、単語列コ−ド10027
は、可能性のある複数の候補を含んだ形式である、単
語、あるいは文節ラティスの形で出力される。
FIG. 5 is a block diagram showing an example of the details of the voice recognition unit 1002. The input voice 1010 is first analyzed by the voice analysis unit 10021, and the parameters indicating the features of the voice are analyzed.
Data is extracted. As a typical method of speech analysis, there is a Linear Predictive Coding method, and as a typical speech parameter, there is an LPC cepstrum extracted from the linear prediction analysis. The linear analysis method can be easily realized by referring to the document “Basics of Speech Information Processing”, Ryozo Saito and Kazuo Nakata (Ohmsha). Based on the voice parameters that have been analyzed and found, H
An MM (Hidden Markov Models) matching unit 10022 has a VQ (Vector Quantization) codebook 10024 that represents phonemes that have already been calculated and stored as a standard pattern, and a pattern that is a basic recognition of syllables and words. −
HMM that shows how the sound elements are connected by phonemes
The input voice is recognized by calculating the correspondence with the network model 10025. As a result, a plurality of recognized word candidate strings are obtained, and the language processing unit 10023 determines the content of the sentence as the word string. At this time, the language processing is executed with reference to the language information 10026 representing the syntactic rule and the semantic rule of the language. As a result, the word string code 10027 forming the sentence is output. Normally, the word string code 10027
Is output in the form of a word or bunsetsu lattice, which is a format containing multiple possible candidates.

【0017】図6は、音声翻訳部1003の詳細の一実施例
を示すブロック図である。原言語の音声を認識して得ら
れた単語列コ−ド10027を入力として、まず原言語解析
部 10031にて、原言語の統語(構文)解析と、意味解析
が行なわれ、言語変換部10032にて、意味構造を表現す
る構造に変換される。この際に、辞書、統語文法、言語
意味情報に関する知識ベ−スで構成された原言語情報10
034が、解析と変換処理の知識デ−タとして使われる。
次に、翻訳言語生成部10033にて、翻訳された言語が生
成される。この際、翻訳言語の言語情報10035が利用さ
れる。その結果、翻訳言語の出力文10036が、出力され
る。
FIG. 6 is a block diagram showing an embodiment of the details of the speech translation unit 1003. Using the word string code 10027 obtained by recognizing the speech of the source language as an input, first, the source language analysis unit 10031 performs the syntactic (syntactic) analysis and the semantic analysis of the source language, and the language conversion unit 10032 At, it is converted to a structure that represents the semantic structure. At this time, the source language information consisting of a dictionary, a syntactic grammar, and a knowledge base on language meaning information 10
034 is used as knowledge data of analysis and conversion processing.
Next, the translated language generation unit 10033 generates a translated language. At this time, the language information 10035 of the translated language is used. As a result, the output sentence 10036 in the translated language is output.

【0018】図7は、音声/手話画像変換部1004の一実
施例の詳細を示すブロック図である。文字単語列コ−ド
10036を入力として、音声変換部ではまず言語解析が言
語解析部10041にて実行される。ここでは、文字単語列
を入力としたが、場合によっては、言語変換部10032か
ら直接入力された、文字単語列に変換される前の言語意
味を表現した言語変換情報であることも可能である。次
に、規則音声合成部10042の韻律情報付与部100421にお
いて、音の声質、高さを規定する基本周波数(ピッチ)
と、アクセントなどの韻律情報が付与される。音に依存
した韻律情報は、規則合成用情報10044から読み込まれ
て利用される。その後、音声片結合変換部100422にて、
音声の素片が規則合成用情報10044から読み込まれた音
素片と結合ル−ルを基に、結合され、音声情報が生成さ
れる。結果は、D/A10034において、D/A変換処理
を施されて、翻訳された言語の音声情報107として出力
される。
FIG. 7 is a block diagram showing details of an embodiment of the voice / sign language image conversion unit 1004. Character word string code
With 10036 as an input, the speech analysis unit first executes a language analysis in the language analysis unit 10041. Here, the character word string is input, but in some cases, it may be the language conversion information directly input from the language conversion unit 10032 that represents the language meaning before being converted into the character word string. . Next, in the prosody information adding unit 100421 of the regular voice synthesizing unit 10042, the fundamental frequency (pitch) that defines the voice quality and pitch of the sound.
And prosody information such as accent is added. The sound-dependent prosody information is read from the rule synthesis information 10044 and used. After that, in the voice piece combination conversion unit 100422,
The speech unit is combined based on the phoneme unit read from the rule-synthesizing information 10044 and the combination rule, and the speech information is generated. The result is subjected to D / A conversion processing in D / A 10034 and output as speech information 107 in the translated language.

【0019】一方、手話画像変換部では、文字単語列10
036を入力として、手話生成部10045の手話片結合部1004
7において、手話合成用情報10047から読み込まれた手話
の画像素片と、変換ル−ルとを利用して、手話片の結合
部が行なわれ、手話調整部100452での調整を経て、手話
画像が決定される。結果は、手話CG生成部10046に
て、3次元の手話CGとして表現され、最終的に翻訳言
語の手話画像情報108が出力される。
On the other hand, in the sign language image conversion unit, the character word string 10
With 036 as input, the sign language piece combining unit 1004 of the sign language generation unit 10045.
In 7, a sign language image segment read from the sign language synthesis information 10047 and a conversion rule are used to combine the sign language pieces, and the sign language adjusting unit 100452 adjusts the sign language image. Is determined. The result is expressed by the sign language CG generation unit 10046 as a three-dimensional sign language CG, and finally the sign language image information 108 in the translated language is output.

【0020】本処理では、音声/手話変換を行なわず
に、入力の文字単語列コ-ドをそのままスル−で通し
て、翻訳文字情報106を出力することもある。
In the present process, the translated character information 106 may be output by directly passing the input character word string code without passing through the voice / sign language conversion.

【0021】図8は、受信機1001、送信機1005の一実施
例の詳細を示すブロック図である。受信機1001では送信
信号(電波)を入力として、電波受信部10011にて送信信
号の受信がなされ、電波からコ-ド/音声情報への変換
が、コ-ド/音声変換部10012にて実行される。変換に際
しては、変換テ−ブル10013が利用される。結果は、文
字コ−ド列か音声情報である。
FIG. 8 is a block diagram showing details of an embodiment of the receiver 1001 and the transmitter 1005. In the receiver 1001, the transmission signal (radio wave) is input, and the transmission signal is received by the radio wave reception unit 10011, and the conversion from radio wave to code / voice information is performed by the code / voice conversion unit 10012. To be done. The conversion table 10013 is used for the conversion. The result is a character code string or voice information.

【0022】一方、送信機1005では、文字コ−ド列か音
声情報を入力として、コ-ド/音声情報から電波への変換
部10051にて、入力信号の変換が実行され、電波送信部1
0052にて、電波の送信が実行され、送信信号(電波)が
出力される。この際、受信機における処理と同様に、変
換テ−ブル10053が使用される。
On the other hand, in the transmitter 1005, a character code string or voice information is input, and a conversion unit 10051 for converting code / voice information into radio waves executes conversion of the input signal, and the radio wave transmission unit 1
At 0052, transmission of a radio wave is executed and a transmission signal (radio wave) is output. At this time, the conversion table 10053 is used similarly to the processing in the receiver.

【0023】図9は、音声多重情報セレクタ機能付き携
帯端末の概念図を示すブロック図である。携帯端末103
は、少なくとも文字情報を表示する文字表示部と、音声
多重情報を選択するセレクタ機能を有している。また、
場合によってはマイクロホンやスピ−カ、イアホンジャ
ックを装備していることもある。音声多重情報を選択す
るセレクタにより、使用者が必要とする言語で音声翻訳
のサ−ビスを利用することが可能となっている。
FIG. 9 is a block diagram showing a conceptual diagram of a mobile terminal with a voice multiplex information selector function. Mobile terminal 103
Has at least a character display section for displaying character information and a selector function for selecting voice multiplex information. Also,
In some cases, it may be equipped with a microphone, a speaker, or an earphone jack. The selector for selecting the voice multiplex information makes it possible to use the voice translation service in the language required by the user.

【0024】図10は、手話画像表示機能付き携帯端末
の概念図を示す図である。図10に示すように、手話が
3次元のCGにて実現され、身体の上半身が手話表示画
面に表示される。さらに、手話に対応して、文字情報も
表示される。
FIG. 10 is a diagram showing a conceptual diagram of a mobile terminal with a sign language image display function. As shown in FIG. 10, sign language is realized by a three-dimensional CG, and the upper half of the body is displayed on the sign language display screen. Further, character information is also displayed corresponding to the sign language.

【0025】図11は、本発明の一つである原言語と翻
訳言語コ−ド付き表現の一実施例を示す概念図である。
例えば、原言語が日本語である場合は、言語の表示コ−
ドに、日本語であることを示す特別なコ−ドが付加され
ている表現となっている。実施例では、「+81」が日
本語であることを示す特別コ−ドとなっている。また、
翻訳された言語の表現として、実施例では各言語のメモ
リの先頭に、言語の種類を表す言語コ−ドが付加されて
いる。例えば、英語であるときは「+44」、ドイツ語
である場合は「+49」となっている。さらに、手話言
語の情報であることを示す手話言語コ−ド「+00」が
付加されていることを特徴としている。
FIG. 11 is a conceptual diagram showing an embodiment of the source language and translated language coded expression which is one of the present invention.
For example, if the source language is Japanese, the language display
It is an expression in which a special code indicating that it is Japanese is added to the code. In the embodiment, "+81" is a special code indicating that it is Japanese. Also,
As a translated language expression, in the embodiment, a language code indicating a language type is added to the head of the memory of each language. For example, "+44" in English and "+49" in German. Further, it is characterized in that a sign language code “+00” indicating that it is information of the sign language is added.

【0026】[0026]

【発明の効果】本発明の結果、従来の翻訳サ−ビスでは
不可能であった、いつでも、どこでも、誰にでも、そし
て安価な翻訳サ−ビスが利用できる翻訳サ−ビスのシス
テム構成と方式、及び装置構成を提供することが可能と
なり、ユ−ザにとって使い勝手が良い翻訳サ−ビスが供
給できる効果がある。
As a result of the present invention, a translation service system configuration and method that can use an inexpensive translation service anytime, anywhere, anyone, and which is not possible with conventional translation services. It is possible to provide a translation service that is easy to use for the user.

【0027】[0027]

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の概要を示す自動翻訳機能付き携帯端末
及びシステムの概念図。
FIG. 1 is a conceptual diagram of a mobile terminal and a system with an automatic translation function showing an outline of the present invention.

【図2】本発明の概要を示す基地局での翻訳結果を示す
説明図。
FIG. 2 is an explanatory diagram showing a translation result in a base station showing an outline of the present invention.

【図3】携帯端末の構成の一実施例。FIG. 3 is an example of a configuration of a mobile terminal.

【図4】基地局の構成の一実施例。FIG. 4 is an example of a configuration of a base station.

【図5】音声認識部の一実施例。FIG. 5 shows an example of a voice recognition unit.

【図6】言語翻訳部の一実施例。FIG. 6 shows an example of a language translation unit.

【図7】音声/手話画像変換部の一実施例。FIG. 7 shows an example of a voice / sign language image conversion unit.

【図8】受信機・送信機の一実施例。FIG. 8 shows an example of a receiver / transmitter.

【図9】音声多重情報セレクタ機能付き携帯端末の概念
図。
FIG. 9 is a conceptual diagram of a mobile terminal with a voice multiplex information selector function.

【図10】手話画像表示機能付き携帯端末の概念図。FIG. 10 is a conceptual diagram of a mobile terminal with a sign language image display function.

【図11】原言語と翻訳言語コ−ド付き表現の一実施
例。
FIG. 11 shows an example of expressions with source language and translated language code.

【符号の説明】[Explanation of symbols]

100…基地局、101〜104…携帯端末装置、10
5…音声情報、106…翻訳文字情報、107…音声多
重情報、108…手話画像情報、1001…受信部、1
002…音声認識部、1003…言語翻訳部、1004
…音声/手話画像変換部、1005…送信部、1011
…音声入力部、1012…送信部。
100 ... Base station, 101-104 ... Mobile terminal device, 10
5 ... Voice information, 106 ... Translated character information, 107 ... Voice multiplex information, 108 ... Sign language image information, 1001 ... Receiving section, 1
002 ... Voice recognition unit, 1003 ... Language translation unit, 1004
... voice / sign language image conversion unit, 1005 ... transmission unit, 1011
... voice input unit, 1012 ... transmission unit.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平1−95650(JP,A) 特開 平7−222248(JP,A) 特開 平7−67163(JP,A) 特開 平7−92938(JP,A) 特開 平6−337627(JP,A) 特開 平6−337631(JP,A) 特開 昭56−42880(JP,A) 実開 平6−31262(JP,U) (58)調査した分野(Int.Cl.7,DB名) H04B 7/24 - 7/26 H04Q 7/00 - 7/38 ─────────────────────────────────────────────────── ─── Continuation of the front page (56) Reference JP-A-1-95650 (JP, A) JP-A-7-222248 (JP, A) JP-A-7-67163 (JP, A) JP-A-7- 92938 (JP, A) JP-A-6-337627 (JP, A) JP-A-6-337631 (JP, A) JP-A-56-42880 (JP, A) Actually open flat 6-31262 (JP, U) (58) Fields investigated (Int.Cl. 7 , DB name) H04B 7/ 24-7/26 H04Q 7 /00-7/38

Claims (7)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】端末からの音声認識された信号を受信する
受信機と、 上記認識結果を翻訳する翻訳部と、 上記翻訳された情報を音声に変換する音声変換部と、 上記変換された情報を端末装置へ送信する送信部とを有
し、 上記翻訳部は上記認識結果を複数の言語に翻訳し、上記
送信部は該複数の言語の情報を多重化して送信すること
を特徴とする翻訳装置。
1. A receiver for receiving a voice-recognized signal from a terminal, a translation unit for translating the recognition result, a voice conversion unit for converting the translated information into voice, and the converted information. And a transmitting unit for transmitting the recognition result to a plurality of languages, and the transmitting unit multiplexes and transmits the information of the plurality of languages. apparatus.
【請求項2】端末からの音声信号を受信する受信機と、 該信号を音声認識する認識部と、 上記認識結果を翻訳する翻訳部と、 上記翻訳された情報を端末へ送信する送信部とを有し、 上記翻訳部は上記認識結果を複数の言語に翻訳し、上記
送信部は該複数の言語の情報を多重化して送信すること
を特徴とする翻訳装置。
2. A receiver for receiving a voice signal from a terminal, a recognition unit for recognizing the voice signal, a translation unit for translating the recognition result, and a transmission unit for transmitting the translated information to the terminal. The translation device, wherein the translation unit translates the recognition result into a plurality of languages, and the transmission unit multiplexes and transmits information in the plurality of languages.
【請求項3】上記多重化される複数の言語の情報には、
各々、言語の種類を示す識別信号が付されていることを
特徴とする請求項1又は2に記載の翻訳装置。
3. Information of a plurality of languages to be multiplexed includes:
The translation device according to claim 1 or 2, wherein an identification signal indicating a language type is attached to each of them.
【請求項4】さらに上記認識結果を手話画像情報に変換
する手話変換部を有し、上記送信部は手話画像情報も送
信することを特徴とする請求項1乃至3の何れかに記載
の翻訳装置。
4. The translation according to claim 1, further comprising a sign language conversion unit that converts the recognition result into sign language image information, and the transmission unit also transmits the sign language image information. apparatus.
【請求項5】入力情報を複数種類の言語に翻訳した結果
が多重化される音声多重信号を送出する翻訳装置から情
報を受ける受信部と、 チャネルセレクタ機能と、 上記受信部で受信した情報を音声出力する機能とを有
し、 上記音声多重信号は上記言語毎の識別子を有し、 上記チャネルセレクタ機能は、上記多重化される情報か
らユーザからの指示に対応する言語の情報を上記識別子
に基づいて選択し、上記受信部において受信された該選
択された情報を音声出力することを特徴とする携帯端末
装置。
5. A receiver for receiving information from a translation device for transmitting a voice multiplexed signal in which the result of translating input information into a plurality of languages is multiplexed, a channel selector function, and information received by the receiver. And a function of outputting a voice, the voice multiplexed signal has an identifier for each language, and the channel selector function uses the information of a language corresponding to an instruction from a user from the multiplexed information as the identifier. A mobile terminal device, wherein the mobile terminal device is selected on the basis of the above, and the selected information received by the receiving unit is output as voice.
【請求項6】入力された情報を複数種類の言語に翻訳し
て、該翻訳結果を多重化して送出する翻訳装置とから情
報を受ける受信部と、 チャネルセレクタ機能と、 上記受信部で受信した情報を音声出力する機能とを有
し、 上記音声多重信号は上記言語毎の識別子を有し、 上記チャネルセレクタ機能は、上記多重化される情報か
ら予め設定された言語に対応する翻訳情報を上記識別子
に基づいて選択し、上記受信部において受信された該選
択された情報を音声出力することを特徴とする携帯端末
装置。
6. A receiving unit that receives information from a translation device that translates input information into a plurality of languages and multiplexes the translated results and sends the result, a channel selector function, and the receiving unit. A voice output information, the voice multiplex signal has an identifier for each language, the channel selector function provides translation information corresponding to a preset language from the multiplexed information. A mobile terminal device, wherein the mobile terminal device is selected based on an identifier, and the selected information received by the receiving unit is output as voice.
【請求項7】表示手段をさらに有し、 上記受信部はさらに手話画像情報も受信し、上記表示手
段は該手話画像情報を表示することを特徴とする請求項
5又は6に記載の携帯端末装置。
7. The mobile terminal according to claim 5, further comprising display means, wherein the receiving section further receives sign language image information, and the display means displays the sign language image information. apparatus.
JP21155595A 1995-08-21 1995-08-21 Translation device and portable terminal device Expired - Lifetime JP3473204B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21155595A JP3473204B2 (en) 1995-08-21 1995-08-21 Translation device and portable terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21155595A JP3473204B2 (en) 1995-08-21 1995-08-21 Translation device and portable terminal device

Publications (2)

Publication Number Publication Date
JPH0965424A JPH0965424A (en) 1997-03-07
JP3473204B2 true JP3473204B2 (en) 2003-12-02

Family

ID=16607753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21155595A Expired - Lifetime JP3473204B2 (en) 1995-08-21 1995-08-21 Translation device and portable terminal device

Country Status (1)

Country Link
JP (1) JP3473204B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU5638500A (en) * 1999-10-18 2001-04-30 Jan M. Costello Obtaining retail price information from a computer via telephone in different languages
JP2001306564A (en) 2000-04-21 2001-11-02 Nec Corp Portable terminal with automatic translation function
JP4011268B2 (en) * 2000-07-05 2007-11-21 株式会社アイアイエス Multilingual translation system
KR100387918B1 (en) * 2000-07-11 2003-06-18 이수성 Interpreter
JP2002163143A (en) * 2000-07-28 2002-06-07 Any One Wireless Co Ltd Content reformatting system and its method for radio site
JP3339579B2 (en) * 2000-10-04 2002-10-28 株式会社鷹山 Telephone equipment
JP4135307B2 (en) 2000-10-17 2008-08-20 株式会社日立製作所 Voice interpretation service method and voice interpretation server
JP4089148B2 (en) 2000-10-17 2008-05-28 株式会社日立製作所 Interpreting service method and interpreting service device
JP4495886B2 (en) 2001-08-09 2010-07-07 株式会社日立製作所 Managing voice input recognition sentence collection
JP2009212801A (en) * 2008-03-04 2009-09-17 Hitachi Communication Technologies Ltd Sound transmission system and program
JP2013046358A (en) * 2011-08-26 2013-03-04 Nippon Hoso Kyokai <Nhk> Content reproduction apparatus and content reproduction program
JP2017097422A (en) * 2015-11-18 2017-06-01 鹿島建設株式会社 Transceiver and transmission / reception method
CN112420046B (en) * 2020-10-22 2024-08-13 深圳市声活科技文化有限公司 Multi-person conference method, system and device suitable for hearing impaired people to participate
JP7509392B1 (en) * 2024-01-15 2024-07-02 株式会社Bridge Multilingual Solutions Automatic interpretation system and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5953590B2 (en) * 1979-09-14 1984-12-26 シャープ株式会社 translation device
JP2667408B2 (en) * 1987-10-08 1997-10-27 株式会社東芝 Translation communication system
JP2602103Y2 (en) * 1992-09-25 1999-12-27 孝人 鶴久 Wireless communication interpreting service system
JPH06337627A (en) * 1993-05-27 1994-12-06 Hitachi Ltd Sign language interpreter
JPH06337631A (en) * 1993-05-27 1994-12-06 Hitachi Ltd Dialogue control device in sign language dialogue
JPH0767163A (en) * 1993-08-30 1995-03-10 Nec Commun Syst Ltd Paging system with fixed message display
JP3222283B2 (en) * 1993-09-22 2001-10-22 株式会社日立製作所 Guidance device
JPH07222248A (en) * 1994-02-08 1995-08-18 Hitachi Ltd Method of using voice information in portable information terminals

Also Published As

Publication number Publication date
JPH0965424A (en) 1997-03-07

Similar Documents

Publication Publication Date Title
KR100303411B1 (en) Singlecast interactive radio system
JP2023022150A (en) Two-way speech translation system, two-way speech translation method and program
US6035273A (en) Speaker-specific speech-to-text/text-to-speech communication system with hypertext-indicated speech parameter changes
JP3473204B2 (en) Translation device and portable terminal device
US5815196A (en) Videophone with continuous speech-to-subtitles translation
US7124082B2 (en) Phonetic speech-to-text-to-speech system and method
JPH10260692A (en) Speech recognition / synthesis encoding / decoding method and speech encoding / decoding system
US20100217591A1 (en) Vowel recognition system and method in speech to text applictions
US20030115059A1 (en) Real time translator and method of performing real time translation of a plurality of spoken languages
US20110144997A1 (en) Voice synthesis model generation device, voice synthesis model generation system, communication terminal device and method for generating voice synthesis model
JP2005513619A (en) Real-time translator and method for real-time translation of multiple spoken languages
KR20070007882A (en) Voice Over Short Message Service
US20020198716A1 (en) System and method of improved communication
JPH10136327A (en) Desk top conference system
US20070088547A1 (en) Phonetic speech-to-text-to-speech system and method
US6574598B1 (en) Transmitter and receiver, apparatus and method, all for delivery of information
US20070203703A1 (en) Speech Synthesizing Apparatus
EP1298647B1 (en) A communication device and a method for transmitting and receiving of natural speech, comprising a speech recognition module coupled to an encoder
CN120034607A (en) Device and method for realizing simultaneous translation function of telephone
JP2006319598A (en) Voice communication system
JPH02196373A (en) Voice transmission/reception device
KR100553437B1 (en) Wireless communication terminal having voice message transmission function using speech synthesis and method thereof
EP3678018A1 (en) Information-providing method and information providing apparatus
JP2000184077A (en) Door phone system
CN121662073A (en) An intelligent listening and speaking assistance system and method based on audio conversion for error correction and mispronunciation translation.

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070919

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080919

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080919

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090919

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090919

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100919

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100919

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110919

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120919

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120919

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130919

Year of fee payment: 10

EXPY Cancellation because of completion of term