JP6709963B2 - Translation device and translation method - Google Patents

Translation device and translation method Download PDF

Info

Publication number
JP6709963B2
JP6709963B2 JP2018538034A JP2018538034A JP6709963B2 JP 6709963 B2 JP6709963 B2 JP 6709963B2 JP 2018538034 A JP2018538034 A JP 2018538034A JP 2018538034 A JP2018538034 A JP 2018538034A JP 6709963 B2 JP6709963 B2 JP 6709963B2
Authority
JP
Japan
Prior art keywords
translation
term
text data
data
language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018538034A
Other languages
Japanese (ja)
Other versions
JPWO2018047436A1 (en
Inventor
夏樹 佐伯
夏樹 佐伯
石川 智一
智一 石川
昌克 星見
昌克 星見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2018047436A1 publication Critical patent/JPWO2018047436A1/en
Application granted granted Critical
Publication of JP6709963B2 publication Critical patent/JP6709963B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/45Example-based machine translation; Alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)
  • Crystals, And After-Treatments Of Crystals (AREA)

Description

本開示は、入力された第1言語のデータを第2言語のデータに機械翻訳する翻訳装置及び翻訳方法に関する。 The present disclosure relates to a translation device and a translation method for machine-translating input first language data into second language data.

一般的に機械翻訳には自由文の翻訳と定型文の翻訳がある。定型文の翻訳(以下、定型文翻訳と呼ぶ)においては、予め作成された定型文とそれに対応する翻訳文を記憶しておき、その定型文に応じて翻訳文を出力する。よって、定型文翻訳においては、入力される原文のパターンは限定的であるものの、自由文の翻訳に比して、精度の高い翻訳が得られやすい。したがって、定型文翻訳は、航空機内のアナウンスのように発話内容がある程度定型化されており、翻訳の精度が求められる場合に特に効果的である。 Generally, machine translation includes free text translation and fixed text translation. In the translation of a fixed phrase (hereinafter, referred to as a fixed phrase translation), a fixed phrase created in advance and a corresponding translated sentence are stored, and the translated sentence is output according to the fixed phrase. Therefore, in the standard sentence translation, although the pattern of the input original sentence is limited, it is easy to obtain a highly accurate translation as compared with the translation of the free sentence. Therefore, the standard sentence translation is particularly effective when the utterance content is standardized to some extent, such as an announcement in an aircraft, and translation accuracy is required.

例えば、ある定型文翻訳においては、日本語の定型文とその翻訳結果の英語定型文を予め作成し、入力された文に類似する日本語定型文を取得し、その定型文に対応する英文を出力する(例えば、特許文献1参照)。 For example, in a certain fixed phrase translation, a Japanese fixed phrase and the English fixed phrase of the translation result are created in advance, a Japanese fixed phrase similar to the input sentence is acquired, and an English sentence corresponding to the fixed phrase is extracted. It is output (for example, refer to Patent Document 1).

特許第4393494号公報Japanese Patent No. 4393494

従来の定型文翻訳においては、入力された文と定型文とのマッチングは難しい。そのため、翻訳の精度が十分でない。 In the conventional fixed phrase translation, it is difficult to match the input sentence with the fixed phrase. Therefore, the translation accuracy is not sufficient.

本開示は、定型文翻訳において、翻訳の精度を向上させることができる翻訳装置を提供する。 The present disclosure provides a translation device that can improve the accuracy of translation in fixed-form sentence translation.

本開示の一つの観点に係る翻訳装置は、入力部と、制御部とを備える。入力部は、第1言語の第1テキストデータを取得する。制御部は、第1テキストデータの対訳である第2言語の第2テキストデータを生成する。制御部は更に、第1テキストデータに含まれる所定の種別における第1用語をパラメータに置換することにより第1置換データを生成し、第1置換データに対応する第2言語の第2置換データを取得し、第2置換データに含まれるパラメータを第1用語の対訳である第2言語の第2用語に置換することにより第2テキストデータを生成する。 A translation device according to one aspect of the present disclosure includes an input unit and a control unit. The input unit acquires the first text data in the first language. The control unit generates second text data in a second language which is a parallel translation of the first text data. The control unit further generates the first replacement data by replacing the first term in the predetermined type included in the first text data with a parameter, and generates the second replacement data in the second language corresponding to the first replacement data. The second text data is generated by acquiring and replacing the parameter included in the second replacement data with the second term of the second language which is a parallel translation of the first term.

本開示に係る翻訳装置は、翻訳の精度を向上させるのに有効である。 The translation device according to the present disclosure is effective for improving translation accuracy.

図1は、実施の形態1に係るシステム全体の構成図である。FIG. 1 is a configuration diagram of the entire system according to the first embodiment. 図2は、実施の形態1に係る翻訳装置の構成図である。FIG. 2 is a configuration diagram of the translation apparatus according to the first embodiment. 図3は、翻訳装置による動作を示すフローチャートである。FIG. 3 is a flowchart showing the operation of the translation device. 図4は、翻訳装置による翻訳処理を示すフローチャートである。FIG. 4 is a flowchart showing a translation process by the translation device. 図5Aは、第1言語による発話文の例を示す図である。FIG. 5A is a diagram showing an example of an utterance sentence in the first language. 図5Bは、図5Aの発話文が翻訳装置により認識された結果を示す図である。FIG. 5B is a diagram showing a result of recognition of the utterance sentence of FIG. 5A by the translation device. 図5Cは、図5Bの文に対しパラメータ置換が行われた結果を示す図である。FIG. 5C is a diagram showing a result of parameter substitution performed on the sentence of FIG. 5B. 図5Dは、図5Cの文に対しパラメータの重み付けが行われた結果を示す図である。FIG. 5D is a diagram showing a result of parameter weighting performed on the sentence of FIG. 5C. 図5Eは、図5Dの文に対し類似度計算が行われた結果を示す図である。FIG. 5E is a diagram showing a result of similarity calculation performed on the sentence of FIG. 5D. 図5Fは、図5Eの文の第2言語による対訳を示す図である。FIG. 5F is a diagram showing parallel translation of the sentence of FIG. 5E in the second language. 図5Gは、図5Fの文のうちパラメータを置換した結果を示す図である。FIG. 5G is a diagram showing the result of replacing the parameters in the sentence of FIG. 5F. 図6は、パラメータ情報の内容を示す図である。FIG. 6 is a diagram showing the contents of the parameter information. 図7Aは、パラメータの構成を説明するための図である。FIG. 7A is a diagram for explaining the configuration of parameters. 図7Bは、パラメータの構成を説明するための図である。FIG. 7B is a diagram for explaining the configuration of parameters. 図8は、用例文情報の内容を示す図である。FIG. 8 is a diagram showing the contents of the example sentence information. 図9Aは、スクリプト関数の例を示す図である。FIG. 9A is a diagram illustrating an example of a script function. 図9Bは、スクリプト関数の例を示す図である。FIG. 9B is a diagram showing an example of a script function. 図10Aは、第1言語による発話文の例を示す図である。FIG. 10A is a diagram showing an example of an utterance sentence in the first language. 図10Bは、図10Aの発話文が翻訳装置により認識された結果を示す図である。FIG. 10B is a diagram showing a result in which the utterance sentence of FIG. 10A is recognized by the translation device. 図10Cは、図10Bの文に対し類似度計算が行われた結果を示す図である。FIG. 10C is a diagram showing a result of similarity calculation performed on the sentence of FIG. 10B. 図10Dは、図10Cの文の第2言語による対訳を示す図である。FIG. 10D is a diagram showing parallel translation of the sentence of FIG. 10C in the second language. 図11は、シーン情報及びシーン判定を説明するための図である。FIG. 11 is a diagram for explaining scene information and scene determination. 図12は、用例文情報を生成するための元データを示す図である。FIG. 12 is a diagram showing original data for generating example sentence information. 図13は、他の実施の形態に係る翻訳装置の構成図である。FIG. 13 is a configuration diagram of a translation device according to another embodiment. 図14Aは、用例文の一例を示す図である。FIG. 14A is a diagram showing an example of an example sentence. 図14Bは、正規表現の一例を示す図である。FIG. 14B is a diagram showing an example of a regular expression. 図14Cは、パラメータを有するデータの一例を示す図である。FIG. 14C is a diagram showing an example of data having parameters. 図15Aは、パラメータを有するデータの一例を示す図である。FIG. 15A is a diagram showing an example of data having parameters. 図15Bは、用例文の一例を示す図である。FIG. 15B is a diagram illustrating an example of the example sentence.

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed description of well-known matters or duplicate description of substantially the same configuration may be omitted. This is to prevent the following description from being unnecessarily redundant and to facilitate understanding by those skilled in the art.

なお、発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。 It should be noted that the inventors have provided the accompanying drawings and the following description in order for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims by these. Absent.

(実施の形態1)
[1−1.構成]
図1は、本開示の一実施形態に係る翻訳装置110(図2参照)を含むシステム1全体の構成を示す。本実施形態においては、システム1は、航空機内に設定されているものを例として説明する。システム1は、サーバ装置10(翻訳装置110)と、サーバ装置10に無線又は有線で接続可能な複数の表示装置20とを含む。表示装置20は、航空機内の各座席に設けられている端末コンピュータ(情報端末)である。
(Embodiment 1)
[1-1. Constitution]
FIG. 1 shows the overall configuration of a system 1 including a translation device 110 (see FIG. 2) according to an embodiment of the present disclosure. In the present embodiment, the system 1 will be described as an example of what is set in the aircraft. The system 1 includes a server device 10 (translation device 110) and a plurality of display devices 20 connectable to the server device 10 wirelessly or by wire. The display device 20 is a terminal computer (information terminal) provided in each seat in the aircraft.

[1−1−1.サーバ装置の構成]
サーバ装置10は、CPU(Central Processing Unit)11(制御部及び入力部の一例)、ROM(Read Only Memory)12、RAM(Random Access Memory)13、入力I/F(インタフェース)14、出力I/F(インタフェース)15、通信I/F(インタフェース)16、および記憶装置17を備えるコンピュータ装置である。
[1-1-1. Configuration of server device]
The server device 10 includes a CPU (Central Processing Unit) 11 (an example of a control unit and an input unit), a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an input I/F (interface) 14, and an output I/F. The computer device includes an F (interface) 15, a communication I/F (interface) 16, and a storage device 17.

CPU11は、所定のプログラムに従って処理を実行するプロセッサ又は回路である。ROM12は、CPU11の処理手順を記述した制御プログラム等を記憶する。RAM13は、ワークメモリとして制御プログラムやデータを一時的に格納する。入力I/F14は、マイク30に接続される接続部であり、マイク30からA/D変換された音声データを受信する。出力I/F15は、スピーカ40に接続される接続部であり、スピーカ40にD/A変換された音声を送信する。通信I/F16は、無線又は有線により表示装置20と通信するための通信回路である。 The CPU 11 is a processor or circuit that executes processing according to a predetermined program. The ROM 12 stores a control program or the like that describes the processing procedure of the CPU 11. The RAM 13 temporarily stores a control program and data as a work memory. The input I/F 14 is a connection unit connected to the microphone 30, and receives the A/D converted audio data from the microphone 30. The output I/F 15 is a connection unit connected to the speaker 40, and transmits the D/A converted sound to the speaker 40. The communication I/F 16 is a communication circuit for communicating with the display device 20 wirelessly or by wire.

記憶装置17は、HDD(ハードディスクドライブ)等の磁気記憶装置や半導体メモリ等の記憶装置であり、アプリケーションやOS等の各プログラムや、各種データを格納する。記憶装置17は、CPU11が使用する各種データを保持するデータベースDB(図2参照)を含む。なお、記憶装置17は、サーバ装置10とは別体の記憶装置としてサーバ装置10に接続されていてもよい。 The storage device 17 is a storage device such as a magnetic storage device such as an HDD (hard disk drive) or a semiconductor memory, and stores various programs such as applications and OSs, and various data. The storage device 17 includes a database DB (see FIG. 2) that holds various data used by the CPU 11. The storage device 17 may be connected to the server device 10 as a storage device separate from the server device 10.

マイク30は、サーバ装置10に接続され、音声を受け付け、音声データを出力する。マイク30は、客室乗務員が使うマイクであり、マイクに入力された音声はスピーカ40より出力される。 The microphone 30 is connected to the server device 10, receives voice, and outputs voice data. The microphone 30 is used by a flight attendant, and the sound input to the microphone is output from the speaker 40.

[1−1−2.翻訳装置の構成]
図2は、本実施形態に係る翻訳装置110の構成を示す。翻訳装置110は、音声により入力された日本語(第1言語の一例)のデータを英語(第2言語の一例)のテキストデータに翻訳する装置である。
[1-1-2. Configuration of translation device]
FIG. 2 shows the configuration of the translation device 110 according to this embodiment. The translation device 110 is a device that translates Japanese (an example of a first language) data input by voice into text data of an English (an example of a second language).

翻訳装置110は、音声取得部111と、音声認識部112と、テキスト生成部113と、翻訳処理部114と、翻訳結果出力部115と、を含む。翻訳装置110の各部は、CPU11が記憶装置17内のデータを参照して所定のプログラムを実行することにより実現される。 The translation device 110 includes a voice acquisition unit 111, a voice recognition unit 112, a text generation unit 113, a translation processing unit 114, and a translation result output unit 115. Each unit of the translation device 110 is realized by the CPU 11 referring to the data in the storage device 17 and executing a predetermined program.

音声取得部111は、マイク30からの音声データを取得する。音声認識部112は、取得した音声データを、予め記憶した所定のモデルに基づいて認識する。テキスト生成部113は、認識された音声データをテキストデータに変換する。テキストデータは、音声に変換可能又は画面に表示可能な文字情報又は文字列を含む。 The voice acquisition unit 111 acquires voice data from the microphone 30. The voice recognition unit 112 recognizes the acquired voice data based on a predetermined model stored in advance. The text generator 113 converts the recognized voice data into text data. The text data includes character information or a character string that can be converted into voice or can be displayed on the screen.

翻訳処理部114は、生成されたテキストデータに対し、後述する翻訳処理を行う。 The translation processing unit 114 performs translation processing described below on the generated text data.

翻訳結果出力部115は、翻訳処理部114による翻訳処理の結果を出力する。出力された翻訳結果は、通信I/F16(接続部)を介して各表示装置20に送信される。ここで、英語の翻訳結果は、英語に設定された表示装置20に送信される。 The translation result output unit 115 outputs the result of the translation processing by the translation processing unit 114. The output translation result is transmitted to each display device 20 via the communication I/F 16 (connection unit). Here, the English translation result is transmitted to the display device 20 set to English.

記憶装置17は、データベースDBとして記憶される各種データを保持する。 The storage device 17 holds various data stored as a database DB.

[1−1−3.データベースの内容]
データベースDBには、パラメータ情報(図6参照)、シーン情報(図11参照)、用例文情報(図8参照)、スクリプト関数情報(図9Aおよび図9B参照)等が、関連付けて記憶されている。
[1-1-3. Database contents]
In the database DB, parameter information (see FIG. 6), scene information (see FIG. 11), example sentence information (see FIG. 8), script function information (see FIG. 9A and FIG. 9B), etc. are stored in association with each other. ..

<パラメータ情報>
パラメータ情報は、図6に示すように、後述するパラメータの種別と、用語の正規表現と、当該用語の英語による対訳と、当該用語の重要度を含む情報である。パラメータ情報は、翻訳対象となるテキストデータに所定の種別における用語が含まれる場合に使用される。所定の種別とは、例えば、空港名や航空機の便名、時間等の重要な情報のカテゴリである。それぞれの所定の種別には、多くのバリエーションの用語が含まれる。
<Parameter information>
As shown in FIG. 6, the parameter information is information including a parameter type described later, a regular expression of a term, a parallel translation of the term in English, and an importance of the term. The parameter information is used when the text data to be translated includes a term in a predetermined type. The predetermined type is a category of important information such as an airport name, an aircraft flight number, and time. Each given type includes many variations of terms.

重要度は、後述するように、パラメータの種別やその用語の重要度に応じて予め設定される重みの度合いである。 The degree of importance is, as will be described later, a degree of weight set in advance according to the type of parameter and the degree of importance of the term.

各パラメータは、図7Aに示すように、パラメータの種別(例えば、“airports”)と、用語の重要度に応じて設定される重み付けが反映される重み付け指定情報(例えば、“!”)と、文におけるパラメータの位置を示すパラメータ位置情報(例えば、“$1”)と、パラメータの開始と終端であることを示す“{%”と“%}”とを含む。 As shown in FIG. 7A, each parameter includes a parameter type (for example, “airports”), weighting designation information (for example, “!”) in which weighting set according to the importance of a term is reflected, It includes parameter position information (eg, “$1”) indicating the position of the parameter in the sentence, and “{%” and “%}” indicating the start and end of the parameter.

なお、パラメータ位置情報は、認識されたテキストデータに同じ種別における用語が複数ある場合、文中における用語の順番を示す情報である。例えば、図7Bに示す例では、空港名を示すパラメータが3つ存在するため、{%airports!$1%}、{%airports!$2%}、{%airports!$3%}がテキストデータに含まれる。同様に、時間を表すパラメータが2つ存在するため、{%hours!$1%}と{%hours!$2%}がテキストデータに含まれる。 The parameter position information is information indicating the order of terms in a sentence when the recognized text data includes a plurality of terms of the same type. For example, in the example shown in FIG. 7B, since there are three parameters indicating the airport name, {%airports!$1%}, {%airports!$2%}, and {%airports!$3%} are included in the text data. .. Similarly, since there are two parameters representing time, {%hours!$1%} and {%hours!$2%} are included in the text data.

パラメータ情報の対訳には、図6に示すように呼び出し関数(スクリプト関数)が含まれる。スクリプト関数は、図9A及び図9Bに示すように、特定の種別における用語であって、その内容のパターン(数字の桁数や温度単位の変換等)がある程度決まっている用語を適切な表現に変換するための関数である。これらの関数を用いて変換処理を行うことにより翻訳の質や精度を向上させる。 The parallel translation of the parameter information includes a calling function (script function) as shown in FIG. As shown in FIGS. 9A and 9B, the script function is a term in a specific type, and a term whose content pattern (number of digits of number, conversion of temperature unit, etc.) is determined to some extent is converted into an appropriate expression. It is a function for converting. By performing conversion processing using these functions, the quality and accuracy of translation are improved.

例えば、後述するように便名を発話した場合、音声認識された便名の桁数が実際の便名の桁数と異なる場合がある。便名の桁数は予め決まっている(図9Aの例では4桁)。そのため、図9Aに示すように予め生成されたスクリプト関数“FlightNo”を用いることにより、適切な桁数の便名に整形することが可能となる。 For example, when a flight number is uttered as described later, the number of digits of the flight number recognized by voice recognition may be different from the number of digits of the actual flight number. The number of digits in the flight number is predetermined (4 digits in the example of FIG. 9A). Therefore, by using the script function “FlightNo” generated in advance as shown in FIG. 9A, it is possible to shape the flight number with an appropriate number of digits.

また、図9Bに示すように、文化圏によって異なる単位を、乗客向けに変換するスクリプト関数を用いてもよい。例えば、図9Bに示すように、予め生成されたスクリプト関数“Celsius2Fahrenheit”を用いることにより、摂氏(℃)で表現された気温を、翻訳結果データにおいて華氏(°F)で表現することができる。 Further, as shown in FIG. 9B, a script function for converting a unit different for each culture area for passengers may be used. For example, as shown in FIG. 9B, by using a script function “Celsius2Fahrenheit” generated in advance, the temperature expressed in Celsius (° C.) can be expressed in Fahrenheit (° F) in the translation result data.

<シーン情報>
シーン情報は、図11に示すように、時間や航空機の置かれる環境を示す情報であり、現在のシーンを示す情報を含む。現在のシーンに応じて、後述する用例文情報の検索範囲が決められる。
<Scene information>
As shown in FIG. 11, the scene information is information indicating the time and the environment in which the aircraft is placed, and includes information indicating the current scene. The search range of the example sentence information described later is determined according to the current scene.

<用例文情報>
用例文情報(参照テキストデータ群の一例)は、図8に示すように、日本語の用例文セットと、同用例文セットに対応する対訳とを含む。ここで、日本語の用例文セットは、シーン情報に関連付けられている。各用例文セットは、シーン毎に生成され、複数の用例文の組み合わせ(用例文サブセット)により構成される。
<Example sentence information>
As shown in FIG. 8, the example sentence information (an example of a reference text data group) includes a Japanese example sentence set and a parallel translation corresponding to the same example sentence set. Here, the Japanese example sentence set is associated with the scene information. Each example sentence set is generated for each scene and is composed of a combination of a plurality of example sentences (example sentence subset).

[1−1−4.表示装置の構成]
表示装置20は、航空機の各座席に設置され、情報を表示するディスプレイを備えたコンピュータ装置である。表示装置20は、図1に示すように、CPU21、ROM22、RAM23、通信I/F(インタフェース)26、メモリ27、入力装置28、及びディスプレイ29を備える。
[1-1-4. Display device configuration]
The display device 20 is a computer device installed in each seat of the aircraft and provided with a display for displaying information. As shown in FIG. 1, the display device 20 includes a CPU 21, a ROM 22, a RAM 23, a communication I/F (interface) 26, a memory 27, an input device 28, and a display 29.

CPU21は、命令やデータを処理して出力するプロセッサ又は回路である。ROM22は、CPU21の処理手順を記述した制御プログラム等を記憶する。RAM23は、ワークメモリとして一時的に制御プログラムやデータを格納する。通信I/F26は、例えば、サーバ装置10や航空機内のその他機器と有線又は無線で通信可能な通信回路である。メモリ27は、半導体メモリ等の記憶回路であり、画像等のデータを記憶する。 The CPU 21 is a processor or circuit that processes and outputs instructions and data. The ROM 22 stores a control program or the like that describes the processing procedure of the CPU 21. The RAM 23 temporarily stores a control program and data as a work memory. The communication I/F 26 is, for example, a communication circuit capable of wired or wireless communication with the server device 10 and other devices in the aircraft. The memory 27 is a storage circuit such as a semiconductor memory and stores data such as images.

入力装置28は、タッチパネル、キーボード、またはポインティングデバイス(マウス等)を介して入力される座席のユーザによる入力操作を受け付ける。ディスプレイ29は、液晶パネル、有機ELパネル、又はこれらに類似するパネルによって構成され、処理された画像を表示する画面を含む。ディスプレイ29には、翻訳装置110により生成された翻訳結果のテキストデータが表示される。 The input device 28 receives an input operation by a user of a seat input via a touch panel, a keyboard, or a pointing device (mouse or the like). The display 29 includes a liquid crystal panel, an organic EL panel, or a panel similar thereto, and includes a screen for displaying a processed image. The display 29 displays the text data of the translation result generated by the translation device 110.

[1−2.動作]
以下、本開示に係る翻訳装置110の動作について説明する。
[1-2. motion]
Hereinafter, the operation of the translation device 110 according to the present disclosure will be described.

[1−2−1.翻訳装置の全体動作]
図3は、翻訳装置110による全体の制御フローを示す。以下、航空機内において、乗務員が発話した日本語によるアナウンスの内容を英語に翻訳する処理について説明する。
[1-2-1. Overall operation of the translation device]
FIG. 3 shows an overall control flow by the translation device 110. Hereinafter, a process of translating the content of the announcement in Japanese spoken by the crew into English in the aircraft will be described.

S100:翻訳装置110において、入力I/F14および音声取得部111により、マイク30から音声データが取得される。ここでは、例えば図5Aに示すように発話文D100がマイク30から入力されたものとする。 S100: In the translation device 110, the input I/F 14 and the voice acquisition unit 111 acquire voice data from the microphone 30. Here, it is assumed that the utterance sentence D100 is input from the microphone 30, as shown in FIG. 5A, for example.

S200:取得された音声データは、音声認識部112により認識処理される。ここでは、図5Bに示すテキストデータD200に対応する音声データが音声認識されたものとする。ここで、便名が本来の「9999」ではなく「9000900909」となったのは、ゆっくり発話されたために各桁の数字がそれぞれ単独の数字として認識されたためである。 S200: The voice recognition unit 112 performs recognition processing on the acquired voice data. Here, it is assumed that the voice data corresponding to the text data D200 shown in FIG. 5B has been voice-recognized. Here, the flight number is changed to "9000900909" instead of the original "9999" because the number of each digit is recognized as a single number because the user speaks slowly.

S300:音声認識されたデータは、テキスト生成部113により図5Bに示すようなテキストデータD200(第1テキストデータの一例)として生成される。 S300: The voice-recognized data is generated by the text generation unit 113 as text data D200 (an example of the first text data) as shown in FIG. 5B.

S400:変換されたテキストデータD200は、後述するように翻訳処理部114により翻訳処理がなされる。 S400: The converted text data D200 is translated by the translation processing unit 114 as described later.

S500:翻訳処理された翻訳結果データは、翻訳結果出力部115により出力される。 S500: The translation result data subjected to the translation processing is output by the translation result output unit 115.

S600:翻訳結果データは各座席の表示装置20に送信され、各ディスプレイ29に図5Gに示すような翻訳結果データD500(第2テキストデータの一例)が表示される。 S600: The translation result data is transmitted to the display device 20 of each seat, and the translation result data D500 (an example of the second text data) as shown in FIG. 5G is displayed on each display 29.

[1−2−2.翻訳処理]
図4は、図3のステップS400における翻訳処理部114(図2参照)による翻訳処理のフローを示す。
[1-2-2. Translation process]
FIG. 4 shows a flow of translation processing by the translation processing unit 114 (see FIG. 2) in step S400 of FIG.

S401:ステップS300においてテキスト生成部113により生成されたテキストデータD200が取得される。 S401: The text data D200 generated by the text generation unit 113 in step S300 is acquired.

S402:取得されたテキストデータD200が用語を含むかどうか判定される。本例において、図5Bに示すテキストデータD200の場合、図6に示すパラメータ情報を参照して、用語T1が種別“airports”における用語と判定され、用語T2が種別“flight_num”における用語と判定される。 S402: It is determined whether the acquired text data D200 includes a term. In the present example, in the case of the text data D200 shown in FIG. 5B, with reference to the parameter information shown in FIG. 6, the term T1 is determined to be the term in the type “airports”, and the term T2 is determined to be the term in the type “flight_num”. It

S403:ステップS402において認識されたテキストデータD200が用語を含むと判定された場合、該当する用語がパラメータに置換される。本例では、図5Cに示すように、用語T1と用語T2が用語と判定されるため、データD403が取得される。 S403: When it is determined that the text data D200 recognized in step S402 includes a term, the relevant term is replaced with a parameter. In this example, as shown in FIG. 5C, since the terms T1 and T2 are determined to be terms, the data D403 is acquired.

なお、置換前に認識された用語はパラメータと対応付けて、別途メモリ等に記憶される。ここでは、用語T1が“{%airports!$1%}”に対応付けられ、用語T2が“{%flight_num!$1%}”に対応付けられる。 The term recognized before the replacement is associated with the parameter and stored separately in a memory or the like. Here, the term T1 is associated with “{%airports!$1%}” and the term T2 is associated with “{%flight_num!$1%}”.

S404:取得されたデータD403のパラメータに対し、パラメータの重み付け指定情報(パラメータ情報中の重要度)に応じて、重み付けがなされる。 S404: The parameters of the acquired data D403 are weighted according to the parameter weighting specification information (importance in the parameter information).

具体的には、図6に示すパラメータ情報を参照して、用語T1の重要度を取得する。ここでは、用語T1の重要度は「5」である。よって、パラメータ中の重み付け指定情報の“!”を、この重要度に対応する数値長の文字列(重要度情報の一例)に置き換える。この文字列の長さが長いほど当該パラメータの文全体の大きさに占める割合が大きくなる。そのため、類似度判定における精度を向上させることができる。 Specifically, the importance of the term T1 is acquired with reference to the parameter information shown in FIG. Here, the importance of the term T1 is “5”. Therefore, "!" of the weighting designation information in the parameter is replaced with a character string of numerical length corresponding to this importance (an example of the importance information). The longer the character string, the larger the ratio of the parameter to the entire size of the sentence. Therefore, the accuracy in the similarity determination can be improved.

以上の重み付けの結果、用語T1に対応するパラメータの文字列の長さが重要度「5」に応じて設定される。なお、図5DのデータD404(第1置換データの一例)では、文字列の長さをアンダーバーの個数で表現している。具体的には、重要度が5の場合はアンダーバーの個数を重要度と同じ5個にする。“flight_num”については重要度が0であるため、重み付け指定情報である“!”は取り除かれる。 As a result of the above weighting, the length of the character string of the parameter corresponding to the term T1 is set according to the importance “5”. In the data D404 of FIG. 5D (an example of the first replacement data), the length of the character string is represented by the number of underbars. Specifically, when the importance is 5, the number of underbars is set to 5 which is the same as the importance. Since the importance of “flight_num” is 0, “!” which is the weighting designation information is removed.

S405:シーン情報に基づき現在のシーンを判定する。シーン情報は、上述したように、時間や航空機の状態を含む環境を示す情報である。現在のシーンは、所定の条件またはタイミングで切替わる。なお、シーン情報とその判定処理の詳細については後述する。ここでは、現在のシーンとして「搭乗中」(シーン1)(図11参照)であることを例とする。 S405: Determine the current scene based on the scene information. As described above, the scene information is information indicating the environment including the time and the state of the aircraft. The current scene is switched under a predetermined condition or timing. The details of the scene information and its determination processing will be described later. Here, it is assumed that the current scene is “boarding” (scene 1) (see FIG. 11).

なお、シーン情報は、上述したように検索される用例文に関連付けて保存されている。 The scene information is stored in association with the example sentence searched for as described above.

S406:パラメータを含み、重み付けがなされたデータD404に対し、現在のシーンに応じた用例文セットが選択される。ここでは、現在のシーン(シーン1)に対応する用例文セットが検索対象となる場合を例とする。具体的には、図8に示す用例文情報のうちシーン番号「1」に対応する用例文セット(サブセット1、サブセット2、サブセット3・・・)が検索対象とされる。 S406: An example sentence set corresponding to the current scene is selected for the weighted data D404 including parameters. Here, the case where the example sentence set corresponding to the current scene (scene 1) is the search target is taken as an example. Specifically, the example sentence set (subset 1, subset 2, subset 3...) Corresponding to the scene number “1” in the example sentence information shown in FIG.

なお、ステップS402においてパラメータを含まないと判定された場合も、現在のシーンを判定し(ステップS405)、判定されたシーンに応じた用例文セットが選択される。パラメータを含まないデータに対する翻訳処理部114による処理については後述する。 Even when it is determined in step S402 that the parameter is not included, the current scene is determined (step S405), and the example sentence set corresponding to the determined scene is selected. The processing by the translation processing unit 114 for data that does not include parameters will be described later.

また、一つのシーンに対し、複数の用例文セットが検索対象となる場合がある。 In addition, a plurality of example sentence sets may be search targets for one scene.

S407:選択された用例文セットの各サブセットとデータD404との類似度(距離)が計算される。 S407: The degree of similarity (distance) between each subset of the selected example sentence set and the data D404 is calculated.

ここで、例えば、比較する2つの文字列を等しくするために必要な手順の最少回数(編集距離とも呼ばれる)を求めて、この最少回数が最も少ない文字列同士の類似度を最も高い類似度と判定する。この手順とは、各文字の置き換え、挿入、および削除等である。例えば、レーベンシュタイン距離やジャロ・ウィンクラー距離等、類似度を判定する公知の方法を適用することができる。 Here, for example, the minimum number of steps (also referred to as an edit distance) required to equalize two character strings to be compared is obtained, and the similarity between the character strings having the minimum number of times is defined as the highest similarity. judge. This procedure includes replacement, insertion, deletion, etc. of each character. For example, a known method for determining the degree of similarity, such as the Levenshtein distance or the Jaro-Winckler distance, can be applied.

なお、重要度は、用語に応じて設定されたが、パラメータ位置情報に応じて設定されてもよい。図5Eでは用例文中のパラメータの重み付け指定情報“!”が、用語の重要度に応じたアンダーバーで置き換えられている。 The importance is set according to the term, but may be set according to the parameter position information. In FIG. 5E, the parameter weighting designation information “!” in the example sentence is replaced with an underbar according to the importance of the term.

また、図5Eに示すように、検索される用例文D408におけるパラメータにおいても、データD404と同様に重要度に応じてアンダーバーの置き換えや指定情報“!”の削除が行われる。 Further, as shown in FIG. 5E, also in the parameter in the retrieved example sentence D408, underbar replacement and deletion of the designation information "!" are performed according to the degree of importance as in the case of the data D404.

S408:ステップS407の類似度計算の結果、所定のしきい値(スコア70)以上であり最も高い類似度を有する用例文サブセットが決定される。ここでは、選択された用例文サブセット1、サブセット2、サブセット3・・・の中から、最も高い類似度を有する文として図5Eに示す用例文D408が選択される。 S408: As a result of the similarity calculation in step S407, the example sentence subset that is equal to or higher than a predetermined threshold value (score 70) and has the highest similarity is determined. Here, the example sentence D408 shown in FIG. 5E is selected as the sentence having the highest similarity from the selected example sentence subset 1, subset 2, subset 3...

S409:ステップS408で決定された用例文D408の対訳を取得する。ここでは、図5Fに示す対訳D409(第2置換データの一例)が取得される。 S409: The parallel translation of the example sentence D408 determined in step S408 is acquired. Here, the parallel translation D409 (an example of the second replacement data) illustrated in FIG. 5F is acquired.

S410:対訳D409にパラメータが含まれるかどうかを判定する。そして、パラメータが含まれる場合はステップS411に進む。パラメータが含まれない場合は図3のステップS500に進み対訳を翻訳結果として出力する。 S410: It is determined whether the parallel translation D409 includes a parameter. If the parameter is included, the process proceeds to step S411. If the parameter is not included, the process proceeds to step S500 of FIG. 3 and the parallel translation is output as the translation result.

S411:取得された対訳D409のパラメータを、置換前の用語であって記憶されていた用語の対訳に置換する。ここで、パラメータ情報を参照して対訳を決定する。例えば、{%airports!$1%}に対応する置換前の用語は用語T1であることがステップ403で記憶されている。そして、用語T1に対応する対訳は図6のパラメータ情報を参照すると用語t1「Kansai International Airport」であることが分かる。また、便名を示すパラメータである“{%flight_num!$1%}”の対訳は、図6のパラメータ情報に示すように、呼び出し関数であるスクリプト関数を用いて取得する。具体的には、図9Aに示すスクリプト関数“FlightNo”を用いることにより、認識されたデータである用語T2の桁数を整形し、「9999」に変換する。 S411: The acquired parameter of the parallel translation D409 is replaced with the parallel translation of the term that is the term before the replacement and is stored. Here, the parallel translation is determined by referring to the parameter information. For example, it is stored in step 403 that the term before replacement corresponding to {%airports!$1%} is the term T1. Then, referring to the parameter information in FIG. 6, it is understood that the parallel translation corresponding to the term T1 is the term t1 “Kansai International Airport”. The parallel translation of "{%flight_num!$1%}", which is a parameter indicating the flight number, is acquired by using a script function that is a calling function, as shown in the parameter information of FIG. Specifically, by using the script function “FlightNo” shown in FIG. 9A, the digit number of the term T2 which is the recognized data is shaped and converted into “9999”.

また、図7Bに示すように対訳D409に複数のパラメータが含まれる場合、位置パラメータ情報に応じて英語の用語を選択して、各パラメータをその用語に置換してもよい。 Further, as shown in FIG. 7B, when the parallel translation D409 includes a plurality of parameters, an English term may be selected according to the positional parameter information and each parameter may be replaced with the term.

この結果、翻訳結果データD500が取得される。そして、図3のステップS500に進み、翻訳結果出力部115により翻訳結果データD500を出力する。 As a result, the translation result data D500 is acquired. Then, in step S500 of FIG. 3, the translation result output unit 115 outputs the translation result data D500.

[1−2−3.パラメータを含まない場合の翻訳処理]
パラメータを含まないデータに対する翻訳処理部114による処理(図4のステップS402の“No”からステップS405〜S410の処理)について、別の例を用いて説明する。
[1-2-3. Translation process when parameters are not included]
Processing by the translation processing unit 114 for data that does not include parameters (processing from “No” in step S402 to steps S405 to S410 in FIG. 4) will be described using another example.

ここでは、図10Aに示すように、発話文D100aがアナウンス情報としてマイク30から入力された例を用いて説明する。 Here, as shown in FIG. 10A, description will be given using an example in which the utterance sentence D100a is input from the microphone 30 as the announcement information.

図3のステップS100において、音声取得部111により、発話文D100aがマイク30から音声データとして取得される。その後、図3のステップS200において、発話文D100aが音声認識部112により認識される。そして、図3のステップS300において、音声認識されたデータは、テキスト生成部113により、図10Bに示すようにテキストデータD200aに変換される。そして、ステップS400の翻訳処理に移行する。 In step S100 of FIG. 3, the voice acquisition unit 111 acquires the utterance sentence D100a from the microphone 30 as voice data. Then, in step S200 of FIG. 3, the speech recognition unit 112 recognizes the utterance sentence D100a. Then, in step S300 of FIG. 3, the voice-recognized data is converted by the text generation unit 113 into text data D200a as shown in FIG. 10B. Then, the process proceeds to the translation process of step S400.

先の例と同様に、翻訳処理部114は、テキストデータD200aを取得し(ステップS401)、テキストデータD200aが用語を含むかどうか判定する(ステップS402)。この場合、用語は含まれないため、ステップS405に移行する。 Similar to the previous example, the translation processing unit 114 acquires the text data D200a (step S401) and determines whether the text data D200a includes a term (step S402). In this case, since the term is not included, the process proceeds to step S405.

そして、先の例と同様に現在のシーンを判定し(ステップS405)、現在のシーンに応じた用例文セットを選択する(ステップS406)。そして、図10Cに示すように、認識されたテキストデータD200aと、選択された用例文セットに含まれる各サブセットとの類似度を計算する(ステップS407)。類似度の計算については、先の例と同様である。 Then, similarly to the previous example, the current scene is determined (step S405), and the example sentence set corresponding to the current scene is selected (step S406). Then, as shown in FIG. 10C, the similarity between the recognized text data D200a and each subset included in the selected example sentence set is calculated (step S407). The calculation of the degree of similarity is the same as in the previous example.

ステップS407の類似度計算の結果、所定のしきい値以上であり最も高い類似度を有する用例文サブセットを選択する。ここでは、最も高い類似度を有するサブセットとしてサブセットD408aが選択される(ステップS408)。そして、ステップS408で選択されたサブセットD408aの対訳を取得する(ステップS409)。ここでは、図10Dに示す対訳D500aが取得される。対訳にはパラメータは含まれないと判定され(ステップS410)、図3のステップS500に進み当該対訳を翻訳結果として出力する。 As a result of the similarity calculation in step S407, the example sentence subset that is equal to or higher than a predetermined threshold and has the highest similarity is selected. Here, the subset D408a is selected as the subset having the highest similarity (step S408). Then, the parallel translation of the subset D408a selected in step S408 is acquired (step S409). Here, the parallel translation D500a shown in FIG. 10D is acquired. It is determined that the parallel translation does not include parameters (step S410), and the process proceeds to step S500 in FIG. 3 to output the parallel translation as a translation result.

[1−2−4.シーン情報及び判定処理]
以下、図11を参照して、シーン情報及びその判定処理について説明する。
[1-2-4. Scene information and judgment processing]
Hereinafter, scene information and its determination processing will be described with reference to FIG. 11.

<シーン情報の意義>
上述の用例文情報は、後述するように、既存の航空機マニュアルの文を組み合わせて生成される。しかし、かかる用例文の組み合わせ(用例文セット)の数は膨大であるため、フライトシーン毎に対応した用例文セットのみを作成する。実際に類似度計算(検索)を実施する際には、アナウンス時点での「現在のフライトシーン」に対応した、可能性のある用例文セットを検索対象とする。これにより、発話文の対象となる用例文セットの数を減らすことができる。
<Significance of scene information>
The example sentence information described above is generated by combining sentences of existing aircraft manuals, as will be described later. However, since the number of such example sentence combinations (example sentence sets) is huge, only example sentence sets corresponding to each flight scene are created. When actually executing the similarity calculation (search), a possible example sentence set corresponding to the “current flight scene” at the time of the announcement is set as the search target. This can reduce the number of example sentence sets that are the target of the utterance sentence.

シーン情報は、図11に示すように、例えば(1)搭乗中、(2)(離陸前)滑走路移動中、(3)離陸中、(4)安定飛行中、(5)着陸中、(6)(着陸後)滑走路移動中、(7)降機中等、実際の旅客機運用の時系列に沿って設定されている。シーン情報は、その他に、(8)機内サービス案内、機内販売案内等、ある程度のアナウンスタイミングは決まっているものの、その順序が既定されていない情報も含む。シーン情報は更に、飛行機の大きな揺れが発生した時等の(9)緊急連絡のように、予測できないアナウンス情報を含む。 As shown in FIG. 11, the scene information includes, for example, (1) boarding, (2) (before takeoff) runway movement, (3) takeoff, (4) stable flight, (5) landing, ( It is set according to the timeline of actual passenger aircraft operation, such as 6) (after landing) moving the runway and (7) getting off the aircraft. The scene information also includes (8) in-flight service information, in-flight sales information, and the like, although the announcement timing has been determined to some extent, but the order is not predetermined. The scene information further includes unpredictable announcement information, such as (9) emergency contact when a large sway of an airplane occurs.

<シーンの判定に応じた検索対象である用例文セットの選択>
シーンの判定に応じた検索対象である用例文セットの選択は次のように行われる。すなわち、シーンの判定に応じて、(a)使用の可能性のある用例文セットを検索対象として追加し、(b)使用の可能性のない用例文セットを検索対象として除外し、或いは(c)航空機の状態を含む環境の情報を条件として、用例文セットを検索対象として追加又は除去する。
<Selecting the example sentence set to be searched according to the scene determination>
The selection of the example sentence set as the search target according to the determination of the scene is performed as follows. That is, (a) an example sentence set that may be used is added as a search target, (b) an example sentence set that is not likely to be used is excluded as a search target, or (c) ) Add or remove the example sentence set as a search target under the condition of environment information including the state of the aircraft.

<シーン判定及び検索対象の用例文サブセット切り替え例>
上述したように、判定された現在のシーンに応じて、検索対象である用例文セットの範囲が抽出される。この場合、以下のルールに従って、シーンが判定され、検索対象の用例文サブセットが切り替えられる。
<Example of scene judgment and example sentence subset switching for search>
As described above, the range of the example sentence set that is the search target is extracted according to the determined current scene. In this case, the scene is determined and the example sentence subset to be searched is switched according to the following rules.

(i)ルール1
時系列に沿って変化するシーンについては、翻訳処理部114は、次のようなルールに従ってシーンを判定する。シーンは、例えば、図11に示すように、搭乗中→滑走路移動中→離陸中→安定飛行中→着陸中→滑走路移動中→降機中のように移行する。
(I) Rule 1
For a scene that changes in time series, the translation processing unit 114 determines the scene according to the following rules. For example, as shown in FIG. 11, the scene changes such as during boarding→running on the runway→taking off→stable flight→landing→running on the runway→getting off.

乗務員の業務開始時点では、検索対象である用例文セットは現在のシーン「搭乗中」に対応する用例文セットとなる。よって、最初の検索はこの用例文セットの各サブセットに対し行う。例えば、「搭乗中」がシーン1とすると、図11に示すようにシーン1に対応する用例文のセットが検索対象となる。検索が成功し「搭乗中」の用例文セットから該当する用例サブセットを取得できた場合、「現在のシーン」は「搭乗中」と判定できる。そのため、「現在のシーン」が「搭乗中」であると記憶しておく。これと同時に、(a)次に発話される可能性がある「滑走路移動中」も検索対象に含めるようにする。発話と用例文検索を繰り返すうちに、「現在のシーン」が「搭乗中」から「滑走路移動中」に変わったと判定されると、(b)「搭乗中」に対応する用例文セットは旅客機の運航上、それ以降発話される可能性が無い。そのため、「搭乗中」に対応する用例文セットを検索対象から除外する。 At the start of the work of the crew member, the example sentence set that is the search target is the example sentence set corresponding to the current scene “in flight”. Therefore, the first search is performed for each subset of this example sentence set. For example, when "boarding" is scene 1, as shown in FIG. 11, a set of example sentences corresponding to scene 1 is to be searched. When the search is successful and the corresponding example subset can be acquired from the example sentence set of "boarding", the "current scene" can be determined as "boarding". Therefore, it is stored that the "current scene" is "boarding". At the same time, (a) “running on the runway” that may be spoken next is included in the search target. If it is determined that the "current scene" has changed from "boarding" to "running on the runway" while repeating the utterance and the example sentence search, (b) the example sentence set corresponding to "boarding" is the passenger plane. There is no possibility of being uttered after that due to the flight. Therefore, the example sentence set corresponding to “during boarding” is excluded from the search target.

この様にして、シーンの移行を表すルールと発話内容とから判定された「現在のシーン」の次のシーンの可能性のある用例文セットを追加したり、可能性の無い用例文セットを除外したりすることで、検索対象を限定する。これにより、より正確で高速に用例文セットの検索が可能となる。 In this way, an example sentence set with a possibility of the next scene of the "current scene" judged from the rule indicating the scene transition and the utterance content is added, or an example sentence set with no possibility is excluded. By doing, the search target is limited. As a result, it is possible to search the example sentence set more accurately and at high speed.

また、一つのシーンで発話される可能性のある用例文セットが複数ある場合には、それらの用例文セットも検索対象としておく。例えば、図11に示すように、現在のシーンが「安定飛行中」と判定された時、後続の用例文セットである「機内サービス案内」や「機内販売案内」は、それぞれ発話される可能性がある。そのため、両方を検索の対象に含める。 In addition, when there are a plurality of example sentence sets that may be uttered in one scene, those example sentence sets are also set as search targets. For example, as shown in FIG. 11, when it is determined that the current scene is “in stable flight”, the subsequent example sentence sets “in-flight service guide” and “in-flight sales guide” may be uttered, respectively. There is. Therefore, both are included in the search target.

なお、シーンを切替える条件またはタイミング(つまり検索対象である用例文セットを切替える条件またはタイミング)としては、上記シーン判定以外にも、航空機の運航状態や機内の状態が変化する時を条件としてもよい。例えば、滑走中であるか等の状態の情報は航空機から取得できる。また、高度や機体の傾き・速度・機首の方位、ベルト着用サイン点灯等を利用すれば、状態の変化の情報を取得できる。例えば、図11に示すように、シーン情報は各シーンと機内状態との対応関係を有している。そのため、速度、高度、ドアの開閉の有無、揺れ、GPS等の情報を用いて、シーンを判定してもよい。例えば、機体に大きな振動が発生したことを示す情報を取得できた場合、現在のシーンに関わらず、シーン(9)に切替えて自動的に「緊急連絡」の用例文セットを検索対象とするようにしてもよい。 The conditions or timings for switching the scenes (that is, the conditions or timings for switching the example sentence set to be searched) may be conditions other than the above scene determination, such as when the operating state of the aircraft or the state of the cabin changes. .. For example, information on the condition such as whether the vehicle is gliding can be acquired from the aircraft. In addition, information on the change in state can be obtained by using altitude, tilt/speed of the body, heading of the nose, lighting of a belt wearing sign, and the like. For example, as shown in FIG. 11, the scene information has a correspondence relationship between each scene and the in-machine state. Therefore, the scene may be determined using information such as speed, altitude, presence/absence of door opening/closing, shaking, and GPS. For example, if information indicating that a large vibration has occurred in the aircraft, regardless of the current scene, switch to scene (9) and automatically search for the “emergency contact” example sentence set. You can

また、乗務員によるサーバ装置10への直接入力により、現在のシーンを切替えてもよい。 Further, the current scene may be switched by a direct input to the server device 10 by a crew member.

(ii)ルール2
他のシーンと同時に発生するシーンは、次のように判定される。例えば、シーン(8)の機内サービス案内に対応する用例文セットは、安定飛行中のみに検索対象となるように設定される。また、シーン(9)の緊急連絡に対応する用例文セットは、シーンの切り替えに関係なく常時検索対象となるように設定される。
(Ii) Rule 2
Scenes that occur simultaneously with other scenes are determined as follows. For example, the example sentence set corresponding to the in-flight service guide for scene (8) is set to be searched only during stable flight. Further, the example sentence set corresponding to the emergency notification of the scene (9) is set so as to be always searched regardless of the scene switching.

以上のようにして、シーンに応じて、用例文情報を参照する範囲を変更してもよい。 As described above, the range in which the example sentence information is referred to may be changed according to the scene.

[1−2−5.用例文セットの元データの生成]
用例文セットは、航空会社のアナウンス情報のマニュアル等から生成された元データから生成される。具体的には、同じシーン内の文を連結して、組み合わせ文章を生成して、用例文セット(図8参照)を構成する用例文サブセットを生成する。用例文サブセットは最大組み合わせ数を上限として生成される。例えば、最大組み合わせ数は4である。
[1-2-5. Generate original data of example sentence set]
The example sentence set is generated from original data generated from a manual or the like of announcement information of an airline company. Specifically, sentences in the same scene are connected to generate a combined sentence, and an example sentence subset forming an example sentence set (see FIG. 8) is generated. The example sentence subset is generated with the maximum number of combinations as the upper limit. For example, the maximum number of combinations is four.

図12は用例文サブセットを生成するための元データの例を示す。図12はシーン1(搭乗中)において使用される用例文i〜vを示す。各用例文にある「順序」は用例文が組み合わせられるときの順序を示す。用例文i〜vに基づき、例えばi,i+ii、ii+iii・・・等全ての組み合わせに対応する複数の用例文サブセット(例えば、図8参照)が生成され、シーンに対応する用例文セットとして記憶される。 FIG. 12 shows an example of original data for generating an example sentence subset. FIG. 12 shows example sentences i to v used in the scene 1 (during boarding). The “order” in each example sentence indicates the order in which the example sentences are combined. Based on the example sentences i to v, a plurality of example sentence subsets (for example, see FIG. 8) corresponding to all combinations such as i, i+ii, ii+iii, etc. are generated, and as example sentence sets corresponding to scenes. Remembered.

用例文サブセットの生成は、順序(昇順)に従って生成される(順序が4から3などの組み合わせは生成されない)。例えば、用例文i+用例文iiとする組み合わせは、用例文iが順序「1」、用例文iiが順序「2」となっているため、適正な用例文サブセットとして生成される。しかし、用例文v+用例文iiiとする組み合わせは、用例文vが順序「4」、用例文iiiが順序「3」となっているため、適正でなく生成されない。 The example sentence subsets are generated according to the order (ascending order) (combinations such as the order from 4 to 3 are not generated). For example, the combination of the example sentence i+the example sentence ii is generated as an appropriate example sentence subset because the example sentence i has the order “1” and the example sentence ii has the order “2”. However, the combination of the example sentence v+the example sentence iii is not proper because the example sentence v has the order “4” and the example sentence iii has the order “3”, and thus the combination is not generated.

また、用例文ivと用例文vは順序が同じ「4」となっているため、どちらが先でもよい。さらに、用例文iv+用例文vのように同じ順序を含む用例文セットが生成されてもよい。或いは、これとは逆に、同じ順序が割り当てられている場合、排他フラグ等を立てることにより、いずれかの用例文を含むサブセットの生成のみ許可するようにしてもよい。 Further, since the example sentence iv and the example sentence v have the same order of “4”, whichever comes first. Furthermore, an example sentence set including the same order as the example sentence iv+the example sentence v may be generated. Alternatively, conversely, when the same order is assigned, an exclusion flag or the like may be set to allow only the generation of the subset including any of the example sentences.

[1−3.効果等]
上記実施形態に係る翻訳装置110においては、翻訳処理部114は、日本語(第1言語の一例)のテキストデータに含まれる所定の種別における用語をパラメータに置換する。そして、翻訳処理部114は、同パラメータを含む日本語のテキストデータの、英語(第2言語の一例)の対訳を取得し、同対訳に含まれるパラメータを用語の対訳に変換することにより、翻訳結果データを生成する。
[1-3. Effect, etc.]
In the translation device 110 according to the above embodiment, the translation processing unit 114 replaces a term in a predetermined type included in the text data of Japanese (an example of the first language) with a parameter. Then, the translation processing unit 114 obtains a parallel translation of English (an example of the second language) of the Japanese text data including the same parameter, and converts the parameter included in the parallel translation into a parallel translation of the term, thereby performing translation. Generate result data.

特に定型文翻訳において、翻訳処理部114は、頻繁に変化する用語(本開示の例では、空港名、便名、時間等)をパラメータに置き換えてから、対訳を選択する。そして、翻訳処理部114は、最後にパラメータ部分を用語に置き換える。これにより、定型文に対する類似度判定の精度を高めることができ、翻訳の精度を向上させることができる。 In particular, in the fixed sentence translation, the translation processing unit 114 replaces frequently changing terms (in the example of the present disclosure, airport name, flight number, time, etc.) with parameters, and then selects bilingual translation. Then, the translation processing unit 114 finally replaces the parameter part with a term. As a result, the accuracy of the similarity determination with respect to the fixed phrase can be increased, and the accuracy of translation can be improved.

また、パラメータの種別やその重要度に応じて、パラメータの重み付けを行う(例えば、文字列の長さを調整する)。これにより、特に類似度判定において重要な用語の影響力を大きくすることができるため、翻訳の精度を向上させることができる。 Further, the parameters are weighted according to the type of the parameter and its importance (for example, the length of the character string is adjusted). As a result, the influence of the term particularly important in the similarity determination can be increased, so that the translation accuracy can be improved.

更に、判定されたシーンに応じて用例文の検索範囲を狭めることができる。そのため、類似度判定を効率的に実行することができ、翻訳の処理を高速化できる。 Further, the search range of the example sentence can be narrowed according to the determined scene. Therefore, the similarity determination can be efficiently performed, and the translation process can be speeded up.

(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1で説明した各構成要素及び機能を組み合わせて、新たな実施の形態とすることも可能である。
(Other embodiments)
As described above, the first embodiment has been described as an example of the technique disclosed in the present application. However, the technique of the present disclosure is not limited to this, and is also applicable to the embodiment in which changes, replacements, additions, omissions, etc. are appropriately made. Further, it is also possible to combine the constituent elements and functions described in the first embodiment to form a new embodiment.

そこで、以下、他の実施の形態を例示する。 Therefore, other embodiments will be exemplified below.

[1]
上記実施形態においては、翻訳装置110は、第2言語として英語の翻訳結果データを各表示装置20に送信していたが、表示装置20毎に割り当てられた言語の翻訳結果データを配信するようにしてもよい。
[1]
In the above embodiment, the translation device 110 transmits the translation result data in English as the second language to each display device 20, but the translation device 110 may deliver the translation result data in the language assigned to each display device 20. May be.

図13は、本例による翻訳装置2110の機能ブロック図である。翻訳装置2110は、認識された第1言語によるテキストデータを複数の第2言語に翻訳し、複数の第2言語による翻訳結果データを対応する表示装置20にそれぞれ送信する点で翻訳装置110と異なる。また、翻訳装置2110は、データベースDBの用例文セットとパラメータ情報において複数の第2言語の対訳情報を保持している点で翻訳装置110と異なる。翻訳結果出力部2115は、各表示装置20にいずれの第2言語による翻訳結果データを送信するかを、記憶装置17に予め記憶された言語設定情報217aを参照して判定する。そして、翻訳結果出力部2115は、判定結果に基づいて翻訳結果データを送信する。言語設定情報217aは、各表示装置20のユーザによって入力装置28(図1参照)の操作を介して設定される。言語設定情報217aは、翻訳装置2110に送信され記憶装置17に記憶されている。 FIG. 13 is a functional block diagram of the translation device 2110 according to this example. The translation device 2110 is different from the translation device 110 in that the recognized text data in the first language is translated into a plurality of second languages, and the translation result data in the plurality of second languages is transmitted to the corresponding display devices 20. . The translation device 2110 is different from the translation device 110 in that it holds a plurality of parallel translation information of the second language in the example sentence set of the database DB and the parameter information. The translation result output unit 2115 determines which of the second languages the translation result data is to be transmitted to each display device 20, by referring to the language setting information 217a stored in advance in the storage device 17. Then, the translation result output unit 2115 transmits the translation result data based on the determination result. The language setting information 217a is set by the user of each display device 20 through the operation of the input device 28 (see FIG. 1). The language setting information 217a is transmitted to the translation device 2110 and stored in the storage device 17.

なお、言語設定情報217aは、ユーザの座席予約情報や国籍等に応じて予め翻訳装置2110に送信され記憶されていてもよい。 The language setting information 217a may be transmitted and stored in advance in the translation device 2110 according to the seat reservation information, nationality, etc. of the user.

その他の構成及び機能は実施の形態1と同様である。 Other configurations and functions are similar to those of the first embodiment.

[2]
各表示装置20に送信される翻訳結果データは、複数種の言語によるデータであってもよい。例えば、ユーザの希望言語が不明な場合、航空機籍の言語、出発国の言語、到着国の言語等に応じて複数の翻訳結果データを表示するようにしてもよい。
[2]
The translation result data transmitted to each display device 20 may be data in a plurality of languages. For example, when the user's desired language is unknown, a plurality of translation result data may be displayed according to the language of the aircraft registration, the language of the departure country, the language of the arrival country, and the like.

[3]
上記実施形態においては、翻訳結果データは、表示装置20のディスプレイ29に表示されるが、これに限定されない。翻訳結果データは、音声に変換され表示装置20のイヤホン(図示省略)から出力するようにしてもよい。或いは、翻訳結果データは、サーバ装置10において音声に変換され、スピーカ40を介して航空機内で放送されてもよい。
[3]
In the above embodiment, the translation result data is displayed on the display 29 of the display device 20, but the present invention is not limited to this. The translation result data may be converted into voice and output from an earphone (not shown) of the display device 20. Alternatively, the translation result data may be converted into voice in the server device 10 and broadcast via the speaker 40 in the aircraft.

また、翻訳結果データは、サーバ装置10に接続される大画面のディスプレイに表示され、複数のユーザが見られるようにしてもよい。 The translation result data may be displayed on a large-screen display connected to the server device 10 so that a plurality of users can view it.

[4]
翻訳装置110は航空機内において利用されることに限定されない。翻訳装置110は、空港での案内、その他の交通機関、レストラン、病院、宿泊施設等、定型文を用いた翻訳が可能な場所において利用されてもよい。
[4]
The translation device 110 is not limited to being used in an aircraft. The translation device 110 may be used in locations such as airport guidance, other transportation facilities, restaurants, hospitals, accommodation facilities, etc., where translation using standard phrases is possible.

翻訳装置110はコンピュータ端末に設けられていてもよい。この場合、音声又はテキストで入力されたデータに対し翻訳処理を行って、スピーカ又はディスプレイを介して翻訳結果を出力するようにしてもよい。ここで、音声でデータが入力される際には、翻訳処理の前に音声認識処理が行われる。 The translation device 110 may be provided in a computer terminal. In this case, the translation processing may be performed on the data input by voice or text, and the translation result may be output via the speaker or the display. Here, when the data is input by voice, the voice recognition process is performed before the translation process.

[5]
上記実施形態において、類似度を判定するためのしきい値を70としていたがこれに限定されない。しきい値は70より大きくても小さくてもよい。
[5]
In the above embodiment, the threshold value for determining the similarity is 70, but the threshold value is not limited to this. The threshold may be greater than or less than 70.

また、判定されるシーンに応じてしきい値を設定してもよい。例えば、緊急時のシーンのしきい値を他のシーンのしきい値よりも上げることにより、より精度の高い翻訳結果データを得られるようにしてもよい。 Further, the threshold may be set according to the scene to be judged. For example, the threshold value of an emergency scene may be set higher than the threshold values of other scenes to obtain more accurate translation result data.

[6]
上記実施形態においては、翻訳装置110は、判定されるシーンに応じて用例文情報の検索範囲を変更しているが、これに加えて又はこれに代えて、判定されるシーンに応じて検索の優先順位を変更するようにしてもよい。例えば、図11の(9)の「緊急連絡」に対応する用例文サブセットは、その重要性からいずれのシーンにおいても検索対象とされているとする。しかし、(1)の「搭乗中」に対応する用例文サブセットは、(4)の「安定飛行中」に比べて発生確率が低い。このことから、(1)の「搭乗中」に対応する用例文サブセットの検索の優先順位を低くする等が考えられる。この場合、検索途中で非常に高い類似度のスコアが得られた場合、検索を停止して当該用例文セットを用いて翻訳処理を進めてもよい。以上のようにして、シーンに応じて、用例文情報を参照する順番を変更してもよい。
[6]
In the above-described embodiment, the translation device 110 changes the search range of the example sentence information according to the determined scene, but in addition or instead of this, the search range of the example sentence information is changed according to the determined scene. The priority order may be changed. For example, it is assumed that the example sentence subset corresponding to “emergency contact” in (9) of FIG. 11 is a search target in any scene because of its importance. However, the example sentence subset corresponding to “in flight” in (1) has a lower occurrence probability than in “stable flight” in (4). From this, it is conceivable to lower the priority of the retrieval of the example sentence subset corresponding to (1) "in flight". In this case, if a score with a very high degree of similarity is obtained during the search, the search may be stopped and the translation process may be performed using the example sentence set. As described above, the order of referring to the example sentence information may be changed according to the scene.

[7]
スクリプト関数は、第2言語の種類に応じて用いるようにしてもよい。例えば、図9Bに示す温度の単位の変更は、同じ単位を使用する文化圏においては言語が異なっていても変換する必要はない。この場合、第2言語の種類と単位情報の対応関係を含む情報を記憶装置17に予め記憶しておく。そして、翻訳処理部114は、図4のステップS411において、第2言語の種類を判定し、当該スクリプト関数を用いるかどうか判定してから、対訳への置換を行うようにしてもよい。
[7]
The script function may be used depending on the type of the second language. For example, changing the unit of temperature shown in FIG. 9B does not need to be converted even if the language is different in a culture using the same unit. In this case, information including the correspondence between the type of the second language and the unit information is stored in the storage device 17 in advance. Then, in step S411 of FIG. 4, the translation processing unit 114 may determine the type of the second language, determine whether or not to use the script function, and then perform the replacement into the bilingual translation.

[8]
上記実施形態における処理(図3及び図4等の処理)の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。
[8]
The execution order of the processes (the processes of FIGS. 3 and 4 etc.) in the above embodiment is not necessarily limited to the description of the above embodiment, and the execution order may be changed without departing from the gist of the invention. It is possible.

例えば、図4において現在のシーンの判定(ステップS405)は、パラメータ判定(ステップS402)よりも前に行ってもよいし、パラメータ判定と同時に行ってもよい。 For example, in FIG. 4, the determination of the current scene (step S405) may be performed before the parameter determination (step S402) or may be performed simultaneously with the parameter determination.

[9]
シーンによって用例文サブセットが得られるので、その用例中に含まれているパラメータの種別も用例文を調べることで列挙ができる。従って、音声認識結果(発話)文に対して正規表現を用いて検索を行うパラメータの種別(airports等)も限定することができる。これによって、本来パラメータ置換を行いたくない部分も置換されてしまうという問題を軽減することができる。これについて、図14A〜図14Cを用いて説明する。
[9]
Since the example sentence subset is obtained depending on the scene, the types of parameters included in the example can be enumerated by checking the example sentence. Therefore, it is possible to limit the types of parameters (airports, etc.) that are searched for using the regular expression for the voice recognition result (utterance) sentence. As a result, it is possible to reduce the problem that a part that should not be subjected to parameter replacement is also replaced. This will be described with reference to FIGS. 14A to 14C.

例えば、(2)滑走路移動中、または(3)離陸中の用例文として用例文D800という文があり、パラメータ情報に温度に関する用語の正規表現として正規表現D801がある場合について考える。用例文D800と発話された場合、用語T3という表現が温度に関するパラメータとマッチしてしまい、用例文D800がデータD802に置き換えられてしまう可能性がある。 For example, let us consider a case where there is an example sentence D800 as an example sentence during (2) runway movement or (3) takeoff, and there is a regular expression D801 as a regular expression of a term relating to temperature in the parameter information. When the example sentence D800 is spoken, there is a possibility that the expression of the term T3 matches the temperature-related parameter and the example sentence D800 is replaced with the data D802.

しかし、実際は(2)滑走路移動中、または(3)離陸中において、温度に関する用語を含む用例文は無い。そのため、(2)滑走路移動中、または(3)離陸中においては、ステップS402の用語の検出の際に温度に関する用語を検出しないようにする。これによって、より精度の高い翻訳を実現することができる。 However, actually, there is no example sentence including a term regarding temperature during (2) runway movement or (3) takeoff. Therefore, during (2) movement of the runway, or (3) during takeoff, the term relating to temperature is not detected during the term detection in step S402. As a result, more accurate translation can be realized.

[10]
特定のパラメータ情報を事前に航空機の持つ情報で置き換えておいてもよい。これについて、図15Aおよび図15Bを用いて説明する。
[10]
The specific parameter information may be replaced with the information held by the aircraft in advance. This will be described with reference to FIGS. 15A and 15B.

例えば、システム1が関西空港行きであるという情報を事前に取得している場合は、用例文中の行き先に関するパラメータを全てあらかじめ用語T1に置き換える。またステップS402の用語検出の際に用語T1という用語は検出対象外とする。この置き換えを行うことで、発話文に対してパラメータ置換を行った後のテキストデータはデータD900となる。また、最も高い類似度を有する用例文は用例文D901となる。これにより、「羽田空港」等の行き先以外の空港名が発話された場合に、類似度のスコアを下げることができる。そのため、翻訳の精度が向上する。 For example, when the information that the system 1 is destined for Kansai Airport is acquired in advance, all the parameters regarding the destination in the example sentence are replaced with the term T1 in advance. In addition, the term T1 is excluded from detection when the term is detected in step S402. By performing this replacement, the text data after the parameter replacement is performed on the utterance sentence becomes the data D900. The example sentence having the highest similarity is the example sentence D901. As a result, when an airport name other than the destination such as “Haneda Airport” is spoken, the score of the similarity can be lowered. Therefore, the accuracy of translation is improved.

なおシステム1は、用例文中のどのパラメータが行き先に関係しているかを示す情報を保持し、それを参照する。例えば、用例文D408(図5E参照)の「{%airports_____$1%}」は行き先に関係しているが、図7Bの「{%airports!$1%}」は行き先に関係していない等といった情報が、テーブルで管理されている。このテーブルを参照することで、図7Bに示されている用例文の「{%airports!$1%}」は用語T1に置換されない。 The system 1 holds information indicating which parameter in the example sentence is related to the destination and refers to it. For example, “{%airports_____$1%}” in the example sentence D408 (see FIG. 5E) is related to the destination, but “{%airports!$1%}” in FIG. 7B is not related to the destination. Is managed by the table. By referring to this table, "{%airports!$1%}" in the example sentence shown in FIG. 7B is not replaced with the term T1.

[11]
上記実施形態においては、音声データを入力しているがこれに限定されない。例えば、タッチパネルやキーボード等の入力装置から入力I/Fを介してテキストデータを取得してもよいし、外部の装置から通信I/Fを介してテキストデータを取得してもよい。これにより、翻訳処理部114による翻訳処理を実行してもよい。
[11]
In the above embodiment, voice data is input, but the present invention is not limited to this. For example, text data may be acquired from an input device such as a touch panel or a keyboard via an input I/F, or text data may be acquired from an external device via a communication I/F. Thereby, the translation processing by the translation processing unit 114 may be executed.

[12]
本開示に係る翻訳装置110は、上記実施形態により実施されることに限られない。翻訳装置110により実行される翻訳方法や、翻訳装置110により実行される実行されるコンピュータプログラム、かかるプログラムを記録したコンピュータ読み取り可能な記録媒体は、本開示の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray(登録商標)Disc)、半導体メモリを挙げることができる。
[12]
The translation device 110 according to the present disclosure is not limited to being implemented by the above embodiment. A translation method executed by the translation device 110, a computer program executed by the translation device 110, and a computer-readable recording medium recording the program are included in the scope of the present disclosure. Here, examples of the computer-readable recording medium include a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, a BD (Blu-ray (registered trademark) Disc), and a semiconductor memory. Can be mentioned.

上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。 The computer program is not limited to the one recorded in the recording medium, but may be transmitted via an electric communication line, a wireless or wired communication line, a network typified by the Internet, or the like.

[13]
上記実施形態においては、パラメータの判定や置換を行わなくてもよい。つまり、翻訳処理部114は、図4においてステップS401のテキストデータ取得後、ステップS405のシーン判定を行い、ステップS406において判定されたシーンに応じた用例文サブセットを選択する。
[13]
In the above embodiment, it is not necessary to determine or replace the parameters. That is, the translation processing unit 114 performs the scene determination in step S405 after acquiring the text data in step S401 in FIG. 4, and selects the example sentence subset corresponding to the scene determined in step S406.

この場合、判定されたシーンに応じて用例文のサブセットを選択することにより、用例文情報の検索範囲を狭めることができる。そのため、翻訳処理が効率化され且つ翻訳の処理を高速化できる。 In this case, it is possible to narrow the search range of the example sentence information by selecting a subset of the example sentence according to the determined scene. Therefore, the translation process can be made efficient and the translation process can be speeded up.

これに基づき、別の観点に係る発明は次のように表現できる。 Based on this, the invention according to another aspect can be expressed as follows.

「第1言語による入力データを取得する入力部と、
前記入力データを認識し、認識した前記入力データに基づき前記第1言語のテキストデータを生成し、前記テキストデータの対訳である第2言語のテキストデータを生成する制御部と、を備え、前記制御部は、
前記第1言語による用例文と前記用例文の前記第2言語による対訳とを含む参照テキストデータ群を参照することにより、前記第1言語のテキストデータとの類似度がしきい値以上である用例文を取得し、前記用例文の前記第2言語による対訳に基づき前記第2言語のテキストデータを生成し、
時間及び環境の少なくとも一方に応じて変化するシーンを判定し、
判定された前記シーンに応じて前記参照テキストデータ群を参照する範囲及び順番の少なくとも一方を変更する、翻訳装置。」
"An input unit for acquiring input data in the first language,
A control unit that recognizes the input data, generates text data of the first language based on the recognized input data, and generates text data of a second language that is a parallel translation of the text data. Department is
When the similarity with the text data of the first language is equal to or more than a threshold value by referring to the reference text data group including the example sentence in the first language and the parallel translation of the example sentence in the second language. Acquiring example sentences, and generating text data in the second language based on parallel translation of the example sentences in the second language,
Judge scenes that change according to at least one of time and environment,
A translation device that changes at least one of a range and an order in which the reference text data group is referred to according to the determined scene. "

本開示は、翻訳装置として利用可能である。 The present disclosure can be used as a translation device.

1 :システム
10 :サーバ装置
11 :CPU
12 :ROM
13 :RAM
14 :入力I/F
15 :出力I/F
16 :通信I/F
17 :記憶装置
20 :表示装置
21 :CPU
22 :ROM
23 :RAM
26 :通信I/F
27 :メモリ
28 :入力装置
29 :ディスプレイ
30 :マイク
40 :スピーカ
110 :翻訳装置
111 :音声取得部
112 :音声認識部
113 :テキスト生成部
114 :翻訳処理部
115 :翻訳結果出力部
2110 :翻訳装置
2115 :翻訳結果出力部
1: System 10: Server device 11: CPU
12: ROM
13: RAM
14: Input I/F
15: Output I/F
16: Communication I/F
17: storage device 20: display device 21: CPU
22: ROM
23: RAM
26: Communication I/F
27: Memory 28: Input device 29: Display 30: Microphone 40: Speaker 110: Translation device 111: Speech acquisition unit 112: Speech recognition unit 113: Text generation unit 114: Translation processing unit 115: Translation result output unit 2110: Translation device 2115: Translation result output unit

Claims (10)

第1言語の第1テキストデータを取得する入力部と、
前記第1テキストデータの対訳である第2言語の第2テキストデータを生成する制御部と、を備え、
前記制御部は、
所定の種別における前記第1言語の第1用語と、前記第1用語の重要度と、前記第1用語の対訳である前記第2言語の第2用語とを含むパラメータ情報に基づいて、前記第1テキストデータに含まれる前記第1用語を前記第1用語の重要度が高いほど文字列が長くなる重要度情報を含むパラメータに置換することにより、第1置換データを生成し、
用例文と前記用例文の対訳とを含む参照テキストデータ群を参照することにより、前記第1置換データとの類似度がしきい値以上である前記用例文を選択し、
前記用例文の対訳を、前記第1置換データに対応する前記第2言語の第2置換データとして取得し、
前記パラメータ情報に基づいて、前記第2置換データに含まれる前記パラメータを前記第2用語に置換することにより、前記第2テキストデータを生成する、
翻訳装置。
An input unit for acquiring the first text data of the first language,
A control unit for generating second text data in a second language which is a parallel translation of the first text data,
The control unit is
Based on parameter information including a first term of the first language in a predetermined type, an importance of the first term, and a second term of the second language that is a parallel translation of the first term, the first term 1st substitution data is produced|generated by substituting the said 1st term contained in 1 text data by the parameter containing the importance information whose character string becomes long, so that the importance of the said 1st term is high ,
By selecting a reference text data group including an example sentence and a bilingual translation of the example sentence, the example sentence whose similarity to the first replacement data is a threshold value or more is selected,
Acquiring a parallel translation of the example sentence as the second replacement data of the second language corresponding to the first replacement data,
Based on said parameter information, by replacing the parameter included in the second replacement data in the second term, and generates the second text data,
Translation device.
前記パラメータは、前記第1テキストデータに前記所定の種別の他の第1用語がある場合、前記第1テキストデータにおける前記他の第1用語の位置と異なる前記第1用語の位置を示すパラメータ位置情報を含み、
前記制御部は、前記パラメータ位置情報に応じて前記第2置換データにおける前記パラメータを置換する前記第2用語を選択する、
請求項1に記載の翻訳装置。
The parameter is a parameter position indicating a position of the first term different from a position of the other first term in the first text data when the first text data includes another first term of the predetermined type. Including information,
The control unit selects the second term that replaces the parameter in the second replacement data according to the parameter position information,
The translation device according to claim 1.
前記パラメータ情報と前記参照テキストデータ群を保持する記憶装置を備える、
請求項1または2に記載の翻訳装置。
A storage device for holding the parameter information and the reference text data group,
The translation device according to claim 1.
前記制御部は、時間及び周囲の状況の少なくとも一方に応じて変化するシーンを判定し、前記判定した前記シーンに応じて前記参照テキストデータ群を参照する範囲及び順番の少なくとも一方を変更する、
請求項1から3のいずれかに記載の翻訳装置。
The control unit determines a scene that changes according to at least one of time and surrounding conditions, and changes at least one of a range and an order in which the reference text data group is referred to according to the determined scene.
The translation device according to claim 1 .
前記制御部は、前記判定した前記シーンに応じて前記しきい値を変更する、
請求項に記載の翻訳装置。
The control unit changes the threshold value according to the determined scene,
The translation device according to claim 4 .
前記第2言語は、複数の第2言語を含み、
前記制御部は、前記複数の第2言語のそれぞれに対して、前記第2テキストデータを生成する、
請求項1からのいずれかに記載の翻訳装置。
The second language includes a plurality of second languages,
The control unit generates the second text data for each of the plurality of second languages,
Translation apparatus according to any one of claims 1 to 5.
接続部を有し、
前記制御部は、前記第2テキストデータを、前記接続部を介して前記第2言語に設定された情報端末に送信する、
請求項1からのいずれかに記載の翻訳装置。
Has a connection,
The control unit transmits the second text data to the information terminal set in the second language via the connection unit,
Translation device according to any of claims 1 6.
前記制御部は、
前記第1テキストデータに前記所定の種別における第1用語が含まれるかどうかを判定し、
前記第1テキストデータに前記第1用語が含まれないと判定した場合、前記参照テキストデータ群を参照することにより、前記第1テキストデータの対訳を取得する、
請求項1からのいずれかに記載の翻訳装置。
The control unit is
Determining whether the first text data includes a first term in the predetermined type,
When it is determined that the first term is not included in the first text data, a parallel translation of the first text data is acquired by referring to the reference text data group ,
Translation apparatus according to any one of claims 1 to 7.
前記入力部は、前記第1言語の音声データを認識することにより、前記第1テキストデータを取得する、
請求項1からのいずれかに記載の翻訳装置。
The input unit acquires the first text data by recognizing the voice data in the first language,
Translation device according to any one of claims 1 to 8.
第1言語の第1テキストデータを取得し、
所定の種別における前記第1言語の第1用語と、前記第1用語の重要度と、前記第1用語の対訳である前記第2言語の第2用語とを含むパラメータ情報に基づいて、前記第1テキストデータに含まれる前記第1用語を前記第1用語の重要度が高いほど文字列が長くなる重要度情報を含むパラメータに置換することにより、第1置換データを生成し、
用例文と前記用例文の対訳とを含む参照テキストデータ群を参照することにより、前記第1置換データとの類似度がしきい値以上である前記用例文を選択し、
前記用例文の対訳を、前記第1置換データに対応する第2言語の第2置換データとしてメモリより取得し、
前記パラメータ情報に基づいて、前記第2置換データに含まれる前記パラメータを前記第2用語に置換することにより、前記第2言語の第2テキストデータを生成する、
翻訳方法。
Acquire the first text data of the first language,
The first term of the first language in a predetermined type, the importance of the first term, and the second term of the second language that is a parallel translation of the first term, based on the parameter information, 1st substitution data is produced|generated by substituting the said 1st term contained in 1 text data by the parameter containing the importance information whose character string becomes long, so that the importance of the said 1st term is high ,
By selecting a reference text data group including an example sentence and a bilingual translation of the example sentence, the example sentence whose similarity to the first replacement data is a threshold value or more is selected,
The parallel translation of the example sentence is acquired from the memory as the second replacement data of the second language corresponding to the first replacement data,
Based on said parameter information, by replacing the parameter included in the second replacement data in the second term, to produce a second text data of the second language,
How to translate.
JP2018538034A 2016-09-09 2017-06-22 Translation device and translation method Active JP6709963B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016176956 2016-09-09
JP2016176956 2016-09-09
PCT/JP2017/023010 WO2018047436A1 (en) 2016-09-09 2017-06-22 Translation device and translation method

Publications (2)

Publication Number Publication Date
JPWO2018047436A1 JPWO2018047436A1 (en) 2019-01-24
JP6709963B2 true JP6709963B2 (en) 2020-06-17

Family

ID=61561371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018538034A Active JP6709963B2 (en) 2016-09-09 2017-06-22 Translation device and translation method

Country Status (7)

Country Link
US (1) US10943074B2 (en)
EP (1) EP3511844A4 (en)
JP (1) JP6709963B2 (en)
KR (1) KR20190047685A (en)
CN (1) CN109564591A (en)
SG (1) SG11201811724TA (en)
WO (1) WO2018047436A1 (en)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
CN104969289B (en) 2013-02-07 2021-05-28 苹果公司 Voice trigger of digital assistant
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US12197817B2 (en) 2016-06-11 2025-01-14 Apple Inc. Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. Low-latency intelligent automated assistant
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
WO2019220725A1 (en) * 2018-05-18 2019-11-21 パナソニックIpマネジメント株式会社 Voice recognition device, voice recognition method, and program
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. Virtual assistant operation in multi-device environments
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11475884B2 (en) * 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
CN113297857A (en) * 2020-04-26 2021-08-24 阿里巴巴集团控股有限公司 Data translation method and device, terminal equipment and readable storage medium
WO2021229651A1 (en) * 2020-05-11 2021-11-18 パナソニックIpマネジメント株式会社 Information communication system and method for controlling terminal
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US12301635B2 (en) 2020-05-11 2025-05-13 Apple Inc. Digital assistant hardware abstraction
US11586834B2 (en) * 2020-06-30 2023-02-21 Roblox Corporation Automatic localization of dynamic content
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11769019B1 (en) * 2020-11-19 2023-09-26 Amazon Technologies, Inc. Machine translation with adapted neural networks

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3315221B2 (en) * 1993-11-19 2002-08-19 シャープ株式会社 Conversation sentence translator
US6466900B1 (en) * 1998-05-29 2002-10-15 Citicorp Development Center, Inc. Multi-language phrase editor and method thereof
US7165020B2 (en) * 1998-05-29 2007-01-16 Citicorp Development Center, Inc. Multi-language phrase editor and method thereof
US6654950B1 (en) * 1999-08-24 2003-11-25 Bae Systems Mission Solutions Inc. Software rehosting system and method
US7346488B2 (en) * 2000-07-10 2008-03-18 Fujitsu Limited Automatic translator and computer-readable storage medium having automatic translation program recorded thereon
US7043420B2 (en) * 2000-12-11 2006-05-09 International Business Machines Corporation Trainable dynamic phrase reordering for natural language generation in conversational systems
ATE465457T1 (en) * 2002-03-27 2010-05-15 Univ Southern California PHRASE-BASED COMMON PROBABILITY MODEL FOR STATISTICAL MACHINE TRANSLATION
US20080027830A1 (en) * 2003-11-13 2008-01-31 Eplus Inc. System and method for creation and maintenance of a rich content or content-centric electronic catalog
CA2562366A1 (en) * 2004-04-06 2005-10-20 Department Of Information Technology A system for multiligual machine translation from english to hindi and other indian languages using pseudo-interlingua and hybridized approach
US7499850B1 (en) * 2004-06-03 2009-03-03 Microsoft Corporation Generating a logical model of objects from a representation of linguistic concepts for use in software model generation
US8050907B2 (en) * 2004-07-30 2011-11-01 Microsoft Corporation Generating software components from business rules expressed in a natural language
US20060129633A1 (en) * 2004-12-14 2006-06-15 International Business Machines Corporation Mechanism to facilitate customization of real time messaging using mobile devices
JP4393494B2 (en) 2006-09-22 2010-01-06 株式会社東芝 Machine translation apparatus, machine translation method, and machine translation program
JP2008225744A (en) * 2007-03-12 2008-09-25 National Institute Of Information & Communication Technology Machine translation apparatus and program
JP5235344B2 (en) * 2007-07-03 2013-07-10 株式会社東芝 Apparatus, method and program for machine translation
US8516380B2 (en) * 2007-12-28 2013-08-20 International Business Machines Corporation Conversation abstractions based on trust levels in a virtual world
CN101960451A (en) * 2008-02-29 2011-01-26 夏普株式会社 Information processing device, method, and program
US7970757B2 (en) * 2008-03-17 2011-06-28 International Business Machines Corporation Computer program product for database query optimization
WO2009149549A1 (en) * 2008-06-09 2009-12-17 National Research Council Of Canada Method and system for using alignment means in matching translation
JP5398202B2 (en) * 2008-09-09 2014-01-29 株式会社船井電機新応用技術研究所 Translation program, translation system, translation system manufacturing method, and bilingual data generation method
US8280718B2 (en) * 2009-03-16 2012-10-02 Xerox Corporation Method to preserve the place of parentheses and tags in statistical machine translation systems
US8306807B2 (en) * 2009-08-17 2012-11-06 N T repid Corporation Structured data translation apparatus, system and method
US9552355B2 (en) * 2010-05-20 2017-01-24 Xerox Corporation Dynamic bi-phrases for statistical machine translation
JP5747508B2 (en) * 2011-01-05 2015-07-15 富士ゼロックス株式会社 Bilingual information search device, translation device, and program
US8781810B2 (en) * 2011-07-25 2014-07-15 Xerox Corporation System and method for productive generation of compound words in statistical machine translation
US9244902B2 (en) * 2011-10-20 2016-01-26 Zynga, Inc. Localization framework for dynamic text
JP2014075073A (en) * 2012-10-05 2014-04-24 Fuji Xerox Co Ltd Translation processor and program
JP6186198B2 (en) * 2013-07-17 2017-08-23 株式会社エヌ・ティ・ティ・データ Learning model creation device, translation device, learning model creation method, and program
US9430463B2 (en) * 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9367541B1 (en) * 2015-01-20 2016-06-14 Xerox Corporation Terminological adaptation of statistical machine translation system through automatic generation of phrasal contexts for bilingual terms
US9372853B1 (en) * 2015-02-22 2016-06-21 Cisco Technology, Inc. Homomorphic document translation
US9632999B2 (en) * 2015-04-03 2017-04-25 Klangoo, Sal. Techniques for understanding the aboutness of text based on semantic analysis
JP2017058865A (en) * 2015-09-15 2017-03-23 株式会社東芝 Machine translation device, machine translation method, and machine translation program
US10765956B2 (en) * 2016-01-07 2020-09-08 Machine Zone Inc. Named entity recognition on chat data
US10185720B2 (en) * 2016-05-10 2019-01-22 International Business Machines Corporation Rule generation in a data governance framework

Also Published As

Publication number Publication date
US20190243902A1 (en) 2019-08-08
WO2018047436A1 (en) 2018-03-15
EP3511844A1 (en) 2019-07-17
US10943074B2 (en) 2021-03-09
CN109564591A (en) 2019-04-02
JPWO2018047436A1 (en) 2019-01-24
EP3511844A4 (en) 2019-08-07
SG11201811724TA (en) 2019-04-29
KR20190047685A (en) 2019-05-08

Similar Documents

Publication Publication Date Title
JP6709963B2 (en) Translation device and translation method
US11335334B2 (en) Information processing device and information processing method
EP2863300B1 (en) Function execution instruction system, function execution instruction method, and function execution instruction program
EP3791383B1 (en) On-device speech synthesis of textual segments for training of on-device speech recognition model
US11915693B2 (en) System and method for rule based modifications to variable slots based on context
US11264007B2 (en) Translation device, translation method, and program
US11030400B2 (en) System and method for identifying and replacing slots with variable slots
WO2015141700A1 (en) Dialogue system construction support apparatus and method
CN104575516A (en) Systems and methods for correcting accent-induced speech in an aircraft cockpit using a dynamic speech database
US10002610B2 (en) Presentation supporting device, presentation supporting method, and computer-readable recording medium
US20180277145A1 (en) Information processing apparatus for executing emotion recognition
US20200043493A1 (en) Translation device
US11048886B2 (en) Language translation by dividing character strings by fixed phases with maximum similarity
US11403470B2 (en) Translation device
WO2018138933A1 (en) Announcement system and voice information conversion device
JP2017167938A (en) Learning device, learning method, and program
JPWO2016151692A1 (en) Tag assignment support apparatus, method and program
US20230043401A1 (en) Information communication system and method for controlling terminal
US20230135606A1 (en) Information processing apparatus and information processing method
JP2024158695A (en) Control system and program
JP2022070016A (en) Voice processing device, voice processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180828

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R150 Certificate of patent or registration of utility model

Ref document number: 6709963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150