JP6709963B2 - Translation device and translation method - Google Patents
Translation device and translation method Download PDFInfo
- Publication number
- JP6709963B2 JP6709963B2 JP2018538034A JP2018538034A JP6709963B2 JP 6709963 B2 JP6709963 B2 JP 6709963B2 JP 2018538034 A JP2018538034 A JP 2018538034A JP 2018538034 A JP2018538034 A JP 2018538034A JP 6709963 B2 JP6709963 B2 JP 6709963B2
- Authority
- JP
- Japan
- Prior art keywords
- translation
- term
- text data
- data
- language
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/45—Example-based machine translation; Alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
- Crystals, And After-Treatments Of Crystals (AREA)
Description
本開示は、入力された第1言語のデータを第2言語のデータに機械翻訳する翻訳装置及び翻訳方法に関する。 The present disclosure relates to a translation device and a translation method for machine-translating input first language data into second language data.
一般的に機械翻訳には自由文の翻訳と定型文の翻訳がある。定型文の翻訳(以下、定型文翻訳と呼ぶ)においては、予め作成された定型文とそれに対応する翻訳文を記憶しておき、その定型文に応じて翻訳文を出力する。よって、定型文翻訳においては、入力される原文のパターンは限定的であるものの、自由文の翻訳に比して、精度の高い翻訳が得られやすい。したがって、定型文翻訳は、航空機内のアナウンスのように発話内容がある程度定型化されており、翻訳の精度が求められる場合に特に効果的である。 Generally, machine translation includes free text translation and fixed text translation. In the translation of a fixed phrase (hereinafter, referred to as a fixed phrase translation), a fixed phrase created in advance and a corresponding translated sentence are stored, and the translated sentence is output according to the fixed phrase. Therefore, in the standard sentence translation, although the pattern of the input original sentence is limited, it is easy to obtain a highly accurate translation as compared with the translation of the free sentence. Therefore, the standard sentence translation is particularly effective when the utterance content is standardized to some extent, such as an announcement in an aircraft, and translation accuracy is required.
例えば、ある定型文翻訳においては、日本語の定型文とその翻訳結果の英語定型文を予め作成し、入力された文に類似する日本語定型文を取得し、その定型文に対応する英文を出力する(例えば、特許文献1参照)。 For example, in a certain fixed phrase translation, a Japanese fixed phrase and the English fixed phrase of the translation result are created in advance, a Japanese fixed phrase similar to the input sentence is acquired, and an English sentence corresponding to the fixed phrase is extracted. It is output (for example, refer to Patent Document 1).
従来の定型文翻訳においては、入力された文と定型文とのマッチングは難しい。そのため、翻訳の精度が十分でない。 In the conventional fixed phrase translation, it is difficult to match the input sentence with the fixed phrase. Therefore, the translation accuracy is not sufficient.
本開示は、定型文翻訳において、翻訳の精度を向上させることができる翻訳装置を提供する。 The present disclosure provides a translation device that can improve the accuracy of translation in fixed-form sentence translation.
本開示の一つの観点に係る翻訳装置は、入力部と、制御部とを備える。入力部は、第1言語の第1テキストデータを取得する。制御部は、第1テキストデータの対訳である第2言語の第2テキストデータを生成する。制御部は更に、第1テキストデータに含まれる所定の種別における第1用語をパラメータに置換することにより第1置換データを生成し、第1置換データに対応する第2言語の第2置換データを取得し、第2置換データに含まれるパラメータを第1用語の対訳である第2言語の第2用語に置換することにより第2テキストデータを生成する。 A translation device according to one aspect of the present disclosure includes an input unit and a control unit. The input unit acquires the first text data in the first language. The control unit generates second text data in a second language which is a parallel translation of the first text data. The control unit further generates the first replacement data by replacing the first term in the predetermined type included in the first text data with a parameter, and generates the second replacement data in the second language corresponding to the first replacement data. The second text data is generated by acquiring and replacing the parameter included in the second replacement data with the second term of the second language which is a parallel translation of the first term.
本開示に係る翻訳装置は、翻訳の精度を向上させるのに有効である。 The translation device according to the present disclosure is effective for improving translation accuracy.
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed description of well-known matters or duplicate description of substantially the same configuration may be omitted. This is to prevent the following description from being unnecessarily redundant and to facilitate understanding by those skilled in the art.
なお、発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。 It should be noted that the inventors have provided the accompanying drawings and the following description in order for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims by these. Absent.
(実施の形態1)
[1−1.構成]
図1は、本開示の一実施形態に係る翻訳装置110(図2参照)を含むシステム1全体の構成を示す。本実施形態においては、システム1は、航空機内に設定されているものを例として説明する。システム1は、サーバ装置10(翻訳装置110)と、サーバ装置10に無線又は有線で接続可能な複数の表示装置20とを含む。表示装置20は、航空機内の各座席に設けられている端末コンピュータ(情報端末)である。(Embodiment 1)
[1-1. Constitution]
FIG. 1 shows the overall configuration of a
[1−1−1.サーバ装置の構成]
サーバ装置10は、CPU(Central Processing Unit)11(制御部及び入力部の一例)、ROM(Read Only Memory)12、RAM(Random Access Memory)13、入力I/F(インタフェース)14、出力I/F(インタフェース)15、通信I/F(インタフェース)16、および記憶装置17を備えるコンピュータ装置である。[1-1-1. Configuration of server device]
The
CPU11は、所定のプログラムに従って処理を実行するプロセッサ又は回路である。ROM12は、CPU11の処理手順を記述した制御プログラム等を記憶する。RAM13は、ワークメモリとして制御プログラムやデータを一時的に格納する。入力I/F14は、マイク30に接続される接続部であり、マイク30からA/D変換された音声データを受信する。出力I/F15は、スピーカ40に接続される接続部であり、スピーカ40にD/A変換された音声を送信する。通信I/F16は、無線又は有線により表示装置20と通信するための通信回路である。
The
記憶装置17は、HDD(ハードディスクドライブ)等の磁気記憶装置や半導体メモリ等の記憶装置であり、アプリケーションやOS等の各プログラムや、各種データを格納する。記憶装置17は、CPU11が使用する各種データを保持するデータベースDB(図2参照)を含む。なお、記憶装置17は、サーバ装置10とは別体の記憶装置としてサーバ装置10に接続されていてもよい。
The
マイク30は、サーバ装置10に接続され、音声を受け付け、音声データを出力する。マイク30は、客室乗務員が使うマイクであり、マイクに入力された音声はスピーカ40より出力される。
The
[1−1−2.翻訳装置の構成]
図2は、本実施形態に係る翻訳装置110の構成を示す。翻訳装置110は、音声により入力された日本語(第1言語の一例)のデータを英語(第2言語の一例)のテキストデータに翻訳する装置である。[1-1-2. Configuration of translation device]
FIG. 2 shows the configuration of the
翻訳装置110は、音声取得部111と、音声認識部112と、テキスト生成部113と、翻訳処理部114と、翻訳結果出力部115と、を含む。翻訳装置110の各部は、CPU11が記憶装置17内のデータを参照して所定のプログラムを実行することにより実現される。
The
音声取得部111は、マイク30からの音声データを取得する。音声認識部112は、取得した音声データを、予め記憶した所定のモデルに基づいて認識する。テキスト生成部113は、認識された音声データをテキストデータに変換する。テキストデータは、音声に変換可能又は画面に表示可能な文字情報又は文字列を含む。
The
翻訳処理部114は、生成されたテキストデータに対し、後述する翻訳処理を行う。
The
翻訳結果出力部115は、翻訳処理部114による翻訳処理の結果を出力する。出力された翻訳結果は、通信I/F16(接続部)を介して各表示装置20に送信される。ここで、英語の翻訳結果は、英語に設定された表示装置20に送信される。
The translation
記憶装置17は、データベースDBとして記憶される各種データを保持する。
The
[1−1−3.データベースの内容]
データベースDBには、パラメータ情報(図6参照)、シーン情報(図11参照)、用例文情報(図8参照)、スクリプト関数情報(図9Aおよび図9B参照)等が、関連付けて記憶されている。[1-1-3. Database contents]
In the database DB, parameter information (see FIG. 6), scene information (see FIG. 11), example sentence information (see FIG. 8), script function information (see FIG. 9A and FIG. 9B), etc. are stored in association with each other. ..
<パラメータ情報>
パラメータ情報は、図6に示すように、後述するパラメータの種別と、用語の正規表現と、当該用語の英語による対訳と、当該用語の重要度を含む情報である。パラメータ情報は、翻訳対象となるテキストデータに所定の種別における用語が含まれる場合に使用される。所定の種別とは、例えば、空港名や航空機の便名、時間等の重要な情報のカテゴリである。それぞれの所定の種別には、多くのバリエーションの用語が含まれる。<Parameter information>
As shown in FIG. 6, the parameter information is information including a parameter type described later, a regular expression of a term, a parallel translation of the term in English, and an importance of the term. The parameter information is used when the text data to be translated includes a term in a predetermined type. The predetermined type is a category of important information such as an airport name, an aircraft flight number, and time. Each given type includes many variations of terms.
重要度は、後述するように、パラメータの種別やその用語の重要度に応じて予め設定される重みの度合いである。 The degree of importance is, as will be described later, a degree of weight set in advance according to the type of parameter and the degree of importance of the term.
各パラメータは、図7Aに示すように、パラメータの種別(例えば、“airports”)と、用語の重要度に応じて設定される重み付けが反映される重み付け指定情報(例えば、“!”)と、文におけるパラメータの位置を示すパラメータ位置情報(例えば、“$1”)と、パラメータの開始と終端であることを示す“{%”と“%}”とを含む。 As shown in FIG. 7A, each parameter includes a parameter type (for example, “airports”), weighting designation information (for example, “!”) in which weighting set according to the importance of a term is reflected, It includes parameter position information (eg, “$1”) indicating the position of the parameter in the sentence, and “{%” and “%}” indicating the start and end of the parameter.
なお、パラメータ位置情報は、認識されたテキストデータに同じ種別における用語が複数ある場合、文中における用語の順番を示す情報である。例えば、図7Bに示す例では、空港名を示すパラメータが3つ存在するため、{%airports!$1%}、{%airports!$2%}、{%airports!$3%}がテキストデータに含まれる。同様に、時間を表すパラメータが2つ存在するため、{%hours!$1%}と{%hours!$2%}がテキストデータに含まれる。 The parameter position information is information indicating the order of terms in a sentence when the recognized text data includes a plurality of terms of the same type. For example, in the example shown in FIG. 7B, since there are three parameters indicating the airport name, {%airports!$1%}, {%airports!$2%}, and {%airports!$3%} are included in the text data. .. Similarly, since there are two parameters representing time, {%hours!$1%} and {%hours!$2%} are included in the text data.
パラメータ情報の対訳には、図6に示すように呼び出し関数(スクリプト関数)が含まれる。スクリプト関数は、図9A及び図9Bに示すように、特定の種別における用語であって、その内容のパターン(数字の桁数や温度単位の変換等)がある程度決まっている用語を適切な表現に変換するための関数である。これらの関数を用いて変換処理を行うことにより翻訳の質や精度を向上させる。 The parallel translation of the parameter information includes a calling function (script function) as shown in FIG. As shown in FIGS. 9A and 9B, the script function is a term in a specific type, and a term whose content pattern (number of digits of number, conversion of temperature unit, etc.) is determined to some extent is converted into an appropriate expression. It is a function for converting. By performing conversion processing using these functions, the quality and accuracy of translation are improved.
例えば、後述するように便名を発話した場合、音声認識された便名の桁数が実際の便名の桁数と異なる場合がある。便名の桁数は予め決まっている(図9Aの例では4桁)。そのため、図9Aに示すように予め生成されたスクリプト関数“FlightNo”を用いることにより、適切な桁数の便名に整形することが可能となる。 For example, when a flight number is uttered as described later, the number of digits of the flight number recognized by voice recognition may be different from the number of digits of the actual flight number. The number of digits in the flight number is predetermined (4 digits in the example of FIG. 9A). Therefore, by using the script function “FlightNo” generated in advance as shown in FIG. 9A, it is possible to shape the flight number with an appropriate number of digits.
また、図9Bに示すように、文化圏によって異なる単位を、乗客向けに変換するスクリプト関数を用いてもよい。例えば、図9Bに示すように、予め生成されたスクリプト関数“Celsius2Fahrenheit”を用いることにより、摂氏(℃)で表現された気温を、翻訳結果データにおいて華氏(°F)で表現することができる。 Further, as shown in FIG. 9B, a script function for converting a unit different for each culture area for passengers may be used. For example, as shown in FIG. 9B, by using a script function “Celsius2Fahrenheit” generated in advance, the temperature expressed in Celsius (° C.) can be expressed in Fahrenheit (° F) in the translation result data.
<シーン情報>
シーン情報は、図11に示すように、時間や航空機の置かれる環境を示す情報であり、現在のシーンを示す情報を含む。現在のシーンに応じて、後述する用例文情報の検索範囲が決められる。<Scene information>
As shown in FIG. 11, the scene information is information indicating the time and the environment in which the aircraft is placed, and includes information indicating the current scene. The search range of the example sentence information described later is determined according to the current scene.
<用例文情報>
用例文情報(参照テキストデータ群の一例)は、図8に示すように、日本語の用例文セットと、同用例文セットに対応する対訳とを含む。ここで、日本語の用例文セットは、シーン情報に関連付けられている。各用例文セットは、シーン毎に生成され、複数の用例文の組み合わせ(用例文サブセット)により構成される。<Example sentence information>
As shown in FIG. 8, the example sentence information (an example of a reference text data group) includes a Japanese example sentence set and a parallel translation corresponding to the same example sentence set. Here, the Japanese example sentence set is associated with the scene information. Each example sentence set is generated for each scene and is composed of a combination of a plurality of example sentences (example sentence subset).
[1−1−4.表示装置の構成]
表示装置20は、航空機の各座席に設置され、情報を表示するディスプレイを備えたコンピュータ装置である。表示装置20は、図1に示すように、CPU21、ROM22、RAM23、通信I/F(インタフェース)26、メモリ27、入力装置28、及びディスプレイ29を備える。[1-1-4. Display device configuration]
The
CPU21は、命令やデータを処理して出力するプロセッサ又は回路である。ROM22は、CPU21の処理手順を記述した制御プログラム等を記憶する。RAM23は、ワークメモリとして一時的に制御プログラムやデータを格納する。通信I/F26は、例えば、サーバ装置10や航空機内のその他機器と有線又は無線で通信可能な通信回路である。メモリ27は、半導体メモリ等の記憶回路であり、画像等のデータを記憶する。
The
入力装置28は、タッチパネル、キーボード、またはポインティングデバイス(マウス等)を介して入力される座席のユーザによる入力操作を受け付ける。ディスプレイ29は、液晶パネル、有機ELパネル、又はこれらに類似するパネルによって構成され、処理された画像を表示する画面を含む。ディスプレイ29には、翻訳装置110により生成された翻訳結果のテキストデータが表示される。
The
[1−2.動作]
以下、本開示に係る翻訳装置110の動作について説明する。[1-2. motion]
Hereinafter, the operation of the
[1−2−1.翻訳装置の全体動作]
図3は、翻訳装置110による全体の制御フローを示す。以下、航空機内において、乗務員が発話した日本語によるアナウンスの内容を英語に翻訳する処理について説明する。[1-2-1. Overall operation of the translation device]
FIG. 3 shows an overall control flow by the
S100:翻訳装置110において、入力I/F14および音声取得部111により、マイク30から音声データが取得される。ここでは、例えば図5Aに示すように発話文D100がマイク30から入力されたものとする。
S100: In the
S200:取得された音声データは、音声認識部112により認識処理される。ここでは、図5Bに示すテキストデータD200に対応する音声データが音声認識されたものとする。ここで、便名が本来の「9999」ではなく「9000900909」となったのは、ゆっくり発話されたために各桁の数字がそれぞれ単独の数字として認識されたためである。
S200: The
S300:音声認識されたデータは、テキスト生成部113により図5Bに示すようなテキストデータD200(第1テキストデータの一例)として生成される。
S300: The voice-recognized data is generated by the
S400:変換されたテキストデータD200は、後述するように翻訳処理部114により翻訳処理がなされる。
S400: The converted text data D200 is translated by the
S500:翻訳処理された翻訳結果データは、翻訳結果出力部115により出力される。
S500: The translation result data subjected to the translation processing is output by the translation
S600:翻訳結果データは各座席の表示装置20に送信され、各ディスプレイ29に図5Gに示すような翻訳結果データD500(第2テキストデータの一例)が表示される。
S600: The translation result data is transmitted to the
[1−2−2.翻訳処理]
図4は、図3のステップS400における翻訳処理部114(図2参照)による翻訳処理のフローを示す。[1-2-2. Translation process]
FIG. 4 shows a flow of translation processing by the translation processing unit 114 (see FIG. 2) in step S400 of FIG.
S401:ステップS300においてテキスト生成部113により生成されたテキストデータD200が取得される。
S401: The text data D200 generated by the
S402:取得されたテキストデータD200が用語を含むかどうか判定される。本例において、図5Bに示すテキストデータD200の場合、図6に示すパラメータ情報を参照して、用語T1が種別“airports”における用語と判定され、用語T2が種別“flight_num”における用語と判定される。 S402: It is determined whether the acquired text data D200 includes a term. In the present example, in the case of the text data D200 shown in FIG. 5B, with reference to the parameter information shown in FIG. 6, the term T1 is determined to be the term in the type “airports”, and the term T2 is determined to be the term in the type “flight_num”. It
S403:ステップS402において認識されたテキストデータD200が用語を含むと判定された場合、該当する用語がパラメータに置換される。本例では、図5Cに示すように、用語T1と用語T2が用語と判定されるため、データD403が取得される。 S403: When it is determined that the text data D200 recognized in step S402 includes a term, the relevant term is replaced with a parameter. In this example, as shown in FIG. 5C, since the terms T1 and T2 are determined to be terms, the data D403 is acquired.
なお、置換前に認識された用語はパラメータと対応付けて、別途メモリ等に記憶される。ここでは、用語T1が“{%airports!$1%}”に対応付けられ、用語T2が“{%flight_num!$1%}”に対応付けられる。 The term recognized before the replacement is associated with the parameter and stored separately in a memory or the like. Here, the term T1 is associated with “{%airports!$1%}” and the term T2 is associated with “{%flight_num!$1%}”.
S404:取得されたデータD403のパラメータに対し、パラメータの重み付け指定情報(パラメータ情報中の重要度)に応じて、重み付けがなされる。 S404: The parameters of the acquired data D403 are weighted according to the parameter weighting specification information (importance in the parameter information).
具体的には、図6に示すパラメータ情報を参照して、用語T1の重要度を取得する。ここでは、用語T1の重要度は「5」である。よって、パラメータ中の重み付け指定情報の“!”を、この重要度に対応する数値長の文字列(重要度情報の一例)に置き換える。この文字列の長さが長いほど当該パラメータの文全体の大きさに占める割合が大きくなる。そのため、類似度判定における精度を向上させることができる。 Specifically, the importance of the term T1 is acquired with reference to the parameter information shown in FIG. Here, the importance of the term T1 is “5”. Therefore, "!" of the weighting designation information in the parameter is replaced with a character string of numerical length corresponding to this importance (an example of the importance information). The longer the character string, the larger the ratio of the parameter to the entire size of the sentence. Therefore, the accuracy in the similarity determination can be improved.
以上の重み付けの結果、用語T1に対応するパラメータの文字列の長さが重要度「5」に応じて設定される。なお、図5DのデータD404(第1置換データの一例)では、文字列の長さをアンダーバーの個数で表現している。具体的には、重要度が5の場合はアンダーバーの個数を重要度と同じ5個にする。“flight_num”については重要度が0であるため、重み付け指定情報である“!”は取り除かれる。 As a result of the above weighting, the length of the character string of the parameter corresponding to the term T1 is set according to the importance “5”. In the data D404 of FIG. 5D (an example of the first replacement data), the length of the character string is represented by the number of underbars. Specifically, when the importance is 5, the number of underbars is set to 5 which is the same as the importance. Since the importance of “flight_num” is 0, “!” which is the weighting designation information is removed.
S405:シーン情報に基づき現在のシーンを判定する。シーン情報は、上述したように、時間や航空機の状態を含む環境を示す情報である。現在のシーンは、所定の条件またはタイミングで切替わる。なお、シーン情報とその判定処理の詳細については後述する。ここでは、現在のシーンとして「搭乗中」(シーン1)(図11参照)であることを例とする。 S405: Determine the current scene based on the scene information. As described above, the scene information is information indicating the environment including the time and the state of the aircraft. The current scene is switched under a predetermined condition or timing. The details of the scene information and its determination processing will be described later. Here, it is assumed that the current scene is “boarding” (scene 1) (see FIG. 11).
なお、シーン情報は、上述したように検索される用例文に関連付けて保存されている。 The scene information is stored in association with the example sentence searched for as described above.
S406:パラメータを含み、重み付けがなされたデータD404に対し、現在のシーンに応じた用例文セットが選択される。ここでは、現在のシーン(シーン1)に対応する用例文セットが検索対象となる場合を例とする。具体的には、図8に示す用例文情報のうちシーン番号「1」に対応する用例文セット(サブセット1、サブセット2、サブセット3・・・)が検索対象とされる。
S406: An example sentence set corresponding to the current scene is selected for the weighted data D404 including parameters. Here, the case where the example sentence set corresponding to the current scene (scene 1) is the search target is taken as an example. Specifically, the example sentence set (
なお、ステップS402においてパラメータを含まないと判定された場合も、現在のシーンを判定し(ステップS405)、判定されたシーンに応じた用例文セットが選択される。パラメータを含まないデータに対する翻訳処理部114による処理については後述する。
Even when it is determined in step S402 that the parameter is not included, the current scene is determined (step S405), and the example sentence set corresponding to the determined scene is selected. The processing by the
また、一つのシーンに対し、複数の用例文セットが検索対象となる場合がある。 In addition, a plurality of example sentence sets may be search targets for one scene.
S407:選択された用例文セットの各サブセットとデータD404との類似度(距離)が計算される。 S407: The degree of similarity (distance) between each subset of the selected example sentence set and the data D404 is calculated.
ここで、例えば、比較する2つの文字列を等しくするために必要な手順の最少回数(編集距離とも呼ばれる)を求めて、この最少回数が最も少ない文字列同士の類似度を最も高い類似度と判定する。この手順とは、各文字の置き換え、挿入、および削除等である。例えば、レーベンシュタイン距離やジャロ・ウィンクラー距離等、類似度を判定する公知の方法を適用することができる。 Here, for example, the minimum number of steps (also referred to as an edit distance) required to equalize two character strings to be compared is obtained, and the similarity between the character strings having the minimum number of times is defined as the highest similarity. judge. This procedure includes replacement, insertion, deletion, etc. of each character. For example, a known method for determining the degree of similarity, such as the Levenshtein distance or the Jaro-Winckler distance, can be applied.
なお、重要度は、用語に応じて設定されたが、パラメータ位置情報に応じて設定されてもよい。図5Eでは用例文中のパラメータの重み付け指定情報“!”が、用語の重要度に応じたアンダーバーで置き換えられている。 The importance is set according to the term, but may be set according to the parameter position information. In FIG. 5E, the parameter weighting designation information “!” in the example sentence is replaced with an underbar according to the importance of the term.
また、図5Eに示すように、検索される用例文D408におけるパラメータにおいても、データD404と同様に重要度に応じてアンダーバーの置き換えや指定情報“!”の削除が行われる。 Further, as shown in FIG. 5E, also in the parameter in the retrieved example sentence D408, underbar replacement and deletion of the designation information "!" are performed according to the degree of importance as in the case of the data D404.
S408:ステップS407の類似度計算の結果、所定のしきい値(スコア70)以上であり最も高い類似度を有する用例文サブセットが決定される。ここでは、選択された用例文サブセット1、サブセット2、サブセット3・・・の中から、最も高い類似度を有する文として図5Eに示す用例文D408が選択される。
S408: As a result of the similarity calculation in step S407, the example sentence subset that is equal to or higher than a predetermined threshold value (score 70) and has the highest similarity is determined. Here, the example sentence D408 shown in FIG. 5E is selected as the sentence having the highest similarity from the selected
S409:ステップS408で決定された用例文D408の対訳を取得する。ここでは、図5Fに示す対訳D409(第2置換データの一例)が取得される。 S409: The parallel translation of the example sentence D408 determined in step S408 is acquired. Here, the parallel translation D409 (an example of the second replacement data) illustrated in FIG. 5F is acquired.
S410:対訳D409にパラメータが含まれるかどうかを判定する。そして、パラメータが含まれる場合はステップS411に進む。パラメータが含まれない場合は図3のステップS500に進み対訳を翻訳結果として出力する。 S410: It is determined whether the parallel translation D409 includes a parameter. If the parameter is included, the process proceeds to step S411. If the parameter is not included, the process proceeds to step S500 of FIG. 3 and the parallel translation is output as the translation result.
S411:取得された対訳D409のパラメータを、置換前の用語であって記憶されていた用語の対訳に置換する。ここで、パラメータ情報を参照して対訳を決定する。例えば、{%airports!$1%}に対応する置換前の用語は用語T1であることがステップ403で記憶されている。そして、用語T1に対応する対訳は図6のパラメータ情報を参照すると用語t1「Kansai International Airport」であることが分かる。また、便名を示すパラメータである“{%flight_num!$1%}”の対訳は、図6のパラメータ情報に示すように、呼び出し関数であるスクリプト関数を用いて取得する。具体的には、図9Aに示すスクリプト関数“FlightNo”を用いることにより、認識されたデータである用語T2の桁数を整形し、「9999」に変換する。 S411: The acquired parameter of the parallel translation D409 is replaced with the parallel translation of the term that is the term before the replacement and is stored. Here, the parallel translation is determined by referring to the parameter information. For example, it is stored in step 403 that the term before replacement corresponding to {%airports!$1%} is the term T1. Then, referring to the parameter information in FIG. 6, it is understood that the parallel translation corresponding to the term T1 is the term t1 “Kansai International Airport”. The parallel translation of "{%flight_num!$1%}", which is a parameter indicating the flight number, is acquired by using a script function that is a calling function, as shown in the parameter information of FIG. Specifically, by using the script function “FlightNo” shown in FIG. 9A, the digit number of the term T2 which is the recognized data is shaped and converted into “9999”.
また、図7Bに示すように対訳D409に複数のパラメータが含まれる場合、位置パラメータ情報に応じて英語の用語を選択して、各パラメータをその用語に置換してもよい。 Further, as shown in FIG. 7B, when the parallel translation D409 includes a plurality of parameters, an English term may be selected according to the positional parameter information and each parameter may be replaced with the term.
この結果、翻訳結果データD500が取得される。そして、図3のステップS500に進み、翻訳結果出力部115により翻訳結果データD500を出力する。
As a result, the translation result data D500 is acquired. Then, in step S500 of FIG. 3, the translation
[1−2−3.パラメータを含まない場合の翻訳処理]
パラメータを含まないデータに対する翻訳処理部114による処理(図4のステップS402の“No”からステップS405〜S410の処理)について、別の例を用いて説明する。[1-2-3. Translation process when parameters are not included]
Processing by the
ここでは、図10Aに示すように、発話文D100aがアナウンス情報としてマイク30から入力された例を用いて説明する。
Here, as shown in FIG. 10A, description will be given using an example in which the utterance sentence D100a is input from the
図3のステップS100において、音声取得部111により、発話文D100aがマイク30から音声データとして取得される。その後、図3のステップS200において、発話文D100aが音声認識部112により認識される。そして、図3のステップS300において、音声認識されたデータは、テキスト生成部113により、図10Bに示すようにテキストデータD200aに変換される。そして、ステップS400の翻訳処理に移行する。
In step S100 of FIG. 3, the
先の例と同様に、翻訳処理部114は、テキストデータD200aを取得し(ステップS401)、テキストデータD200aが用語を含むかどうか判定する(ステップS402)。この場合、用語は含まれないため、ステップS405に移行する。
Similar to the previous example, the
そして、先の例と同様に現在のシーンを判定し(ステップS405)、現在のシーンに応じた用例文セットを選択する(ステップS406)。そして、図10Cに示すように、認識されたテキストデータD200aと、選択された用例文セットに含まれる各サブセットとの類似度を計算する(ステップS407)。類似度の計算については、先の例と同様である。 Then, similarly to the previous example, the current scene is determined (step S405), and the example sentence set corresponding to the current scene is selected (step S406). Then, as shown in FIG. 10C, the similarity between the recognized text data D200a and each subset included in the selected example sentence set is calculated (step S407). The calculation of the degree of similarity is the same as in the previous example.
ステップS407の類似度計算の結果、所定のしきい値以上であり最も高い類似度を有する用例文サブセットを選択する。ここでは、最も高い類似度を有するサブセットとしてサブセットD408aが選択される(ステップS408)。そして、ステップS408で選択されたサブセットD408aの対訳を取得する(ステップS409)。ここでは、図10Dに示す対訳D500aが取得される。対訳にはパラメータは含まれないと判定され(ステップS410)、図3のステップS500に進み当該対訳を翻訳結果として出力する。 As a result of the similarity calculation in step S407, the example sentence subset that is equal to or higher than a predetermined threshold and has the highest similarity is selected. Here, the subset D408a is selected as the subset having the highest similarity (step S408). Then, the parallel translation of the subset D408a selected in step S408 is acquired (step S409). Here, the parallel translation D500a shown in FIG. 10D is acquired. It is determined that the parallel translation does not include parameters (step S410), and the process proceeds to step S500 in FIG. 3 to output the parallel translation as a translation result.
[1−2−4.シーン情報及び判定処理]
以下、図11を参照して、シーン情報及びその判定処理について説明する。[1-2-4. Scene information and judgment processing]
Hereinafter, scene information and its determination processing will be described with reference to FIG. 11.
<シーン情報の意義>
上述の用例文情報は、後述するように、既存の航空機マニュアルの文を組み合わせて生成される。しかし、かかる用例文の組み合わせ(用例文セット)の数は膨大であるため、フライトシーン毎に対応した用例文セットのみを作成する。実際に類似度計算(検索)を実施する際には、アナウンス時点での「現在のフライトシーン」に対応した、可能性のある用例文セットを検索対象とする。これにより、発話文の対象となる用例文セットの数を減らすことができる。<Significance of scene information>
The example sentence information described above is generated by combining sentences of existing aircraft manuals, as will be described later. However, since the number of such example sentence combinations (example sentence sets) is huge, only example sentence sets corresponding to each flight scene are created. When actually executing the similarity calculation (search), a possible example sentence set corresponding to the “current flight scene” at the time of the announcement is set as the search target. This can reduce the number of example sentence sets that are the target of the utterance sentence.
シーン情報は、図11に示すように、例えば(1)搭乗中、(2)(離陸前)滑走路移動中、(3)離陸中、(4)安定飛行中、(5)着陸中、(6)(着陸後)滑走路移動中、(7)降機中等、実際の旅客機運用の時系列に沿って設定されている。シーン情報は、その他に、(8)機内サービス案内、機内販売案内等、ある程度のアナウンスタイミングは決まっているものの、その順序が既定されていない情報も含む。シーン情報は更に、飛行機の大きな揺れが発生した時等の(9)緊急連絡のように、予測できないアナウンス情報を含む。 As shown in FIG. 11, the scene information includes, for example, (1) boarding, (2) (before takeoff) runway movement, (3) takeoff, (4) stable flight, (5) landing, ( It is set according to the timeline of actual passenger aircraft operation, such as 6) (after landing) moving the runway and (7) getting off the aircraft. The scene information also includes (8) in-flight service information, in-flight sales information, and the like, although the announcement timing has been determined to some extent, but the order is not predetermined. The scene information further includes unpredictable announcement information, such as (9) emergency contact when a large sway of an airplane occurs.
<シーンの判定に応じた検索対象である用例文セットの選択>
シーンの判定に応じた検索対象である用例文セットの選択は次のように行われる。すなわち、シーンの判定に応じて、(a)使用の可能性のある用例文セットを検索対象として追加し、(b)使用の可能性のない用例文セットを検索対象として除外し、或いは(c)航空機の状態を含む環境の情報を条件として、用例文セットを検索対象として追加又は除去する。<Selecting the example sentence set to be searched according to the scene determination>
The selection of the example sentence set as the search target according to the determination of the scene is performed as follows. That is, (a) an example sentence set that may be used is added as a search target, (b) an example sentence set that is not likely to be used is excluded as a search target, or (c) ) Add or remove the example sentence set as a search target under the condition of environment information including the state of the aircraft.
<シーン判定及び検索対象の用例文サブセット切り替え例>
上述したように、判定された現在のシーンに応じて、検索対象である用例文セットの範囲が抽出される。この場合、以下のルールに従って、シーンが判定され、検索対象の用例文サブセットが切り替えられる。<Example of scene judgment and example sentence subset switching for search>
As described above, the range of the example sentence set that is the search target is extracted according to the determined current scene. In this case, the scene is determined and the example sentence subset to be searched is switched according to the following rules.
(i)ルール1
時系列に沿って変化するシーンについては、翻訳処理部114は、次のようなルールに従ってシーンを判定する。シーンは、例えば、図11に示すように、搭乗中→滑走路移動中→離陸中→安定飛行中→着陸中→滑走路移動中→降機中のように移行する。(I)
For a scene that changes in time series, the
乗務員の業務開始時点では、検索対象である用例文セットは現在のシーン「搭乗中」に対応する用例文セットとなる。よって、最初の検索はこの用例文セットの各サブセットに対し行う。例えば、「搭乗中」がシーン1とすると、図11に示すようにシーン1に対応する用例文のセットが検索対象となる。検索が成功し「搭乗中」の用例文セットから該当する用例サブセットを取得できた場合、「現在のシーン」は「搭乗中」と判定できる。そのため、「現在のシーン」が「搭乗中」であると記憶しておく。これと同時に、(a)次に発話される可能性がある「滑走路移動中」も検索対象に含めるようにする。発話と用例文検索を繰り返すうちに、「現在のシーン」が「搭乗中」から「滑走路移動中」に変わったと判定されると、(b)「搭乗中」に対応する用例文セットは旅客機の運航上、それ以降発話される可能性が無い。そのため、「搭乗中」に対応する用例文セットを検索対象から除外する。
At the start of the work of the crew member, the example sentence set that is the search target is the example sentence set corresponding to the current scene “in flight”. Therefore, the first search is performed for each subset of this example sentence set. For example, when "boarding" is
この様にして、シーンの移行を表すルールと発話内容とから判定された「現在のシーン」の次のシーンの可能性のある用例文セットを追加したり、可能性の無い用例文セットを除外したりすることで、検索対象を限定する。これにより、より正確で高速に用例文セットの検索が可能となる。 In this way, an example sentence set with a possibility of the next scene of the "current scene" judged from the rule indicating the scene transition and the utterance content is added, or an example sentence set with no possibility is excluded. By doing, the search target is limited. As a result, it is possible to search the example sentence set more accurately and at high speed.
また、一つのシーンで発話される可能性のある用例文セットが複数ある場合には、それらの用例文セットも検索対象としておく。例えば、図11に示すように、現在のシーンが「安定飛行中」と判定された時、後続の用例文セットである「機内サービス案内」や「機内販売案内」は、それぞれ発話される可能性がある。そのため、両方を検索の対象に含める。 In addition, when there are a plurality of example sentence sets that may be uttered in one scene, those example sentence sets are also set as search targets. For example, as shown in FIG. 11, when it is determined that the current scene is “in stable flight”, the subsequent example sentence sets “in-flight service guide” and “in-flight sales guide” may be uttered, respectively. There is. Therefore, both are included in the search target.
なお、シーンを切替える条件またはタイミング(つまり検索対象である用例文セットを切替える条件またはタイミング)としては、上記シーン判定以外にも、航空機の運航状態や機内の状態が変化する時を条件としてもよい。例えば、滑走中であるか等の状態の情報は航空機から取得できる。また、高度や機体の傾き・速度・機首の方位、ベルト着用サイン点灯等を利用すれば、状態の変化の情報を取得できる。例えば、図11に示すように、シーン情報は各シーンと機内状態との対応関係を有している。そのため、速度、高度、ドアの開閉の有無、揺れ、GPS等の情報を用いて、シーンを判定してもよい。例えば、機体に大きな振動が発生したことを示す情報を取得できた場合、現在のシーンに関わらず、シーン(9)に切替えて自動的に「緊急連絡」の用例文セットを検索対象とするようにしてもよい。 The conditions or timings for switching the scenes (that is, the conditions or timings for switching the example sentence set to be searched) may be conditions other than the above scene determination, such as when the operating state of the aircraft or the state of the cabin changes. .. For example, information on the condition such as whether the vehicle is gliding can be acquired from the aircraft. In addition, information on the change in state can be obtained by using altitude, tilt/speed of the body, heading of the nose, lighting of a belt wearing sign, and the like. For example, as shown in FIG. 11, the scene information has a correspondence relationship between each scene and the in-machine state. Therefore, the scene may be determined using information such as speed, altitude, presence/absence of door opening/closing, shaking, and GPS. For example, if information indicating that a large vibration has occurred in the aircraft, regardless of the current scene, switch to scene (9) and automatically search for the “emergency contact” example sentence set. You can
また、乗務員によるサーバ装置10への直接入力により、現在のシーンを切替えてもよい。
Further, the current scene may be switched by a direct input to the
(ii)ルール2
他のシーンと同時に発生するシーンは、次のように判定される。例えば、シーン(8)の機内サービス案内に対応する用例文セットは、安定飛行中のみに検索対象となるように設定される。また、シーン(9)の緊急連絡に対応する用例文セットは、シーンの切り替えに関係なく常時検索対象となるように設定される。(Ii)
Scenes that occur simultaneously with other scenes are determined as follows. For example, the example sentence set corresponding to the in-flight service guide for scene (8) is set to be searched only during stable flight. Further, the example sentence set corresponding to the emergency notification of the scene (9) is set so as to be always searched regardless of the scene switching.
以上のようにして、シーンに応じて、用例文情報を参照する範囲を変更してもよい。 As described above, the range in which the example sentence information is referred to may be changed according to the scene.
[1−2−5.用例文セットの元データの生成]
用例文セットは、航空会社のアナウンス情報のマニュアル等から生成された元データから生成される。具体的には、同じシーン内の文を連結して、組み合わせ文章を生成して、用例文セット(図8参照)を構成する用例文サブセットを生成する。用例文サブセットは最大組み合わせ数を上限として生成される。例えば、最大組み合わせ数は4である。[1-2-5. Generate original data of example sentence set]
The example sentence set is generated from original data generated from a manual or the like of announcement information of an airline company. Specifically, sentences in the same scene are connected to generate a combined sentence, and an example sentence subset forming an example sentence set (see FIG. 8) is generated. The example sentence subset is generated with the maximum number of combinations as the upper limit. For example, the maximum number of combinations is four.
図12は用例文サブセットを生成するための元データの例を示す。図12はシーン1(搭乗中)において使用される用例文i〜vを示す。各用例文にある「順序」は用例文が組み合わせられるときの順序を示す。用例文i〜vに基づき、例えばi,i+ii、ii+iii・・・等全ての組み合わせに対応する複数の用例文サブセット(例えば、図8参照)が生成され、シーンに対応する用例文セットとして記憶される。 FIG. 12 shows an example of original data for generating an example sentence subset. FIG. 12 shows example sentences i to v used in the scene 1 (during boarding). The “order” in each example sentence indicates the order in which the example sentences are combined. Based on the example sentences i to v, a plurality of example sentence subsets (for example, see FIG. 8) corresponding to all combinations such as i, i+ii, ii+iii, etc. are generated, and as example sentence sets corresponding to scenes. Remembered.
用例文サブセットの生成は、順序(昇順)に従って生成される(順序が4から3などの組み合わせは生成されない)。例えば、用例文i+用例文iiとする組み合わせは、用例文iが順序「1」、用例文iiが順序「2」となっているため、適正な用例文サブセットとして生成される。しかし、用例文v+用例文iiiとする組み合わせは、用例文vが順序「4」、用例文iiiが順序「3」となっているため、適正でなく生成されない。 The example sentence subsets are generated according to the order (ascending order) (combinations such as the order from 4 to 3 are not generated). For example, the combination of the example sentence i+the example sentence ii is generated as an appropriate example sentence subset because the example sentence i has the order “1” and the example sentence ii has the order “2”. However, the combination of the example sentence v+the example sentence iii is not proper because the example sentence v has the order “4” and the example sentence iii has the order “3”, and thus the combination is not generated.
また、用例文ivと用例文vは順序が同じ「4」となっているため、どちらが先でもよい。さらに、用例文iv+用例文vのように同じ順序を含む用例文セットが生成されてもよい。或いは、これとは逆に、同じ順序が割り当てられている場合、排他フラグ等を立てることにより、いずれかの用例文を含むサブセットの生成のみ許可するようにしてもよい。 Further, since the example sentence iv and the example sentence v have the same order of “4”, whichever comes first. Furthermore, an example sentence set including the same order as the example sentence iv+the example sentence v may be generated. Alternatively, conversely, when the same order is assigned, an exclusion flag or the like may be set to allow only the generation of the subset including any of the example sentences.
[1−3.効果等]
上記実施形態に係る翻訳装置110においては、翻訳処理部114は、日本語(第1言語の一例)のテキストデータに含まれる所定の種別における用語をパラメータに置換する。そして、翻訳処理部114は、同パラメータを含む日本語のテキストデータの、英語(第2言語の一例)の対訳を取得し、同対訳に含まれるパラメータを用語の対訳に変換することにより、翻訳結果データを生成する。[1-3. Effect, etc.]
In the
特に定型文翻訳において、翻訳処理部114は、頻繁に変化する用語(本開示の例では、空港名、便名、時間等)をパラメータに置き換えてから、対訳を選択する。そして、翻訳処理部114は、最後にパラメータ部分を用語に置き換える。これにより、定型文に対する類似度判定の精度を高めることができ、翻訳の精度を向上させることができる。
In particular, in the fixed sentence translation, the
また、パラメータの種別やその重要度に応じて、パラメータの重み付けを行う(例えば、文字列の長さを調整する)。これにより、特に類似度判定において重要な用語の影響力を大きくすることができるため、翻訳の精度を向上させることができる。 Further, the parameters are weighted according to the type of the parameter and its importance (for example, the length of the character string is adjusted). As a result, the influence of the term particularly important in the similarity determination can be increased, so that the translation accuracy can be improved.
更に、判定されたシーンに応じて用例文の検索範囲を狭めることができる。そのため、類似度判定を効率的に実行することができ、翻訳の処理を高速化できる。 Further, the search range of the example sentence can be narrowed according to the determined scene. Therefore, the similarity determination can be efficiently performed, and the translation process can be speeded up.
(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1で説明した各構成要素及び機能を組み合わせて、新たな実施の形態とすることも可能である。(Other embodiments)
As described above, the first embodiment has been described as an example of the technique disclosed in the present application. However, the technique of the present disclosure is not limited to this, and is also applicable to the embodiment in which changes, replacements, additions, omissions, etc. are appropriately made. Further, it is also possible to combine the constituent elements and functions described in the first embodiment to form a new embodiment.
そこで、以下、他の実施の形態を例示する。 Therefore, other embodiments will be exemplified below.
[1]
上記実施形態においては、翻訳装置110は、第2言語として英語の翻訳結果データを各表示装置20に送信していたが、表示装置20毎に割り当てられた言語の翻訳結果データを配信するようにしてもよい。[1]
In the above embodiment, the
図13は、本例による翻訳装置2110の機能ブロック図である。翻訳装置2110は、認識された第1言語によるテキストデータを複数の第2言語に翻訳し、複数の第2言語による翻訳結果データを対応する表示装置20にそれぞれ送信する点で翻訳装置110と異なる。また、翻訳装置2110は、データベースDBの用例文セットとパラメータ情報において複数の第2言語の対訳情報を保持している点で翻訳装置110と異なる。翻訳結果出力部2115は、各表示装置20にいずれの第2言語による翻訳結果データを送信するかを、記憶装置17に予め記憶された言語設定情報217aを参照して判定する。そして、翻訳結果出力部2115は、判定結果に基づいて翻訳結果データを送信する。言語設定情報217aは、各表示装置20のユーザによって入力装置28(図1参照)の操作を介して設定される。言語設定情報217aは、翻訳装置2110に送信され記憶装置17に記憶されている。
FIG. 13 is a functional block diagram of the
なお、言語設定情報217aは、ユーザの座席予約情報や国籍等に応じて予め翻訳装置2110に送信され記憶されていてもよい。
The
その他の構成及び機能は実施の形態1と同様である。 Other configurations and functions are similar to those of the first embodiment.
[2]
各表示装置20に送信される翻訳結果データは、複数種の言語によるデータであってもよい。例えば、ユーザの希望言語が不明な場合、航空機籍の言語、出発国の言語、到着国の言語等に応じて複数の翻訳結果データを表示するようにしてもよい。[2]
The translation result data transmitted to each
[3]
上記実施形態においては、翻訳結果データは、表示装置20のディスプレイ29に表示されるが、これに限定されない。翻訳結果データは、音声に変換され表示装置20のイヤホン(図示省略)から出力するようにしてもよい。或いは、翻訳結果データは、サーバ装置10において音声に変換され、スピーカ40を介して航空機内で放送されてもよい。[3]
In the above embodiment, the translation result data is displayed on the
また、翻訳結果データは、サーバ装置10に接続される大画面のディスプレイに表示され、複数のユーザが見られるようにしてもよい。
The translation result data may be displayed on a large-screen display connected to the
[4]
翻訳装置110は航空機内において利用されることに限定されない。翻訳装置110は、空港での案内、その他の交通機関、レストラン、病院、宿泊施設等、定型文を用いた翻訳が可能な場所において利用されてもよい。[4]
The
翻訳装置110はコンピュータ端末に設けられていてもよい。この場合、音声又はテキストで入力されたデータに対し翻訳処理を行って、スピーカ又はディスプレイを介して翻訳結果を出力するようにしてもよい。ここで、音声でデータが入力される際には、翻訳処理の前に音声認識処理が行われる。
The
[5]
上記実施形態において、類似度を判定するためのしきい値を70としていたがこれに限定されない。しきい値は70より大きくても小さくてもよい。[5]
In the above embodiment, the threshold value for determining the similarity is 70, but the threshold value is not limited to this. The threshold may be greater than or less than 70.
また、判定されるシーンに応じてしきい値を設定してもよい。例えば、緊急時のシーンのしきい値を他のシーンのしきい値よりも上げることにより、より精度の高い翻訳結果データを得られるようにしてもよい。 Further, the threshold may be set according to the scene to be judged. For example, the threshold value of an emergency scene may be set higher than the threshold values of other scenes to obtain more accurate translation result data.
[6]
上記実施形態においては、翻訳装置110は、判定されるシーンに応じて用例文情報の検索範囲を変更しているが、これに加えて又はこれに代えて、判定されるシーンに応じて検索の優先順位を変更するようにしてもよい。例えば、図11の(9)の「緊急連絡」に対応する用例文サブセットは、その重要性からいずれのシーンにおいても検索対象とされているとする。しかし、(1)の「搭乗中」に対応する用例文サブセットは、(4)の「安定飛行中」に比べて発生確率が低い。このことから、(1)の「搭乗中」に対応する用例文サブセットの検索の優先順位を低くする等が考えられる。この場合、検索途中で非常に高い類似度のスコアが得られた場合、検索を停止して当該用例文セットを用いて翻訳処理を進めてもよい。以上のようにして、シーンに応じて、用例文情報を参照する順番を変更してもよい。[6]
In the above-described embodiment, the
[7]
スクリプト関数は、第2言語の種類に応じて用いるようにしてもよい。例えば、図9Bに示す温度の単位の変更は、同じ単位を使用する文化圏においては言語が異なっていても変換する必要はない。この場合、第2言語の種類と単位情報の対応関係を含む情報を記憶装置17に予め記憶しておく。そして、翻訳処理部114は、図4のステップS411において、第2言語の種類を判定し、当該スクリプト関数を用いるかどうか判定してから、対訳への置換を行うようにしてもよい。[7]
The script function may be used depending on the type of the second language. For example, changing the unit of temperature shown in FIG. 9B does not need to be converted even if the language is different in a culture using the same unit. In this case, information including the correspondence between the type of the second language and the unit information is stored in the
[8]
上記実施形態における処理(図3及び図4等の処理)の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。[8]
The execution order of the processes (the processes of FIGS. 3 and 4 etc.) in the above embodiment is not necessarily limited to the description of the above embodiment, and the execution order may be changed without departing from the gist of the invention. It is possible.
例えば、図4において現在のシーンの判定(ステップS405)は、パラメータ判定(ステップS402)よりも前に行ってもよいし、パラメータ判定と同時に行ってもよい。 For example, in FIG. 4, the determination of the current scene (step S405) may be performed before the parameter determination (step S402) or may be performed simultaneously with the parameter determination.
[9]
シーンによって用例文サブセットが得られるので、その用例中に含まれているパラメータの種別も用例文を調べることで列挙ができる。従って、音声認識結果(発話)文に対して正規表現を用いて検索を行うパラメータの種別(airports等)も限定することができる。これによって、本来パラメータ置換を行いたくない部分も置換されてしまうという問題を軽減することができる。これについて、図14A〜図14Cを用いて説明する。[9]
Since the example sentence subset is obtained depending on the scene, the types of parameters included in the example can be enumerated by checking the example sentence. Therefore, it is possible to limit the types of parameters (airports, etc.) that are searched for using the regular expression for the voice recognition result (utterance) sentence. As a result, it is possible to reduce the problem that a part that should not be subjected to parameter replacement is also replaced. This will be described with reference to FIGS. 14A to 14C.
例えば、(2)滑走路移動中、または(3)離陸中の用例文として用例文D800という文があり、パラメータ情報に温度に関する用語の正規表現として正規表現D801がある場合について考える。用例文D800と発話された場合、用語T3という表現が温度に関するパラメータとマッチしてしまい、用例文D800がデータD802に置き換えられてしまう可能性がある。 For example, let us consider a case where there is an example sentence D800 as an example sentence during (2) runway movement or (3) takeoff, and there is a regular expression D801 as a regular expression of a term relating to temperature in the parameter information. When the example sentence D800 is spoken, there is a possibility that the expression of the term T3 matches the temperature-related parameter and the example sentence D800 is replaced with the data D802.
しかし、実際は(2)滑走路移動中、または(3)離陸中において、温度に関する用語を含む用例文は無い。そのため、(2)滑走路移動中、または(3)離陸中においては、ステップS402の用語の検出の際に温度に関する用語を検出しないようにする。これによって、より精度の高い翻訳を実現することができる。 However, actually, there is no example sentence including a term regarding temperature during (2) runway movement or (3) takeoff. Therefore, during (2) movement of the runway, or (3) during takeoff, the term relating to temperature is not detected during the term detection in step S402. As a result, more accurate translation can be realized.
[10]
特定のパラメータ情報を事前に航空機の持つ情報で置き換えておいてもよい。これについて、図15Aおよび図15Bを用いて説明する。[10]
The specific parameter information may be replaced with the information held by the aircraft in advance. This will be described with reference to FIGS. 15A and 15B.
例えば、システム1が関西空港行きであるという情報を事前に取得している場合は、用例文中の行き先に関するパラメータを全てあらかじめ用語T1に置き換える。またステップS402の用語検出の際に用語T1という用語は検出対象外とする。この置き換えを行うことで、発話文に対してパラメータ置換を行った後のテキストデータはデータD900となる。また、最も高い類似度を有する用例文は用例文D901となる。これにより、「羽田空港」等の行き先以外の空港名が発話された場合に、類似度のスコアを下げることができる。そのため、翻訳の精度が向上する。
For example, when the information that the
なおシステム1は、用例文中のどのパラメータが行き先に関係しているかを示す情報を保持し、それを参照する。例えば、用例文D408(図5E参照)の「{%airports_____$1%}」は行き先に関係しているが、図7Bの「{%airports!$1%}」は行き先に関係していない等といった情報が、テーブルで管理されている。このテーブルを参照することで、図7Bに示されている用例文の「{%airports!$1%}」は用語T1に置換されない。
The
[11]
上記実施形態においては、音声データを入力しているがこれに限定されない。例えば、タッチパネルやキーボード等の入力装置から入力I/Fを介してテキストデータを取得してもよいし、外部の装置から通信I/Fを介してテキストデータを取得してもよい。これにより、翻訳処理部114による翻訳処理を実行してもよい。[11]
In the above embodiment, voice data is input, but the present invention is not limited to this. For example, text data may be acquired from an input device such as a touch panel or a keyboard via an input I/F, or text data may be acquired from an external device via a communication I/F. Thereby, the translation processing by the
[12]
本開示に係る翻訳装置110は、上記実施形態により実施されることに限られない。翻訳装置110により実行される翻訳方法や、翻訳装置110により実行される実行されるコンピュータプログラム、かかるプログラムを記録したコンピュータ読み取り可能な記録媒体は、本開示の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray(登録商標)Disc)、半導体メモリを挙げることができる。[12]
The
上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。 The computer program is not limited to the one recorded in the recording medium, but may be transmitted via an electric communication line, a wireless or wired communication line, a network typified by the Internet, or the like.
[13]
上記実施形態においては、パラメータの判定や置換を行わなくてもよい。つまり、翻訳処理部114は、図4においてステップS401のテキストデータ取得後、ステップS405のシーン判定を行い、ステップS406において判定されたシーンに応じた用例文サブセットを選択する。[13]
In the above embodiment, it is not necessary to determine or replace the parameters. That is, the
この場合、判定されたシーンに応じて用例文のサブセットを選択することにより、用例文情報の検索範囲を狭めることができる。そのため、翻訳処理が効率化され且つ翻訳の処理を高速化できる。 In this case, it is possible to narrow the search range of the example sentence information by selecting a subset of the example sentence according to the determined scene. Therefore, the translation process can be made efficient and the translation process can be speeded up.
これに基づき、別の観点に係る発明は次のように表現できる。 Based on this, the invention according to another aspect can be expressed as follows.
「第1言語による入力データを取得する入力部と、
前記入力データを認識し、認識した前記入力データに基づき前記第1言語のテキストデータを生成し、前記テキストデータの対訳である第2言語のテキストデータを生成する制御部と、を備え、前記制御部は、
前記第1言語による用例文と前記用例文の前記第2言語による対訳とを含む参照テキストデータ群を参照することにより、前記第1言語のテキストデータとの類似度がしきい値以上である用例文を取得し、前記用例文の前記第2言語による対訳に基づき前記第2言語のテキストデータを生成し、
時間及び環境の少なくとも一方に応じて変化するシーンを判定し、
判定された前記シーンに応じて前記参照テキストデータ群を参照する範囲及び順番の少なくとも一方を変更する、翻訳装置。」"An input unit for acquiring input data in the first language,
A control unit that recognizes the input data, generates text data of the first language based on the recognized input data, and generates text data of a second language that is a parallel translation of the text data. Department is
When the similarity with the text data of the first language is equal to or more than a threshold value by referring to the reference text data group including the example sentence in the first language and the parallel translation of the example sentence in the second language. Acquiring example sentences, and generating text data in the second language based on parallel translation of the example sentences in the second language,
Judge scenes that change according to at least one of time and environment,
A translation device that changes at least one of a range and an order in which the reference text data group is referred to according to the determined scene. "
本開示は、翻訳装置として利用可能である。 The present disclosure can be used as a translation device.
1 :システム
10 :サーバ装置
11 :CPU
12 :ROM
13 :RAM
14 :入力I/F
15 :出力I/F
16 :通信I/F
17 :記憶装置
20 :表示装置
21 :CPU
22 :ROM
23 :RAM
26 :通信I/F
27 :メモリ
28 :入力装置
29 :ディスプレイ
30 :マイク
40 :スピーカ
110 :翻訳装置
111 :音声取得部
112 :音声認識部
113 :テキスト生成部
114 :翻訳処理部
115 :翻訳結果出力部
2110 :翻訳装置
2115 :翻訳結果出力部1: System 10: Server device 11: CPU
12: ROM
13: RAM
14: Input I/F
15: Output I/F
16: Communication I/F
17: storage device 20: display device 21: CPU
22: ROM
23: RAM
26: Communication I/F
27: Memory 28: Input device 29: Display 30: Microphone 40: Speaker 110: Translation device 111: Speech acquisition unit 112: Speech recognition unit 113: Text generation unit 114: Translation processing unit 115: Translation result output unit 2110: Translation device 2115: Translation result output unit
Claims (10)
前記第1テキストデータの対訳である第2言語の第2テキストデータを生成する制御部と、を備え、
前記制御部は、
所定の種別における前記第1言語の第1用語と、前記第1用語の重要度と、前記第1用語の対訳である前記第2言語の第2用語とを含むパラメータ情報に基づいて、前記第1テキストデータに含まれる前記第1用語を前記第1用語の重要度が高いほど文字列が長くなる重要度情報を含むパラメータに置換することにより、第1置換データを生成し、
用例文と前記用例文の対訳とを含む参照テキストデータ群を参照することにより、前記第1置換データとの類似度がしきい値以上である前記用例文を選択し、
前記用例文の対訳を、前記第1置換データに対応する前記第2言語の第2置換データとして取得し、
前記パラメータ情報に基づいて、前記第2置換データに含まれる前記パラメータを前記第2用語に置換することにより、前記第2テキストデータを生成する、
翻訳装置。 An input unit for acquiring the first text data of the first language,
A control unit for generating second text data in a second language which is a parallel translation of the first text data,
The control unit is
Based on parameter information including a first term of the first language in a predetermined type, an importance of the first term, and a second term of the second language that is a parallel translation of the first term, the first term 1st substitution data is produced|generated by substituting the said 1st term contained in 1 text data by the parameter containing the importance information whose character string becomes long, so that the importance of the said 1st term is high ,
By selecting a reference text data group including an example sentence and a bilingual translation of the example sentence, the example sentence whose similarity to the first replacement data is a threshold value or more is selected,
Acquiring a parallel translation of the example sentence as the second replacement data of the second language corresponding to the first replacement data,
Based on said parameter information, by replacing the parameter included in the second replacement data in the second term, and generates the second text data,
Translation device.
前記制御部は、前記パラメータ位置情報に応じて前記第2置換データにおける前記パラメータを置換する前記第2用語を選択する、
請求項1に記載の翻訳装置。 The parameter is a parameter position indicating a position of the first term different from a position of the other first term in the first text data when the first text data includes another first term of the predetermined type. Including information,
The control unit selects the second term that replaces the parameter in the second replacement data according to the parameter position information,
The translation device according to claim 1.
請求項1または2に記載の翻訳装置。 A storage device for holding the parameter information and the reference text data group,
The translation device according to claim 1.
請求項1から3のいずれかに記載の翻訳装置。 The control unit determines a scene that changes according to at least one of time and surrounding conditions, and changes at least one of a range and an order in which the reference text data group is referred to according to the determined scene.
The translation device according to claim 1 .
請求項4に記載の翻訳装置。 The control unit changes the threshold value according to the determined scene,
The translation device according to claim 4 .
前記制御部は、前記複数の第2言語のそれぞれに対して、前記第2テキストデータを生成する、
請求項1から5のいずれかに記載の翻訳装置。 The second language includes a plurality of second languages,
The control unit generates the second text data for each of the plurality of second languages,
Translation apparatus according to any one of claims 1 to 5.
前記制御部は、前記第2テキストデータを、前記接続部を介して前記第2言語に設定された情報端末に送信する、
請求項1から6のいずれかに記載の翻訳装置。 Has a connection,
The control unit transmits the second text data to the information terminal set in the second language via the connection unit,
Translation device according to any of claims 1 6.
前記第1テキストデータに前記所定の種別における第1用語が含まれるかどうかを判定し、
前記第1テキストデータに前記第1用語が含まれないと判定した場合、前記参照テキストデータ群を参照することにより、前記第1テキストデータの対訳を取得する、
請求項1から7のいずれかに記載の翻訳装置。 The control unit is
Determining whether the first text data includes a first term in the predetermined type,
When it is determined that the first term is not included in the first text data, a parallel translation of the first text data is acquired by referring to the reference text data group ,
Translation apparatus according to any one of claims 1 to 7.
請求項1から8のいずれかに記載の翻訳装置。 The input unit acquires the first text data by recognizing the voice data in the first language,
Translation device according to any one of claims 1 to 8.
所定の種別における前記第1言語の第1用語と、前記第1用語の重要度と、前記第1用語の対訳である前記第2言語の第2用語とを含むパラメータ情報に基づいて、前記第1テキストデータに含まれる前記第1用語を前記第1用語の重要度が高いほど文字列が長くなる重要度情報を含むパラメータに置換することにより、第1置換データを生成し、
用例文と前記用例文の対訳とを含む参照テキストデータ群を参照することにより、前記第1置換データとの類似度がしきい値以上である前記用例文を選択し、
前記用例文の対訳を、前記第1置換データに対応する第2言語の第2置換データとしてメモリより取得し、
前記パラメータ情報に基づいて、前記第2置換データに含まれる前記パラメータを前記第2用語に置換することにより、前記第2言語の第2テキストデータを生成する、
翻訳方法。 Acquire the first text data of the first language,
The first term of the first language in a predetermined type, the importance of the first term, and the second term of the second language that is a parallel translation of the first term, based on the parameter information, 1st substitution data is produced|generated by substituting the said 1st term contained in 1 text data by the parameter containing the importance information whose character string becomes long, so that the importance of the said 1st term is high ,
By selecting a reference text data group including an example sentence and a bilingual translation of the example sentence, the example sentence whose similarity to the first replacement data is a threshold value or more is selected,
The parallel translation of the example sentence is acquired from the memory as the second replacement data of the second language corresponding to the first replacement data,
Based on said parameter information, by replacing the parameter included in the second replacement data in the second term, to produce a second text data of the second language,
How to translate.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016176956 | 2016-09-09 | ||
JP2016176956 | 2016-09-09 | ||
PCT/JP2017/023010 WO2018047436A1 (en) | 2016-09-09 | 2017-06-22 | Translation device and translation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018047436A1 JPWO2018047436A1 (en) | 2019-01-24 |
JP6709963B2 true JP6709963B2 (en) | 2020-06-17 |
Family
ID=61561371
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018538034A Active JP6709963B2 (en) | 2016-09-09 | 2017-06-22 | Translation device and translation method |
Country Status (7)
Country | Link |
---|---|
US (1) | US10943074B2 (en) |
EP (1) | EP3511844A4 (en) |
JP (1) | JP6709963B2 (en) |
KR (1) | KR20190047685A (en) |
CN (1) | CN109564591A (en) |
SG (1) | SG11201811724TA (en) |
WO (1) | WO2018047436A1 (en) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
CN104969289B (en) | 2013-02-07 | 2021-05-28 | 苹果公司 | Voice trigger of digital assistant |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US12197817B2 (en) | 2016-06-11 | 2025-01-14 | Apple Inc. | Intelligent device arbitration and control |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | Low-latency intelligent automated assistant |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
WO2019220725A1 (en) * | 2018-05-18 | 2019-11-21 | パナソニックIpマネジメント株式会社 | Voice recognition device, voice recognition method, and program |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | Virtual assistant operation in multi-device environments |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11475884B2 (en) * | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
CN113297857A (en) * | 2020-04-26 | 2021-08-24 | 阿里巴巴集团控股有限公司 | Data translation method and device, terminal equipment and readable storage medium |
WO2021229651A1 (en) * | 2020-05-11 | 2021-11-18 | パナソニックIpマネジメント株式会社 | Information communication system and method for controlling terminal |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US12301635B2 (en) | 2020-05-11 | 2025-05-13 | Apple Inc. | Digital assistant hardware abstraction |
US11586834B2 (en) * | 2020-06-30 | 2023-02-21 | Roblox Corporation | Automatic localization of dynamic content |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US11769019B1 (en) * | 2020-11-19 | 2023-09-26 | Amazon Technologies, Inc. | Machine translation with adapted neural networks |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3315221B2 (en) * | 1993-11-19 | 2002-08-19 | シャープ株式会社 | Conversation sentence translator |
US6466900B1 (en) * | 1998-05-29 | 2002-10-15 | Citicorp Development Center, Inc. | Multi-language phrase editor and method thereof |
US7165020B2 (en) * | 1998-05-29 | 2007-01-16 | Citicorp Development Center, Inc. | Multi-language phrase editor and method thereof |
US6654950B1 (en) * | 1999-08-24 | 2003-11-25 | Bae Systems Mission Solutions Inc. | Software rehosting system and method |
US7346488B2 (en) * | 2000-07-10 | 2008-03-18 | Fujitsu Limited | Automatic translator and computer-readable storage medium having automatic translation program recorded thereon |
US7043420B2 (en) * | 2000-12-11 | 2006-05-09 | International Business Machines Corporation | Trainable dynamic phrase reordering for natural language generation in conversational systems |
ATE465457T1 (en) * | 2002-03-27 | 2010-05-15 | Univ Southern California | PHRASE-BASED COMMON PROBABILITY MODEL FOR STATISTICAL MACHINE TRANSLATION |
US20080027830A1 (en) * | 2003-11-13 | 2008-01-31 | Eplus Inc. | System and method for creation and maintenance of a rich content or content-centric electronic catalog |
CA2562366A1 (en) * | 2004-04-06 | 2005-10-20 | Department Of Information Technology | A system for multiligual machine translation from english to hindi and other indian languages using pseudo-interlingua and hybridized approach |
US7499850B1 (en) * | 2004-06-03 | 2009-03-03 | Microsoft Corporation | Generating a logical model of objects from a representation of linguistic concepts for use in software model generation |
US8050907B2 (en) * | 2004-07-30 | 2011-11-01 | Microsoft Corporation | Generating software components from business rules expressed in a natural language |
US20060129633A1 (en) * | 2004-12-14 | 2006-06-15 | International Business Machines Corporation | Mechanism to facilitate customization of real time messaging using mobile devices |
JP4393494B2 (en) | 2006-09-22 | 2010-01-06 | 株式会社東芝 | Machine translation apparatus, machine translation method, and machine translation program |
JP2008225744A (en) * | 2007-03-12 | 2008-09-25 | National Institute Of Information & Communication Technology | Machine translation apparatus and program |
JP5235344B2 (en) * | 2007-07-03 | 2013-07-10 | 株式会社東芝 | Apparatus, method and program for machine translation |
US8516380B2 (en) * | 2007-12-28 | 2013-08-20 | International Business Machines Corporation | Conversation abstractions based on trust levels in a virtual world |
CN101960451A (en) * | 2008-02-29 | 2011-01-26 | 夏普株式会社 | Information processing device, method, and program |
US7970757B2 (en) * | 2008-03-17 | 2011-06-28 | International Business Machines Corporation | Computer program product for database query optimization |
WO2009149549A1 (en) * | 2008-06-09 | 2009-12-17 | National Research Council Of Canada | Method and system for using alignment means in matching translation |
JP5398202B2 (en) * | 2008-09-09 | 2014-01-29 | 株式会社船井電機新応用技術研究所 | Translation program, translation system, translation system manufacturing method, and bilingual data generation method |
US8280718B2 (en) * | 2009-03-16 | 2012-10-02 | Xerox Corporation | Method to preserve the place of parentheses and tags in statistical machine translation systems |
US8306807B2 (en) * | 2009-08-17 | 2012-11-06 | N T repid Corporation | Structured data translation apparatus, system and method |
US9552355B2 (en) * | 2010-05-20 | 2017-01-24 | Xerox Corporation | Dynamic bi-phrases for statistical machine translation |
JP5747508B2 (en) * | 2011-01-05 | 2015-07-15 | 富士ゼロックス株式会社 | Bilingual information search device, translation device, and program |
US8781810B2 (en) * | 2011-07-25 | 2014-07-15 | Xerox Corporation | System and method for productive generation of compound words in statistical machine translation |
US9244902B2 (en) * | 2011-10-20 | 2016-01-26 | Zynga, Inc. | Localization framework for dynamic text |
JP2014075073A (en) * | 2012-10-05 | 2014-04-24 | Fuji Xerox Co Ltd | Translation processor and program |
JP6186198B2 (en) * | 2013-07-17 | 2017-08-23 | 株式会社エヌ・ティ・ティ・データ | Learning model creation device, translation device, learning model creation method, and program |
US9430463B2 (en) * | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9367541B1 (en) * | 2015-01-20 | 2016-06-14 | Xerox Corporation | Terminological adaptation of statistical machine translation system through automatic generation of phrasal contexts for bilingual terms |
US9372853B1 (en) * | 2015-02-22 | 2016-06-21 | Cisco Technology, Inc. | Homomorphic document translation |
US9632999B2 (en) * | 2015-04-03 | 2017-04-25 | Klangoo, Sal. | Techniques for understanding the aboutness of text based on semantic analysis |
JP2017058865A (en) * | 2015-09-15 | 2017-03-23 | 株式会社東芝 | Machine translation device, machine translation method, and machine translation program |
US10765956B2 (en) * | 2016-01-07 | 2020-09-08 | Machine Zone Inc. | Named entity recognition on chat data |
US10185720B2 (en) * | 2016-05-10 | 2019-01-22 | International Business Machines Corporation | Rule generation in a data governance framework |
-
2017
- 2017-06-22 JP JP2018538034A patent/JP6709963B2/en active Active
- 2017-06-22 EP EP17848381.4A patent/EP3511844A4/en not_active Ceased
- 2017-06-22 WO PCT/JP2017/023010 patent/WO2018047436A1/en active Application Filing
- 2017-06-22 KR KR1020197002863A patent/KR20190047685A/en not_active Withdrawn
- 2017-06-22 SG SG11201811724TA patent/SG11201811724TA/en unknown
- 2017-06-22 CN CN201780050264.XA patent/CN109564591A/en active Pending
-
2019
- 2019-01-25 US US16/257,070 patent/US10943074B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20190243902A1 (en) | 2019-08-08 |
WO2018047436A1 (en) | 2018-03-15 |
EP3511844A1 (en) | 2019-07-17 |
US10943074B2 (en) | 2021-03-09 |
CN109564591A (en) | 2019-04-02 |
JPWO2018047436A1 (en) | 2019-01-24 |
EP3511844A4 (en) | 2019-08-07 |
SG11201811724TA (en) | 2019-04-29 |
KR20190047685A (en) | 2019-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6709963B2 (en) | Translation device and translation method | |
US11335334B2 (en) | Information processing device and information processing method | |
EP2863300B1 (en) | Function execution instruction system, function execution instruction method, and function execution instruction program | |
EP3791383B1 (en) | On-device speech synthesis of textual segments for training of on-device speech recognition model | |
US11915693B2 (en) | System and method for rule based modifications to variable slots based on context | |
US11264007B2 (en) | Translation device, translation method, and program | |
US11030400B2 (en) | System and method for identifying and replacing slots with variable slots | |
WO2015141700A1 (en) | Dialogue system construction support apparatus and method | |
CN104575516A (en) | Systems and methods for correcting accent-induced speech in an aircraft cockpit using a dynamic speech database | |
US10002610B2 (en) | Presentation supporting device, presentation supporting method, and computer-readable recording medium | |
US20180277145A1 (en) | Information processing apparatus for executing emotion recognition | |
US20200043493A1 (en) | Translation device | |
US11048886B2 (en) | Language translation by dividing character strings by fixed phases with maximum similarity | |
US11403470B2 (en) | Translation device | |
WO2018138933A1 (en) | Announcement system and voice information conversion device | |
JP2017167938A (en) | Learning device, learning method, and program | |
JPWO2016151692A1 (en) | Tag assignment support apparatus, method and program | |
US20230043401A1 (en) | Information communication system and method for controlling terminal | |
US20230135606A1 (en) | Information processing apparatus and information processing method | |
JP2024158695A (en) | Control system and program | |
JP2022070016A (en) | Voice processing device, voice processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180828 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200421 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200501 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6709963 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |