JPH04360291A - Method for learning neural net - Google Patents

Method for learning neural net

Info

Publication number
JPH04360291A
JPH04360291A JP3135150A JP13515091A JPH04360291A JP H04360291 A JPH04360291 A JP H04360291A JP 3135150 A JP3135150 A JP 3135150A JP 13515091 A JP13515091 A JP 13515091A JP H04360291 A JPH04360291 A JP H04360291A
Authority
JP
Japan
Prior art keywords
similarity
learning
error
output
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3135150A
Other languages
Japanese (ja)
Inventor
Yoshimasa Koike
義昌 小池
Masaaki Tanabe
田辺 雅秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP3135150A priority Critical patent/JPH04360291A/en
Publication of JPH04360291A publication Critical patent/JPH04360291A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To improve the accuracy of high output selected by a candidate selecting means out of plural outputs by multiplying an error calculated from the output of a neural net and similarity by a term to be increased/decreased in accordance with the size of the similarity and minimizing the multiplied value as an error function. CONSTITUTION:In this learning method, a feature vector is inputted and similarity to plural categories is outputted. An error calculated from the output of the neural net and the similarity is multiplied by the term to be increased/ decreased in accordance with the size of the similarity and the multiplied result is used as an error function and minimized. Namely in the flow chart of a neural net learning procedure, an error adjusting step 14 is added to a convensional learning method. In the step 14, an error calculated by error calculation between the output value of a step 13 and a teaching signal is multiplied by an error function to adjust the error due to the size of similarity. Thus the highly accurate collating result of pattern information can be obtained.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明はニューラルネットの学習
方法に係り、特に、有限個の要素を持つ特徴ベクトルで
表現されるパターン情報の照合を行うニューラルネット
の学習方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network learning method, and more particularly to a neural network learning method for matching pattern information expressed by feature vectors having a finite number of elements.

【0002】0002

【従来の技術】図4はパターン認識装置の構成を説明す
るための図を示す。このパターン認識装置は音声、画像
、文字等に代表されるパターン情報を認識するためのも
のである。パターン認識装置は切出し手段41、正規化
手段42、特徴抽出手段43、パターン照合手段44よ
りなる。パターン情報aが入力されると、切出し手段4
1により認識を行いたいパターン情報aの部分パターン
の切出しが行われ、次に、正規化手段42により、位置
合わせ、拡大縮小などの正規化が行われる。さらに、特
徴抽出手段43では正規化された入力が有限個の要素を
持つ特徴ベクトルbに変換され、パターン照合手段44
により結果cとして最適カテゴリが選択される。
2. Description of the Related Art FIG. 4 shows a diagram for explaining the configuration of a pattern recognition device. This pattern recognition device is for recognizing pattern information typified by sounds, images, characters, and the like. The pattern recognition device includes a cutting means 41, a normalizing means 42, a feature extracting means 43, and a pattern matching means 44. When the pattern information a is input, the cutting means 4
1, a partial pattern of the pattern information a to be recognized is cut out, and then, normalization means 42 performs normalization such as positioning and scaling. Further, the feature extraction means 43 converts the normalized input into a feature vector b having a finite number of elements, and the pattern matching means 44
The optimal category is selected as result c.

【0003】パターン照合手段44で行われる最適カテ
ゴリの選択においては、特徴ベクトルbの照合結果c以
外の外部情報も選択基準に用いられる場合がある。例え
ば、文字認識装置において、認識したい文字の前後の文
字の認識結果から認識したい文字を含む単語が推定でき
るような場合である。推定された単語から決まる認識し
たい文字のカテゴリは、その文字から生成された特徴ベ
クトルbとは独立の外部の情報である。この外部情報も
パターン照合を行う際に用いられる。この様にパターン
照合を行う場合には、パターン照合手段44としてパタ
ーン照合器が用いられている。
[0003] In the selection of the optimal category performed by the pattern matching means 44, external information other than the matching result c of the feature vector b may also be used as a selection criterion. For example, in a character recognition device, a word including a character to be recognized can be estimated from the recognition results of characters before and after the character to be recognized. The category of the character to be recognized determined from the estimated word is external information independent of the feature vector b generated from the character. This external information is also used when performing pattern matching. When performing pattern matching in this manner, a pattern matching device is used as the pattern matching means 44.

【0004】図5はパターン照合器の構成を説明するた
めの図である。パターン照合器は類似度生成手段51及
び候補選択手段52を有する。そのうち類似度生成手段
51は、入力とする特徴ベクトルbと各カテゴリを代表
する辞書ベクトル間の類似度を生成し、類似度が大きい
ものから数個のカテゴリについて、そのカテゴリ名と類
似度の情報dを候補選択手段52に出力する。候補選択
手段52では類似度の情報dとは別に得られる外部情報
eから類似度に重み付けを行い、最終的なカテゴリ名を
1つ選択し、選択カテゴリ名を結果fとして出力する。 外部情報eによっては必ずしも類似度生成手段51にお
いて最大の類似度を示したカテゴリが選択される訳では
なく、第2位以下のカテゴリが選択される場合もある。
FIG. 5 is a diagram for explaining the configuration of a pattern matching device. The pattern matcher includes similarity generation means 51 and candidate selection means 52. Among them, the similarity generation means 51 generates the similarity between the input feature vector b and the dictionary vector representing each category, and generates information on the category name and similarity for several categories with the highest similarity. d is output to the candidate selection means 52. The candidate selection means 52 weights the degree of similarity based on external information e obtained separately from the degree of similarity information d, selects one final category name, and outputs the selected category name as a result f. Depending on the external information e, the category that shows the highest degree of similarity in the similarity generation means 51 is not necessarily selected, but a category that ranks second or lower may be selected.

【0005】ここで、類似度生成手段51としてニュー
ラルネットが用いられる場合がある。類似度生成手段5
1は複数のカテゴリについて類似度を出力する必要があ
るため、ニューラルネットにも“0”または、“1”の
2値ではなく、アナログ値を出力させる必要がある。図
6は3層ニューラルネットを説明するための図を示す。 このニューラルネットは類似度生成手段51として用い
られる。このニューラルネットは6個の要素を持つ特徴
ベクトルを入力とし、3個のカテゴリ毎の類似度を出力
する。ニューラルネットは入力層ユニット61と、中間
層ユニット62と、出力層ユニット63から構成されて
いる。各ユニットはそれぞれ、状態変数である“数1”
、“数2”、“数3”を持ち、それぞれ、“数1”は入
力層の状態変数、“数2”は中間層の状態変数、“数3
”は出力装置の状態変数を示す。
[0005] Here, a neural network may be used as the similarity generation means 51. Similarity generation means 5
1 needs to output similarities for multiple categories, so the neural network also needs to output analog values instead of binary values of "0" or "1." FIG. 6 shows a diagram for explaining a three-layer neural network. This neural network is used as similarity generation means 51. This neural network receives a feature vector with six elements as input and outputs similarity for each of three categories. The neural network is composed of an input layer unit 61, a middle layer unit 62, and an output layer unit 63. Each unit has a state variable “Number 1”
, "Math 2" and "Math 3", respectively, where "Math 1" is the state variable of the input layer, "Math 2" is the state variable of the middle layer, and "Math 3" is the state variable of the input layer.
” indicates the state variable of the output device.

【数1】[Math 1]

【数2】[Math 2]

【数3】[Math 3]

【0006】ここで、添字のI,H,Oはそれぞれ入力
層、中間層、出力層を意味し、i,j,kはそれぞれi
,j,k番目のユニットであることを意味する。全入力
層ユニットと全中間層ユニット及び、全中間層ユニット
と全出力層ユニットはそれぞれ、結合荷重である“数4
”及び“数5”を持つリンクで結合されている。
[0006] Here, the subscripts I, H, and O mean input layer, intermediate layer, and output layer, respectively, and i, j, and k respectively mean i.
, j, means the k-th unit. All the input layer units, all the hidden layer units, all the hidden layer units, and all the output layer units are each combined weight "Equation 4".
” and “number 5”.

【数4】[Math 4]

【数5】 先ず、入力特徴ベクトルは各要素毎に入力層ユニット6
1に入力され、入力層ユニット61の状態変数“数1”
はそれぞれ特徴ベクトルの各要素の値をとる。次に各入
力層ユニット61は“数6”という出力値を中間層ユニ
ット62に送出する。
[Equation 5] First, the input feature vector is sent to the input layer unit 6 for each element.
1 and the state variable “Math 1” of the input layer unit 61
each takes the value of each element of the feature vector. Next, each input layer unit 61 sends an output value of "Math. 6" to the intermediate layer unit 62.

【数6】 ここで上記の右辺の関数は一次微分可能な単調増加関数
である。各中間層ユニット62は各入力層ユニット61
の出力値“数7”に結合荷重“数4”を乗じたものの総
和を、状態変数“数8”とする。
[Equation 6] Here, the function on the right side above is a linearly differentiable monotonically increasing function. Each intermediate layer unit 62 corresponds to each input layer unit 61.
The sum of the output value "Equation 7" multiplied by the connection load "Equation 4" is set as the state variable "Equation 8".

【数7】[Math 7]

【数8】 以下同様に、出力層ユニット63の状態変数は、[Math. 8] Similarly, the state variables of the output layer unit 63 are:

【数9
】 となり、最終的な出力層ユニットからの出力は
[Number 9
], and the final output from the output layer unit is

【数10
】 となる。
[Number 10
] becomes.

【0007】ニューラルネットの学習は入力特徴ベクト
ルと教師信号として用いるカテゴリ別の類似度(通常0
以上1.0以下)の組(以下で学習パターンと呼ぶ)を
複数組用意し、出力ユニットからの出力が、カテゴリ別
の類似度に近くなるようにユニット間の結合荷重“数4
”“数5”を変えることにより行われる。すなわち、学
習の評価関数として以下の関数を考える。Eは学習の評
価関数である。
[0007] Neural network learning is based on the similarity between the input feature vector and the category used as the teacher signal (usually 0).
(more than 1.0 or less) (hereinafter referred to as learning patterns) are prepared, and the connection weight between the units is set by the formula 4.
This is done by changing the equation 5. That is, consider the following function as a learning evaluation function. E is the learning evaluation function.

【数11】 ここでy’k は学習パターン中のk番目のカテゴリに
対する類似度である。学習の評価関数Eを極小にするに
は、
[Formula 11] Here, y'k is the similarity to the k-th category in the learning pattern. To minimize the learning evaluation function E,

【数12】 ずつ結合荷重を変化させていく。ここで、εは正の定数
である。この学習方法は最急降下法と呼ばれている。
[Equation 12] The connection load is changed by [Equation 12]. Here, ε is a positive constant. This learning method is called steepest descent.

【0008】図7は従来の方法によるニューラルネット
の学習手順を示す。 ステップ71;  入力特徴ベクトルが入力層ユニット
へ読み込まれる。 ステップ72;  中間層ユニット、出力層ユニットへ
と計算を進め、ニューラルネットワークの出力値を得る
。 ステップ73;  ニューラルネットの出力値と教師信
号の誤差を計算する。 ステップ74;  結合荷重の変更量を決定する。 ステップ75;  ステップ74で求めた変更量だけ、
結合荷重を変更する。 以上の操作を学習パターン毎に行うことにより学習を行
う。
FIG. 7 shows a neural network learning procedure according to a conventional method. Step 71; The input feature vector is read into the input layer unit. Step 72; Proceed the calculation to the intermediate layer unit and the output layer unit to obtain the output value of the neural network. Step 73; Calculate the error between the output value of the neural network and the teacher signal. Step 74; Determine the amount of change in connection load. Step 75; By the amount of change obtained in step 74,
Change bond loads. Learning is performed by performing the above operations for each learning pattern.

【0009】[0009]

【発明が解決しようとする課題】しかるに、ニューラル
ネットによって特徴ベクトルからカテゴリ毎の類似度を
生成するには、大小様々な類似度を含んだ学習パターン
を用意し、ニューラルネットに学習させなければならな
い。なぜなら、あるカテゴリを代表する辞書ベクトルに
近い、つまり類似度の大きい特徴ベクトルのみを用意し
、学習を行うと、そのカテゴリに対応する出力ユニット
はどのような入力が入っても高い類似度を出力するよう
に学習してしまう恐れがあるためである。このため、辞
書ベクトルから遠い特徴ベクトルに対して低い類似度を
与えた学習パターンも用意しなくてはならないという問
題がある。
[Problem to be solved by the invention] However, in order to generate similarities for each category from feature vectors using a neural network, it is necessary to prepare learning patterns that include similarities of various sizes and have the neural network learn them. . This is because if you prepare only feature vectors that are close to dictionary vectors that represent a certain category, that is, have a high degree of similarity, and perform learning, the output unit corresponding to that category will output a high degree of similarity no matter what kind of input it receives. This is because there is a risk that the child will learn to do the same thing. Therefore, there is a problem in that learning patterns that give low similarity to feature vectors that are far from dictionary vectors must also be prepared.

【0010】図8は従来の学習方法により学習を行った
場合のニューラルネットの出力を示す模式図である。同
図は学習が収束したニューラルネットにおける学習パタ
ーン中の類似度と、実際の出力ユニットからの出力の関
係を模式的に示している。横軸は学習パターン中の類似
度の目盛であり、縦軸はニューラルネットの出力値を示
す。横軸の値を持つ類似度(右上がりの太い線上に位置
する)をニューラルネットが学習した結果、その特徴ベ
クトルに対するニューラルネットの出力は2本の点線で
挟まれた範囲に分布する傾向を示す。このように、従来
の方法におけるニューラルネットの学習方法では、その
出力を学習パターン中の類似度に、類似度の高低に関わ
らず一様に近づけるように学習が行われる。
FIG. 8 is a schematic diagram showing the output of a neural network when learning is performed using a conventional learning method. The figure schematically shows the relationship between the degree of similarity in learning patterns in the neural network where learning has converged and the output from the actual output unit. The horizontal axis is a scale of similarity in learning patterns, and the vertical axis shows the output value of the neural network. As a result of the neural network learning the similarity with the value on the horizontal axis (located on the thick line upward to the right), the output of the neural network for that feature vector tends to be distributed in the range between the two dotted lines. . In this way, in the conventional neural network learning method, learning is performed so that the output uniformly approaches the degree of similarity in the learning pattern, regardless of the degree of similarity.

【0011】ここで、図5に示す候補選択手段52では
、比較的高い類似度を示したカテゴリ数個の中から1つ
の候補が選択される。このため、候補選択手段52で候
補が選択されるか選択されないかが問題となるのは一般
に類似度の高い領域においてである。つまり、類似度生
成手段51において、高い出力値は正確でなければなら
ないが、低い出力値は多少不正確であっても結果には影
響を与えない。ところが、従来方法によるニューラルネ
ットの学習方法では、類似度の大小に関わらず一様に学
習が行われてしまう。
[0011] Here, the candidate selection means 52 shown in FIG. 5 selects one candidate from among several categories showing a relatively high degree of similarity. For this reason, whether a candidate is selected or not by the candidate selection means 52 is generally a problem in areas with a high degree of similarity. In other words, in the similarity generating means 51, high output values must be accurate, but even if low output values are somewhat inaccurate, the result will not be affected. However, in the conventional neural network learning method, learning is performed uniformly regardless of the degree of similarity.

【0012】一般にニューラルネットは中間層ユニット
の数が限られているため、多数の学習パターンに対して
入力と出力の写像を完全に表現し切れず、評価関数Eが
ある値より小さくならなくなり、そこで学習が収束する
。従来の方法によりニューラルネットの学習を行った場
合、学習パターン中の低い類似度への像を表現しようと
するために、全体の学習が止められてしまうことがある
。この様に学習したニューラルネットを類似度生成手段
51に用いた場合、候補選択手段52で選択される高い
類似度の精度が悪くなるという問題点があった。
[0012] In general, neural networks have a limited number of intermediate layer units, so they cannot completely represent input and output mappings for a large number of learning patterns, and the evaluation function E will not become smaller than a certain value. Learning converges there. When a neural network is trained using a conventional method, the entire learning may be stopped due to an attempt to express an image with a low degree of similarity in the learning pattern. When a neural network trained in this manner is used in the similarity generating means 51, there is a problem that the precision of the high similarities selected by the candidate selecting means 52 deteriorates.

【0013】本発明は上記の点に鑑みなされたもので、
パターン照合器の類似度生成手段としてニューラルネッ
トを用いる場合において、ニューラルネットの出力のう
ち、候補選択手段で選択される比較的高い類似度での出
力結果の精度を向上させることにより、パターン照合器
としてパターン情報の精度の高い照合結果を得ることが
できるニューラルネットの学習方法を提供することを目
的とする。
[0013] The present invention has been made in view of the above points.
When using a neural network as a similarity generation means for a pattern matcher, the pattern matcher can be The purpose of this study is to provide a neural network learning method that can obtain highly accurate matching results for pattern information.

【0014】[0014]

【課題を解決するための手段】特徴ベクトルを入力とし
、複数のカテゴリに対する類似度を出力するニューラル
ネットの学習方法において、出力と類似度から計算され
る誤差に類似度の大小により増減する項を乗じ、これを
誤差関数とし、誤差関数を最小化する。また、上記のニ
ューラルネットの学習方法において、類似度の大小によ
り増減する項として、類似度を用いる。さらに、類似度
の大小により増減する項として類似度の2乗を用いる。
[Means for solving the problem] In a neural network learning method that takes feature vectors as input and outputs similarities for multiple categories, a term that increases or decreases depending on the magnitude of the similarity is added to the error calculated from the output and the similarity. Multiply, use this as an error function, and minimize the error function. Furthermore, in the neural network learning method described above, similarity is used as a term that increases or decreases depending on the magnitude of similarity. Furthermore, the square of the similarity is used as a term that increases or decreases depending on the magnitude of the similarity.

【0015】[0015]

【作用】パターン照合器の類似度生成手段として用いる
ニューラルネットの学習において、学習の評価関数とし
て、出力層ユニットの出力と教師信号である学習パター
ン中の類似度の誤差に単調増加する関数を乗じた量を用
い、これを最小化する様に結合荷重の調整を行うことに
より類似度が比較的高い値における出力の精度の向上を
図ることができる。
[Operation] In the learning of the neural network used as the similarity generation means of the pattern matcher, the error in the similarity between the output of the output layer unit and the learning pattern, which is the teacher signal, is multiplied by a monotonically increasing function as the learning evaluation function. By adjusting the connection weight so as to minimize this amount, it is possible to improve the accuracy of output at values where the degree of similarity is relatively high.

【0016】[0016]

【実施例】本発明におけるニューラルネットの学習方法
は学習パターンとして従来の方法に適用したものと同様
のものを用いる。以下、実施例では学習パターンが与え
られた場合のニューラルネットの学習方法について説明
する。
Embodiment The neural network learning method of the present invention uses learning patterns similar to those applied to conventional methods. In the following example, a learning method of a neural network when a learning pattern is given will be described.

【0017】ここで、あるカテゴリの辞書ベクトルと入
力される特徴ベクトルとの類似度は0以上1.0以下の
実数で表されるものとする。類似度が0の場合は、入力
特徴ベクトルはその辞書ベクトルに遠く、類似度が1.
0の場合は入力特徴ベクトルはその辞書ベクトルに完全
に等しい(近い)。ニューラルネットの学習に以下のよ
うな評価関数を用いる。
[0017] Here, it is assumed that the degree of similarity between a dictionary vector of a certain category and an input feature vector is expressed as a real number between 0 and 1.0. If the similarity is 0, the input feature vector is far from the dictionary vector, and the similarity is 1.
If it is 0, the input feature vector is completely equal to (close to) the dictionary vector. The following evaluation function is used to train the neural network.

【数13】 ここで、g(y’k )は0≦y’k ≦1.0で、y
’k に対して単調増加する関数であり、“数14”は
最終的な出力層ユニットからの出力である。y’k は
学習パターン中のk番目のカテゴリに対する類似度であ
る。
[Formula 13] Here, g(y'k) is 0≦y'k≦1.0, and y
It is a function that increases monotonically with respect to 'k, and "Equation 14" is the output from the final output layer unit. y'k is the similarity to the k-th category in the learning pattern.

【数14】 ここで、“数15”は出力層ユニットの出力と教師信号
である学習パターン中の類似度の2乗誤差を求めるもの
である。これにg(y’k )を乗じ、全出力ユニット
の総和をとることにより、式(6) に示した評価関数
E’が求められる。
##EQU00001## Here, "Equation 15" is used to find the square error of the similarity between the output of the output layer unit and the learning pattern that is the teacher signal. By multiplying this by g(y'k) and taking the sum of all output units, the evaluation function E' shown in equation (6) can be obtained.

【数15】[Math. 15]

【0018】次にg(y’k )は類似度の大小により
増減する項である。g(y’k )の例を以下に2例示
す。 まず、誤差関数g(y’k )=y’k の場合、評価
関数E’1 は
Next, g(y'k) is a term that increases or decreases depending on the degree of similarity. Two examples of g(y'k) are shown below. First, when the error function g(y'k)=y'k, the evaluation function E'1 is

【数16】[Math. 16]

【0019】また、誤差関数g(y’k )=y’k 
2 の場合、評価関数E’2 は
Furthermore, the error function g(y'k)=y'k
2, the evaluation function E'2 is

【数17】 上記の式(7) 及び(8) はニューラルネットの出
力値と学習パターン中の類似度の誤差にさらに、類似度
y’k 及びy’k 2 を乗じたものになっている。 これらの評価関数E’1 及びE’2 を最小化するよ
うに、ニューラルネットの学習を行った場合、類似度の
高低により結合荷重の変化量に重みが付くことになる。 つまり、類似度が高い場合には出力と類似度の誤差を相
対的に大きくし、類似度が低い場合には相対的に小さく
した結果、高い類似度を出すのに関与した結合荷重につ
いてはその変化量が相対的に大きくなり、低い類似度を
出すのに関与した結合荷重についてはその変化量が相対
的に小さくなることになる。従来の方法と同数のユニッ
ト数を持つニューラルネットがこの学習方法で学習した
場合、学習が収束した時点で従来の方法で学習したニュ
ーラルネットよりも高い値の類似度を学習パターンに忠
実に出力できるようになることが期待できる。
[Formula 17] Equations (7) and (8) above are obtained by multiplying the error between the output value of the neural network and the similarity in the learning pattern by the similarity y'k and y'k 2 . When a neural network is trained to minimize these evaluation functions E'1 and E'2, the amount of change in connection weights is weighted depending on the degree of similarity. In other words, when the degree of similarity is high, the error between the output and the degree of similarity is made relatively large, and when the degree of similarity is low, it is made relatively small. The amount of change becomes relatively large, and the amount of change becomes relatively small for the connection weights that were involved in producing a low degree of similarity. When a neural network with the same number of units as the conventional method is trained using this learning method, when the learning converges, it can output a similarity value that is higher than that of a neural network trained using the conventional method and is faithful to the learned pattern. We can expect it to become like this.

【0020】図1は本発明の一実施例のニューラルネッ
トの学習手順のフローチャートを示す。同図は図7に示
す従来の学習方法にステップ14の誤差の調整が加わっ
た処理となる。ステップ14ではステップ13の出力値
と教師信号の誤差の計算で計算された誤差に対して誤差
関数g(y’k )を乗ずることにより類似度y’k 
の大小による誤差の調整を行う。
FIG. 1 shows a flowchart of a neural network learning procedure according to an embodiment of the present invention. This figure shows a process in which error adjustment in step 14 is added to the conventional learning method shown in FIG. In step 14, the error calculated by calculating the error between the output value and the teacher signal in step 13 is multiplied by the error function g(y'k) to obtain the similarity y'k.
Adjust the error due to the size of .

【0021】図2は本発明の一実施例の学習方法により
学習を行った場合のニューラルネットの出力を示す模式
図である。同図の横軸及び縦軸は図8の従来の模式図と
同様である。図2において、従来の方法による学習結果
と比較して学習パターン中の比較的高い類似度で、ニュ
ーラルネットの出力が学習パターンに近い範囲に分布す
る傾向を示す。図2の太い線上に位置する横軸の学習パ
ターン中の類似度を学習した結果、ニューラルネットの
出力は点線で挟まれた範囲に分布する。従って、類似度
の高い部分での誤差が小さくなっていることがわかる。
FIG. 2 is a schematic diagram showing the output of a neural network when learning is performed using a learning method according to an embodiment of the present invention. The horizontal and vertical axes of this figure are the same as those of the conventional schematic diagram of FIG. In FIG. 2, there is a tendency for the output of the neural network to be distributed in a range close to the learning pattern with a relatively high degree of similarity in the learning pattern compared to the learning results obtained by the conventional method. As a result of learning the similarity in the learning patterns on the horizontal axis located on the thick line in FIG. 2, the output of the neural network is distributed within the range between the dotted lines. Therefore, it can be seen that the error is small in areas with high similarity.

【0022】また、図3は本発明による学習方法により
学習を行った場合の学習パターン中の類似度と出力の誤
差の関係図であり、図9は従来の学習方法により学習を
行った場合の学習パターン中の類似度と出力の誤差の関
係図を示す。図3及び図9は先に示した図2及び図8の
模式図の概念において、実際のデータを適応したシミュ
レーションの結果を示したものであり、図9の従来の学
習方法では学習結果は略均等に分布し、図3の本発明の
学習方法では横軸方向の右下に分布する。これにより、
類似度の高い値程、誤差が小さい。類似度が低い値の場
合には多少誤差があっても結果には影響を与えない。
Furthermore, FIG. 3 is a diagram showing the relationship between similarity in learning patterns and output error when learning is performed using the learning method according to the present invention, and FIG. A diagram showing the relationship between similarity in learning patterns and output error. Figures 3 and 9 show the results of simulations that apply actual data to the concept of the schematic diagrams in Figures 2 and 8 shown above, and the learning results in the conventional learning method shown in Figure 9 are approximate. It is distributed evenly, and in the learning method of the present invention shown in FIG. 3, it is distributed at the lower right in the horizontal axis direction. This results in
The higher the similarity, the smaller the error. If the similarity is low, even if there is some error, it will not affect the results.

【0023】このような学習方法により作成したニュー
ラルネットを類似度生成手段に用いることにより、従来
の方法より精度の高いパターン照合器を構成することが
できる。
[0023] By using a neural network created by such a learning method as a similarity generation means, it is possible to construct a pattern matcher with higher accuracy than conventional methods.

【0024】[0024]

【発明の効果】上記のように本発明によれば、学習を行
ったニューラルネットを類似度生成手段として用いた、
パターン照合器は候補選択手段において選択される比較
的高い類似度を類似度生成手段において生成できるため
、従来の方法により学習したニューラルネットを用いた
場合より、高い類似度での精度の高いパターン情報の照
合結果を得ることができる。
[Effects of the Invention] As described above, according to the present invention, a trained neural network is used as a similarity generation means.
Since the pattern matcher can generate relatively high degrees of similarity selected by the candidate selection means in the similarity generation means, it can generate more accurate pattern information with a higher degree of similarity than when using a neural network trained by a conventional method. It is possible to obtain the following matching results.

【図面の簡単な説明】[Brief explanation of drawings]

【図1】本発明の一実施例のニューラルネットの学習手
順のフローチャートである。
FIG. 1 is a flowchart of a learning procedure of a neural network according to an embodiment of the present invention.

【図2】本発明の一実施例の学習方法により学習を行っ
た場合のニューラルネットの出力を示す模式図である。
FIG. 2 is a schematic diagram showing the output of a neural network when learning is performed using a learning method according to an embodiment of the present invention.

【図3】本発明による学習方法により学習を行った学習
パターン中の類似度と出力の誤差の関係図である。
FIG. 3 is a diagram showing the relationship between similarity in learning patterns learned by the learning method according to the present invention and output error.

【図4】パターン認識装置の構成を説明するための図で
ある。
FIG. 4 is a diagram for explaining the configuration of a pattern recognition device.

【図5】パターン照合器の構成を説明するための図であ
る。
FIG. 5 is a diagram for explaining the configuration of a pattern matcher.

【図6】3層ニューラルネットを説明するための図であ
る。
FIG. 6 is a diagram for explaining a three-layer neural network.

【図7】従来の方法によるニューラルネットの学習の手
順のフローチャートである。
FIG. 7 is a flowchart of a procedure for learning a neural network according to a conventional method.

【図8】従来の学習方法により学習を行った場合のニュ
ーラルネットの出力を示す模式図である。
FIG. 8 is a schematic diagram showing the output of a neural network when learning is performed using a conventional learning method.

【図9】従来の学習方法により学習を行った場合の学習
パターン中の類似度と出力の誤差の関係図である。
FIG. 9 is a diagram showing the relationship between similarity in learning patterns and output errors when learning is performed using a conventional learning method.

【符号の説明】[Explanation of symbols]

41  切出し手段 42  正規化手段 43  特徴抽出手段 44  パターン照合手段 51  類似度生成手段 52  候補選択手段 61  入力層ユニット 62  中間層ユニット 63  出力層ユニット 41 Cutting means 42 Normalization means 43 Feature extraction means 44 Pattern matching means 51 Similarity generation means 52 Candidate selection means 61 Input layer unit 62 Middle layer unit 63 Output layer unit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】  特徴ベクトルを入力とし、複数のカテ
ゴリに対する類似度を出力するニューラルネットの学習
方法において、ニューラルネットの出力と類似度から計
算される誤差に類似度の大小により増減する項を乗じ、
これを誤差関数とし、該誤差関数を最小化することを特
徴とするニューラルネットの学習方法。
Claim 1: A neural network learning method that takes feature vectors as input and outputs similarities for multiple categories, in which the error calculated from the output of the neural network and the similarities is multiplied by a term that increases or decreases depending on the magnitude of the similarities. ,
A neural network learning method characterized by using this as an error function and minimizing the error function.
【請求項2】  前記ニューラルネットの学習方法にお
いて、前記類似度の大小により増減する項として、類似
度を用いることを特徴とする請求項1記載のニューラル
ネットの学習方法。
2. The neural network learning method according to claim 1, wherein a degree of similarity is used as a term that increases or decreases depending on the magnitude of the degree of similarity.
【請求項3】  前記ニューラルネットの学習方法にお
いて、前記類似度の大小により増減する項として類似度
の2乗を用いることを特徴とする請求項1記載のニュー
ラルネットの学習方法。
3. The neural network learning method according to claim 1, wherein the square of the similarity is used as a term that increases or decreases depending on the magnitude of the similarity.
JP3135150A 1991-06-06 1991-06-06 Method for learning neural net Pending JPH04360291A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3135150A JPH04360291A (en) 1991-06-06 1991-06-06 Method for learning neural net

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3135150A JPH04360291A (en) 1991-06-06 1991-06-06 Method for learning neural net

Publications (1)

Publication Number Publication Date
JPH04360291A true JPH04360291A (en) 1992-12-14

Family

ID=15144985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3135150A Pending JPH04360291A (en) 1991-06-06 1991-06-06 Method for learning neural net

Country Status (1)

Country Link
JP (1) JPH04360291A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5909676A (en) * 1996-02-29 1999-06-01 Kabushiki Kaisha Toshiba System for controlling an object and medium using neural networks
JP2020107331A (en) * 2018-12-27 2020-07-09 三星電子株式会社Samsung Electronics Co.,Ltd. User verification method and apparatus using generalized user model

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5909676A (en) * 1996-02-29 1999-06-01 Kabushiki Kaisha Toshiba System for controlling an object and medium using neural networks
JP2020107331A (en) * 2018-12-27 2020-07-09 三星電子株式会社Samsung Electronics Co.,Ltd. User verification method and apparatus using generalized user model

Similar Documents

Publication Publication Date Title
Mitra et al. Self-organizing neural network as a fuzzy classifier
US5924085A (en) Stochastic encoder/decoder/predictor
US5245696A (en) Evolution and learning in neural networks: the number and distribution of learning trials affect the rate of evolution
JPH04229384A (en) Neural network device and method for pattern recognition
Weymaere et al. On the initialization and optimization of multilayer perceptrons
US5859925A (en) Classifying system having a single neural network architecture for multiple input representations
EP0342630A2 (en) Speech recognition with speaker adaptation by learning
US5903884A (en) Method for training a statistical classifier with reduced tendency for overfitting
JPH05507804A (en) Neural network that controls backpropagation using output reliability index values
CN113140019A (en) Method for generating text-generated image of confrontation network based on fusion compensation
CN103914711B (en) A kind of improved very fast learning device and its method for classifying modes
JPH08227408A (en) Neural network
CN115222566A (en) Learning method and system for international finance and finance metrology teaching
KR102679888B1 (en) Apparatus and method for normalization of vision transformers
US5708727A (en) Neuroprocessing service
JP6943295B2 (en) Learning devices, learning methods, and learning programs
US12079717B2 (en) Data processing apparatus, training apparatus, method of detecting an object, method of training, and medium
JPH04360291A (en) Method for learning neural net
CN118607526A (en) A visual question answering method and system based on fine-grained adapter
JP3703164B2 (en) Pattern recognition method and apparatus
Munoz et al. From indefinite to positive semi-definite matrices
CN115936073A (en) Language-oriented convolutional neural network and visual question-answering method
JPWO2019116497A1 (en) Identification device, identification method, and identification program
Hu et al. Initial investigation of speech synthesis based on complex-valued neural networks
Mirza et al. Classifier tools: A comparative study