ファジーニューラルネットワークNEFClass Mの開発

NEFClassシステムの欠点の分析は、それらの原因がNEFClassファジーセット学習アルゴリズムの欠陥であることを示しています。 これを修正するには、経験的学習アルゴリズムを厳密な数値最適化アルゴリズムに置き換える必要があります。 オリジナルおよび修正されたNEFClassモデルと同様に、ファジーパーセプトロンのアーキテクチャに基づいています。 元のモデルと変更されたモデルのアーキテクチャの違いは、ファジーセットのメンバーシップ関数、ルールニューロンの活性化を計算するためのtノルム関数の形式、および出力ニューロンの活性化を決定する集約関数(tコノラム)の形式です。 数値最適化手法を使用するには、ファジーセットのメンバーシップ関数の微分可能性が必要です。これは、三角形のメンバーシップ関数が満たさない条件です。 したがって、修正されたモデルでは、ファジーセットにガウスメンバーシップ関数があります。

微分可能性の要件により、ルールニューロンの活性化を計算するためのtノルム(交差)の形式も決まります。 NEFClassシステムはこれに最小限の機能を使用します。 変更では、これは対応する値の積です。 最後に、変更されたモデルの集約関数(t-conorm)の形式は、加重合計によってのみ制限されます。 その理由は、元のシステムで使用される最大関数が微分可能性条件を満たさないためです。

主な変更は、ファジーセット学習アルゴリズムに関するものです。 修正されたNEFClassシステムの目標関数は、従来のニューラルネットワークとの類推により、トレーニングセットの平均二乗誤差を最小化することです。

トレーニングセットの平均二乗誤差を減らすことを目的とした数値最適化の議論は、ネットワークのすべてのファジーセットのパラメーターaとbの結合ベクトルです。 特定の方法は、たとえば勾配法や共役勾配法など、任意の無条件最適化方法です。
NEFClass Mファジーニューラルネットワーク学習アルゴリズム
ステージ1-ルールベースの生成
このアルゴリズムの第1段階-ルールベースのトレーニングでは、基本的なNEFClassアルゴリズムの第1段階が使用されます。
ステージ2-ファジーセットのトレーニング
第2段階では、直接作用のニューラルネットワークを学習する共役勾配法を使用します。

NEF NEFClass Mを使用した実験の実施
ソースデータ
モスクワ州教育機関の従業員がネットワークのサンプルとして選択され、データベースに入力されました(図1)。 写真には、角度、スケール、照明の変化が含まれます。 データベースには100枚の画像があります:10人の顔を持つ10人 画像のサイズは112x92です。 形式-ピクセルあたり1バイト、グレースケール値[0; 255]。 学習をスピードアップするために、画像はボリュームを4倍(46x56)削減しました。

画像
図1。

トレーニング前のデータベースは2つの部分に分かれていました。 奇妙な人間の画像がトレーニングに使用され、テストにも使用されました。 ファジーニューラルネットワーク実験は、数学エディターMathcad 14.0で実行されました。

NEFClass M NNS実験
NEFClass MNSトレーニングパラメーター
パラメータ価値
ルール生成アルゴリズムクラスに最適
学習アルゴリズム共役勾配
集計関数加重量
各特性の用語の数5


最初の段階で生成されるルールの数に対するトレーニングの品質の依存性を研究します。 テストとして、テストサンプルのテストを実施します。 これを行うために、各クラスにルール1、2、3、または4(5つのうち)の数を設定します。 ネットワーク構成:40個の出力ニューロン、各特性に対して5つの用語。
実験結果
表1-トレーニングの質のルール数への依存

入力ニューロンニューロンの規則認識(トレーニングセット)認識(検証サンプル)
わかったエラーわかったエラー
2004073.526.50.070.030.00.0
2008092.57.50.086.018.00.0
20012098.51.50.091.09.00.0
200160100.00.00.093.56.50.0
4004076.522.01.567.532.01.5
4008092.07.01.082.516.51.0
40012098.02.50.597.50.51.5
400160100.00.00.098.50.01.5

ここで、「Err」は第2種のエラー、「?」は認識されない画像(第1種のエラー)です。

調査中のアルゴリズムの中で、NEFClass Mニューラルネットワークは認識タスクに最もよく対処しましたが、このネットワークでは多くの第1種のエラーが発生しました。 古典的なNEFClassニューラルネットワークは、このようなエラーの割合と同じ結果を示しましたが、多数の認識されていない画像のためにNEFClass Mよりも遅れています。 これは、入力データ範囲でルールニューロンの入力にゼロ値を与えることができる三角メンバーシップ関数の使用によるものです(ガウスメンバーシップ関数を使用する場合は発生しません)。

上記の分析から、認識確率を高めるには、NEFCIass Mニューラルネットワークを使用する必要があります。NEFCIassMニューラルネットワークは、最小限の分類エラーを示しましたが、認識されない画像の値も増加しました。 認識されていない画像のエラーを減らすには、知識ベースでの検索を最適化し、顔画像のセットを増やす必要があります。

おわりに
実行された分析と実験に基づいて、最適なネットワーク構成と画像認識タスクの前処理パラメータ、つまり次の点に注意する必要があります。
1.特定のクラスに対する画像の定性的相関のフーリエ係数の数:クラスの数に応じて80〜200。
2.隠れニューロンの数:出力ニューロンの数に応じて80〜200。
3.最も最適な層活性化関数は双曲線正接です。
4.学習アルゴリズム-学習ステップの適応による勾配

PSハブラに関する私の最初の記事 私の大学院の仕事。

Source: https://habr.com/ru/post/J197942/


All Articles