質問

設定はどのように行うのですか神経ネットワークをしてもらい、受け入れ、出力が連続値の範囲の代わりに離散すか。からの回収を行うことをニューラルネットワークのクラスは、数年前の活性化に機能するsigmoid、利回りの間の値(上下限値を0、1です。したい場合は私のニューラルネットワークの利回りは、実質価値は、スカラ、どうしたらよいですか?ってしまうことがありました値は0 10うことができるのかを乗じた価値の10?何をしている場合は負の値?これが、お世話になっている人は他にある。うのは何か?

感謝

役に立ちましたか?

解決

多くの分野における作業 neuroevolution をニューラルネットワークを用いた連続入力します。<br></p><

あるアプローチ:

  • 一ノード当たり価値
    • 線形化機能 -としては、利用できる非sigmoid活性化機能を出力ノードの場合の懸念の他これに準ずる限られた範囲内のsigmoidます。しかし、この出力へ任意に大き、問題を引き起こす可能性があり中です。
    • Sigmoid活性化機能 単にスケーリングsigmoid出力(または移転をスケーリングしたい場合は、負の値は共通のアプローチneuroevolution.しかし、まうsigmoid機能でしかできない急な:急活性化機能の利用範囲の値が小さいのに対し、勢力のネットワークウェイトです。 (これは主に問題と遺伝的アルゴリズムを使用する固定ウエイト変更戦略がうまくいっていませんが小さいウェイトが望まれる。)

regular sigmoid
(出典: natekohl.net)
steep sigmoid
(出典: natekohl.net)

  • 複数のノード当たり価値 拡大は単一の連続値で複数のノードは共通の戦略を代表す連続用の入力端子が付いています。での利益を供給する"特長"のためのネットワークに遊びにコストの増加ネットワークサイズです。
    • ビニング -広がる単一の入力を複数のノード(例: RBFネットワーク, この場合、各ノードは基本機能の異なるセンターの一部起動入力).ように離散力を失わずに、滑らかに表現。●
    • バイナリ表現 -分割、単一値2N チャンク、その飼料価値のネットワークとしてバイナリパターンNノード。このアプローチはコンパクトがどの脆性および結果の入力に変化する非連続す。

他のヒント

特定の関数である出力(*)を必要とするルールはありません。実際、通常、出力を特定の形式にスケーリングしたり強制したりするために、特定のノードに実装された関数自体の最後にいくつかの算術演算を追加する必要があります。

全か無かの出力や0.0〜1.0の正規化された出力で作業する利点は、物事をより扱いやすくし、オーバーフローなどの問題を回避できることです。

(*)&quot;出力&quot;ここでは、ネットワーク内の特定のノード(ニューロン)またはネットワーク全体の出力として理解できます。
Mark Besseyが示すように、[ネットワーク全体への]入力と[ネットワークの]出力は、通常、何らかのフィルタリング/変換を受け取ります。この応答とマークのコメントで示唆されているように、「非表示」のノードに正規化/標準ノードを含めることが望ましい場合があります。ネットワークのレイヤー、およびネットワークの入力および/または出力に必要な正規化/変換/離散化を適用します。ただし、このような実践は、一般的なニューラルネットワークの必須要件ではなく、実用性の問題にすぎません。

通常、入力と出力の両方で何らかのフィルタリング(レベル変換など)を行う必要があります。明らかに、入力をフィルタリングすると内部状態が変化するため、トレーニングしようとしている信号を失わないように注意する必要があります。

ライセンス: CC-BY-SA帰属
所属していません StackOverflow
scroll top