概要
前のセクション(ニューラルネットワークとは)から、ニューラルネットワークはニューロンで構成される関数であり、ニューロンも関数であることがわかりました。
Neuron は、引き続き 2 つのサブ機能に分割できます。
- n要素線形関数:g(x1,...,xn)
- 単項非線形関数: h(x)
ニューロンによって表される関数は次のとおりです。
f(x1,...,xn)=h(g(x1,...,xn))
線形関数 g(x1,...,xn)
一次関数の形式は次のとおりです。
g(x1,...,xn)=w1x1+...,wnxn+b
その中で、 w1,...,wn,bはすべてパラメーターであり、異なる線形関数には異なるパラメーターがあります。
単項線形関数
n=1、 g(x1)=w1x1+bの場合、関数イメージは直線になります。
バイナリ線形関数
n=2、 g(x1,x2)=w1x1+w2x2+bの場合、関数イメージは平面です。
n要素の線形関数
n>2の場合、関数画像は超平面です。 3D を超えて、視覚化は便利ではありません。しかし、あなたはその特徴がまっすぐであると想像することができます。
非線形関数 h(x)
非線形関数は線形関数とは異なる関数であることが名前から理解しやすいです。一次関数は直線であり、非線形関数は曲線です。最も一般的なsigmoid関数など:
活性化関数
ニューラルネットワークでは、この単項非線形関数を活性化関数と呼びます。いくつかの一般的なアクティベーション関数については、ナレッジベースのアクティベーション関数を参照してください。ここで、
- Linear:f(x)=xは線形関数です。つまり、非線形関数は使用されません。
- Softmax:は特殊なケースです。厳密に言えば、それは活性化関数ではありません
必要性
非線形活性化関数の後に線形関数を続ける必要があるのはなぜですか?
それの訳は:
- ニューロンがすべて線形関数である場合、ニューロンで構成されるニューラルネットワークも線形関数です。
次の例のように:
- f1(x,y)=w1x+w2y+b1
- f2(x,y)=w3x+w4y+b2
- f3(x,y)=w5x+w6y+b3
すると、ニューラルネットワーク全体で表される関数は次のようになります。
==f3(f1(x1,x2,x3),f2(x1,x2,x3))w5(w1x1+w2x2+b1)+w6(w3x2+w4x3+b2)+b3(w1w5)x1+(w2w5+w3w6)x2+(w4w6)x3+(w5b1+w6b2+b3)
これは 3 次線形関数です。
- 構築する必要のある目的関数にはさまざまな関数が含まれていますが、線形関数はその 1 つにすぎません。
ニューラルネットワークが線形関数だけでなく、任意の関数をシミュレートできることを願っています。そこで、非線形活性化関数を追加し、線形関数を「曲げ」ました。
完全なニューロン
完全なニューロンは、線形関数と非線形活性化関数を組み合わせて、より面白くて強力にします。
単項関数
n=1、 g(x1)=w1x1+bの場合、sigmoid活性化関数を使用すると、ニューロンの対応する関数は次のようになります。
h(g(x))=sigmoid(wx+b)
関数イメージは次のとおりです。
バイナリ関数
n=2、 g(x1,x2)=w1x1+w2x2+bの場合、sigmoid活性化関数を使用すると、ニューロンの対応する関数は次のようになります。
h(g(x))=sigmoid(w1x1+w2x2+b)
関数イメージは次のとおりです。
n-要素関数
視覚化の問題のため、ここでは完全に私自身の想像力次第です! 😥
質問
ニューラルネットワークがニューロンの組み合わせから複雑な機能をシミュレートできるのはなぜですか?
単純なニューロンを使用して、もう少し複雑な関数をシミュレートする方法を直感的に想像できます。