Verschwindender Gradient und explodierender Gradient
Convolutional Neural Network (CNN)
1D-Faltung
1D-Faltungsexperimente
1D-Pooling
1D-CNN-Experimente
2D-CNN
2D-CNN Experimente
Rekurrentes neuronales Netz (RNN)
Vanille RNN
Seq2seq, Autoencoder, Encoder-Decoder
Erweiterte RNN
RNN-Klassifikationsexperiment
Verarbeitung natürlicher Sprache
Embedding: Symbole in Werte umwandeln
Textkategorisierung 1
Textkategorisierung 2
TextCNN
Entitätserkennung
Wortsegmentierung, Wortart-Tagging und Chunking
Sequenz-Tagging in Aktion
Bidirektionales RNN
BI-LSTM-CRF
Beachtung
Sprachmodelle
n-gram-Modelle: Unigram
n-gram-Modelle: Bigram
n-gram-Modelle: Trigram
RNN-Sprachmodelle
Transformer-Sprachmodelle
Lineare Algebra
Vektor
Matrix
Eintauchen in die Matrixmultiplikation
Tensor
Tauchen Sie ein in das Neuron
Überblick
Aus dem vorherigen Abschnitt (Was ist ein neuronales Netzwerk) haben wir gelernt, dass ein neuronales Netzwerk eine Funktion ist, die aus Neuronen besteht, und ein Neuron ist auch eine Funktion.
Neuron lässt sich weiterhin in 2 Unterfunktionen aufteilen:
n Element lineare Funktion: g(x1,...,xn)
unäre nichtlineare Funktion: h(x)
Die durch das Neuron repräsentierte Funktion ist:
f(x1,...,xn)=h(g(x1,...,xn))
Lineare Funktion g(x1,...,xn)
Die lineare Funktion hat folgende Form:
g(x1,...,xn)=w1x1+...,wnxn+b
Darunter sind w1,...,wn,b alle Parameter, und verschiedene lineare Funktionen haben unterschiedliche Parameter.
Unäre lineare Funktion
Bei n=1, g(x1)=w1x1+b ist das Funktionsbild eine gerade Linie:
w11
b0
Binäre lineare Funktion
Bei n=2, g(x1,x2)=w1x1+w2x2+b ist das Funktionsbild eine Ebene:
w10
w21
b0
n Element lineare Funktion
Bei n>2 ist das Funktionsbild eine Hyperebene. Jenseits von 3D ist die Visualisierung nicht bequem. Aber Sie können sich vorstellen, dass seine Charakteristik gerade ist.
Nichtlineare Funktion h(x)
Aus dem Namen ist leicht zu verstehen, dass eine nichtlineare Funktion eine von einer linearen Funktion verschiedene Funktion ist. Eine lineare Funktion ist gerade und eine nichtlineare Funktion ist gekrümmt. Wie die gebräuchlichste sigmoid-Funktion:
Aktivierungsfunktion
In neuronalen Netzen nennen wir diese unäre nichtlineare Funktion Aktivierungsfunktion. Einige allgemeine Aktivierungsfunktionen finden Sie unter Aktivierungsfunktion in der Wissensdatenbank, wo:
Linear: f(x)=x ist eine lineare Funktion, was bedeutet, dass keine nichtlineare Funktion verwendet wird
Softmax ist ein Sonderfall. Streng genommen handelt es sich nicht um eine Aktivierungsfunktion
Notwendigkeit
Warum sollte auf eine nichtlineare Aktivierungsfunktion eine lineare Funktion folgen?
Das ist weil:
Wenn Neuronen alle lineare Funktionen sind, dann ist auch das aus Neuronen bestehende neuronale Netz eine lineare Funktion.
Wie das folgende Beispiel:
f1(x,y)=w1x+w2y+b1
f2(x,y)=w3x+w4y+b2
f3(x,y)=w5x+w6y+b3
Dann ist die durch das gesamte neuronale Netz repräsentierte Funktion:
Die zu konstruierende Zielfunktion enthält verschiedene Funktionen, und die lineare Funktion ist nur eine davon.
Wir hoffen, dass neuronale Netze beliebige Funktionen simulieren können, nicht nur lineare Funktionen. Also haben wir eine nichtlineare Aktivierungsfunktion hinzugefügt und die lineare Funktion "gebogen".
Komplettes Neuron
Das komplette Neuron kombiniert eine lineare Funktion und eine nichtlineare Aktivierungsfunktion, was es interessanter und leistungsfähiger macht.
Unäre Funktion
Wenn n=1, g(x1)=w1x1+b unter Verwendung der sigmoid-Aktivierungsfunktion ist die entsprechende Funktion des Neurons:
h(g(x))=sigmoid(wx+b)
Das Funktionsbild ist:
w1
b0
Binäre Funktion
Wenn n=2, g(x1,x2)=w1x1+w2x2+b, unter Verwendung der sigmoid-Aktivierungsfunktion ist die entsprechende Funktion des Neurons:
h(g(x))=sigmoid(w1x1+w2x2+b)
Das Funktionsbild ist:
w10
w21
b0
n-Elementfunktion
Aufgrund des Visualisierungsproblems ist es hier ganz meiner eigenen Vorstellung überlassen! 😥
Frage
Warum kann das neuronale Netz komplexe Funktionen aus einer Kombination von Neuronen simulieren?
Sie können sich intuitiv vorstellen, wie Sie durch einfache Neuronen eine etwas kompliziertere Funktion simulieren.