Diskussion zum Artikel "Neuronale Netze leicht gemacht (Teil 20): Autoencoder"

 

Neuer Artikel Neuronale Netze leicht gemacht (Teil 20): Autoencoder :

Wir untersuchen weiterhin Modelle und Algorithmen für unüberwachtes Lernen. Einige Leser haben vielleicht Fragen zur Relevanz der jüngsten Veröffentlichungen zum Thema neuronale Netze. In diesem neuen Artikel befassen wir uns wieder mit neuronalen Netzen.

Im allgemeinen Fall ist der Autoencoder (Selbstprogrammierend) ein neuronales Netz, das aus zwei Encoder- und Decoderblöcken besteht. Die Quelldatenschicht des Encoders und die Ergebnisschicht des Decoders enthalten die gleiche Anzahl von Elementen. Dazwischen befindet sich eine verborgene Schicht, die in der Regel kleiner ist als die Quelldaten. Während des Lernprozesses bilden die Neuronen dieser Schicht einen latenten (versteckten) Zustand, der die Quelldaten in komprimierter Form beschreiben kann.


Dies ähnelt dem Datenkomprimierungsproblem, das wir mit der Methode der Hauptkomponentenanalyse gelöst haben. Es gibt jedoch Unterschiede in den Ansätzen, auf die wir später noch eingehen werden.

Wie bereits erwähnt, ist ein Autoencoder ein neuronales Netz. Es wird nach der Backpropagation-Methode trainiert. Der Trick besteht darin, dass wir, da wir nicht gekennzeichnete Daten verwenden, das Modell zunächst darauf trainieren, die Daten mithilfe eines Encoders auf die Größe des latenten Zustands zu komprimieren. Dann wird das Modell im Decoder die Daten mit minimalem Informationsverlust in den ursprünglichen Zustand zurückversetzen.

Autor: Dmitriy Gizlyk

 
Es ist einfach, nur die Abschnitte sind bereits 20 Teile).
 
Vasiliy Smirnov #:
Es ist einfach, aber es gibt bereits 20 Abschnitte).

Ich versuche, verschiedene Ansätze zu zeigen und unterschiedliche Nutzungsvarianten zu demonstrieren.
Und mit dem Namen "it's simple" wollte ich die Zugänglichkeit der Technologie für alle, die sie nutzen wollen, betonen.

 
Hallo Dmitry, sind Sie verfügbar, um mir zu helfen, Setup und laufen diese EA?