Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Neuer Artikel Population ADAM (Adaptive Moment Estimation) :
Im Jahr 2014 schlugen zwei herausragende Köpfe, D. P. Kingma und J. Ba, den ADAM-Algorithmus vor, der die besten Eigenschaften seiner Vorgänger, wie AdaGrad und RMSProp, vereint. Der Algorithmus wurde speziell für die Optimierung der Gewichte von neuronalen Netzen unter Verwendung der Gradienten der Aktivierungsfunktionen der Neuronen entwickelt. Es basiert auf adaptiven Schätzungen des ersten und zweiten Moments und ist daher einfach zu implementieren und sehr recheneffizient. Der Algorithmus benötigt nur minimale Speicherressourcen und ist nicht von der diagonalen Neuskalierung der Gradienten abhängig, was ihn besonders für Probleme mit großen Datenmengen und Parametern geeignet macht.
ADAM funktioniert auch gut bei nicht stationären Zielen und in Situationen, in denen die Gradienten verrauscht oder spärlich sind. Die Hyperparameter des Algorithmus sind einfach zu interpretieren und erfordern in der Regel keine komplexe Abstimmung.
Trotz seiner Effizienz im Bereich der neuronalen Netze ist ADAM jedoch auf die Verwendung von analytischen Gradienten beschränkt, was den Anwendungsbereich einschränkt. In diesem Artikel schlagen wir einen innovativen Ansatz zur Modifizierung des ADAM-Algorithmus vor, indem wir ihn in einen populationsbasierten Optimierungsalgorithmus umwandeln, der mit numerischen Gradienten umgehen kann. Diese Modifikation erweitert nicht nur den Anwendungsbereich von ADAM über neuronale Netze hinaus, sondern eröffnet auch neue Möglichkeiten zur Lösung eines breiten Spektrums von Optimierungsproblemen im Allgemeinen.
Unsere Forschung zielt darauf ab, einen Allzweckoptimierer zu entwickeln, der die Vorteile des ursprünglichen ADAM beibehält, aber auch in Umgebungen effektiv arbeiten kann, in denen keine analytischen Gradienten verfügbar sind. Dadurch kann das modifizierte ADAM in Bereichen wie der globalen Optimierung und der Mehrzieloptimierung eingesetzt werden, was sein Potenzial und seinen praktischen Wert erheblich erweitert.
Autor: Andrey Dik