Diskussion zum Artikel "MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 32): Regularisierung"

 

Neuer Artikel MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 32): Regularisierung :

Die Regularisierung ist eine Form der Bestrafung der Verlustfunktion im Verhältnis zur diskreten Gewichtung, die in den verschiedenen Schichten eines neuronalen Netzes angewendet wird. Wir sehen uns an, welche Bedeutung dies für einige der verschiedenen Regularisierungsformen in Testläufen mit einem vom Assistenten zusammengestellten Expert Advisor haben kann.

Die Regularisierung ist eine weitere Facette von Algorithmen des maschinellen Lernens, die eine gewisse Sensibilität für die Leistung von neuronalen Netzen mit sich bringt. Im Verlauf eines Netzes besteht häufig die Tendenz, einige Parameter auf Kosten anderer zu stark zu gewichten. Dies „Bias“ auf bestimmte Parameter (Netzgewichte) kann die Leistung des Netzes beeinträchtigen, wenn die Tests mit Daten durchgeführt werden, die nicht aus der Stichprobe stammen. Aus diesem Grund wurde die Regularisierung entwickelt. 

Es handelt sich im Wesentlichen um einen Mechanismus, der den Konvergenzprozess verlangsamt, indem er das Ergebnis der Verlustfunktion im Verhältnis zur Magnitude der an jeder Schichtverbindung verwendeten Gewichte erhöht (oder bestraft). Dies geschieht häufig entweder durch: Early-Stopping, LassoRidge, Elastic-Net, oder Drop-Out. Jedes dieser Formate ist ein wenig anders. Wir werden aber nicht auf alle Typen eingehen, sondern uns auf Lasso, Ridge und Drop-Out beschränken.

Regularization

Autor: Stephen Njuki