Diskussion zum Artikel "Die Rolle der Qualität von Zufallszahlengeneratoren für die Effizienz von Optimierungsalgorithmen" - Seite 15

[Gelöscht]  

Da nun der Hund mit dem Schwanz wedelt (Empirie durch Optimierung) und nicht umgekehrt, können wir jeden Optimierungsalgorithmus für einen bedingt stationären Prozess betrachten.

In diesem Fall können wir die Terminologie der Suche nach globalen und lokalen Minima verwenden.

Aber nicht für die Optimierung von Unbekannten und die Anpassung an abstrakte Minima oder Maxima.

Aber selbst in diesem Fall neigt die AO zum Übertraining (Voranpassung), dann werden Validierungstechniken eingesetzt, um die Robustheit bestimmter Parameter aus der Lerntheorie zu bestimmen.

 
С
Yuriy Bykov #:
Leider ist es noch unklarer geworden, worüber wir sprechen.
fxsaber #:

Unklare Sprache+Forumformat = Missverständnis mit hoher Wahrscheinlichkeit.

Wer sich an einer konstruktiven Diskussion über das Problem der Suche nach robusten Lösungen beteiligen möchte, kann mir in privaten Nachrichten schreiben. Wir werden einen privaten Chat mit Teilnehmern auf Einladung organisieren.

Und die Teilnahme an Gesprächen, die keinen konstruktiven Dialog beinhalten, steht nicht auf meiner aktuellen Aufgabenliste.

[Gelöscht]  
Wenn all dies irgendwo niedergeschrieben wäre, müssten wir den Leuten keine Gehirnwäsche mit Maxima und Plateaus und anderem Blödsinn verpassen, der außerhalb des Kontexts der Stationarität des Prozesses keine Bedeutung hat.
[Gelöscht]  
Selbst wenn die Bedingungen erfüllt sind, funktioniert Brute-Force-Monte-Carlo genauso gut wie die anderen Algorithmen. Das heißt, man wählt einfach n-mal zufällige Werte für die Parameter und überprüft sie.