Diskussion zum Artikel "Algorithmen zur Optimierung mit Populationen: Saplings Sowing and Growing up (SSG)" - Seite 13
 
    Sie verpassen Handelsmöglichkeiten:
        - Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
          Registrierung
          Einloggen
        
        Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
    Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
  
leider, oder vielleicht zum glück, generiert der bot keine neuen informationen, aber die öffentlich zugänglichen informationen sind oft verzerrt. ich denke, das liegt an den mechanismen der informationsinterpolation. er lügt, erfindet nicht existierende abkürzungen von algorithmen, erfindet sogar die namen der autoren und die daten des algorithmusm)))). man sollte sehr vorsichtig mit solchen informationen sein.
Als Assistent bei der Textbearbeitung, bei stilistischen Korrekturen und als Referenz beim Schreiben von Artikeln - ja, ein unverzichtbarer Assistent.
Ich danke Ihnen. Ich finde lokale Probleme indirekt durch die erzwungene Unterbrechung der Optimierung, wenn eine große Anzahl von Kernen betroffen ist. Grob gesagt, gibt es 20 Agenten im Tester, ich unterbreche die Optimierung nach 2000 Durchläufen.
Hierist ein Beispiel für Sätze, die mit einer solchen Unterbrechung erhalten wurden. Wenn die Optimierung nicht unterbrochen wäre, würden die Bilder auf dem Link alle 20 Sätze gleich zeigen. Mit einer Unterbrechung kann man jedoch ein unterschiedliches Verhalten der Mengen sehen, unter denen es durchaus auch solche geben kann, die OOS passieren.
Wenn wir 20 lokale Extrema finden (ich habe die Methode des allmählichen Ausstoßens vorgeschlagen), dann wird die Darstellung dieser Extrema auf einem solchen Bild die objektivste visuelle Bewertung des TS ergeben.
Inwieweit ist die Komplexität bei der Selbsterziehung von der Messung abhängig?
Ich gestehe - ich weiß es nicht. Ich weiß nur, dass sie nicht-linear schnell wächst.
Aleksey Nikolavev ist hier aufgetaucht, vielleicht weiß er die genaue Antwort auf diese Frage. Ich habe vergessen, wie man einen Forumsbenutzer anruft.
Genaue Kenntnisse sind hier kaum möglich, nur einige Schätzungen.
1) Wachstum der Anzahl der Sitze im Verhältnis zur Anzahl der Extrema. Gehen wir von einem glatten Fall aus (eine diskontinuierliche Variante kann immer mit einer gewissen Genauigkeit durch eine glatte Variante approximiert werden). Das Extremum liegt an Punkten mit Entartung des Gradienten und wird durch die Vorzeichen der Eigenzahlen des Hessischen bestimmt. Wenn die Dimension N und (nehmen wir der Einfachheit halber an) jedes der Vorzeichen der Eigenwerte des Hessischen durch eine zufällige Wahl mit gleichen Wahrscheinlichkeiten 0,5 bestimmt ist, dann ist die Wahrscheinlichkeit, dass alle Vorzeichen gleich sind (also ein Extremum) 2/(2^N)=2^(1-N). Für den zweidimensionalen Fall ist sie gleich 0,5 (50%), was gut ist und auf den Bildern gut zu sehen ist - die Anzahl der Sättel ist ungefähr gleich der Anzahl der Extrema. Im 10-dimensionalen Fall werden die Extrema bereits weniger als 0,2% betragen.
2) In der Tat erzeugt jeder Algorithmus zum Auffinden von Extrema ein dynamisches System, das mit zunehmender Dimension immer chaotischer wird. Sie erinnern sich vielleicht daran, dass die Mandelbrot-Menge in einem dynamischen System auftritt, das bei der iterativen Suche nach der Wurzel einer quadratischen Funktion im zweidimensionalen Fall entsteht.
Eine genaue Kenntnis ist hier kaum möglich, nur eine Art Schätzung.
1) Wachstum der Anzahl der Sättel in Abhängigkeit von der Anzahl der Extrema. Gehen wir von einem glatten Fall aus (eine diskontinuierliche Variante kann immer mit einer gewissen Genauigkeit durch eine glatte Variante approximiert werden). Das Extremum befindet sich an Punkten mit Entartung des Gradienten und wird durch die Vorzeichen der Eigenzahlen des Hessischen bestimmt. Wenn die Dimension N und (nehmen wir der Einfachheit halber an) jedes der Vorzeichen der Eigenwerte der hessischen Formel durch eine zufällige Wahl mit gleichen Wahrscheinlichkeiten von 0,5 bestimmt wird, dann ist die Wahrscheinlichkeit, dass alle Vorzeichen gleich sind (es handelt sich also um ein Extremum) 2/(2^N)=2^(1-N). Für den zweidimensionalen Fall ist sie gleich 0,5 (50%), was gut ist und auf den Bildern gut zu sehen ist - die Anzahl der Sättel ist ungefähr gleich der Anzahl der Extrema. Im 10-dimensionalen Fall sind die Extrema bereits kleiner als 0,2 %.
2) In der Tat erzeugt jeder Algorithmus zum Auffinden von Extrema ein dynamisches System, das mit zunehmender Dimension immer chaotischer wird. Sie erinnern sich vielleicht, dass die Mandelbrot-Menge in einem dynamischen System entsteht, das bei der iterativen Suche nach der Wurzel einer quadratischen Funktion im zweidimensionalen Fall entsteht.
Eine recht pessimistische Berechnung ergibt sich für mehrdimensionale Varianten.
Die Berechnung für multivariate Varianten ist eher pessimistisch.
Im Allgemeinen, ja. Deshalb wird in der Regel in mehrdimensionalen Fällen die Aufgabe einer vollständigen Untersuchung des Oberflächengeräts der Verlustfunktion nicht gestellt. Ebenso wenig wie die Suche nach dem globalen Extremum. In der Tat ist man darauf beschränkt, einfach nur genügend gute Punkte zu finden. Nun, vielleicht mit Ausnahme der Fälle, in denen es möglich ist, eine Verlustfunktion mit guten Eigenschaften zu konstruieren, wie z.B. in MO.