Diskussion zum Artikel "Die Rolle der Qualität von Zufallszahlengeneratoren für die Effizienz von Optimierungsalgorithmen" - Seite 10

 
Andrey Dik #:

Fraktalität

Der Abstand zwischen den Scheitelpunkten darf einen bestimmten Schwellenwert nicht unterschreiten.

 
Ich glaube nicht, dass es möglich ist, wirklich alle Orte zu finden, 50 bedeutet 50. Aber multimodale AOs sollten solche Probleme gut genug lösen und alle signifikanten Orte (innerhalb der im Problem angegebenen Einschränkungen) finden, ich meine natürlich mit einem Optimierungsalgorithmus für eine angemessene Anzahl von FF-Durchläufen.

 
Andrey Dik #:
Ich glaube nicht, dass es möglich ist, wirklich alle Orte zu finden, 50 bedeutet 50. Aber multimodale AOs sollten solche Probleme gut genug lösen und alle signifikanten Orte (innerhalb der im Problem angegebenen Einschränkungen) finden, ich meine natürlich mit einem Optimierungsalgorithmus für eine angemessene Anzahl von FF-Durchläufen.

Wenn er weniger findet - kein Problem.

 

Ich habe eine solche empirische Formel für die erforderliche Anzahl von FF-Starts gefunden:

Fcount=D*10^4

wobei:

Fcount - Anzahl der FF-Durchläufe

D - Anzahl der Messungen, d.h. der optimierten Parameter

Nun, ich weiß nicht, für welche sehr schwache AO diese Formel verwendet wird, d.h. für einen Parameter 10000 FF-Läufe!

Die Formel ist linear, grob, kann aber durchaus angewendet werden. Ich nehme an, sogar D*10^3 ist normal.

 
Du bist erbärmlich 😀😀😀😀
Du wiederholst mich, indem du meine Kommentare löschst.
 
Dick hat ein Monopol auf das Kommentieren von Artikeln? Was ist mit "Diskussion" und Meinungspluralismus?
 
Ich verlange die Rückgabe meines Kommentars, in dem geschrieben wurde, dass für einen angemessenen Vergleich der HCS-Algorithmen eine Milliarde Neustarts erforderlich sind, ein Vielfaches der Anzahl der Parameter!

Und dass die Tests in dem Artikel falsch angegeben sind und den Leser in die Irre führen.
 
Maxim Dmitrievsky #:
Ich verlange die Rückgabe meines Kommentars, in dem geschrieben wurde, dass für einen angemessenen Vergleich der HCS-Algorithmen eine Milliarde Neustarts erforderlich sind, ein Vielfaches der Anzahl der Parameter!

Und dass die Tests in dem Artikel falsch angegeben sind und den Leser in die Irre führen.

Es reicht nicht aus, was Sie sagen oder behaupten können.
Machen Sie einen korrekten Test aus Ihrer Sicht und widerlegen oder bestätigen Sie meine Schlussfolgerungen im Artikel.
Flooding, Beleidigungen und Emoji-Missbrauch sind hier nicht erwünscht. Konstruktive Vorschläge und experimentell validierte Kritik sind willkommen.
 
Andrey Dik #:

Es gibt wenig, was Sie sagen oder behaupten können.
Machen Sie einen korrekten Test von Ihrem Standpunkt aus und widerlegen oder bestätigen Sie meine Schlussfolgerungen in dem Artikel.
Flooding, Beleidigungen und Emoji-Missbrauch sind hier nicht willkommen. Konstruktive Vorschläge und experimentell validierte Kritik sind willkommen.
Führen Sie einen gültigen Test durch, um gsx zu vergleichen. Frag chatgpt, wenn du nicht weißt, wie das geht.
 
Andrey Dik #:

Ich bin auf eine solche empirische Formel für die erforderliche Anzahl von FF-Läufen gestoßen:

Fcount=D*10^4

wobei:

Fcount - Anzahl der FF-Starts

D - Anzahl der Messungen, d. h. der optimierten Parameter

Nun, ich weiß nicht, für welche sehr schwache AO diese Formel verwendet wird, d.h. für einen Parameter 10000 FF-Läufe!

Die Formel ist linear, grob, kann aber durchaus angewendet werden. Ich nehme an, sogar D*10^3 ist normal.

Hier beantwortest du dir selbst die Frage, wie viele Neustarts mindestens ungefähr sein sollten, um verschiedene DSTs zu vergleichen. Das ist genau das, was ich geschrieben habe und du hast es später nachgebessert.