Discussion de l'article "Algorithmes d'optimisation de la population : Semis et Croissance des Jeunes Arbres, ou Saplings Sowing and Growing up en anglais (SSG)" - page 13

 
Andrey Dik #:

malheureusement, ou peut-être heureusement, le bot ne génère pas de nouvelles informations, mais les informations disponibles publiquement sont souvent déformées. je pense que cela est dû aux mécanismes d'interpolation des informations. il ment, invente des abréviations d'algorithmes inexistantes, invente même les noms des auteurs à la volée et les dates de l'algorithmem)))). il faut être très prudent avec ce type d'informations.

En tant qu'assistant pour l'édition de textes, les modifications stylistiques et l'obtention de références lors de la rédaction d'articles - oui, un assistant indispensable.

Oui, comme dans tous les réseaux génératifs, il y a un randomiseur à la sortie afin de ne pas obtenir des réponses identiques. Si l'on abaisse la température, on obtient des réponses plus précises/spécifiques. Mais c'est seulement par l'intermédiaire de l'api.
 
fxsaber #:

Je vous remercie. Je trouve indirectement des solutions locales par l'interruption forcée de l'optimisation lorsqu'un grand nombre de cœurs sont impliqués. En gros, il y a 20 agents dans le Tester, j'interromps l'optimisation après 2000 passes.

Voici un exemple de jeux obtenus avec une telle interruption. Si l'optimisation n'était pas interrompue, les images sur le lien montreraient les 20 ensembles de la même manière. Mais avec l'interruption, vous pouvez voir des comportements différents des ensembles, parmi lesquels il peut y avoir ceux qui passent OOS.

Si nous trouvons 20 extrema locaux (j'ai suggéré la méthode de l'éjection graduelle), l'affichage de ces extrema sur une telle image donnera l'évaluation visuelle la plus objective du TS.

 
fxsaber #:

Pour l'auto-éducation, quelle est la dépendance de la complexité par rapport à la mesure ?

Andrey Dik #:

Je l'avoue, je ne le sais pas, je sais seulement qu'elle croît rapidement de manière non linéaire.

Aleksey Nikolavev est apparu ici, peut-être connaît-il la réponse exacte à cette question. J'ai oublié comment appeler un utilisateur du forum.

Il n'est guère possible d'obtenir une réponse exacte, mais seulement des estimations.

1) Croissance du nombre de sièges par rapport au nombre d'extrema. Supposons un cas lisse (une variante discontinue peut toujours être approximée par une variante lisse avec une certaine précision). L'extremum se trouve aux points où le gradient est dégénéré et est déterminé par les signes des nombres égaux de la hessienne. Si la dimension N et (supposons pour simplifier) chacun des signes des valeurs propres de la hessienne sont déterminés par un choix aléatoire avec des probabilités égales de 0,5, alors la probabilité que tous les signes soient identiques (il s'agit donc d'un extremum) est de 2/(2^N)=2^(1-N). Dans le cas bidimensionnel, cette probabilité est égale à 0,5 (50 %), ce qui est bien et assez visible dans les images - le nombre de selles est approximativement égal au nombre d'extrema. Dans le cas à 10 dimensions, les extrema seront déjà inférieurs à 0,2 %.

2) En fait, tout algorithme de recherche d'extrema crée un système dynamique, qui tend à être de plus en plus chaotique avec l'augmentation des dimensions. Vous vous souvenez peut-être que l'ensemble de Mandelbrot fait partie d'un système dynamique, qui apparaît lors de la recherche itérative de la racine d'une fonction quadratique dans le cas bidimensionnel) Un grand nombre de sièges ne fait que contribuer à un système encore plus chaotique.

 
Aleksey Nikolayev #:

Il n'est guère possible d'obtenir une connaissance exacte, mais seulement une sorte d'estimation.

1) Croissance du nombre de selles par rapport au nombre d'extrema. Supposons un cas lisse (une variante discontinue peut toujours être approximée par une variante lisse avec une certaine précision). L'extremum se trouve aux points où le gradient est dégénéré et est déterminé par les signes des nombres égaux de la hessienne. Si la dimension N et (supposons pour simplifier) chacun des signes des valeurs propres de la hessienne sont déterminés par un choix aléatoire avec des probabilités égales de 0,5, alors la probabilité que tous les signes soient identiques (il s'agit donc d'un extremum) est de 2/(2^N)=2^(1-N). Dans le cas bidimensionnel, cette probabilité est égale à 0,5 (50 %), ce qui est bien et assez visible dans les images - le nombre de selles est approximativement égal au nombre d'extrema. Dans le cas à 10 dimensions, les extrema seront déjà inférieurs à 0,2 %.

2) En fait, tout algorithme de recherche d'extrema crée un système dynamique, qui tend à devenir de plus en plus chaotique à mesure que les dimensions augmentent. Vous vous souvenez peut-être que l'ensemble de Mandelbrot fait partie d'un système dynamique, qui apparaît lors de la recherche itérative de la racine d'une fonction quadratique dans le cas bidimensionnel) Un grand nombre de sièges ne fait que contribuer à un système encore plus chaotique.

Des calculs assez pessimistes sont obtenus pour les variantes multidimensionnelles.

 
fxsaber #:

Le calcul pour les variantes multivariées est plutôt pessimiste.

En général, oui. C'est pourquoi, dans les cas multidimensionnels, l'étude complète du dispositif de surface de la fonction de perte n'est généralement pas prévue. Il en va de même pour la recherche de l'extremum global. En fait, on se contente de trouver des points suffisamment bons. Enfin, peut-être sauf dans les cas où il est possible de construire une fonction de perte avec de bonnes propriétés, comme dans le cas du MO, par exemple.

 
excellent rapport qualité-prix
 
Merci de votre attention !