L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2838

 
mytarmailS #:

Existe-t-il un moyen de faire passer l'équilibre ou autre chose par le biais du gradient dans l'application boost.... ?


Voici le schéma :

nous marquons le graphique avec des transactions parfaites (à l'extremum vers le bas nous achetons, à l'extremum vers le haut nous vendons) nous créons une fausse transaction parfaite.

Je l'appellerai un équilibre parfait


Ensuite, nous calculons la balance commerciale à partir de l'impulsion

Dans la fonction objective, nous calculons simplement l'erreur de la balance commerciale de l'impulsion par rapport à la balance idéale.

Nous obtenons un ajustement de la balance idéale, c'est-à-dire qu'il ne s'agit pas d'une recherche d'un profit maximum abstrait, mais d'un ajustement de l'échange idéal exprimé dans la balance des profits.


Le bleu représente l'équilibre idéal, le noir représente la formation et le test du modèle.

C'est à peu près ce que je dis.

ce n'est pas l'équilibre qui doit être maximisé, mais un certain critère complexe, dans votre exemple, la décomposition en transactions séparées. il s'agit d'une fonction dérivée de l'équilibre original, une fonction plus lisse. c'est pourquoi nous devons rechercher l'optimum global de la fonction dérivée. c'est ce que j'essaie de dire. et dans ce cas, il est important de savoir comment l'extremum global de la fonction dérivée sera trouvé sur le plan qualitatif.

Il existe de nombreuses façons de créer des dérivées de fonctions à partir de la fonction d'origine, qui ne sont limitées que par l'imagination.

au lieu de vous jeter sur les gens, vous pouvez essayer de comprendre. si vous comprenez, c'est bien. si vous ne comprenez pas, passez votre chemin.

 
Andrey Dik #:

Au lieu de vous en prendre aux gens, vous pouvez essayer de comprendre. Si vous comprenez, c'est bien. Si vous ne comprenez pas, passez votre chemin.

Mes attaques portaient sur le fait que l'on ne peut pas comparer différentes AO sur un pied d'égalité et décider laquelle est bonne et laquelle est mauvaise....

Chaque AO a ses propres surfaces d'optimisation.

Le choix de l'AO dépend de la surface d'optimisation, et non de goûts subjectifs.


Si la surface est lisse et présente un seul minimum et qu'une personne y applique un algorithme génétique, un essaim, un recuit ou tout autre algorithme d'optimisation globale, c'est un idiot qui ne comprend pas ce qu'il fait, car la descente de gradient résoudra ce problème 100 fois plus vite.

Si la surface est complexe, bruyante, avec de nombreux minima, et qu'une personne utilise la descente de gradient, il s'agit là encore d' un imbécile , car l'algorithme restera bloqué sur le minimum le plus long.


Si une personne décide de comparer, par exemple, la descente de gradient avec la génétique, est-elle idiote de continuer ?

C'est une incompréhension des choses élémentaires.

 
mytarmailS #:

Mon attaque était que vous ne pouvez pas comparer différents OA sur un pied d'égalité et décider lequel est bon et lequel est mauvais.

Chaque AO a ses propres surfaces d'optimisation.

Le choix de l'OA dépend de la surface d'optimisation et non de sympathies subjectives.

Je compare les algorithmes avec trois fonctions de test complètement différentes, afin que vous puissiez voir les avantages spécifiques de chaque algorithme dans des tests distincts, que vous puissiez voir où ils sont forts et que vous puissiez choisir le meilleur pour les tâches spécifiques du chercheur. il n'y a pas de subjectivisme dans les tests, au contraire, ils sont aussi objectifs que possible.

La plupart des algorithmes spécialisés pour les réseaux ont une certaine forme de lissage dans leur logique, ou des moments. ils sont orientés sur l'application de dérivées lisses des fonctions du problème cible. nous verrons où ils sont forts et où ils sont moins forts.

 
Andrey Dik #:

Je compare les algorithmes avec trois fonctions de test complètement différentes, afin que vous puissiez voir les avantages spécifiques de chaque algorithme dans des tests distincts, que vous puissiez voir où ils sont forts et que vous puissiez choisir le meilleur pour les tâches spécifiques du chercheur. il n'y a pas de subjectivisme dans les tests, au contraire, ils sont aussi objectifs que possible.

La plupart des algorithmes spécialisés pour les réseaux ont une certaine forme de lissage dans leur logique, ou des moments. ils sont orientés sur l'application de dérivées lisses des fonctions du problème cible. nous verrons où ils sont forts et où ils sont moins forts.

On ne peut pas comparer différents types d'OA dans les mêmes conditions parce qu'ils résolvent des problèmes différents, c'est mon message.

 
mytarmailS #:

On ne peut pas comparer différents types d'OA dans les mêmes conditions parce qu'ils ont des tâches différentes à accomplir, c'est mon message.

Je suppose que je n'ai pas compris ce que j'ai dit la dernière fois..... Encore une fois, il est possible de comparer, c'est pourquoi différents problèmes de test sont utilisés, afin de comparer les algorithmes de manière adéquate aux spécificités de la tâche. Les tests montrent pour quelles tâches l'utilisation de l'OA est optimale, il est donc possible de choisir parmi eux.

Par exemple : si ADAM montre sa supériorité sur les fonctions lisses - très bien ! - alors c'est comme cela qu'il faut l'utiliser, sinon il vaut mieux choisir un autre algorithme. De nos jours, la plupart des gens choisissent quelque chose de spécifique en fonction de la "mode", sans savoir s'ils ont fait le meilleur choix ou non.

 
Les marques de classe sont parfaites et donc en parfait équilibre. L'huile est huileuse. Il est impossible d'améliorer quoi que ce soit.

Et la sélection des modèles en fonction de critères personnalisés peut parfois être utile, je suppose. Mais tout cela n'est que du bling-bling, dans l'ensemble
 
Maxim Dmitrievsky #:
Les marques de classe sont parfaites et donc en parfait équilibre. L'huile est huileuse. Il est impossible d'améliorer quoi que ce soit.

Et la sélection des modèles en fonction de critères personnalisés peut parfois être utile, je suppose. Mais ce n'est que du bling-bling, dans l'ensemble.

Oui, mais c'est suffisant pour qu'un collègue comprenne pourquoi les problèmes dérivés sont nécessaires.
Idéalement, il faudrait disposer d'un ensemble complet de tous les ensembles de paramètres de modèles (une énumération complète) et classer les ensembles par stabilité sur l'oos. c'est en théorie, mais en pratique, ce n'est pas une tâche réalisable.

 
Il est clair qu'il ne s'agit pas de comparer directement des algorithmes qui sont destinés à des choses différentes. Il est simplement intéressant de voir comment ils convergent, peut-être y en a-t-il de plus récents. J'ai entendu parler de toutes sortes d'architectures de NS basées sur d'autres principes d'apprentissage, mais je ne les ai pas vues.
 
Maxim Dmitrievsky #:
Et la sélection de modèles en fonction de paramètres personnalisés peut parfois être utile, je suppose. Mais tout cela n'est que du bling-bling, dans l'ensemble

Mon intuition me dit que cela deviendra bientôt un lieu commun pour le MO dans le trading.

Non pas que ce sera une garantie de profit, mais ne pas l'utiliser sera considéré comme une garantie d'échec).

 

San Sanych a raison en ce qui concerne les problèmes d'applicabilité des résultats de l'optimisation sur l'histoire en raison de la non-stationnarité du marché. Le problème est que cette optimisation est la seule chose dont nous disposons. Par exemple, ses propres approches de la sélection des caractéristiques sont également des optimisations sur l'historique, bien que plus délicates).

Ou une sorte de validation croisée, par exemple - il s'agit également d'une optimisation sur l'historique.

Raison: