L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1183

 
Igor Makanu:

Moi, si, parce que je suis sur le sujet depuis longtemps ;)

Je n'ai pas besoin d'un graal, mais un STA utilisable serait utile.

cela serait très stable avec le MO - il faut faire des analyses statistiques et chercher des modèles soi-même, puis les adapter, et avec beaucoup de chance, cela fonctionnera pendant une période relativement longue.

Pour le reste (ma propre pratique, je ne sais pas pour les autres), il s'agit de se recycler en permanence avec les données les plus récentes et de faire de bonnes affaires, tout en faisant des bénéfices, en contrôlant tout quotidiennement. Si l'on part du principe que l'intelligence artificielle doit tout rechercher par elle-même, parce que faire constamment des analyses statistiques est aussi une tâche lourde. Il est préférable de lancer l'optimiseur quelques dizaines de fois et il se trouvera tout seul.

En fin de compte, tout se résume à contrôler la qualité du modèle sur l'échantillon test, c'est tout. L'échantillon de formation est presque toujours bon comme il est. Vous n'avez même pas besoin de visualiser quoi que ce soit pour cela. Comment contrôler et sous-échantillonner est un art
 
Yuriy Asaulenko:

Comodo Internet Security et rien ne s'est passé depuis des années.

Merci, mais ce n'est pas dans un navigateur, mais dans Windows, le pare-feu bloque tout, n'importe quel navigateur fonctionne pendant environ 10 minutes, puis zzdyn ! et n'ouvre rien d'autre, ... Je peux rentrer chez moi en 15 minutes avec une sauvegarde et une restauration acronix à partir d'une clé USB. Je sauvegarde toujours toutes les nouvelles installations.
Maxim Dmitrievsky:

Pour que le MO soit stable, il faut faire des analyses statistiques et chercher soi-même des modèles, puis s'y fixer, et si l'on a beaucoup de chance, cela fonctionnera pendant une période relativement longue.

Pour le reste (ma propre pratique, je ne sais pas pour les autres), il s'agit de se recycler en permanence avec les données les plus récentes et de faire de bonnes affaires, tout en faisant des bénéfices, en contrôlant tout quotidiennement. Si l'on part du principe que l'intelligence artificielle doit tout rechercher par elle-même, parce que faire constamment des statanalyses est aussi une tâche fastidieuse. Il est préférable de lancer l'optimiseur quelques dizaines de fois et il se trouvera tout seul.

je sais, je le fais moi-même quand j'ai le temps, mais ce n'est pas intéressant (((, comme dans les films cools....)) presse.... les lettres ont traversé l'ordinateur portable.... et puis les ânes ont confirmé !!! .... la chose principale qu'alors l'ALARME-ALARME n'a pas commencé ))))
 
Igor Makanu:
merci, mais ce n'est pas le navigateur, c'est Windows, le pare-feu bloque tout, n'importe quel navigateur fonctionne pendant environ 10 minutes, puis zap ! et n'ouvre rien d'autre .... Windows a planté, je rentre à la maison dans 15 minutes pour restaurer à partir d'une clé USB via acronix backup, heureusement je sauvegarde toujours toutes les nouvelles installations.
je sais, je le fais moi-même quand j'ai le temps, mais ce n'est pas intéressant (((, comme dans les films cools....)) presse.... les lettres ont traversé l'ordinateur portable.... et ensuite les ânes ont confirmé !!! .... la chose principale qu'alors l'ALARME-ALARME n'a pas commencé ))))

La loi de Murphy : si une merde peut arriver, elle arrivera.

 
Igor Makanu:
Je le fais moi-même quand j'ai le temps, mais ce n'est pas intéressant (((, je veux que ce soit comme dans les films cool..... le bouton enfoncé.... les lettres ont traversé l'ordinateur portable.... et ensuite les ânes ont confirmé !!! .... la chose principale qu'alors l'ALARME-ALARME n'a pas commencé ))))

Je ne pense pas.

J'ai simplifié encore plus la tâche des NS. Une stratégie préliminaire est développée, elle définit des intervalles d'entrées possibles, le NS est entraîné sur ces intervalles et trouve les points d'entrée optimaux. S'il n'y a pas d'entrée à l'intervalle, il ne la trouve pas.

En dehors de ces intervalles, le SN n'analyse rien.

 
Yuriy Asaulenko:

Je ne pense pas.

J'ai simplifié encore plus la tâche des NS. Une stratégie préliminaire est développée, elle définit des intervalles d'entrées possibles, le NS est entraîné sur ces intervalles et trouve les points d'entrée optimaux. S'il n'y a pas d'entrée à l'intervalle, il ne la trouve pas.

En dehors de ces intervalles, le SN n'analyse rien.

Les NS ne trouveront pas les meilleurs points d'entrée, ils doivent utiliser la force brute.

 
Maxim Dmitrievsky:

Le NS ne trouvera pas de points d'entrée optimaux, il faut les forcer brutalement.

Maxim, cela a déjà été fait il y a un an. Et a écrit comment, dans ce fil.

Mais je ne peux pas penser à quelque chose de nouveau. Je m'amuse encore avec Python, peut-être que des idées me viendront.

 
Maxim Dmitrievsky:

Le NS ne trouvera pas les points d'entrée optimaux, ils doivent être forcés brutalement.

Eh bien, ce n'est pas la faute de NS, ce que MO trouve optimal n'est pas le fait que nous le cherchions dans les données d'entrée, c'est pourquoi je veux un logiciel avec visualisation, mais je ne veux probablement pas de NeroSolutions, je cherche des trucs gratuits en ligne, je vais lire sur NS sur Matlab, il y a beaucoup de logiciels prêts à l'emploi.
 
Ivan Negreshniy:

Essayez également de désactiver la création intrusive par CatBoost de ses propres répertoires temporaires à chaque démarrage, car cela provoque son plantage dans un environnement protégé.

En général, ces glitches il semble en quelque sorte pas très professionnel, donc si vous ne pouvez pas les battre, puis personnellement à mon avis, moins cher que libre - de ce produit à abandonner à la fois :)

Des répertoires sont-ils créés lors de l'utilisation de python ? En console il est logique que des répertoires soient créés car en eux à la fois modèle et balisage, et aussi d'autres données statistiques où les mettre sinon dans un répertoire ? Au contraire, je pense que les répertoires sont une très bonne solution, car je peux passer en revue de nombreux paramètres et placer les résultats de chacun dans mon répertoire.

Jusqu'à présent, je n'ai pas vu de problèmes entraînant des dysfonctionnements.

 
Maxim Dmitrievsky:

Au fait, je ne sais pas à qui m'adresser, pouvez-vous me dire

quand on utilise l'ACP, alglib renvoie les vecteurs propres

la manière de les retravailler, c'est-à-dire de les appliquer aux caractéristiques originales.

http://alglib.sources.ru/dataanalysis/principalcomponentsanalysis.php
Je ne pense pas pouvoir en dire plus que le Wikihttps://ru.wikipedia.org/wiki/Метод_главных_компонент#Сингулярное_разложение_тензоров_и_тензорный_метод_главных_компонент.

Limites d'applicabilité et d'efficacité de la méthode


d'après ce que je comprends de cette méthode, nous obtenons une carte des caractéristiques du signal utile en isolant les principales composantes, et vous pouvez ensuite chercher une carte similaire (matrice) pour rechercher un signal utile dans des données bruyantes.

 
Maxim Dmitrievsky:

en fin de compte, tout se résume au contrôle de la qualité du modèle sur l'échantillon d'essai, c'est tout. Sur l'échantillon d'entraînement, c'est presque toujours bon comme ça. Vous n'avez même pas besoin de visualiser quoi que ce soit pour cela. Comment contrôler et sous-échantillonner est un art

Je pense simplement que l'échantillon de contrôle peut être très différent de celui sur lequel vous vous êtes entraîné. Par exemple, j'ai un arbre qui a 10 feuilles entraînées, dont 9 donnent 1, et une donne zéro, qui fonctionnent bien sur un échantillon particulier, mais ensuite le test (test dans mon cas) ne fonctionne pas - que s'est-il passé ? Ou bien il se pourrait que les conditions n'aient été réunies que pour 3 des 9 feuilles et que les autres aient toutes fusionné à zéro. Cela ne serait pas un signe de sur-entraînement (qui implique des connexions redondantes qui ne sont pas des régularités), mais simplement soit un échantillon complètement différent, soit un échantillon où il y a vraiment beaucoup d'événements pour 3 feuilles, et très peu pour les 6 feuilles restantes, soit nous avons entraîné sur des tendances, et testé sur un plat. Je me demande si nous ne devrions pas mélanger l'échantillon et créer des conditions artificielles, où tant dans la formation que dans les tests, il y aura des parties du marché proportionnellement similaires, et si oui, nous devrions d'une manière ou d'une autre identifier ces parties et les marquer, alors nous pourrons voir quelles réponses dans la formation et quelles réponses dans l'échantillon de test. Ou bien nous devons rechercher de telles régularités qui sont typiques de tous les marchés et les décrire de manière universelle afin d'augmenter le nombre de situations différentes dans l'échantillon d'entraînement.

Raison: