L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 302

 
Andrei:

Un fil intéressant. Beaucoup de flubber, mais quelques pensées intelligentes aussi. Merci.


+
 
Alexander Ivanov:
))) L'essentiel est la communication et le processus. Il semble que certaines personnes soient déjà en train de créer des robots neuronaux. Je voudrais essayer .

Malheureusement, le seuil d'entrée sur le sujet est très élevé. Le domaine de la MO lui-même est déjà très ancien et le nombre de branches et de méthodes différentes tend déjà vers l'infini.

Et si vous n'y avez jamais été confronté auparavant, vous pouvez vous noyer dans cette mer d'informations). Et je ne veux pas ramasser des morceaux, mais il faut tout de même une approche systématique de l'outil.

Mais je n'ai trouvé aucune information systématisée cohérente jusqu'à présent.

 
SanSanych Fomenko:


Pour moi, l'erreur de prédiction n'est pas le principal problème. Pour moi, le principal problème est le réentraînement du modèle. Soit j'ai une preuve, même minime, que le modèle n'est PAS recyclé, soit le modèle n'est pas nécessaire du tout.

J'ai écrit de nombreuses fois sur ce fil de discussion (et sur d'autres aussi) sur le diagnostic de l'overfitting et sur les outils permettant de traiter l'overfitting. En bref, il s'agit de débarrasser les prédicteurs d'entrée du bruit, et le modèle lui-même est d'une importance secondaire.

Tout le reste ne m'intéresse pas, car tout résultat sans considération de surentraînement n'est que du vent, maintenant, peut-être demain, et après demain, le Depo est épuisé.

Si vous avez un bon RPM au test (hors échantillon de formation), alors tout est OK. La suralimentation ne peut pas être évitée en un sens, elle peut seulement être réduite à un niveau acceptable.


PS : M. Mihail Marchukajtesa été proposé pour prouver que le classificateur de Reshetov est cool, vous pouvez aussi l'essayer, je me demande si quelqu'un sera capable d'obtenir plus de 65% de précision à partir de ces données))))

 
L'information:

Eh bien, on parle de suralimentation lorsque les jauges de la lande et du test sont différentes, si vous avez une bonne jauge sur le test (en dehors de l'échantillon d'entraînement), alors tout est OK. D'une certaine manière, la suralimentation ne peut être évitée, elle peut seulement être réduite à un niveau acceptable.


PS : On a proposé à M. Mihail Marchukajtes deprouver la pente du classificateur de Reshetov, vous pouvez aussi essayer, je me demande si quelqu'un pourra obtenir plus de 65% de précision à partir de ces données))) .


Un testeur est un travail de finition. Et vous avez besoin d'intervalles de confiance des performances du CT.
Yuriy Asaulenko:

Malheureusement, le seuil d'entrée dans le domaine est très élevé. Le domaine de la MO lui-même est déjà très ancien et le nombre de branches et de méthodes différentes tend déjà à l'infini.

Et si vous n'y avez jamais eu affaire auparavant, vous risquez de vous noyer dans cette mer d'informations). Et je ne veux pas ramasser des morceaux, mais il faut tout de même une approche systématique de l'outil.

Mais je n'ai pas trouvé d'informations systématisées cohérentes jusqu'à présent.


Ce n'est pas le cas.

La systématicité est l'utilisation de TOUT : préparation des données initiales, ajustement du ou des modèles et évaluation de ce modèle.

En première approximation, tout cela donne du cliquetis - vous pouvez le voir et jouer avec. Si vous prenez mon article, la main d'œuvre est minime (quelques heures pour tout), car il ne donne pas seulement des instructions, mais aussi des données pour les exercices.

 
Yuriy Asaulenko:

Malheureusement, le seuil d'entrée sur le sujet est très élevé. Le domaine de la MO lui-même est déjà très ancien et le nombre de branches et de méthodes différentes tend déjà vers l'infini.

Et si vous n'y avez jamais été confronté auparavant, vous pouvez vous noyer dans cette mer d'informations). Et je ne veux pas ramasser des morceaux, mais il faut tout de même une approche systématique de l'outil.

Mais je n'ai trouvé aucune information systématisée cohérente jusqu'à présent.

Notre monde est structuré de telle sorte que la rentabilité des sujets est une fonction monotone de la hauteur du seuil d'entrée dans le sujet. Plus le seuil d'entrée est élevé (pas nécessairement la complexité conceptuelle, mais peut-être l'argent, les relations sociales, la situation géographique, etc.), plus l'opération est potentiellement rentable.


Ce qui est facile pour beaucoup, en règle générale, coûte peu et ne permet même pas de nourrir un adulte, sans parler des extravagances de toutes sortes.

 
Plus tu le fais, plus tu vas t'en sortir :

La façon dont notre monde fonctionne est que la rentabilité d'un sujet est une fonction monotone de la hauteur du seuil d'entrée dans le sujet. Plus le seuil d'entrée est élevé (il ne s'agit pas nécessairement d'une complexité conceptuelle, il peut aussi s'agir d'argent, de relations sociales, de situation géographique, etc.), plus l'affaire est potentiellement rentable.

Ce qui est facile pour beaucoup, coûte généralement peu et ne permet même pas de nourrir un adulte, sans parler de tous les excès.

C'est certainement vrai. Mais un seuil d'entrée élevé augmente également toutes sortes de risques. Pas nécessairement financière.
 
Le:

Ce qui est facile à assumer pour de nombreuses personnes, coûte généralement peu et n'est même pas capable de nourrir un adulte.....

++

ou, plus précisément, une absence totale de discrimination.

 
Je regarde la branche comme ça et je réalise que c'est parti...
 
mytarmailS:
Je regarde le fil de discussion comme ça et je réalise que c'est parti...

Le fait même de son existence est surprenant))))

C'est le genre de sujet dont il est malsain de parler à voix haute, en détail, alors...

 
SanSanych Fomenko:

Ce n'est pas le cas.

La systématicité consiste à TOUT utiliser : préparer les données brutes, ajuster le ou les modèles et évaluer ce modèle.

En première approximation, tout cela donne du cliquetis - vous pouvez le voir et jouer avec. Si vous prenez mon article, la main d'œuvre est minime (quelques heures pour tout) car il contient non seulement les instructions, mais aussi les données pour les exercices.

Par approche systématique, j'entends comprendre ce que vous faites et donc être capable de planifier et de prévoir les résultats de vos actions.

Merci pour cet article. Je ne suis pas familier avec un logiciel particulier, c'est donc parfait pour un débutant - simple et clair. Mais je ne comprends pas quelle méthode est utilisée, la régression ou la classification ?
Naturellement, j'ai immédiatement commencé à l'essayer sur mes propres systèmes. Si une question est difficile, Dieu nous en préserve, elle sera découverte au cours de la pièce.

1. je n'utilise pas les chandeliers pour entrer et sortir - seulement un flux de cotations, et les chandeliers uniquement sur l'historique du chandelier précédent. Bien que je puisse le laisser apprendre par chandelier, c'est toujours un mystère de savoir comment faire pour que Rattle avale le flux de citations du chandelier à l'intérieur du chandelier actuel. Le flux du chandelier doit être analysé d'une manière ou d'une autre.

2. que faire avec les prédicteurs reconstructibles ? Par exemple, avec les lignes de régression et les sigmas. Vous ne pouvez même pas les coller dans l'historique (pour l'apprentissage), nous avons besoin de fonctions qui les calculent à la volée et suppriment leurs dessins précédents de l'historique.

De même, il y a des prédicteurs chatoyants qui n'existent pas toujours et qui sont construits à partir de certains points de la série, et en général peuvent aussi être reconstruits au cours de la pièce.

4 La question de la normalisation des prédicteurs par les points 2 et 3 - c'est fondamentalement impossible.

Et l'historique des prédicteurs doit être calculé au cours de la formation et du travail.

Jusqu'à présent, nous restons dans l'incompréhension.

Raison: