L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 500

 
Maxim Dmitrievsky:

Désolé, mais vous n'avez prouvé votre valeur dans aucune de mes questions jusqu'à présent, du moins je ne l'ai pas vu.

Et il ne sert à rien d'écrire comme Captain Obvious et de tout mettre sens dessus dessous pour se donner un peu d'importance à nouveau.


Vous confondez les bases. Apprenez - vous devez apprendre, pour votre propre bien. Apprenez au lieu de réagir...


ss

Et je n'ai pas besoin de te prouver quoi que ce soit.

 
Oleg avtomat:

Vous ne comprenez pas les principes de base. Apprenez - vous devez apprendre, pour votre propre bien. Apprenez au lieu de réagir...


.

Et je n'ai pas besoin de te prouver quoi que ce soit.


une autre sortie... au lieu de répondre à la simple question de savoir si vous pouvez ou non extrapoler à partir de l'échafaudage :D

J'ai donné un exemple clair : non. On m'a demandé, mais personne n'a pu m'expliquer, et maintenant je dois aller lire un livre, parce que personne ne sait rien :)

C'était une question très simple pour ceux qui connaissent bien le MO, mais il s'avère que personne ne le connaît.

Et bien sûr, tout le monde est stupide, surtout sur Hubra et tous ceux qui écrivent des articles, et apparemment Leo Brayman est stupide aussi...

 
Maxim Dmitrievsky:

un autre suprême... au lieu de répondre à la simple question de savoir si l'échafaudage est capable d'extrapoler ou non :D

J'ai donné un exemple clair : non. On m'a demandé, mais personne n'a pu m'expliquer, et maintenant je dois aller lire un livre parce que personne ne sait rien :)

C'était une question très simple pour ceux qui en savent beaucoup sur le MO, mais il s'avère que personne ne le sait.


Si vous posez une telle question, vous démontrez déjà le niveau de votre compréhension et de votre conscience.

 
Oleg avtomat:

Si vous posez la question de cette manière, vous démontrez déjà votre niveau de compréhension et de conscience.


tous, au revoir )

 
Maxim Dmitrievsky:

Au revoir, alors.)


Santé. Apprenez.

 
Dr. Trader:

Presque juste, il y a aussi un biais qui s'ajoute au résultat.

Il est fort probable que les valeurs y1, y2, y3 soient utilisées dans la couche de neurones interne, et que ces valeurs soient également utilisées comme valeurs d'entrée pour la couche suivante.

Ou si Y1,Y2,Y3 sont des valeurs de sortie, alors plusieurs neurones de sortie sont utilisés pour la classification - par exemple si la plus grande valeur parmi Y1,Y2,Y3 est Y1, alors le résultat est la "classe 1", si la plus grande valeur est Y2, alors le résultat est la "classe 2", si la plus grande valeur est Y3, alors le résultat est la "classe 3". Si le neurone est utilisé pour la régression au lieu de la classification, le neurone de sortie sera unique. Si nous avons deux classes, nous pouvons utiliser un seul neurone de sortie (si le résultat est <0.5, alors il s'agira de la classe 1, si >=0.5, alors il s'agira de la classe 2).

Il est très facile d'ajouter une sigmoïde pour la fonction d'activation d'un neurone, vous avez besoin d'une telle fonction

Et avec lui, vous obtenez déjà un neurone à part entière avec une couche interne (avec trois perceptrons) et un perceptron de sortie.

résultat = perceptron4[0]


Merci pour la réponse ! C'est très instructif pour moi.

Je suppose que c'est un neurone de biais ? La description dit que ça aide quand l'entrée est nulle. À votre avis, à quoi sert un neurone de biais et quels sont les poids à sélectionner pour lui ? En fait, c'est juste un poids.

Quelle est la meilleure façon de vérifier la valeur du seuil après la transformation sigmoïde ou après ?

 
Dr. Trader:

Le nombre de poids dans un neurone peut atteindre des dizaines de milliers ou plus. Dans mql et R, il existe des bibiloteks spéciaux pour la création et l'entraînement des neurones, il est préférable de travailler avec eux, et de ne pas programmer votre propre neurone à partir de zéro.


Je voulais dire que par exemple dans mql4 il était possible d'optimiser simultanément jusqu'à 15 paramètres, et dans mql5 davantage.

Et il apparaît qu'une couche est ajustée, puis la deuxième couche avec la première optimisée, etc. Mais ce serait bien si nous pouvions optimiser toutes les couches en même temps, mais la puissance de calcul ne nous permet pas de le faire.

Je suppose que lorsque les couches sont optimisées une par une, dans ce cas, certains modèles ne sont pas vus par le système.

Même si une couche est analysée, les couches suivantes seront basées sur les hypothèses de la première couche.

 
Maxim Dmitrievsky:

un autre suprême... au lieu de répondre à la simple question de savoir si les forêts sont capables d'extrapoler ou non :D


un autre haut... au lieu de répondre à une simple question - les forêts peuvent-elles extrapoler ou non :D

Et vous pouvez également poser une question : les forêts aléatoires sont-elles sucrées ou salées ? En général, vous pouvez poser un tas de questions idiotes et même trouver des références sur Internet.


Il ne serait pas nécessaire de répondre si quelques membres du forum plus systématiquement éduqués n'étaient pas bavards sur le sujet.


Les forêts aléatoires NE PEUVENT PAS extrapoler car le mot EXTRAPOLATION ne s'applique pas du tout à elles. Les forêts aléatoires, comme d'autres modèles d'apprentissage automatique, peuvent prédire des valeurs futures, mais ce n'est PAS de l'EXTRAPOLATION, en fait le terme EXTRAPOLATION n'est pas du tout applicable en statistique.


Et voici pourquoi.

A l'origine, le terme EXTRAPOLATION désigne des fonctions, des fonctions ordinaires qui ont une formule.

Par exemple.

у = а+ bх

Selon cette formule, vous pouvez calculer les valeurs d'une fonction à l'intérieur du champ de définition original (interpolation) et à l'extérieur - extrapolation.


Il n'existe pas de telles formules en statistiques.

Et toute cette question "une forêt aléatoire peut-elle extrapoler" a quelque chose à voir avec cela, car en statistiques, l'analogue ressemble à ceci :

у ~ а + bх

Pour distinguer une fonction linéaire d'une régression linéaire, un tilde est utilisé à la place d'un égal.

Cette distinction tient compte du fait que "a" dans une équation linéaire n'est pas "a" dans une régression linéaire, comme l'indique le tilde. Il en va de même pour le "b".

Alors que dans la première équation "a" est une constante, dans la deuxième équation "a" est l'espérance mathématique, qui est accompagnée d'une valeur de variance et d'une estimation avec la probabilité de l'hypothèse nulle que cette valeur de "a" que nous voyons n'existe pas. Si la probabilité que cela n'existe PAS est supérieure à 10%, alors la valeur de "a" peut être ignorée.


Maintenant, à votre question :

- Peut-on extrapoler à partir de l'équation de régression ?

- Non, tu ne peux pas. Mais vous pouvez prédire la valeur future d'une variable aléatoire qui prendra une valeur comprise dans un intervalle de confiance. Si cet intervalle de confiance est de 95% (5% de probabilité sous l'hypothèse nulle), alors nous obtenons "y" à l'intérieur de cet intervalle de confiance. Et si vous obtenez une estimation pour "a" avec une variance multiple de cette valeur, vous ne pouvez rien prévoir du tout.


J'espère avoir expliqué en détail que votre question qui a du sens en présence de fonctions, n'en a pas du tout en statistiques.

 
SanSanych Fomenko:


Maintenant, à votre question :

- Pouvez-vous extrapoler à partir de l'équation de régression ?

- Non, tu ne peux pas. Mais il est possible de prédire la valeur future d'une variable aléatoire qui prendra une valeur à l'intérieur de l'intervalle de confiance. Si cet intervalle de confiance est de 95% (5% de probabilité sous l'hypothèse nulle), alors nous obtenons "y" à l'intérieur de cet intervalle de confiance. Et si vous obtenez une estimation pour "a" avec une variance multiple de cette valeur, vous ne pouvez rien prévoir du tout.


Maintenant, faites attention, il n'y avait pas de telle question... )

Il y avait une question, comme par ex.

Dr. Trader:

L'extrapolation implique de prédire de nouvelles données au-delà des valeurs du prédicteur connues lors de la formation.

J'ajouterais que ce ne sont pas des prédicteurs, mais des cibles, car s'il s'agit de prédicteurs, nous avons affaire à une interpolation et non à une extrapolation.

Ainsi, une forêt aléatoire peut interpoler (elle n'a même pas besoin de normaliser les entrées) mais elle ne peut pas extrapoler.

Enstatistique, il s'agit de l'extension de tendances passées établies à une période future (l'extrapolation dans le temps est utilisée pour les estimations prospectives de population) ; l'extrapolation de données d'échantillon à une autre partie de la population qui n'a pas été observée (extrapolation dans l'espace).

Si vous prenez un arbre de régression, il ne pourra pas propager ses résultats aux NOUVELLES données, par exemple aux cotations supérieures à 1.4500, et il donnera toujours une prévision de 1.4500 mais jamais plus et jamais moins que 1.3000, parce qu'il a été entraîné sur un échantillon de 1.3000-14500, par exemple (comme cible) et cela vient du principe des arbres de décision

Contrairement aux arbres, la régression linéaire et un réseau neuronal peuvent facilement le faire car ils sont construits selon des principes différents

Une fois de plus : de nouvelles données en dehors de l'intervalle d'apprentissage peuvent être introduites dans les entrées du nouvel échantillon RF et celui-ci les interpole parfaitement. Mais à la sortie, il n'extrapole pas, c'est-à-dire que les valeurs prédites ne dépasseront jamais l'intervalle de sortie sur lequel il a été entraîné.

 
Maxim Dmitrievsky:

Maintenant, faites attention, il n'y avait pas de telle question... )

Il y avait une question, comme, par exemple, souligné

Dr. Trader:

L'extrapolation implique de prédire de nouvelles données au-delà des valeurs des prédicteurs connus lors de la formation.

J'ajouterais que ce ne sont pas des prédicteurs, mais des cibles, car s'il s'agit de prédicteurs, nous avons affaire à une interpolation et non à une extrapolation.

Ainsi, une forêt aléatoire peut interpoler (elle n'a même pas besoin de normaliser les entrées) mais elle ne peut pas extrapoler.

Enstatistique, c'est l'extension de tendances passées établies à une période future (l'extrapolation dans le temps est utilisée pour les estimations prospectives de la population) ; l'extrapolation de données d'un échantillon à une autre partie de la population qui n'a pas été observée (extrapolation dans l'espace).

Si vous prenez un arbre de régression, il ne pourra pas propager ses résultats aux NOUVELLES données, par exemple aux cotations supérieures à 1.4500, et il donnera toujours une prévision de 1.4500 mais jamais plus et jamais moins que 1.3000, parce qu'il a été entraîné sur un échantillon de 1.3000-14500, par exemple (comme cible) et cela vient du principe des arbres de décision

Contrairement aux arbres, la régression linéaire et un réseau neuronal peuvent facilement le faire car ils sont construits selon des principes différents

Une fois de plus : de nouvelles données en dehors de l'intervalle d'apprentissage peuvent être introduites dans les entrées du nouvel échantillon RF et celui-ci les interpole parfaitement. Mais à la sortie, il n'extrapole pas, c'est-à-dire que les valeurs prédites ne dépasseront jamais l'intervalle de sorties sur lequel il a été entraîné.


Vous n'avez rien compris à mon message. Rien du tout.


Désolé pour le post en raison de votre présence.

Raison: