L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2743
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
en plus de Maxim Dmitrievsky .
C'est de cela que je parle :
pour faire de la classification, il ne faut pas se contenter de l'effectuer sur la base de l'axe haut/bas, mais il faut d'abord faire au moins une analyse en grappes pour déterminer le nombre de classes à attribuer formellement (le nom à leur donner est une question de goût subjectif)...
et ensuite seulement déterminer les fonctions discriminantes sur la base desquelles affecter les échantillons à telle ou telle classe.... la classification se fera alors avec un pourcentage normal de précision - lorsque nous saurons que les classes dans lesquelles nous nous répartissons existent réellement...
L'ACP n'est qu'une variante de l'analyse factorielle pour sélectionner des caractéristiques orthogonales, mais elle explique TOUTE la variance, sans sélectionner les facteurs principaux,
parce que les composantes principales ne sont que les données brutes transformées en coefficients de vecteurs propres ("loadings"), qui, une fois multipliés par les données brutes, donnent des pc_scores... (quelque chose comme ça - je m'en suis souvenu il y a longtemps - les composantes principales ne sont que les données brutes transformées en coefficients de vecteurs propres ("loadings"), qui, une fois multipliés par les données brutes, donnent des pc_scores...)... (quelque chose comme ça - je ne me souviens plus de l'algorithme depuis longtemps)
- mais en fin de compte, l'ACP explique TOUTE la variance, sans fs... En revanche, l'analyse factorielle principale utilise "uniquement la variation de la variable, commune à d'autres variables également"... (Je n'insiste pas sur le fait que c'est la meilleure AF -- mais il y a des nuances partout)
en général FS personne ne peut le faire correctement, et essaie de blâmer la bibliothèque...
L'ACP en combinaison avec +/-3sq.cv. off -- peut aider à éliminer les valeurs aberrantes, mais ce n'est que pour une distribution normale, et vous devez toujours prouver que votre population gén. obéit à la loi de distribution normale ! - également d'un point de vue statistique... sinon l'ACP montrera "huile sur Repin" (et non l'inverse)...
== Je vois un moyen statistiquement adéquat de construire un modèle approximativement comme ceci....
===
et la bibliothèque est déjà la 10ème chose (même si les modérateurs appellent des noms sans comprendre ce dont nous parlons dans la DataScience normale - les perdants rêvent toujours d'un banquet et accusent le monde entier) -- alors que ceux qui veulent vraiment comprendre, ont compris depuis longtemps que ce n'est pas le langage du programmeur qui importe, mais les algorithmes derrière certaines entités, implémentés même dans une bibliothèque étrangère -- l'essence des relations de cause à effet n'y change rien (le nom de la bibliothèque).
p.s..
pendant que les modérateurs sont au banquet, d'autres travaillent - vous devriez prendre exemple sur eux - ne diffusez pas de fausses informations.
L'ACP n'est qu'une variante de l'analyse factorielle permettant de sélectionner des caractéristiques orthogonales, mais elle explique TOUTE la variance, sans sélectionner les facteurs principaux,
Il y a l'ACP qui prend en compte la cible, elle isolera les composantes qui caractérisent la cible, mais la triste chose est que la cible est une variable subjective et qu'elle "flottera" dès que la formation sera sur..... et en quoi cela diffère-t-il de la formation normale des enseignants ?
en plus de Maxim Dmitrievsky .
c'est de cela que je parle :
pour faire de la classification, il ne faut pas se contenter d'une classification sur le dir up/down, mais faire au moins une analyse de cluster pour déterminer le nombre de classes à attribuer formellement (le nom à leur donner est une question de goût subjectif)...
et ensuite seulement déterminer les fonctions discriminantes sur la base desquelles affecter les échantillons à telle ou telle classe.... la classification se fera alors avec un pourcentage normal de précision - lorsque nous saurons que les classes dans lesquelles nous nous répartissons existent réellement...
L'ACP n'est qu'une variante de l'analyse factorielle pour sélectionner des caractéristiques orthogonales, mais elle explique TOUTE la variance, sans sélectionner les facteurs principaux,
parce que les composantes principales ne sont que les données originales transformées en coefficients de vecteurs propres ("loadings"), qui, multipliés par les données originales, donnent des pc_scores... (quelque chose comme ça - je m'en suis souvenu il y a longtemps - il y a longtemps)... (quelque chose comme ça - je ne me souviens plus de l'algorithme depuis longtemps)
- mais en fin de compte, l'ACP explique TOUTE la variance, sans fs... En revanche, l'analyse factorielle principale utilise "uniquement la variation de la variable, commune à d'autres variables également"... (Je n'insiste pas sur le fait que c'est la meilleure AF -- mais il y a des nuances partout)
en général FS personne ne peut le faire correctement, et essaie de blâmer la bibliothèque...
L'ACP en combinaison avec +/-3sq.cv. off -- peut aider à éliminer les valeurs aberrantes, mais ce n'est que pour une distribution normale, et vous devez toujours prouver que votre population gén. obéit à la loi de distribution normale ! - également d'un point de vue statistique... sinon l'ACP montrera "huile sur Repin" (et non l'inverse)...
== Je considère que la manière statistiquement adéquate de construire un modèle est la suivante...
===
et la bibliothèque est déjà la 10ème chose (même si les modérateurs appellent des noms sans comprendre de quoi nous parlons dans la DataScience normale - les perdants rêvent toujours d'un banquet et accusent le monde entier) -- alors que ceux qui veulent vraiment comprendre, ont compris depuis longtemps que ce n'est pas le langage du programmeur qui importe, mais les algorithmes derrière certaines entités, implémentés même dans une bibliothèque étrangère -- l'essence des relations de cause à effet n'y change rien (le nom de la bibliothèque).
p.s..
pendant que les modérateurs sont au banquet, d'autres travaillent - vous devriez prendre exemple sur eux - ne diffusez pas de fausses informations.
.
dit par qui ? par un crétin qui ne peut pas aligner trois mots sans casser la logique )) ahaha, c'est sérieux....
par qui ? par un crétin qui n'arrive pas à aligner trois mots pour rester logique )) ahaha, c'est sérieux....
tu ne comprends pas les tournures, tu ne comprends pas quand c'est écrit pour faire court, tu ne comprends pas les définitions, ce n'est rien.
Vous vous contentez de faire du hors-sujet. C'est le propre d'un étudiant.
Personne ne t'accuse de cela, les gens sont différents. Mais ne va pas là où tu es un chêne, ne t'implique pas :Dvous ne comprenez pas les modèles de discours
genius)) on écrit n'importe quelle connerie, et si quelqu'un qui pense vous met le nez dedans, vous lui dites - vous ne comprenez pas le discours, ptushnik.
Qu'est-ce que tu as contre les ptushniks ? Ce ne sont pas des gens ? Ou ton ex vient de là ?
...
Ecrivez en russe, c'est impossible à lire, et avec des exemples, c'est encore plus drôle. La plupart de vos messages, je ne les lis pas du tout à cause de cela.
Pour résumer la théorie de Sanych (puisqu'il n'a pas lui-même réussi à la formaliser correctement et à donner des exemples) :
Après les explications de Sanych, j'ai cessé de comprendre un peu ce que signifient les prédicteurs significatifs en fin de compte. D'après son explication, ils sont fréquents et leur ampleur est en corrélation avec le résultat. Mais il s'agit apparemment de signes généraux de la série, sur l'ensemble de la période de formation. Je n'arrive pas à faire correspondre ce qu'il y a dans le modèle de la série. Il s'avère qu'il s'agit de prédicteurs qui fonctionnent toujours, même s'ils sont assez simplifiés, ou le plus souvent. En général, il est clair que l'utilisation de paramètres qui fonctionnent le plus souvent donnera un résultat plus positif que l'utilisation de paramètres qui ne fonctionnent que sur un certain segment....
Je ne comprends pas ce qui est recherché en fin de compte, ni pourquoi.
genius)) nous écrivons n'importe quoi, et si quelqu'un qui pense vous met le nez dedans, vous lui dites - vous ne comprenez pas les modèles de discours, ptuschestvo.
Qu'est-ce que tu as contre les ptushniks ? Ce ne sont pas des gens ? Ou ton ex vient de là ?