Discussion de l'article "Les forêts aléatoires prédisent les tendances" - page 8

 
Demi:

Non, ce n'est pas clair - je n'ai pas de chat et je doute que la température d'un animal de compagnie soit pertinente pour les informations sur le marché des changes.

Par ailleurs, je suis sûr à 100 % que la dynamique de la température du chat aura une corrélation non nulle avec la série de prix d'un instrument financier.

Tout à l'heure, vous avez affirmé que toutes les données avaient un pouvoir prédictif. Bien sûr, nous parlons ici de prédire les marchés financiers.

Si la puissance de calcul de nos ordinateurs le permettait, nous pourrions utiliser toutes les informations disponibles, y compris la température du chat. Elle serait simplement éliminée du processus de calcul. Mais comme les ressources sont limitées, nous devons utiliser notre propre tête.Quant à la corrélation, le fait qu'elle soit non nulle est une évidence, zéro peut rarement arriver. Mais elle est presque nulle. En général, achetez un chat, mettez un thermomètre dessus et vérifiez-le )) Peut-être aurez-vous de la chance et il vous rendra riche )).

 
meat:

Vous avez dit tout à l'heure que toutes les données ont un pouvoir prédictif, mais il s'agit bien sûr de prédire les marchés financiers.

Si la puissance de calcul de nos ordinateurs nous permettait d'utiliser toutes les informations disponibles, y compris la température du chat, elle serait tout simplement écartée du processus de calcul. Mais comme les ressources sont limitées, nous devons utiliser notre propre tête.En ce qui concerne la corrélation, le fait qu'elle soit non nulle - cela va sans dire, zéro en général peut rarement arriver. Mais presque zéro. En général, achetez un chat, mettez-lui un thermomètre et vérifiez-le )) Peut-être aurez-vous de la chance et il vous rendra riche )).

vous mentez - je me cite"Je vous donne la réponse à votre question - il y a un certain "pouvoir prédictif" dans toutes les données. Et alors ? Il y a une sorte d'information dans toutes les données du forex".

Si vous avez un ensemble de centaines de milliers d'observations, la question de la puissance de l'ordinateur serait pertinente.

 
Demi:

vous mentez - je me cite"Je vous donne la réponse à votre question - il y a un certain "pouvoir prédictif" dans toutes les données. Et alors ? Il y a une sorte d'information dans toutes les données de forex".

viande:

vous avez déjà affirmé qu'il y avait un pouvoir prédictif dans toutes les données

Et quel est le mensonge ?

 
meat:

Et quel est le mensonge ?

Je me suis décodé dans la deuxième phrase.
 
Demi:
Je me suis décodé moi-même dans la deuxième phrase.

Par exemple, information = pouvoir prédictif ? Comment pouvez-vous en être si sûr ? Si je vous communique des "données sur le marché des changes", vous pourrez prédire le prix en fonction de celles-ci ?

Il n'y a pas que le forex, il y a aussi les marchés boursiers, les marchés des matières premières et bien d'autres choses.... Tout est interconnecté.

 

faa1947:

J'ai une douzaine de clients. Avant de communiquer avec moi, ils étaient tous joyeux et gais, mais maintenant ils sont tristes et pensifs.

Ne multipliez pas la tristesse)))
 

faa1947, veuillez montrer comment votre modèle fonctionne sur l'exemple ci-dessous. La première colonne est la série modélisée, les deuxième et troisième colonnes sont les variables prédictives. Quel est le pouvoir prédictif de ces prédicteurs ?

-0.35742 0.461646 -0.81907
0.431277 0.004545 0.426731
-0.00018 -0.4037 0.403528
-0.08575 0.90851 -0.99426
0.773826 0.008975 0.764852
0.426905 -0.96485 1.391757
0.253233 0.487955 -0.23472
0.20994 0.880554 -0.67061
-0.09929 0.160276 -0.25956
0.332911 -0.08736 0.420268
0.032258 0.360106 -0.32785
0.253027 -0.06859 0.321621
-0.66668 -0.54985 -0.11683
-0.5476 -0.13231 -0.41529
-0.75652 0.536488 -1.29301
-0.66109 -0.87314 0.212052
-0.09993 -0.86293 0.763
0.014625 0.715032 -0.70041
-0.48345 -0.62666 0.143206
-0.03596 0.935653 -0.97161
-0.17023 0.678024 -0.84826
0.293376 0.079529 0.213847
0.002922 0.754594 -0.75167
0.329194 -0.05535 0.384546
0.639423 -0.41358 1.053007
0.431631 -0.60334 1.034973
0.59125 0.497989 0.093262
0.266098 -0.79645 1.062549
-0.02624 0.643164 -0.6694
0.055014 -0.46214 0.517154
0.436132 -0.89992 1.336052
-0.30143 0.628619 -0.93005
-0.12168 0.886467 -1.00814
-0.10851 -0.0507 -0.0578
-0.74573 -0.50921 -0.23653
-0.574 0.244825 -0.81883
-0.87313 0.336188 -1.20932
-0.00344 0.117363 -0.1208
-0.20265 0.424326 -0.62697
0.177873 -0.17967 0.357541
 
gpwr:


Quel est le pouvoir prédictif de ces indicateurs ?

Apparemment, les nombres ne sont pas aléatoires. Je l'ai vérifié très simplement : j'ai généré trois rangées de 40 rangées au hasard et je leur ai appliqué le neurone. Sur des données aléatoires, la capacité de généralisation est nettement moins bonne que sur les données susmentionnées.
 
Reshetov:
Apparemment, les nombres ne sont pas aléatoires. Je l'ai vérifié très simplement : j'ai généré trois rangées de 40 rangées au hasard et j'ai appliqué neuronka à ces rangées. Sur des données aléatoires, la capacité de généralisation est nettement moins bonne que sur les données susmentionnées.
Je serais intéressé par différentes approches algorithmiques universelles pour déterminer la capacité prédictive de ces deux prédicteurs. L'économétrie, la neuronique et les réseaux profonds sont les bienvenus. Montrez-nous ce qu'ils peuvent faire. Vous pouvez montrer soit un paramètre caractérisant la capacité prédictive de ces prédicteurs (coefficient de corrélation, information mutuelle, RMS, et autres inventions), soit une comparaison entre la sortie du modèle et les séries simulées.
Применение метода собственных координат к анализу структуры неэкстенсивных статистических распределений
Применение метода собственных координат к анализу структуры неэкстенсивных статистических распределений
  • 2012.06.21
  • MetaQuotes Software Corp.
  • www.mql5.com
Центральной проблемой прикладной статистики является проблема принятия статистических гипотез. Долгое время считалось, что эта задача не может быть решена. Ситуация изменилась с появлением метода собственных координат. Это очень красивый и мощный инструмент структурного исследования сигнала, позволяющий увидеть больше, чем доступно методами современной прикладной статистики. В статье рассмотрены вопросы практического использования данного метода и приведены программы на языке MQL5. Рассмотрена задача идентификации функций на примере распределения, полученного Хилхорстом и Шером.
 
gpwr:
Je serais intéressé par différentes approches algorithmiques universelles pour déterminer le pouvoir prédictif de ces deux prédicteurs. L'économétrie, la neuronique et les réseaux profonds sont les bienvenus. Montrez-nous ce qu'ils peuvent faire. Vous pouvez montrer soit un paramètre caractérisant la capacité prédictive de ces prédicteurs (coefficient de corrélation, information mutuelle, RMS et autres inventions), soit une comparaison entre les résultats du modèle et les séries simulées.
  1. Le terme "capacité prédictive" est l'apanage des diseurs de bonne aventure, des médiums, des chamans et autres économètres. Dans l'apprentissage automatique, on peut calculer la capacité de généralisation, et encore, seulement de manière approximative
  2. Il n'y a pas assez de données, c'est-à-dire que nous avons affaire à de petites données (seulement 40 exemples), et donc les estimations de la capacité de généralisation peuvent être surestimées, c'est-à-dire un doigt dans le ciel.

J'ai amené l'échantillon à une forme appropriée pour la classification binaire, c'est-à-dire pour calculer la variable dépendante afin de voir si elle est supérieure ou inférieure à zéro (fichier CSV dans l'archive jointe), j'ai fait une recherche avec libVMR et j'ai obtenu ce modèle :


/**
* La qualité de la modélisation :
*
* VraisPositifs : 9
* VraisNégatifs : 11
* FauxPositifs : 0
* FauxNégatifs : 0
* Sensibilité de la capacité de généralisation : 100.0%
* Spécificité de la capacité de généralisation : 100.0%
* Capacité de généralisation : 100.0%
*/
double x0 = 2.0 * (v0 + 0.96485) / 1.900503 - 1.0 ;
double x1 = 2.0 * (v1 + 1.00814) / 2.399897 - 1.0 ;

y = 0,12981203254657206 + 0,8176828303879957 * x0 + 1,0 * x1 -0,005143248786272694 * x0 * x1 ;


Le secret de la "grande généralisabilité" de votre échantillon est révélé : la valeur de la première colonne est la somme des valeurs des deux autres colonnes.

libvmr
libvmr
  • code.google.com
VMR - machine learning library
Dossiers :
test.zip  1 kb