L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2751

 
Aleksey Nikolayev #:

Avez-vous comparé votre algorithme avec KNN (ou une modification de celui-ci) ? Il serait intéressant de voir à quel point le gain est significatif.

KNN n'est pas du tout la même chose.


Je m'intéresse à la "capacité prédictive", pas à la classification, et même sans professeur, qui sont inutiles dans notre métier.

 
Vladimir Perervenko #:

C'est un grand pas en avant. Les indicateurs et les experts doivent-ils être réécrits ?

pendant que vous êtes ici, merci pour ICA et toujours une question sur feature_extraction(que vous caractérisez comme"reconnaissance de composants uniques et significatifs") -- j'ai parcouru ce sujet une fois (description pour Python), et puis je l'ai abandonné.... J'ai eu l'impression qu'ils utilisent cette extraction uniquement pour travailler avec des images et du texte - devrions-nous nous préoccuper de cette approche lorsque nous travaillons avec des données structurées (comme un tableau de facteurs) ? ... pouvez-vous écrire quelques mots sur l'essence de l'algorithme pour comprendre son utilité ? ou ai-je raté quelque chose ? (et ce que j'ai vu en Python ne m'a pas incité à appliquer l'extraction de caractéristiques à des facteurs sur le marché).

sur les préférences : ou avez-vous décidé de rester avec l'ACP normale (ou hiérarchique, comme vous l'avez décrit) ???

Quelle réduction de la dimensionnalité utilisez-vous maintenant ?

et merci pour l'article

Глубокие нейросети (Часть III). Выбор примеров и уменьшение размерности
Глубокие нейросети (Часть III). Выбор примеров и уменьшение размерности
  • www.mql5.com
Эта статья продолжает серию публикаций о глубоких нейросетях. Рассматривается выбор примеров (удаление шумовых), уменьшение размерности входных данных и разделение набора на train/val/test в процессе подготовки данных для обучения.
 

il existe des doutes importants quant à la capacité des réseaux nationaux à fonctionner avec des informations de plus en plus nombreuses. Juste au-dessus, il y avait une référence à quelque chose qui courait entre les murs et mangeait du vert sans toucher du rouge. Au fur et à mesure que le labyrinthe s'agrandit (croissance de l'information), la mémoire du rouge et du vert disparaît. Il se déplace donc bien dans la formation précédente, mais pas dans la nouvelle. Tant que les schémas se répètent, il fonctionne plus ou moins bien. Et il ne fonctionne parfaitement que là où il est entraîné.

La contre-thèse du même NN pour les mêmes conditions est qu'un étudiant peut écrire un algorithme plus efficace. Et cet algorithme, un autre élève peut l'améliorer ou l'amener aux conditions de l'autre_espace_de_courbure(ou l'optimiser/simplifier). L'utilisation du NN dans cet exemple simplifié est une impasse, son résultat ne peut pas être consciemment et qualitativement amélioré. Il s'agit d'un problème général avec NN (et DL aussi). Ces méthodes peuvent être utilisées pour reconnaître le rouge/vert, le rond/carré à partir d'un ensemble de couleurs rougeâtre, verdâtre, sur un fond violet, en noir et blanc oblong. La solution de problèmes spéciaux étroits, et non la sortie de l'équité à l'infini.

 
СанСаныч Фоменко #:

KNN n'est pas du tout la même chose.


Je m'intéresse à la "capacité prédictive", pas à la classification, et même sans professeur, qui sont inutiles dans notre métier.

Néanmoins, le KNN est le moyen le plus simple de traiter la non-stationnarité si vous l'utilisez dans une fenêtre coulissante. Il utilise le même ensemble de prédicteurs tout le temps, ce qui permet de le comparer à un algorithme qui change l'ensemble de prédicteurs et d'évaluer le bénéfice de cette complication.

 
Alexey Burnakov " d'estimation et de sélection de prédicteurs" ont échoué.

Je publierai ma méthode, qui résout des problèmes similaires de manière robuste et sensible - je donnerai la théorie et publierai le code en R.

Ceci est fait pour un enrichissement mutuel de la "compréhension" des tâches d'apprentissage automatique.

Ce que j'ai posté n'est-il pas suffisant pour poster ce que vous avez dit ?

 
Aleksey Nikolayev #:

Cependant, le KNN offre le moyen le plus simple de traiter la non-stationnarité lorsqu'il est utilisé dans une fenêtre glissante. Il utilise toujours le même ensemble de prédicteurs, ce qui permet de le comparer à un algorithme qui change l'ensemble de prédicteurs et d'évaluer l'avantage de cette complication.

Je ne vois pas l'intérêt de faire quelque chose qui ne peut pas produire le résultat souhaité.

 

Qui a posé la question de l'application des NN et de l'IA à la négociation ?

La plateforme (modéré) (modéré ) ( modéré) (modéré) (modéré) (modéré) (modéré) (modéré) comprend la description des conditions/règles/parties/algorithmes de trading en langage naturel. Bien sûr en anglais

À mon avis, c'est là que se trouve la bonne direction à suivre et la bonne application des efforts en matière d'intelligence artificielle. Comme dans son domaine Wolfram, mais Wolfram est surtout une encyclopédie.

---

actuellement, les personnes qui travaillent dans le même domaine et qui communiquent depuis longtemps ne sont pas en mesure de se comprendre. Sans un traducteur automatique ou un accord mutuellement signé et contraignant sur la dénomination des entités :-)

 
Aleksey Nikolayev #:

Avez-vous comparé votre algorithme avec KNN (ou une modification de celui-ci) ? Il serait intéressant de voir à quel point le gain est significatif.

SanSanych Fomenko #:

Je ne vois pas l'intérêt de faire quelque chose qui, en principe, ne peut pas donner le résultat souhaité.


Aleksey Nikolayev #:

Néanmoins, le KNN est le moyen le plus simple de traiter la non-stationnarité si vous l'utilisez dans une fenêtre glissante. Il utilise toujours le même ensemble de prédicteurs, ce qui permet de le comparer à un algorithme qui change l'ensemble de prédicteurs et d'évaluer l'avantage de cette complication.

si KNN est essentiellement K-means (nom étranger pour k-nearest-neighbors?), alors il(K-means) utilise la distance euclidienne ... "lorsque les variables ne sont pas corrélées -- la distance de Mahalanobis coïncide avec la distance euclidienne habituelle" ... dans LDA .. . si les variables sont corrélées, la distance de Mahalanobis est meilleure, comme indiqué hier en termes généraux.
 
СанСаныч Фоменко #:

Je ne suis pas d'accord avec cela.

Le marché évolue et les intervalles de temps de l'évolution sont différents et indépendants les uns des autres.

J'avais l'habitude d'écrire des Expert Advisors qui vivaient entre 3 et 6 mois. Je les optimisais le week-end. Puis ils mouraient, et pendant un court laps de temps, suffisait à vider le dépôt. Pas assez de temps pour optimiser. En fin de compte, la situation était encore pire : après un certain temps, il s'est avéré qu'il existait une limite dont il était impossible de s'éloigner pour sélectionner des paramètres.

Les périodes d'évolution du marché sont plus longues : 5 à 7 ans. Mais le résultat est le même que pour les périodes mensuelles. Le robot meurt pour toujours. Je vous enverrai un bot spécifique du marché dans un message privé - vous ne pouvez pas le faire ici.

Toute cette idée de "hors échantillon" est donc absurde. Un robot a toujours une durée de vie, mais nous ne savons pas combien de temps : 3 mois ou 7 ans. Lorsque le robot meurt, nous le confondons avec une autre baisse et nous vidons notre dépôt.

Idéalement, il devrait être réentraîné sur la bougie suivante. Si on travaille sur les ticks, alors sur le tick suivant, sur le H1 alors sur l'arrivée de l'heure suivante.

Merci, c'est assez clair, pourquoi à chaque barre))))) Et pourquoi après les minutes vous passez aux ticks))))))

 
JeeyCi #:


si KNN est essentiellement K-means (nom étranger pour k-nearest-neighbors?), alors il(K-means) utilise la distance euclidienne ... "lorsque les variables ne sont pas corrélées -- la distance de Mahalanobis coïncide avec la distance euclidienne ordinaire" .... dans LDA .. . Eh bien, si elles sont corrélées, la distance de Mahalanobis est meilleure, comme nous l'avons noté hier de manière générale.

Rien ne vous empêche d'utiliser une autre distance au lieu de la distance euclidienne. Vous ne pouvez pas utiliser Mahalanobis, bien sûr, puisqu'il s'agit de la distance entre un point et un échantillon, et non entre deux points.

Raison: