L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 549

 

Voici un autre exemple de prophet mais pour R (python n'a jamais fonctionné pour moi)

je pense que si vous transformez les données au lieu des citations, il prédit mieux qu'arima.

et comparer avec arima pour l'intérêt

https://strategy.doubledoji.com/how-to-use-facebooks-prophet-algorithm-in-forex-trading/

Get My Forex Systems FREE!
Get My Forex Systems FREE!
  • admin
  • strategy.doubledoji.com
Trading is all about forecasting price. If you have been reading my Forex Strategies 2.0 Blog, you must have seen I am focusing more and more on algorithmic trading. If you can forecast currency pair price with a reasonable degree of accuracy, you can make a lot of pips. Markets have changed a lot. Today algorithms rule the market. Wall Street...
 

Voici une autre excellente recherche :

https://msperlin.github.io/pafdR/research-scripts.html

Processing and Analyzing Financial Data with R
  • Marcelo S. Perlin (marcelo.perlin@ufrgs.br)
  • msperlin.github.io
Here we will present three elaborate examples of financial research with R. Every script provided here is reproducible, using refreshable data from the internet. You can download the code and replicate all results. Each research script is saved in a single .Rmd file and is available in the book repository, folder . The first example of research...
 
Maxim Dmitrievsky:

Voici un autre exemple de prophet mais pour R (python n'a jamais fonctionné pour moi)

je pense que si vous transformez les données au lieu des citations, il prédit mieux qu'arima.

et comparer avec arima pour l'intérêt

https://strategy.doubledoji.com/how-to-use-facebooks-prophet-algorithm-in-forex-trading/


Elle doit être testée sur l'arche. Il y a des séries chronologiques où il n'y a pas d'effet d'arc, mais s'il est présent, alors il faut un garch, et il faut en choisir un certain (il y en a beaucoup) et alors il est très utile pour modéliser la distribution.

 

Vous trouverez ci-dessous deux extraits de mon article que je suis en train de terminer. Il n'est pas nécessaire de perdre votre temps à réinventer le vélo. Vous ne ferez pas mieux que les professionnels. Python et R sont déjà merveilleusement intégrés. Il suffit d'utiliser.

"Utilisation de la bibliothèque TensorFlow".

Le domaine florissant des réseaux neuronaux profonds a récemment été enrichi par un certain nombre de bibliothèques open source. Les plus connus sontTensorFlow (Google),CNTK (Microsoft),Apache MXNet et bien d'autres. Étant donné que tous ces développeurs et d'autres développeurs de logiciels importants font partie du Consortium R, une API pour R est fournie pour toutes ces bibliothèques.

Toutes les bibliothèques ci-dessus sont de très bas niveau. Pour les débutants dans ce domaine, ils sont difficiles à digérer. C'est dans cette optique que l'équipe de Rstudio a développé le paquetkeras pour R.

Keras est une API de réseaux neuronaux de haut niveau, conçue dans le but de pouvoir expérimenter rapidement. La capacité de passer de l'idée au résultat dans les plus brefs délais est la clé d'une bonne recherche. Keras possède les principales caractéristiques suivantes :

  • Vous pouvez ainsi utiliser indifféremment le CPU ou le GPU.
  • Une API conviviale qui permet de prototyper facilement des modèles d'apprentissage profond.
  • Prise en charge intégrée des réseaux convolutifs (pour la vision par ordinateur), des réseaux récursifs (pour le traitement des séquences) et de toute combinaison des deux.
  • Prise en charge d'architectures de réseau arbitraires : modèles à entrées ou sorties multiples, partage de couches, partage de modèles, etc. Cela signifie que Keras permet de construire essentiellement n'importe quel modèle d'apprentissage profond, qu'il s'agisse d'un réseau à mémoire ou d'une machine neuronale de Turing.
  • Il est capable de fonctionner au-dessus de plusieurs back-ends, notamment TensorFlow, CNTK ou Theano.

Il suffit d'installer et de télécharger le paquet R keras, puis d'exécuter la fonction keras : : install_keras (), qui installe TensorFlow, Python et tout ce dont vous avez besoin, y compris les environnementsVirtualenv ouConda. Ça marche ! Pour obtenir des instructions sur l'installation de Keras et TensorFLow sur les GPU, voir.Ici. Voir l'article pour plus de détails."

"Le paquet tfruns est destiné à expérimenter avec TensorFlow. Le paquettfruns fournit un ensemble d'outils pour contrôler la formation et les expériences TensorFlow à partir de R :

  • Suivez les hyperparamètres, les métriques, les résultats et le code source de chaque cycle de formation.
  • Comparez les hyperparamètres et les métriques entre les exécutions pour trouver le modèle le plus efficace.
  • Générez automatiquement des rapports pour visualiser les séries d'entraînement individuelles ou les comparaisons entre séries.
  • Aucune modification du code source n'est nécessaire (les données d'exécution sont automatiquement capturées pour tous les modèles Keras ettfestimators).

TensorBoard offre la meilleure visualisation du processus et des résultats de la formation des DNN.

Et, bien sûr, les connaisseurs de l'apprentissage profond peuvent travailler directement avec la bibliothèque TensorFlow de bas niveau en utilisant le paquet tensorflow.

Tous ces paquets sont basés sur l'interface de base -réticulée- de R avec les modules, fonctions et classes Python. Lorsqu'ils sont appelés en Python, les types de données R sont automatiquement convertis en leurs types Python équivalents. Lorsque des valeurs sont renvoyées de Python vers R, elles sont reconverties en types R. Digne d'une étude approfondie.

Tous ces paquets sont bien documentés, ce qui n'est pas surprenant étant donné la classe de développeurs, fournis avec des tonnes d'exemples, et sont en constante évolution. Ainsi, nous avons une occasion unique d'utiliser dans les experts et les indicateurs les modèles d'apprentissage profond les plus avancés et avancés (DNN, RNN, CNN, LSTM, VAE, etc.), l'apprentissage par renforcement (RL) et de nombreux autres développements de Python dans le domaine de l'apprentissage automatique, si vous avez suffisamment de connaissances et d'expérience".

Bonne chance

 

en même temps, la complexité des stratégies et la quantité de travail deviennent trop importantes pour une personne qui n'est pas professionnellement engagée dans le satanisme de date :) bien que cela puisse être seulement à la première vue.

 

J'ai presque fini d'intégrer Python et MT. J'ai dû écrire une DLL supplémentaire. Il reste quelques petites choses. Finir le MQH et écrire le doc. La bibliothèque n'a pas beaucoup de fonctionnalités, mais c'est suffisant. Il est possible de charger et d'exécuter un script Python. Et aussi appeler n'importe quelle fonction à partir de celui-ci. Il fonctionnera avec des listes, mais seulement unidimensionnelles et homogènes. C'est-à-dire qu'un tableau MQL est converti en liste et inversement.

 
Apprentissage automatique à partir de Yandex https://habrahabr.ru/company/yandex/blog/333522/
Яндекс открывает технологию машинного обучения CatBoost
Яндекс открывает технологию машинного обучения CatBoost
  • 2018.07.17
  • habrahabr.ru
Сегодня Яндекс выложил в open source собственную библиотеку CatBoost, разработанную с учетом многолетнего опыта компании в области машинного обучения. С ее помощью можно эффективно обучать модели на разнородных данных, в том числе таких, которые трудно представить в виде чисел (например, виды облаков или категории товаров). Исходный код...
 

Mais le tutoriel sur R est bon... des bases et modèles linéaires à Garch et Facebook prophet....(ce n'est pas pour rien que je télécharge prophet ici, car il suscite de l'intérêt dans certains milieux et est méga facile à utiliser) presque la même chose que pour python, mais plus en détail, du professeur R

en général, il est logique, bien sûr, de passer de l'économétrie aux réseaux de neurones, et non l'inverse, c'est-à-dire d'étudier ce que l'on a déjà (si l'on n'a pas étudié à l'université), qui aurait de quoi faire réfléchir, et ensuite de s'enfoncer dans les réseaux

Et en général, notez que les réseaux neuronaux en économétrie sont à part et ne constituent pas (encore) le sujet principal.

https://msperlin.github.io/pafdR/

Processing and Analyzing Financial Data with R
  • Marcelo S. Perlin (marcelo.perlin@ufrgs.br)
  • msperlin.github.io
Welcome to the book site of Processing and Analyzing Financial Data with R. Here you can find the full online content of the book. The book is also available as an ebook (Amazon) and hardcover (CreateSpace / Amazon). If you liked the material and are using the book, please consider purchasing it. As an author, I certainly appreciate the gesture...
 
Maxim Dmitrievsky:


En général, il est bien sûr logique de passer de l'économétrie aux réseaux de neurones, et non l'inverse, c'est-à-dire d'étudier quelque chose qui existe déjà (si vous ne l'avez pas étudié à l'université), d'avoir quelque chose à quoi réfléchir, et ensuite de se lancer dans les réseaux

Et en général, notez que les réseaux neuronaux en économétrie sont à part et ne constituent pas (encore) le sujet principal.

https://msperlin.github.io/pafdR/

Il y a quelques années, je m'intéressais à Matlab et, contrairement à mes idées sur les outils de l'économétrie, il n'y avait QUE des modèles GARCH dans la boîte à outils sous le nom "Econométrie".

J'ai fini par faire ME. Ce qui m'a le plus surpris, c'est le très faible nombre de publications sur l'application de la MO aux marchés financiers.

Ce qui m'a surpris, c'est le grand nombre de publications sur l'application de GARCH aux marchés financiers : bourses, indices, contrats à terme, paires de devises. C'est juste une explosion.

Alors peut-être que Matlab a raison ? Peut-être que tous les instruments d'OI, y compris les SN, sont des outils tiers pour les marchés financiers ?

 
SanSanych Fomenko:

Alors peut-être que Matlab a raison ? Peut-être que tous les outils IO, y compris NS, sont des outils tiers pour les marchés financiers ?


Eh bien, oui, il ne s'agit pas de modèles économétriques prêts à l'emploi, mais simplement d'un ensemble d'outils universels pour tous les domaines.

L'économétrie non paramétrique se résume à la RI et à la logique floue, mais je n'ai pas vu de choses claires, peut-être parce que certaines approches communes n'ont pas été élaborées. Je ne sais pas comment cela fonctionne :).

Raison: