L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 631

 
forexman77:

Vous avez trois neurones à l'entrée de la deuxième couche traitée par sigmoïde ? Comment ajuster les poids sur la deuxième couche dont la plage est choisie de -1 à 1 avec un pas de 0,1 par exemple.

Dans mon réseau, après le traitement de la deuxième couche , le nombre de transactions a chuté et mes résultats ne se sont pas beaucoup améliorés. C'était différent lorsque je me contentais d'installer un perceptron avec 9 entrées et un neurone de sortie, puis que je prenais un autre perceptron indépendant et que je l'installais à nouveau en conservant les paramètres du premier, etc.

Le 4ème neurone traite les résultats des trois premiers, c'est-à-dire + 3 poids supplémentaires.

Oui, de -1 à 1 par incréments de 0,1, mais pas sigmoïde mais tangente.

J'ai essayé de faire une couche intermédiaire avec les mêmes poids que la première couche d'entrée, le nombre de transactions a diminué et la qualité s'est considérablement améliorée, mais optimiser 9 poids supplémentaires est trop :)

Votre version semble bonne... Je pensais former des NS conventionnels sur les résultats de l'optimisation... Il faudra que j'essaie. Mais je commence à m'ennuyer avec cette approche

 
Maxim Dmitrievsky:

Le 4ème neurone traite les résultats des trois premiers, c'est-à-dire + 3 poids supplémentaires.

J'ai maintenant essayé de faire une couche intermédiaire avec les mêmes poids que la première couche d'entrée - le nombre de transactions a diminué et la qualité s'est également améliorée, mais optimiser 9 poids supplémentaires est déjà trop :)

Votre version semble bonne... Je pensais former des NS conventionnels sur les résultats de l'optimisation... Il faudra que j'essaie. Mais je commence à me lasser de cette approche.

J'ai l'impression que je devrais faire un indicateur sur la première couche et voir visuellement quelles pondérations doivent être appliquées sur la deuxième couche. Ou bien traitez-le avec une sigmoïde (vous obtenez alors des valeurs comprises entre 0,2 et 0,9, en gros) et vous pouvez alors prendre de petites pondérations et ne pas avoir besoin d'une grande plage de celles-ci.

De plus, un poids supplémentaire sans liaison avec l'entrée n'est qu'un poids, ce que m'a suggéré le Dr Trader. Le poids supplémentaire du biais améliore un peu les résultats, par exemple 1,7 avec le biais devient 1,8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699

Машинное обучение в трейдинге: теория и практика (торговля и не только)
Машинное обучение в трейдинге: теория и практика (торговля и не только)
  • 2017.10.04
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
forexman77:

J'ai l'impression que vous devez faire un indicateur pour la première couche et voir visuellement quelles pondérations vous devez appliquer à la deuxième couche. Ou bien traitez-le avec une sigmoïde (vous obtenez alors des valeurs allant de 0,2 à 0,9 environ) et vous pouvez alors prendre de petites pondérations et ne pas avoir besoin d'une grande plage de pondérations.

De plus, un poids supplémentaire sans liaison avec l'entrée n'est qu'un poids, ce que m'a suggéré le Dr Trader. Par exemple, il est de 1,7 avec un biais et maintenant il est de 1,8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699

c'est difficile de faire quelque chose de purement impromptu :) mais le principal problème jusqu'à présent est le recyclage
 
Maxim Dmitrievsky:
c'est difficile de faire quelque chose de purement impromptu :) mais le problème principal reste la reconversion.

Eh bien, 5-10 neurones à recycler n'est pas un problème du tout). On dirait que c'est un peu comme ça avec toi.

Il y avait un spécimen intéressant sur l'ordinateur. Vous avez un morceau de discours. Un bruit est généré et superposé à cette parole. Ensuite, un simple MLP est enseigné, et nous entendons à nouveau une parole presque pure.

J'ai été totalement dérangé par cela, bien qu'il y ait une description d'un modificateur de bruit similaire dans Haikin comme exemple.

 
Yuriy Asaulenko:

Eh bien, 5-10 neurones à recycler n'est pas un problème du tout). On dirait que c'est un peu comme ça avec toi.

Il y avait un spécimen intéressant sur l'ordinateur. Vous avez un morceau de discours. Un bruit est généré et superposé à cette parole. Ensuite, un simple MLP est enseigné, et nous entendons à nouveau une parole presque pure.

J'ai été vraiment sidéré par ce phénomène, bien qu'il soit décrit dans Haikin comme un exemple.

Oui, mais ce n'est qu'un des bots... S'il ne fonctionne pas - oubliez-le, je passerai à un autre... et ainsi de suite, jusqu'à ce que la synthèse arrive :) ou que vous vous ennuyiez.
 
Ne vous abaissez pas aux insultes et surveillez votre utilisation des jurons.
 
Il semble qu'il y ait eu des ratés. J'aurais aimé avoir le temps de participer.
 
Maxim Dmitrievsky:
Certaines ordures semblent avoir été manquées, j'aurais aimé avoir le temps de participer.

L'autre, celle où je répondais à M. Terenyevsky, a été supprimée. J'ai répondu à Terentiev au sujet des tests de séries chronologiques et j'ai dit que les auteurs locaux sont des amateurs parce qu'ils ne comprennent pas qu'avec une précision de 70-80% le ratio de Sharp sera supérieur à 20, et qu'ils ne font aucun sens.

 
Jene le suis pas:

a supprimé mon message où je répondais à M. Terenyv. Terentiev a parlé des tests de séries chronologiques et a déclaré que les rédacteurs d'articles locaux sont des amateurs parce qu'ils ne comprennent pas qu'avec une précision de 70-80%, le ratio Sharp sera supérieur à 20, et ils ont des absurdités à ce sujet.

ah, ok )

 

J'ai trouvé un article intéressant et j'essaie de l'acheter et peut-être de l'ajouter au robot.

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

J'essaie d'acheter le robot, mais c'est un peu stupide, il n'apprend à acheter qu'à la fin pour une raison quelconque.

The Self Learning Quant – Hacker Noon
The Self Learning Quant – Hacker Noon
  • 2016.09.27
  • Daniel Zakrisson
  • hackernoon.com
Recently there has been a lot of attention around Google DeepMinds victory over Lee Sedol in the board game Go. This is a remarkable…
Raison: