Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Jusqu'à présent, c'est l'absence des détails que j'ai demandés plus haut qui m'a plongé dans la stupeur, moi qui suis un simple idiot. J'ai relu l'article trois fois, mais je n'ai trouvé les réponses dont j'avais besoin que sur le forum.
Après quelques délibérations, il a été décidé de rédiger la deuxième partie de l'article.
Pour l'instant, la deuxième partie couvrira le travail avec les réseaux neuronaux multicouches.
Si vous avez des souhaits concernant le contenu de l'article, écrivez-les brièvement.
Les idées que je pourrai transmettre sur mes doigts seront décrites dans l'article.
Je vous remercie.
Je "suppose naïvement" que les locuteurs natifs russes n'ont pas l'habitude d'appeler le processus d'apprentissage indépendant "ajustement des paramètres". De même, il n'est pas accepté d'appeler "apprentissage" la sélection des paramètres (à l'aide de processus externes) pour n'importe quel système.
Quelle que soit la façon dont vous appelez l'ajustement, il ne cessera pas d'être un ajustement.
L'optimisation, l'ajustement et l'apprentissage pour les réseaux neuronaux traitant des données non stationnaires sont des synonymes. En effet, ces trois termes désignent la même chose : la sélection de coefficients de pondération pour des données historiques passées (échantillon d'apprentissage) afin de minimiser les erreurs dans les résultats du réseau neuronal. S'il était possible d'alimenter le réseau avec des données futures, la situation serait différente. Mais les magasins de matériel de bureau ne vendent pas encore de machines à remonter le temps, et nous devons donc nous adapter au passé.
Quel que soit le nom que l'on donne à un raccord, il ne cessera pas d'être un raccord.
Une seule question nous intéresse : comment créer un programme d'auto-apprentissage qui puisse se passer d'un optimiseur "externe". Si cela est possible à ce stade, bien sûr.
C'est simple. Le code EA peut contenir le réseau lui-même et son optimiseur de poids, qui peut être lancé automatiquement lorsque de nouvelles données arrivent. Dans la plupart des cas, les réseaux neuronaux sont des réseaux d'auto-apprentissage. Les réseaux formés en externe, par exemple par l'optimiseur de testeur, sont des jouets.
Aidez-moi ! Ai-je bien compris que la normalisation des données d'entrée doit être effectuée pour l'ensemble de la période d'apprentissage du réseau ? Je veux dire que les valeurs maximales et minimales de xi doivent être prises sur l'ensemble de la période ?
J'ai écrit ce hibou. Peut-on dire qu'il s'agit d'un réseau neuronal, car j'ai des doutes.
Chouette pour trader dans le canal.
L'algorithme est le suivant : on prend les extremums pour le nombre de barres Fibo (2,3,5,8,13....). Pour chaque neurone à acheter, par exemple - si le prix est inférieur ou égal au prix de l'extremum LOW pendant une période, alors retourner 1 sinon - 0. De plus, comme dans l'exemple avec NeuronMACD. Pour vendre, il faut faire l'inverse.
J'attends les critiques sur le code et l'algorithme.
J'ai écrit ce hibou. Peut-on dire qu'il s'agit d'un réseau neuronal, car j'ai des doutes.
Chouette pour trader dans le canal.
L'algorithme est le suivant : on prend les extremums pour le nombre de barres Fibo (2,3,5,8,13....). Pour chaque neurone d'achat, par exemple - si le prix est inférieur ou égal au prix de l'extremum LOW pour une période, nous retournons 1 sinon - 0. De plus, comme dans l'exemple avec NeuronMACD. Pour vendre, il faut faire l'inverse.
J'attends la critique du code et de l'algorithme.
Dans votre cas, la fonction d'activation des neurones peut être supprimée, ce qui constitue un frein inutile.