L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 493
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
wolf-forward est nécessaire, vous ne pouvez pas optimiser comme ça, forward sera toujours mauvais (ou aléatoire) dans ce cas, en fonction de la phase du marché dans laquelle vous vous trouvez, j'ai déjà un tas de versions de tels systèmes sur le backtest, qui sur forward fonctionnent comme une pièce de monnaie) cela s'appelle overfitting
J'ai une douzaine d'optimisations avec des décalages mensuels. Pour chaque mois, les meilleurs paramètres d'entrée diffèrent des paramètres des autres mois. Lequel d'entre eux dois-je choisir pour mon travail ?
Existe-t-il un algorithme pour sélectionner les paramètres du système lors de la mise en place d'une valve avant ?
J'ai reçu une douzaine d'optimisations avec un décalage par mois, dans chaque mois les meilleurs paramètres d'entrée sont différents des paramètres des autres mois. Et lequel choisir ?
Je ne me suis pas exprimé correctement, je voulais dire "quelque chose comme ça", c'est-à-dire un système auto-optimisant avec un certain critère d'optimisation, et le même SN peut être utilisé comme un optimiseur
Existe-t-il un algorithme permettant de sélectionner les paramètres du système lors de la mise en place d'une soupape avant ?
J'ai une douzaine d'optimisations avec un décalage par mois, chaque mois les meilleurs paramètres d'entrée diffèrent des paramètres des autres mois. Et avec lequel choisir de travailler ?
En parlant d'optimisation et d'apprentissage. Cela me prend 23 heures, sans compter les manipulations intermédiaires. Après chaque passage (il s'agit de plusieurs époques), je change l'échantillon pour l'entraînement. Non, je ne le mélange pas, je le change, c'est-à-dire que je ne montre pas les mêmes photos. Il n'y a pas de répétition d'échantillons dans le processus d'apprentissage.
Et quel est exactement l'algorithme d'optimisation ? Cherchez-en un avec l'algorithme L-BFGS, il sera plusieurs fois plus rapide.
et votre NS apprendra, eh bien, 100 fois plus vite, par exemple, pas 23 heures mais 10 minutes (comme toutes les personnes normales) :))) si vous avez une simple descente de gradient avec un pas fixe
Voici une comparaison :
http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html
Et quel est exactement l'algorithme d'optimisation ? Cherchez-en un avec l'algorithme L-BFGS, il sera plusieurs fois plus rapide.
et votre NS apprendra, eh bien, 100 fois plus vite, par exemple, pas 23 heures mais 10 minutes (comme toutes les personnes normales) :))) si vous avez une simple descente de gradient avec un pas fixe
Voici une comparaison :
http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html
Merci, je vais le lire.
Plutôt un apprentissage, pas une optimisation. Pas simple. J'ai déjà écrit - BP standard avec recuit simulé à la main.
Peut-être que certains algorithmes sont meilleurs, mais je n'utilise que ce qui est disponible dans l'environnement de développement. D'autres, externes, sont problématiques.
En général, la vitesse n'est pas critique, si je m'entraîne une fois tous les 3 mois - 23 heures c'est même ufu. Mais sur un test de 3 mois, aucune dégradation n'a été constatée. Il fonctionne probablement plus longtemps.
Plutôt un apprentissage, pas une optimisation. Pas simple. J'ai déjà écrit - BP standard avec recuit manuel simulé.
Peut-être que certains algorithmes sont meilleurs, mais je n'utilise que ce qui est disponible dans l'environnement de développement. D'autres, externes, sont problématiques.
quoi qu'il en soit, la formation est l'optimisation de la fonction cible
Oui, ils ont écrit sur le recuit, je ne suis pas familier avec ça, je vais le lire.
quoi qu'il en soit, la formation est l'optimisation de la fonction cible
quoi qu'il en soit, la formation est l'optimisation de la fonction cible
Oui, ils ont écrit sur le recuit, je ne suis pas familier avec ça, je vais le lire.
Oui, le recuit est simulé manuellement en changeant les paramètres d'apprentissage après N époques. De plus, la séquence d'apprentissage est complètement remplacée (pas mélangée, mais remplacée).
C'est cool, où puis-je en savoir plus sur ce genre de SN ? C'est-à-dire que c'est comme si on n'avait pas de professeur, mais on alimente quand même la sortie avec quelque chose ?
Je ne sais pas où l'on peut trouver plus d'informations sur ce type de SN ? c'est-à-dire que c'est comme si vous l'obteniez sans professeur, mais vous alimentez quand même quelque chose à la sortie ?
Je peux lire les réseaux neuronaux de Haykin et la théorie de Bishop en anglais - il n'y a pas de traduction, mais elle semble être prête.
C'est simple. Vous entrez des transactions aléatoires, et vous produisez le résultat. La méthode de Monte Carlo est appelée, et elle n'est pas très rapide en soi. Et sa systématisation relève de l'analyse systématique.