L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 493

 
Maxim Dmitrievsky:

wolf-forward est nécessaire, vous ne pouvez pas optimiser comme ça, forward sera toujours mauvais (ou aléatoire) dans ce cas, en fonction de la phase du marché dans laquelle vous vous trouvez, j'ai déjà un tas de versions de tels systèmes sur le backtest, qui sur forward fonctionnent comme une pièce de monnaie) cela s'appelle overfitting

Existe-t-il un algorithme de sélection des paramètres du système dans le rolling forward ?
J'ai une douzaine d'optimisations avec des décalages mensuels. Pour chaque mois, les meilleurs paramètres d'entrée diffèrent des paramètres des autres mois. Lequel d'entre eux dois-je choisir pour mon travail ?
 
elibrarius:
Existe-t-il un algorithme pour sélectionner les paramètres du système lors de la mise en place d'une valve avant ?
J'ai reçu une douzaine d'optimisations avec un décalage par mois, dans chaque mois les meilleurs paramètres d'entrée sont différents des paramètres des autres mois. Et lequel choisir ?

Je ne me suis pas exprimé correctement, je voulais dire "quelque chose comme ça", c'est-à-dire un système auto-optimisant avec un certain critère d'optimisation, et le même SN peut être utilisé comme un optimiseur

 
elibrarius:
Existe-t-il un algorithme permettant de sélectionner les paramètres du système lors de la mise en place d'une soupape avant ?
J'ai une douzaine d'optimisations avec un décalage par mois, chaque mois les meilleurs paramètres d'entrée diffèrent des paramètres des autres mois. Et avec lequel choisir de travailler ?
En parlant d'optimisation et de formation. Cela me prend 23 heures, sans compter les manipulations intermédiaires. Après chaque passage (c'est-à-dire plusieurs époques), je change l'échantillon d'entraînement. Non, je ne le mélange pas, je le change, c'est-à-dire que je ne montre pas les mêmes photos. Il n'y a pas de répétition d'échantillons dans le processus d'apprentissage.
 
Yuriy Asaulenko:
En parlant d'optimisation et d'apprentissage. Cela me prend 23 heures, sans compter les manipulations intermédiaires. Après chaque passage (il s'agit de plusieurs époques), je change l'échantillon pour l'entraînement. Non, je ne le mélange pas, je le change, c'est-à-dire que je ne montre pas les mêmes photos. Il n'y a pas de répétition d'échantillons dans le processus d'apprentissage.

Et quel est exactement l'algorithme d'optimisation ? Cherchez-en un avec l'algorithme L-BFGS, il sera plusieurs fois plus rapide.

et votre NS apprendra, eh bien, 100 fois plus vite, par exemple, pas 23 heures mais 10 minutes (comme toutes les personnes normales) :))) si vous avez une simple descente de gradient avec un pas fixe


Voici une comparaison :

http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html

Исследование алгоритмов обучения искусственной нейронной сети для задач классификации - PDF
Исследование алгоритмов обучения искусственной нейронной сети для задач классификации - PDF
  • docplayer.ru
САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ Математико-Механический факультет Кафедра Системного Программирования Корыстов Максим Андреевич Исследование алгоритмов обучения искусственной нейронной сети для задач классификации Курсовая работа Научный руководитель: Невоструев К. Н. Санкт-Петербург 2014 г. Введение 1.1 Мотивация В последнее...
 
Maxim Dmitrievsky:

Et quel est exactement l'algorithme d'optimisation ? Cherchez-en un avec l'algorithme L-BFGS, il sera plusieurs fois plus rapide.

et votre NS apprendra, eh bien, 100 fois plus vite, par exemple, pas 23 heures mais 10 minutes (comme toutes les personnes normales) :))) si vous avez une simple descente de gradient avec un pas fixe

Voici une comparaison :

http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html

Merci, je vais le lire.

Plutôt un apprentissage, pas une optimisation. Pas simple. J'ai déjà écrit - BP standard avec recuit simulé à la main.

Peut-être que certains algorithmes sont meilleurs, mais je n'utilise que ce qui est disponible dans l'environnement de développement. D'autres, externes, sont problématiques.

En général, la vitesse n'est pas critique, si je m'entraîne une fois tous les 3 mois - 23 heures c'est même ufu. Mais sur un test de 3 mois, aucune dégradation n'a été constatée. Il fonctionne probablement plus longtemps.

 
Yuriy Asaulenko:

Plutôt un apprentissage, pas une optimisation. Pas simple. J'ai déjà écrit - BP standard avec recuit manuel simulé.

Peut-être que certains algorithmes sont meilleurs, mais je n'utilise que ce qui est disponible dans l'environnement de développement. D'autres, externes, sont problématiques.


quoi qu'il en soit, la formation est l'optimisation de la fonction cible

Oui, ils ont écrit sur le recuit, je ne suis pas familier avec ça, je vais le lire.

 
Maxim Dmitrievsky:

quoi qu'il en soit, la formation est l'optimisation de la fonction cible

Je n'ai pas de fonction cible dans la formation, c'est-à-dire qu'il n'y a pas de classification initiale dans la séquence de formation). C'est comme apprendre la table de multiplication avec un professeur qui ne la connaît même pas assez bien. La NS elle-même cherche un endroit où aller, je ne sais pas où. Il est donc peu probable qu'un apprentissage plus rapide fonctionne.
 
Maxim Dmitrievsky:

quoi qu'il en soit, la formation est l'optimisation de la fonction cible

Oui, ils ont écrit sur le recuit, je ne suis pas familier avec ça, je vais le lire.

Oui, le recuit est imité manuellement en modifiant les paramètres d'apprentissage après N époques. En outre, la séquence d'entraînement est complètement remplacée (pas mélangée, mais remplacée).
 
Yuriy Asaulenko:
Oui, le recuit est simulé manuellement en changeant les paramètres d'apprentissage après N époques. De plus, la séquence d'apprentissage est complètement remplacée (pas mélangée, mais remplacée).

C'est cool, où puis-je en savoir plus sur ce genre de SN ? C'est-à-dire que c'est comme si on n'avait pas de professeur, mais on alimente quand même la sortie avec quelque chose ?

 
Maxim Dmitrievsky:

Je ne sais pas où l'on peut trouver plus d'informations sur ce type de SN ? c'est-à-dire que c'est comme si vous l'obteniez sans professeur, mais vous alimentez quand même quelque chose à la sortie ?

Je peux lire les réseaux neuronaux de Haykin et la théorie de Bishop en anglais - il n'y a pas de traduction, mais elle semble être prête.

C'est simple. Vous entrez des transactions aléatoires, et vous produisez le résultat. La méthode de Monte Carlo est appelée, et elle n'est pas très rapide en soi. Et sa systématisation relève de l'analyse systématique.

Raison: