Utilisation de l'intelligence artificielle chez MTS - page 21

 
Mak:
À mon avis, cela ne vaut pas la peine d'utiliser des réseaux :)

L'apprentissage de la NS consiste en fait à optimiser une fonction comportant un très grand nombre de paramètres (des centaines et des milliers).
Je ne sais pas quoi faire pour éviter le surentraînement dans ce cas,
La seule solution est de prendre un échantillon d'entraînement de 1 à 100 millions d'échantillons.
Mais il n'y a aucune garantie...
Donc vous comprenez "surentraînement" comme "sous-entraînement" ? il me semble que ce sont des antonymes =) clarifiez s'il vous plaît.
 
Les mailles de classification sont meilleures que les mailles d'interpolation.
Je n'ai rien lu à ce sujet, veuillez expliquer la différence entre eux, si vous le pouvez, donnez un exemple du fonctionnement de chacun, vous pouvez utiliser des termes génériques =)
 
Mak:
Aleksey24:

Question pour les mathématiciens :

L'idée d'appliquer une distribution normale multivariée des paramètres à optimiser est-elle égale au principe des réseaux neuronaux?

Veuillez l'expliquer clairement.

C'est une question étrange à poser.
Expliquez la question.


EXPLIQUER :

Je pense maintenant qu'il est nécessaire de négocier non pas avec des paramètres ajustés spécifiques, mais avec le spectre de chaque paramètre dans le système.
Le plus simple est de mettre plusieurs EA identiques, mais avec des jeux de paramètres différents - dans différentes plages du spectre des paramètres.
Chacun de ces conseillers experts doit se voir attribuer un certain pourcentage du dépôt, mais tous doivent être égaux à la valeur du pourcentage du dépôt, lorsque l'on trade en utilisant un seul conseiller expert (sans spectre).
Ensuite, si sur les moyennes mobiles trois Expert Advisors ouvrent trois positions, respectivement au début du mouvement, au milieu et à la fin.

Je ne peux pas encore décider comment utiliser cette idée dans un EA pour le tester.

J'ai interrogé Posh sur ce problème mais toujours pas de réponse.

La tâche de la distribution normale multivariée (gaussienne) et les réseaux neuronaux de type aX+bY+...=Z sont les mêmes (pour le trading), ou je suis confus et embrouillé dans ma tête ?
 
Aleksey24:
Mak:
Aleksey24:

Question pour les mathématiciens :

L'idée d'appliquer une distribution normale multivariée des paramètres à optimiser est-elle égale au principe des réseaux neuronaux ?

Veuillez l'expliquer clairement.

C'est une question étrange à poser.
Expliquez la question.


EXPLIQUER :

Je pense maintenant qu'il est nécessaire de négocier non pas avec des paramètres ajustés spécifiques, mais avec le spectre de chaque paramètre dans le système.
Le plus simple est de mettre plusieurs EA identiques, mais avec des jeux de paramètres différents - dans différentes plages du spectre des paramètres.
Chacun de ces conseillers experts doit se voir attribuer un certain pourcentage du dépôt, mais tous doivent être égaux à la valeur du pourcentage du dépôt, lorsque l'on trade en utilisant un seul conseiller expert (sans spectre).
Ensuite, si sur les moyennes mobiles trois Expert Advisors ouvrent trois positions, respectivement au début du mouvement, au milieu et à la fin.

Je ne peux pas encore décider comment utiliser cette idée dans un EA pour le tester.

J'ai interrogé Posh sur ce problème mais toujours pas de réponse.

La tâche de la distribution normale multivariée (gaussienne) et les réseaux neuronaux de type aX+bY+...=Z sont les mêmes (pour le trading), ou je suis confus et embrouillé dans ma tête ?
Vous parlez de quelque chose de compliqué avec les spectres ! Voici les ressources sur le sujet de l'ANN que j'ai étudié :
https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5_%D1%81%D0%B5%D1%82%D0%B8 - c'est sur le wiki et tout est dans les grandes lignes.
http://users.kpi.kharkov.ua/mahotilo/Docs/Diss/diss_ch1_intr.html - il y a un article sur l'ANN, et au milieu de l'article il y a une discussion sur l'origine et la nature de l'ANN, avec des diagrammes et des formules.
http://www.robo-planet.ru/library.php?parent_id=324&PHPSESSID=82aafc8cb3c043ecbe043fa11dd50943 - c'est un lien vers "Fundamentals of Artificial Neural Networks", un bon site, il y a tout un "arbre" sur le sujet des ANNs - pas seulement ce que j'ai écrit.
 
Merci pour les liens, je vais me renseigner.
Mais à propos des "spectres", vous avez tort.
Je ne suis pas un proFesseur, bien sûr - mais il y a là un point rationnel.
 
Les amis, personne ne m'a répondu, est-il nécessaire de réfléchir à l'algorithme de l'oubli, ou est-ce, après tout, une propriété naturelle de l'ANN ?
 
lucifuge:
Les amis, personne ne m'a répondu, est-il nécessaire de réfléchir à l'algorithme de l'oubli, ou est-ce, après tout, une propriété naturelle de l'ANN ?

Si vous limitez l'entraînement à un nombre fini de barres (ou non, selon ce qui est utilisé), l'oubli sera un processus naturel. Le marché évolue, et ce qui fonctionnait il y a cinq ans ne fonctionne peut-être plus aujourd'hui. Mais de nouvelles conditions sont déjà apparues, et si vous ne l'enseignez pas, elle passera.
C'est à chacun de décider.
 
Mathemat:
Mak, vous exagérez clairement quelque chose. Au lieu de le dépasser par des centaines ou des milliers de fois, comme vous le dites, selon la théorie ANN, 10 suffit. Et les critères de réapprentissage (ajustement) sont connus : il s'agit d'une erreur minimale globale dans la zone de test.

Une autre chose est l'architecture du réseau. Les mailles de classification sont meilleures que les mailles d'interpolation.
Peut-être - je suis sceptique en ce qui concerne les NS.
Eh bien oui, en statistiques, on pense que l'on peut tirer certaines conclusions si le nombre d'échantillons est égal à 10 fois le nombre de paramètres inconnus, mais les erreurs commises sont à la limite du raisonnable.

Mais vous devriez convenir que la NS n'est essentiellement qu'une fonction d'un certain type de vecteur d'entrées et d'un ensemble de pondérations.
Cet ensemble de poids contient des centaines (dans les cas les plus simples), des dizaines et des centaines de milliers de paramètres (poids).
L'apprentissage de NS n'est rien d'autre que l'optimisation de cette fonction par ces centaines - centaines de milliers de paramètres.
Tout le monde sait ce qui se passe dans de tels cas.
C'est pourquoi je suis un sceptique...
 
lucifuge:
Mak:
A mon avis, ça ne vaut pas la peine de faire du vapotage avec les réseaux :)

L'apprentissage de la NS consiste en fait à optimiser une fonction avec un très grand nombre de paramètres (des centaines et des milliers).
Je ne sais pas quoi faire pour éviter le surentraînement dans ce cas,
La seule solution est de prendre un échantillon d'entraînement de 1 à 100 millions d'échantillons.
Mais il n'y a aucune garantie...
Vous comprenez donc "surentraînement" comme "sous-entraînement" ? Je pense que ce sont des antonymes =) Veuillez clarifier.
Par surentraînement, j'entends ce que l'on appelle le CurveFitting.
Il se produit lorsqu'il y a beaucoup de paramètres d'optimisation et peu de données.
 
Mak:
lucifuge:
Mak:
A mon avis, ça ne vaut pas la peine de faire du vapotage avec les réseaux :)

L'apprentissage de la NS consiste en fait à optimiser une fonction avec un très grand nombre de paramètres (des centaines et des milliers).
Je ne sais pas quoi faire pour éviter le surentraînement dans ce cas,
La seule solution est de prendre un échantillon d'entraînement de 1 à 100 millions d'échantillons.
Mais il n'y a aucune garantie...
Donc vous voulez dire "surentraîné" comme "sous-entraîné" ? Ce sont des antonymes =) clarifiez, s'il vous plaît.
Par surentraînement, j'entends ce que l'on appelle le CurveFitting.
Il se produit lorsqu'il y a beaucoup de paramètres d'optimisation et peu de données.

Mais cela soulève la question de la taille du réseau. Ce qu'un réseau peut stocker dépend de sa taille et de son architecture. Si vous définissez trop d'échantillons à entraîner que le réseau ne peut pas mémoriser, cela provoquera l'effet de sur-apprentissage - le réseau cessera de reconnaître ce qu'il sait.
Raison: