Utilisation de l'intelligence artificielle chez MTS - page 20

 
usdeur:
solandr a écrit (a) :
usdeur:
Pour continuer - écrire à E-mail

Malheureusement, je n'ai rien compris à la réponse. Pourriez-vous écrire quelque chose de précis sur le problème déjà ici sur le forum ? Sinon, à quoi bon échanger des e-mails ?
Où est l'e-mail lui-même ?
 

Question pour les mathématiciens :

L'idée d'appliquer une distribution normale multivariée des paramètres à optimiser est-elle égale au principe des réseaux neuronaux?

Veuillez l'expliquer clairement.

 
Bonjour Messieurs les développeurs !
Après avoir découvert l'ANN et son application au forex, j'ai voulu étudier ce sujet (l'ANN, je connais le forex depuis longtemps), ce que j'ai fait. J'ai donc quelques questions sur l'utilisation des ANN pour le Forex, auxquelles je n'ai pas encore trouvé de réponses :
1) Dans l'un des documents que j'ai lus, il était écrit que lorsque vous apprenez les ANN, il est possible de "recycler le système", les ANN "recyclés" ne donnent les bons résultats que dans les situations (modèles) pour lesquelles ils ont été formés, dans les autres cas, leurs résultats ne sont pas vrais.c'est-à-dire que l'ANN devient un tableau trivial et perd sa capacité à généraliser. Ma question est la suivante : une telle situation est-elle possible avec un ANN fonctionnant avec le FOREC et la possibilité de former une telle situation dépend-elle de la méthode d'apprentissage (GA, stochastique, méthode de rétropropagation des erreurs) ou du type de réseau (je vais utiliser un modèle multicouche unidirectionnel). Comment éviter une telle situation ?
2) Supposons que je choisisse une méthode triviale d'entraînement d'un réseau sur l'historique (a) et de travail après l'entraînement (b) : (a) je prends un moment dans l'historique T, qui est égal au moment actuel T=0, et j'entre un système d'entraînement avec des prix proches X(T+1), X(T+2), X(T+3),... X(T+N) (où N=const et X est le prix de l'instrument en fonction de T), puis je nourris la prévision faite par mon système X'(T) avant l'entraînement à ce moment et la valeur réelle de X(T).= X'(T), puis j'enseigne le système à cette situation, puis je diminue T d'une unité et je répète tout ce cycle jusqu'à ce que T > 0 (plus T est grand, plus l'instant T est "ancien", pour "une étape"). T peut être, par exemple, un jour), lorsque le système est entraîné (b), j'attends simplement le "pas" (dans notre cas, nous attendons un jour), si la prévision précédente n'était pas correcte, j'enseigne le système, puis je calcule la prévision et ouvre une transaction avec lui, etc..
Les conseillers, qui travaillent sur la base de l'ANN que j'ai vu sur cette ressource, sont guidés par la probabilité de l'exactitude de la prévision (corrigez-moi si je me trompe), et si cette probabilité est supérieure à une certaine constante B donnée par un humain, alors la transaction est ouverte. Comment évaluez-vous la probabilité en général, par exemple avec la façon dont l'EA fonctionne ?
Personnellement, je ne sais pas comment un EA peut NE PAS ouvrir des transactions toutes les 24 heures, par exemple (à moins que le revenu prévu soit inférieur au spread d'un symbole). Quelles sont les données d'entrée que le Conseiller Expert peut utiliser pour entrer sur le marché NON strictement périodique ?
3) Dans l'EA de Ceasar, j'ai vu une constante d'oubli, je ne comprends pas pourquoi elle est nécessaire, et comment implémenter l'oubli dépendant de la méthode d'apprentissage ? La capacité à "oublier" n'est-elle pas une propriété naturelle de l'ANN ?

ZZY J'ai besoin de l'opinion de professionnels sur le sujet ANN, si vous êtes trop paresseux pour écrire, s'il vous plaît, envoyez-moi juste un lien vers la (les) ressource(s) répondant à chacun des points dans le fil séparément.
ZZZY Je n'ai pas lu le code source, seulement étudié les instructions d'utilisation.
 
Aleksey24:

Question pour les mathématiciens :

L'idée d'appliquer une distribution normale multivariée des paramètres à optimiser est-elle égale au principe des réseaux neuronaux?

Veuillez l'expliquer clairement.

Quelle étrange question à poser.
Veuillez expliquer la question.
 
Mak:
Aleksey24:

Question pour les mathématiciens :

L'idée d'appliquer une distribution normale multivariée des paramètres à optimiser est-elle égale au principe des réseaux neuronaux?

Veuillez l'expliquer clairement.

C'est une question étrange à poser.
Expliquez la question.



Je pense que la question signifie "Est-ce que ça vaut la peine de s'embêter avec les réseaux neuronaux ?".
 
Mak:
Aleksey24:

Question pour les mathématiciens :

L'idée d'appliquer une distribution normale multivariée des paramètres à optimiser est-elle égale au principe des réseaux neuronaux?

Veuillez l'expliquer clairement.

C'est une question étrange à poser.
Expliquez la question.



La question signifie probablement : "Cela vaut-il la peine de s'embêter avec les réseaux neuronaux ?".
 
Je vais compléter ma question (2). Cette structure de programme est-elle viable, je ne parle pas des données d'entrée elles-mêmes, mais de mon approche de l'entraînement de l'ANN, c'est-à-dire quand appeler la fonction d'entraînement ?
 
1. Il est possible, et d'ailleurs, que ce soit la situation dans la plupart des cas.
Cela ne dépend pas de la méthode d'entraînement, cela peut dépendre du type de réseau, mais c'est peu probable.
Comment l'éviter - l'échantillon d'entraînement doit être des centaines, des milliers de fois plus grand que le nombre de paramètres de poids dans le réseau,
alors la probabilité de surentraînement sera moindre.

Le point est simple, NS est juste une fonction de l'ensemble des entrées et de l'ensemble des paramètres de pondération.
En sélectionnant un ensemble de paramètres, l'objectif est d'obtenir une réponse donnée à la sortie de la fonction - c'est l'apprentissage.
Il y a beaucoup de paramètres de pondération - des centaines et des milliers, d'où le surentraînement des réseaux dans la plupart des cas.
 
A mon avis, cela ne vaut pas la peine de s'acharner sur les réseaux :)

L'apprentissage de la NS consiste en fait à optimiser une fonction comportant un très grand nombre de paramètres (des centaines et des milliers).
Je ne sais pas quoi faire pour éviter le surentraînement dans ce cas,
La seule solution consiste à prendre un échantillon d'entraînement de 1 à 100 millions d'échantillons.
Mais il n'y a aucune garantie...
 
Mak, vous exagérez clairement quelque chose. Au lieu de le dépasser par des centaines ou des milliers de fois, comme vous le dites, selon la théorie ANN, 10 suffit. Et les critères de sur-ajustement sont connus : il s'agit de l'erreur minimale globale dans la zone de test.

Une autre chose est l'architecture du réseau. Les mailles de classification sont meilleures que les mailles d'interpolation.
Raison: