L'étiquette du marché ou les bonnes manières dans un champ de mines - page 26

 

Je vais prendre un peu de temps libre - :)

Nous devrions aller à la bibliothèque...

 
registred писал(а) >>

Je ne suis pas tout à fait sûr de ce que vous entendez par "recyclage à chaque étape" ?

Je ne fais des prédictions en utilisant NS que pour un compte à rebours. Ensuite, afin de ne pas perdre la précision de la prévision, je réentraîne le réseau en utilisant de nouvelles données d'entrée, etc. Dans cette situation, vous ne pouvez pas réentraîner la grille "à partir de zéro", mais sauvegarder les anciennes valeurs des poids comme valeurs de départ dans le nouveau décompte.

C'est exactement ce que j'avais en tête.

 

Neutron, lorsque je passe de la prédiction d'amplitude à la prédiction de signe, il s'avère que l'erreur dans la sortie de la grille est une erreur de signe. C'est-à-dire que l'erreur prend une valeur de +1 ou -1.

Est-ce que je comprends bien ce point ? Si non, comment ?

 
Neutron >> :

Je fais une prévision en utilisant NS seulement un compte en avant. Ensuite, pour conserver la précision de la prévision, je réentraîne la grille en utilisant de nouvelles données d'entrée, etc. Dans cette situation, vous ne pouvez pas réentraîner la grille "à partir de zéro", mais sauvegarder les anciennes valeurs des poids comme valeurs de départ dans le nouveau décompte.

C'est exactement ce que je voulais dire.

Je me demande si un réseau plat - change les perspectives de la prévision ?

 
Jingo писал(а) >>

Je me demande s'il s'agit d'un appartement - est-ce que le réseau change les perspectives sur les prévisions ?

Bien sûr que oui ! Elle est adaptative par nature.

Et puis, un appartement est essentiellement le même qu'une tendance, mais plus petit... Votre question se résume donc à l'adaptation de NS à un horizon commercial nouveau/changé. C'est sa responsabilité directe. Le fait que j'utilise les "anciennes" valeurs de poids dans un marché déjà "nouveau" lorsque je fais un recyclage - ne gâche pas le processus lui-même, bien au contraire. Le fait est que le processus de changement (exactement de changement) de la tendance est quasi-stationnaire et donc que la tactique choisie se justifie.

paralocus a écrit >>

Neutron, lorsque je passe de la prédiction d'amplitude à la prédiction de signe, il s'avère que l'erreur dans la sortie de la grille est une erreur de signe. C'est-à-dire que l'erreur prend la valeur +1 ou -1.

Est-ce que je comprends bien ce point ? Si non, qu'est-ce que c'est ?

Non, vous ne l'êtes pas.

Le processus d'entraînement du réseau ne diffère pas du cas classique, la différence est que vous donnez un signal binaire à l'entrée de la couche cachée de neurones et la sortie est une valeur réelle déterminée sur l'intervalle [-1,1] (en cas d'activation du neurone de sortie th()) et proportionnelle à la probabilité d'occurrence de l'événement (certitude du réseau dans un signe de l'incrément attendu). Si vous n'êtes pas intéressé par la probabilité, mais seulement par le signe du mouvement attendu du cotyr, alors n'interprétez que le signe de la prédiction, mais entraînez le réseau sur des nombres réels (je veux dire que l'erreur dans la méthode ORO doit être un nombre réel). Le fait que le taux d'apprentissage augmente avec cette méthode par rapport au cas général n'est pas un paradoxe. Le fait qu'en donnant un signal binaire en entrée, nous réduisons considérablement la dimensionnalité de l'espace des caractéristiques d'entrée dans lequel le SN doit être entraîné. Comparer : soit +/-1, soit de -1 à 1, par incréments de 0,001 et chaque valeur doit être placée sur l'hypersurface de dimension d (nombre d'entrées), en l'ayant préalablement construite par le même NS (il le fait lors de son apprentissage).

 
Neutron >> :

...on envoie un signal binaire à la couche cachée de neurones et la sortie est une valeur réelle définie sur l'intervalle [-1,1].

C'est ça ! Cela ne me viendrait même pas à l'esprit ! >> Je vais l'essayer maintenant.)

 

...Comparer : soit +/-1, soit de -1. à 1, par pas de 0,001 et chaque valeur doit être placée sur une hypersurface de dimension d (nombre d'entrées), en l'ayant préalablement construite par le même NS (il fait cela pendant son apprentissage).


Et si l'entrée est un signal binaire, n'est-il pas préférable de le rendre 0/1 ?

 

Non, bien sûr que non !

Votre centre de gravité de cette "entrée" est déplacé de 0,5 (son MO), alors que l'entrée a un MO=0 à l'initialisation. Vous devrez donc consacrer une partie de vos ressources à une remontée vide (ajustement du poids) de l'entrée unique d'un neurone pour l'adapter à la chose évidente. En général, tout ce qui peut être fait de manière indépendante, sans la participation de l'IA, devrait être fait. Cela permet aux NS d'économiser beaucoup de temps d'apprentissage. C'est dans ce but que les entrées sont normalisées, centrées et blanchies. Tout cela, afin de ne pas distraire l'attention de l'IA avec des futilités, mais de se concentrer sur le plus important et le plus difficile - les corrélations et autocorrélations multivariées non linéaires.

 

Oui, j'ai compris.

Je suis actuellement en train de peaufiner mon perseptron à deux couches d'auto-apprentissage. Avec un peu de chance, il sera opérationnel aujourd'hui.

 
paralocus писал(а) >>

J'espère qu'il sera opérationnel aujourd'hui.

Ne vous faites pas d'illusions :-)

D'après mon expérience, vous serez prêt à répéter la même chose 20 à 25 fois avant que cela ne fonctionne vraiment.

Raison: