Réseau neuronal sous forme de script - page 10

 

Veuillez décrire la notation de la formule S[j] = Sum(i)(y[i]*w[i,j] - t[j]). Comme je le comprends :

t[j] est le poids du seuil (il est multiplié par un signal égal à -1)

y[i]*w[i,j] - l'entrée multipliée par son poids

S[j] - le résultat avant l'application de la fonction logistique

Qu'est-ce que Sum(i) ?

 
sergeev писал (а) >>

Veuillez décrire la notation de la formule S[j] = Sum(i)(y[i]*w[i,j] - t[j]). Comme je le comprends :

t[j] est le poids du seuil (il est multiplié par un signal égal à -1)

y[i]*w[i,j] - entrée multipliée par son poids

S[j] - le résultat avant l'application de la fonction logistique

Qu'est-ce que Sum(i) ?

Sum[i] est la somme sur i. Je ne sais pas comment écrire les formules ici.


t[j] - valeur seuil du neurone

y[i]*w[i,j] - la sortie de la couche multipliée par le poids de liaison

S[j] est la somme pondérée avant l'application de la fonction logistique.

 
TheXpert писал (а) >>

Sum[i] est la somme sur i. Je ne peux pas écrire de formules ici.

C'est en gros ce que j'ai immédiatement pensé être le montant.

--------------

L'intérêt est que le seuil n'est pas ajouté à chaque valeur d'entrée mais à la fin de la somme totale avant qu'elle ne soit introduite dans la sigmoïde. C'est-à-dire qu'il s'agit du seuil pour la sortie dans son ensemble et non pour chaque entrée individuellement.

La formule est la suivante :

S[j]=Somme{y[i]*w[i,j]} - t[j].

C'est comme celui de Yuri.

for(i=0;i<NUM_INP;i++) // входной слой
    { 
        sum=0;
        for(j=0;j<NUM_INP;j++) sum+=ipl_W[i,j]*Input[j];
        ipl_Out[i]=Sigmoid(sum+ipl_Threshold[i]);
    }

et en principe je suis d'accord avec elle, car j'ai vu une telle notation dans la littérature.

 
sergeev писал (а) >>

C'est en gros ce que j'ai immédiatement pensé être le montant.

--------------

Le point est que le seuil n'est pas ajouté à chaque valeur d'entrée mais à la fin de la somme totale avant qu'elle ne soit introduite dans la sigmoïde.

La formule est donc

S[j]=Somme{y[i]*w[i,j]} - t[j].

C'est comme ça que Yuri le fait.

et en principe je suis d'accord avec elle, car j'ai vu une telle notation dans la littérature.



Ugh, bien sûr que tu as raison, j'ai mal mis les parenthèses.

 

2 LeXpert

J'ai cru comprendre, d'après vos messages, que vous êtes un expert en NS. Pourriez-vous conseiller à un débutant où commencer à analyser en NS pour se familiariser avec son fonctionnement ?

Et est-ce une bonne chose d'utiliser le retour d'information dans les réseaux ? Quelle a été son efficacité dans votre pratique ?

 
sergeev писал (а) >>

2 LeXpert

D'après vos messages, je crois comprendre que vous êtes un expert en NS. Pourriez-vous conseiller à un débutant où commencer l'analyse en NS pour se familiariser avec le principe de son fonctionnement...

Et l'utilisation des réseaux de rétroaction est-elle également une bonne chose. Quelle a été son efficacité dans votre pratique ?


Honnêtement, je ne sais même pas quoi dire. Nous avons eu 2 cours sur les NS à l'université, nous avons commencé par les bases : modèle de neurones de base, classification des réseaux, méthodes d'entraînement, etc., puis perseptron, linéaire et non linéaire, puis Kohonen, Hopfield, Hemming, réseaux récurrents, récurrents.....



À propos des réseaux récurrents - non utilisés dans la pratique, IMHO, leur avantage et simultanément leur inconvénient est qu'ils dépendent de leurs états précédents, c'est-à-dire que par définition ils sont adaptés à l'échange.

Mais, encore une fois, IMHO, je pense que des résultats similaires peuvent être obtenus par un perseptron sans feedback s'il est entraîné en utilisant le principe de la fenêtre glissante. Il y a aussi un avantage à cela, la méthode de la fenêtre glissante nous permet d'évaluer la robustesse/stochasticité (voir la théorie du chaos) de la prévision obtenue avec peu de sang, ce qui peut être d'une grande aide lorsque le marché est très volatile et le résultat imprévisible.

 
Quelle est la dépendance de la dimensionnalité et de la "stratification" du réseau par rapport au nombre de motifs ?
 
Andy_Kon писал (а) >>
Quelle est la dépendance de la dimensionnalité et de la "stratification" du réseau par rapport au nombre de motifs ?

Simon Heikin, dans son livre Neural Networks à la page 282, donne un théorème sur l'universalité des NS avec UNE couche cachée. Voici l'implication :

Et je ne comprends pas le sens que vous donnez à l'expression "dimension réseau". Est-ce le nombre de neurones dans les couches cachées ou le nombre d'entrées dans les NS ?

S'il s'agit du nombre d'entrées, le produit du nombre d'entrées par la taille de l'échantillon de formation (nombre de modèles) doit être égal au carré des poids NS.

S'il s'agit du nombre de neurones dans les couches cachées, leur nombre est déterminé par la complexité du problème et est trouvé expérimentalement.

 

la dimensionnalité et la "stratification".

1. La dimensionnalité est le nombre de neurones dans la ou les couches.

2. "Layering" est le nombre de couches.

3 De là découle la question suivante, le changement de neurones dans les couches, de couche en couche ?

4. Nombre de cycles d'apprentissage à partir du nombre de couches, de la dimensionnalité et du nombre de patrons (paternels) - (de manière optimale) ?
 

Qu'est-ce que le "changement de neurones dans les couches", s'agit-il d'un processus de modification des poids synaptiques du ou des neurones pendant l'apprentissage du SN, ou de la recherche de l'architecture optimale du SN par un changement progressif du nombre de neurones dans les couches pendant l'optimisation ?

Le nombre de cycles d'apprentissage est défini par l'obtention d'un minimum d'erreur de généralisation et n'est pas directement lié au nombre de couches (et autres), bien qu'il dépende faiblement et non linéairement du nombre de neurones et du nombre de couches. Elle dépend de la "rugosité" de la surface multidimensionnelle des caractéristiques que le NS construit pour trouver son minimum global. Si le réseau fonctionne correctement, 50 à 100 époques d'entraînement par la méthode de la propagation d'erreurs à rebours sont suffisantes. Cependant, il faudra beaucoup d'efforts pour y parvenir.

Raison: