L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1747

 
Mihail Marchukajtes:
Qu'est-ce que c'est que ça ?

Qu'est-ce que c'était que ça ?) Heureux qu'ils l'aient ramené))))

 
Je n'ai aucun moyen de comprendre le principe mathématique de la NS.

Ce que je comprends :

1. un échantillon d'entraînement - des blocs isolés de données contenant des représentations modifiées d'un invariant sémantique.

2. Structure du SN - assemblage de couches successives de "neurones", où la première couche accepte les données (et possède le nombre nécessaire de neurones pour cela), et les autres couches sont destinées à généraliser les données traitées dans la première couche et à les amener à l'invariant, opérées par une logique de programme claire.

3. "Neuron" - une fonction qui prend séquentiellement un fragment de données d'échantillon de formation, transforme ce fragment en "poids" et le transmet à la couche suivante.

Je ne comprends pas comment un invariant non évident dans les données est mathématiquement dégagé de la "cosse" par plusieurs couches de filtrage, corrigeant non pas les données elles-mêmes, mais leur "poids".
 
Reg Konow:
J'ai du mal à comprendre le principe mathématique de la NS.

Ce que je comprends :

1. Échantillonnage d'apprentissage - blocs isolés de données contenant des représentations modifiées d'un invariant sémantique.

2. La structure du SN est un assemblage de couches successives de "neurones", où la première couche accepte les données (et possède le nombre nécessaire de neurones pour cela), et les autres couches sont destinées à généraliser les données traitées dans la première couche et à les amener à l'invariant, opérées par une logique de programme claire.

3. "Neuron" est une fonction qui reçoit séquentiellement un fragment de données d'échantillon d'entraînement, transforme ce fragment en "poids" et le transmet à la couche suivante.

Je ne comprends pas comment un invariant non évident dans les données est mathématiquement dégagé de la "balle" par plusieurs couches de filtrage, en corrigeant non pas les données elles-mêmes, mais leurs "poids".

Recherche de la plus haute colline dans les nuages, l'altitude n'est pas visible derrière les nuages. Basse fréquence : trouvez le début des élévations et effectuez des relevés près de celles-ci, là où il n'y a pas d'élévations, n'effectuez pas de relevés. Il est possible de sonder le début d'un terrain élevé et de ne pas sonder de petites zones. Une sorte d'échantillonnage intelligent. Mais dans tous les cas, il s'agit d'un algorithme. En tout cas, la force brute complète avec une très faible probabilité ne perdra pas aux différentes variantes, avec n'importe quelle logique de recherche, à travers et à travers, aux deux extrémités pour commencer, la probabilité de trouver une recherche plus rapide avec la logique de la recherche est plus élevée que dans le séquentiel complet.

 
Reg Konow:
Je ne comprends pas le principe mathématique de la NS.

Vous n'essayez pas de le comprendre - vous essayez de l'inventer.

Pour comprendre les fondements mathématiques de la NS, vous devriez lire la théorie de Kolmogorov - Arnold - Hecht-Nielson.

 
Aleksey Nikolayev:

Vous n'essayez pas de le comprendre - vous essayez de l'inventer.

Pour comprendre les fondements mathématiques de la NS, il faut lire la théorie de Kolmogorov - Arnold - Hecht-Nielson.

Il est rare qu'elle soit expliquée clairement. Et peu de gens sont capables de le comprendre à partir de formules))))).

 
Aleksey Nikolayev:

Vous n'essayez pas de le comprendre - vous essayez de l'inventer...

Dans une certaine mesure, cela est nécessaire. On ne peut vraiment comprendre que ce qui a été créé par soi-même. J'essaie de reproduire l'idée originale du concept NS.
 

par rétropropagation de l'erreur de définition invariante et recherche d'un extremum local ou global de la fonction neuronale par des méthodes d'optimisation newtoniennes ou quasi-newtoniennes, en ajustant différents pas de gradient

C'est plus compréhensible pour Peter

 
Valeriy Yastremskiy:

Cherchez la plus haute colline dans les nuages, aucune élévation n'est visible derrière les nuages. Basse fréquence : trouvez le début de l'élévation et effectuez des relevés à proximité, là où il n'y a pas d'élévation, ne faites pas de relevés. Vous pouvez arpenter le début des hautes altitudes et laisser de côté les petites zones. Une sorte d'échantillonnage intelligent. Mais dans tous les cas, il s'agit d'un algorithme. Dans tous les cas, la recherche complète avec une très faible probabilité ne perdra pas aux différentes variantes, avec n'importe quelle logique de recherche, à travers et à travers, aux deux extrémités pour commencer, la probabilité de trouver une recherche plus rapide dans la recherche avec la logique du désiré est plus élevé que dans le séquentiel complet.

ahahah))))

 
Valeriy Yastremskiy:

Cherchez la plus haute colline dans les nuages, aucune élévation n'est visible derrière les nuages. Basse fréquence : trouvez le début de l'élévation et effectuez des relevés à proximité, là où il n'y a pas d'élévation, ne faites pas de relevés. Il est possible de sonder le début d'un terrain élevé et de ne pas sonder de petites zones. Une sorte d'échantillonnage intelligent. Mais dans tous les cas, il s'agit d'un algorithme. Dans tous les cas, la recherche complète avec une très faible probabilité ne perdra pas les différentes options, avec n'importe quelle logique de recherche, à travers et à travers, aux deux extrémités pour commencer, la probabilité de trouver une recherche plus rapide dans la recherche avec la logique de la volonté plus élevé que dans un séquentiel complet.

Cette explication est plus adaptée à GA, je pense.))
 
Maxim Dmitrievsky:

par rétropropagation de l'erreur de définition invariante et recherche d'un extremum local ou global de la fonction neuronale par des méthodes d'optimisation newtoniennes ou quasi-newtoniennes, en ajustant différents pas de gradient

Ce sera plus clair pour Piotr

Donc, le travail de NS est lié à l'optimisation d'une manière ou d'une autre ?
Raison: