Utilisation des réseaux neuronaux dans le trading - page 33

 
Roman.:


Beau - beau.

Dans l'armée, un de mes camarades avait cette inscription tatouée sur son épaule... :-)

Je pense que le sujet n'est pas couvert, du moins en ce qui concerne l'organisation et la préparation des données d'entrée au réseau...

Je suis d'accord. Mes messages sont hors sujet. Si vous voulez bien m'excuser.
 
EconModel:

Nous devons définir l'objet avec lequel nous travaillons. Où les spécialistes des réseaux neuronaux trouvent-ils cette définition ? Avec quoi travaillent-ils ? Couches, perceptrons ?


Pourquoi les réseaux neuronaux ont-ils besoin de couches ou de perceptrons ? Laissez les développeurs de réseaux neuronaux s'en occuper.

Pour un spécialiste des réseaux neuronaux, un réseau neuronal est une boîte noire.

Tout ce dont un ingénieur en réseaux neuronaux doit disposer pour définir les tâches : des valeurs sur les entrées et des valeurs sur les sorties - un échantillon qui se divise en deux parties : la formation et le test (forward test). En conséquence, la tâche consiste à s'assurer que les valeurs des entrées avec une probabilité maximale coïncident avec les valeurs des sorties du réseau neuronal dans l'échantillon de test après l'avoir formé sur l'échantillon de formation.

 
EconModel:

Vous devez commencer ici. Commencez par un simple.

Série stationnaire = Mo et la variance est une constante. Avec ARCH, non seulement la variance n'est pas constante, mais elle dépend aussi des valeurs précédentes.

Lors de l'élaboration des modèles, il est obligatoire de vérifier la présence d'un résidu ARCH dans les modèles, car la MOC ne peut pas être appliquée en présence d'ARCH.

Commencez à partir d'ici - cela ne pourrait pas être plus simple.

Ne me demandez pas - tout cela a été expliqué sur ce forum il y a longtemps.

 
EconModel:

Les modèles sont enseignés pendant 18 heures et acceptés pour le crédit, la question principale étant : comprenez-vous que les modèles ne doivent pas être utilisés dans le trading ?

Ceci étant dit, je dirais que votre professeur était pour le moins un peu à côté de la plaque.
Je ne suis pas sarcastique, j'étais aussi un étudiant. Je suis curieux, après quelle réponse le crédit a-t-il été accordé ?

 
Alexey_74:

Ceci étant dit, je dirais que votre professeur était, pour le moins, un peu hors sujet.
Je ne suis pas sarcastique, j'étais aussi un étudiant. Je suis curieux, après quelle réponse le crédit a-t-il été accordé ?

Je suis désolé, les étudiants ont toutes sortes de spécialités. L'AT est enseigné en une quinzaine de jours à n'importe qui à DC, alors que l'économétrie prend 5 ans et tout le monde n'en veut pas.

Je le répète : en AT, il n'est pas du tout question de la probabilité que la prévision se réalise. Nous croyons simplement, nous fuyons et nous ne comprenons pas pourquoi. En économétrie, la question de la confiance dans les résultats de la modélisation est le principal problème. Comme dans la vie.

 
Reshetov:

Pourquoi les réseaux neuronaux ont-ils besoin de couches ou de perceptrons ? Laissez les développeurs de réseaux neuronaux s'en occuper.

Pour un concepteur de réseau neuronal, un réseau neuronal est une boîte noire.

Tout ce dont un ingénieur en réseaux neuronaux doit disposer pour définir les tâches : des valeurs sur les entrées et des valeurs sur les sorties - un échantillon qui se divise en deux parties : la formation et le test (forward test). En conséquence, la tâche consiste à s'assurer que les valeurs des entrées avec une probabilité maximale coïncident avec les valeurs des sorties du réseau neuronal dans l'échantillon de test après l'avoir formé sur l'échantillon de formation.


Cher Yuri, je voudrais te demander de ne pas utiliser une telle déclaration dans un sens général (je veux dire à propos de tous les spécialistes des réseaux neuronaux). Vous voyez, les spécialistes des réseaux neuronaux (au sens général) s'inquiètent souvent du nombre de couches cachées, et aussi périodiquement du nombre de neurones dans ces couches cachées. Et parfois, le choix de la fonction d'activation pose également des difficultés. Et parfois, il faut aussi choisir une méthode de descente de gradient. Je ne suis pas du tout offensé, pas du tout. Mais quand même, vous avez trop simplifié la situation.
 
EconModel:
D'accord. Mes messages sont hors sujet. Si vous voulez bien m'excuser.

C'est bon. Parler...
 
Alexey_74:

Et parfois, l'architecture du réseau peut également être différente.
 
EconModel:

Désolé, les étudiants ont toutes sortes de spécialisations. L'AT est enseignée en une quinzaine de jours à tout le monde à DC, alors que l'économétrie est enseignée pendant 5 ans et pas à tout le monde.

Je le répète : en AT, la question de la probabilité d'exécution des prévisions n'est pas du tout posée. Nous croyons simplement, nous fuyons et nous ne comprenons pas pourquoi. En économétrie, la question de la confiance dans les résultats de la modélisation est le principal problème. Comme dans la vie.


Je ne discute pas. L'économétrie, c'est vous, pas moi. Je n'ai que trois ans de mathématiques à mon actif dans un département non mathématique. Et il n'a jamais été exigé que le TA ait un "intervalle de confiance". L'AT indique (montre au trader) l'occurrence d'une situation, après laquelle un événement se produira avec un haut degré de probabilité. En règle générale, d'un côté ou de l'autre. En d'autres termes, la prévision de l'événement et uniquement de l'événement. Et où exactement est le but de l'AT n'a jamais été, à de rares exceptions près. Le plus souvent, c'est "là où ça souffle, c'est là qu'on négocie".

EconMod, j'ai jeté le drapeau blanc. J'étais fatigué de fonctionner dans ce mode. La vérité a cessé d'essayer de placer un mot il y a environ 7 pages. Pisser pour le plaisir de pisser, c'est pas mon truc. Je suis silencieux depuis que je suis enfant.

 
Alexey_74:

Non, bien sûr, je ne fais pas de reconnaissance de texte. Il n'y a aucun intérêt à apprendre les cinq lettres...

Merci, j'essaie aussi d'être constructif. Et je pensais que nous parlions de choses différentes. Dans ma complainte sur les difficultés de classification, je voulais dire ce qui suit.

Prenons le cas classique - l'avion. Selon cette théorie, les données (dans le cas de l'avion) doivent être linéairement séparables pour produire une classification réussie.

(désolé, je n'avais pas de belles photos, j'ai dû faire quelques images rapides dans Excel).

Supposons que nous prenions des données avec 2 paramètres X et Y (le plan...). Nous les avons attachés à des vecteurs unitaires et avons obtenu l'image suivante. Nous voyons 5 zones bien distinctes. Tout SOM peut gérer la classification à la fois et la classification ne sera qu'une classification. Toute nouvelle donnée sera classée dans l'une de ces catégories. Les propriétés de chaque classe nous sont connues. Ainsi, en découvrant simplement à quelle classe appartiennent les nouvelles données, nous savons immédiatement tout sur elles. Avec tout ce que cela implique...

Malheureusement, les cas classiques et les cas pratiques, comme on dit à Odessa, sont deux grandes différences.

Dans le cas pratique, nous avons déchargé les données et obtenu une image comme celle-ci. La classification est certainement possible dans ce cas aussi, mais elle n'a aucune valeur pratique. Nous pouvons spécifier les 5 mêmes classes et SOM les "dessinera" honnêtement, en répartissant simplement les centres des clusters de manière égale. La donnée nouvellement arrivée va aller quelque part. Mais ce "quelque part" n'a plus aucun sens. Toutes les données, ainsi que leurs propriétés, sont uniformément dispersées (pêle-mêle) sur le plan. Si nous croyons à une telle classification et que nous attribuons une nouvelle donnée à l'une des classes, nous ne faisons que nous tromper.

C'est le cœur du problème, et ce que je voulais dire dans mon message. Ainsi, quelle que soit la manière dont j'abordais le problème, je n'ai jamais réussi à obtenir des données présentant une séparabilité claire. Donc, soit il n'y a pas de séparabilité du tout, alors n'essayez même pas. Ou je n'ai pas assez de traction. Mère Nature m'a doté d'une certaine autocritique, alors je penche pour la deuxième option. C'est pourquoi je consulte plusieurs camarades. Une fois que vous avez une classification claire, vous pouvez alors travailler avec une grille de probabilité et la logique floue.

Prenons le cas classique - l'avion. Cette théorie stipule que pour produire une classification réussie, les données (dans le cas de l'avion) doivent être linéairement séparables.

L'avion est un exemple classique, pas un cas classique. Et cette simple séparabilité est utilisée dans ces exemples uniquement pour illustrer l'idée.

Il est nécessaire d'augmenter progressivement la dimensionnalité du vecteur de caractéristiques afin de construire une classification pratiquement acceptable. Dans ce cas, la séparation des classes devra être non linéaire.

Raison: