L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3295

 
Maxim Dmitrievsky #:

1. Quel est le rapport avec l'optimisation ?

2. Une contre-question 💩 un réseau neuronal est-il un optimiseur ou un approximateur ?

1. Quel est le rapport entre "ici" et quoi ?

2. ne savez-vous pas encore qu'un réseau neuronal est un approximateur ?

 
Andrey Dik #:

1. À quel endroit ?

2) Ne savez-vous toujours pas qu'un réseau neuronal est un approximateur ?

Apparemment, vous ne le savez pas. Sinon, vous ne vous demanderiez pas quel est le rapport avec l'approximation.

Vous avez introduit votre optimisation dans la discussion pour quelle raison ?

Pouvez-vous comprendre qu'il s'agit de choses différentes ?
 
Andrey Dik #:

Non, ce n'est pas de cela qu'il s'agit.
L' accumulation d'informations hétérogènes ne fait qu'empêcher de trouver des liens, et de nombreuses contradictions apparaissent.
Mais seulement jusqu'à un certain niveau, à un certain niveau, il y a tellement d'informations qu' elles suffisent à former un monolithe, les puzzles manquants commencent eux-mêmes à être reconstitués.

Une analogie peut être donnée à titre d'exemple : si vous polissez la surface plane de deux barres faites de métaux différents, moins il y a de rugosité, mieux les barres glissent l'une sur l'autre. Si vous continuez à polir les surfaces, les barres se colleront l'une à l'autre, les molécules commenceront à pénétrer l'une dans l'autre à partir des deux barres, c'est-à-dire qu'il n'y a pas de réduction supplémentaire des forces de frottement, mais au contraire une croissance qui ressemble à un saut !

C'est probablement contradictoire, mais l'idée est claire.

Je suis d'accord

mais il n'y aura pas de croissance soudaine parce que :

- tout le monde n'est pas assez têtu pour ne pas s'arrêter au développement atteint de l'intelligence.

- des secrets commerciaux et des prix élevés commencent à se former, ce qui réduit l'offre et la demande

Au tout début, votre pensée se trouve sur votre propre graphique : une faible quantité pour une qualité élevée.

Pour une qualité élevée, une quantité excessive d'informations est rejetée.
 
Maxim Dmitrievsky #:
Apparemment, vous ne le savez pas. Sinon, vous ne vous demanderiez pas ce que l'approximation a à voir avec cela.

Dans quel but avez-vous introduit votre optimisation dans la discussion ?

Pouvez-vous vous rendre compte qu'il s'agit de choses différentes ?

J'ai répondu à votre question, pourquoi vous répétez-vous ?

Mon message s'adressait au message de Sanych, qui mentionnait le FF véreux.

Pouvez-vous comprendre cela ?

Et vous ne pouvez pas non plus comprendre que l'apprentissage, quel qu'il soit, n'est pas possible sans optimisation, ce sont des choses inséparables.

 
Andrey Dik #:

J'ai répondu à votre question, pourquoi vous répétez-vous ?

mon post s'adressait à celui de Sanych, qui mentionnait le FF véreux.

Peux-tu comprendre cela ?

et vous ne pouvez pas non plus comprendre que l'apprentissage, sous quelque forme que ce soit, n'est pas possible sans optimisation, ce sont deux choses inséparables.

Il a écrit à juste titre que nous n'avons pas le concept d'extrema. Nous avons des critères d'approximation et de stabilité sur de nouvelles données, qui sont les composantes de l'erreur de modèle.
 
Renat Akhtyamov #:

C'est probablement contradictoire, mais je comprends l'idée.

Je suis d'accord

mais il n'y aura pas de croissance soudaine parce que :

- tout le monde n'est pas assez têtu pour ne pas s'arrêter au développement atteint de l'intelligence.

- des secrets commerciaux et des prix élevés commencent à se former, ce qui réduit l'offre et la demande

Votre pensée se trouve sur votre propre graphique au tout début.

J'ai donné l'exemple des barres polies, il y a un saut dans les forces de friction.

Avec l'information, bien sûr, il n'y aura pas de saut, mais une transition lissée.

 
Maxim Dmitrievsky #:
Il a écrit à juste titre que nous n'avons pas le concept d'extrema. Nous avons des critères d'approximation et de stabilité sur les nouvelles données, qui sont les composantes de l'erreur du modèle.

Améliorez-vous les critères d'approximation et de stabilité de manière itérative ou non ?

Ou est-ce que c'est comme dans le conte de fées, quand un homme riche est resté allongé sur la cuisinière pendant 30 ans et qu'il s'est soudainement levé et est allé botter le cul de tout le monde ? En 10 jours, le lubrifiant dans les articulations immobiles disparaît, donc l'homme riche ne sera pas capable de botter qui que ce soit, mais il ne pourra pas se lever dans 10 jours.

Non, vous le faites de manière itérative, en améliorant les scores, c'est un processus d'optimisation.

 
Andrey Dik #:

l'approximation et les critères de stabilité, améliorez-vous de manière itérative ou non ?

Non, vous le faites de manière itérative, en améliorant les estimations, il s'agit d'un processus d'optimisation.

Qu'est-ce que cela signifie ? Lorsque vous augmentez le degré du polynôme, que se passe-t-il ?
 
Maxim Dmitrievsky #:
Qu'est-ce que cela signifie ?

Avez-vous déjà oublié votre question ?
Il s'ensuit que vous faites toujours de l'optimisation, même si vous pensez ne pas en faire.
vos critères sont des FF que vous améliorez par des méthodes d'optimisation.
 
Andrey Dik #:

Avez-vous oublié votre question ?
il s'ensuit que vous faites toujours de l'optimisation, même si vous pensez ne pas en faire.
Vos critères sont des FF que vous améliorez avec des méthodes d'optimisation.
Je n'ai pas de question. J'ai écrit pourquoi un grand nombre de caractéristiques donne de mauvais résultats dans l'inférence causale.

Vous écrivez des choses qui sont abstraites de cela.
Raison: