L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3297

 
Andrey Dik #:

vous n'avez pas écrit sur l'optimisation, pourquoi fouinez-vous alors ?
Je ne vous ai pas écrit.
Et puis, l'apprentissage est un cas particulier d'optimisation, souvenez-vous-en enfin.
Sanych a tout écrit correctement. Tout a commencé avec mon message. Tu t'es trompé de débris.

Il s'est avéré qu'il s'agissait d'écrire à propos de rien.
 
Andrey Dik #:
Je ne peux pas m'empêcher de partager cette nouvelle stupéfiante (si précise pour moi) : un algorithme encore plus puissant que le SSG a été trouvé.

C'est une bonne chose.

 
La formation est bien sûr un concept plus large que l'optimisation. Et elle utilise ses propres critères d'évaluation.

Le sujet s'appelle : MOE.
 
Maxim Dmitrievsky #:
Vous confondez les entités. Vous essayez d'adapter l'optimisation à l'approximation, ou vice versa.

L'approximation et l'optimisation sont des approches différentes pour résoudre les problèmes d'apprentissage automatique.

Si j'ai bien compris, l'approximation dans l'algo-trading est la création du TS lui-même. Je veux que martin soit créé, je veux que scalper soit créé, je veux que patterns soit créé, etc. Vous pouvez faire en sorte que les méthodes MO créent quelque chose.

Et l'optimisation - l'ajustement/l'étude du TS déjà créé.

Puisque, contrairement à l'homme, la MO est également impliquée dans la création des CT par le biais du calculateur de nombres, nous pouvons combiner l'approximation et l'optimisation. Vous avez bien compris ?

 
fxsaber #:

Si j'ai bien compris, dans l'algo-trading, l'approximation est la création du TS lui-même. Je veux que Martin soit créé, je veux que Scalper soit créé, je veux que des modèles soient créés, etc. Vous pouvez donner des instructions aux méthodes MO pour créer quelque chose.

Et l'optimisation consiste à régler/étudier le TS déjà créé.

Puisque, contrairement à l'homme, la MO est également impliquée dans la création des CT par le biais du calculateur de nombres, nous pouvons combiner l'approximation et l'optimisation. Est-ce exact ?

Exactement
 
L'approximation par un polynôme de degré élevé conduit à un surentraînement. La variance de l'erreur diminue, mais le biais sur les nouvelles données augmente. C'est la même chose que d'ajouter un grand nombre de caractéristiques. Et juste les bases.
Vous ne pouvez pas accorder un modèle recyclé, il ne se généralise pas bien. On ne peut pas faire d'inférence kozul parce qu'il n'y a pas de comparaisons entre les échantillons de test et de contrôle. Le modèle est erroné partout sur l'échantillon test, il est impossible de dériver une correction. Il est plus facile de rejeter le modèle.
 
Maxim Dmitrievsky #:
Exactement

Il est intéressant de noter qu'en termes de quantité de données (citations), un cerveau humain (en tant que réseau neuronal) comparé à un MO est comme un infusoire comparé à un humain.

Cependant, les humains primitifs ont prouvé qu'ils pouvaient créer d'assez bons CT fonctionnels. Il s'avère qu'il n'est pas nécessaire de disposer d'une quantité énorme de données pour créer un CT opérationnel.

Je ne sais pas comment, par exemple, l'homme est parvenu à créer des modèles de scalper fonctionnels. Cela s'est fait presque entièrement sans calculateurs de chiffres.


Le scénario a dû être à peu près le suivant :

  1. Je vois souvent une sorte d'aplatissement (stupidement sur l'écran pendant quelques jours).
  2. Je vais essayer de gagner de l'argent avec un TS primitif.
  3. Elle ne draine pas grand-chose. Je devrais affiner un peu le TS. J'ai regardé l'historique des transactions - il semble que quelque chose puisse être amélioré.
  4. Il a commencé à augmenter un peu. Je répète le point 3.
Je n'ai pas fait de calcul. J'ai juste regardé le point 1 et j'ai commencé à le faire. La probabilité de cette approche semble nulle, mais d'une manière ou d'une autre, elle fonctionne. C'est une sorte de méthode qui fonctionne.


Apparemment, le cerveau humain est encore capable, de manière inconsciente, de trouver des "modèles" à partir d'un nombre extrêmement réduit de données. On ne peut pas parler de chance. C'est un mystère.

 
fxsaber #:

Il est intéressant de noter qu'en termes de quantité de données (citations), le cerveau humain (en tant que réseau neuronal) comparé à la MO est comme une infusoire par rapport à un humain.

Cependant, les humains primitifs ont prouvé qu'ils pouvaient créer d'assez bons CT fonctionnels. Il s'avère qu'il n'est pas nécessaire de disposer d'une énorme quantité de données pour créer un CT opérationnel.

Je ne sais pas comment, par exemple, l'homme est parvenu à créer des modèles de scalper fonctionnels. Cela s'est fait presque entièrement sans calculateurs de chiffres.


Le scénario était apparemment à peu près le suivant :

  1. Je vois souvent une sorte d'aplatissement (j'ai bêtement broyé sur l'écran pendant quelques jours).
  2. Je vais essayer de gagner de l'argent dessus avec un TS primitif.
  3. Il ne draine pas grand-chose. Je devrais affiner un peu le TS. J'ai regardé l'historique des transactions - il semble que quelque chose puisse être amélioré.
  4. Il a commencé à augmenter un peu. Je répète le point 3.
Pas de calculateur. J'ai simplement regardé le point 1 et j'ai commencé à le faire. La probabilité de cette approche semble être à peu près nulle, mais d'une manière ou d'une autre, elle fonctionne. Il s'agit d'une sorte de méthode d'apprentissage à la folie qui fonctionne.
Apprentissage en une seule fois. Lorsqu'un grand NS pré-entraîné (cerveau) est pré-entraîné sur des données de gauche avec seulement quelques exemples. Si le modèle a initialement appris les lois du monde, il peut facilement cliquer sur une nouvelle tâche d'un simple coup d'œil.

C'est ainsi que les grands modèles de langage, en particulier, sont préappris pour de nouvelles tâches. Mais si vous le forcez à apprendre ces nouveaux exemples pendant une longue période, il commencera à oublier son expérience antérieure et deviendra partial vis-à-vis des nouvelles données.
 
fxsaber #:

Il est intéressant de noter qu'en termes de quantité de données (citations), le cerveau humain (en tant que réseau neuronal) comparé à la MO est comme une infusoire par rapport à un humain.

150 milliards de neurones, et pas une sortie chacun, mais beaucoup. L'IA n'atteindra pas un tel niveau de sitôt ou jamais.
Le niveau d'intelligence des SN est comparable à celui d'un cafard - courir, mordre - s'enfuir.

 
Maxim Dmitrievsky #:
Apprentissage en une seule fois. Lorsqu'un grand NS préformé (cerveau) est préformé sur des données de gauche avec seulement quelques exemples. Si le modèle a initialement appris les lois du monde, il peut facilement cliquer sur une nouvelle tâche d'un simple coup d'œil.

Ici, vous avez vous-même montré qu'un cerveau pré-entraîné avec des données de gauche résout des problèmes spécifiques qu'il ne connaissait pas auparavant. et vous dites qu'une "connaissance" supplémentaire n'est pas nécessaire.

Raison: