L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2962

 
Maxim Dmitrievsky #:
Cela n'affecte rien globalement.

L'essentiel est d'y croire et de le répéter plus souvent, ou inversement.

 
mytarmailS #:

L'essentiel est d'y croire et de le répéter plus souvent, ou inversement.

Je sais que c'est frustrant quand on a fait quelque chose et qu'on nous dit que ça ne sert à rien dès le départ :)
Montrez au moins quelques coupures pour voir ce qui s'est passé
 
Maxim Dmitrievsky #:
Je sais que c'est frustrant quand on a fait quelque chose et qu'on nous dit que c'était inutile au départ :)
Montrez-moi au moins quelques coupes, ce qu'il y a sur le FFFtit.

Est-ce que je me suis déjà vanté des coupes ?

Je dis qu'il n'y a pas de limites à l'entraînement par FF, mais qu'il y a des limites à l'entraînement par targeting.....

 
mytarmailS #:

Me suis-je déjà vanté de ces réductions ?

Je dis qu'il n'y a pas de limites à l'entraînement avec les FF, mais qu'il y a des limites à l'entraînement avec le ciblage.

J'essaie simplement d'être pratique, pour faire un graal, par exemple.
 
mytarmailS #:

Me suis-je déjà vanté de ces réductions ?

Je dis qu'il n'y a pas de restrictions à la formation par le biais de la FF, mais qu'il y a des restrictions à la formation par ciblage.

C'est vous qui avez commencé à discuter avec moi et Fomenko l'a compris).

Avez-vous changé d'avis ?

 
Maxim Dmitrievsky #:
J'essaie simplement d'avancer dans une direction pratique, pour fabriquer un graal, par exemple.

Il suffit de considérer le concept de FF sous un angle différent. minimiser l'erreur est également un FF.

En fait, le choix de la FF n'est pas moins important que le choix des données d'entraînement. Le FF doit tenir compte de ce que le modèle doit faire et de ce qu'il ne doit pas faire, c'est-à-dire maximiser les actions de CT nécessaires et minimiser les actions de CT inutiles.

 
Andrey Dik #:

Vous avez été le premier à argumenter avec moi, et Fomenko l'a compris...)

Mais vous avez changé d'avis ?

J'étais donc en train d'argumenter avec vous que les FF ne valaient pas mieux que les cibles ?

D'où cela vient-il ?

Ça sent la connerie à plein nez.

 
mytarmailS #:

Je suis donc en train de vous faire valoir que les FF ne sont pas meilleurs que les cibles ?

Où était-ce ?

Ça sent la connerie à plein nez.

J'ai dit à l'origine que tout l'apprentissage consistait à maximiser la FF.

Vous et Fomenko avez soutenu qu'une telle approche conduirait au surentraînement - en même temps, j'ai dit que la FF n'était pas correctement conçue si le surentraînement se produisait.

Je ne vois pas ce que vous voulez dire).

Je vois que vous avez abandonné l'habitude de "titiller" les étrangers, c'est déjà bien.

 
Andrey Dik #:

J'ai dit à l'origine que tout apprentissage consistait à maximiser le FF.

Vous et Fomenko avez soutenu qu'une telle approche conduirait au surentraînement - en même temps, j'ai dit que la FF n'était pas correctement conçue si le surentraînement se produisait.

Je ne sais pas ce que vous pensez.))

Je vois que vous avez abandonné l'habitude de "titiller" les étrangers, c'est déjà bien.

Je suis sûr qu'il y a longtemps, la conversation était un peu différente, et maintenant en général tout à fait différente et différente ....


Oui, après le réveillon, j'ai décidé de m'adresser à tout le monde en disant "vous".

 
Andrey Dik #:

Il suffit d'envisager le concept de FF sous un angle différent. minimiser l'erreur est également un FF.

En fait, le choix de la FF n'est pas moins important que le choix des données d'entraînement. Le FF doit prendre en compte ce que le modèle doit faire et ce qu'il ne doit pas faire, c'est-à-dire maximiser les actions de CT nécessaires et minimiser les actions de CT inutiles.

La seule option que je vois est de l'optimiser en dehors du stage, sur le test, et d'entraîner le MO sur le stage. Cela a encore un certain sens en termes d'extraction de quelque chose de commun à partir de différentes périodes historiques