L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2559

 
mytarmailS #:

Vous cherchez la route vers l'asile de fous ? :)

Le problème, c'est que ce n'est pas moi qui propose toutes ces définitions, et je ne peux donc que m'adresser à Google pour obtenir des informations plus précises. Je peux trouver un lien vers cet article plus tard. Mais il s'agit de l'analyse de l'entropie des séries, stationnaires et non stationnaires.
 
Maxim Dmitrievsky #:
Le problème est que je n'arrive pas à trouver toutes ces définitions, je ne peux donc que chercher sur Google des informations plus précises. Je peux trouver un lien vers cet article plus tard.

Eh bien, c'est ce qui est drôle...

Vous avez dit "régularité". Je ne sais pas ce que c'est, donc je ne t'ai pas demandé et j'ai cherché sur Google et il s'avère que ce n'est pas ce que tu voulais dire. Si je n'avais pas compris cela, nous utiliserions aujourd'hui le même concept (régularité) impliquant des choses différentes, et nous n'arriverions donc jamais à comprendre...

Et tout ça à cause d'un idiot pseudo-scientifique...

 
mytarmailS #:

J'aimerais entraîner le SMM, mais d'une manière inhabituelle, par le biais d'une fonction de fitness, génétique ou autre...

Je veux faire des matrices de transition d'état moi-même... Il y a un paquet, il y a ces matrices, mais quoi et où changer je ne comprends pas vraiment, pouvez-vous m'aider ?

La fonction de fitness dans les HMM est le logarithme de la vraisemblance. Si vous inventez un f. f. personnalisé, c'est déjà une autre méthode.

 
Aleksey Nikolayev #:

Dans les HMM, la fonction de fitness est le logarithme de la vraisemblance. Si vous créez un F.F. personnalisé, c'est déjà une autre méthode.

Alors, qu'est-ce qui doit être optimisé ?

fit <- HMMFit(x , nStates = 3)
> fit

Call:
----
HMMFit(obs = x, nStates = 3)

Model:
------
3 states HMM with 5-d gaussian distribution

Baum-Welch algorithm status:
----------------------------
Number of iterations : 60
Last relative variation of LLH function: 0.000001

Estimation:
-----------

Initial probabilities:
           Pi 1         Pi 2 Pi 3
  2.636352 e-255 2.770966 e-50    1

Transition matrix:
          State 1    State 2    State 3
State 1 0.1864987 0.76046799 0.05303333
State 2 0.2539474 0.60377350 0.14227910
State 3 0.6191488 0.07157308 0.30927815

Conditionnal distribution parameters:

Distribution parameters:
  State 1
           mean  cov matrix                                               
      0.4752939  0.97587370  0.02993559 -0.21805741  0.25639651  0.1567241
     -0.5686039  0.02993559  0.85342747  0.43374921  0.18220534 -0.2149688
      0.3739333 -0.21805741  0.43374921  0.58127533 -0.01600787 -0.2097350
     -0.3833589  0.25639651  0.18220534 -0.01600787  1.13979299 -0.3723484
     -0.5871168  0.15672407 -0.21496881 -0.20973503 -0.37234835  1.0462750

  State 2
            mean  cov matrix                                               
      0.07949112  1.14644170  0.21413163 -0.05544488 -0.02902406 0.04179052
      0.15306029  0.21413163  0.84865045 -0.19661403 -0.12397740 0.01617397
     -0.03560680 -0.05544488 -0.19661403  1.25872915  0.15638695 0.03917204
      0.07304988 -0.02902406 -0.12397740  0.15638695  0.70073838 0.02934227
      0.35500064  0.04179052  0.01617397  0.03917204  0.02934227 0.65031019

  State 3
           mean  cov matrix                                              
     -0.5093426  0.60603137 -0.21462708  0.06322606  0.27231407 0.1076386
      0.1526545 -0.21462708  0.56847783 -0.06347737 -0.15941211 0.2161427
     -1.0672876  0.06322606 -0.06347737  0.17662599  0.08658292 0.1981628
      0.7778853  0.27231407 -0.15941211  0.08658292  1.17497274 0.4802186
     -0.2541008  0.10763858  0.21614270  0.19816276  0.48021858 0.7488420


Log-likelihood: -1379.07
BIC criterium: 3118.43
AIC criterium: 2894.14

voici un modèle pour trois états

 
mytarmailS #:

Eh bien, c'est ce qui est drôle...

Vous avez dit "régularité". Je ne sais pas ce que c'est, donc je ne t'ai pas demandé et j'ai cherché sur Google et il s'avère que ce n'est pas ce que tu voulais dire. Si je n'avais pas compris cela, nous utiliserions aujourd'hui le même concept (régularité) impliquant des choses différentes, et nous n'arriverions donc jamais à comprendre...

Et tout ça à cause d'un idiot pseudo-scientifique...

La morale de cette pseudo-science est que stationnarité ne signifie pas prévisibilité, et vice versa :D Les marchés sont imprévisibles parce qu'ils ne sont pas stationnaires. Et ils ne sont pas instables parce qu'ils sont imprévisibles. C'est ça, je suis fatigué.
 
Maxim Dmitrievsky #:
Tout le monde, je suis fatigué

Moi aussi)

 
mytarmailS #:

Alors, qu'est-ce qui doit être optimisé ?

Voici un modèle à trois états.

Tout est donc déjà optimisé par l'algorithme de Baum-Welch. La valeur optimale du logarithme de la vraisemblance est écrite ci-dessous. Les paramètres (matrice de transition et autres) sont calculés.

 
Au fait, le terme "régularisation" est également utilisé pour décrire les régressions en peigne et au lasso). Dans ce cas, il s'agit de comprimer les coefficients à zéro afin de réduire la variance du modèle.
 
Aleksey Nikolayev #:

Tout est donc déjà optimisé au moyen de l'algorithme de Baum-Welch. La valeur optimale du logarithme de vraisemblance est écrite ci-dessous. Les paramètres (matrice de transition et autres) sont calculés.

Il s'agit simplement d'un modèle entraîné à trois états, et je veux un modèle qui sera entraîné de manière à ce que ma fonction de fitness soit heureuse.

Imaginez que j'entraîne la neuronique et que je modifie son poids par la génétique et que je regarde sa forme.

J'aimerais faire la même chose avec le SMM, mais je changerais sa matrice de transition.


Mais ce qu'il faut changer avec les poids du neurone est clair, et pas tellement avec celui-ci.

 
mytarmailS #:

Il s'agit d'un modèle formé dans les trois états, et je veux un modèle qui sera formé de manière à ce que ma fonction de fitness soit satisfaite.

Imaginez que j'entraîne un neurone, que je modifie ses poids avec la génétique et que j'examine son aptitude.

J'aimerais faire la même chose avec le SMM, mais je changerais sa matrice de transition.


Mais avec les poids du neurone, on sait ce qu'il faut changer, et ici pas tellement.

Je comprends ce dont j'ai besoin, je dois être capable de définir un FF personnalisé. Mais cette fonction HMMFit() ne supporte pas cette possibilité, parce qu'elle implémente un Baum-Welch avec un LLH rigidement cousu dedans. Vous ne pouvez définir que certains paramètres Baum-Welch

Vous avez besoin d'un autre paquet où vous pouvez spécifier une phrase personnalisée.

Raison: