L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2814

 
Maxim Dmitrievsky #:
A bien y réfléchir
mytarmailS #:
Vous ne pouvez pas, c'est différent...

Hmm prédit dans quel groupe vous vous trouvez actuellement, Clustering montre dans quel groupe vous vous trouviez, post factum.
En d'autres termes.

J'ai réfléchi, j'ai essayé, j'ai expérimenté, j'ai écrit du code...

 
mytarmailS #:

J'ai réfléchi, j'ai essayé, j'ai expérimenté, j'ai écrit du code...

Vous pensez donc que le clustering ne fonctionne pas sur de nouvelles données ? C'est absurde !)

Et si vous pensez que hmm peut être considéré comme un algorithme de clustering.
 
Maxim Dmitrievsky #:
Vous pensez donc que le clustering ne fonctionne pas avec de nouvelles données ? C'est absurde !)

vous ne comprenez pas...

Il y a un groupe/état.

Il a un début et une fin, disons 5 bougies.


Grâce à la klsterisation, vous connaîtrez le numéro de cette grappe à la cinquième bougie (lorsque le prototype de la grappe est comparé à l'état actuel).

Grâce à hmm, vous connaîtrez le numéro de la grappe/de l'état à la première bougie (ou plutôt la probabilité).

 
mytarmailS #:

vous ne comprenez pas.

il y a un groupe/état

Il a un début et une fin, disons 5 bougies.


Grâce à la klsterisation, vous connaîtrez le numéro de cette grappe à la cinquième bougie (lorsque le prototype de la grappe est comparé à l'état actuel).

Grâce à hmm, vous connaîtrez le numéro de la grappe/de l'état à la première bougie (ou plutôt la probabilité).

Vous connaîtrez le numéro de la grappe sur les données actuelles dans les deux cas, sans décalage.

Hmm est le même algorithme de clustering pour les séquences. Rien d'exceptionnel.
 
Maxim Dmitrievsky #:
Dans les deux cas, vous connaîtrez le numéro de la grappe sur les données actuelles, sans aucun décalage.

Non.

Le regroupement est une reconnaissance.

Il s'agit de prédire l'état dans lequel vous vous trouvez en ce moment.


Supposons que nous ayons deux états, avec ou sans épaules.


C'est ainsi que fonctionne le regroupement - en le comparant à un prototype de regroupement.


En d'autres termes, nous apprenons l'état de la grappe après coup, lorsque la comparaison avec le prototype a eu lieu.

=================

Et le modèle HMM nous donnera la probabilité que nous nous trouvions dans l'état du GP.


 
mytarmailS #:

Non.

Le regroupement est une reconnaissance.

Hmm, c'est prédire dans quel état vous vous trouvez en ce moment.

Arrêtez ça.)
 
Maxim Dmitrievsky #:
Arrêtez ça !)

Vous aussi...

Si l'algorithme de Viterbi du HMM peut produire quelque chose comme un clustering 111222444111111.....

et que quelqu'un a écrit qu'il pouvait être utilisé comme cluster, cela ne signifie pas qu'il s'agit d'un clustering.

 
mytarmailS #:

Vous aussi.

si l'algorithme de Viterbi du HMM peut produire quelque chose comme le cluster 111222444111111....

et que quelqu'un a écrit qu'il pouvait être utilisé comme un cluster, cela ne signifie pas qu'il s'agit d'un cluster.

Quel que soit le nombre d'états cachés que vous définissez, vous obtenez autant de clusters. C'est la même chose. D'accord, d'accord, je n'aime pas mâcher le travail.

Ce qui compte, c'est la séparation pour la formation de différents modèles, quel que soit le principe. Dans tous les cas, la moyenne des incréments affectera le nombre de grappes, c'est ce dont vous avez besoin.
 
Maxim Dmitrievsky #:
Autant d'états cachés que vous définissez, vous obtenez autant de clusters. C'est la même chose.

Quel est le rapport ?

Pour la dernière fois.

avec le clustering, on obtient le numéro de cluster à la fin du cluster.

Avec SMM, on obtient le numéro de la grappe au début de la grappe.

 
mytarmailS #:

Quel est le rapport ?

Pour la dernière fois.

Lors d'un regroupement, vous obtenez le numéro du regroupement à la fin de celui-ci.

Avec SMM, vous obtenez le numéro de la grappe au début de la grappe.

Non, vous délirez.
Raison: