L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 563

 
Maxim Dmitrievsky:

Ouf... j'ai lu tout le fil de discussion depuis le début jusqu'à mon apparition... maintenant j'ai tout vu

mais pas de graal ici...dommage, je vais continuer à creuser alors

C'est la bonne décision. La théorie des NS, ici sur le forum, est loin d'être idéale.
 
Alexander_K2:
C'est une solution correcte. La théorie des NS, ici sur le forum, est loin d'être idéale.

La seule chose que j'ai écrite concernait le classificateur ternaire et la résolution du mystère deYuriy Asaulenko.

 
Alexander_K2:
C'est la bonne décision. La théorie des NS, ici sur le forum, est loin d'être idéale.
Et ce n'est pas du tout nécessaire ici. Toute la théorie a déjà été exposée bien avant nous. )
 
Maxim Dmitrievsky:

La seule chose que j'ai écrite concernait le classificateur ternaire et la résolution du mystère deYuriy Asaulenko.

C'est la première fois que je vais faire des arcs - Yury n'est pas aussi simple qu'il en a l'air. Physicien ! Je comprends ce qu'il fait - c'est comme s'il avait deux processus parallèles en cours. La première, probabiliste, indique qu'il semble être temps de conclure un accord. Le second - le SN - donne ou refuse. Je ne dirai rien d'autre - laissez-le raconter lui-même.
 
Maxim Dmitrievsky:

La seule chose que j'ai écrite concernait le classificateur ternaire et la résolution du mystèrede Yuriy Asaulenko.

Et où avez-vous trouvé le mystère.

MLP est ~60 neurones. L'algorithme est un BP standard. Apprendre - aller et venir, c'est-à-dire que je ne sais pas ce que NS apprend là-bas. En outre, tous les principes de l'apprentissage sont exposés dans des monographies classiques - Heikin, Bishop. Soft n'est pas MQL.

Les principes de base sont donnés dans cette rubrique.

 
Yuriy Asaulenko:

Et où avez-vous trouvé le mystère.

Le MLP a ~60 neurones. Algorithme - BP standard. Apprentissage - aller là où je ne sais pas où, c'est-à-dire que je ne sais pas ce que les NS y apprennent. En outre, tous les principes de l'apprentissage sont exposés dans des monographies classiques - Heikin, Bishop. Soft n'est pas MQL.

Les principes de base sont décrits dans cette rubrique.


C'était une sorte de blague :))

 
Maxim Dmitrievsky:

c'était une sorte de blague :))

Non. Il n'y a vraiment rien d'autre là-bas. Vous pensez que Haykin et Bishop sont désespérément dépassés et vous cherchez quelque chose de nouveau (vous l'avez déjà écrit). Ils me suffisent amplement.
 
Yuriy Asaulenko:
Non. Il n'y a vraiment rien d'autre là-bas. Vous pensez que Haykin et Bishop sont désespérément dépassés et vous cherchez quelque chose de nouveau. Ils me suffisent amplement.

non, je veux dire que c'est comme si je plaisantais... tu es le seul dans ce fil de discussion qui a trouvé quelque chose à la fin :)

Vous devez googler l'entraînement du perceptron en utilisant la méthode Monte Carlo.

En général, cette méthode est très similaire à la RL (apprentissage par renforcement) lorsqu'il y a un agent d'apprentissage et que le NS apprend à trouver la meilleure solution.

 

C'est ainsi que l'Alpha Go est entraîné (bien que l'on pensait auparavant qu'il s'agissait d'un jeu créatif et qu'une machine ne pouvait pas y battre un humain)

et voici le gagnant.

https://techfusion.ru/nejroset-alphago-pereveli-na-samoobuchenie/

Нейросеть AlphaGo перевели на самообучение
Нейросеть AlphaGo перевели на самообучение
  • 2017.10.20
  • techfusion.ru
Искусственный интеллект AlphaGo показал прекрасные результаты самообучения: за три дня нейросеть от уровня начинающего игрока в «Го» дошла до уровня профессионала, одерживающего только победы Разработчики DeepMind усовершенствовали искусственный интеллект AlphaGo. Новая модель ИИ AlphaGo Zero обучалась «с нуля» без участия человека, играя сама...
 
Maxim Dmitrievsky:

non, je veux dire que c'est comme si je plaisantais... tu es le seul dans ce fil de discussion qui a trouvé quelque chose à la fin :)

Vous devez googler l'entraînement du perceptron en utilisant la méthode Monte Carlo.

En général, cette méthode est très similaire au RL (apprentissage par renforcement) lorsque vous avez un agent d'apprentissage et que le NS apprend à trouver la meilleure solution.

D'ailleurs, c'est en grande partie grâce à vous. Quand j'ai commencé, c'est vous qui m'avez donné le lien vers l'article de Reshetov. En général, l'article ne vaut rien, il s'agit plutôt d'un exemple d'application, mais il est devenu plus ou moins clair où atteler le cheval.

Je ne sais pas s'il existe de telles méthodes dans Google, car j'en suis venu moi-même à Monte Carlo.

Je ne connais pas non plus RL, mais d'après votre brève description, cela ressemble à mes méthodes.

J'ai trouvé Monte Carlo dans Google -https://logic.pdmi.ras.ru/~sergey/teaching/mlbayes/08-neural.pdf Seulement il est absolument différent.

Raison: