L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2495

 
mytarmailS #:

..

Oui, je le fais, je le fais, calmez-vous déjà)))

Répétez oncle grunt :-)
 
C'est fou. On dirait que les réseaux neuronaux font vraiment la loi ici. Au moins deux des miens sont à ce niveau...
 
eccocom #:
Thrash. On dirait que les réseaux neuronaux font vraiment la loi ici. Au moins deux des miens sont à ce niveau...

a ri de toutes les équipes de la ferme collective et de l'usine (oui, toutes assemblées) :-)

Montrez-moi un signal de plus d'un an qui fonctionne réellement sur les réseaux neuronaux.

En général, ils se contentent de mentionner "réseaux neuronaux, apprentissage profond" et autres bêtises. Et lorsqu'ils sont pris en compte - martingale, verrous, grilles et MA simple. La dure réalité : les algorithmes simples et les escroqueries simples règnent en maîtres.

---

J'ai beau regarder ce fil de discussion, je vois le résultat : que des beaux (vraiment très bons) articles et un développement personnel des auteurs...

 
Maxim Kuznetsov #:

rire de toutes les équipes collectives de la ferme et de l'usine (oui, toutes assemblées) :-)

Montrez-moi un signal datant de plus d'un an qui fonctionne réellement sur les réseaux neuronaux.

En général, ils se contentent de mentionner "réseaux neuronaux, apprentissage profond" et autres bêtises. Et lorsqu'ils sont pris en compte - martingale, verrous, grilles et MA simple. La dure réalité : les algorithmes simples et les escroqueries simples règnent en maîtres.

---

Chaque fois que je regarde ce fil de discussion, je vois le résultat : seulement de beaux (vraiment très bons) articles et un développement personnel des auteurs.

Ce n'est pas ce que je voulais dire...

Et à propos des réseaux neuronaux, j'ai écrit plus haut que la norme est de 55-56, généralement à peu près rien.

 
eccocom #:
Quant aux modèles, il ne s'agit pas d'eux, mais du fait que l'IA est essentiellement un approximateur...

c'est le point, il s'agit de modèles, qui sont créés sur la base de dépendances trouvées avec l'IA, -- et vous n'avez pas à aller du modèle au SN, mais du SN au modèle -- travaillant dans des conditions actuelles spécifiques... Bien sûr, les conditions peuvent changer...

quand j'ai pensé que l'équilibre sur le segment classique de l'AS et le déséquilibre sur le segment keynésien -- selon Keyns -- j'ai déjà réalisé que le NS pour déterminer ce fait globalement n'est en quelque sorte plus important pour moi...

(et l'approximation n'est qu'une des compétences de l'IA, + l'optimisation, etc,)

Evgeniy Ilin # :

Tout ce dont vous avez besoin se trouve dans OHLC, le reste des données en est dérivé. L'essentiel est un algorithme flexible qui trouvera un moyen de convertir les données OHLC en données ayant plus de poids, encore une fois c'est une tâche de la machine. De plus, seul l'OHLC est le même presque partout, si vous regardez les volumes en tick ou autre chose, ces données sont différentes, ainsi que les spreads et ainsi de suite. Tout ce dont vous avez besoin se trouve sur le tableau dans le terminal.

Mais si vous avez la capacité d'apprentissage profond, il est probablement possible... (Je me suis même rappelé comment trouver la courbure de la "ligne droite", comme dans un brouillard, en utilisant Dérivés 1 et 2, grâce à l'auteur de la citation))

Et si c'est plus modeste, vous pouvez aussi lancer un échantillon pour le moment présent... puis se recycler quand la courbe de rendement commence à devenir horizontale...

mais si vous utilisez d'abord des signes qui comptent vraiment (logiquement et économiquement), alors la machine elle-même trouvera ce qui dirige le marché à ce moment-là (c'est-à-dire ce dont le conducteur est le plus dépendant à ce moment-là)...

Mihail Marchukajtes a une approche très intéressante/logique et merci à lui pour avoir expliqué le polynôme(j'essaierai de m'en souvenir aussi)... juste un homme dans le savoir .... mais si l'autre personne ne sait pas et ne veut pas savoir comment les statistiques passées (PAS encore un modèle !!!) fonctionnent, de sorte qu'elles puissent être raisonnablement traitées pour être transférées dans le futur (avec une probabilité de 50/50, bien sûr) -- alors elle blâmera le modèle, le neurone, le marché et les conditions... et d'ailleurs, le changement de ce dernier est exactement l'endroit où l'on peut mettre de bonnes entrées ! - Le schéma de fonctionnement de tout écosystème, quelle que soit sa structure, est toujours le même : Conditions -> Réactions -> Conséquences (et même conséquences environnementales).

La principale compétence d'un trader est de savoir quand NE PAS entrer sur le marché ... imho !

P.S.

Et le fait que les dépendances actuelles trouvées et leurs interactions se transforment ou non en un modèle est une question globale... Et cela ne concerne pas la NS, mais plutôt les capacités d'approche du cerveau de l'auteur de l'étude de l'échantillon, qui utilise la NS comme un outil, mais pas comme une raison d'y entrer, et sans lui déléguer la responsabilité de l'analyse et des conclusions

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2021.10.25
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
[Supprimé]  
JeeyCi #:

C'est le problème des modèles, qui sont créés sur la base des dépendances trouvées avec l'IA -- et il ne faut pas aller d'un modèle au SN, mais du SN à un modèle -- travaillant dans des conditions actuelles spécifiques... Bien sûr, les conditions peuvent changer...

quand j'ai pensé que l'équilibre sur le segment classique de l'AS et le déséquilibre sur le segment keynésien -- selon Keyns -- j'ai déjà réalisé que la NS pour déterminer ce fait globalement n'est en quelque sorte plus importante pour moi...

(et l'approximation n'est qu'une des compétences de l'IA, + l'optimisation, etc),

mais s'il existe une capacité d'apprentissage profond, je suppose que c'est possible... (Je me suis même souvenu comment trouver la courbure d'une "ligne droite", comme dans le brouillard, en utilisant la fonction Dérivés 1 et 2, grâce à l'auteur de la citation))

Et si c'est plus modeste, vous pouvez aussi lancer un échantillon pour le moment présent... puis se recycler quand la courbe de rendement commence à devenir horizontale...

mais si vous utilisez initialement des attributs réellement pertinents (d'un point de vue logique et économique), alors la machine déterminera elle-même ce qui fait bouger le marché en ce moment (c'est-à-dire ce dont le conducteur dépend le plus)...

Mihail Marchukajtes a une approche très intéressante/logique et merci à lui d'avoir expliqué le polynôme (j'essaierai de m'en souvenir aussi)... juste un homme dans le savoir .... mais si l'autre personne ne sait pas et ne veut pas savoir comment les statistiques passées (PAS encore un modèle !!!) fonctionnent, de sorte qu'elles puissent être raisonnablement traitées pour être transférées dans le futur (avec une probabilité de 50/50, bien sûr) -- alors elle blâmera le modèle, le neurone, le marché et les conditions... et d'ailleurs, le changement de ce dernier est exactement l'endroit où l'on peut mettre de bonnes entrées ! - Le schéma de fonctionnement de tout écosystème, quelle que soit sa structure, est exactement le suivant : Conditions -> Réactions -> Conséquences (et même conséquences environnementales).

La principale compétence d'un trader est de savoir quand NE PAS entrer sur le marché ... imho !

P.S.

Si un négociant a trouvé les dépendances actuelles et leurs interactions dans un modèle ou non - c'est une question globale... et ne concerne pas la NS, mais plutôt la capacité d'approche du cerveau de l'auteur de la recherche, qui utilise la NS comme un outil, mais ne lui délègue pas toute la responsabilité de l'analyse et des conclusions

Je vois, où ira l'euro aujourd'hui ?
 
eccocom #:
Lisez la documentation de TensorFlow, tout est sous forme de constructeur... pratiquement. Vraiment, ce sont des boîtes noires. Si cela vous intéresse, je peux vous donner le code du perceptron écrit manuellement, et d'ailleurs ce sont tous des calculs matriciels, tout est construit sur eux.

Au fait, tensorflow.keras (comme Evgeny Dyuka)

Pour le moment, Keras ne fournit pas de fonctionnalité pour extraire l'importance de la caractéristique.

SKLearn semble plus intéressant - Interprétation des résultats de l'apprentissage automatique(la bibliothèque n' est peut-être pas très bonne, mais la logique de l'évaluation est donnée).

p.s.

vous n'avez pas attaché...

Feature Importance Chart in neural network using Keras in Python
Feature Importance Chart in neural network using Keras in Python
  • 2017.07.27
  • andre andre 481 1 1 gold badge 5 5 silver badges 8 8 bronze badges
  • stackoverflow.com
I am using python(3.6) anaconda (64 bit) spyder (3.1.2). I already set a neural network model using keras (2.0.6) for a regression problem(one response, 10 variables). I was wondering how can I generate feature importance chart like so:
 
JeeyCi #:

d'ailleurs tensorflow.keras (comme Evgeny Dyuka) - alors

SKLearn semble plus intéressant - Interprétation des résultats de l'apprentissage automatique (la bibliothèque n' est peut-être pas très bonne, mais la logique d'évaluation est donnée).

p.s.

vous n'avez pas attaché...

Tu t'enfonces dans une sorte de jungle ici. Les problèmes de prédiction (ou plutôt de non prédiction) des SN se situent à un niveau beaucoup plus simple et n'ont rien à voir avec les SN elles-mêmes.

https://neurohive.io/ru/tutorial/prostaja-nejronnaja-set-python/

C'est un simple perceptron))).

Mon exemple de tutoriel est dans Jupiter, je ne veux pas copier des morceaux, et je n'utilise pas githab.

Простая нейронная сеть в 9 строк кода на Python
Простая нейронная сеть в 9 строк кода на Python
  • 2019.02.14
  • neurohive.io
Из статьи вы узнаете, как написать свою простую нейросеть на python с нуля, не используя никаких библиотек для нейросетей. Если у вас еще нет своей нейронной сети, вот всего лишь 9 строчек кода: Перед вами перевод поста How to build a simple neural network in 9 lines of Python code , автор — Мило Спенсер-Харпер . Ссылка на оригинал — в подвале...
 
eccocom # :

Tu t'encroûtes un peu.

La logique... ce NS est utilisé quand on veut contourner l'absence de formule décrivant la dépendance d'un trait par rapport à un facteur... la pondération est utilisée... mais avant et après NS, le traitement statistique standard/classique est en vigueur... par exemple, si nous avons seulement PDF=F'(X)=dF(x)/dx (bien que nous n'ayons pas besoin de CDF, puisque toutes les conclusions de l'analyse de population sont tirées de PDF) et que nous avons des données volatiles - tout d'abord, je dois uniformiser les distributions pour pouvoir les analyser conjointement - et ici, la pondération est utile (je n'aspire pas aux mathématiques)... mais l'analyse elle-même n'a rien à voir avec NS, pas plus que ses conclusions à ce sujet (ns)... bien que cette estimation puisse être grossière, la statique classique est également imparfaite (par exemple, l'utilisation des logarithmes des incréments introduit déjà par elle-même une tendance dans les conclusions - un défaut purement mathématique)... en effet, tout modèle a ses Hypothèses...

les acteurs du marché n'attendent PAS les prédictions mais évaluent le risque et la volatilité et prennent leurs décisions de trading (et de couverture) en fonction de cela... c'est juste qu'il y a 2 facteurs variables dans cette analyse - la volatilité et la fenêtre temporelle - et NS aide à uniformiser les échantillons (mais vous pouvez aussi utiliser GARCH) pour qu'ils puissent être analysés ensemble dans un seul modèle statistique et aide à déterminer l'horizon... Dans ces moments-là, quand il n'y a pas de formule mathématique, qui n'est pas nécessaire (tout change dans ce monde)... mais en pondérant, pondérant et pondérant encore (pour des raisons de compression à une certaine régression) - pour faire une analyse conjointe dans un seul modèle statistique, et de préférence sans bruit ou au moins avec sa minimisation...

Il convient de garder à l'esprit la logique d'inférence bayésienne pour les gaussiens...

L'essentiel, je suppose, est de construire une architecture NS telle que, lorsque les couches neuronales passent sur le chemin de la sortie, la dispersion n'augmente pas... imho (pourquoi l'accumuler, si elle est disponible telle quelle, est une question rhétorique)... et puis la logique classique des statistiques... et même dans une histoire très profonde, il n'y a pas assez d'échantillons pour analyser qualitativement des moments robustes (tout arrive dans la vie)... Je suppose que dans le modèle de classification de Mihail Marchukajtes , les valeurs aberrantes peuvent aussi arriver... (nous devons réfléchir à la manière dont le séquenceur doit les traiter).

jusqu'à présent, mon avis est ... Je vais aussi regarder import scipy.stats as stats

p.s.

merci pour le lien

[Supprimé]  
JeeyCi #:

à la logique ... que le NS est utilisé lorsqu'il est nécessaire de contourner l'absence de formule décrivant la dépendance d'un trait par rapport à un facteur... la pondération est utilisée... mais avant et après NS, le traitement statistique standard/classique est en vigueur... par exemple, si nous avons seulement PDF=F'(X)=dF(x)/dx (bien que nous n'ayons pas besoin de CDF, puisque toutes les conclusions de l'analyse de population sont tirées de PDF) et que nous avons des données volatiles - tout d'abord, je dois uniformiser les distributions pour pouvoir les analyser conjointement - et ici, la pondération est utile (je n'aspire pas aux mathématiques)... mais l'analyse elle-même n'a rien à voir avec NS, pas plus que ses conclusions à ce sujet (ns)... bien qu'une telle estimation puisse être grossière, la statique classique est elle aussi imparfaite (par exemple, l'utilisation des logarithmes des incréments introduit déjà en soi une tendance dans les conclusions - défauts purement mathématiques)... en effet, tout modèle a ses Hypothèses...

Les acteurs du marché n'attendent PAS les prédictions, mais évaluent le risque et la volatilité et prennent leurs décisions de négociation (et de couverture) en fonction de ces éléments... c'est juste qu'il y a 2 facteurs variables dans cette analyse - la volatilité et la fenêtre temporelle - et NS aide à uniformiser les échantillons (mais vous pouvez aussi utiliser GARCH) pour qu'ils puissent être analysés ensemble dans un seul modèle statistique et aide à déterminer l'horizon... Dans ces moments-là, quand il n'y a pas de formule mathématique, qui n'est pas nécessaire (tout change dans ce monde)... mais en pondérant, pondérant et pondérant encore - pour faire une analyse conjointe dans un seul modèle statistique, et de préférence sans bruit ou au moins avec sa minimisation...

L'essentiel, je suppose, est de construire une architecture NS telle, que la dispersion n'augmente pas lorsque les couches neuronales passent sur le chemin de la sortie.... imho (pourquoi l'accumuler, si elle est disponible telle quelle - question rhétorique)... et puis la logique classique des statistiques... et même dans une histoire très profonde, il n'y a pas assez d'échantillons pour analyser qualitativement des moments robustes (tout arrive dans la vie).

jusqu'à présent, mon avis est ... Je vais regarder à nouveau import scipy.stats as stats.

p.s.

merci pour le lien

Quand l'application pratique commencera-t-elle ?