L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3005

 
Maxim Dmitrievsky #:
C'était un appel à réfléchir avant de faire des bêtises comme transformer la série initiale en graphes, quanta, niveaux, sinusoïdes ou je ne sais quoi d'autre que vous avez inventé.
Que le problème n'est pas correctement posé, je le dis ici depuis longtemps, la dernière fois il y a 10-20 pages, donc je n'ai rien à apprendre, je comprends parfaitement tout moi-même....

Et pour transformer la tâche, il faut transformer les données...

Donc pendant que vous me dites d'y réfléchir, j'y ai déjà réfléchi et j'étudie mes options.
 
mytarmailS #:
Le fait que la tâche ne soit pas correctement définie, je le dis ici depuis longtemps, la dernière fois il y a 10-20 pages, alors comme si je n'avais rien à apprendre, je comprends tout parfaitement bien.....

Et pour transformer la tâche, il faut transformer les données...

Donc pendant que vous me dites de réfléchir, j'ai déjà réfléchi et je suis en train de passer en revue les options.
Et encore une fois, vous obtiendrez la mémorisation au lieu de la généralisation.
 
Maxim Dmitrievsky #:
La présence d'un signal constant dans les données signifie presque immédiatement la généralisation, et le bruit se transforme en erreurs. S'il n'y a pas de signal, nous obtenons la mémorisation, où l'erreur de classification est simplement un chevauchement d'échantillons avec des étiquettes différentes et les mêmes valeurs de caractéristiques. Le second modèle n'a aucune valeur prédictive. C'est la réponse à mon rébus. Et elle est confirmée par des tests sur des données synthétiques et réelles.

En présence de motifs (ondelettes, shaplets, etc.), mais en l'absence de signal, seule la division en modèles entraînés et non entraînés fonctionne. Les données entraînables sont classées, les données non entraînables sont filtrées. Dans ce cas, une bonne mémorisation fonctionne comme un filtre, et la généralisation comme une généralisation de modèles.

Lorsqu'il n'y a pas de modèles persistants prononcés (comme sur le marché), mais qu'il y a des inefficacités, l'approche doit être encore plus raffinée, car les inefficacités ne peuvent pas toujours être décrites par des modèles. Il faut alors faire la part des choses entre ce qu'il faut retenir et ce qu'il faut généraliser. De manière algorithmique.

Transformer les données changera leur représentation, mais ne résoudra pas le problème en soi, puisque c'est la série originale qui est finalement échangée.

Les régularités ont une probabilité flottante, qui peut être cyclique ou disparaître complètement. Je travaille avec de grandes fourchettes de temps et j'ai observé ces phénomènes.

Je dirai qu'il est possible de former un modèle pour 2008-2017 (10 ans), qui fonctionnera jusqu'à aujourd'hui. Un tel modèle aura peu de signaux - rappel jusqu'à 30 % maximum, mais cela signifie également qu'il y a peu de modèles pour dix ans qui fonctionneraient pour les deux années suivantes (échantillon de test).

Mais il n'est pas encore possible d'établir de quel type de modèle il s'agit - cyclique ou ponctuel (peut-être avec un cycle de plusieurs dizaines d'années) - et il est donc impossible de sélectionner un modèle qui continuera à fonctionner.

Idéalement, il est nécessaire de trouver des modèles cycliques avec une fréquence d'au moins une fois tous les trois mois, et nous pouvons alors nous attendre à ce que le modèle soit capable de sortir de la baisse.

Un ensemble de modèles de ce type, entraînés sur différents modèles cycliques, permettra de réduire la baisse.

L'important est donc le signal initial + l'objectif + les prédicteurs présentant une régularité cyclique positive par rapport à l'objectif.


Votre approche - secouer et passer au crible - est similaire au travail d'un prospecteur - bien sûr, vous pouvez trouver beaucoup de choses intéressantes et non apprises, mais comment pouvez-vous être sûr qu'elles seront stables ?

J'aime bien trouver la date moi-même, et j'ai des idées dans ce sens, mais je veux maintenant creuser dans le sens de l'augmentation de la probabilité de stabilité du modèle.

 
Aleksey Vyazmikin #:

Votre approche - secouer et passer au crible - ressemble au travail d'un prospecteur - bien sûr, vous pouvez trouver beaucoup de choses intéressantes et non apprises, mais comment être sûr qu'elles seront stables ?

J'aime moi-même secouer la date, et j'ai des idées dans ce sens, mais je veux maintenant creuser dans la direction de l'augmentation de la probabilité de stabilité du modèle.

J'ai écrit une compréhension de base sans laquelle il ne vaut pas la peine de faire quoi que ce soit. Ne serait-ce que pour confirmer chacun des points (si vous n'avez pas compris la première fois 🙂 ).

Pour vérifier la stabilité, des tests, des tests et encore des tests, rien d'autre. C'est le MO qui est le mieux adapté pour cela.

Parce que les pleurnicheurs théoriques parlent beaucoup de tsos et autres balivernes, sans même comprendre les bases de la MO, apparemment. Ce divertissement n'est pas fait pour les faibles mentaux et moraux, c'est plus facile de pleurnicher :).
 
Maxim Dmitrievsky #:
J'ai écrit une compréhension de base sans laquelle il ne sert à rien de faire quoi que ce soit. Ne serait-ce que pour confirmer chaque point (si vous ne l'avez pas compris la première fois 🙂 )

Pour vérifier la stabilité, des tests, des tests et encore des tests, rien d'autre. C'est le MO qui est le mieux adapté à cela.

Je ne conteste pas vos descriptions et l'approche en général - je l'ai moi-même décrite en substance il y a longtemps, bien qu'avec une implémentation différente.

Mes expériences artificielles ont montré qu'il suffit souvent d'extraire des lignes présentant 10 régularités simples (dans mon cas, un segment quantique où la valeur du prédicteur a chuté) pour que l'ensemble de l'échantillon modifie la probabilité de 15 à 20 % vers un, tout en réduisant l'échantillon de 35 %. Les méthodes d'apprentissage automatique ne permettent pas d'obtenir ce résultat. Essentiellement, il s'agit de l'élimination des données inutiles/contradictoires. Mais nous voulons le faire plus près de la date actuelle, c'est-à-dire non pas en connaissant statistiquement l'histoire, mais en utilisant des méthodes permettant de sélectionner uniquement les modèles faux/contradictoires.

Si nous définissons une tâche, selon laquelle le modèle doit fonctionner avec n'importe quel instrument, les tests sont possibles, mais il y a encore moins de modèles stables de ce type. Et se contenter de parcourir l'histoire ou, pire encore, de prendre des synthèses - je ne pense pas que ce soit efficace. Il est tout au plus possible de créer des synthèses à partir d'incréments quotidiens en mélangeant les jours, mais je n'y ai pas encore accès. Avez-vous essayé ?

 
mytarmailS #:
Je ne suis pas du tout au courant, mais je me demande si un prix peut être représenté par un graphique et si cela présente un avantage par rapport à la représentation bidimensionnelle habituelle.
Qui est au courant ?

On pourrait prendre la représentation du prix de Mandelbrot comme une forêt d'arbres ternaires, où chaque mouvement est divisé en trois (deux mouvements dans la même direction et une correction entre les deux).

L'avantage est l'accès à la collecte de statistiques sur la structure fractale des prix. Les inconvénients sont la complexité des algorithmes et la difficulté d'éviter de regarder vers l'avant.

 
Stanislav Korotky #:

Quel est le lien avec les matrices et les exemples de plates-formes "parallèles" que j'ai cités plus haut ?

Par exemple, je prends les matrices du lien vers keras, je les appelle :

et j'obtiens des zéros.

L'exemple de contrôle ne convient pas.

L'entropie croisée catégorielle est utilisée dans les modèles de classification lorsqu'il y a plus de deux classes. Et après softmax. Softmax convertit un ensemble de valeurs en un ensemble de probabilités dont la somme est égale à 1.

Essayez un exemple de contrôle comme celui-ci :

pred : 0.1, 0.1, 0.2, 0.5, 0.1

true : 0, 0, 1, 0, 0, 0, 0

 
Aleksey Vyazmikin #:

Il est tout au plus possible de créer des synthèses à partir des incréments quotidiens en mélangeant les jours, mais je n'y ai pas encore accès. Avez-vous essayé ?

Je ne comprends pas sur quoi se fondent de telles hypothèses, et il s'agit encore une fois de travailler avec des traits, et non d'améliorer la manière d'apprendre. C'est donc secondaire.

C'est comme à l'école. Vous pouvez enseigner à partir d'un manuel et vous pouvez enseigner à partir d'un autre. L'information ne changera pas dans son essence, tout comme les transformations. Mais elle entrera dans une tête et sortira de l'autre :)

Il est difficile de travailler avec des synthèses lorsque l'objectif final n'est pas clair. Il est préférable de l'utiliser pour tester certaines propriétés des séquences, de les mélanger dans différentes parties et de voir comment les résultats changent. Comme si ? Pour aligner les décalages dans les données.
Il est généralement utile pour améliorer la généralisabilité en réduisant la mémorisation des données d'origine, mais il est encore incomplet en termes de création d'un TS prêt à l'emploi. Un résultat similaire peut être obtenu sur les données d'origine, lors de l'entraînement d'un ensemble de modèles différents, allant de modèles simples à des modèles linéaires.

Vous connaissez la réponse approximative : il est toujours impossible d'obtenir quelque chose de superbe par ce biais, mais il est possible de l'améliorer.

 
Aleksey Nikolayev #:

Nous pouvons prendre la représentation de Mandelbrot du prix comme une forêt d'arbres ternaires, où chaque mouvement est décomposé en trois (deux mouvements dans la même direction et une correction entre les deux).

L'avantage est l'accès à la collecte de toutes les statistiques sur la structure fractale du prix. Les inconvénients sont la complexité des algorithmes et la difficulté d'éviter de se projeter dans l'avenir.

Peut-elle être présentée sous forme de règles associatives ?
 
mytarmailS #:
Peut-on le représenter sous la forme de règles associatives ?

Je n'y ai pas réfléchi, mais je pense que c'est peu probable, car l'ordre des mouvements est important dans les prix.

Au cas où, une image pour illustrer l'idée de Mandelbrot. Chaque mouvement de prix, si possible, est divisé en trois mouvements (en sélectionnant la correction maximale à l'intérieur du mouvement), puis il devient un nœud de l'arbre. S'il n'y a pas de correction à l'intérieur du mouvement (ou si elle est inférieure à une valeur donnée), il devient alors une feuille de l'arbre.