L'étiquette du marché ou les bonnes manières dans un champ de mines - page 66

 
StatBars >> :

Ce sont des gigaoctets de modèles inadéquats... sans parler du fait que le marché d'aujourd'hui n'est pas comme celui de demain, etc.

Eh bien voici un contre-exemple... Qui dit qu'ils sont inadéquats (sauf ceux qui ont des erreurs) ? Vous devez maintenant donner un exemple d'un modèle adéquat (son algorithme). Pour que l'insuffisance des autres devienne évidente.

 

Leur inadéquation est évidente, cela signifie que le modèle est inadéquat, et la raison en est une cinquième question... D'autant plus que je sais avec certitude que la série peut être ramenée à l'arrêt - on ne peut donc pas faire abstraction de ses erreurs sur le fait que le marché d'aujourd'hui n'est pas le même que celui d'hier.

Le fait que votre réseau se recycle à chaque comptage est plus probablement un défaut du prétraitement que le fait que le marché change.

 
StatBars писал(а) >>

Leur inadéquation est évidente, cela signifie que le modèle est inadéquat, et la raison en est une cinquième question... D'autant plus que je sais avec certitude que la série peut être ramenée à l'arrêt - on ne peut donc pas faire abstraction de ses erreurs sur le fait que le marché d'aujourd'hui n'est pas le même que celui d'hier.

Le fait que le réseau se recycle à chaque comptage est plus probablement un défaut du prétraitement que le fait que le marché change.

"La personne a demandé" si Neutron ou paralocus a pensé au modèle même utilisé par le NS dans ce cas. La pratique d'aujourd'hui le montre, celle de demain ne le montre pas. L'idée repose sur l'affirmation selon laquelle le marché, à chaque instant, ne ressemble pas au précédent. Pourquoi alors peut-on le prédire en utilisant les dernières mesures ? Où se trouve ce "morceau", sur lequel la dépendance entre les valeurs précédentes et suivantes est préservée ? Jusqu'à présent, les expériences ont été réalisées avec des barres horaires. Si je veux utiliser des pentamètres - dois-je prendre tous les pentamètres pour le même nombre d'heures ? Ou juste le dernier nombre X de pentamètres ? Et si je veux utiliser H4 ? Le système ne va-t-il pas fonctionner ? S'il y a une autocorrélation entre 12,13,14,15 heures, sera-t-elle entre 12.05, 13.05, 14.05, 15.05 ?

S'il n'y a pas de dépendances constantes sur le marché, il doit au moins y avoir une idée de pliage... S'il n'y en a pas ou s'il ne peut y en avoir - il vaut mieux lancer les dés et s'occuper de la perte gestionnaire......

 
YDzh писал(а) >>

"La personne demandait" dans quelle mesure Neutron ou paralocus avait réfléchi au modèle même utilisé par la NS dans ce cas. La pratique montre aujourd'hui, elle ne montre pas demain. L'idée repose sur l'affirmation selon laquelle le marché à chaque instant n'est pas le même que le précédent. Pourquoi alors peut-on le prédire en utilisant les dernières mesures ? Où se trouve ce "morceau", sur lequel la dépendance entre les valeurs précédentes et suivantes est préservée ? Jusqu'à présent, les expériences ont été réalisées avec des barres horaires. Si je veux utiliser des pentamètres - dois-je prendre tous les pentamètres pour le même nombre d'heures ? Ou juste le dernier nombre X de pentamètres ? Et si je veux utiliser H4 ? Le système ne va-t-il pas fonctionner ? S'il y a une autocorrélation entre 12,13,14,15 heures, sera-t-elle entre 12.05, 13.05, 14.05, 15.05 ?

S'il n'y a pas de dépendances constantes sur le marché, il doit au moins y avoir une idée de pliage... S'il n'y en a pas ou s'il ne peut y en avoir - il vaut mieux lancer les dés et s'occuper de la perte gestionnaire......

Si vous voulez savoir quelque chose, demandez-le dans l'ordre, sous la forme où vous le demandez, cela ressemble à de la rhétorique...

 
StatBars писал(а) >>

Si tu veux savoir quelque chose, tu dois le demander dans l'ordre, dans la façon dont tu le demandes, ça a l'air rhétorique...

Je suis probablement une personne primitive... Il me semble que la question de savoir sur quoi je m'appuie avant de me précipiter dans des mois de programmation n'est pas du tout rhétorique. La réponse peut être la suivante : "J'ai lu un jour que les réseaux neuronaux étaient un domaine prometteur pour le développement des CT. J'ai décidé de l'essayer. Par expérience scientifique, j'ai découvert que je devais réentraîner le réseau à chaque étape et utiliser comme entrées les prix d'ouverture et de fermeture". Ce serait le cas dans mon cas, sauf que je vais dans une direction légèrement différente. Connaissant Neutron et son amour de l'"artifice" mathématique avant de tirer toute conclusion, je me suis dit qu'il avait quelque chose à couvrir, puisqu'il défend cette méthode avec tant d'ardeur. C'est pourquoi je m'intéresse à la partie théorique. Je suis curieux de savoir pourquoi ça devrait marcher à ses yeux.

 

gpwr, ce fil de discussion n'est pas destiné à des questions aussi "profondes". Vous apprenez juste à faire un réseau neuronal ici - c'est tout.

La question de savoir ce qu'il faut donner à l'entrée, à quelle sortie il faut l'entraîner, et quelle doit être l'architecture de la grille, est une toute autre question. C'est là que vos questions "approfondies" sont utiles.

 
StatBars писал(а) >>

Il existe des transformations qui peuvent être utilisées pour convertir en données stationnaires... Je sais pertinemment que les séries peuvent être converties en séries stationnaires - vous ne pouvez donc pas imputer vos erreurs au fait que le marché d'aujourd'hui n'est pas le même que celui d'hier.

Le fait que le réseau se recycle à chaque comptage est plus probablement un défaut du prétraitement que le fait que le marché change.

YDzh a écrit>>

L'idée repose sur l'affirmation que le marché à chaque instant n'est pas le même que le précédent. Pourquoi, alors, peut-on la prédire en utilisant les dernières mesures ? Où se trouve le "chunk" où la dépendance entre les valeurs précédentes et suivantes est préservée ? S'il n'y a pas de dépendances constantes sur le marché, il doit y avoir au moins une idée de pliage... S'il n'y en a pas non plus ou s'il ne peut pas y en avoir, il vaut mieux lancer les dés et s'occuper du gestionnaire des pertes......

Nous devons définir de quel type de statirnarité nous parlons.

En effet, on peut prendre une SV normalement distribuée avec un MO nul et une variance égale à une constante. C'est un processus stationnaire par tous ses paramètres, mais on ne peut pas gagner sur BP par intégration de ce processus en principe ! C'est la loi. Vous pouvez gagner, mais vous ne pouvez pas le battre statistiquement - martingale. Il s'agit donc d'un exemple de processus stationnaire, mais pas celui que j'ai mentionné ci-dessus.

Vous ne pouvez gagner de l'argent sur des BP comme les BP de marché que si vous identifiez des modèles entre ses comptes (il ne doit pas nécessairement s'agir de barres). C'est la seule exigence. Toutefois, il ne suffit pas d'identifier de tels schémas, il faut que ces schémas soient stationnaires. Une telle exigence est naturelle et découle de la condition de fonctionnement d'un SCM abstrait. C'est une stationnarité de ce type que j'avais à l'esprit ci-dessus et que je considérais comme évidente. Malheureusement, nous ne pouvons pas parler de stationnarité dans toute son ampleur - le marché n'est pas stationnaire en principe, sinon vous pourriez gagner de l'argent sur un tel marché comme deux doigts sur le trottoir ! On ne peut parler que de quasi-stationnarité (quasi stationnarité ou stationnarité qui se produit pendant un temps supérieur à celui nécessaire à sa détection par l'unité d'analyse). Donc, si à ce niveau de compréhension nous pouvons affirmer que de tels processus existent, alors nous pouvons effectivement nous limiter aux modèles AR... Mais, comme vous pouvez déjà le deviner, ces processus ne se répètent pas et nous sommes obligés de "préparer" chaque fois à l'avance un modèle AR avec une non-linéarité qui correspondrait à ce qui est attendu sur le marché ! C'est absurde. C'est pour cette raison qu'un réseau neuronal non linéaire entraîné sur chaque événement, plutôt qu'une fois par mois (comme suggéré ici) est l'outil le plus adéquat pour identifier et battre les événements dans un marché quasi-efficient en temps voulu.

Je ne prétends pas que NS est capable de gagner de l'argent sur le marché (le bénéfice moyen dépasse la commission du DC). Je prétends seulement que la NS est l'outil le plus adéquat aujourd'hui, qui devrait constituer la base de l'AT. Je soutiens que la seule façon d'obtenir un avantage parmi des dispositifs similaires est la technique du sur-apprentissage à chaque événement. Il s'agit d'une tentative de maximiser le "squeeze" des potentiels qui sont cachés dans le NS et, par conséquent, une tentative de maximiser le squeeze des motifs du kotir.

Mathemat a écrit >>

La question de l'alimentation, de la sortie et de l'architecture du réseau est tout autre. C'est là que vos questions "approfondies" seraient utiles.

Alexey, toujours juste.

En effet, il n'y a rien de secret à savoir comment construire correctement un NS et l'entraîner. C'est un entremetteur que tout chercheur qui se respecte devrait connaître. C'est l'essentiel !

La connaissance sacrée commence exactement avec la préparation des données d'entrée et la définition de la fonction cible pour le NS. Nous n'en parlerons pas ici pour des raisons de principe. Dans ce domaine de la connaissance, chacun est un créateur et un artiste. Il apporte de l'argent et du plaisir. Et ce n'est certainement pas des barres d'une heure ! Ils ne sont présentés dans ce fil de discussion qu'à titre d'aide visuelle et la discussion sur ce qui est le mieux - "regarder ou 15 minutes" - ne peut avoir qu'un intérêt académique.

 
Enfin, ma couche unique n'est plus dépendante du nombre d'époques (plus que certaines dans les 100). Le bloc de statistiques aide certainement beaucoup, mais il y a quelques questions. Si cela ne vous dérange pas, veuillez me contacter en personne.
 
Et si je n'ai pas envie de passer par un message privé, pouvez-vous poster la question ici ?
 
Bien sûr. Je vais juste faire quelques graphiques.
Raison: