Utilisation de l'intelligence artificielle chez MTS - page 8

 

2 SergNF.

Je suis aussi loin du sujet que le pôle Sud. Je n'ai été accroché que par le post d'eugenk, mais personne ne l'a soutenu. Et quand j'ai décidé de regarder l'expert, si long et tendu pour comprendre où est l'IA et comment l'enseigner. :-))

Mais ensuite, lorsque même les questions élémentaires devenaient incontrôlables, je n'ai pas pu résister et je me suis mis en travers de la route. :-)

La technologie ici, malheureusement, a été très peu discutée. Surtout l'expert. Mais la technologie est certainement intéressante. J'ai de quoi réfléchir. Le sujet était donc très utile pour moi.

Ces perles sont une chose fine, elles ne peuvent pas être appliquées au forex. :-)))

 
Je ne peux plus regarder. C'est n'importe quoi. Désolé d'être brutal. SergNF, où puis-je trouver des perles ?
 
SergNF:

Vous prenez votre indicateur préféré (s'il est externe, par le biais d'iCustom) et émettez sa valeur dans un fichier pour un certain montant (combien vous voulez prédire dans le futur) BACK et, il y a des options, Close/High/Low "à la première barre" ou Highest/Lowest pour cet intervalle. Vous pouvez analyser et réfléchir à la manière de l'appliquer en lisant des articles parallèles sur http://www.tora-centre.ru/library/ns/spekulant04.htm, http://www.tora-centre.ru/library/ns/spekulant03.htm.
Merci beaucoup, SergNF, pour les liens. J'ai moi-même tâté de la NS il y a plus d'un an (dans TradingSolutions et plutôt directement) : en utilisant le réseau Jordan-Elman, j'ai essayé de prédire le haut et le bas pour un jour à venir au moyen de différentes MA. Primitif, bien sûr, mais ici j'ai aussi tiré un certain nombre de conclusions utiles pour moi-même, ayant construit des dizaines de MA très différentes et curieuses en cours de route...

Je n'ai pas pensé aux classifications par réseaux neuronaux et aux cartes de Kohonen à l'époque - et j'ai tiré une conclusion prématurée, à savoir que les réseaux neuronaux étaient peu utiles, puis j'ai commencé à expérimenter les AG. Je pense que mon parcours est typique de la plupart des traders qui cherchent le Graal dans les NS - sans les étudier sérieusement. Il semble que maintenant, en termes d'Elliott, nous pouvons dire que j'ai passé avec succès les phases de la 1ère vague (attaque unilatérale d'essai sans préparation sérieuse) et de la 2ème vague (refroidissement profond) en traitant avec NS. C'est l'heure de la troisième vague, hehe...
 
sashken:
Pyh a écrit :

P.S. Je suis d'accord avec l'opinion de Yurixx. L'impolitesse ne doit pas être tolérée, même s'il faut reconnaître que l'expert est très curieux.
Vous ne m'avez pas convaincu. Je comprends très bien que les tests se font par prix d'ouverture des bars, MAIS ! Il ouvre une barre et nous devons trouver (pour cet EA) la valeur AC en quatre points, y compris la valeur AC de la barre qui vient de s'ouvrir. Où l'on peut obtenir l'AC s'il est formé uniquement à la fermeture de la barre, car pour l'instant nous n'avons que l'ouverture de cette barre.

Vous écrivez vous-même que la barre s'est ouverte, il y a donc un prix d'ouverture de la barre. Il (le prix ouvert de la barre) ne changera pas pendant la formation de la barre (il peut changer le High, le Low et le Close, mais l'Open - non, car la barre est déjà ouverte).

J'espère que c'est clair :)
Ce n'est pas clair pour eux. Beaucoup ne réalisent pas que lorsque Volume[0] == 1 (c'est-à-dire le premier tick d'une nouvelle barre), alors Сlose[0] == Open[0] == High[0] = Low[0], c'est-à-dire que le prix de clôture de la dernière barre a déjà été formé et variera par tick jusqu'à la fermeture de la barre. Et à partir de cet analphabétisme très élémentaire et des affirmations sur la qualité supposée "adéquate" des tests.

Il suffit d'écrire à la peinture indélébile sur le front de tous les lamers mécontents du sort (ou mieux encore, de le brûler avec du fer trempé) que : "Close[0] est le Bid du dernier tick qui est arrivé au terminal, pas la capacité télépathique du testeur de stratégie".
 
eugenk1:
Les gars, j'ai trouvé ce que Reshetov a fait très intéressant. Bien entendu, nous ne parlons pas d'une quelconque intelligence artificielle. L'IA est nécessairement une adaptation et un entraînement, au moins d'un réseau neuronal, au moins d'un filtre linéaire. Mais je pense que nous devrions plutôt parler du comportement de groupe des indicateurs. Chacun d'entre eux se voit attribuer un poids reflétant son importance et son utilité. Et il y a un "vote" pondéré - la sommation. La seule chose que je prendrais pour 4 indicateurs, c'est 14 paramètres au lieu de 4, pour tenir compte de toutes les combinaisons possibles de paramètres. Je pense qu'il est possible de construire un véritable système adaptatif de cette manière. Nous prenons des indices normalisés (à propos desquels j'ai écrit plus haut) et estimons la qualité de chacun d'entre eux par des transactions virtuelles. Un trader menteur est puni par une diminution du poids (jusqu'à négatif, ce qui signifie "interprète mon signal exactement dans la direction opposée"), tandis qu'un trader qui travaille correctement est récompensé par une augmentation du poids. D'ailleurs, ce système mérite vraiment le titre d'intelligent... Si vous prenez 10 symboles au lieu de 4, le nombre de toutes les combinaisons possibles sera de 1023. Quel esprit humain est capable d'analyser une telle montagne ! Et le système peut...
Cette approche est dite adaptative, bien que l'algorithme d'apprentissage classique soit tout à fait différent, c'est-à-dire quand :
  • neuronka ment, alors il est "stubbé" : w[i] i= a[i] pour toutes les entrées désignées par i ;
  • le neurone a donné une réponse correcte, alors il reçoit une "carotte" : w[i] += a[i] pour toutes les entrées désignées par i ;
Ensuite, on vérifie s'il est coupable et s'il ment à nouveau, il est à nouveau "fouetté" sur le cul nu jusqu'à ce qu'il cesse de mentir.
Il existe même un théorème, dont je ne me souviens plus du nom, qui prouve que cet algorithme a une convergence, c'est-à-dire qu'il trouvera tôt ou tard une équation acceptable du plan de séparativité, mais seulement dans ce cas si les objets identifiables sont linéairement séparables dans l'espace des caractéristiques de ces objets.

Mais l'identification par l'achat et la vente n'est pas linéairement séparable, de sorte que le réseau neuronal fait toujours des erreurs, même si vous lui faites passer l'impulsion avec des algorithmes d'entraînement classiques.
 
Et pourtant, si le programme décide lui-même du moment où il doit s'ouvrir ou se fermer, il possède par définition une intelligence artificielle.
Et le processus d'optimisation de l'Expert Advisor est la formation de ce système.
 
Itso:
Et pourtant, si le programme décide lui-même du moment où il doit s'ouvrir ou se fermer, il possède par définition une intelligence artificielle.
Et le processus d'optimisation de l'Expert Advisor est la formation de ce système.
Même si le trader décide quand ouvrir et où ouvrir, et quand fermer, cela ne signifie pas qu'il a de l'intelligence. Le crétin peut être formé pour appuyer sur les boutons. Mais la décision de ce crétin d'appuyer sur des boutons ne sera pas intelligente d'un point de vue commercial, mais subjective (par exemple, la couleur des boutons sera subjectivement plus attrayante pour prendre une décision, et non la valeur des actions).
 
Mathemat писал (а):
J'ai moi-même fait des essais avec NS il y a plus d'un an (dans TradingSolutions et d'une manière assez simple) : en utilisant le réseau Jordan-Elman, j'ai essayé de prédire le haut et le bas un jour à l'avance en appliquant différentes MA à l'entrée.

Exactement, je m'amusais juste avec les neurones. Si vous vous en occupiez sérieusement, vous auriez connu un fait mathématiquement fondé : "Lesréseaux neuronaux conviennent pour l'identification, mais ils sont absolument inappropriés pour l'extrapolation", et par conséquent ils ne peuvent prédire aucune valeur pour aucune période à venir - les résultats seront des kilomètres en plus ou en moins. Mais il est possible dans de nombreux cas d'identifier quel objet appartient à quelle classe avec un certain degré de fiabilité.

Par exemple, on peut essayer de trouver la pose la plus rentable (achat ou vente) par les valeurs des indices et des oscillateurs. Et cela peut fonctionner, car la tâche est identifiée. Mais si vous essayez d'utiliser la neuronique pour calculer où devrait se situer le take profit de ces mêmes poses, vous pouvez réussir dans les tests, mais en dehors de l'échantillon, c'est peu probable, car la valeur du take profit est une extrapolation - le prix devrait au moins la toucher (pour déterminer les cibles, il est probablement préférable d'utiliser des flous).

En clair, vous essayiez de planter des clous dans des murs en béton avec une télé.

Des conclusions plus détaillées et des calculs mathématiques effectués sur la base des résultats obtenus après l'achèvement du projet Perceptron peuvent être lus dans le livre :

Minsky, M et Papert, S (1969) The PERCEPTRON ; an Introduction to Computational Geometry, MIT Press, Massachusets.

traduction disponible :

Minsky M., Papert S. Le Perseptron : Traduit de l'anglais : Mir, 1971. - с. 261

Mon conseil, mes enfants, avant de faire des bêtises, et avant de rendre publiques des conclusions très importantes basées sur les résultats de ces bêtises, essayez d'abord d'étudier les documents sur le sujet. Premièrement, cela ne fera pas de mal, et deuxièmement, cela vous permettra de ne pas marcher sur le rake, ce que tout le monde sait depuis longtemps.
 
Reshetov писал (а):
Minsky, M et Papert, S (1969) The PERCEPTRON ; an Introduction to Computational Geometry, MIT Press, Massachusets.

traduction disponible :

Minsky M., Papert S. Le Perseptron : Traduit de l'anglais : Mir, 1971. - с. 261

Mon conseil, mes enfants, avant de faire des bêtises, et avant de rendre publiques des conclusions très importantes basées sur les résultats de ces bêtises, essayez d'abord d'étudier les documents sur le sujet. Premièrement, cela ne fera pas de mal, et deuxièmement, cela vous permettra de ne pas marcher sur le rake, ce que tout le monde sait depuis longtemps.
Merci d'avoir indiqué la source. Et en ce qui concerne le matériel source, j'en ai pris connaissance - en fait, je l'ai fait à travers des publications sur la neuro-prévision. Ces publications sont toujours en cours et revendiquent même l'adéquation de la neuro - malgré votre verdict catégorique sur l'inutilité de la neuro pour les tâches d'interpolation(Reshetov, exactement inter-, pas extrapolation ; vous devriez le savoir pour sûr, si vous parlez si intelligemment de séparabilité linéaire...). À propos, si je ne me trompe pas, le théorème de Minsky sur l'impossibilité de résoudre un problème de non-séparabilité linéaire (XOR, par exemple) par un perceptron a vraiment refroidi l'intérêt des neuros - mais seulement jusqu'à ce qu'ils pensent aux réseaux multicouches).
 
Mathemat:
Reshetov:
Minsky, M et Papert, S (1969) The PERCEPTRON ; an Introduction to Computational Geometry, MIT Press, Massachusets

traduction disponible :

Minsky M., Papert S. Perseptrons : Per. - с.

Le conseil que je vous donne, mes petits camarades, avant de faire des bêtises et de tirer des conclusions publiquement significatives de ces bêtises, est de vous familiariser avec la littérature disponible sur le sujet. Premièrement, cela ne fera pas mal, et deuxièmement, cela permettra de ne pas marcher sur un râteau, dont tout est déjà connu depuis longtemps.
Merci d'avoir indiqué la source. Pour ce qui est de la matrice, je la connais en fait - par des publications sur le sujet de la neuro-prédiction. De telles publications sont toujours en cours et revendiquent même l'adéquation de neuro - malgré votre verdict catégorique sur l'inadéquation de neuro pour les problèmes d'interpolation(Reshetov, exactement inter-, pas extrapolation ; vous devriez le savoir pour sûr, si vous raisonnez si sagement sur la séparabilité linéaire.... À propos, si je ne me trompe pas, le théorème de Minsky sur l'impossibilité de résoudre un problème de non-séparabilité linéaire (XOR, par exemple) par un perceptron a vraiment refroidi l'intérêt pour la neuro - mais seulement jusqu'à ce qu'ils inventent les réseaux multicouches).
Les articles sont des articles, mais le sens géométrique ne va nulle part. Et c'est qu'un filtre linéaire permet de séparer les mouches des escalopes, si les coordonnées (valeurs des caractéristiques) de ces mêmes objets sont connues à l'aide d'un plan linéaire sous condition de séparabilité linéaire. Mais il n'existe pas de solution au problème inverse, c'est-à-dire nommer un objet à un neurone pour en connaître les coordonnées. Tout ce que nous pouvons savoir sur l'objet, c'est de quel côté du plan de séparation il se trouve. Par conséquent, l'interpolation et l'extrapolation ne sont pas envisageables.
Raison: