Que mettre à l'entrée du réseau neuronal ? Vos idées... - page 39

 
Aleksey Vyazmikin #:
C'est ainsi que les branches sont spammées....



Je n'y vois pas d'inconvénient. Vous êtes constructif.

 
Alexey Volchanskiy #:

Si l'on considère que j'ai un scalper qui fonctionne avec un taux d'échantillonnage de 1 Hz pour l'offre et la demande, trader sur des barres mensuelles me semble être une aberration mentale. Sans la moindre trace de trolling.

se souvenir de n'importe quel DSP : dans le bac à sable local, les ticks ont une fréquence de 3-5 Hz ... extrêmement désagréable pour un échantillon de 1.

 
Andrey Dik #:


... des dizaines de milliers* de lignes de code denses....

des dizaines de milliers de lignes de code denses...

Alexei, je répondrai plus tard.
 
Je me suis demandé pourquoi la sortie d'un réseau neuronal n'est que BUY et SELL ?

Après tout, le même SoftMax peut choisir... n'importe quoi, il n'y a pas de limites à la fantaisie.

Si nous prenons par exemple deux stratégies différentes, l'une est plate, l'autre est en tendance. L'une est plate, l'autre est en tendance. Nous envoyons à l'entrée, comme d'habitude, ce que nous avons envoyé plus tôt.




En sortie, nous décidons quelle stratégie va négocier maintenant (ou surveiller ses signaux). Et ici, Softmax montre la stratégie plate : la stratégie plate vérifie la présence d'un signal, d'un TP, d'un SL et ainsi de suite selon ses règles formalisées prêtes à l'emploi. Et encore une fois : analyse des données d'entrée.



Le NS décide que le graphique convient mieux à une stratégie de tendance et lui passe le contrôle. UPD Je vais faire quelque chose de simple. S'il y a quelque chose d'intéressant, je le posterai.
 
Ivan Butko #:


Je me suis demandé pourquoi la sortie d'un réseau neuronal n'est que BUY et SELL ?

Après tout, le même SoftMax peut choisir... n'importe quoi, il n'y a pas de limites à la fantaisie.

Si nous prenons par exemple deux stratégies différentes, l'une est plate, l'autre est en tendance. L'une est plate, l'autre est en tendance. Nous envoyons à l'entrée, comme d'habitude, ce que nous avons envoyé plus tôt.




En sortie, nous décidons quelle stratégie va négocier maintenant (ou surveiller ses signaux). Et ici, Softmax montre la stratégie plate : la stratégie plate vérifie la présence d'un signal, d'un TP, d'un SL et ainsi de suite, conformément à ses règles formalisées prêtes à l'emploi. Puis à nouveau : analyse des données d'entrée.



Le NS décide que le graphique convient mieux à une stratégie de tendance et lui passe le contrôle. UPD Je vais faire quelque chose de simple. S'il y a quelque chose d'intéressant, je le publierai.

Il est possible de distribuer les sorties en rollback (limite) et breakdown (stop), mais en règle générale le réseau est trop... soit ajouter des neurones à l'état où le GPT sera obtenu, ou inversement, pour simplifier les options d'actions possibles du réseau. la première option a été exprimée par moi il y a plusieurs années, mais a été bombardée de tomates dans la branche MO, bien que les mêmes personnes qui étaient opposées à l'augmentation du nombre de neurones essaient maintenant même de maîtriser le LLM en relation avec les marchés.

Bref, il faut essayer de n'écouter personne. vous pouvez m'écouter (référence à la célèbre phrase 😊).

 
Andrey Dik #:

Il est possible de répartir les sorties en rollback (limite) et breakdown (stop), mais en règle générale le réseau est trop... soit ajouter des neurones à l'état lorsque GPT est obtenu, ou inversement, pour simplifier les options d'actions possibles du réseau. la première option a été exprimée par moi il y a plusieurs années, mais a été bombardée de tomates dans la branche MO, bien que les mêmes personnes qui étaient opposées à l'augmentation du nombre de neurones essaient maintenant même de maîtriser le LLM en relation avec les marchés.

en bref, vous devriez essayer de n'écouter personne. vous pouvez m'écouter (référence à la célèbre phrase 😊).



Merci pour l'idée. Limite et stop sont essentiellement des directions différentes. Dans une certaine stratégie, ou aussi des deux : où il se négocie le meilleur prix, l'autre sur un breakout.



A ndrey Dik #:

La première option a été exprimée par moi il y a plusieurs années, mais a été jetée avec des tomates dans le fil MO, bien que les mêmes personnes qui étaient opposées à l'augmentation du nombre de neurones essaient maintenant même de maîtriser le LLM appliqué aux marchés.


Bravo.

Drapeau entre leurs mains et peut-être partageront-ils le graal avec nous quand le chat le leur écrira. Je suis obstinément réticent à dessiner le graal.

 
Aleksey Vyazmikin #:

1) Je pensais que vous aviez fait référence au fil MO, parce que certains participants avaient des opinions critiques sur les algorithmes discutés dans vos articles. J'ai simplement décidé de clarifier, comme je l'ai compris, la raison du désaccord sur le fond, à mon avis. Je ne veux pas aborder le sujet des personnalités.

2. Je sais ce qu'il faut rechercher - des dépendances statistiquement stables sur les segments quantiques des prédicteurs, mais je ne sais pas encore ce que ces signes indiquent. Lors de la construction d'un modèle, il est nécessaire d'avoir une forte probabilité de faire le bon pas à une nouvelle itération - c'est tout :)

3. ...

4. Vous ne comprenez toujours pas ce que je veux dire. Pour simplifier, imaginez que vous puissiez itérativement, conformément à l'algorithme d'optimisation, vérifier de force tous les résultats des variantes parmi lesquelles vous devez faire un choix, et qu'un tel choix rapproche le modèle d'un objectif particulier sur tous les échantillons disponibles. Et voici, dans la poche, un tel modèle (ou coefficients - quel que soit le nom qu'on lui donne), qui est bon sur les données disponibles, mais qui n'est pas nécessairement la meilleure option. En d'autres termes, l'algorithme jette un coup d'œil sur ce que sera la FF sur les données finales lorsqu'il choisit une étape à résoudre dans une itération. C'est ce que je dis, lorsque vous ne regardez pas, vous pouvez accidentellement obtenir un bon résultat qui dépend d'étapes aléatoires. Nous parlons de données de marché. Et le résultat peut devenir mauvais lorsqu'il est alimenté par de nouvelles données. Quoi qu'il en soit, ce que je veux dire, c'est qu'il n'est pas facile de comprendre si l'on a obtenu un bon modèle par hasard ou grâce à un algorithme sur un sous-échantillon non représentatif.

5. L'utilisation est donc la même que celle de l'optimiseur standard avec sa génétique et ses FF standard. L'admissibilité fait ici référence à la probabilité d'obtenir un modèle stable (paramètres) sur de nouvelles données. On sait ce qui sera recherché et trouvé....

6. À propos, avez-vous évalué la façon dont les algorithmes gèrent les caractéristiques catégorielles ?

7. De nombreux algorithmes utilisent la randomisation pour la variabilité, n'en avez-vous pas rencontré en dehors du MOE ? Si vous voulez que le résultat soit reproductible, fixez la graine.

Il est nécessaire de comparer non pas un seul modèle, mais au moins une centaine d'entre eux - selon certains critères statistiques descriptifs. La probabilité de choisir les bons paramètres (modèle) peut être estimée sur la base de nouvelles données...

8. La descente de gradient est utilisée comme méthode efficace d'utilisation des ressources informatiques. Il existe des méthodes plus compliquées et plus lourdes, comme l'a mentionné le conférencier dans une vidéo, mais je ne m'en souviens pas, je n'ai compris que le raisonnement.

1. Le désaccord, tel qu'il me semble, est que les opposants aux algorithmes d'optimisation nient leur applicabilité aux données du marché, bien qu'ils ne remarquent pas activement (ou feignent de ne pas remarquer) que les OA sont présents sous une forme ou une autre dans les mêmes réseaux neuronaux et d'autres outils de MO.

2. Quel est le degré de robustesse requis ? Un peu ou un peu plus ? Il est nécessaire d'atteindre la plus grande stabilité possible sur de nouvelles données, c'est la fonction d'aptitude qui doit être maximisée.

3. ...

4) L'algorithme d' optimisation n'est pas la seule composante du processus d'optimisation (pour une raison que tout le monde oublie). L'AO elle-même peut être comparée à l'essence d'une voiture, qui ne se soucie pas de l'endroit où elle va, si l'essence est mauvaise, la voiture peut ne pas aller du tout, et plus l'essence est bonne, plus la voiture peut aller vite (c'est-à-dire atteindre l'objectif plus rapidement). J'ai déjà donné un exemple à plusieurs reprises pour comprendre le rôle de l'AO dans le processus d'optimisation, j'ai donné un schéma. Imaginons qu'il soit possible d'effectuer une recherche complète de paramètres (qu'il s'agisse d'une simple CT ou d'une méthode MO) et d'obtenir la valeur de la fonction d'aptitude de ces paramètres ; comme nous pouvons le voir, l'algorithme d'optimisation n'est pas du tout impliqué dans cet exemple, mais il est toujours nécessaire de choisir parmi tous les paramètres de la recherche complète. On peut constater que l'AO agit toujours comme un accélérateur du résultat, il ne participe pas lui-même à l'exactitude de la sélection du résultat (la fonction d'aptitude n'est qu'un paramètre externe pour l'AO). Seule la fonction d'aptitude participe à l'exactitude de la sélection des résultats (l'exactitude peut être comprise comme n'importe quoi, y compris la capacité à faire fonctionner avec succès le TS sur de nouvelles données). Par conséquent, lorsqu'on parle de robustesse ou de capacité du système à fonctionner avec succès sur de nouvelles données, il ne faut pas considérer l'OA, mais la fonction d'aptitude, ce en quoi elle consiste et tout ce qui précède la performance de la fonction d'aptitude (la performance de l'évaluation de la décision).

5. Voir les paragraphes précédents.

6. Je suis en train de faire des recherches sur ce sujet. Un article sur ce sujet est actuellement en cours de vérification. Envisage de continuer à l'exposer (le sujet).

7. Randomiser l'état initial des paramètres du système, non pas pour obtenir des résultats aléatoires à la sortie, mais pour couvrir le plus grand nombre possible de variantes de paramètres. Le résultat ne doit pas être aléatoire, mais assez précis (en termes de robustesse - le maximum de la fonction d'aptitude décrivant en elle-même et l'indice de robustesse). Ici, il est pratique d'utiliser la méthode des limites, la première itération - paramètres aléatoires, la dernière itération - paramètres requis. Entre les deux, la zone des valeurs de la fonction d'aptitude, dans laquelle se trouve l'efficacité de l'algorithme d'optimisation, plus le résultat aléatoire est à droite, plus l'OA est mauvais, respectivement, plus il est à gauche, plus il est proche du maximum requis du résultat optimal (je répète, le résultat optimal, satisfaisant la robustesse maximale possible du système), plus l'OA est efficace. Si le réseau neuronal donne des résultats différents, et avec une grande dispersion, cela signifie que l'algorithme utilisé dans le cadre du réseau neuronal est stupidement bloqué quelque part dans l'extremum local de la fonction d'aptitude (la fonction de perte a été utilisée).

8. Le conférencier vous a-t-il probablement dit que les algorithmes souvent utilisés pour former les réseaux se bloquent au niveau élémentaire ? - Probablement pas, mais il a insisté, je suppose, sur le fait qu'ils sont très rapides. Oui, ils sont rapides parce qu'ils n'ont pas de population et réduisent donc le nombre d'exécutions nécessaires sur les données d'apprentissage, mais c'est pour cela qu'ils ont été conçus - pour être rapides, mais la convergence est affectée (rien n'est gratuit dans ce monde).

Alexey, j'espère que vous allez maintenant examiner le sujet soulevé sous un angle légèrement différent, différent de celui qui est accepté dans la branche MO et, en général, dans de nombreux autres endroits. Les MOSistes sont très semblables aux croyants qui prennent beaucoup de choses sur la foi (ce n'est ni mauvais ni bon, mais cela empêche parfois d'examiner beaucoup de choses du point de vue de la logique), ou aux alchimistes fanatiques qui combinent les méthodes MOS dans l'espoir d'obtenir la pierre philosophale - un système MOS fonctionnant sur OOS. Je ne suis pas un opposant à la MO, mais j'essaie toujours de démonter les choses pour comprendre l'impact de chaque rouage de la machine sur le résultat.

 
Andrey Dik #:

1. Le désaccord, tel que je le perçois, est que les opposants aux algorithmes d'optimisation nient leur applicabilité aux données du marché, bien qu'ils ignorent activement (ou feignent de ne pas remarquer) que les EI sont présents sous une forme ou une autre dans les mêmes réseaux neuronaux et autres outils de MO.

2. Quel est le degré de robustesse requis ? Un peu ou un peu plus ? Il est nécessaire d'atteindre la plus grande stabilité possible sur de nouvelles données, c'est la fonction d'aptitude qui doit être maximisée.

3. ...

4) L'algorithme d' optimisation n'est pas la seule composante du processus d'optimisation (pour une raison que tout le monde oublie). L'AO elle-même peut être comparée à l'essence d'une voiture, qui ne se soucie pas de l'endroit où elle va, si l'essence est mauvaise, la voiture peut ne pas aller du tout, et plus l'essence est bonne, plus la voiture peut aller vite (c'est-à-dire atteindre l'objectif plus rapidement). J'ai déjà donné un exemple à plusieurs reprises pour comprendre le rôle de l'AO dans le processus d'optimisation, j'ai donné un schéma. Imaginons qu'il soit possible d'effectuer une recherche complète de paramètres (qu'il s'agisse d'une simple CT ou d'une méthode MO) et d'obtenir la valeur de la fonction d'aptitude de ces paramètres ; comme nous pouvons le voir, l'algorithme d'optimisation n'est pas du tout impliqué dans cet exemple, mais il est toujours nécessaire de choisir parmi tous les paramètres de la recherche complète. On peut constater que l'AO agit toujours comme un accélérateur du résultat, il ne participe pas lui-même à l'exactitude de la sélection du résultat (la fonction d'aptitude n'est qu'un paramètre externe pour l'AO). Seule la fonction d'aptitude participe à l'exactitude de la sélection des résultats (l'exactitude peut être comprise comme n'importe quoi, y compris la capacité à faire fonctionner avec succès le TS sur de nouvelles données). Par conséquent, lorsque l'on parle de robustesse ou de capacité du système à fonctionner avec succès sur de nouvelles données, il ne faut pas s'intéresser à l'OA, mais à la fonction d'aptitude, à ce qui la compose et à tout ce qui précède la performance de la fonction d'aptitude (la performance de l'évaluation de la décision).

5. Voir les paragraphes précédents.

6. Je suis en train de faire des recherches sur ce sujet. J'ai un article sur ce sujet en cours de vérification en ce moment. Je pense que je vais continuer à l'explorer (le sujet).

7. Randomiser l'état initial des paramètres du système, non pas pour obtenir des résultats aléatoires à la sortie, mais pour couvrir le plus grand nombre possible de variantes possibles des paramètres. Le résultat ne doit pas être aléatoire, mais assez précis (en termes de robustesse - le maximum de la fonction d'aptitude décrivant en elle-même et l'indice de robustesse). Ici, il est pratique d'utiliser la méthode des limites, la première itération - paramètres aléatoires, la dernière itération - paramètres requis. Entre les deux, la zone des valeurs de la fonction d'aptitude, dans laquelle se trouve l'efficacité de l'algorithme d'optimisation, plus le résultat aléatoire est à droite, plus l'OA est mauvais, respectivement, plus il est à gauche, plus il est proche du maximum requis du résultat optimal (je répète, le résultat optimal, satisfaisant la robustesse maximale possible du système), plus l'OA est efficace. Si le réseau neuronal présente des résultats différents avec un écart important, cela signifie que l'algorithme utilisé dans le réseau neuronal est bloqué quelque part dans l'extremum local de la fonction d'aptitude (la fonction de perte utilisée).

8. Le conférencier vous a-t-il probablement dit que les algorithmes souvent utilisés pour la formation des réseaux sont bloqués à l'élémentaire ? - Probablement pas, mais il a insisté, je suppose, sur le fait qu'ils sont très rapides. Oui, ils sont rapides parce qu'ils n'ont pas de population et réduisent donc le nombre d'exécutions nécessaires sur les données d'apprentissage d'un facteur un, mais c'est pour cela qu'ils ont été conçus - pour être rapides, mais la convergence est affectée (rien n'est gratuit dans ce monde).

Alexey, j'espère que vous allez maintenant examiner le sujet soulevé sous un angle légèrement différent, différent de celui qui est accepté dans la branche MO et, en général, dans de nombreux autres endroits. Les MOSistes sont très semblables aux croyants qui prennent beaucoup de choses sur la foi (ce n'est ni mauvais ni bon, mais cela empêche parfois d'examiner beaucoup de choses du point de vue de la logique), ou aux alchimistes fanatiques qui combinent les méthodes MOS dans l'espoir d'obtenir la pierre philosophale - un système MOS fonctionnant sur OOS. Je ne suis pas un opposant à la MO, mais j'essaie toujours de démonter les choses pour comprendre l'impact de chaque rouage de la machine sur le résultat.

1. Plus haut, j'ai déjà parlé de l'application frontale, du fait que les articles sont considérés non pas comme des algorithmes abstraits, mais comme un remplacement de l'algorithme de l'optimiseur standard, qui est censé être utilisé avec des FF standard. Et cette approche n'est pas très efficace, comme beaucoup l'ont déjà compris. En effet, dans chaque article, quel que soit l'auteur, le lecteur essaie de trouver quelque chose d'utile pour le commerce. Il faut simplement en tenir compte et ne pas s'en offusquer. Peut-être devriez-vous donner des exemples de FF dans l'article qui prennent en compte non seulement les indicateurs décrivant le résultat financier, mais aussi d'autres indicateurs l'affectant, qui sont implicites mais non nommés ?

2. La résilience dans ce contexte est une variable binaire qui provient de la mesure du biais de la probabilité de rencontrer l'une des classes sur un segment prédicteur quantifié par rapport au nombre de tous les représentants de la classe dans l'échantillon. Lorsque vous changez de sous-échantillon, le biais de probabilité ne devrait pas changer, ce qui constituerait la stabilité. Cela revient à trouver la stationnarité dans des processus non stationnaires. Le modèle est ensuite construit sur ces données, et plus ces segments quantiques sont correctement détectés, plus la probabilité de les choisir à chaque étape de l'algorithme de construction du modèle est élevée, et donc plus la probabilité de construire le modèle nécessaire est grande. Il est clair que la section de validation des résultats n'est pas évaluée initialement. Par conséquent, il y a un objectif, une mesure d'évaluation, mais ce qui affecte le résultat n'est pas complètement clair - nous avons besoin de mesures d'évaluation supplémentaires.

Le graphique ci-dessous montre la probabilité (pourcentage) de sélectionner un segment quantique stable dans le pool à chaque itération de l'algorithme de construction de modèle pour chacune des deux classes.

4. J'ai déjà écrit dans le premier paragraphe, et je ne ferai que répéter ici que les gens essaient de comprendre pourquoi ils en ont besoin, et de comprendre l'alternative à l'optimiseur standard avec sa génétique. Quels autres paramètres éloignés du marché devraient être définis dans FF - ce n'est pas clair pour la plupart des gens.

7. Je n'ai pas écrit que l'objectif était d'obtenir des résultats aléatoires en sortie. L'objectif est d'envisager différentes manières de trouver une solution, y compris en modifiant le paysage abstrait à partir de différentes dimensions.

8. Je pense qu'il n'est pas correct de supposer que les personnes qui sont bien informées dans leur domaine n'ont pas les connaissances et l'expérience nécessaires. Cela s'applique au conférencier abstrait ainsi qu'à de nombreux membres du forum. Parfois, avant de prouver votre position, vous devez comprendre la logique de votre adversaire. Nous sommes engagés dans une direction évolutive, il peut y avoir différents points de vue sur la situation, qui peut changer, il n'est donc pas productif de penser de manière catégorique. Et si vous affirmez quelque chose en vous référant à votre expérience - j'ai fait ceci et cela, mais le résultat a été triste, je pense que c'est parce que "cela...". - alors peut-être que quelqu'un suggérera une solution, ou partagera son résultat avec des données initiales similaires.

Tout ce que vous avez écrit sur votre travail jusqu'à présent ici, j'ai lu vos articles, comme je pense que beaucoup d'autres qui ont écrit des commentaires à leur sujet l'ont fait. C'est l'hypothèse selon laquelle les gens sont sous-développés, ce qui est évident dans leurs croyances, qui conduit à des conflits avec vous. J'observe que le fil MO n'est qu'un exemple de remise en question de toute affirmation ou approche, à la recherche d'une raison pour laquelle une méthode est inefficace, même si elle semble l'être. C'est pourquoi je vois des jugements biaisés de votre part. De nombreux participants au fil MO ne sont pas raisonnés dans leurs affirmations, mais ce n'est pas toujours parce qu'ils n'ont pas d'arguments. Je pense qu'il s'agit d'une déformation professionnelle. Oui, cela peut être frustrant.

Si vous pensez que vous avez une connaissance plus approfondie de la question, que vous comprenez bien les mathématiques du processus et que vous voulez en faire profiter les gens, alors prêtez attention aux approches des missionnaires dans les temps anciens - trouvez un terrain d'entente et dialoguez à partir de là. Et si vous ne voulez pas le faire, vous pouvez simplement ignorer les autres représentants avec leurs opinions et leurs croyances. Qui a besoin de lire vos pensées intelligentes et tirera lui-même les conclusions qui s'imposent.

En général, j'ai essayé de vous montrer l'autre côté de la cause du conflit, dans l'espoir qu'il s'arrête, que ses participants s'entendent et qu'ils commencent à traiter les critiques de manière adéquate, sans s'insulter mutuellement.

 
Aleksey Vyazmikin #:

8.

Ne vous rendez-vous pas compte qu'avec ce message, vous n'éteignez pas le conflit, mais que vous ajoutez de l'huile sur le feu ?

Si vous ne l'avez pas fait intentionnellement, je suggère que tout le monde prétende que le point 8. du message d'Aleksey Vyazmikin n'existe tout simplement pas.

[Supprimé]  
J'aime bien l'interprétation d'Alexei, elle est proche de la réalité. Mais nous pouvons également ajouter qu'il ne faut pas enseigner de manière agressive ce que l'on n'a pas encore pleinement compris. Surtout si vous n'avez pas de résultats à l'appui. Vous pouvez prouver votre point de vue par des références à des articles scientifiques faisant autorité (comme c'est le cas dans le fil MO) ou par d'autres moyens qui devraient résumer l'essence de la narration, sans dogme subjectif. Par exemple, je fais des réseaux neuronaux depuis 20 ans et je suis maintenant le plus intelligent.