Que mettre à l'entrée du réseau neuronal ? Vos idées... - page 38
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Merci de clarifier dans le contexte d'un optimiseur MT5 normal et d'un EA normal. A quoi cela ressemblerait-il ? Prendre deux ensembles de la liste d'optimisation (non corrélés), les combiner et les exécuter ? Ou bien y a-t-il quelque chose d'autre à l'esprit ?
En fonction des résultats, vous obtenez des coefficients, vous les écrivez dans le code de votre EA avant le code qui travaille avec les variables à optimiser.
En conséquence, vous obtenez un filtre de la première passe, et le second réseau apprend non pas à partir de tous les exemples, mais seulement à partir de ceux qui ont été filtrés par le premier NS.
L'objectif est d'augmenter la matrice d'espérance en réduisant les fausses entrées - à en juger par le graphique, elle est très faible.
Ou, comme je l'ai déjà suggéré plus tôt, essayer de s'entraîner sur les résultats filtrés en utilisant d'autres méthodes - le même CatBoost.
Les spécialistes de la branche du ministère de la défense déclarent
La question n'est pas là : on peut chercher tout ce que l'on veut et comme on veut, mais la variante optimale sur les données de recherche ne garantit pas le même résultat sur les données en dehors de cette recherche (par rapport au marché).
S'il existe un algorithme qui non seulement recherche les paramètres optimaux du point de vue mathématique sur les FF, mais qui prend également en compte la structure des données, permettant de voir une certaine dépendance stable sur deux échantillons après l'entraînement, alors il est vraiment précieux pour l'application au marché. Et il est toujours possible de trouver quelque chose par hasard, ce que j'ai montré dans le sujet MO - dans mes recherches récentes.
En fonction des résultats obtenus, vous obtenez des coefficients, que vous inscrivez dans le code de votre NS avant le code qui travaille avec les variables optimisées.
En conséquence, vous obtenez un filtre lors de la première passe, et le second réseau apprend non pas à partir de tous les exemples, mais seulement à partir de ceux qui ont été filtrés par le premier NS.
L'objectif est d'augmenter la matrice d'espérance en réduisant les fausses entrées - à en juger par le graphique, elle est très faible.
Ou, comme je l'ai déjà suggéré plus tôt, essayer de s'entraîner sur les résultats filtrés en utilisant d'autres méthodes - le même CatBoost.
Ah, j'ai compris. Merci pour l'idée.
Ah, j'ai compris Merci pour l'idée
Je vous en prie ! Partagez vos résultats.
Oui, s'il vous plaît ! Partagez vos résultats.
et les robots.
Cela vient-il de l'article sur les robots perseptron ? Alors ne le faites pas.1. Ce n'est pas la question - vous pouvez rechercher tout ce que vous voulez et comme vous le voulez,
2. la variante optimale sur les données de la recherche ne garantit pas le même résultat sur les données en dehors de cette recherche (appliquée au marché).
3. S'il existe un algorithme qui non seulement recherche les paramètres optimaux du point de vue mathématique sur les FF, mais qui prend également en compte la structure des données, permettant de voir une certaine dépendance stable sur deux échantillons après l'entraînement, alors il est vraiment précieux pour l'application au marché.
4. et il est toujours possible de trouver quelque chose par hasard, comme je l'ai montré dans le domaine de la MO - dans mes recherches récentes.
1. Quel est l'intérêt ? - Non pas que l'on puisse chercher n'importe quoi, mais quel est exactement l'intérêt de la recherche ?
2. et qu'est-ce qui la garantit ?
3. je n'ai pas vu d'algorithme spécifique d'un seul tenant qui puisse trouver une "dépendance stable sur deux échantillons après entraînement", mais il existe des considérations logiques, un ensemble de techniques et de considérations sur la manière dont cela peut être réalisé (ou au moins pour comprendre quelle voie suivre).
4) Pourquoi chercher quelque chose d'aléatoire quand on peut chercher quelque chose de non aléatoire ?
1. quel est le but de la recherche ? - Non pas que l'on puisse chercher n'importe quoi, mais quel est l'intérêt de la recherche ?
2. qu'est-ce qui la garantit ?
3) Je n'ai pas vu d'algorithme spécifique d'un seul tenant qui puisse trouver une "dépendance stable sur deux échantillons après entraînement", mais il existe des considérations logiques, un ensemble de techniques et de considérations sur la manière d'y parvenir (ou au moins de comprendre la voie à suivre).
4) Pourquoi chercher quelque chose d'aléatoire quand on peut chercher quelque chose de non aléatoire ?
1. Le fait est que ce n'est pas seulement l'algorithme qui importe, mais aussi la nature/origine des données - nous parlons à la fois de la (non-)stationnarité des processus et de la non-représentativité de l'échantillon si nous envisageons d'autoriser différentes méthodes d'optimisation.
2. Je n'ai pas de réponse - j'en cherche une.
3) Je serais intéressé d'en entendre parler.
4) J'ai écrit ici que s'il n'y a pas d'algorithme à partir du point 2, toutes les approches montrent essentiellement une efficacité aléatoire sur de nouvelles données - meilleure ou pire n'est pas une question de logique algorithmique (bien que j'admette qu'il existe des heuristiques qui améliorent le résultat), mais c'est le caractère aléatoire des données obtenues qui détermine le résultat.
Lorsque vous examinez une fonction connue, celle-ci (ses constantes) ne change pas en fonction des variables entrantes ; plus vous avez d'exemples, plus vous avez de chances de choisir correctement ses coefficients. Dans les données du marché, il y a des limites au nombre d'exemples que l'on peut obtenir, et il y a un problème dans le fait que de nombreux générateurs de nombres avec leur propre fonction fonctionnent en même temps (même s'il s'agit de grands participants dont les règles de comportement sont approuvées et imprimées, à l'instar de notre Banque centrale). Il s'avère donc que, dans l'idéal, il est possible de s'adapter aux règles de comportement similaires des différents participants, il y aura une fonction bruyante qui ne décrira qu'une partie du marché, et c'est ainsi que je vois la situation. En même temps, les participants peuvent passer d'une fonction de comportement à une autre....
Les algorithmes d'optimisation présentés dans les articles sont très intéressants. Essayez d'examiner de front la question de l'admissibilité de leur application, peut-être aussi de prendre une centaine de fonctions différentes mélangées et d'essayer d'en décrire au moins une ? En général, il faut compliquer l'expérience.
1. Le fait est que ce n'est pas seulement l'algorithme qui compte, mais aussi la nature/provenance des données - nous parlons à la fois de la (non-)stationnarité des processus et de la non-représentativité de l'échantillon, si nous parlons de l'admissibilité de différentes méthodes d'optimisation.
2. Je n'ai pas de réponse - je cherche.
3) Je serais intéressé d'en savoir plus.
4) J'ai écrit ici que s'il n'y a pas d'algorithme à partir du point 2, alors toutes les approches montrent essentiellement des performances aléatoires sur de nouvelles données - le meilleur ou le pire n'est pas une question de logique algorithmique (bien que j'admette qu'il y ait des heuristiques qui améliorent le résultat), mais c'est le caractère aléatoire des données obtenues qui détermine le résultat.
Lorsque vous examinez une fonction connue, celle-ci (ses constantes) ne change pas en fonction des variables entrantes ; plus vous avez d'exemples, plus vous avez de chances de choisir correctement ses coefficients. Dans les données de marché, il y a des limites au nombre d'exemples que l'on peut obtenir, et il y a un problème dans le fait que de nombreux générateurs de nombres travaillent en même temps avec leur propre fonction (même s'il s'agit de grands participants dont les règles de comportement sont approuvées et imprimées, à l'instar de notre Banque centrale). Il s'avère donc que, dans l'idéal, il est possible de s'adapter aux règles de comportement similaires des différents participants, il y aura une fonction bruyante qui ne décrira qu'une partie du marché, et c'est ainsi que je vois la situation. Dans le même temps, les participants peuvent passer d'une fonction comportementale à une autre....
Les algorithmes d'optimisation présentés dans les articles sont très intéressants. Essayez d'examiner de front l'admissibilité de leur application, peut-être aussi de prendre une centaine de fonctions différentes mélangées et d'essayer d'en décrire au moins une ? En général, il faut compliquer l'expérience.
Plus loin dans le texte : deux citations, après cela - mon texte
1.
Ce n'est pas la question - vous pouvez chercher tout ce que vous voulez et comme vous le voulez,
Le fait est que ce n'est pas seulement l'algorithme qui est important, mais aussi la nature/origine des données - nous parlons à la fois de la (non-)stationnarité des processus et de la non-représentativité de l'échantillon, si nous parlons de l'admissibilité de différentes méthodes d'optimisation.
En ce qui concerne le premier point, je n'ai pas parlé d'algorithmes d'optimisation. L'essence de toute recherche est l'optimum décrit par l'utilisateur. Quel que soit l'algorithme d'optimisation utilisé, l'AO ne permet que d'éviter la nécessité d'effectuer une recherche complète. S'il est possible d'effectuer une recherche complète, l'OA n'est pas nécessaire, mais la question de "ce qui est nécessaire exactement" reste posée, et le fait que le processus soit stationnaire ou non n'a pas d'importance.
2.
Le fait qu'un optimum soit simplement obtenu sur des données de recherche ne garantit pas le même résultat sur des données en dehors de cette recherche (en ce qui concerne le marché).
Je n'ai pas de réponse - je cherche.
Personne n'a de réponse claire à cette question. Si l'on ne sait pas quoi chercher, alors rien ni personne ne le fera pour celui qui cherche, parce qu'on ne sait pas quoi chercher exactement, et puisque c'est le cas, il est impossible de classer un résultat quelconque comme "ce qui a été cherché".
3.
Je n'ai pas vu d'algorithme spécifique d'un seul tenant qui puisse trouver une "dépendance stable sur deux échantillons après entraînement", mais il existe des considérations logiques, un ensemble de techniques et de considérations sur la manière d'y parvenir (ou du moins de comprendre la voie à suivre).
Je serais intéressé d'en savoir plus à ce sujet.
Et moi, dans des circonstances favorables, je serais heureux d'en parler (si vous voyez ce que je veux dire).
4.
Et trouver quelque chose par hasard est toujours possible, comme je l'ai montré dans le sujet MO - dans mes recherches récentes.
J'y ai écrit que s'il n'y a pas d'algorithme à partir du point 2, alors toutes les approches montrent essentiellement une efficacité aléatoire sur de nouvelles données - meilleure ou pire n'est pas une question de logique algorithmique (bien que j'admette qu'il y ait des heuristiques qui améliorent le résultat), mais c'est le caractère aléatoire des données obtenues qui détermine le résultat.
Exactement, si vous ne savez pas quoi chercher, il est impossible de le trouver.
Lorsque vous examinez une fonction connue, elle (ses constantes) ne change pas avec les variables d'entrée, plus vous avez d'exemples, plus vous avez de chances de trouver ses coefficients correctement. Dans les données du marché, il y a des limites au nombre d'exemples que l'on peut obtenir, et il y a un problème dans le fait que de nombreux générateurs de nombres avec leur propre fonction fonctionnent en même temps (même s'il s'agit de grands participants dont les règles de comportement sont approuvées et imprimées, à l'instar de notre Banque centrale). Il s'avère donc que, dans l'idéal, il est possible de s'adapter aux règles de comportement similaires des différents participants, il y aura une fonction bruyante qui ne décrira qu'une partie du marché, et c'est ainsi que je vois la situation. Dans le même temps, les participants peuvent passer d'une fonction comportementale à une autre....
C'est sur ce point que porte la discussion.
Les algorithmes d'optimisation tirés des articles eux-mêmes sont très intéressants. Essayez d'examiner de front la question de l'admissibilité de leur application, peut-être aussi de prendre une centaine de fonctions différentes, de les mélanger et d'essayer d'en décrire au moins une ? En général, il est plus compliqué de mettre en place une expérience.
Permettez-moi de dire que les algorithmes d'optimisation (comprendre leur logique interne et leurs méthodes de recherche) vous ouvrent les yeux sur beaucoup de choses et ouvrent des voies et des visions des chemins de recherche (que ce soit l'optimisation en général ou l'apprentissage en particulier). Je prévois un article avec une telle expérience, avec un mélange de caractéristiques.
Qu'entendez-vous par"admissibilité de l'application frontale" ? - Je ne comprends pas cette formulation de la question.
L'autre jour, j'ai commencé le projet d'un client, un conseiller avec un réseau de neurones (il y a la possibilité de choisir un algorithme d'optimisation interne, SGD et bien d'autres), l'entraînement, la validation et tout ce qu'il faut, le projet est de plusieurs dizaines de lignes de code denses..... Donc, ce que je dis... ? c'est que neuronka montre de nouveaux résultats à chaque fois sur les mêmes données d'entraînement.))))) Neuronics n'obtient pas de bons résultats sur de nouvelles données ? Eh bien, il montre des résultats différents sur les mêmes données, alors de quelles nouvelles données pouvons-nous parler ? Mais il ne s'agit pas de neuronka, car neuronka n'est qu'une formule statique, les poids et les décalages sont ajustés, mais neuronka ne change pas. Alors, pourquoi obtient-on des résultats différents ? Et le problème est élémentaire - SGD (et d'autres) se bloque, attention, sur la fonction de perte))). En d'autres termes, non seulement le réseau neuronal est entraîné de manière incompréhensible, mais l'algorithme d'optimisation interne n'est pas non plus en mesure de s'en sortir.
Je voudrais faire une expérience, pour comparer le même réseau neuronal sur les résultats avec des algorithmes de gradient et d'optimisation classique. J'ai posé cette question, je n'ai trouvé aucune recherche sur ce sujet, je vois et j'entends seulement comme un dogme "vous devriez utiliser les descentes de gradient et ainsi de suite", il n'y a pas de réponse claire à la question "pourquoi vous devriez le faire". J'ai posé la question à plusieurs personnes de type gpt, l'une d'entre elles donne des articles au hasard à partir d'une ressource scientifique connue, une autre ne donne pas de liens mais s'obstine à dire que "c'est nécessaire", et la troisième admet qu'on lui a appris à dire cela et qu'elle n'a pas de preuves de ce qu'elle dit, mais qu'elle serait heureuse d'en connaître (des preuves).
En ce qui concerne le premier point, je n'ai pas parlé d'algorithmes d'optimisation. L'essence de toute recherche est l'optimum décrit par l'utilisateur. Quel que soit l'algorithme d'optimisation utilisé, l'OA ne fait qu'éviter la nécessité d'effectuer une recherche complète. S'il est possible d'effectuer une recherche complète, alors l'OA n'est pas nécessaire, mais la question de "ce qui est nécessaire exactement" demeure, et le fait que le processus soit stationnaire ou non n'a pas d'importance.
1) Je pensais que vous aviez fait référence au fil MO, parce que l'opinion de certains participants sur les algorithmes examinés dans vos articles était critique. J'ai simplement décidé de clarifier, comme je l'ai compris, la raison du désaccord sur le fond, à mon avis. Je ne veux pas aborder le sujet des personnalités.
A ndrey Dik #: Personne n'a de réponse claire à cette question. Si vous ne savez pas ce qu'il faut chercher, alors rien ni personne ne le fera pour celui qui cherche, parce qu'on ne sait pas exactement ce qu'il faut chercher, et si c'est le cas, alors tout résultat ne peut pas être classé comme "ce que l'on cherchait".
2. Je sais ce qu'il faut chercher - des dépendances statistiquement stables sur des segments quantiques de prédicteurs, mais je ne sais pas encore ce que les signes disent à ce sujet. Lorsque vous construisez un modèle, vous devez avoir une forte probabilité de faire le bon pas à une nouvelle itération - c'est tout :)
A ndrey Dik #:
Et moi, dans des circonstances favorables, je serai heureux de vous le dire (si vous voyez ce que je veux dire).
3. Je ne comprends pas du tout, pour être honnête.
A ndrey Dik #:
Exactement, si vous ne savez pas quoi chercher exactement, il est impossible de le trouver.
4. Vous ne comprenez toujours pas ce que je veux dire. Pour simplifier, imaginez que vous puissiez, dans une approche itérative, selon l'algorithme d'optimisation, vérifier de force tous les résultats des variantes parmi lesquelles vous devez faire un choix, et qu'un tel choix rapproche le modèle d'un objectif particulier sur tous les échantillons disponibles. Et voici, dans la poche, un tel modèle (ou coefficients - quel que soit le nom qu'on lui donne), qui est bon sur les données disponibles, mais qui n'est pas nécessairement la meilleure option. En d'autres termes, l'algorithme jette un coup d'œil sur ce que sera la FF sur les données finales lorsqu'il choisit une étape à résoudre dans une itération. C'est ce que je dis, lorsque vous ne regardez pas, vous pouvez accidentellement obtenir un bon résultat qui dépend d'étapes aléatoires. Nous parlons de données de marché. Et le résultat peut devenir mauvais lorsqu'il est alimenté par de nouvelles données. En général, je veux dire qu'il n'est pas facile de comprendre si l'on a obtenu un bon modèle par hasard ou grâce à un algorithme sur un sous-échantillon non représentatif.
A ndrey Dik #:
C'est sur ce point que porte la discussion.
Andrey Dik #:
Permettez-moi de dire que les algorithmes d'optimisation (comprendre leur logique interne et leurs méthodes de recherche) vous ouvrent les yeux sur beaucoup de choses et ouvrent des voies et des visions des chemins de recherche (qu'il s'agisse d'optimisation de manière générale ou d'apprentissage de manière particulière). Je prévois un article avec une telle expérience, avec un mélange de caractéristiques.
Je serais intéressé de lire un article sur une telle expérience et de savoir dans quelle mesure elle reflète le modèle de formation du marché.
A ndrey Dik #:
Que signifie"admissibilité de l'application frontale" ? - Je ne comprends pas cette formulation de la question.
Cela signifie qu'il faut l'utiliser de la même manière que l'optimiseur standard avec sa génétique et ses FF standard. En même temps, l'acceptabilité se réfère ici à la probabilité d'obtenir un modèle stable (paramètres) sur de nouvelles données. On voit donc clairement ce qui sera recherché et trouvé....
À propos, avez-vous évalué la façon dont les algorithmes gèrent les caractéristiques catégorielles ?
A ndrey Dik #: Alors quel est l'intérêt, pourquoi obtenez-vous des résultats différents ?
De nombreux algorithmes utilisent la randomisation pour la variabilité, n'en avez-vous pas rencontré en dehors de MOE ? Si vous voulez des résultats reproductibles, fixez la graine.
A ndrey Dik #: Je veux faire une expérience, pour comparer le même neurone par des résultats avec des algorithmes de gradient et d'optimisation classique.
Il est nécessaire de comparer non pas un seul modèle, mais au moins une centaine - selon des critères statistiques descriptifs. La probabilité de choisir les bons paramètres (modèle) peut être estimée sur la base de nouvelles données...
A ndrey Dik #: J'ai répondu à cette question, mais je n'ai pas trouvé de recherche sur ce sujet.
La descente de gradient est une méthode efficace pour utiliser les ressources informatiques. Il existe des méthodes plus compliquées et plus lourdes, comme l'a mentionné le conférencier dans une vidéo, mais je ne m'en souviens pas, seul le raisonnement est clair.