Discussion de l'article "Réseau neuronal bon marché et joyeux - Lier NeuroPro avec MetaTrader 5" - page 3

[Supprimé]  

En ce qui concerne l'article lui-même, pas les NS en général. Quel est le problème ? Le nombre de coefficients à ajuster est comparable à la quantité d'historique.

Prenons un nombre de coefficients égal à la quantité d'histoire. Je pense que l'ajustement sera alors parfait. Il n'y aura pas une seule transaction perdante et l'ajustement tirera le maximum de l'historique.

Si nous abordons la construction du NS comme une sélection d'un nombre illimité de coefficients, nous n'avons pas besoin d'une telle chose.

Il y a une autre utilité ici - la compression de l'information avec perte. Il y a eu beaucoup d'histoire, il y a moins de coefficients qui décrivent approximativement l'histoire. D'autre part, il existe de nombreux algorithmes de compression, même sans perte, dont les performances sont bien meilleures.

 
zaskok:

En ce qui concerne l'article lui-même, pas les NS en général. Quel est le problème ? Le nombre de coefficients à ajuster est comparable à la quantité d'historique.

Prenons un nombre de coefficients égal à la quantité d'histoire. Je pense que l'ajustement sera alors parfait. Il n'y aura pas une seule transaction perdante et il tirera le maximum de l'historique.

Si vous abordez la construction de NS comme une sélection d'un nombre sauvage de coefficients, quelle est la nécessité d'une telle chose.

Vous n'avez probablement pas lu (attentivement) l'article. Le nombre d'entrées est de 24 (sur une heure), le nombre de neurones par couche est de 20, et il y a 3 couches.

Et l'exemple de l'historique est de 5k barres. Avec 10k barres, le nombre de coefficients restera le même.

Si vous ne comprenez pas de quoi nous parlons, alors vous n'en avez pas besoin.

[Supprimé]  
elugovoy:

Vous n'avez probablement pas lu (attentivement) l'article. Le nombre d'entrées est de 24 (heure par heure), les neurones d'une couche sont au nombre de 20, les couches sont au nombre de 3.

Et l'exemple de l'historique est de 5k barres. Avec 10k barres, le nombre de coefficients restera le même.

Si vous ne comprenez pas de quoi nous parlons, vous n'en avez vraiment pas besoin.

Vous pouvez vous tromper autant que vous voulez !

Regardez le code source et comptez le nombre de coefficients ajustés. Bla, bla, bla dans la description de NS, mais l'essentiel est dans le code source.

Doublez la quantité d'historique et regardez les ratios s'effondrer. Et ainsi de suite à chaque augmentation.

La simulation de l'orgasme de l'article est le résultat montré. Et le fait qu'il soit obtenu d'une manière horrible n'est pas ce que tout le monde dit.

Simplifions les choses. Je vais vous donner le code source d'un conseiller à mille coefficients. Et je vous donnerai un morceau d'histoire comparable. Je ne dirai pas qu'il s'agit de NS ou d'autre chose. Juste la source et un morceau d'histoire.

Allez-vous également changer d'avis sur ce cal une fois que je vous aurai dit qu'il s'agit de NS ou d'une méthode scientifique avancée ? Regardez le résultat.

[Supprimé]  

Prenons l'unicum dimeon. Son Expert Advisor ne contient pas plus d'une douzaine de coefficients ajustables. La quantité d'historique est des milliers de fois supérieure à celle que nous utilisons pour ajuster ces coefficients. Ainsi, le NS intégré dans la tête de Dimeon peut parfois produire d'excellents résultats. C'est pourquoi ils ne s'insurgeront pas contre tous les SN. Mais l'article induit le lecteur en erreur.

D'autre part, notre pipsarian cool n'utilise pas du tout le principe neuronal pour construire un algorithme de trading. Il n'utilise pas le principe le plus stupide de l'addition et de la multiplication, comme dans les NS. C'est peut-être la raison de la différence frappante entre ses résultats et les classiques sous la forme de NS.

 
faa1947:

Drôle de nom : ENCOG - machine learning... Eh bien, c'est chaud.

Les outils énumérés ici ne sont qu'une partie de l'apprentissage automatique.

Rire sans raison est un signe de stupidité © dicton populaire

Pour ceux qui sont particulièrement doués en apprentissage automatique :

  1. Mon post était en réponse à la question : Comment boulonner un ANN via dll. Si vous avez une réponse sur la façon d'intégrer des paquets de Cran via une dll, alors votre réplique serait appropriée.
  2. Il est peu probable qu'une grande partie des outils d'apprentissage automatique soient utilisés où que ce soit. En d'autres termes, le fait que le Cran dispose d'un grand nombre de paquets ne lui confère aucune dignité, car la qualité doit l'emporter sur la quantité. Allez-vous saler tous ces paquets ou quoi ?
  3. Pour chaque tâche spécifique, il est préférable de choisir l'outil le plus approprié. Pour ce faire, vous pouvez installer Weka sur votre ordinateur (en passant, il supporte le langage R en ligne de commande) et utiliser le "Experimenter" intégré à l'interface pour exécuter un échantillon avec validation croisée activée sur différentes méthodes d'apprentissage automatique. Celle qui donne le meilleur résultat s'avérera être la plus appropriée pour la tâche à accomplir. C'est en tout cas ce que font les habitués de kaggle.com. Après tout, il vaut mieux confier le travail le plus long et le moins intelligent à un ordinateur que d'essayer de deviner ce qui fonctionnera dans tel ou tel cas.
 
Reshetov:

Rire sans raison est un signe de stupidité © Folk saying

Pour les experts en apprentissage automatique particulièrement doués :

  1. Mon message était une réponse à la question suivante : comment intégrer un ANN via une dll. Si vous avez une réponse sur la façon d'intégrer des paquets de Cran via une dll, alors votre réplique serait appropriée.
  2. Il est peu probable qu'une grande partie des outils d'apprentissage automatique soient utilisés où que ce soit. En d'autres termes, le fait que le Cran dispose d'un grand nombre de paquets ne lui confère aucune dignité, car la qualité doit l'emporter sur la quantité. Allez-vous saler tous ces paquets ou quoi ?
  3. Pour chaque tâche spécifique, il est préférable de choisir l'outil le plus approprié. Pour ce faire, vous pouvez installer Weka sur votre ordinateur (en passant, il supporte le langage R en ligne de commande) et utiliser le "Experimenter" intégré à l'interface pour exécuter un échantillon avec validation croisée activée sur différentes méthodes d'apprentissage automatique. Celle qui donne le meilleur résultat s'avérera être la plus appropriée pour la tâche à accomplir. C'est en tout cas ce que font les habitués de kaggle.com. Après tout, il vaut mieux confier le travail le plus long et le moins intelligent à un ordinateur que d'essayer de deviner ce qui fonctionnera dans tel ou tel cas.

1. Il n'y a aucun problème à visser le CRAN, enfin, aucun. Plus de deux ans dans la codobase.

2. La quantité témoigne de la diversité des approches et de la rapidité du développement. La qualité des paquets dans le CRAN est excellente.

3. WEKA est l'un des .... Si nous parlons du choix des progiciels d'apprentissage automatique qui peuvent être utilisés dans le domaine du commerce, alors il faut faire attention. Et pour commencer, nous prenons Rattle. Si vous partez de zéro, vous pouvez le faire fonctionner en 15 minutes environ. J'ai publié ci-dessus les résultats de la comparaison entre NS et les forêts aléatoires. NS donne des résultats plus que modestes. J'ai même écrit un article. Essayez Rattle. Prenez 2 ou 3 paquets au maximum et vous serez heureux. Et abandonnez votre NS pour toujours. Pour commencer, je peux vous recommander une autre pièce jointe.

Dossiers :
PredictTrend.zip  858 kb
 
faa1947:


2. La quantité montre la diversité des approches et la rapidité du développement. La qualité des paquets dans le CRAN est excellente.


C'est plutôt le contraire, car certains paquets ne font que reproduire des méthodes d'autres paquets. Par exemple, tous les SVM ne sont que des ports de la même bibliothèque taïwanaise libsvm. Cela ne fait donc aucune différence que le SVM soit intégré dans Cran, Weka, Encog ou tout autre paquetage. Les résultats seront identiques avec les mêmes paramètres.

faa1947:


Si nous parlons du choix des progiciels d'apprentissage automatique qui peuvent être utilisés dans le commerce, il faut faire attention.


Une fois de plus, vous devez choisir des outils spécifiques pour des tâches spécifiques. Le trading n'est qu'un nom générique pour de nombreuses stratégies et tactiques boursières. C'est pourquoi il est impossible de tout regrouper sous un même toit.

faa1947:


J'ai publié les résultats de la comparaison entre NS et les forêts aléatoires ci-dessus.


Ce ne sont pas des résultats, mais des conneries, comme la température moyenne de l'hôpital ajustée à l'échantillon d'entraînement.


Les résultats sont obtenus lorsque, au minimum, l'échantillon est divisé en échantillons de formation et de test et, au maximum, lorsque la validation croisée est appliquée.

 

Je pense que je vais défendre le NS. Ce n'est pas parce que les forêts aléatoires sont soudainement devenues à la mode que le NS est pire. Ce sont les mêmes œufs, mais de profil. Pour faire une comparaison plus ou moins adéquate, prenez un comité de mailles, activez le bousting, et vous obtiendrez la même forêt aléatoire. Les NS sont connus pour permettre d'implémenter presque n'importe quel autre algorithme.

Dans tous les cas, 99% du succès ne réside pas dans l'outil, mais dans le choix et la préparation des données.

 
marketeer:

Je pense que je vais défendre le NS. Ce n'est pas parce que les forêts aléatoires sont soudainement devenues à la mode que les NS sont pires.

Random Forest n'est pas un phénomène de mode, mais un outil qui peut donner des résultats acceptables dès la première tentative. Ce classificateur est utilisé aussi bien par les débutants que par les utilisateurs expérimentés. Les débutants l'utilisent comme outil de base, car la méthode est très simple. Les utilisateurs plus expérimentés commencent à résoudre des problèmes avec la RF afin de comprendre dans quelle direction aller plus loin.

marketeer:

Quoi qu'il en soit, 99 % du succès ne réside pas dans l'outil, mais dans le choix et la préparation des données.

Il ne faut pas faire toute une histoire d'une grande histoire © People's saying

Il serait intéressant de voir comment vous allez résoudre le problème de la régression multiple en utilisant un classificateur binaire ?

 
Reshetov:


Il ne s'agit pas de résultats, mais de quelques conneries, comme la température moyenne de l'hôpital ajustée à l'échantillon de formation.


On parle de résultats lorsque, au minimum, l'échantillon est divisé en échantillons de formation et de test et que, au maximum, une validation croisée est appliquée.

Je ne fais pas dans la connerie.

La preuve.

Les résultats affichés font toujours référence à des données "hors échantillon d'entraînement". Dans Rattle, on procède comme suit

1. l'ensemble original est divisé en trois parties : 70-15-15%

2. la formation est effectuée sur la partie de 70 %, qui est appelée formation. Il y a ici une nuance très importante. À partir de ces 70 %, environ 2/3 des données de formation sont sélectionnées au hasard, c'est-à-dire = 70 % * 2/3. La formation est effectuée sur ces données. Les informations sur les performances du modèle sont obtenues sur les 70 % * 1/3 restants de l'échantillon de données de formation, qui est bien sûr aussi un ensemble aléatoire de lignes. Cette partie est appelée OOB (out of bag). En d'autres termes, bien que le même ensemble de données ait été utilisé pour la formation et l'évaluation, des lignes différentes en ont été extraites pour la formation et l'évaluation.

Vous pouvez ensuite passer à l'onglet Évaluer, où vous pouvez utiliser le modèle formé sur les deux autres 15 % et le comparer à OOB. Si les résultats sont identiques, il y a de l'espoir. Il en résulte que si Rattle est un outil pour tester des idées, la qualité de ces tests est bien plus élevée que dans l'article en question (que l'auteur s'en excuse).

Et personnellement, pour votre gouverne: les résultats obtenus dans mon article et dans cet article ne sont pas fiables, parce qu'il n'y a pas de preuve de surentraînement (overfitting) du modèle, et les trois ensembles de tests en dehors de l'échantillon d'entraînement que j'ai énumérés ne constituent pas une telle preuve. En d'autres termes, nous avons besoin de critères satisfaits par l'ensemble des variables initiales, en ce sens que le modèle utilisant cet ensemble de variables peut être testé selon le schéma ci-dessus et que les résultats de ces tests sont fiables.