"New Neural" est un projet de moteur de réseau neuronal Open Source pour la plateforme MetaTrader 5. - page 3

 
LeXpert:

Vous ne serez probablement pas en mesure d'interfacer entièrement tous les réseaux, mais vous devriez essayer.

si vous mettez toutes les fonctions sur une classe de base et les rendez virtuelles, vous pouvez faire une abstraction flexible.
 
LeXpert:

6. Modèles pour la logique floue (à ne pas confondre avec les réseaux probabilistes). Non mis en œuvre. Mais peut être utile. Si quelqu'un trouve des informations, lancez-les s'il vous plaît. Presque tous les modèles sont d'origine japonaise. Presque toutes sont construites manuellement, mais s'il était possible d'automatiser la construction de la topologie par expression logique(si je me souviens bien), ce serait vraiment cool.

S'agit-il d'un réseau neuronal incrémentiel auto-organisé ?
 
sergeev:
si vous mettez toutes les fonctions sur une classe de base et les rendez virtuelles, vous pouvez faire une abstraction flexible.

Vous ne pouvez pas adopter une approche aussi maladroite. Pourquoi un réseau de Kohonen aurait-il besoin de fonctions de topologie de réseau virtuel pour les MLP ?

Seules les fonctions de base peuvent être abstraites, telles que

-distribuer le signal (exécuter les entrées)

-train

-ajouter des modèles de formation

-émettre une erreur

-sauvegarder/récupérer à partir d'un fichier

 
progma137:
Ne s'agit-il pas du réseau neuronal incrémental auto-organisé ?
Non.
 
LeXpert:

Vous ne pouvez pas adopter une approche aussi maladroite. Pourquoi un réseau de Kohonen aurait-il besoin de fonctions de topologie de réseau virtuel pour les MLP ?

Vous ne pouvez combiner que des fonctions de base, comme

Bien sûr, c'est de ça qu'il s'agit.

Mais des fonctions comme "CreateNet" devraient également se trouver dans les classes de base. et la façon dont elle est déjà mise en œuvre dans les descendants - quelle sera la topologie - dépend des descendants eux-mêmes.

 
sergeev:

Mais des fonctions telles que "CreateNet" devraient également se trouver dans les classes de base, et la façon dont elles sont mises en œuvre dans les descendants - quelle sera la topologie - dépend des descendants eux-mêmes.

Non, ça ne marchera pas. En fait, les interfaces ne sont nécessaires que pour se fondre dans les comités, et vous pouvez passer un pointeur vers un réseau déjà créé au comité, donc vous n'en avez même pas besoin.
 
LeXpert:

5. PNN -- Je ne l'ai pas utilisé, je ne sais pas. Mais je pense qu'il y a quelqu'un là-bas qui peut le faire.

Suggérer d'autres modèles.

PNN est facile. Par exemple, vous pouvez prendre le code déjà prêt du "plus proche voisin" (kNN) dans la base de code. Le GRNN est également inclus ici.

Ce projet est assez énorme. On pourrait passer des années à écrire du code pour tous les réseaux et ne pas satisfaire tout le monde. Des neurospécialistes réputés m'ont dit ici que si un réseau n'a pas été introduit au cours des 10 à 15 dernières années, il est déjà obsolète. Les dernières tendances dans ce domaine sont les réseaux biologiques auto-apprenants utilisant l'ICA et le codage clairsemé. Recherchez sur Google les termes "sparse coding" et "compressed sensing", ainsi que les travaux d'Olshausen et de Fields sur les réseaux épars et leurs successeurs. C'est un véritable trésor. Les machines de Boltzman restreintes (RBM), qui sont à la base des réseaux à croyance profonde (DBN), et les réseaux convolutifs ont également gagné en popularité en raison de leur polyvalence. Lisez les travaux de Geoffrey Hinton et de Yann LeCun :

http://www.cs.toronto.edu/~hinton/

http://yann.lecun.com/

Ces conférences de Ohlshausen et Hinton en anglais sont très intéressantes :

https://www.youtube.com/watch?v=_G1RsAZXovE

https://www.youtube.com/watch?v=AyzOUbkUf3M

Si quelqu'un décide de coder Sparse Net pour MQL5, je serai très intéressé par une coopération. Bien que, pour ceux qui me connaissent, ma patience est très courte et je perds souvent l'intérêt :)

Home Page of Geoffrey Hinton
  • www.cs.toronto.edu
I now work part-time for Google as a Distinguished Researcher and part-time for the University of Toronto as a Distinguished Professor. For much of the year, I work at the University from 9.30am to 1.30pm and at the Google Toronto office at 111 Richmond Street from 2.00pm to 6.00pm. I also spend several months per year working full-time for...
 
J'aimerais voir une sorte d'aide, avec une section séparée dans l'aide, avec un accent sur les nouveaux arrivants. Moi, par exemple, je veux déjà me familiariser avec ces blagues sur les neuros.
 

Je propose un système de trading basé sur l'intersection de deux MAs pour tester

Quel est l'avantage : Le système est élémentaire, facile à comprendre et aussi vieux que le monde.

Ce qu'il faut : Le système nécessite une réoptimisation constante de seulement 2 paramètres, mais lorsqu'il s'agit - du nombre de paires de devises, d'échéances, et de trouver la durée des périodes d'optimisation - la tâche croît de manière exponentielle. Vous pouvez ajouter la progression si vous ajoutez des méthodes de calcul de la moyenne des ondulations et des méthodes de calcul.

Essentiellement, il n'y a que deux paramètres. Nous ne nous laisserons pas distraire par le système commercial lui-même mais nous nous concentrerons sur le neuro-projet lui-même.


PS Actuellement mon Expert Advisor participe à deux MAs dans mon concours. Je ne me fais pas d'illusions, l'Expert Advisor a été développé dans l'urgence, les risques et les paramètres ont été fixés au hasard et ne seront pas pertinents dans trois mois. Il suffit que mon rêve de participer au concours se réalise :-), bien que je veuille être sur la première page du classement, mais c'est seulement pour le plaisir....

 
Ivan Ivanov:

Je propose un système de trading basé sur l'intersection de deux MAs pour tester

Quel est l'avantage : Le système est élémentaire, compréhensible et vieux comme le monde.

(Bien sûr, tout est clair ici, sauf une chose - qu'est-ce que cela a à voir avec les SN).

gpwr:

Vous pouvez passer des années à écrire du code pour tous les réseaux, mais vous ne satisferez pas tout le monde. Des neurospécialistes réputés me disent que si un réseau n'a pas été introduit au cours des 10 à 15 dernières années, il est déjà dépassé. Les dernières tendances dans ce domaine sont les réseaux biologiques auto-apprenants utilisant l'ICA et le codage clairsemé. Recherchez sur Google les termes "sparse coding" et "compressed sensing", ainsi que les travaux d'Olshausen et de Fields sur les réseaux épars et leurs successeurs. C'est un véritable trésor. Les machines de Boltzman restreintes (RBM), qui sont à la base des réseaux à croyance profonde (DBN), et les réseaux convolutifs ont également gagné en popularité en raison de leur polyvalence. Lisez les œuvres de Geoffrey Hinton et de Yann LeCun :

Si vous commencez par là, vous pouvez tout aussi bien abandonner l'idée. Tu peux y rester coincé pendant des années. Merci pour les références d'ailleurs, j'ai commencé à les lire). Mais il vaut mieux commencer par quelque chose de simple (la liste des classiques de la SN sera tout à fait suffisante à mon avis) et passer progressivement à quelque chose de complexe et de nouveau pour tous, en complétant et en améliorant. Plus vite le projet donne des résultats tangibles, plus il a de chances d'arriver à sa conclusion logique.