L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 601
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Il s'agit d'un lien vers le Hubr. Le lien avec la bibliothèque est https://keras.rstudio.com/index.html.
Lire des sources primaires.
Bonne chance
Oui, je vois -Keras est une API de réseaux neuronaux de haut niveau développée dans le but de permettre une expérimentation rapide. R ? comme prévu, l'interface.
Merci.
Les sources sont actuellement ici -https://keras.io/ et sur GitHub -https://github.com/keras-team/keras.
Au cours du premier semestre de 2016, le monde a entendu parler de nombreux développements dans le domaine des réseaux neuronaux - leurs algorithmes ont été démontrés par...
Google (réseau de joueurs de Go AlphaGo), Microsoft (une gamme de services d'identification d'images), les start-ups MSQRD, Prisma et autres...
Peu de gens le connaissent, mais d'autres étaient développés en parallèle. Les meilleurs esprits de la planète se sont réunis pour créer un système unique,
qui pourrait déjà être appelée IA. Le produit final est réalisé par les "programmeurs de Dieu", il fonctionne facilement avec n'importe quelle quantité de données,
sur n'importe quel type de matériel, même un petit bout de papier. En bref - Mishan, attrape ! Mais soyez tranquille ...))))
Allez, j'espère que ce n'est pas un méchant virus... Je ne sais pas si tu as mis du caca dedans. J'ai connu un utilisateur surnommé Klot. Il avait l'habitude de dire qu'il pouvait "programmer l'enfer d'un homme chauve" et qu'il était très bon en programmation.....
Je ne pouvais même pas le regarder, parce que j'ai les feuilles capitonnées de 2003... Je suppose que ce n'était pas censé se produire :-(
c'est une sorte de "vide qui est toujours avec vous".
Je n'ai même pas pu le regarder, car j'ai les dépliants rembourrés de 2003...
C'est l'heure de s'éclater.
L'Excel 03 est hardcore.
Allez, j'espère que ce n'est pas un méchant virus... Je ne sais pas si tu mets du caca dedans. J'ai connu un utilisateur surnommé Klot. Il avait l'habitude de dire qu'il pouvait "programmer l'enfer d'un homme chauve" et qu'il était très bon en programmation.....
Je ne pouvais même pas le regarder, parce que j'ai les feuilles capitonnées de 2003... Je suppose que cela n'en vaut pas la peine :-(
google shits, non ?
mais c'est une sorte de perseptron fait maison :)
Je soupçonne parfois que vous êtes à blâmer pour la mort de Reshetov, désolé d'en parler, je n'ai pas pu résister.
Prem's sur..... Bien sûr, j'ai planté quelques variantes sur son développement, mais je pense que 10% maximum de mes idées ont été approuvées par lui et j'ai probablement exagéré ce chiffre. Le fait que dans le MDE il y a deux domaines de professionnels : les développeurs (programmeurs) et les ingénieurs (utilisateurs). Devinez dans quelle catégorie je me trouve. ? ???
Je pense donc suivre une formation en java et passer à autre chose. J'ai l'impression de ne pas comprendre un certain nombre de points clés dans les particularités de la langue et on m'a proposé de les apprendre pour 150 mille pour un an à l'université des mails.ru...... C'est comme ça. Il s'est arrêté à l'une des dernières étapes, la sélection des prédicteurs. Calculer leur importance et effectuer une sorte de sélection. Parce qu'il y a deux pièces durcies dans le code. Mais croyez-moi, un expert dans le processus même de l'apprentissage, de l'analyse du modèle résultant et de sa sélection (ce que les ingénieurs savent faire). Je peux donner l'évaluation suivante.
1.JPrediction a la capacité de généraliser. Pas autant que je le voudrais, mais sur les 10 modèles obtenus, 50 à 80 % seront des modèles généralisés, le reste sera de la prune. Ils seront généralisés différemment et un modèle avec une bonne courbe d'apprentissage peut gagner moins qu'un modèle avec une moins bonne courbe d'apprentissage à l'avenir.
2. Le problème de la sélection des prédicteurs est que je lui en donne 100, elle construit un modèle de 9 maximum et le fait pendant 3 jours sur 3 cœurs. Logiquement, plus il y a d'entrées, plus le modèle est paramétrique et plus il prend en compte de facteurs, mais dans la pratique, plus le modèle est simple, plus il fonctionne bien à l'avenir qu'un modèle ayant le même résultat de formation mais avec plus d'entrées. Je considère les modèles avec 5 entrées et plus, parce qu'avec un nombre inférieur d'entrées, il y a un effet lorsque le modèle est chanceux pendant un certain temps et puis non, et en règle générale ce temps n'est pas considérable, parce que le modèle est trop petit.
Je viens de tout essayer avec les données et même appris JPrediction férocement se recycler quand je prends les mêmes données, les faire se recycler et le résultat est la formation augmente fortement dans les 20%. C'est-à-dire qu'elle est passée de 75 % à 90 % et qu'en même temps, j'ai eu une terrible perte de feedback.
Maintenant, des services commencent à apparaître pour MO, j'utilise AWS. Il y a une section sur l'apprentissage automatique et la construction de modèles. Par conséquent, j'y construit et mon propre modèle à partir du même fichier. Sur AWS, la qualité du modèle formé est plusieurs fois pire, mais il faut 5 minutes pour le construire. Et il n'y a pas tant de paramètres que ça.
J'aimerais beaucoup exécuter deux fichiers identiques mais dans des systèmes IIM différents et comparer le résultat sous la forme d'une section négociée de l'EA, mais malheureusement il n'y a pas de spécialistes sur ce forum qui ont des systèmes IIM complets. Tout le monde ici est toujours à la recherche de.... alas...... Trickster !!!! Vous avez trouvé ???? Votre AI.......
Ceux qui lisent/étudient le livre
google colab a un support GPU
et TensorFlow est déjà installé.
La seule partie délicate est de travailler avec des fichiers via l'API et Google Drive.
Test de performance de la carte vidéo :
Temps (s) pour convoluer un filtre 32x7x7x3 sur des images aléatoires 100x100x100x3 (lot x hauteur x largeur x canal). Somme de dix exécutions. CPU (s) : 9.76737689972 GPU (s) : 0.16198209479Vitesse du GPU par rapport au CPU : 60x
Je n'ai aucune idée de comment c'est fait, mais tout fonctionne :)
et ici, R. a bien sûr frappé en plein milieu de la...l
Ceux qui lisent/recherchent le livre
google colab a un support pour votre GPU
et TensorFlow déjà installés
En bref, vous ne devez rien installer du tout, il vous suffit de vous connecter via votre navigateur et de travailler. Le seul problème est de travailler avec des fichiers par l'intermédiaire de l'api et de google disk.
Test de performance de ma carte vidéo :
Temps (s) pour convoluer un filtre 32x7x7x3 sur des images aléatoires 100x100x100x3 (lot x hauteur x largeur x canal). Somme de dix exécutions. CPU (s) : 9.76737689972 GPU (s) : 0.16198209479Vitesse du GPU par rapport au CPU : 60x
Je n'ai aucune idée de la façon dont c'est mis en œuvre, mais ça marche :)
C'est utile. Quel genre de laboratoire est-ce ?
Ça, c'est utile. Quel genre de laboratoire est-ce ?
Allez, Mikhail.
mais c'est une machine virtuelle et ils utilisent leur propre gpuha)