L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2451

 
Alexei Tarabanov #:

Tout est devant nous.

Qu'est-ce que tu veux dire ?

 

Ma petite-fille apprend le farsi et le chinois. Elle demande aussi des Japonais pour pouvoir les espionner.

 
Alexei Tarabanov #:

Ma petite-fille apprend le farsi et le chinois. Elle demande aussi des Japonais pour pouvoir les espionner.

Cool bien sûr, mais pas avant-gardiste (faute des parents), il vaudrait mieux qu'elle apprenne les langages de programmation, qui développent aussi les capacités de réflexion....

Les traducteurs sont très bons maintenant, dans 10 ans je pense que nous pourrons implanter des puces dans le cerveau avec de nombreux goodies, y compris la traduction de toutes les langues, ils ont appris à se connecter au cerveau, ce n'est qu'une question de temps ....

Apprendre beaucoup de langues, c'est comme rêver de devenir pilote, chauffeur de camion, chauffeur de taxi, sans se rendre compte que la Tesla est déjà en train de vous dépasser en pilotage automatique... Très bientôt, de nombreux emplois disparaîtront à jamais et vous devez y penser...

 
Vous êtes sur une base de prénom avec Python.
 
Alexei Tarabanov #:
Un tutoiement avec Python

cool

 
Maxim Dmitrievsky #:
La moitié des activations neuronales sont pour la classe 1, l'autre moitié pour l'autre classe. Basé sur une telle logique primitive. Si c'est le cas, c'est que les classes sont mal équilibrées. Et les valeurs extrêmes semblent faire exploser le gradient ou le faire disparaître.

Max, ne tire pas de conclusions hâtives.

Le mot "éventuellement" dans votre message suggère que vous n'avez pas réfléchi à cette formulation de la question, n'est-ce pas ?

Le réseau neuronal en général et le MLP en particulier sont très flexibles, et le même ensemble de caractéristiques peut être partitionné de manière égale par le même réseau mais à des valeurs différentes des poids des neurones..... N'est-ce pas ? - La question se pose donc de savoir laquelle de ces variantes de l'ensemble des pondérations est la plus robuste ?

Et avec le second, qui a répondu à mon post, je ne pense pas qu'il soit nécessaire de maintenir un dialogue désormais - c'est inutile.

[Supprimé]  
Alexei Tarabanov #:

Zhi, shi s'écrivent avec un i.

Il y a des exceptions. ;)

 
Andrey Dik #:

Max, ne tire pas de conclusions hâtives.

Le mot "peut-être" dans votre message suggère que vous n'avez pas réfléchi à cette formulation de la question, n'est-ce pas ?

Le réseau neuronal en général et le MLP en particulier sont très flexibles, et le même ensemble de caractéristiques peut être partitionné de manière égale par le même réseau mais à des valeurs différentes des poids des neurones..... N'est-ce pas ? - La question se pose donc de savoir laquelle de ces variantes de l'ensemble des pondérations est la plus robuste ?

Et avec le second, qui a répondu à mon post, je ne pense pas qu'il soit nécessaire de maintenir un dialogue désormais - cela n'a aucun sens.

Ne vous engagez pas dans des absurdités. On vous a répondu correctement que vous deviez choisir un modèle lors du test. Et encore mieux en ce qui concerne la validation croisée ou le transfert d'évaluation.

Bien que l'expérience s'acquière par la pratique... Étude) Ensuite, vous en viendrez aux tests.

 
elibrarius #:

Ne faites pas de bêtises. On vous a dit à juste titre que vous deviez choisir un modèle lors du test. Ou encore mieux sur la validation croisée ou le valving en avant.

Bien que l'expérience s'acquière par la pratique... Vous viendrez aux tests plus tard.

sur le test... ? un test est identique à la dérivée d'une fonction, peut être la même courbe, tangente au même point mais à deux fonctions différentes.

Je ne veux pas offenser les vieux de la vieille dans ce fil, mais vous devriez connaître les bases après tant d'années.

[Supprimé]  

.