L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1838

 
Mihail Marchukajtes:

Je reproduis la vidéo ici, au cas où cela intéresserait quelqu'un. Et je suis un local dans ce fil, alors quel est l'intérêt... Peut-être qu'un magicien présent voudra discuter, etc. :-)

https://youtu.be/TlNk3fKkUxo

Intelligence artificielle forte et faible

 
Mihail Marchukajtes:

Je reproduis la vidéo ici, au cas où cela intéresserait quelqu'un. Et je suis un local dans ce fil, alors quel est l'intérêt... Peut-être qu'un magicien présent voudra discuter, etc. :-)

https://youtu.be/TlNk3fKkUxo

Misha a promis un Graal, mais est tombé dans le populisme 😄
 
Mihail Marchukajtes:

Je reproduis la vidéo ici, au cas où cela intéresserait quelqu'un. Et je suis un local dans ce fil, alors quel est l'intérêt... Peut-être qu'un magicien présent voudra discuter, etc. :-)

https://youtu.be/TlNk3fKkUxo

Qu'y a-t-il à redire ?

Juste l'opinion d'un homme moyen qui pense savoir ce que font les géants de l'informatique sur le terrain )))).

 
Mihail Marchukajtes:

Je reproduis la vidéo ici, au cas où cela intéresserait quelqu'un. Et je suis un local dans ce fil, alors quel est l'intérêt... Peut-être qu'un magicien présent voudra discuter, etc. :-)

https://youtu.be/TlNk3fKkUxo

Mihail Marchukajtes : 1) Prof. Seveliev affirme que ce ne sont pas 100 000 connexions par jour par neurone qui sont rompues, mais qu'il n'y en a qu'environ 100 000, et qu'en moyenne 3 connexions sont créées et rompues par jour.
2) Le système avec réapprentissage est tout à fait approprié pour cela. Par exemple, si nous introduisons un nouveau lot de données de réentraînement (contredisant les informations précédemment mémorisées), le coefficient de connexion entre certains neurones est recalculé et devient nul, ce qui pourrait bien être considéré comme un analogue de la rupture de connexion physique dans un neurone réel. Et un autre neurone a recalculé de 0 à une valeur >0 - c'est une analogie avec la création d'une nouvelle connexion.
 
Igor Makanu:

Il y a un bon article sur le hubra

Comment comprendre qu'un réseau neuronal va résoudre votre problème. Un guide pragmatique

Des questions théoriques ont été soulevées : est-il possible de former NS :

1. comme générateur de séquences aléatoires - analogue de la fonction rand()

2. comme fonction pour convertir un ulong en datetime, c'est-à-dire qu'à l'entrée nous donnons un nombre d'ulong, à la sortie nous obtenons année/mois/jour/heure/minute (avec une précision spécifiée).

1) Peu probable. Le MoD ne peut qu'enregistrer les informations et, si nécessaire, les résumer.
.

2) Ok - il suffit de générer des données d'entraînement pour 10000 ans à venir et d'enseigner le modèle. Mais il y a un problème - outre la correction d'un jour tous les 4 ans (années bissextiles), il y a une correction d'un jour tous les 100 ans environ, pour s'adapter à la position astronomique de la planète. La différence de 13 jours avec le calendrier julien est due au fait que pendant un certain temps, ils ne savaient pas que ces corrections étaient nécessaires. En général, il y aura de nombreuses corrections pendant 10000 ans.

 
Maxim Dmitrievsky:
Misha a promis un graal et est devenu populiste 😄
Eh bien, je ne promets pas un Graal, alors..... l'explication habituelle et ce n'est pas ça.... c'est juste un point sensible et il a vomi :-)
 
elibrarius:
1) Prof. Seveliev affirme que ce ne sont pas 100 000 connexions par jour pour chaque neurone qui sont brisées, mais qu'il n'y a qu'environ 100 000 connexions par jour, et qu'en moyenne 3 connexions par jour sont créées et brisées.
2) Le système avec réapprentissage est tout à fait approprié pour cela. Par exemple, si nous introduisons un nouveau lot de données de réentraînement (contredisant les informations précédemment mémorisées), le coefficient de connexion entre certains neurones est recalculé et devient nul, ce qui pourrait bien être considéré comme un analogue de la rupture de connexion physique dans un neurone réel. Et l'autre neurone a recalculé de 0 à une certaine valeur >0 - c'est un analogue de la création d'une nouvelle connexion.

1. Eh bien, je me suis mal exprimé ici. Je parlais en général du nombre de connexions entre les neurones, pas d'un.....

2) Il n'y a pas de déconnexion totale. Il n'y a toujours pas de transmission. Bien qu'une certaine approximation de cet effet soit présente. Bien fait !!!!

 
Et oui, j'espère que TOUS ont remarqué que je ne ressemble pas exactement à Reshetov Yura ? Je veux dire, pas du tout, si vous êtes dans.....
 
Igor Makanu:
comme générateur de séquences aléatoires - analogue de rand()

Si rand() est introduit à l'entrée, il est fort probable que les "cerveaux" ne seront pas suffisants. Je fais tourner lstm sur des données aléatoires depuis un moment et je n'ai rien remarqué de tel. Mais si vous l'apprenez étape par étape - conversion des systèmes numériques, algorithme, alors cela devrait fonctionner.

En général, il est intéressant de vérifier sur un matériel très puissant.

 
Mihail Marchukajtes:

Je reproduis la vidéo ici, au cas où cela intéresserait quelqu'un. Et je suis un local dans ce fil, alors quel est l'intérêt... Peut-être qu'un magicien présent voudra discuter, etc. :-)

https://youtu.be/TlNk3fKkUxo

Ahahahaha )))) COMBATTEZ ! !!

Raison: