L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 604

 
Vizard_:

C'était du badinage. Sans le badinage, tordre le tortillon et voir comment cela l'affecte.
Si les entrées sont adéquates pour la tâche, vous pouvez le faire sur "1 neurone".
Dans le contexte du mo, idéologiquement correct à toxic-a.
--------------
Professeur sur les réseaux profonds - youtu.be/qx3iM2aa2yU
31 min "Il n'y a pas encore beaucoup de science, mais beaucoup de magie vaudou".



Les étapes du développement caractérisées par un taux de changement élevé sont spécialement nommées : le saut.

La fonction d'activation (sigmoïde, tanh et autres) est un saut, modifié par l'introduction d'une limite sur la vitesse de changement.

Combien de temps faudra-t-il encore pour que les "chercheurs" ici présents réalisent la signification de ce fait...

 
Maxim Dmitrievsky:

il ne fonctionne pas en forex)

Cela ne fonctionne pas sur le forex. Eh bien, je dois dire que je ne l'ai pas encore essayé.
 
Oleg avtomat:

Les étapes du développement caractérisées par un taux de changement élevé sont appelées "saut".

La fonction d'activation (sigmoïde, tanh et autres) est un saut, modifié par l'introduction d'une limite sur le taux de changement.

Combien de temps faudra-t-il pour que les "chercheurs" ici présents saisissent la signification de ce fait...


quel est l'intérêt de donner un sens à quelque chose sans preuve réelle de robustesse ?

je préfère les déclarations de ce genre : voici une courbe de croissance des dépôts (au moins sur le test)... et vous êtes tous des m...kikes maintenant azzaz... alors oui, pas de questions

 
Maxim Dmitrievsky:

Quel est l'intérêt d'être conscient de quelque chose sans preuve réelle de sa robustesse ?


Avez-vous compris ce que vous venez de dire... ?

 
Oleg avtomat:

Vous savez ce que vous dites ?...


Je le fais.

 
Maxim Dmitrievsky:

Le processus d'apprentissage peut également inclure l'optimisation de la pente, ce que j'ai fait mais uniquement pour la logique floue. La pente peut faire une grande différence, oui.

Vous avez donné un lien vers un article https://habrahabr.ru/post/322438/

Si un graphique de la fonction d'erreur d'un réseau neuronal est tracé ainsi (il est affiché ici dans les tangentes) :


Bien entendu, il est possible de construire quelque chose de similaire en utilisant une sigmoïde, mais la pente des sections individuelles sera plus faible.

Si la sigmoïde est moins abrupte, vous pouvez probablement faire la même chose avec les tangentes, vous devez juste les prendre 3 à 5 fois plus. C'est-à-dire augmenter le nombre de neurones.

Probablement que la sigmoïde m'a donné moins d'erreur, parce que je n'avais pas le nombre de neurones dans le réseau à la tangence.

Нейронные сети в картинках: от одного нейрона до глубоких архитектур
Нейронные сети в картинках: от одного нейрона до глубоких архитектур
  • 2022.02.17
  • habrahabr.ru
Многие материалы по нейронным сетям сразу начинаются с демонстрации довольно сложных архитектур. При этом самые базовые вещи, касающиеся функций активаций, инициализации весов, выбора количества слоёв в сети и т.д. если и рассматриваются, то вскользь. Получается начинающему практику нейронных сетей приходится брать типовые конфигурации и...
 

Qui a une opinion ? Est-il préférable d'étudier le commerce et de payer de l'argent ou de le faire gratuitement ? Et une autre question : cela vaut-il la peine de dépenser de l'argent pour des cours payants ?

 

J'ai pensé à l'article https://www.mql5.com/ru/articles/497 où la pente de la fonction d'activation change et je suis arrivé à la conclusion que le réseau trouvera la bonne pente par lui-même :

Voir la formule :

for(int n=0; n<10; n++) 
  {
   NET+=Xn*Wn;
  }
NET*=0.4; // - умножением меняем крутизну ф-ии активации 

Lors de l'apprentissage, le réseau doit capter les multiplicateurs Wn. S'il est plus rentable pour le réseau de totaliser *0,4, alors il prendra simplement tous les poids de Wn, dont chacun sera déjà *0,4. C'est-à-dire que nous mettons simplement entre parenthèses le multiplicateur total, qui sera lui-même déterminé par l'erreur minimale.

Si quelqu'un n'est pas d'accord, merci de corriger.

Нейронные сети - от теории к практике
Нейронные сети - от теории к практике
  • 2012.10.06
  • Dmitriy Parfenovich
  • www.mql5.com
В наше время, наверное, каждый трейдер слышал о нейронных сетях и знает, как это круто. В представлении большинства те, которые в них разбираются, это какие-то чуть ли не сверхчеловеки. В этой статье я постараюсь рассказать, как устроена нейросеть, что с ней можно делать и покажу практические примеры её использования. Понятие о нейронных сетях...
 
elibrarius:

J'ai pensé à quelque chose... et j'en suis arrivé à la conclusion que le réseau trouvera la bonne pente tout seul :

Exactement. Le NS augmentera ou diminuera proportionnellement tous les poids de la bonne quantité (qui sera -steepness), et prendra même le bon offset.

De toute façon, pour la plupart des tâches, cela n'a pas d'importance.

 
Je voudrais déterminer automatiquement le nombre de neurones du réseau. Quelles sont les formules de calcul ?
Raison: