L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3082

 
Maxim Dmitrievsky #:
Êtes-vous également thérapeute de métier ? Non, je suis thérapeute à plein temps.

Oui, je cherche des clients, voulez-vous vous inscrire ?

En fait, vous ne supportez pas la critique. Vous avez vu quelque chose de similaire à ce que vous faites - en filtrant les parties inconfortables de l'échantillon, ce qui, dans votre esprit, a donné une scientificité à votre approche et maintenant vous la défendez. Vous la défendez notamment en l'attaquant - en rabaissant et en insultant votre adversaire. Je reconnais qu'il y a des progrès dans ce domaine - vous êtes devenu plus sobre - et je peux même vous en féliciter.

En même temps, ma proposition d'activité commune, c'est-à-dire une proposition constructive visant à enrichir les connaissances sur le sujet étudié, vous l'appelez une distraction du sujet.

Quel est le thème de ce fil de discussion - démontrer la beauté et l'unicité de l'esprit des participants individuels ? En d'autres termes, il s'agit, selon vous, de blablater plutôt que de rechercher la vérité ?

 
Maxim Dmitrievsky #:
Je sais très bien ce que j'écris, sinon je ne l'écrirais pas. Ce n'est pas le cas. Arrêtez de flotter, vous êtes ennuyeux.
.
Étudiez le matériel, puis nous en discuterons. Si vous n'y arrivez pas, je ne m'en offusquerai pas. Le fait de le mâcher et de le mettre dans votre bouche, c'est pour les autres.

Maxim, j'ai lancé tout à l'heure la traduction que j'ai réussi à obtenir. En toute franchise, j'en ai tiré les mêmes conclusions que SanSanych Fomenko. J'admets qu'il s'agit d'une traduction déformée, car beaucoup de choses y paraissent étranges, alors qu'elles sont traitées par échantillonnage, puis assorties d'indicateurs. ....

C'est pourquoi je vous suggère d'expliquer ce que personne n'a compris, dans vos propres mots, au moins dans ces mots. Peut-être qu'après cela, je percevrai les informations écrites différemment.

Voici un extrait de la traduction, est-ce que tout est clair ?


 
СанСаныч Фоменко #:

Ce n'est pas dans l'article.

L'ajustement habituel avec différentes divisions des prédicteurs originaux, y compris la validation croisée, est décrit. Une routine qui a été camouflée par des mots.

J'ai une question pour les connaisseurs de l'apprentissage automatique. Si j'utilise les données d'un personnage pour la formation, les données d'un autre personnage pour la validation et les données d'un troisième personnage pour le test, est-ce une bonne pratique ?

Par ailleurs, j'obtiens les résultats suivants à partir des données de test : les cellules vertes sont très bonnes, les cellules jaunes sont bonnes, les cellules rouges sont moyennes.


J'ai également une question concernant la modification des données pour entraîner le modèle. J'ai remarqué que le modèle a du mal à trouver les extrema, dans mon cas les valeurs supérieures à 60 et les valeurs inférieures à 40.
Je trouve donc des valeurs supérieures à 60 et inférieures à 40 dans les données d'entraînement, que je réajoute aux données d'entraînement avant de les introduire dans le modèle. La question est donc la suivante : puis-je améliorer la précision du modèle en augmentant les données d'entraînement contenant des informations sur les extrema ?

inputs_unique, indices = np.unique(inputs, axis=0, return_index=True)
outputs_unique = outputs[indices]

#  Find indices where outputs_unique values are greater than 60
indices_greater_than_60 = np.where(outputs_unique > 0.6)

#  Get the corresponding inputs_unique and outputs_unique values
filtered_inputs_greater = inputs_unique[indices_greater_than_60]
filtered_outputs_greater = outputs_unique[indices_greater_than_60]

#  Add filtered_inputs values to inputs_unique
inputs_unique = np.concatenate((inputs_unique, filtered_inputs_greater), axis=0)
#  Add filtered_outputs values to outputs_unique
outputs_unique = np.concatenate((outputs_unique, filtered_outputs_greater), axis=0)

#  Find indices where outputs_unique values are smaller than 40
indices_smaller_than_40 = np.where(outputs_unique < 0.4)

#  Get the corresponding inputs_unique and outputs_unique values
filtered_inputs_smaller = inputs_unique[indices_smaller_than_40]
filtered_outputs_smaller = outputs_unique[indices_smaller_than_40]

#  Add filtered_inputs values to inputs_unique
inputs_unique = np.concatenate((inputs_unique, filtered_inputs_smaller), axis=0)
#  Add filtered_outputs values to outputs_unique
outputs_unique = np.concatenate((outputs_unique, filtered_outputs_smaller), axis=0)
 
Chapter 1 Introduction | An R Companion for Introduction to Data Mining
  • Michael Hahsler
  • mhahsler.github.io
1.1 Used Software This companion book assumes that you have R and RStudio Desktop installed and that you are familiar with the basics of R, how to run R code and install packages. If you are new...
 

 
Lilita Bogachkova #:

J'ai une question pour les experts en apprentissage automatique. Si j'utilise les données d'un personnage pour l'entraînement, les données d'un autre personnage pour la validation et les données d'un troisième personnage pour le test, est-ce une bonne pratique ?

brièvement NON.

Vous entraînez le modèle à reconnaître les pastèques, vous le testez sur les pommes, vous le validez sur...

 
Lilita Bogachkova #:

J'ai une question pour les experts en apprentissage automatique. Si j'utilise les données d'un personnage pour l'entraînement, les données d'un autre personnage pour la validation et les données d'un troisième personnage pour le test, est-ce une bonne pratique ?

Essayez d'utiliser le même symbole en y ajoutant du bruit.

 
Rorschach #:

Essayez d'utiliser le même personnage en y ajoutant du bruit.

Je pense qu'il vaut mieux décaler le temps s'il ne s'agit pas de tics,

le bruit déforme les données, et le bruit a des paramètres et il n'est pas clair lesquels choisir, et en général, pourquoi ne pas faire des citations à partir du bruit comme je l'ai fait récemment ?

 
Maxim Dmitrievsky #:

Pour transformer les paramètres gênants en fonctions, vous pouvez utiliser les valeurs de sortie de la RF ou de tout algorithme de base, comme dans l'article. Pour ceux qui ne sont pas du tout informés : remplacez les valeurs des paramètres sélectionnés par des valeurs de fonctions. La régression linéaire (ou tout autre algorithme) sera alors le méta-liner par lequel l'effet de trituration sera évalué. Pourquoi et comment tout cela fonctionne - apprenez les mathématiques.

Pour comprendre, il suffit de commencer à penser avec sa tête. Mais Sanych va recommencer à dire des bêtises, parce qu'il veut seulement dire quelque chose sans réfléchir. Sanych, votre manque de compréhension est si grand que vous citez les paramètres RF comme une sorte de preuve, ce qui est absolument incroyable. Je vous ai écrit trois fois : oubliez les radiofréquences. Pour la dernière fois : étudiez le sujet, puis discutez. Sinon, les mêmes personnes mal éduquées vous croient aveuglément.

Et ne répondez pas à mes messages avec l'aplomb d'un je-sais-tout (ce qui est agaçant), parce que vous ne savez rien et que cela ressemble aux divagations d'un ptuschnik.

Toutes les références aux sources sont données dans l'article. Vous avez besoin qu'on vous mette des bâtons dans les roues à chaque mot, comme des chatons aveugles ? Ou bien êtes-vous des adultes après tout ?

C'est vous qui citez autre chose....

Nous avons bien entraîné le modèle, pris des prédicteurs spontanés et les avons remplacés par les valeurs prédites par le modèle, puis nous avons à nouveau entraîné le modèle. Nous comparons le résultat via RMSE pour les modèles/données de régression. Si le résultat s'améliore, c'est que les prédicteurs remplacés ont changé de propriétés pendant la période d'entraînement, ou quoi ?

 
Lilita Bogachkova #:

J'ai une question pour les experts en apprentissage automatique. Si j'utilise les données d'un personnage pour l'entraînement, les données d'un autre personnage pour la validation et les données d'un troisième personnage pour le test, est-ce une bonne pratique ?

De plus, j'obtiens les résultats suivants à partir des données de test : les cellules vertes sont très bonnes, les cellules jaunes sont bonnes, les cellules rouges sont moyennes.

Je ne suis pas un expert, mais je vais vous faire part de mes réflexions.

Peu de gens parviennent à obtenir un modèle qui fonctionne avec succès sur différents caractères. On peut donc considérer que c'est une bonne réussite si c'est effectivement le cas. Je suppose que le modèle voit des modèles qui sont réalisés de manière probabiliste et égale.

Lilita Bogachkova #:

Et aussi une question sur la modification des données pour entraîner le modèle. J'ai remarqué que le modèle a du mal à trouver les extrema, dans mon cas les valeurs supérieures à 60 et les valeurs inférieures à 40.
Je trouve donc des valeurs supérieures à 60 et inférieures à 40 dans les données d'entraînement, que je réajoute aux données d'entraînement avant de les introduire dans le modèle. La question est donc la suivante : est-il possible d'améliorer la précision du modèle en augmentant les données d'entraînement contenant des informations sur les extrema ?

Si vous ajoutez plus d'échantillons, le modèle peut y trouver un modèle unificateur, s'il existe dans le prisme des prédicteurs utilisés.