L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 352

 
Maxim Dmitrievsky:

C'est faux, vous êtes en train de créer un modèle de classification. Plus l'échantillon est grand, plus la généralisation est forte, le modèle devient plus robuste en général et moins précis en particulier, respectivement, plus le bénéfice est faible.

Disons-le en termes d'efficacité. Si l'efficacité du système diminue en raison d'une complexité croissante, le système est inintéressant. Une diminution des profits et des pertes indique une baisse de l'efficacité.

Avec une durabilité croissante, l'efficacité devrait augmenter. L'efficacité peut être définie comme le ratio bénéfice/(bénéfice+perte). Vous pouvez également prendre l'efficacité par transaction.

 
Yuriy Asaulenko:

Disons-le en termes d'efficacité. Si l'efficacité du système diminue en raison d'une complexité croissante, le système est inintéressant. Une diminution des profits et des pertes indique une baisse de l'efficacité.

Avec une durabilité croissante, l'efficacité devrait augmenter. L'efficacité peut être définie comme le ratio bénéfice/(bénéfice+perte). Des indicateurs clés de performance par métier peuvent également être envisagés.


Il ne peut pas être appliqué à VS)) il s'avère que l'efficacité à long terme augmente et que l'efficacité à court terme diminue) Si vous voulez donner un exemple... Il y a une stratégie et une tactique... L'apprentissage à court terme aide les N.-É. à gagner sur le plan tactique, et à long terme - la stratégie, différents facteurs peuvent l'influencer...
 
Yuriy Asaulenko:

Disons-le en termes d'efficacité. Si l'efficacité du système diminue en raison d'une complexité croissante, le système est inintéressant. Une diminution des profits et des pertes indique une baisse de l'efficacité.

Avec une durabilité croissante, l'efficacité devrait augmenter. L'efficacité peut être définie comme le ratio bénéfice/(bénéfice+perte). Vous pouvez également prendre des KPI par transaction.

Évitons les bicyclettes appelées KPI.

L'économétrie utilise des critères d'information.

Voici la définition

Lecritère informationnel est une mesure de la qualité relative des modèles économétriques (statistiques) appliquée en économétrie (statistiques) qui prend en compte le degré d'"ajustement" du modèle aux données corrigé (pénalisé) par le nombre utilisé de paramètres estimés. En d'autres termes, les critères sont basés sur un compromis entre la précision et la complexité du modèle.

Les critères informatifs sont utilisés exclusivement pour comparer les modèles entre eux, sans donner d'interprétation significative à leurs valeurs. Ils ne permettent pas de tester les modèles au sens des tests d'hypothèses statistiques. Demanière générale, plus les valeurs des critères sont faibles, plus la qualité relative du modèle est élevée.


Si nous prenons un paquet où la sélection du modèle est supposée, l'un des critères d'information sera utilisé.

 
Dimitri:


Faa écrit le bon point, mais il ne l'énonce pas correctement.

Vous avez une série et un ensemble de prédicteurs. Vous divisez la série en trois parties : un échantillon d'entraînement et un avant (le cas le plus simple).

Vous construisez, par exemple, 20 modèles.

Le fait est que la sélection d'un modèle dans la liste n'est pas effectuée par le meilleur sur l'échantillon d'entraînement et pas par le meilleur sur l'échantillon à venir. Et nous sélectionnons le modèle qui donne presque les mêmes scores de qualité sur l'échantillon d'entraînement et sur l'échantillon avancé.

Nous avons tous les deux raison.

Un critère informationnel est utilisé pour sélectionner le plus simple, mais le critère informationnel n'exclut en aucun cas les tests prospectifs.

 
SanSanych Fomenko:

Laissons de côté les bicyclettes appelées KPI.

L'économétrie utilise des critères d'information.

L'un n'interfère absolument pas avec l'autre et ne le remplace pas. En économie, il existe des critères d'efficacité dans le sens correspondant absolument aux KPI. Il n'y a pas besoin d'inventer quoi que ce soit.

Dans ce cas, nous évaluons le résultat et non le processus. Nous ne nous soucions plus des critères de processus. Le système est une boîte noire. C'est pourquoi nous comparons les caractéristiques des boîtes.

Il existe également des critères d'évaluation - efficacité par rouble d'investissement, efficacité moyenne d'une opération, etc. L'ensemble de l'entreprise fonctionne sur ces critères. Que faisons-nous à la fin ?

 
Maxim Dmitrievsky:
Bien. Vous avez augmenté la stabilité du système - vous avez éliminé les prélèvements. Même si le bénéfice total n'a pas baissé, il est resté constant. La question est la suivante : qu'est-il arrivé aux accords qui vous permettaient de sortir de ces fosses ? Si vous ne les aviez pas supprimés, ils auraient seulement augmenté le bénéfice du système.
 
Yuriy Asaulenko:
Bien. Vous avez augmenté la stabilité du système en éliminant les drawdowns. Même si le bénéfice total n'a pas baissé, mais reste constant. La question est la suivante : qu'est-il arrivé aux accords qui vous permettaient de sortir de ces fosses ? Si vous ne les aviez pas supprimés, ils auraient seulement augmenté le bénéfice du système.

Si vous entraînez le neurone sur des intervalles de temps différents, vous obtiendrez des résultats différents, il n'y a rien à comparer. Je n'ai rien enlevé)
 
Maxim Dmitrievsky:

Si vous entraînez le neurone à différents intervalles de temps, vous obtiendrez des résultats différents, il n'y a même rien à comparer... les signaux seront différents, le modèle sera entraîné différemment et vous ne pourrez pas du tout l'influencer. Je n'ai rien enlevé)

Il est compréhensible que l'optimiseur soit supprimé. Mais la répétabilité des résultats est une exigence de toute expérience. Par exemple, si nous obtenons des résultats différents au test lorsque nous nous entraînons sur des sections différentes, il y a lieu de réfléchir.

Imaginez que nous apprenions à des SN identiques à reconnaître la parole en utilisant le même DdR et que nous décidions ensuite qu'ils ne peuvent même pas être comparés, car ils ont été formés différemment.

 
Yuriy Asaulenko:

Il est compréhensible que l'optimiseur soit supprimé. Mais la répétabilité des résultats est une exigence de toute expérience. Par exemple, si nous obtenons des résultats différents au test lorsque nous nous entraînons sur des sections différentes, il y a lieu de réfléchir.

Imaginez que nous apprenions à des SN identiques à reconnaître la parole en utilisant le même DdR et que nous décidions ensuite qu'ils ne peuvent même pas être comparés, car ils ont été formés différemment.


Eh bien, en quelque sorte, oui, mais dans le modèle actuel, ce n'est pas possible, il n'est pas si complexe qu'il se rapprocherait de la même manière d'un petit ensemble de données et d'une énorme...
 
Maxim Dmitrievsky:

Eh bien, en quelque sorte, oui, mais dans le modèle actuel, c'est impossible, il n'est pas si complexe d'approximer de la même manière un petit ensemble de données et un énorme.

En général, si l'on parle de minutes, le marché est statistiquement homogène, c'est-à-dire que les statistiques évoluent peu (stables) d'une semaine à l'autre, d'un mois à l'autre. Je ne sais pas, je n'ai pas étudié la question. Autant que je me souvienne, vous travaillez sur 1 minute.

En principe, les systèmes simples devraient converger plus rapidement s'ils sont convergents. C'est-à-dire qu'ils ont un maximum élevé. D'ailleurs, nous générons nous-mêmes ces sommets en utilisant des prédicteurs "erronés".

Raison: