Retreinamento - página 4

 
Aliaksandr Hryshyn:
Quem usa que técnicas para minimizar a reciclagem do modelo/conselheiro?
Devemos partir do fato de que, neste caso, não podemos prescindir da análise dos dados históricos, e o conceito de "adequação à história" deve ser completamente eliminado. O que deve ser primário é a idéia do próprio TS, no que ele se baseia. Cada TS é baseado nas leituras de um indicador ou indicadores. Estes últimos têm parâmetros como o volume de amostragem N, que chega a seu veredicto após a análise de todo o volume de amostragem. É natural supor que nenhum indicador possa lidar igualmente bem com todos os dados históricos. Portanto, parâmetros tais como SL e TP vêm em socorro. Aqui estão 3 parâmetros básicos que precisam ser otimizados. É necessário encontrar seus valores para que o TS possa passar toda a gama de dados históricos sobre o TF selecionado. Tendo obtido o gráfico de construção para todo o período, precisamos analisar e aceitar o fato de que, nas piores seções, a idéia original por trás do TS não funciona, devido às múltiplas faces do mercado. Tentar procurar e dividir o enredo inteiro em "mau" e "bom", assim como em "treinamento" e "para frente" é uma perda de tempo. O TS precisa ser avaliado com base na quantidade total de material histórico disponível.
 
Youri Tarshecki:

Então, diga-me, como você decide se um atacante está sobretreinado ou subtreinado. O sobretreinamento se degrada de alguma forma diferente do subtreinamento?

A única maneira de determinar a qualidade das condições de treinamento é ver a qualidade correspondente do teste fora da amostra. E somente comparando os resultados você pode dizer se a otimização está super ou sub otimizada. Mas não vejo nenhum tópico tratando de sub-optimização em nenhum lugar. Por alguma razão, todos vêem a raiz do problema na mítica superoptimização em vez da qualidade do código.

A degradação progressiva avalia a generalizabilidade de um sistema (isto é, estabilidade, adequação a dados desconhecidos). Quando (a capacidade) é baixa, então do ponto de vista prático, não faz diferença se nós sobre-treinamos ou sub-treinamos - em qualquer caso, nós vamos jogar fora. Mas se o Expert Advisor é treinado classicamente - usando o conjunto de parâmetros e o testador de MT - então não podemos estar subtreinados (de um ponto de vista técnico). E se o aprendizado for feito usando um algoritmo próprio, podemos usar métodos bem conhecidos (por exemplo, parada antecipada) para encontrar o ponto ótimo quando o "erro é mínimo" (o melhor resultado em OOS): neste ponto, a sub-optimização já terminou, enquanto a sobre-optimização ainda não ocorreu. Infelizmente, o testador padrão não oferece tal funcionalidade automática para comparar o desempenho do sistema no período de otimização e o OOS. O OOS em MT é o teste de avanço. Portanto, o destaque em negrito é na verdade o mesmo que o que estou dizendo. O iniciante do tópico fez uma pergunta sobre requalificação, portanto, as respostas aqui são sobre isso. Quanto ao sub-aprendizado, se com isso nos referimos não ao grau de otimização, mas sim à "qualidade de código" abstrata que parece incluir a escolha de preditores, métodos de preparação de dados de entrada, profundidade da amostra de treinamento e outros meta-conhecimento, então o sub-aprendizado é definido muito simplesmente - pela ausência de resultados positivos de otimização.

 

Eu não concordo com o subtreinamento - tecnicamente não é difícil de fazer. Isto é, o fato da degradação em si não diz se ela é supertreinada ou subtreinada.

Se o autor tira sua mente do termo e entende que o ótimo é algo em Gauss, então ele formulará a questão de uma maneira ligeiramente diferente - como determinar a quantidade e a densidade ótima de treinamento.

Então, podemos ser mais específicos.

Pessoalmente, eu o defino com base nos resultados do teste.

 

Stanislav Korotky:
Термин этот не дурацкий, а давно устоявшийся и "одобренный лучшими собаководами"

De fato, o excesso de treinamento não é realmente um excesso de treinamento, é um excesso de equipamento.

 

Vamos tentar olhar a questão de uma perspectiva um pouco diferente.

O modelo/TS quando treinado (se tiver tal possibilidade) é capaz de lembrar algumas regularidades dos dados históricos, também, devido a sua imperfeição, lembra-se do "ruído". Consideraremos o ruído, pois o TS pode "aprender" e não dar bons resultados sobre novos dados, o ruído pode ser diferente para outras estratégias.

A questão interessante é como podemos, pelo menos parcialmente, limitar o TS/modelo para que ele não possa "lembrar" o ruído? Ou como "limpar" os dados históricos do ruído, mais uma vez, o ruído em relação ao TS.

Aqui está um exemplo simples na foto, vamos assumir que as linhas 1 e 2 são o mesmo modelo.

Aqui está outro exemplo, na área entre as duas linhas verticais, o modelo (linhas vermelhas) está muito errado.

 
Sobre o que são estas fotos, afinal? E quanto aos eixos? O número de otimizações?
 
Комбинатор:

De fato, o excesso de treinamento não é realmente um excesso de treinamento, é um excesso de equipamento.

Exatamente certo. Ajustar ou sobreajustar é a mesma coisa que sobreajustar.
 
Youri Tarshecki:
Exatamente certo. Encaixar ou reequipar é o mesmo que a pila
Se o ajuste ou reajuste for feito na quantidade total de dados históricos, isso só melhora a qualidade do TS.
 
Youri Tarshecki:
Sobre o que são estas fotos afinal? O que sobre os eixos? O número de otimizações?
Eles não são específicos do comércio. Eles mostram exemplos simples de como um modelo (linhas 1 e 2 na primeira figura, e a linha vermelha na segunda) pode estar "errado" nos dados (pequenos quadrados e, abaixo, pontos).

Vamos assumir que no eixo horizontal será o valor do indicador, e no eixo vertical, para os pontos - como o TS deve prever uma determinada propriedade do preço, usando este valor do indicador, a fim de estar no plus. Para as linhas - como o TS prevê. Com base nesta previsão, a TS pode negociar. Este é um exemplo tão condicional. A propriedade prevista pode ser a presença de uma tendência ou flat, volatilidade, etc.
 
Aliaksandr Hryshyn:
Eles não são específicos do comércio. Eles mostram os exemplos mais simples de como um modelo (linhas 1 e 2 na primeira figura, e a linha vermelha na segunda) pode "errar" nos dados (pequenos quadrados e, abaixo, pontos).

Deixe o eixo horizontal ser o valor indicador, e o eixo vertical, para os pontos - como o TS deve prever uma determinada propriedade de preço usando este valor indicador para ser lucrativo. Para as linhas - como o TS prevê. Com base nesta previsão, a TS pode negociar. Este é um exemplo tão condicional. A propriedade prevista pode ser a presença de uma tendência ou flat, volatilidade, etc.

Horizontalmente, deve haver o número de operações de otimização dos valores dos indicadores ou grupo de indicadores, vindo no mesmo momento da história. E na linha vertical, o resultado da verificação de todo o sistema. Então podemos falar sobre o excesso e o subtreinamento e o que eles são. E então a curva será bem diferente. Será quase uma distribuição normal com a única diferença de que em algum momento a adição do número de passes (ou a diminuição do passo para o parâmetro indicador) não dará nada de novo.

Como o número de passes pode ser ajustado?

1. Simplesmente mudando o número de sessões de treinamento, ou mudando a distância (degrau) dos parâmetros indicadores.

2. Mudando a profundidade da história para o treinamento em relação ao "passo" da verificação OOS. Então a mesma parte da história será otimizada um número diferente de vezes, embora com um número diferente de "vizinhos".

3. Alterando um algoritmo de otimização genética, se o utilizarmos. Por exemplo, pela mudança do número de gerações, aleatoriedade, etc.

Aqui, talvez, estejam todas as ferramentas disponíveis para combater o PERE e o NEDO.

Também observarei que se nos concentrarmos exatamente na verificação e não no resultado durante a otimização (ajuste), então a natureza da curva não dependerá do fato de o sistema em si não ser lucrativo ou não. Ou seja, se o sistema estiver perdendo, ele simplesmente perderá ainda mais quando for treinado em excesso, isso é tudo. A tarefa do treinamento é encontrar o melhor dos parâmetros. E a tarefa da codificação é encontrar variantes viáveis, o treinamento ideal não cria nada de novo por si só.

Razão: