Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3211
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Para evitar o peeking, Forester está certo ao dizer que você deve calcular os preditores sem peeking a cada iteração do loop.
Essa é a solução.
No exemplo do ZZ, isso era óbvio.
Mas frequentemente obtenho um erro de classificação de menos de 10% sem o ZZ. Isso acaba sendo uma besteira. Joguei fora.
E você não pode usar o arquivo INE e viver feliz, como Maxim faz com imagens muito bonitas.
Não estou interessado em resolver os problemas mentais de outras pessoas.
Você é responsável por imagens bonitas, mesmo no mercado. Portanto, esse é seu principal problema.
Você é responsável por imagens bonitas, mesmo no mercado. Portanto, esse é seu principal problema.
Há uma aritmética simples que diz que a seleção de recursos é feita a partir de uma pilha de informações heterogêneas, muitas vezes irrelevantes para o assunto do estudo.
Os BPs derivados estão todos relacionados a esse BP, você só pode escolher melhor/pior, o que muitas vezes não faz sentido algum.
Não estou falando de fuçar, esses são alguns problemas infantis. Obviamente, essas brincadeiras não levaram a nada ao longo dos anos. Mas eles persistem em repetir isso.
E os erros ocorrem mesmo na amostra, porque você simplesmente não consegue marcar as negociações corretamente.Há uma aritmética simples que diz que a seleção de recursos é feita a partir de uma pilha de informações heterogêneas, muitas vezes irrelevantes para o assunto do estudo.
Os BPs derivados estão todos relacionados a esse BP, você só pode escolher melhor/pior, o que muitas vezes não faz sentido algum.
Não estou falando de fuçar, esses são alguns problemas infantis. Obviamente, essas brincadeiras não levaram a nada ao longo dos anos. Mas eles persistem em repetir isso.
E os erros ocorrem mesmo na amostra, porque simplesmente não é possível marcar as negociações adequadamente.Os erros de CV não são corrigidos por seu significado, pois são uma busca por parâmetros ideais com minimização de erros. Se um professor e seus preditores estiverem falsamente correlacionados, a CV necessariamente encontrará algo melhor nesse lixo, mas não resolverá o problema do lixo.
O problema do lixo é resolvido pela "capacidade de previsão", ou seja, a capacidade dos valores do preditor de prever uma classe ou outra. Então, fica claro que o erro de classificação é determinado pelo fato de que os mesmos valores preditores preveem uma classe em alguns momentos e outra classe em outros momentos. O Rattle tem até imagens sobre esse tópico.
A CV não cura erros em seu significado, pois é uma busca por parâmetros ideais com minimização de erros. Se um professor e seus preditores estiverem falsamente correlacionados, a CV certamente encontrará algo melhor nesse lixo, mas não resolverá o problema do lixo.
O problema do lixo é resolvido pela "capacidade preditiva", ou seja, a capacidade dos valores do preditor de prever uma classe ou outra. Fica claro, então, que o erro de classificação é determinado pelo fato de que os mesmos valores preditores preveem uma classe em alguns momentos e outra classe em outros momentos. O Rattle tem até imagens sobre esse tópico.
O problema mencionado acima é que há um modelo que tem excelentes resultados em um arquivo de treinamento e um arquivo OOS. Entendo que o arquivo de treinamento pode ser obtido até mesmo por amostragem aleatória por amostra, e o arquivo OOS é o resíduo do arquivo de treinamento.
Mas ao executar o modelo em um arquivo externo, o resultado é catastroficamente ruim.
Acho que mencionei o OOS algumas vezes recentemente. Mas, segundo sua terminologia, o bom OOS era um "arquivo separado".
E como detectar olhando para frente?
Se o aprendizado de várias passagens (o próximo estágio usa os cálculos do anterior), a probabilidade de "olhar para frente" é alta. Não há uma receita geral, mas fiz o seguinte em um caso.
Para acelerar o cálculo, foi necessário eliminar os ticks desnecessários. Por exemplo, se você reduzir o número de ticks em 10 vezes, os cálculos serão acelerados na mesma proporção. Essa é uma ação muito exigida.
No meu caso, eu sabia de quais ticks eu precisava e de quais eu quase não precisava. De qualquer forma, criei um símbolo personalizado e iniciei os backtests com o símbolo personalizado e o original.
Aqui era importante ativar a nerdice e obter uma correspondência >99%. Descobri que, inicialmente, eu estava jogando muito fora e obtive um resultado diferente (é claro, melhor do que o original).
Por fim, comecei a descartar menos do que o original e tudo começou a corresponder. Ou seja, eu realmente uso um método de duas passagens ao treinar.
Portanto, provavelmente, para detectar o peeking após a passagem anterior, você pode usar a verificação descrita acima antes mesmo dos cálculos sérios. Bem, e há também o método do avô para detectar o olhar à frente - "bom demais para ser verdade". Os iniciantes se alegram com os resultados legais, enquanto os mais maduros ficam chateados porque percebem que terão de procurar seu próprio erro por um longo tempo.
Os recém-chegados ficam felizes com os resultados legais, mas os maduros ficam chateados, porque percebem que terão que procurar seus próprios erros por um longo tempo.
E os profissionais olham para eles com pena e condescendência e dizem baixinho para si mesmos: quando vocês pensarão em mudar o conceito, não o cenário?
E profissionais...
Não conheci nenhum.