Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3215

 
fxsaber #:

Martin.

E se houver uma forte tendência de ausência de recuo, o Martin funcionará? E por que não funcionará?

fxsaber #:

É uma filosofia.

1) Se um algoritmo ganha dinheiro no mercado por um longo período, isso é uma regularidade, certo?

2) E se você sobrepuser outro algoritmo a esse algoritmo, que observará o primeiro algoritmo e coletará estatísticas sobre ele e dará sinais de negociação e ganhará dinheiro.

Então já é uma filosofia, não um padrão, de acordo com você.

Isso é exatamente o que descrevi com o exemplo de um trader...

 
mytarmailS #:

Então você está dizendo que se trata de uma filosofia, não de um padrão.

Vejo uma perda de tempo mútua. Tenho certeza de que, se estivéssemos conversando pessoalmente de frente um para o outro, a probabilidade de entendimento mútuo seria próxima de um.


Sobrepor algo aos resultados do TC é uma prática normal. O mais comum são os filtros. Menos frequentemente - MM (por exemplo, um filtro na curva de equilíbrio: se você se desviar mais fortemente, você altera MM mais fortemente). Ainda mais raro - busca de regularidades nos resultados de negociação.

 
fxsaber #:

Vejo uma perda de tempo mútua. Tenho certeza de que, se estivéssemos conversando pessoalmente, a probabilidade de entendimento mútuo seria próxima de um.

A proposta de uma conferência nos Emirados Árabes Unidos continua de pé.)

 
fxsaber #:

Vejo uma perda de tempo mútua. Tenho certeza de que, se estivéssemos conversando pessoalmente, a probabilidade de entendimento mútuo seria próxima de um.

Concordo

 
Maxim Dmitrievsky #:

ele escreve errado. OOS - teste, validação - segunda subamostra (junto com a trilha) para avaliação do modelo (validação).

A de validação pode ser igual à de teste ou separada.

Essa separação surgiu porque os IOs geralmente usam a segunda subamostra para interromper o treinamento mais cedo. De certa forma, isso poderia ser chamado de ajuste.

É por isso que eles usam 3 subamostras, uma das quais não está envolvida no treinamento.

Validação - confirmação da validade. Sim/Não. A avaliação é uma coisa meio complicada de se fazer em um modelo de adequação.))) avaliações de adequação, então))

A conversa é sobre termos e seus significados, eu acho).

 
Valeriy Yastremskiy #:

Validação - confirmação da validade. Sim/Não. A avaliação é um pouco complicada para um modelo adequado à finalidade.))))) avaliações para adequação à finalidade).

A conversa é sobre termos e seus significados, eu acho).

A validação precede a avaliação, ou inclui a avaliação, como você preferir. Não era esse o objetivo da conversa.

e o que você deveria ter entendido é que os MOSers são subamostras confusas :)) Mas eles produzem várias teorias utópicas de mercado em escala industrial.

Como nosso objetivo é encontrar a rede com o melhor desempenho em novos dados, a abordagem mais simples para comparar redes diferentes é estimar a função de erro em dados independentes dos usados para treinamento. Redes diferentes são treinadas minimizando a função de erro correspondente definida com relação ao conjunto de dados de treinamento. O desempenho das redes é então comparado pela avaliação da função de erro em um conjunto de validação independente, e a rede com o menor erro em relação ao conjunto de validação é selecionada. Essa abordagem é chamada de método holdout. Como esse procedimento sozinho pode levar a alguma sobrecarga do conjunto de validação, o desempenho da rede selecionada deve ser validado medindo-se seu desempenho em um terceiro conjunto de dados independente, chamado de conjunto de teste.

Uma aplicação desse processo é a parada antecipada, em que os modelos candidatos são iterações sucessivas da mesma rede, e o treinamento é interrompido quando o erro no conjunto de validação aumenta, e o modelo anterior (aquele com o erro mínimo) é selecionado.

https://en.wikipedia.org/wiki/Training,_validation,_and_test_data_sets
 
Maxim Dmitrievsky #: Uma aplicação desse processo é a parada antecipada, em que os modelos candidatos são iterações sucessivas da mesma rede, e o treinamento é interrompido quando o erro no conjunto de validação aumenta, e o modelo anterior (aquele com erro mínimo) é selecionado

Em dados com padrões - isso funcionará.
Se não houver quase nenhum, haverá um ajuste ao gráfico no qual a parada antecipada foi feita + um bom rastreamento. Você poderia simplesmente aumentar o traço em uma seção extra e obter praticamente o mesmo modelo.

 
Forester #:

Em dados com padrões, isso funcionará.
Se não houver quase nenhum, haverá um ajuste ao gráfico no qual a parada antecipada foi feita + um bom traço. Você poderia simplesmente aumentar o traço em uma seção extra e obter aproximadamente o mesmo padrão.

Essa é uma pergunta diferente.
 
Maxim Dmitrievsky #:
Essa é uma pergunta diferente.

É isso que eu estava levantando.

 
fxsaber #:

Era isso que ele estava levantando.

Misturando, no mínimo, o bootstrap. Se suas amostras são de distribuições diferentes, de que comparação você pode falar?
O MO não procura padrões, ele classifica amostras com padrões já conhecidos.
Se a busca de padrões por meio do MO for uma técnica separada que eu faço, então a busca de padrões por meio do MO != apenas treinamento em subamostras.
Razão: