Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1964

 
Aleksey Vyazmikin:

Posso não ter esclarecido antes que deve haver pelo menos 1% dos indicadores deixados na folha em amostras pequenas e 100 em amostras grandes, portanto, é claro que a divisão não será ao ponto de não haver erro na folha para nenhuma classe.

Você parece entender mal o último passo - eu o vejo como uma avaliação estatística do 1% restante da amostra - nesta amostra observamos que o resultado melhora com divisões por diferentes preditores, obtemos informações subespaciais, por exemplo:

Se A>x1, então o alvo 1 estará correto 40% que é 60% da subamostra

Se B>x2, então o alvo 1 será corretamente identificado com 55%, que é 45% da subamostra.

Se A<=x1, então o alvo 1 será corretamente definido em 70%, o que é 50% da subamostra

Cada uma destas divisões tem um fator de significância (ainda não decidi como calculá-la), e a última divisão também tem um.

e assim por diante, digamos até 5-10 preditores, então ao aplicar, se chegarmos à última divisão, somamos os coeficientes (ou usamos um método de soma mais complicado), e se a soma dos coeficientes exceder o limiar, então a folha é classificada em 1, caso contrário, zero.


Uma maneira simples de implementar isto é construir à força uma floresta até a penúltima fração, e depois excluir os preditores já selecionados da amostra, para que novos sejam selecionados. Ou simplesmente, depois de construir a árvore, filtrar a amostra por folha e passar por cada preditor por si só em busca da melhor divisão que satisfaça o critério de completude e precisão.

E, o resultado na amostra de treinamento irá melhorar se a outra classe "0" significar nenhuma ação e não o oposto, caso contrário pode haver tanto melhoria quanto deterioração.

O resultado do treinamento ainda será algo entre uma árvore treinada para N e N+1 profundidade, por exemplo, 6 e 7. Se no nível 6 o erro for 20% e no nível 7 o erro for 18%, o seu método irá dar um erro entre os dois, por exemplo 19%. Você acha que o ganho de 1% vale o tempo?
Anteriormente descrito um modo simples - treinar algumas árvores para o nível 6 e outras para o nível 7 de profundidade. Isto exigiria a reescrita do código.
Agora arranjei uma maneira mais simples, já que não tens de reescrever nada. Basta construir uma floresta aleatória com qualquer pacote até o nível 6 e outra floresta até o nível 7, depois a média.


A amostra detreino não precisa de nos preocupar - é sempre perfeita.

 
elibrarius:
Mesmo assim, o resultado do treinamento será algo entre uma árvore treinada para N e N+1 profundidade, por exemplo 6 e 7. Se no nível 6 o erro for 20% e no nível 7 o erro for 18%, o seu método irá dar-lhe o erro no meio, por exemplo, 19%. Você acha que o ganho de 1% vale o tempo?
Anteriormente descrito um modo simples - treinar algumas árvores para o nível 6 e outras para o nível 7 de profundidade. Isto exigiria a reescrita do código.
Agora arranjei uma maneira mais simples, já que não tens de reescrever nada. Basta construir uma floresta aleatória com qualquer pacote até o nível 6 e outra floresta até o nível 7, depois a média.


A amostra detreino não nos deve preocupar - está sempre bem.

O ganho é normalmente superior a 1%.

Claro que se pode aleatorizar as florestas, mas como conseguir que sejam iguais até à penúltima divisão? Suponha que você treina 10 árvores para a 6ª divisão, e você treina outras 10 da mesma forma, mas para a 7ª.

 
Aleksey Vyazmikin:

O ganho é normalmente superior a 1%.

Claro que você pode ter florestas aleatórias, mas como conseguir que sejam iguais até a penúltima divisão? Digamos que ensinamos 10 árvores à 6ª divisão, e ensinamos as outras 10 da mesma forma, mas à 7ª divisão.

Nem pensar. É por isso que eles são aleatórios, pois levamos colunas aleatórias para o treino. O cálculo da média dá então bons resultados.
Você pode tentar definir a fração de colunas = 1. Ou seja, todas as colunas estariam envolvidas na construção da árvore, em vez de um 50% aleatório de todas as colunas. Todas as árvores serão as mesmas, por isso, ponha também 1 árvore na floresta. No total uma floresta com uma árvore é treinada até 6, a outra até 7 níveis de profundidade.
Se você precisar de mais de 2 árvores - então retire independentemente algumas colunas do conjunto e treine florestas adicionais em todas as colunas restantes.

Acrescente também: o número de filas participantes no treinamento também deve ser ajustado para 1, ou seja, todas para que o treinamento seja o mesmo. Então, tudo o que é aleatório da floresta aleatória é removido.
 

É um desafio chegar a uma lógica de negociação para esse ns

Até agora, chegámos a este ponto.


mais a arquitetura ns varia em uma ampla gama

o principal é fazer as coisas bem

 
Maxim Dmitrievsky:

É um desafio chegar a uma lógica de negociação para esse ns

Até agora, chegámos a este ponto.


mais a arquitetura ns varia em uma ampla gama

o principal é escolher a recompensa certa

Novamente assumida a NS com reforços? Eles parecem usar a recompensa

 

Sugiro que se testem estes dados, há definitivamente um padrão ali e é claro o que apontar.

ps remover .txt do nome

Arquivos anexados:
test.zip.001.txt  15360 kb
test.zip.002.txt  13906 kb
 

Dentro de 1,5 meses. Auto-aprendizagem completa semintervenção

Vou cavar mais tarde... demasiados parâmetros.

 
Maxim Dmitrievsky:

Dentro de 1,5 meses. Auto-aprendizagem completa semintervenção

Vou cavar mais tarde... demasiados parâmetros.

Nada mal.)
 
Maxim Dmitrievsky:

Em 1,5 meses. Auto-aprendizagem completa semintervenção

Vou cavar mais tarde... demasiados parâmetros.

Então, isto é sobre novos dados comerciais ou como é que o entendes?

 
mytarmailS:

Então, isto é sobre novos dados comerciais ou como é entendido?

Você só o executa e ele negocia, ele aprende à medida que você vai
Razão: