Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1255

 
Maxim Dmitrievsky:

Se o mercado é mais ou menos estável, uma tendência ou algo assim, então desta vez vai funcionar, pelo menos para mim... os padrões são os mesmos, porque não?

simplifiquei a curva de aprendizagem para um só botão e não preciso de preditores )) é uma máquina de aspecto engraçado, posso vendê-la como uma exibição de loucura humana

Bem, eu não me preocupei com os palpiteiros para começar. Mas nem sequer tentei com um botão. Com um botão não tenho nada além da mesma otimização, apenas no perfil. Como contorná-lo com um botão é um mistério).

 
Yuriy Asaulenko:

Bem, eu não me preocupei com os palpiteiros para começar. Mas ainda nem sequer tentei com um botão. Não posso fazer nada com um botão, excepto a mesma optimização, apenas no perfil. Como contorná-lo com um botão é um mistério).

Só estou a tentar encontrar o melhor erro na minha amostra de teste, só isso.

otimizador otimizador aha
 
Maxim Dmitrievsky:

Monte Carlo e à procura do melhor erro na amostra de teste, é isso.

Eu não posso passar sem Monte Carlo). Mas o melhor erro não é tão simples. A otimização é uma coisa de muitos fatores e ambígua, e o que é o ótimo está longe de ser óbvio.

 
Yuriy Asaulenko:

Não se pode passar sem Monte Carlo). E não é tão simples com o melhor erro. A otimização é uma coisa multifatorial e ambígua, e o que é o ótimo está longe de ser óbvio.

Estou a ver. Tomo qualquer equação periódica onde o óptimo é evidente e o sistema ganhará dinheiro com isso pelo menos para sempre).

Não há nenhum óptimo no mercado, apenas os locais

 
 

Teoria da leitura em árvores.
Estou a pensar na poda (poda).

É possível usar a seguinte regra simples: construir uma árvore, cortar ou substituir por uma sub-árvore aqueles ramos que não levarão a um aumento de erro.

Talvez seja mais fácil e rápido construir uma árvore sem podar uma folha, a menos que encontre uma divisão que reduza o erro em pelo menos algum valor, por exemplo 0,1-0,5%?
O resultado deve ser o mesmo, mas mais rápido.

Ou será possível que após um par de ramos com melhoria de modelo em 0,0001% se encontre um que o melhore em 1-5% de uma só vez?

 
Maxim Dmitrievsky:

Quanto mais rápido? Já é muito rápido.

E tu vais construir o teu próprio impulso, não vais?

Os métodos Bayesianos são lentos e não para grandes amostras, mas funcionam de forma diferente e não são re-treinados fora da caixa. Cada modelo tem as suas especificidades. Estou a receber um pontapé de saída do Bayesian, grande potência para optimizar o TC sem necessidade de reciclagem.

Boa perspectiva - eles podem ser melhorados em vez de reeducados

Se você tem um milhão de cordas com 200-1000 preditores, provavelmente é muito tempo...
A poda requer a construção da árvore até ao fim e depois a poda.
E com a paragem da ramificação por erro mínimo, penso que haveria uma poupança significativa com um resultado semelhante. No parâmetro xgboost chama-se gama, mas parece não haver poda. Aparentemente, os desenvolvedores também decidiram que essas coisas são intercambiáveis.
 
elibrarius:
Bem, se um milhão de linhas de minuto com 200 a 1000 preditores, provavelmente é longo...
E com a poda - tens de construir a árvore até ao fim, depois poda-a.
E com a paragem da ramificação por erro mínimo, penso que haverá uma poupança significativa com um resultado semelhante. No xgboost o nome do parâmetro é gama, mas parece não haver poda. Aparentemente, os desenvolvedores também decidiram que essas coisas são intercambiáveis.

bem, eles sabem como fazê-lo, há equipas de especialistas a trabalhar nos reforços, a testar

o busto do gato parece funcionar bem, é rápido, as árvores são rasas para começar

milhões de dados em Forex... duvido que seja necessário

 
A propósito, cheguei a uma situação em que a primeira divisão mal melhora o erro e a segunda divisão o melhora em 100%.

4 sectores com 10 pontos cada. 1 divisão ou ao longo do eixo x ou do eixo y. Quase não vai melhorar o erro, ele permanecerá em torno de 50%. Por exemplo, a primeira divisão no meio na vertical. Uma segunda fenda no meio na horizontal resultará numa melhoria muito forte no erro (de 50% para zero).
Mas esta é uma situação criada artificialmente, não acontece na vida.
 
Os tamanhos das amostras nunca são grandes. Se N é muito pequeno para obter uma estimativa suficientemente precisa, você precisa obter mais dados (ou fazer mais suposições). Mas uma vez que N é "suficientemente grande", você pode começar a subdividir os dados para aprender mais (por exemplo, em uma pesquisa de opinião pública, uma vez que você tenha uma boa estimativa para todo o país, você pode estimar entre homens e mulheres, norte e sulistas, diferentes faixas etárias, etc.). N nunca é suficiente porque se fosse "suficiente" você já estaria a par do próximo problema para o qual precisa de mais dados.
Razão: